JP2015043607A - Image processing apparatus, image processing method, image processing program, and recording medium - Google Patents
Image processing apparatus, image processing method, image processing program, and recording medium Download PDFInfo
- Publication number
- JP2015043607A JP2015043607A JP2014208527A JP2014208527A JP2015043607A JP 2015043607 A JP2015043607 A JP 2015043607A JP 2014208527 A JP2014208527 A JP 2014208527A JP 2014208527 A JP2014208527 A JP 2014208527A JP 2015043607 A JP2015043607 A JP 2015043607A
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- image
- image processing
- subject
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、立体視に対応した複数の視点画像に対して所定の画像処理を行う画像処理装置、画像処理方法および画像処理プログラムならびに記録媒体に関する。 The present invention relates to an image processing apparatus, an image processing method, an image processing program, and a recording medium that perform predetermined image processing on a plurality of viewpoint images corresponding to stereoscopic viewing.
近年、立体視用の視点画像、即ち左右の視点画像(左視点画像,右視点画像)間における視差量を変更(拡大、縮小)する処理を行う画像処理装置が開発されている(例えば、特許文献1参照)。尚、ここでの視差量は、左右の視点画像における画像の水平方向の位置のずれ量に相当するものであり、この視差量の大きさに応じて立体感が異なってくる。特許文献1では、左右の視点画像から視差に相当する網膜像差(ディスパリティ)を検出し、そのディスパリティ(具体的にはディスパリティの平均値)に基づいて画像全体を水平シフトさせて視差量を変更する画像処理を行っている。このような視差量の変更制御により、映像表示の際の立体感を変化させることが可能となる。
In recent years, image processing apparatuses that perform processing for changing (enlarging or reducing) the amount of parallax between stereoscopic viewpoint images, that is, left and right viewpoint images (left viewpoint image, right viewpoint image) have been developed (for example, patents). Reference 1). Note that the amount of parallax here corresponds to the amount of shift in the horizontal position of the image in the left and right viewpoint images, and the stereoscopic effect varies depending on the amount of this amount of parallax. In
しかしながら、上記特許文献1の画像処理手法では、視差量の変更制御量を決定する手段がなく、その変更制御量は固定値(一定の値)とされるか、あるいは観察者(ユーザ)によって手動で調整される。ここで、視差量は、ある被写体を、望遠で撮影した場合には比較的大きくなるが、広角で撮影した場合には比較的小さなものとなる。同様に、近くにある被写体を撮影した場合と、遠方にある被写体を撮影した場合とでは、それぞれ視差量が異なってくる。
However, in the image processing method of
このため、例えばいわゆるズーミングにより撮影条件(焦点距離等)が時系列的に変化すると、視差量自体も変化することとなる。従って、ズーミングにより動画撮影した場合の視点画像の各々に対し、一定の制御量で視差量を変更すると、次のような問題が生じる。即ち、変更制御後の各視点画像を動画表示した場合、動き(ズーミング)の途中で立体感が変化し、不自然な映像となってしまう。 For this reason, for example, when the shooting condition (focal length or the like) changes in time series by so-called zooming, the amount of parallax itself also changes. Therefore, if the parallax amount is changed with a constant control amount for each viewpoint image when a moving image is shot by zooming, the following problem occurs. That is, when each viewpoint image after change control is displayed as a moving image, the stereoscopic effect changes during the movement (zooming), resulting in an unnatural image.
本発明はかかる問題点に鑑みてなされたもので、その目的は、特に立体視用の動画として撮影された視点画像において、所望の立体感を保ちつつ視差制御を行うことが可能な画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体を提供することにある。 The present invention has been made in view of such problems, and an object thereof is an image processing apparatus capable of performing parallax control while maintaining a desired stereoscopic effect, particularly in a viewpoint image shot as a stereoscopic moving image. Another object is to provide an image processing method, an image processing program, and a recording medium.
本発明の画像処理装置は、異なる方向から撮影された複数の視点画像において、各視点画像を撮影する際の撮像レンズの焦点距離を用いて各視点画像間の視差量を変更する視差制御処理部を備えたものである。 An image processing apparatus according to the present invention includes a parallax control processing unit that changes a parallax amount between viewpoint images using a focal length of an imaging lens when shooting the viewpoint images in a plurality of viewpoint images shot from different directions. It is equipped with.
本発明の画像処理方法および画像処理プログラムは、異なる方向から撮影された複数の視点画像において、各視点画像を撮影する際の撮像レンズの焦点距離を用いて各視点画像間の視差量を変更するステップを含むものである。 The image processing method and the image processing program of the present invention change the amount of parallax between viewpoint images using a focal length of an imaging lens when shooting each viewpoint image in a plurality of viewpoint images taken from different directions. Includes steps.
本発明の記録媒体は、上記本発明の画像処理プログラムが記録されている、コンピュータ読み取り可能なものである。 The recording medium of the present invention is a computer-readable medium on which the image processing program of the present invention is recorded.
本発明の画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体では、各視点画像間の視差量を、各視点画像を撮影する際の撮像レンズの焦点距離を用いて変更する。視差量は焦点距離等の撮影条件によって変化するものであるが、その焦点距離を利用することで、ズーミングを行いながら撮影した場合等、撮影条件を時系列的に変化させて撮影した場合であっても、その変化に応じた適切な視差制御がなされる。 In the image processing apparatus, the image processing method, the image processing program, and the recording medium of the present invention, the amount of parallax between the viewpoint images is changed using the focal length of the imaging lens when the viewpoint images are captured. The amount of parallax varies depending on the shooting conditions such as the focal length, but this is the case when shooting is performed while changing the shooting conditions in time series, such as when shooting while zooming using the focal length. However, appropriate parallax control according to the change is performed.
本発明の画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体によれば、各視点画像間の視差量を、各視点画像を撮影する際の撮像レンズの焦点距離を用いて変更するようにしたので、動画等の撮影条件を時系列的に変化させて取得した各視点画像に対しても、その変化に応じた適切な視差制御が可能となる。よって、特に立体視用の動画として撮影された視点画像において、所望の立体感を保ちつつ視差制御を行うことが可能となる。 According to the image processing device, the image processing method, the image processing program, and the recording medium of the present invention, the amount of parallax between the viewpoint images is changed using the focal length of the imaging lens when the viewpoint images are captured. Therefore, appropriate parallax control according to the change is also possible for each viewpoint image acquired by changing the shooting conditions such as moving images in time series. Therefore, parallax control can be performed while maintaining a desired stereoscopic effect, particularly in a viewpoint image shot as a stereoscopic moving image.
以下、本発明の実施の形態について、図面を参照して詳細に説明する。尚、説明は以下の順序で行う。
1.第1の実施の形態(2眼式カメラを用いた場合の撮影情報に基づく視差制御処理の例)
2.第2の実施の形態(単眼式カメラを用いた場合の例)
3.変形例1(視差縮小処理の例)
4.変形例2(焦点距離のみを撮影情報として用いる場合の例)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The description will be given in the following order.
1. First embodiment (example of parallax control processing based on photographing information when a twin-lens camera is used)
2. Second embodiment (example using a monocular camera)
3. Modification 1 (example of parallax reduction processing)
4). Modification 2 (example in which only focal length is used as shooting information)
<第1の実施の形態>
[撮像装置1の全体構成]
図1は、本発明の第1の実施の形態に係る撮像装置(撮像装置1)の全体構成を表したものである。撮像装置1は、被写体を互いに異なる複数の視点方向から撮影し、動画(または静止画)として、複数の視点画像(ここでは、左右2つの視点画像)を時系列的に取得するものである。撮像装置1は、左右の各視点方向からの光線LL,LRを取得するための光路毎に、撮像レンズ10a1,10b、および撮像レンズ10a2,10bを有する、いわゆる2眼式カメラを用いたものである。尚、撮像レンズ10bは、各光路に共通の構成要素となっている。この撮像装置1は、また、光路毎にシャッター11a,11bを有すると共に、各光路に共通の構成要素としてイメージセンサ12を備え、更に画像処理部13、レンズ駆動部14、シャッター駆動部15、イメージセンサ駆動部16および制御部17を備えている。
<First Embodiment>
[Overall Configuration of Imaging Device 1]
FIG. 1 shows the overall configuration of an imaging apparatus (imaging apparatus 1) according to a first embodiment of the present invention. The
尚、画像処理部13が本発明の画像処理装置に対応している。また、本発明の画像処理プログラムは、画像処理部13における各画像処理機能をソフトウェア的に実現したものである。この場合、そのソフトウェアは、各画像処理機能をコンピュータにより実行させるためのプログラム群で構成される。各プログラムは、例えば、専用のハードウェアに予め組み込まれて用いられてもよいし、汎用のパーソナルコンピュータなどにネットワークや記録媒体からインストールして用いられてもよい。
The
撮像レンズ10a1,10bは、左視点方向の光線LLを、撮像レンズ10a2,10bは、右視点方向の光線LRをそれぞれ取得するためのレンズ群である。撮像レンズ10a1,10b間にはシャッター11a、撮像レンズ10a2,10b間にはシャッター11bがそれぞれ配設されている。尚、シャッター11a,11bの配置は特に限定されるものではないが、理想的には撮像レンズ群の瞳面あるいは図示しない絞りの位置に配置されることが望ましい。
The imaging lenses 10a1 and 10b are lens groups for acquiring the light beam LL in the left viewpoint direction, and the imaging lenses 10a2 and 10b are the lens group for acquiring the light beam LR in the right viewpoint direction. A
これらの撮像レンズ10a1,10b(撮像レンズ10a2,10b)は、全体としていわゆるズームレンズとして機能するものである。撮像レンズ10a1,10b(撮像レンズ10a2,10b)では、レンズ駆動部14によってレンズ間隔等が調整されることにより、焦点距離を可変となっている。また、各レンズ群はそれぞれ1または複数枚のレンズによって構成されている。これらの撮像レンズ10a1,10b(撮像レンズ10a2,10b)におけるズーミングに関する情報(例えば、焦点距離、被写体距離等)は、撮影情報Dfとして制御部17を介して画像処理部13へ入力されるようになっている。
These imaging lenses 10a1 and 10b (imaging lenses 10a2 and 10b) function as a so-called zoom lens as a whole. In the imaging lenses 10a1 and 10b (imaging lenses 10a2 and 10b), the lens distance and the like are adjusted by the
そのような撮像レンズ10a1とシャッター11aとの間にはミラー110、撮像レンズ10a2とシャッター11bとの間にはミラー111、シャッター11a,11b間にはミラー112がそれぞれ配置されている。これらのミラー110〜112によって、光線LL,LRはそれぞれ、シャッター11a,11bを通過した後、撮像レンズ10bへ入射するようになっている。
A
シャッター11a,11bは、左右の各光路における透過および遮断を切り替えるためのものであり、シャッター11a,11b毎に開状態(透光状態)および閉状態(遮光状態)が切り替え制御されるようになっている。シャッター11a,11bとしては、上記のような光路切り替えが可能なものであれば、機械式のシャッターであってもよいし、例えば液晶シャッターのような電気式のシャッターであってもよい。
The
イメージセンサ12は、撮像レンズ10a1,10bおよびシャッター11aを通過した光線LLまたは撮像レンズ10a2,10bおよびシャッター11bを通過した光線LRに基づいて受光信号を出力する光電変換素子である。このイメージセンサ12は、例えばマトリクス状に配置された複数のフォトダイオード(受光画素)を有し、これら複数のフォトダイオードから線順次で信号の読み出しを行う、ローリングシャッタータイプの撮像素子(例えば、CMOS)である。尚、このイメージセンサ12の受光面側には、例えば所定のカラー配列を有するR,G,Bのカラーフィルタ(図示せず)が配設されていてもよい。
The
(画像処理部13の構成)
画像処理部13は、イメージセンサ12から出力された撮像データに基づく撮像画像(左右の視点画像)に対し、所定の画像処理を施すと共に、画像処理前あるいは画像処理後の撮像データを記憶する各種メモリを含むものである。但し、画像処理後の画像データは、記録せずに外部のディスプレイ等に出力するようにしてもよい。
(Configuration of the image processing unit 13)
The
図2は、画像処理部13の詳細構成について表したものである。画像処理部13は、視差制御処理部131およびディスパリティマップ生成部133を備えており、視差制御処理部131の前段および後段には、画像補正処理部130,132が設けられている。視差制御処理部131は、イメージセンサ12から入力される撮像データ(左視点画像データD0L,右視点画像データD0R)に基づく画像(左視点画像L1,右視点画像R1)に対し、視差量を変更制御するものである。
FIG. 2 shows a detailed configuration of the
ディスパリティマップ生成部133は、撮像データ(左視点画像データD0L,右視点画像データD0R)に基づいて、いわゆるディスパリティマップを生成するものである。具体的には、左右の視点画像間のディスパリティ(disparity:位相差、位相ずれ)を画素毎に算出し、算出したディスパリティを各画素に対応づけたマップを生成する。但し、ディスパリティマップとしては、上記のように画素毎にディスパリティを求めて画素毎に保持してもよいが、所定数の画素からなる画素ブロック毎にディスパリティを求め、求めたディスパリティを各画素ブロックに対応付けて保持するようにしてもよい。ディスパリティマップ生成部133において生成されたディスパリティマップは、マップデータDDとして、視差制御処理部131へ出力されるようになっている。
The disparity
詳細は後述するが、本実施の形態では、視差制御処理部131が、撮影情報Dfに基づいて、入力された左右の視点画像間における視差量を所望の値に変更制御するようになっている。例えば、ズーミングの撮影条件に応じて、視差量が変化する場合にも適切な視差制御を施す。視差量を変更(拡大または縮小)することにより、被写体像がより手前(観察者に近い側)側で観察されるようにしたり、逆により奥側(観察者から遠い側)で観察されるように立体感を変更できる。特に、視差量を変更(本実施の形態では拡大)する際、マップデータDDを用いることにより、視差量だけでなく視差範囲をも拡大することが可能となる。
Although details will be described later, in the present embodiment, the parallax
尚、本明細書において、「視差量」は画面水平方向における位置ずれ量(位相ずれ量)を表し、「視差範囲」は画面奥行き方向における最も手前の観察点から、最も奥側の観察点までのダイナミックレンジを表すものとする。 In this specification, “parallax amount” represents the amount of positional deviation (phase deviation amount) in the horizontal direction of the screen, and “parallax range” refers to the observation point closest to the depth direction of the screen to the deepest observation point. It represents the dynamic range of.
画像補正処理部130は、例えばノイズリダクションやデモザイク処理等の補正処理、画像補正処理部132は、例えばガンマ補正処理等の補正処理をそれぞれ行うものである。
The image
レンズ駆動部14は、撮像レンズ10a1,10a2,10bにおける所定のレンズを光軸に沿ってシフトさせ、焦点距離を変化させるためのアクチュエータである。
The
シャッター駆動部15は、シャッター11a,11b毎の開閉切り替え駆動を行うものである。具体的には、シャッター11aが開状態のときには、シャッター11bが閉状態となるように、シャッター11aが閉状態のときには、シャッター11bが開状態となるようにそれぞれ駆動する。また、動画として各視点画像を取得する際には、シャッター11a,11b毎に開状態および閉状態が時分割で交互に入れ替わるように駆動するようになっている。
The
イメージセンサ駆動部16は、イメージセンサ12を駆動してその受光動作を制御するものである。例えば、イメージセンサ12が上述のようなローリングシャッター型のCMOSイメージセンサである場合には、露光動作および信号読み出し動作をそれぞれ線順次に行うようにイメージセンサ12を駆動する。
The image
制御部17は、画像処理部13、レンズ駆動部14、シャッター駆動部15およびイメージセンサ駆動部16の各動作を所定のタイミングで制御するものであり、この制御部17としては例えばマイクロコンピュータ等が用いられる。
The
[撮像装置1の作用、効果]
(1.基本動作)
上記のような撮像装置1では、制御部17の制御に基づき、レンズ駆動部14が所定のズーミングによる撮影条件で撮像レンズ10a1,10bを駆動すると共に、シャッター駆動部15がシャッター11aを開状態、シャッター11bを閉状態にそれぞれ切り替える。また、これらの各動作に同期して、イメージセンサ駆動部16がイメージセンサ12を受光駆動させる。これにより、左視点方向に対応する左光路が選択され(左光路に切り替えられ)、イメージセンサ12では、被写体側からの入射光線のうち光線LLに基づく受光がなされ、左視点画像データD0Lが取得される。
[Operation and Effect of Imaging Device 1]
(1. Basic operation)
In the
続いて、レンズ駆動部14が所定のズーミングによる撮影条件で撮像レンズ10a2,10bを駆動すると共に、シャッター駆動部15がシャッター11bを開状態、シャッター11aを閉状態にそれぞれ切り替える。また、これらの各動作に同期して、イメージセンサ駆動部16がイメージセンサ12を受光駆動させる。これにより、右視点方向に対応する右光路が選択され(右光路に切り替えられ)、イメージセンサ12では、被写体側からの入射光線のうち光線LRに基づく受光がなされ、右視点画像データD0Rが取得される。
Subsequently, the
これらの各視点画像取得時のズーミングによる撮影条件(焦点距離f、被写体距離S等)は、撮影情報Dfとして、制御部17を介して画像処理部13(詳細には視差制御処理部131)へ入力される。
The shooting conditions (focal length f, subject distance S, etc.) by zooming at the time of acquiring each viewpoint image are taken as shooting information Df to the image processing unit 13 (specifically, the parallax control processing unit 131) via the
上記のような撮像レンズ10a1,10a2およびシャッター11a,11bの切り替え駆動を時分割で交互に行うことにより、左視点画像,右視点画像に対応する撮像データが時系列に沿って交互に取得され、それら左右の視点画像の組が順次画像処理部13へ入力される。
By alternately performing switching driving of the imaging lenses 10a1 and 10a2 and the
画像処理部13は、上記のようにして取得された左視点画像データD0L,右視点画像データD0Rに基づく撮像画像(後述の左視点画像L1,右視点画像R1)に対し、所定の画像処理を施し、例えば立体視用の左右の視点画像(後述の左視点画像L2,右視点画像R2)を生成する。生成した左視点画像L2,右視点画像R2は画像処理部13内に記録されるか、あるいは外部へ出力される。
The
(視点画像取得の原理)
ここで、図3〜図5を参照して、左右の視点画像取得の原理について詳細に説明する。図3および図4は、撮像装置1を上方からみた図に等価であるが、簡便化のため、被写体からイメージセンサ12のセンサ面(受光面)S2までの光線を、ミラー等による光路変更を考慮せずに示してある。また、撮像レンズ10a1,10a2以外の構成要素の図示を省略しており、撮像レンズ10a1,10a2についても簡略化してある。尚、被写体としては、奥行き方向において互いに異なる位置に配置された2つの被写体、具体的には、撮像レンズ10a1,10a2のピント面S1にある被写体A(人物)と、被写体Aよりも奥側(撮像レンズと反対側)に位置する被写体B(山)を例に挙げる。
(Principle of viewpoint image acquisition)
Here, the principle of acquiring the left and right viewpoint images will be described in detail with reference to FIGS. FIGS. 3 and 4 are equivalent to views of the
(左視点画像)
そのような位置関係にある2つの被写体A,Bに対し、光路を左右で切り替えた場合、センサ面S2への映り方は、次のようになる。例えば、図3に示したように、左視点方向に対応する左側の光路(撮像レンズ10a1への入射光を通過させる光路)が透過である場合には、右視点方向に対応する右側の光路は遮光される。この場合、センサ面S2上では、被写体Aは、位置A1Lにフォーカスした(ピントの合った)像として結像し、被写体Bは、位置B1Lにデフォーカスした(ぼやけた)像となって結像する。尚、各被写体の結像位置としては、各被写体像の重心位置を用いるものとする(以下、同様)。
(Left viewpoint image)
When the optical path is switched between right and left for the two subjects A and B having such a positional relationship, the way the image is reflected on the sensor surface S2 is as follows. For example, as shown in FIG. 3, when the left optical path corresponding to the left viewpoint direction (the optical path through which the incident light to the imaging lens 10a1 passes) is transmission, the right optical path corresponding to the right viewpoint direction is Shaded. In this case, on the sensor surface S2, the subject A is formed as an image focused (focused) at the position A1 L , and the subject B is defocused (blurred) at the position B1 L. Form an image. Note that the center of gravity of each subject image is used as the imaging position of each subject (the same applies hereinafter).
(右視点画像)
一方、図4に示したように、右視点方向に対応する右側の光路(撮像レンズ10a2への入射光を通過させる光路)が透過である場合には、左側の光路は遮光される。この場合、センサ面S2上では、被写体Aは、位置A1Rにフォーカスした像として結像するが、被写体Bは位置B1Rにデフォーカスした像となって結像する。
(Right viewpoint image)
On the other hand, as shown in FIG. 4, when the right optical path corresponding to the right viewpoint direction (the optical path through which the incident light to the imaging lens 10a2 passes) is transmitted, the left optical path is shielded. In this case, on the sensor surface S2, the subject A is formed as an image focused on the position A1 R , while the subject B is formed as an image defocused on the position B1 R.
(左右の視点画像間の視差)
上記のように、撮像装置1では、左視点方向および右視点方向のそれぞれに対応する2つの光路が切り替えられることにより、左視点画像および右視点画像を取得することができる。また、図5(A),(B)に模式的に示したように、得られた左視点画像L1および右視点画像R1では、デフォーカスした像(被写体Bの像)が、フォーカスした像(被写体Aの像)に対し、互いに水平方向逆向きにシフトした位置に配置される。
(Parallax between left and right viewpoint images)
As described above, the
そして、これらの左視点画像L1,右視点画像R1に基づく左視点画像L2,右視点画像R2を、例えば偏光方式、フレームシーケンシャル方式、プロジェクタ方式等の所定の3D表示手法を用いて表示することにより、観察者は、その観察映像において、以下のような視差に応じた立体感を感じることができる。但し、この際、被写体Aの位置A1L,A1Rが水平方向で同位置になる(重なる)ようにして表示を行う。これにより、被写体Bの位置B1L,B1R間では水平方向に沿って位置ずれ(位相差)が生じ、この位置ずれが、左右の視差となる。このようにして表示した場合、被写体A(人物)については視差がないため、表示画面(基準面)上で観察されるが、被写体B(山)については、上記のように視差があるため、その視差量に応じた立体感(ここでは、基準面よりも奥まって存在しているかのような立体感)をもって観察される。 The left viewpoint image L2 and the right viewpoint image R2 based on the left viewpoint image L1 and the right viewpoint image R1 are displayed by using a predetermined 3D display method such as a polarization method, a frame sequential method, a projector method, or the like. The observer can feel a stereoscopic effect corresponding to the following parallax in the observed video. However, at this time, the display is performed such that the positions A1 L and A1 R of the subject A are in the same position (overlapping) in the horizontal direction. As a result, a positional shift (phase difference) occurs in the horizontal direction between the positions B1 L and B1 R of the subject B, and this positional shift becomes the left and right parallax. When displayed in this manner, the subject A (person) has no parallax and is observed on the display screen (reference plane), but the subject B (mountain) has parallax as described above, Observation is made with a three-dimensional effect corresponding to the amount of parallax (in this case, a three-dimensional effect as if existing behind the reference surface).
(視差量と撮影条件との関係)
ここで、2眼式の撮像装置1では、上述のような被写体Aが基準面で観察されるように表示を行った場合の被写体Bの視差量Wb1は、位置B1L,B1R間の水平方向に沿った距離に相当する。この視差量Wb1は、撮影条件を用いて以下の式(1)のように定義できる。但し、基線長(撮像レンズ10a1,10a2間の光軸間距離)をL、撮像レンズ10a1,10a2の各焦点距離(詳細には撮像レンズ10a1,10bおよび撮像レンズ10a2,10bの各焦点距離)をf、被写体距離をS、被写体A,B間の距離をdepとする。実際の被写体Bについての立体感は、表示画面サイズ、観察者と表示画面との間の距離等に影響を受けるが、同一画面における被写体Bの被写体Aに対する相対的な立体感は、式(1)によって定まる。
(Relation between parallax amount and shooting conditions)
Here, in the
(2.視差制御処理:撮影情報を用いた視差制御)
本実施の形態では、画像処理部13が、上記のような左視点画像L1,右視点画像R1間の視差量を変更制御(ここでは拡大)する。具体的には、画像処理部13では、イメージセンサ12から入力された左視点画像データD0L,D0Rに対し、画像補正処理部130が、上述のようなノイズリダクション等の処理を施す。この後、画像補正処理部130による画像補正処理後の画像データD1(左視点画像データD1L,右視点画像データD1R)に対し、視差制御処理部131は、撮影情報Dfを用いて、視差量が所望の値に拡大されるように制御する。
(2. Parallax control processing: parallax control using shooting information)
In the present embodiment, the
他方、ディスパリティマップ生成部133は、入力された左視点画像データD0L,右視点画像データD0Rに基づいて、後述の視差量および視差範囲を変更する際に利用するディスパリティマップを生成する。具体的には、左右の視点画像間のディスパリティを画素毎に算出し、算出したディスパリティを各画素に対応づけて保持されたマップを生成する。但し、ディスパリティマップとしては、上記のように画素毎にそれぞれのディスパリティを求めて保持するようにしてもよいが、所定数の画素ブロック毎にディスパリティを求め、求めたディスパリティを各画素ブロックに対応付けて保持するようにしてもよい。ディスパリティマップ生成部133において生成されたディスパリティマップは、マップデータDDとして、視差制御処理部131へ出力される。
On the other hand, the disparity
(比較例)
ここで、本実施の形態の比較例に係る視差制御処理について説明する。比較例では、例えば被写体Bについての視差制御後の視差量をWb100とした場合、この視差量Wb100が、定数αを用いて以下の式(2)のように表される。但し、αは視差変更制御のために予め設定された固定値(定数)、または観察者によって手動で設定された値である。即ち、比較例では、被写体Bについての視差量Wb1の変更制御量(例えば拡大量)が、定数αによって一意的に設定される。
(Comparative example)
Here, the parallax control process according to the comparative example of the present embodiment will be described. In the comparative example, for example, when the parallax amount after the parallax control for the subject B is Wb 100 , the parallax amount Wb 100 is expressed by the following equation (2) using the constant α. However, α is a fixed value (constant) set in advance for parallax change control or a value set manually by the observer. That is, in the comparative example, the change control amount (for example, the enlargement amount) of the parallax amount Wb1 for the subject B is uniquely set by the constant α.
ところが、左右の視差量は、複数の被写体を撮影した場合には、手前にある被写体を撮影した場合と、遠方にある被写体を撮影した場合との各場合において、それぞれ視差量は異なるものとなる。また、同一の被写体に対するものであっても、望遠で撮影した場合には比較的大きく、広角で撮影した場合には比較的小さなものとなる。即ち、ズーミング等により、焦点距離や被写体距離等の撮影条件が変化すると、それに伴って視差量も変化することとなる。 However, the left and right parallax amounts differ when shooting a plurality of subjects, when shooting a subject in the foreground and when shooting a subject in the distance. . Even for the same subject, it is relatively large when taken at a telephoto position and relatively small when taken at a wide angle. That is, when the shooting conditions such as the focal length and subject distance change due to zooming or the like, the parallax amount also changes accordingly.
このため、例えばズーミングを行いながら動画撮影を行った場合、同一の被写体であっても視差量が時系列的に変化する。従って、そのような動画を構成する視点画像の各々に対し、一意的に(一定の変更制御量で)視差量を変更制御すると、次のような不具合が生じる。即ち、変更制御後の各視点画像を動画表示すると、その動き(ズーミング)の途中で視差量(立体感)が変化してしまい、観察者が不自然な立体感を感じ易い。例えば、ある被写体像に対し徐々にズームアップしていくような動画に対して、一定の制御量で視差量を拡大すると、被写体像が奥側にある間は接近感を物足りなく感じたり、逆に手前側では、必要以上に飛び出し感が大きくなったりする。従って、観察者の疲労感が増したり、臨場感や迫力に欠ける映像表示となってしまうことがある。 For this reason, for example, when moving image shooting is performed while zooming, the amount of parallax changes in time series even for the same subject. Therefore, if the parallax amount is changed and controlled uniquely (with a constant change control amount) for each of the viewpoint images constituting such a moving image, the following problem occurs. That is, when each viewpoint image after the change control is displayed as a moving image, the amount of parallax (stereoscopic effect) changes during the movement (zooming), and the observer tends to feel an unnatural stereoscopic effect. For example, if you increase the amount of parallax with a certain amount of control for a movie that gradually zooms up on a certain subject image, you may feel unsatisfactory proximity while the subject image is on the back side, On the front side, the feeling of popping out becomes greater than necessary. Therefore, the observer may feel tired or display an image that lacks realism and power.
(撮影条件を考慮した視差拡大処理)
そこで、本実施の形態では、視差制御処理部131が、そのようなズーミングによる撮影条件を考慮して、各視点画像間の視差量の変更制御を行う。具体的には、上述の視差変更用の定数αと、例えば焦点距離fおよび被写体距離S等をパラメータとして含む係数α(S,f)を用いた以下の式(3)に基づいて、視差量を変更(拡大)制御する。即ち、変更制御後の視差量(出力画像の視差量)をWb2とした場合、この視差量Wb2が所望の値に拡大されるように、係数α(S,f)を設定する。
(Parallax enlargement process considering shooting conditions)
Therefore, in the present embodiment, the parallax
例えば、視差量の値が撮影条件(例えば焦点距離f)に起因して変化しないように、視差量を拡大したい場合には、係数α(S,f)として、以下の式(4)によって表されるものを用いる。これを式(3)に代入すると、式(5)が得られる。この式(5)に基づいて視差制御を行うことにより、焦点距離fの大きさによらず視差量Wb2を拡大制御することが可能となる。即ち、上記のようなズーミングの途中で不自然に視差量(立体感)が変化することを抑制して、観察者にとって観察し易い画像を生成することができる。但し、係数α(S,f)としては、これに限らず、所望とする視差量に対応できるように選定された他のパラメータを含んでいてもよい。 For example, when it is desired to increase the amount of parallax so that the value of the amount of parallax does not change due to shooting conditions (for example, focal length f), the coefficient α (S, f) is expressed by the following equation (4). Use what is done. Substituting this into equation (3) yields equation (5). By performing the parallax control based on the equation (5), the parallax amount Wb2 can be controlled to be enlarged regardless of the focal length f. That is, it is possible to suppress an unnatural change in the amount of parallax (stereoscopic effect) during zooming as described above, and to generate an image that is easy for an observer to observe. However, the coefficient α (S, f) is not limited to this, and may include other parameters selected so as to correspond to a desired amount of parallax.
そして、視差制御処理部131は、被写体Bについての視差量がWb1から上記Wb2まで拡大されるように、左視点画像L1,右視点画像R1における被写体Bの像の各位置(位相、重心位置)を水平方向に沿ってシフトさせる。この際、以下に説明するように、ディスパリティマップを利用した処理を行うことが望ましい。尚、上記説明では、被写体Bにおける視差制御について説明したが、他の被写体についても同様である。即ち、被写体毎に(ここでは被写体B,C毎に)、所望の視差量となるように係数α(S,f)を設定すればよい。
The parallax
(ディスパリティマップを利用した視差拡大動作)
更に、本実施の形態では、上記のような撮影条件を考慮した視差制御処理に際し、上記ディスパリティマップ生成部133より供給されたマップデータDDを使用する。尚、以下では、上記被写体A(人物)および被写体B(山)の他、被写体Aよりも手前側(撮像レンズ10側)に配置された被写体C(花)の計3つの被写体を撮影した視点画像を例に挙げて説明する。即ち、図6(A),(B)に示したように、被写体B,Cの各視差量が拡大するように、左視点画像L1,右視点画像R1のそれぞれにおいて、被写体B,Cの像位置を水平方向(X方向)に沿ってシフトさせる。但し、ここでは、視差のない被写体Aの位置A1L,A1Rは変更せず(視差量0のまま変更せず)、左視点画像L2,右視点画像R2においても同位置に配置されるようにする。
(Parallax expansion operation using disparity map)
Further, in the present embodiment, the map data DD supplied from the disparity
具体的には、被写体Bについては、左視点画像L1での位置B1Lから左視点画像L2における位置B2Lへ、X方向負(−)の向きにシフトさせる(実線矢印)。一方、右視点画像R1での位置B1Rから右視点画像R2における位置B2Rへ、X方向正(+)の向きにシフトさせる(破線矢印)。これにより、被写体Bについての視差量は、視差量Wb1から、上述のように撮影条件を考慮して設定された視差量Wb2へ拡大することができる。他方、被写体Cについても同様にして視差量を拡大する。但し、被写体Cについては、左視点画像L1での位置C1Lから左視点画像L2における位置C2Lへ、X方向正(+)の向きにシフトさせる(破線矢印)。一方、右視点画像R1での位置C1Rから右視点画像R2における位置C2Rへ、X方向負(−)の向きにシフトさせる(実線矢印)。 Specifically, the object B, from the position B1 L of the left-viewpoint image L1 to the position B2 L in the left-viewpoint image L2, X direction negative (-) is shifted in the direction of (solid arrow). On the other hand, from the position B1 R in the right viewpoint image R1 to the position B2 R in the right viewpoint image R2, it is shifted in the direction of the X-direction positive (+) (dashed arrows). Thereby, the parallax amount for the subject B can be expanded from the parallax amount Wb1 to the parallax amount Wb2 set in consideration of the shooting conditions as described above. On the other hand, the parallax amount of the subject C is increased in the same manner. However, the subject C is shifted in the positive X direction (dotted arrow) from the position C1 L in the left viewpoint image L1 to the position C2 L in the left viewpoint image L2. On the other hand, the position is shifted in the X direction negative (−) from the position C1 R in the right viewpoint image R1 to the position C2 R in the right viewpoint image R2 (solid arrow).
このように、本実施の形態では、ディパリティマップを用いることで、被写体毎にその視差量を拡大制御可能となる。例えば、上記のように、被写体A〜Cのうち特定の被写体B,Cの各位置を互いに異なる向きにシフトさせることにより、被写体B,Cのみの視差量を拡大する、といった被写体毎の視差制御が可能となる。また、これにより、水平方向の視差量だけでなく、以下に説明するように、奥行き方向における視差範囲についても拡大することができる。 As described above, in this embodiment, by using the deparity map, the parallax amount can be enlarged and controlled for each subject. For example, as described above, the parallax control for each subject, such as increasing the parallax amount of only the subjects B and C by shifting the positions of the specific subjects B and C among the subjects A to C in different directions. Is possible. As a result, not only the amount of parallax in the horizontal direction but also the range of parallax in the depth direction can be expanded as described below.
(視差範囲の拡大)
図7は、左視点画像データD0L,右視点画像データD0Rに対応する左視点画像L1,R1における視差量および視差範囲を表す模式図であり、図8は、左視点画像L2,R2における視差量および視差範囲を表す模式図である。図7に示したように、左視点画像L1,右視点画像R1間において、被写体Bの視差量がWb1、被写体Cの視差量がWc1である場合、被写体A〜Cの各像の奥行き方向における観察位置は次のようになる。即ち、被写体Aの像は表示画面(基準面)S3上の位置A1’、被写体Bの像は、被写体Aより距離Dab1分だけ奥側の位置B1’、被写体Cの像は、被写体Aより距離Dac1分だけ手前側の位置C1’においてそれぞれ観察される。従って、拡大制御処理前の左視点画像L1,右視点画像R1間の視差範囲は、それらの距離Dab1,Dac1とを合計した距離D1となる。
(Expansion of parallax range)
FIG. 7 is a schematic diagram showing the parallax amount and the parallax range in the left viewpoint images L1 and R1 corresponding to the left viewpoint image data D0L and the right viewpoint image data D0R, and FIG. 8 is a parallax amount in the left viewpoint images L2 and R2. It is a schematic diagram showing a parallax range. As shown in FIG. 7, when the parallax amount of the subject B is Wb1 and the parallax amount of the subject C is Wc1 between the left viewpoint image L1 and the right viewpoint image R1, the depths of the images of the subjects A to C in the depth direction. The observation position is as follows. That is, the image of the subject A is the position A1 ′ on the display screen (reference plane) S3, the image of the subject B is the position B1 ′ farther from the subject A by the distance Dab1, and the image of the subject C is the distance from the subject A. It is observed at the position C1 ′ on the near side by Dac1. Accordingly, the parallax range between the left viewpoint image L1 and the right viewpoint image R1 before the enlargement control process is a distance D1 obtained by adding the distances Dab1 and Dac1.
一方、上述のような拡大制御処理を行うと、図8に示したように、左視点画像L2,右視点画像R2間において、被写体Bの視差量がWb2、被写体Cの視差量がWc2となり、また、被写体A〜Cの奥行き方向における各観察位置は次のように変化する。即ち、被写体Aの像は表示画面(基準面)S3上の位置A2’(=A1’)、被写体Bの像は、位置A2’より距離Dab2(>Dab1)分だけ奥側の位置B2’、被写体Cの像は、位置A2’より距離Dac2(>Dac1)分だけ手前側の位置C2’においてそれぞれ観察される。従って、視差拡大処理後の左視点画像L2,右視点画像R2間の視差範囲は、それらの距離Dab2,Dac2との合計した距離D2となり、かつ、この視差範囲D2は、視差範囲D1よりも拡大される。 On the other hand, when the enlargement control process as described above is performed, the parallax amount of the subject B is Wb2 and the parallax amount of the subject C is Wc2 between the left viewpoint image L2 and the right viewpoint image R2, as shown in FIG. Further, each observation position in the depth direction of the subjects A to C changes as follows. That is, the image of the subject A is a position A2 ′ (= A1 ′) on the display screen (reference plane) S3, and the image of the subject B is a position B2 ′ on the back side by a distance Dab2 (> Dab1) from the position A2 ′. The image of the subject C is observed at a position C2 ′ on the near side by a distance Dac2 (> Dac1) from the position A2 ′. Accordingly, the parallax range between the left viewpoint image L2 and the right viewpoint image R2 after the parallax enlargement process is the total distance D2 of the distances Dab2 and Dac2, and the parallax range D2 is larger than the parallax range D1. Is done.
このように、ディスパリティマップを用いることで、水平方向における視差量だけでなく、奥行き方向における視差範囲をも拡大することができる。これにより、例えば上記のように、基準面S3よりも奥側にある被写体Bはより奥まって、手前側にある被写体Cはより手前側に飛び出して各々観察されるような、即ち被写体毎の各立体感をより強調するような視差制御を行うことができる。換言すると、1つの画面内において観察される被写体B,C間の奥行き方向における距離感を拡げることができる。仮に、ディスパリティマップを用いなかった場合には、上記のような被写体毎(画素毎、画素ブロック毎)の位相シフトができないため、視差範囲を拡大できず、各被写体間の奥行き方向の距離を一定に保ったまま、各被写体像をシフトさせることとなる。このような視差制御では、全ての被写体像を、奥側および手前側のどちらか一方に一括してシフトすることしかできず、立体感の変化が単調となり易い(視差制御の自由度が乏しい)。 Thus, by using the disparity map, not only the amount of parallax in the horizontal direction but also the range of parallax in the depth direction can be expanded. As a result, for example, as described above, the subject B on the back side of the reference plane S3 is deeper and the subject C on the front side protrudes to the front side and is observed, that is, for each subject. It is possible to perform parallax control that enhances the stereoscopic effect. In other words, the sense of distance in the depth direction between the subjects B and C observed on one screen can be expanded. If the disparity map is not used, the phase shift for each subject (for each pixel and each pixel block) as described above cannot be performed, so the parallax range cannot be expanded, and the distance in the depth direction between each subject is Each subject image is shifted while keeping it constant. In such parallax control, all subject images can only be shifted collectively to either the back side or the near side, and the change in stereoscopic effect tends to be monotonous (the degree of freedom in parallax control is poor). .
上記のようにして視差拡大処理が施された後の左視点画像L2,右視点画像R2は、画像データD2として画像補正処理部132へ入力される。画像補正処理部132は、入力された画像データD2に対し、上述のガンマ補正処理等を施し、画像データDoutとして、図示しない記憶部へ出力するか、外部のディスプレイ装置等へ送信される。
The left viewpoint image L2 and the right viewpoint image R2 that have been subjected to the parallax enlargement process as described above are input to the image
以上のように、本実施の形態では、左視点画像L1,右視点画像R1に対し、その撮影条件に関する撮影情報Dfを用いて、視差量の拡大制御処理を施すことにより、上述のように焦点距離等の撮影条件が変化した場合であっても、その変化に応じた適切な視差制御処理を行うことができる。よって、視差量の変更制御量を一定とする場合と異なり、立体視用の動画として撮影された視点画像に対しても、所望の立体感を保ちつつ視差制御を行うことが可能となる。 As described above, in this embodiment, the left viewpoint image L1 and the right viewpoint image R1 are subjected to the parallax amount enlargement control process using the shooting information Df related to the shooting conditions, thereby focusing as described above. Even when the shooting conditions such as the distance change, an appropriate parallax control process according to the change can be performed. Therefore, unlike the case where the change control amount of the parallax amount is constant, it is possible to perform the parallax control while maintaining a desired stereoscopic effect even with respect to the viewpoint image shot as a stereoscopic moving image.
<第2の実施の形態>
[撮像装置3の全体構成]
図9は、本発明の第2の実施の形態に係る撮像装置(撮像装置3)の全体構成を表したものである。撮像装置3は、上記第1の実施の形態の撮像装置1と同様、被写体を複数(ここでは左右)の視点方向から撮影し、動画(または静止画)として、左右の視点画像を時系列的に取得するものである。但し、本実施の形態の撮像装置3は、いわゆる単眼式カメラを用いたものであり、シャッター制御によって左右の光路を切り替え可能となっている。この撮像装置3は、撮像レンズ10a,10b、シャッター11、イメージセンサ12、画像処理部13、レンズ駆動部18,シャッター駆動部19、イメージセンサ駆動部16および制御部17を備えている。以下では、上記第1の実施の形態と同様の構成要素については同一の符号を付し、適宜説明を省略する。
<Second Embodiment>
[Overall Configuration of Imaging Device 3]
FIG. 9 shows the overall configuration of an imaging apparatus (imaging apparatus 3) according to the second embodiment of the present invention. Similar to the
撮像レンズ10a,10bは、被写体からの光線を取得するためのレンズ群であり、これらの撮像レンズ10a,10b間に、シャッター11が配設されている。尚、シャッター11の配置は特に限定されるものではないが、理想的には、撮像レンズ10a,10bの瞳面あるいは図示しない絞りの位置に配置されることが望ましい。撮像レンズ10a,10bは、上記第1の実施の形態における撮像レンズと同様、いわゆるズームレンズとして機能し、レンズ駆動部18によってレンズ間隔等が調整されることにより、焦点距離を変更可能となっている。これらの撮像レンズ10a,10bにおけるズーミングに関する情報は、撮影情報Dfとして制御部17を介して画像処理部13へ入力されるようになっている。
The
シャッター11は、左右2つの領域に分割されており、その分割された領域毎に透過および遮断を切り替え制御されるようになっている。シャッター11としては、そのような左右の領域毎に開閉を切り替え可能なものであれば、機械式のシャッターであってもよいし、例えば液晶シャッターのような電気式のシャッターであってもよい。
The
画像処理部13は、上記第1の実施の形態と同様、入力された左右の視点画像に対し、所定の画像処理を施すものであり、画像補正処理部130,132、視差制御処理部131およびディスパリティマップ生成部133を備えたものである。また、視差制御処理部131は、左視点画像L1,右視点画像R1に対し、視差量の変更制御処理を行うものである。但し、本実施の形態では、詳細は後述するが、この画像処理部13における視差制御処理部131が、単眼式カメラにおける撮影条件を用いて視差量を制御するようになっている。
As in the first embodiment, the
レンズ駆動部18は、撮像レンズ10a,10bにおける所定のレンズを光軸に沿ってシフトさせるアクチュエータである。
The
シャッター駆動部19は、シャッター11における各領域の開閉切り替え駆動を行うものである。具体的には、シャッター11の左側領域が開状態のときには、右側領域が閉状態となるように、逆に左側領域が閉状態のときには、右側領域が開状態となるようにそれぞれ駆動する。動画撮影の際には、シャッター11において左右の各領域の開閉が時分割で交互に切り替わるように駆動するようになっている。
The
[撮像装置3の作用、効果]
(1.基本動作)
撮像装置3では、制御部17の制御に基づき、レンズ駆動部18が撮像レンズ10a,10bを所定のズーミングによる撮影条件で駆動すると共に、シャッター駆動部19がシャッター11における左側領域を開状態、右側領域を閉状態にそれぞれ切り替える。また、これらの各動作に同期して、イメージセンサ駆動部16がイメージセンサ12を受光駆動させる。これにより、左光路への切り替えがなされ、イメージセンサ12では、左視点方向から入射した光線に基づく左視点画像データD0Lが取得される。
[Operation and Effect of Imaging Device 3]
(1. Basic operation)
In the
続いて、シャッター駆動部19がシャッター11の右側領域を開状態、左側領域を閉状態にそれぞれ切り替え、イメージセンサ駆動部16がイメージセンサ12を受光駆動させる。これにより、右光路への切り替えがなされ、イメージセンサ12では、右視点方向から入射した光線に基づく右視点画像データD0Rが取得される。
Subsequently, the
これらの各視点画像取得時のズーミングの条件(焦点距離f、被写体距離S等)は、上記第1の実施の形態と同様、撮影情報Dfとして、制御部17を介して画像処置部13(詳細には視差制御処理部131)へ入力される。 The zooming conditions (focal length f, subject distance S, etc.) at the time of acquiring each viewpoint image are the imaging information Df via the control unit 17 (details) as in the first embodiment. Is input to the parallax control processing unit 131).
そして、上記のシャッター11における開閉切り替え動作およびイメージセンサ12における受光動作を時分割で行うことにより、左視点画像,右視点画像に対応する撮像データが時系列に沿って交互に取得され、それらの組が順次画像処理部13へ入力される。
Then, by performing the opening / closing switching operation in the
画像処理部13は、上記のようにして取得された左視点画像データD0L,右視点画像データD0Rに基づく撮像画像(左視点画像L1,右視点画像R1)に対し、所定の画像処理を施し、例えば立体視用の左視点画像L2,右視点画像R2を生成する。生成した左視点画像L2,右視点画像R2は画像処理部13内に記録されるか、あるいは外部へ出力される。
The
(視点画像取得の原理)
ここで、図10〜図12を参照して、単眼式カメラを用いた場合の左右の視点画像取得の原理について説明する。図10〜図12は、撮像装置3を上方からみた図に等価であるが、簡便化のため、撮像レンズ10a,10b、シャッター11およびイメージセンサ12以外の構成要素の図示を省略しており、撮像レンズ10a,10bについても簡略化してある。
(Principle of viewpoint image acquisition)
Here, with reference to FIG. 10 to FIG. 12, the principle of acquiring the left and right viewpoint images when using a monocular camera will be described. 10 to 12 are equivalent to views of the
まず、図10に示したように、左右の光路切り替えをしない場合(通常の2D撮影の場合)の受光像(イメージセンサ12への映り方)について説明する。ここでは、被写体の一例として、奥行き方向において互いに異なる位置に配置された3つの被写体(上記被写体A〜C)について述べる。前述のように、被写体A(人物)は、撮影レンズ10a,10bのピント面S1に、被写体B(山)は被写体Aよりも奥側に、被写体C(花)は被写体Aよりも手前側にそれぞれ配置されている。この場合、被写体Aが、例えばセンサ面S2上の中央付近に結像する。一方、ピント面S1よりも奥側に位置する被写体Bは、センサ面S2の手前(撮像レンズ10b側)に結像し、被写体Cは、センサ面S2の奥側(撮像レンズ10bと反対側)に結像する。即ち、センサ面S2には、被写体Aがフォーカスした(ピントの合った)像(A0)、被写体Bおよび被写体Cはデフォーカスした(ぼやけた)像(B0,C0)となって映る。
First, as shown in FIG. 10, a light reception image (how to be reflected on the image sensor 12) when the left and right optical paths are not switched (in the case of normal 2D imaging) will be described. Here, three subjects (subjects A to C) arranged at different positions in the depth direction will be described as an example of the subject. As described above, the subject A (person) is on the focusing surface S1 of the taking
(左視点画像)
このような位置関係にある3つの被写体A〜Cに対し、光路を左右で切り替えた場合、センサ面S2への映り方は、次のように変化する。例えば、シャッター駆動部19が、シャッター11の左側領域SLを開状態、右側領域SRを閉状態となるように駆動した場合には、図11に示したように、左側の光路が透過となり、右側の光路は遮光される。この場合、ピント面S1にある被写体Aに関しては、右側の光路を遮光されていても、光路切り替えのない上記場合と同様、センサ面S2上にフォーカスして結像する(A0)。ところが、ピント面S1から外れた位置にある被写体B,Cについては、センサ面S2上においてデフォーカスしたそれぞれの像が、水平方向において互いに逆の方向(d1,d2)に移動したような像(B0',C0')として映る。
(Left viewpoint image)
When the optical path is switched between right and left for the three subjects A to C having such a positional relationship, the way the image is reflected on the sensor surface S2 changes as follows. For example, when the
(右視点画像)
一方、シャッター駆動部19が、シャッター11の右側領域SRを開状態、左側領域SLを閉状態となるように駆動した場合には、図12に示したように、右側の光路が透過となり、左側の光路は遮光される。この場合も、ピント面S1にある被写体Aは、センサ面S2上に結像し、ピント面S1から外れた位置にある被写体B,Cは、センサ面S2上において互いに逆の方向(d3,d4)に移動したような像(B0",C0")として映る。但し、これらの移動方向d3,d4は、上記左視点画像における移動方向d1,d2とそれぞれ逆向きとなる。
(Right viewpoint image)
On the other hand, when the
(左右の視点画像間の視差)
上記のように、撮像装置3においても、シャッター11における各領域の開閉を切り替えることにより、上記第1の実施の形態の撮像装置1と同様、左右の各視点方向に対応する光路が切り替えられ、左視点画像L1,右視点画像R1を取得することができる。また、上述のようにデフォーカスした被写体像は、左右の視点画像間で互いに水平方向逆向きにシフトするため、その水平方向に沿った位置ずれ量(位相差)が視差量となる。例えば図14(A),(B)に示したように、被写体Bに注目した場合、左視点画像L1における像B0’の位置(B1L)と右視点画像R1における像B0”の位置(B1R)との水平方向の位置ずれ量Wb1が、被写体Bについての視差量となる。同様に、被写体Cに注目した場合、左視点画像L1における像C0’の位置(C1L)と右視点画像R1における像C0”の位置(C1R)との水平方向の位置ずれ量Wc1が、被写体Cについての視差量となる。
(Parallax between left and right viewpoint images)
As described above, also in the
従って、本実施の形態においても、上記第1の実施の形態と同様、このような左右の視点画像を、所定の3D表示手法を用いて観察者に向けて表示することにより、観察者は、その観察映像において各被写体像の視差量に応じた立体感を感じることができる。例えば、上述の例では、視差のない被写体A(人物)は表示画面(基準面)上で観察される一方、被写体B(山)はその基準面よりも奥まって見え、被写体C(花)は基準面から飛び出したような立体感で観察される。 Therefore, also in the present embodiment, as in the first embodiment, such left and right viewpoint images are displayed toward the viewer using a predetermined 3D display technique, so that the viewer can A stereoscopic effect corresponding to the amount of parallax of each subject image can be felt in the observed video. For example, in the above-described example, the subject A (person) having no parallax is observed on the display screen (reference plane), while the subject B (mountain) appears to be deeper than the reference plane, and the subject C (flower) is It is observed with a three-dimensional effect that protrudes from the reference plane.
(視差量と撮影条件との関係)
ここで、左視点画像L1,右視点画像R1間の被写体Bの視差量Wb1について注目した場合、単眼式の撮像装置3では、視差量Wb1は、撮影条件を用いて以下の式(6)のように定義できる。但し、図14(A)に示したように、撮像レンズ10a,10bの焦点距離をf、被写体距離をS、被写体A,B間の距離をdepとする。また、図14(B)に示したように、瞳面における左右の各領域の重心GL,GR間の距離をG(重心間距離)、瞳直径をDとする。このように、本実施の形態(単眼式)においても、視差量Wb1は、上記第1の実施の形態(2眼式)と同様の撮影条件を用いた式によって表され、上述の式(1)における基線長Lを重心間距離Gに置き換えたものに等価である。また、実際の被写体Bについての被写体Aに対する相対的な立体感は、式(6)によって定まる。
(Relation between parallax amount and shooting conditions)
Here, when attention is paid to the parallax amount Wb1 of the subject B between the left viewpoint image L1 and the right viewpoint image R1, in the
(2.視差制御処理)
本実施の形態では、上記第1の実施の形態と同様、画像処理部13が、左視点画像L1,右視点画像R1間の視差量を変更制御する。具体的には、画像処理部13における視差制御処理部131が、左視点画像L1,右視点画像R1に対し、撮影情報Dfを用いて視差量および視差範囲を拡大制御する。
(2. Parallax control processing)
In the present embodiment, as in the first embodiment, the
(撮影条件を考慮した視差拡大処理)
そして、本実施の形態においても、視差制御処理部131が、上述のようなズーミングによる撮影条件を考慮して、各視点画像間における視差量の拡大制御を行う。具体的には、例えば焦点距離fおよび被写体距離S等をパラメータとして含む係数α(S,f)を用いた以下の式(7)に基づいて、視差量を拡大制御する。即ち、例えば被写体Bに注目した場合、拡大制御後の視差量Wb2が、所望の値となるように係数α(S,f)を設定する。尚、この係数α(S,f)としては、上記第1の実施の形態と同様、視差量の値が撮影条件に起因して変化しないように、視差量を拡大したい場合、前述の式(4)によって表されるものを用いることができる。これにより、本実施の形態においても、上記のようなズーミングの途中で視差量(立体感)が不自然に変化することを抑制することができる。但し、重心間距離Gは瞳直径Dを用いて、以下の式(8)のように表され、更にこの瞳直径Dは焦点距離fとFナンバーFを用いて表されることから、式(9)のように表すこともできる。即ち、焦点距離f,被写体距離S以外にも、瞳直径DやFナンバーFをパラメータとして用いるようにしてもよい。
(Parallax enlargement process considering shooting conditions)
Also in the present embodiment, the parallax
(ディスパリティマップの利用)
また、このような視差制御処理に際しては、上記第1の実施の形態と同様、マップデータDDを使用することにより、被写体毎にその視差量を拡大することができる。また、これにより、水平方向の視差量だけでなく、奥行き方向における視差範囲についても拡大することができる。よって、上記第1の実施の形態と同様、奥側にある被写体Bはより奥まって、手前側にある被写体Cはより飛び出して各々観察されるような、即ち被写体毎の立体感をより強調するような視差制御が可能となる。
(Use of disparity map)
In such parallax control processing, the parallax amount can be enlarged for each subject by using the map data DD as in the first embodiment. As a result, not only the amount of parallax in the horizontal direction but also the range of parallax in the depth direction can be expanded. Therefore, as in the first embodiment, the subject B on the far side is deeper and the subject C on the near side protrudes further, that is, the stereoscopic effect for each subject is more emphasized. Such parallax control is possible.
このようにして視差拡大処理が施された後の左視点画像L2,右視点画像R2は、画像補正処理部132により所定の画像補正処理が施された後、画像データDoutとして、図示しない記憶部、または外部のディスプレイ装置等へ出力される。
The left viewpoint image L2 and the right viewpoint image R2 that have been subjected to the parallax enlargement processing in this way are subjected to predetermined image correction processing by the image
以上のように、本実施の形態においても、上記第1の実施の形態と同様、左視点画像L1,右視点画像R1に対し、その撮影条件に関する撮影情報Dfを用いて、視差量の拡大制御を行うことにより、撮影条件が変化した場合であっても、その変化に応じた適切な視差量制御処理を行うことができる。よって、上記第1の実施の形態と同等の効果を得ることができる。 As described above, also in the present embodiment, as in the first embodiment, the parallax amount enlargement control is performed on the left viewpoint image L1 and the right viewpoint image R1 by using the shooting information Df regarding the shooting conditions. By performing the above, it is possible to perform an appropriate parallax amount control process corresponding to the change even when the shooting condition changes. Therefore, an effect equivalent to that of the first embodiment can be obtained.
以下、上記第1,第2の実施の形態に係る撮像装置の変形例(変形例1,2)について説明する。尚、以下では、上記第1,第2の実施の形態の撮像装置と同様の構成要素については同一の符号を付し、適宜説明を省略する。 Hereinafter, modified examples (modified examples 1 and 2) of the imaging devices according to the first and second embodiments will be described. In the following description, the same components as those in the imaging devices of the first and second embodiments are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
<変形例1>
上記第1,第2の実施の形態では、視差量の変更制御処理の一例として拡大制御処理を例に挙げて説明したが、逆に視差量を縮小するような変更制御を行うこともできる。即ち、上記と同様にして取得した左視点画像L1,右視点画像R1に対し、撮影情報Dfを用いた視差制御の際に、ディスパリティマップを利用して、次のような縮小制御を行ってもよい。即ち、図15(A),(B)に示したように、左視点画像L1,右視点画像R1において、それらの被写体B,Cの各視差量が縮小するように、被写体B,Cの像の位置を水平方向(X方向)に沿ってシフトさせる。但し、ここでも、視差のない被写体Aの位置A1L,A1Rは変更せず(視差量0のまま保持し)、左視点画像L2,右視点画像R2においても同位置に配置されるようにする。
<
In the first and second embodiments, the enlargement control process has been described as an example of the parallax amount change control process, but it is also possible to perform change control that reduces the parallax amount. That is, for the left viewpoint image L1 and the right viewpoint image R1 acquired in the same manner as described above, the following reduction control is performed using the disparity map in the parallax control using the shooting information Df. Also good. That is, as shown in FIGS. 15A and 15B, in the left viewpoint image L1 and the right viewpoint image R1, the images of the subjects B and C so that the parallax amounts of the subjects B and C are reduced. Is shifted along the horizontal direction (X direction). However, also here, the positions A1 L and A1 R of the subject A having no parallax are not changed (the parallax amount is kept 0), and the left viewpoint image L2 and the right viewpoint image R2 are also arranged at the same position. To do.
具体的には、被写体Bについては、左視点画像L1での位置B1Lから左視点画像L2における位置B2Lへ、X方向正(+)の向きにシフトさせる(破線矢印)。一方、右視点画像R1での位置B1Rから右視点画像R2における位置B2Rへ、X方向負(−)の向きにシフトさせる(実線矢印)。これにより、被写体Bについての視差量は、視差量Wb1から、この視差量Wb1よりも小さな視差量Wb3へ縮小することができる。尚、本変形例においても、視差量Wb3は、撮影情報Df(焦点距離f,被写体距離S等)を用いて設定される。他方、被写体Cについても同様にして視差量を縮小する。但し、被写体Cについては、左視点画像L1での位置C1Lから左視点画像L2における位置C2Lへ、X方向負(−)の向きにシフトさせる(実線矢印)。一方、右視点画像R1での位置C1Rから右視点画像R2における位置C2Rへ、X方向正(+)の向きにシフトさせる(破線矢印)。 Specifically, the object B, from the position B1 L of the left-viewpoint image L1 to the position B2 L in the left-viewpoint image L2, is shifted in the direction of the X-direction positive (+) (dashed arrows). On the other hand, from the position B1 R in the right viewpoint image R1 to the position B2 R in the right viewpoint image R2, X direction negative (-) is shifted in the direction of (solid arrow). Thereby, the parallax amount for the subject B can be reduced from the parallax amount Wb1 to the parallax amount Wb3 smaller than the parallax amount Wb1. Also in this modification, the parallax amount Wb3 is set using the shooting information Df (focal length f, subject distance S, etc.). On the other hand, the parallax amount of the subject C is reduced in the same manner. However, the subject C is shifted in the negative X direction (−) from the position C1 L in the left viewpoint image L1 to the position C2 L in the left viewpoint image L2. On the other hand, the X-direction positive (+) direction is shifted from the position C1 R in the right viewpoint image R1 to the position C2 R in the right viewpoint image R2 (broken arrow).
このように、本変形例においても、ディスパリティマップを用いることで、被写体毎にその視差量を縮小可能となる。例えば、上記のように、被写体A〜Cのうち特定の被写体B,Cの各位置を互いに異なる向きにシフトさせて、被写体B,Cの視差量のみを縮小する、といった被写体毎の視差制御が可能となる。これにより、上記と同様の理由から、水平方向の視差量だけでなく、奥行き方向における視差範囲についても縮小することができる。よって、例えば奥側,手前側に観察される各被写体像を基準面により近づけて観察されるようにする、即ち被写体毎の立体感を緩和することが可能である。 Thus, also in this modification, the disparity amount can be reduced for each subject by using the disparity map. For example, as described above, the parallax control for each subject such as shifting the positions of specific subjects B and C among the subjects A to C in different directions to reduce only the parallax amount of the subjects B and C is performed. It becomes possible. Thereby, for the same reason as described above, not only the amount of parallax in the horizontal direction but also the parallax range in the depth direction can be reduced. Therefore, for example, it is possible to observe each subject image observed on the back side and the near side closer to the reference plane, that is, to reduce the stereoscopic effect for each subject.
<変形例2>
また、上記第1,第2の実施の形態では、撮影情報Dfとして焦点距離fおよび被写体距離Sを使用し、これらS,fをパラメータとする係数α(S,f)を用いて、視差制御処理を行うようにしたが、撮影情報Dfとして使用するパラメータは、これらに限定されない。撮影情報Dfとしては、例えば、上述のように、他のパラメータを用いてもよいし、本変形例のように、焦点距離fのみを用いてもよい。
<
In the first and second embodiments, the focal length f and the subject distance S are used as the shooting information Df, and the parallax control is performed using the coefficient α (S, f) using these S and f as parameters. Although the processing is performed, the parameters used as the photographing information Df are not limited to these. As the shooting information Df, for example, other parameters may be used as described above, or only the focal length f may be used as in the present modification.
即ち、一般的なカメラにおいて焦点の合う範囲では、S>>fとなるので、このことを考慮すると、視差量Wb2は以下の式(10)のように表すことができる。従って、上記第1,第2の実施の形態と同様、視差量の値が撮影条件に起因して変化しないように、視差量を変更(拡大、縮小)したい場合、その係数α(S,f)として、以下の式(11)により表されるものを用いればよい。これにより、上記第1,第2の実施の形態と同様、ズーミングの途中で視差量(立体感)が不自然に変化することを抑制することができる。 That is, since S >> f is obtained in a focus range in a general camera, the parallax amount Wb2 can be expressed by the following expression (10) in consideration of this. Therefore, as in the first and second embodiments, when it is desired to change (enlarge or reduce) the parallax amount so that the value of the parallax amount does not change due to the shooting conditions, the coefficient α (S, f ) May be expressed by the following formula (11). As a result, as in the first and second embodiments, it is possible to suppress an unnatural change in the amount of parallax (three-dimensional effect) during zooming.
以上、実施の形態および変形例を挙げて本発明を説明したが、本発明はこれらの実施の形態等に限定されるものではなく、種々の変形が可能である。例えば、上記実施の形態等では、左右2つの光路を切り替えて取得した左右の視点画像に対して所定の画像処理を施す場合を例に挙げて説明したが、視点方向は左右(水平方向)に限らず上下(垂直方向)であってもよい。また、光路を3つ以上に切り替え可能とし、3つ以上の多視点画像が取得されるようにしてもよい。 Although the present invention has been described with reference to the embodiment and the modification examples, the present invention is not limited to the embodiment and the like, and various modifications can be made. For example, in the above-described embodiment and the like, the case where predetermined image processing is performed on the left and right viewpoint images acquired by switching the left and right optical paths has been described as an example, but the viewpoint direction is left and right (horizontal direction). The upper and lower sides (vertical direction) are not limited. In addition, the optical path may be switched to three or more, and three or more multi-view images may be acquired.
また、上記実施の形態等では、画像処理部13において、撮影情報Dfを撮像レンズ側から制御部17を介して取得するようにしたが、例えばカメラ本体(撮像レンズ,イメージセンサ含む)と別機器において、視差制御処理を含む画像処理が実行される場合には、次のようにしてもよい。即ち、カメラ本体から撮影情報Dfを直接取得してもよいし、あるいは各視点画像のある画素(例えばイメージセンサの隅に配置された通常は画像表示に影響しない画素)の画素データとして、撮影情報Dfを格納しておくようにしてもよい。更には、ラインメモリーのヘッダーに保持しておき、撮影時とは異なる機会に視差制御処理が行えるようにしてもよい。
In the above-described embodiment and the like, the
更に、上記実施の形態等では、被写体Aよりも奥側の被写体Bをより奥側、手前側の被写体Cをより手前側(あるいはそれらの逆)で観察されるように、即ち各被写体の立体感を強調(あるいは緩和)するように視差制御したが、これに限らず、所望とされる立体感に応じて様々な見え方となるように制御可能である。また、被写体Aの像位置については基準位置からシフトしなかったが、この被写体Aについても基準面から奥側(あるいは手前側)で観察されるようにシフトしてもよい。更に、視差制御の対象となる被写体の数も上述した3つに限定されず、2つ以下あるいは4つ以上であってもよい。 Furthermore, in the above-described embodiment, the subject B on the back side of the subject A is observed on the back side, and the subject C on the near side is observed on the near side (or vice versa). Although the parallax control is performed so as to emphasize (or relax) the feeling, the present invention is not limited to this, and it can be controlled so as to have various appearances according to a desired stereoscopic effect. Further, although the image position of the subject A is not shifted from the reference position, the subject A may also be shifted so that it can be observed from the reference plane on the back side (or the near side). Further, the number of subjects to be subject to parallax control is not limited to three as described above, and may be two or less or four or more.
また、画像処理部13における一連の画像処理は、ハードウェア、またはソフトウェア、あるいは両者が複合したものにおいて実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることもできる。
The series of image processing in the
1,3…撮像装置、10a,10a1,10a2,10b…撮像レンズ(群)、11,11a,11b…シャッター、12…イメージセンサ、13…画像処理部、14,18…レンズ駆動部、15,19…シャッター駆動部、16…イメージセンサ駆動部、17…制御部、L1,L2…左視点画像、R1,R2…右視点画像、Df…撮影情報。
DESCRIPTION OF
Claims (10)
を備えた画像処理装置。 An image processing apparatus comprising: a parallax control processing unit that changes a parallax amount between viewpoint images using a focal length of an imaging lens when shooting each viewpoint image in a plurality of viewpoint images taken from different directions.
請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the parallax control processing unit expands or reduces a parallax amount in the horizontal direction between the viewpoint images based on a phase difference between the viewpoint images.
請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the parallax control processing unit further changes the parallax amount using a subject distance.
請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the parallax control processing unit changes the parallax amount for each subject.
請求項2に記載の画像処理装置。 The parallax control processing unit performs a depth direction between viewpoint images based on a disparity map in which a phase difference detected for each pixel or each pixel block including a plurality of pixels is associated with each pixel or each pixel block. The image processing apparatus according to claim 2, wherein the parallax range in is enlarged or reduced.
前記視差制御処理部は、前記撮像部により取得された複数の視点画像において、各視点画像間の視差量を変更する
請求項1に記載の画像処理装置。 An imaging unit for acquiring the plurality of viewpoint images;
The image processing apparatus according to claim 1, wherein the parallax control processing unit changes a parallax amount between the viewpoint images in the plurality of viewpoint images acquired by the imaging unit.
撮像レンズと、
複数の光路のそれぞれにおいて透過および遮断を切り替えるシャッターと
を有する
請求項6に記載の画像処理装置。 The imaging unit
An imaging lens;
The image processing apparatus according to claim 6, further comprising: a shutter that switches between transmission and blocking in each of the plurality of optical paths.
を含む
画像処理方法。 An image processing method, comprising: changing a parallax amount between viewpoint images using a focal length of an imaging lens when capturing each viewpoint image in a plurality of viewpoint images captured from different directions.
をコンピュータに実行させる
画像処理プログラム。 An image processing program for causing a computer to execute a step of changing a parallax amount between viewpoint images using a focal length of an imaging lens when shooting each viewpoint image in a plurality of viewpoint images taken from different directions.
コンピュータ読み取り可能な記録媒体。 In a plurality of viewpoint images taken from different directions, an image processing program is recorded that causes the computer to execute a step of changing the amount of parallax between the viewpoint images using the focal length of the imaging lens when the viewpoint images are taken. ing,
Computer-readable recording medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014208527A JP6036784B2 (en) | 2014-10-10 | 2014-10-10 | Image processing apparatus, image processing method, image processing program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014208527A JP6036784B2 (en) | 2014-10-10 | 2014-10-10 | Image processing apparatus, image processing method, image processing program, and recording medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010122254A Division JP5641200B2 (en) | 2010-05-28 | 2010-05-28 | Image processing apparatus, image processing method, image processing program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015043607A true JP2015043607A (en) | 2015-03-05 |
JP6036784B2 JP6036784B2 (en) | 2016-11-30 |
Family
ID=52696902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014208527A Expired - Fee Related JP6036784B2 (en) | 2014-10-10 | 2014-10-10 | Image processing apparatus, image processing method, image processing program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6036784B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH089421A (en) * | 1994-06-20 | 1996-01-12 | Sanyo Electric Co Ltd | Stereoscopic video equipment |
JPH08317429A (en) * | 1995-05-23 | 1996-11-29 | Matsushita Electric Ind Co Ltd | Stereoscopic electronic zoom device and stereoscopic picture quality controller |
JP2003107601A (en) * | 2001-10-01 | 2003-04-09 | Canon Inc | Device and method for photographing three-dimensional image |
JP2004208211A (en) * | 2002-12-26 | 2004-07-22 | Canon Inc | Stereoscopic video imaging apparatus |
JP2009210840A (en) * | 2008-03-05 | 2009-09-17 | Fujifilm Corp | Stereoscopic image display device and method, and program |
JP2010079505A (en) * | 2008-09-25 | 2010-04-08 | Kddi Corp | Image generating apparatus and program |
-
2014
- 2014-10-10 JP JP2014208527A patent/JP6036784B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH089421A (en) * | 1994-06-20 | 1996-01-12 | Sanyo Electric Co Ltd | Stereoscopic video equipment |
JPH08317429A (en) * | 1995-05-23 | 1996-11-29 | Matsushita Electric Ind Co Ltd | Stereoscopic electronic zoom device and stereoscopic picture quality controller |
JP2003107601A (en) * | 2001-10-01 | 2003-04-09 | Canon Inc | Device and method for photographing three-dimensional image |
JP2004208211A (en) * | 2002-12-26 | 2004-07-22 | Canon Inc | Stereoscopic video imaging apparatus |
JP2009210840A (en) * | 2008-03-05 | 2009-09-17 | Fujifilm Corp | Stereoscopic image display device and method, and program |
JP2010079505A (en) * | 2008-09-25 | 2010-04-08 | Kddi Corp | Image generating apparatus and program |
Also Published As
Publication number | Publication date |
---|---|
JP6036784B2 (en) | 2016-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5641200B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium | |
JP4635403B2 (en) | Stereoscopic image creation method and apparatus | |
JP5594067B2 (en) | Image processing apparatus and image processing method | |
EP2593835B1 (en) | Variable three-dimensional camera assembly for still photography | |
JP5346266B2 (en) | Image processing apparatus, camera, and image processing method | |
JP5341286B1 (en) | Depth expansion device | |
JP5814692B2 (en) | Imaging apparatus, control method therefor, and program | |
JP5556448B2 (en) | Imaging device | |
JPWO2013038863A1 (en) | Monocular stereoscopic photographing apparatus, photographing method and program | |
JP2011142632A (en) | Camera arrangement, camera system, and camera configuration method | |
US20190222773A1 (en) | Image processing apparatus and image processing method | |
JP2012178688A (en) | Stereoscopic image photographing device | |
JP6004741B2 (en) | Image processing apparatus, control method therefor, and imaging apparatus | |
JP5741353B2 (en) | Image processing system, image processing method, and image processing program | |
JP6036784B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium | |
JP2010231192A (en) | Stereoscopic imaging apparatus | |
WO2016199381A1 (en) | Image processing apparatus and image processing method | |
JP7202449B2 (en) | Optical Arrangement for Generating Virtual Reality Stereoscopic Images | |
JP6057627B2 (en) | Stereoscopic image capturing apparatus, camera system, control method for stereoscopic image capturing apparatus, program, and storage medium | |
JP5838775B2 (en) | Image processing method, image processing system, and image processing program | |
JP2011244377A (en) | Imaging apparatus and image processing system, image processing method, and image processing program | |
JP5222718B2 (en) | Stereoscopic image reproduction apparatus, stereoscopic image reproduction program, and imaging apparatus | |
JP2010226320A (en) | Imaging apparatus | |
JP3128037U (en) | camera | |
JP2011259405A (en) | Imaging device and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161017 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6036784 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |