JP2016158266A - Image pickup apparatus and video record reproducing system - Google Patents

Image pickup apparatus and video record reproducing system Download PDF

Info

Publication number
JP2016158266A
JP2016158266A JP2016073809A JP2016073809A JP2016158266A JP 2016158266 A JP2016158266 A JP 2016158266A JP 2016073809 A JP2016073809 A JP 2016073809A JP 2016073809 A JP2016073809 A JP 2016073809A JP 2016158266 A JP2016158266 A JP 2016158266A
Authority
JP
Japan
Prior art keywords
image
parallax
image signal
component
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016073809A
Other languages
Japanese (ja)
Other versions
JP6237811B2 (en
Inventor
黒木 義彦
Yoshihiko Kuroki
義彦 黒木
栄二 大谷
Eiji Otani
栄二 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016073809A priority Critical patent/JP6237811B2/en
Publication of JP2016158266A publication Critical patent/JP2016158266A/en
Application granted granted Critical
Publication of JP6237811B2 publication Critical patent/JP6237811B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To capture images for generating a high-quality stereoscopic image with uniform image quality in left/right images.SOLUTION: An image pickup apparatus comprises a mirror, an image pickup device, and another image pickup device. The mirror separates incident light into a first component and a second component. The image pickup device forms an image of the first component and obtains a first image signal to use to generate a parallax detection image. The other image pickup device forms an image of the second component and obtains a second image signal to use to generate a basic image with higher image quality than the parallax detection image.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関し、特に被写体を立体画像として撮像する撮像装置、および、映像記録再生システムに関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that captures a subject as a stereoscopic image, and a video recording / reproducing system.

従来、共通の被写体を左右2台のビデオカメラによって同時に撮像しておいて、その左右の映像を同時に出力することにより立体画像を表示するシステムが提案されている。しかしながら、このような2台のビデオカメラを用いたシステムは、装置として大型化してしまい機動性に欠けるだけでなく、左右のビデオカメラの光軸のずれ等が生じやすく、適切な視差を有する画像を得ることは困難である。例えば、2台のビデオカメラの間隔が大きくなってしまったり、各ビデオカメラのレンズの個体差によってズーム中に左右の光軸がずれてしまったり、左右の画面サイズが異なってしまうおそれがある。また、フォーカス操作の際に、左右のビデオカメラを被写体に向ける輻輳動作時に、左右のビデオカメラが例えば上下にずれてしまうおそれもある。   Conventionally, a system has been proposed in which a common subject is simultaneously imaged by two left and right video cameras and a stereoscopic image is displayed by simultaneously outputting the left and right images. However, such a system using two video cameras is large in size as an apparatus and lacks in mobility, and the optical axes of the left and right video cameras are likely to be displaced, and an image having an appropriate parallax. It is difficult to get. For example, the distance between the two video cameras may become large, the left and right optical axes may be shifted during zooming due to individual differences in the lenses of each video camera, and the left and right screen sizes may be different. Further, during the focusing operation, the left and right video cameras may be shifted up and down, for example, during the convergence operation in which the left and right video cameras are directed toward the subject.

このような左右のビデオカメラにおける光軸のずれ等が生じると、立体画像を視聴するユーザの視覚系に日常とは異なる情報処理を強いることになり、視覚疲労の要因となる。さらに、ユーザが左右の画像を、立体視用の眼鏡を使わずにそのまま重ねて眺めた際には、被写体が二重に見えて不自然な映像になってしまう。   When such an optical axis shift occurs in the left and right video cameras, the visual system of the user who views the stereoscopic image is forced to perform information processing different from that of daily life, which causes visual fatigue. Further, when the user views the left and right images as they are without using stereoscopic glasses, the subject looks double, resulting in an unnatural image.

そのため、1つのレンズの瞳となる領域において、被写体からの光をミラーによって2つの光束に分離して撮像する撮像装置が提案されている(例えば、特許文献1参照。)。この撮像装置では、分離された2つの光束のそれぞれについて撮像を行うことにより、立体視のための左右の映像データを得ることができる。   For this reason, there has been proposed an imaging device that captures an image by separating light from a subject into two light beams by a mirror in a region that becomes a pupil of one lens (see, for example, Patent Document 1). In this imaging apparatus, left and right video data for stereoscopic viewing can be obtained by imaging each of the two separated light beams.

特開2010−81580号公報JP 2010-81580 A

上述の従来技術では、被写体からの光をミラーによって左右に分離することにより、立体視のための左右の映像データを得ることができる。しかしながら、この場合、被写体からミラーに対する入射角度等によって、分離される光の太さが変化してしまい、左右の画像の明るさが不均衡になって、画質が劣化してしまうおそれがある。   In the above-described prior art, left and right video data for stereoscopic viewing can be obtained by separating light from a subject into right and left by a mirror. However, in this case, the thickness of the separated light changes depending on the incident angle of the subject with respect to the mirror, etc., and the brightness of the left and right images may become unbalanced, possibly degrading the image quality.

本技術はこのような状況に鑑みて生み出されたものであり、左右の画像の画質が均等で高品質な立体画像を生成するための撮像を行うことを目的とする。   The present technology has been created in view of such a situation, and an object thereof is to perform imaging for generating a high-quality stereoscopic image in which the image quality of the left and right images is uniform.

本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、被写体からの光を集光する撮影レンズと、上記集光された光を伝送して平行光とするリレーレンズと、上記平行光を透過および反射する半透過膜と、上記半透過膜によって透過または反射されることにより導かれた光を左右2つに分光するミラーと、上記分光された光をそれぞれ結像させる第1および第2の結像レンズと、上記第1および第2の結像レンズによって結像された光をそれぞれ電子信号による視差検出画像に変換する第1および第2の撮像素子と、上記半透過膜によって反射または透過された光のうち上記ミラーに導かれなかった光を結像させる第3の結像レンズと、上記第3の結像レンズによって結像された光を電子信号による基本画像に変換する第3の撮像素子とを具備する撮像装置である。これにより、基本画像と視差検出画像とを同時に生成させるという作用をもたらす。   The present technology has been made to solve the above-described problems. The first aspect of the present technology includes a photographing lens that collects light from a subject, and parallel light that transmits the collected light. A relay lens that transmits and reflects the parallel light, a mirror that splits light guided by being transmitted or reflected by the semi-transmissive film into left and right, and the split light. First and second imaging lenses that respectively image the first and second imaging lenses that convert the images formed by the first and second imaging lenses into parallax detection images based on electronic signals, respectively. An element, a third imaging lens that forms an image of light reflected or transmitted by the semi-transmissive film but not guided to the mirror, and light imaged by the third imaging lens. Change to basic image by electronic signal An imaging device comprising a third imaging device that. This brings about the effect | action that a basic image and a parallax detection image are produced | generated simultaneously.

また、この第1の側面において、上記基本画像と上記視差検出画像のそれぞれとを比較することにより上記視差検出画像のそれぞれと同じ視点の視差画像を上記基本画像に基づいて生成する視差画像生成部をさらに具備するようにしてもよい。これにより、視差画像を生成させるという作用をもたらす。   Further, in the first aspect, the parallax image generation unit that generates a parallax image at the same viewpoint as each of the parallax detection images by comparing the basic image and the parallax detection images based on the basic image. May be further provided. This brings about the effect | action of producing | generating a parallax image.

また、この第1の側面において、上記視差画像生成部は、上記基本画像と上記視差検出画像のそれぞれとを比較して互いに対応する画素を探索する対応画素探索部と、上記探索結果に基づいて上記基本画像の画素を上記視差検出画像において対応する画素の位置へ移動することにより上記視差画像を生成する画素移動部とを備えてもよい。これにより、探索結果に基づいて基本画像の画素を視差検出画像における対応画素の位置へ移動することにより視差画像を生成させるという作用をもたらす。   In the first aspect, the parallax image generation unit compares the basic image and the parallax detection image with each other to search for corresponding pixels, and based on the search result. You may provide the pixel moving part which produces | generates the said parallax image by moving the pixel of the said basic image to the position of the corresponding pixel in the said parallax detection image. This brings about the effect | action that a parallax image is produced | generated by moving the pixel of a basic image to the position of the corresponding pixel in a parallax detection image based on a search result.

また、この第1の側面において、上記基本画像または上記視差検出画像を時系列のフレームとして含む映像データについて異なる時刻における2つの上記フレームを比較して互いに対応する画素を探索して、当該探索結果に基づいて上記対応する画素の中点座標およびその画素値を求めることにより任意の時刻の画像を補間する時刻方向補間部をさらに具備してもよい。これにより、フレームレートを向上させるという作用をもたらす。   Further, in this first aspect, the video data including the basic image or the parallax detection image as a time-series frame is searched for pixels corresponding to each other by comparing the two frames at different times, and the search result A time direction interpolation unit that interpolates an image at an arbitrary time by obtaining the midpoint coordinates and the pixel value of the corresponding pixel based on the above may be further provided. This brings about the effect of improving the frame rate.

また、この第1の側面において、上記基本画像または上記視差検出画像のうちのいずれか2つを比較して互いに対応する画素を探索して、当該探索結果に基づいて上記対応する画素の中点座標およびその画素値を求めることにより任意の視点の画像を補間する空間方向補間部をさらに具備するようにしてもよい。これにより、任意の位置の視点における視差画像を生成させるという作用をもたらす。   Further, in the first aspect, the pixel corresponding to each other is searched by comparing any two of the basic image or the parallax detection image, and the midpoint of the corresponding pixel is determined based on the search result. You may make it further comprise the spatial direction interpolation part which interpolates the image of arbitrary viewpoints by calculating | requiring a coordinate and its pixel value. This brings about the effect | action that the parallax image in the viewpoint of arbitrary positions is produced | generated.

また、この第1の側面において、上記第1乃至第3の撮像素子の各々は、毎秒60フレーム以上のレートで上記基本画像または上記視差検出画像を生成してもよい。また、上記第1および第2の撮像素子の各々は、毎秒230乃至250フレームのレートで上記視差検出画像を生成してもよい。また、上記第1および第2の撮像素子の各々は、毎秒290乃至310フレームのレートで上記視差検出画像を生成してもよい。さらに、上記第1および第2の撮像素子の各々は、毎秒590乃至610フレームのレートで上記視差検出画像を生成してもよい。   In the first aspect, each of the first to third imaging elements may generate the basic image or the parallax detection image at a rate of 60 frames or more per second. Each of the first and second imaging elements may generate the parallax detection image at a rate of 230 to 250 frames per second. In addition, each of the first and second imaging elements may generate the parallax detection image at a rate of 290 to 310 frames per second. Further, each of the first and second imaging elements may generate the parallax detection image at a rate of 590 to 610 frames per second.

また、本技術の第2の側面は、被写体からの光を集光する撮影レンズと、上記集光された光を伝送して平行光とするリレーレンズと、上記平行光を透過および反射する半透過膜と、上記半透過膜によって透過または反射されることにより導かれた光を左右2つに分光するミラーと、上記分光された光をそれぞれ結像させる第1および第2の結像レンズと、上記第1および第2の結像レンズによって結像された光をそれぞれ電子信号による視差検出画像に変換する第1および第2の撮像素子と、上記半透過膜によって反射または透過された光のうち上記ミラーに導かれなかった光を結像させる第3の結像レンズと、上記第3の結像レンズによって結像された光を電子信号による基本画像に変換する第3の撮像素子と、上記基本画像と上記視差検出画像のそれぞれとを比較することにより上記視差検出画像のそれぞれと同じ視点の視差画像を上記基本画像に基づいて生成する視差画像生成部と、上記視差画像をそれぞれ左右の映像データのフレームとして生成して記憶部に記録させる映像生成部と、上記記憶部に記録された上記左右の映像データを同時に再生表示させる映像再生部とを具備する映像記録再生システムである。これにより、高画質な視差画像を撮像および再生させるという作用をもたらす。   In addition, the second aspect of the present technology provides a photographing lens that collects light from a subject, a relay lens that transmits the collected light to be parallel light, and a half that transmits and reflects the parallel light. A transmission film, a mirror that splits light guided by being transmitted or reflected by the semi-transmissive film into two left and right, and first and second imaging lenses that image the split light, respectively The first and second imaging elements for converting the light imaged by the first and second imaging lenses into parallax detection images by electronic signals, respectively, and the light reflected or transmitted by the semi-transmissive film A third imaging lens that forms an image of light that has not been guided to the mirror, a third imaging element that converts the light imaged by the third imaging lens into a basic image based on an electronic signal, The basic image and the parallax test A parallax image generation unit that generates a parallax image of the same viewpoint as each of the parallax detection images by comparing with each of the images based on the basic image, and generates the parallax images as left and right video data frames, respectively. The video recording / reproducing system includes: a video generating unit to be recorded in the storage unit; and a video reproducing unit for simultaneously reproducing and displaying the left and right video data recorded in the storage unit. This brings about the effect of capturing and reproducing a high-quality parallax image.

本技術によれば、左右の画像の画質が均等で高品質な立体画像を生成するための撮像を行うことができるという優れた効果を奏し得る。   According to the present technology, it is possible to obtain an excellent effect that it is possible to perform imaging for generating a high-quality stereoscopic image in which the image quality of the left and right images is uniform.

本技術の実施の形態における撮像部の構造例を示す図である。It is a figure showing an example of structure of an image pick-up part in an embodiment of this art. 本技術の実施の形態における撮像素子171乃至173の構成例を示す図である。It is a figure showing an example of composition of image sensors 171 thru / or 173 in an embodiment of this art. 本技術の実施の形態による撮像部における瞳115のイメージ図である。It is an image figure of the pupil 115 in the imaging part by embodiment of this technique. 重心間距離Dと基線長(ベースライン)との関係を示す図である。It is a figure which shows the relationship between the distance D between gravity centers, and a base line length (baseline). ズームによる拡大と視差との関係を示す図である。It is a figure which shows the relationship between the expansion by zoom and parallax. 本技術の第2の実施の形態における撮像装置の一構成例を示す図である。It is a figure showing an example of 1 composition of an imaging device in a 2nd embodiment of this art. 本技術の第2の実施の形態における映像生成部200の構成例を示す図である。It is a figure showing an example of composition of picture generation part 200 in a 2nd embodiment of this art. 本技術の第2の実施の形態における視差画像生成部241および242の一構成例を示す図である。It is a figure showing an example of 1 composition of parallax picture generation parts 241 and 242 in a 2nd embodiment of this art. 本技術の第2の実施の形態における撮像装置の動作例を示す流れ図である。12 is a flowchart illustrating an operation example of the imaging apparatus according to the second embodiment of the present technology. 本技術の第3の実施の形態における映像生成部200の構成例を示す図である。It is a figure showing an example of composition of picture generation part 200 in a 3rd embodiment of this art. 本技術の第4の実施の形態における映像生成部200の構成例を示す図である。It is a figure showing an example of composition of picture generation part 200 in a 4th embodiment of this art. 本技術の第4の実施の形態における時間方向補間部251および252の構成例を示す図である。It is a figure showing an example of composition of time direction interpolation parts 251 and 252 in a 4th embodiment of this art. 本技術の第4の実施の形態における時間方向補間部251および252の動作例を示す流れ図である。22 is a flowchart illustrating an operation example of time direction interpolation units 251 and 252 according to the fourth embodiment of the present technology. 本技術の第5の実施の形態における映像生成部200の構成例を示す図である。It is a figure showing an example of composition of picture generation part 200 in a 5th embodiment of this art. 本技術の第5の実施の形態における空間方向補間部260の構成例を示す図である。It is a figure showing an example of composition of spatial direction interpolation part 260 in a 5th embodiment of this art. 本技術の第5の実施の形態における空間方向補間部260の動作例を示す流れ図である。It is a flowchart which shows the operation example of the spatial direction interpolation part 260 in 5th Embodiment of this technique. 本技術の第6の実施の形態における映像記録再生システムの一構成例を示す図である。It is a figure which shows the example of 1 structure of the video recording / reproducing system in 6th Embodiment of this technique.

以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(基本画像および視差検出画像を生成する撮像部の例)
2.第2の実施の形態(基本画像および視差検出画像に基づいて視差画像を生成する撮像装置の例)
3.第3の実施の形態(基本画像および視差検出画像のRAW画像に基づいて視差画像を生成する撮像装置の例)
4.第4の実施の形態(時間方向補間を行う撮像装置の例)
5.第5の実施の形態(空間方向補間を行う撮像装置の例)
6.第6の実施の形態(映像記録再生システムの例)
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. First embodiment (an example of an imaging unit that generates a basic image and a parallax detection image)
2. Second embodiment (an example of an imaging device that generates a parallax image based on a basic image and a parallax detection image)
3. Third embodiment (an example of an imaging device that generates a parallax image based on a raw image of a basic image and a parallax detection image)
4). Fourth embodiment (an example of an imaging apparatus performing time direction interpolation)
5. Fifth embodiment (an example of an imaging apparatus that performs spatial direction interpolation)
6). Sixth embodiment (example of video recording / playback system)

<1.第1の実施の形態>
[撮像部の構造]
図1は、本技術の実施の形態における撮像部の構造例を示す図である。同図(a)は被写体に向かって左から見た側面断面図であり、同図(b)は上面断面図である。同図(b)における上部が被写体に向かって右方向であり、下部が被写体に向かって左方向である。なお、同図(b)では、上方のミラー142、集光レンズ153、および、撮像素子173は表示を省略している。
<1. First Embodiment>
[Structure of imaging unit]
FIG. 1 is a diagram illustrating a structure example of an imaging unit according to an embodiment of the present technology. FIG. 4A is a side cross-sectional view as viewed from the left toward the subject, and FIG. 4B is a top cross-sectional view. In FIG. 5B, the upper part is the right direction toward the subject, and the lower part is the left direction toward the subject. In FIG. 5B, the upper mirror 142, the condenser lens 153, and the image sensor 173 are not shown.

この撮像部は、被写体からの入射光101を受けて左右の撮像素子171および172と、中央の撮像素子173とに結像させ、左右および中央の映像データを生成するものである。撮像部本体には、レンズマウント120を介して交換レンズ110が取り付けられるようになっている。この交換レンズ110は、被写体からの入射光101を集光するレンズ群であり、焦点を合わせるためのフォーカスレンズや、被写体を拡大するためのズームレンズ等のレンズ群の他、交換レンズ110としての絞り113を備えている。瞳115は、レンズを被写体側あるいは結像側から見たときの開口絞りの像である。なお、交換レンズ110は、特許請求の範囲に記載の撮影レンズの一例である。   The imaging unit receives incident light 101 from a subject and forms images on left and right imaging elements 171 and 172 and a central imaging element 173 to generate left and right and central video data. An interchangeable lens 110 is attached to the imaging unit main body via a lens mount 120. The interchangeable lens 110 is a lens group that condenses incident light 101 from a subject. The interchangeable lens 110 is a lens group such as a focus lens for focusing and a zoom lens for enlarging the subject, as well as the interchangeable lens 110. A diaphragm 113 is provided. The pupil 115 is an image of an aperture stop when the lens is viewed from the subject side or the imaging side. The interchangeable lens 110 is an example of a photographing lens described in the claims.

レンズマウント120は、交換レンズ110を撮像部本体に取り付けるものである。このレンズマウント120の内部においては、集光された光は一旦結像されており、左右が反転した倒立像になる。   The lens mount 120 attaches the interchangeable lens 110 to the imaging unit main body. Inside the lens mount 120, the condensed light is once imaged and becomes an inverted image in which the left and right are reversed.

レンズマウント120の次段にはリレーレンズ部130が配置される。リレーレンズ部130は、レンズマウント120までに集光された光を平行光領域140まで伝送するレンズを備える。レンズマウント120までに集光された光は空中像131を形成する。このリレーレンズ部130におけるレンズにより、交換レンズ110の対物焦点位置(すなわち、被写体の位置)における点光源からの拡散光は、領域140において平行光となる。この平行光領域140には、絞り113とは別の絞りをさらに設けてもよい。なお、リレーレンズ部130は、特許請求の範囲に記載のリレーレンズの一例である。   A relay lens unit 130 is arranged at the next stage of the lens mount 120. The relay lens unit 130 includes a lens that transmits the light collected up to the lens mount 120 to the parallel light region 140. The light condensed up to the lens mount 120 forms an aerial image 131. Due to the lens in the relay lens unit 130, the diffused light from the point light source at the objective focal position (that is, the position of the subject) of the interchangeable lens 110 becomes parallel light in the region 140. In this parallel light region 140, a diaphragm different from the diaphragm 113 may be further provided. The relay lens unit 130 is an example of a relay lens described in the claims.

リレーレンズ部130の次段には透過型ミラー141およびミラー143乃至146が配置される。これら透過型ミラー141およびミラー143乃至146は、平行光領域140の位置に配置され、集光された光を分光する分光鏡である。まず、同一撮影対象の光量全体は、任意に設定した反射率を有する透過型ミラー141により透過および反射され、2つに分光される。この場合、透過および反射された光に含まれる像は同じものである。   A transmissive mirror 141 and mirrors 143 to 146 are arranged at the next stage of the relay lens unit 130. The transmission type mirror 141 and the mirrors 143 to 146 are arranged in the position of the parallel light region 140 and are spectroscopic mirrors that split the collected light. First, the entire light quantity of the same subject is transmitted and reflected by a transmission type mirror 141 having an arbitrarily set reflectance, and is split into two. In this case, the images included in the transmitted and reflected light are the same.

透過型ミラー141は、受けた光を反射および透過するミラーである。この透過型ミラー141は、例えば、薄膜をガラス表面に蒸着させたARコート(Anti-Reflection Coat)により実現することができる。このARコートでは、薄膜の反射率を制御することにより透過率を制御することができる。例えば、50%透過、50%反射のハーフミラーを用いた場合、ミラー142側に入射光の50%が反射され、ミラー143乃至146側に入射光の50%が透過される。   The transmissive mirror 141 is a mirror that reflects and transmits received light. The transmission mirror 141 can be realized by, for example, an AR coating (Anti-Reflection Coat) in which a thin film is deposited on the glass surface. In this AR coating, the transmittance can be controlled by controlling the reflectance of the thin film. For example, when a half mirror with 50% transmission and 50% reflection is used, 50% of the incident light is reflected on the mirror 142 side and 50% of the incident light is transmitted on the mirrors 143 to 146 side.

透過型ミラー141によって反射された光は、上方向に設置されたミラー142によって反射されて集光レンズ153に入光される。透過型ミラー141を透過した光のうち被写体に向かって左側から見た光の成分は、左右反転のためミラー143および145に反射される。同様に、透過型ミラー141を透過した光のうち被写体に向かって右側から見た光の成分は、ミラー144および146に反射される。このように、透過型ミラー141を透過した光は、ミラー142乃至146によって左右に分光される。このミラー143および144が配置される位置は平行光領域140に含まれるため、左側および右側から見た光の成分のそれぞれに分光される。上述の例のように、ミラー143乃至146側に入射光の50%が透過された場合、その透過された光はミラー143および144によって分光されて、その光量は入射光の25%ずつになる。   The light reflected by the transmissive mirror 141 is reflected by the mirror 142 installed in the upward direction and enters the condenser lens 153. Of the light transmitted through the transmissive mirror 141, the component of the light viewed from the left side toward the subject is reflected by the mirrors 143 and 145 for left-right reversal. Similarly, the light component viewed from the right side toward the subject among the light transmitted through the transmission type mirror 141 is reflected by the mirrors 144 and 146. Thus, the light transmitted through the transmission type mirror 141 is split left and right by the mirrors 142 to 146. Since the positions where the mirrors 143 and 144 are disposed are included in the parallel light region 140, they are split into light components viewed from the left side and the right side, respectively. As in the above example, when 50% of the incident light is transmitted to the mirrors 143 to 146, the transmitted light is split by the mirrors 143 and 144, and the amount of light becomes 25% of the incident light. .

透過型ミラー141、ミラー143および145によって分光された光、すなわち被写体を左側から見た成分の光は、結像用の集光レンズ151に入光される。また、透過型ミラー141、ミラー144および146によって分光された光、すなわち被写体を右側から見た成分の光は、結像用の集光レンズ152に入光される。透過型ミラー141およびミラー142によって反射された光、すなわち被写体を中央から見た成分の光は、結像用の集光レンズ153に入光される。   The light split by the transmission mirror 141 and the mirrors 143 and 145, that is, the light of the component when the subject is viewed from the left side is incident on the focusing lens 151 for image formation. Further, the light split by the transmission mirror 141 and the mirrors 144 and 146, that is, the light of the component when the subject is viewed from the right side, is incident on the focusing lens 152 for image formation. The light reflected by the transmissive mirror 141 and the mirror 142, that is, the light of the component when the subject is viewed from the center, enters the focusing lens 153 for image formation.

集光レンズ151および152は、入光された光をそれぞれ撮像素子171および172の受光面に対して結像させる。集光レンズ153は、入光された光を撮像素子173の受光面に対して結像させる。これら撮像素子171乃至173に入光された光は、それぞれ正立像となる。ここでは、例として、透過型ミラー141を透過した光を左右に分光し、反射した光を単一の結像としたが、これらは入れ替えてもよい。すなわち、透過型ミラー141によって反射された光を左右に分割し、透過した光を直接結像させるようにしてもよい。なお、集光レンズ151および152は、特許請求の範囲に記載の結像レンズの一例である。   The condensing lenses 151 and 152 image the incident light on the light receiving surfaces of the image sensors 171 and 172, respectively. The condenser lens 153 forms an image of the incident light on the light receiving surface of the image sensor 173. Each of the light incident on the image sensors 171 to 173 becomes an erect image. Here, as an example, the light transmitted through the transmissive mirror 141 is split left and right and the reflected light is formed into a single image, but these may be interchanged. That is, the light reflected by the transmissive mirror 141 may be divided into left and right, and the transmitted light may be directly imaged. The condensing lenses 151 and 152 are examples of the imaging lens described in the claims.

撮像素子171乃至173は、それぞれ集光レンズ151乃至153から入光された光を電子信号に変換する光電変換素子である。この撮像素子171乃至173は、例えば、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサー等により実現される。   The image sensors 171 to 173 are photoelectric conversion elements that convert light incident from the condenser lenses 151 to 153 into electronic signals, respectively. The image sensors 171 to 173 are realized by, for example, a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS) image sensor, or the like.

撮像素子171および172は、立体視の視差情報を検出するための視差検出画像を生成するために用いられる。撮像素子173は、立体視に用いられる視差画像の基となる基本画像を生成するために用いられる。基本画像は、視差検出画像よりも高画質であることが要求される。視差検出画像は視差情報を検出するためのものである一方、基本画像の画質は視差画像の画質に反映されるからである。   The image sensors 171 and 172 are used to generate a parallax detection image for detecting stereoscopic parallax information. The image sensor 173 is used to generate a basic image that is a basis of a parallax image used for stereoscopic viewing. The basic image is required to have higher image quality than the parallax detection image. This is because the parallax detection image is for detecting parallax information, while the image quality of the basic image is reflected in the image quality of the parallax image.

図2は、本技術の実施の形態における撮像素子171乃至173の構成例を示す図である。同図(a)は撮像素子173の構成例であり、同図(b)は撮像素子171および172の構成例である。この例では、視差検出画像を生成するための撮像素子171および172は、それぞれ横1920画素、縦1080画素の画素数を有する。これに対し、基本画像を生成するための撮像素子173は、横3840画素、縦2160画素の画素数を有する。これらはともに、横16:縦9の比率となっている。ただし、両者の比率が等しくない場合であっても、本技術を適用することは可能である。   FIG. 2 is a diagram illustrating a configuration example of the imaging elements 171 to 173 according to the embodiment of the present technology. FIG. 4A shows a configuration example of the image sensor 173, and FIG. 4B shows a configuration example of the image sensors 171 and 172. In this example, the image sensors 171 and 172 for generating the parallax detection image have the number of pixels of 1920 pixels in the horizontal direction and 1080 pixels in the vertical direction, respectively. On the other hand, the image sensor 173 for generating a basic image has the number of pixels of 3840 pixels in the horizontal direction and 2160 pixels in the vertical direction. Both of these have a ratio of horizontal 16: vertical 9. However, the present technology can be applied even when the ratio between the two is not equal.

また、撮像素子171および172のサイズは、例えば対角1/2インチである。これに対し、撮像素子173のサイズは、例えば対角2/3インチである。   The sizes of the image sensors 171 and 172 are, for example, ½ inch diagonal. On the other hand, the size of the image sensor 173 is, for example, 2/3 inch diagonal.

このように撮像素子171乃至173の解像度を設定することにより、視差検出画像よりも高画質な基本画像を生成することができる。   By setting the resolutions of the imaging elements 171 to 173 in this way, it is possible to generate a basic image with higher image quality than the parallax detection image.

また、撮像素子171および172における画像生成レートと撮像素子173における画像生成レートは同じであってもよいが、異なっていてもよい。撮像素子173の画素数を撮像素子171および172よりも高くした場合には、撮像素子173の画像生成レートを低く設定することも考えられる。上述の画素数の場合、例えば、撮像素子171および172の画像生成レートを240フレーム/秒として、撮像素子173の画像生成レートを120フレーム/秒とすることが考えられる。これにより、撮像素子173の空間分解能と、撮像素子171および172の時間分解能とを使い分けることができるようになる。   In addition, the image generation rate in the image sensors 171 and 172 and the image generation rate in the image sensor 173 may be the same or different. When the number of pixels of the image sensor 173 is higher than that of the image sensors 171 and 172, it is conceivable to set the image generation rate of the image sensor 173 low. In the case of the number of pixels described above, for example, the image generation rate of the image sensors 171 and 172 may be 240 frames / second, and the image generation rate of the image sensor 173 may be 120 frames / second. Thereby, the spatial resolution of the image sensor 173 and the time resolution of the image sensors 171 and 172 can be used properly.

映画では毎秒24フレーム(24Hz)、テレビでは毎秒60フィールド(60Hz)のフレームレートが標準的に用いられている。本技術の実施の形態では、動きによるボケやジャーキネスを考慮して、毎秒60フレーム(60Hz)以上のレート、好ましくは毎秒230乃至250フレーム(240Hz±10Hz)のレートで電子信号から撮像画像を生成する。これにより、時間方向の分解能の不足を解消している。さらに、放送方式を考慮すると、ヨーロッパで多く用いられている毎秒50フレーム(50Hz)と日本アメリカで用いられている毎秒60フレーム(60Hz)の公倍数として、毎秒290乃至310フレーム(300Hz±10Hz)のレートが好ましい。また、さらに映画の毎秒24フレーム(24Hz)を加えた公倍数として、毎秒590乃至610フレーム(600Hz±10Hz)のレートも、画像合成や、レート変換の処理などの、画像処理を容易にする点で重用である。したがって、撮像素子171乃至173の画像生成レートを設定するにあたっては、これらを考慮することが望ましい。   The standard frame rate is 24 frames per second (24 Hz) for movies and 60 fields per second (60 Hz) for television. In the embodiment of the present technology, in consideration of motion blur and jerkiness, a captured image is generated from an electronic signal at a rate of 60 frames per second (60 Hz) or more, preferably 230 to 250 frames per second (240 Hz ± 10 Hz). To do. This eliminates the lack of resolution in the time direction. Furthermore, when considering the broadcasting system, the common multiple of 50 frames per second (50 Hz) used in Europe and 60 frames per second (60 Hz) used in Japan / America is 290 to 310 frames per second (300 Hz ± 10 Hz). Rate is preferred. Furthermore, as a common multiple obtained by adding 24 frames per second (24 Hz) of a movie, the rate of 590 to 610 frames per second (600 Hz ± 10 Hz) is also easy to perform image processing such as image composition and rate conversion processing. It is important. Therefore, it is desirable to take these into consideration when setting the image generation rates of the image sensors 171 to 173.

[瞳の分割]
図3は、本技術の実施の形態による撮像部における瞳115のイメージ図である。瞳(pupil)とは、レンズを被写体側あるいは結像側から見たときの開口絞りの像である。本技術の実施の形態による撮像部で、瞳115に相当する円の半径をrとすると、次式が成り立つ。
2r=f/F (式1)
ただし、fは焦点距離であり、FはF値である。したがって、焦点距離を固定した場合、瞳115の直径2rとF値は反比例の関係にあることがわかる。
[Split pupil]
FIG. 3 is an image diagram of the pupil 115 in the imaging unit according to the embodiment of the present technology. A pupil is an image of an aperture stop when the lens is viewed from the subject side or the imaging side. In the imaging unit according to the embodiment of the present technology, when the radius of a circle corresponding to the pupil 115 is r, the following equation is established.
2r = f / F (Formula 1)
However, f is a focal length and F is an F value. Therefore, it can be seen that when the focal length is fixed, the diameter 2r of the pupil 115 and the F value are in an inversely proportional relationship.

本発明の実施の形態では、集光された光を、平行光領域の位置で左右に分光するため、瞳115の円を左右に分割した左半円および右半円について考察する。上述のとおり、立体感は、両眼間の視差(相対視差)に基づいて得られる。このとき、視差を決定する光軸は左半円および右半円のそれぞれの重心を通るものと考えられる。半径rの半円の重心は、幾何学的に求めることができ、円の中心から4r/3πの距離に位置する。したがって、左半円の重心501と右半円の重心502との距離(重心間距離D)は、次式のようになることがわかる。
D=8r/3π (式2)
すなわち、重心間距離Dは絞り113を絞ると、それに比例して小さくなることがわかる。換言すれば、絞り113の口径を変化させることにより、得られる立体感を調整することができることになる。このような前提を確認するために行った実験の結果を以下に示す。
In the embodiment of the present invention, in order to disperse the collected light to the left and right at the position of the parallel light region, the left semicircle and the right semicircle obtained by dividing the circle of the pupil 115 into the left and right are considered. As described above, the stereoscopic effect is obtained based on the parallax between the eyes (relative parallax). At this time, it is considered that the optical axis that determines the parallax passes through the center of gravity of each of the left and right semicircles. The center of gravity of the semicircle with radius r can be obtained geometrically and is located at a distance of 4r / 3π from the center of the circle. Therefore, it can be seen that the distance between the centroid 501 of the left semicircle and the centroid 502 of the right semicircle (distance D between centroids) is as follows.
D = 8r / 3π (Formula 2)
That is, it can be seen that the distance D between the centers of gravity is reduced in proportion to the stop 113. In other words, the resulting three-dimensional effect can be adjusted by changing the aperture of the diaphragm 113. The results of experiments conducted to confirm these assumptions are shown below.

[重心間距離と基線長(ベースライン)との関係]
図4は、重心間距離Dと基線長(ベースライン)との関係を示す図である。ここでは、交換レンズ110として#Aおよび#Bの2種類のレンズについて、重心間距離の理論値と基線長の実験値とを示している。
[Relationship between center of gravity distance and baseline length (baseline)]
FIG. 4 is a diagram illustrating a relationship between the distance D between the centroids and the baseline length (baseline). Here, the theoretical value of the distance between the centers of gravity and the experimental value of the baseline length are shown for the two types of lenses #A and #B as the interchangeable lens 110.

レンズ#Aは、開放F値が1.8で、焦点距離が10乃至100[mm(ミリメートル)]のズームレンズである。このレンズ#Aのズーム比は10倍であり、ワイド端における焦点距離は10[mm]である。レンズ#Bは、開放F値が2.8で、焦点距離が13.5乃至570[mm]のズームレンズである。このレンズ#Bのズーム比は42倍であり、ワイド端における焦点距離は13.5[mm]である。両者ともに、撮影距離は6.5[m(メートル)]を想定している。   The lens #A is a zoom lens having an open F value of 1.8 and a focal length of 10 to 100 [mm (millimeter)]. The zoom ratio of this lens #A is 10 times, and the focal length at the wide end is 10 [mm]. The lens #B is a zoom lens having an open F value of 2.8 and a focal length of 13.5 to 570 [mm]. The zoom ratio of this lens #B is 42 times, and the focal length at the wide end is 13.5 [mm]. In both cases, the shooting distance is assumed to be 6.5 [m (meter)].

上述の式1および式2より、レンズ#Aおよび#Bの重心間距離Dはそれぞれ23.1[mm]および14.9[mm]であると計算される。一方、実装置において実験により求められた基線長は、レンズ#Aおよび#Bについてそれぞれ20.0[mm]および12.0[mm]となった。この実験結果から、回折効果によると推測される理論値からの減少が見られるものの、絞り113の像である瞳の半円の重心間距離Dがほぼ基線長に匹敵するものであることがわかる。また、上述の式2より、重心間距離Dは絞り113の口径によって変化させることが可能であり、したがって、基線長も絞り113の口径によって制御可能であることが示された。   From the above formulas 1 and 2, the distances D between the centers of gravity of the lenses #A and #B are calculated to be 23.1 [mm] and 14.9 [mm], respectively. On the other hand, the baseline lengths obtained by experiments in the actual apparatus were 20.0 [mm] and 12.0 [mm] for lenses #A and #B, respectively. From this experimental result, although a decrease from the theoretical value presumed to be caused by the diffraction effect is observed, it can be seen that the distance D between the centers of gravity of the semicircles of the pupil, which is the image of the stop 113, is almost equal to the baseline length. . Further, from the above-described formula 2, it is shown that the center-of-gravity distance D can be changed by the aperture of the diaphragm 113, and therefore the base line length can also be controlled by the aperture of the diaphragm 113.

本技術の実施の形態における構成例によれば、重心間距離Dの最小値としておよそ7[mm]程度を想定することができる。基線長としてもこの程度の値であれば立体感を感じさせることができると考えられる。特に、撮影距離が長い場合、基線長がある程度ないと立体感が出せなくなると考えられる。基線長を増していくと、およそ32[mm]程度になると立体感はより明確になり、その反面、背景のぼやけ具合は大きくなっていく。そして、基線長が65[mm]を超える領域になると、箱庭効果が生じて不自然な画作りになってしまうと考えられる。したがって、立体映像として自然に見える範囲としては、基線長が7乃至65[mm]程度であると考えられる。   According to the configuration example in the embodiment of the present technology, the minimum value of the distance D between the centroids can be assumed to be approximately 7 [mm]. It is considered that a stereoscopic effect can be felt if the base line length is a value of this level. In particular, when the shooting distance is long, it is considered that the stereoscopic effect cannot be obtained unless the baseline length is long. When the baseline length is increased, the stereoscopic effect becomes clearer when the length is about 32 [mm]. On the other hand, the background blur increases. When the base line length exceeds 65 [mm], it is considered that a miniature garden effect occurs and the image is unnatural. Therefore, it is considered that the base line length is about 7 to 65 [mm] as a range that naturally appears as a stereoscopic image.

[ズームによる拡大と視差との関係]
図5は、ズームによる拡大と視差との関係を示す図である。図5(a)では、左眼位置をL、右眼位置をRとし、被写体上の点をAおよびBとしている。A点を見込んだ角LAR(絶対視差)をA点の輻輳角θとし、B点を見込んだ角LBR(絶対視差)をB点の輻輳角θとすると、A点とB点の視差(相対視差)dは、次式により与えられる。なお、以下では相対視差を単に「視差」と呼称する。
d=θ−θ
ここで、角ALBをh、角ARBをgとすると、輻輳角θはほぼhと等しく、輻輳角θはほぼgと等しい。したがって、次式が成り立つ。
d=g−h
[Relationship between zoom magnification and parallax]
FIG. 5 is a diagram illustrating a relationship between zooming and parallax. In FIG. 5A, the left eye position is L, the right eye position is R, and points on the subject are A and B. When the angle LAR (absolute parallax) that anticipates point A is the convergence angle θ A of point A and the angle LBR (absolute parallax) that anticipates point B is the convergence angle θ B of point B, the parallax between points A and B (Relative parallax) d is given by the following equation. Hereinafter, the relative parallax is simply referred to as “parallax”.
d = θ B −θ A
Here, when the angle ALB is h and the angle ARB is g, the convergence angle θ A is substantially equal to h, and the convergence angle θ B is approximately equal to g. Therefore, the following equation holds.
d = g−h

また、両眼間距離をD、両眼からA点までの距離をD、両眼からB点までの距離をDとし、両眼から見たA点とB点との距離をδとすると、
d≒Dδ/(D −δD
ここで、D,DB>>Dより、
d≒Dδ/D
が成り立つ。
Moreover, the interocular distance D, the distance D A from both eyes to the point A, the distance from the eyes to the point B and D B, and the distance between points A and B as seen from both eyes δ Then
d≈Dδ / (D A 2 −δD A )
Here, from D A , DB >> D,
d≈Dδ / D A 2
Holds.

図5(b)は、図5(a)に比べてn倍の拡大を行った場合の位置関係を示す図である。ここでは、ズーム後に変化した角度や位置および距離にはそれぞれの記号の最後にダッシュを付加している。n倍の拡大であるから、
g'=ng
h'=nh
となる。このとき、視差d'は、次式のように表される。
d'=D'−D'
=g'−h'
=n(g−h)
=nd
すなわち、n倍の拡大によりn倍の視差が生じることになる。これは、テレ端側へズームしていくと立体感が増すことを意味する。換言すれば、ズーム撮影においては、短い基線長でも適正な視差を得ることができることになる。
FIG. 5B is a diagram illustrating a positional relationship when n-fold enlargement is performed as compared with FIG. Here, a dash is added to the end of each symbol for the angle, position, and distance changed after zooming. Because it is n times magnification
g ′ = ng
h ′ = nh
It becomes. At this time, the parallax d ′ is expressed as the following equation.
d '= D B ' -D A '
= G'-h '
= N (g-h)
= Nd
That is, n-fold parallax occurs by n-fold enlargement. This means that the stereoscopic effect increases when zooming to the tele end side. In other words, in zoom shooting, an appropriate parallax can be obtained even with a short baseline length.

このように、本技術の第1の実施の形態によれば、一つの交換レンズ110によって集光された光をミラー143乃至146によって左右に分光することにより、両眼に提示される画像の視差を適正に小さくすることができる。本技術の実施の形態において得られる視差は、絞り113の口径およびズーム撮影におけるズーム比(拡大率)によって制御可能である。一般に、視差に対する眼の感度は高く、通常視力が視角で分オーダであるのに対し、視差については1オーダ高い分解能があるとされている(C.W.Tyler, "Spatial Organization of Binocular Disparity Sensitivity", Vision Research, Vol.15, pp.583-590, Pergamon Press (1975).)。したがって、視差を適正に小さくすることは、上の例よりも小さな視差の条件下であっても、自然に立体感を知覚させ、視覚疲労を軽減するためにも重要である。   As described above, according to the first embodiment of the present technology, the parallax of an image presented to both eyes is obtained by splitting the light collected by one interchangeable lens 110 left and right by the mirrors 143 to 146. Can be appropriately reduced. The parallax obtained in the embodiment of the present technology can be controlled by the aperture of the diaphragm 113 and the zoom ratio (magnification ratio) in zoom photography. In general, the sensitivity of the eye to parallax is high, and the normal visual acuity is in the order of minutes in terms of viewing angle, whereas parallax has a resolution that is one order higher (CWTyler, "Spatial Organization of Binocular Disparity Sensitivity", Vision Research, Vol. 15, pp.583-590, Pergamon Press (1975). Therefore, appropriately reducing the parallax is important for reducing the visual fatigue by allowing the user to naturally perceive a three-dimensional effect even under a parallax condition smaller than the above example.

また、この第1の実施の形態によれば、視差検出画像に加えて高画質な基本画像を撮像することができる。これら基本画像および視差検出画像を用いることにより、以下のように高画質な視差画像を生成することができる。   Further, according to the first embodiment, a high-quality basic image can be captured in addition to the parallax detection image. By using these basic images and parallax detection images, high-quality parallax images can be generated as follows.

<2.第2の実施の形態>
[撮像装置の構成]
図6は、本技術の第2の実施の形態における撮像装置の一構成例を示す図である。この映像記録再生システムは、撮像部100と、映像生成部200と、映像記憶部300とを備えている。
<2. Second Embodiment>
[Configuration of imaging device]
FIG. 6 is a diagram illustrating a configuration example of the imaging device according to the second embodiment of the present technology. The video recording / playback system includes an imaging unit 100, a video generation unit 200, and a video storage unit 300.

撮像部100は、第1の実施の形態として説明した撮像部であり、被写体からの入射光を受けて撮像素子171および172によって視差検出画像を生成し、撮像素子173によって基本画像を生成する。   The imaging unit 100 is the imaging unit described as the first embodiment. The imaging unit 100 receives incident light from a subject, generates parallax detection images by the imaging elements 171 and 172, and generates a basic image by the imaging element 173.

映像生成部200は、撮像部100から出力された基本画像および視差検出画像に基づいて高画質な視差画像を生成し、その視差画像の映像データを映像記憶部300に記録するものである。この映像生成部200の構成については後述する。   The video generation unit 200 generates a high-quality parallax image based on the basic image and the parallax detection image output from the imaging unit 100 and records the video data of the parallax image in the video storage unit 300. The configuration of the video generation unit 200 will be described later.

映像記憶部300は、映像生成部200から出力された視差画像の映像データを記憶するものである。   The video storage unit 300 stores video data of a parallax image output from the video generation unit 200.

[映像生成部の構成]
図7は、本技術の第2の実施の形態における映像生成部200の構成例を示す図である。この映像生成部200は、信号処理部211乃至213と、画像メモリ221および222と、視差画像生成部241および242と、符号化部231および232とを備えている。
[Configuration of video generator]
FIG. 7 is a diagram illustrating a configuration example of the video generation unit 200 according to the second embodiment of the present technology. The video generation unit 200 includes signal processing units 211 to 213, image memories 221 and 222, parallax image generation units 241 and 242, and encoding units 231 and 232.

信号処理部211乃至213は、撮像部100から出力された基本画像および視差検出画像の映像データをそれぞれ受け取り、所定の信号処理を施すものである。この信号処理部211乃至213は、撮像データをA/D(Analog to Digital)変換し、デモザイク処理やホワイトバランス調整処理等の各種信号処理を施す。   The signal processing units 211 to 213 receive the video data of the basic image and the parallax detection image output from the imaging unit 100, respectively, and perform predetermined signal processing. The signal processing units 211 to 213 perform A / D (Analog to Digital) conversion on the captured image data and perform various signal processing such as demosaic processing and white balance adjustment processing.

視差画像生成部241および242は、基本画像および視差検出画像に基づいて視差画像を生成するものである。この視差画像生成部241および242の詳細については後述する。   The parallax image generation units 241 and 242 generate parallax images based on the basic image and the parallax detection image. Details of the parallax image generation units 241 and 242 will be described later.

画像メモリ221および222は、信号処理部211乃至213によって処理された映像データおよび視差画像生成部241および242によって生成された視差画像の映像データを一時的に保持するメモリである。   The image memories 221 and 222 are memories that temporarily hold the video data processed by the signal processing units 211 to 213 and the video data of the parallax images generated by the parallax image generation units 241 and 242.

符号化部231および232は、画像メモリ221および222に保持された視差画像の映像データを符号化して映像記憶部300に出力するものである。   The encoding units 231 and 232 encode video data of parallax images held in the image memories 221 and 222 and output the encoded video data to the video storage unit 300.

[視差画像生成部の構成]
図8は、本技術の第2の実施の形態における視差画像生成部241および242の一構成例を示す図である。この視差画像生成部241および242は、それぞれ対応画素探索部245と、画素移動部246とを備えている。
[Configuration of parallax image generation unit]
FIG. 8 is a diagram illustrating a configuration example of the parallax image generation units 241 and 242 according to the second embodiment of the present technology. Each of the parallax image generation units 241 and 242 includes a corresponding pixel search unit 245 and a pixel moving unit 246.

対応画素探索部245は、視差検出画像の各画素について、基本画像における対応画素を探索するものである。この対応画素探索部245は、視差検出画像の左右それぞれの画像において探索領域を設け、基本画像の一部の領域をテンプレートとして探索を行う。この探索においては、相関係数法、SSDA(Sequential Similarity Detection Algorithm)法、最小二乗マッチング等が用いられる。すなわち、画素の一定の単位ごとに相関計算や差分絶対和計算等による評価を行い、相関が最大となる画素、または、差分絶対和が最小となる画素を対応画素として探索する。   The corresponding pixel search unit 245 searches for a corresponding pixel in the basic image for each pixel of the parallax detection image. The corresponding pixel search unit 245 provides a search area in each of the left and right images of the parallax detection image, and searches using a partial area of the basic image as a template. In this search, a correlation coefficient method, SSDA (Sequential Similarity Detection Algorithm) method, least square matching, or the like is used. That is, evaluation by correlation calculation, absolute difference sum calculation, or the like is performed for each fixed unit of pixels, and a pixel having the maximum correlation or a pixel having the minimum difference absolute sum is searched as a corresponding pixel.

ここで、例えば、差分二乗和や差分絶対値和を用いて対応画素を探索する際には、以下のように評価が行われる。まず、横X画素×縦Y画素の視差検出画像において横p画素×縦q画素の探索領域を想定する。また、基本画像において横m画素×縦n画素の探索領域を想定する。ただし、mはpより小さく、nはqよりも小さい整数である。視差検出画像の探索領域において、基本画像の探索領域を順次移動させながら差分二乗和または差分絶対値和を求める。   Here, for example, when searching for a corresponding pixel using a sum of squares of differences or a sum of absolute differences, evaluation is performed as follows. First, a search area of horizontal p pixels × vertical q pixels in a parallax detection image of horizontal X pixels × vertical Y pixels is assumed. Also, a search area of horizontal m pixels × vertical n pixels in the basic image is assumed. However, m is an integer smaller than p and n is an integer smaller than q. In the search area of the parallax detection image, the difference square sum or the difference absolute value sum is obtained while sequentially moving the search area of the basic image.

視差検出画像の画素値をI(i,j)、基本画像の画素値をT(i,j)とすると、差分二乗和(SSD:Sum of Squared Difference)は次式により求められる。

Figure 2016158266
また、差分絶対値和(SAD:Sum of Absolute Difference)は次式により求められる。
Figure 2016158266
この差分二乗和または差分絶対値和が最小となる位置のテンプレートの中心に位置する画素が対応画素になる。差分絶対値和が最小となるのは、基本画像と視差検出画像とが最も類似している領域であるから、対応画素には同じ被写体が表示されているものと推定することができる。 When the pixel value of the parallax detection image is I (i, j) and the pixel value of the basic image is T (i, j), a sum of squared difference (SSD) is obtained by the following equation.
Figure 2016158266
Also, the sum of absolute differences (SAD) is obtained by the following equation.
Figure 2016158266
The pixel located at the center of the template at the position where the difference square sum or the difference absolute value sum is minimum is the corresponding pixel. Since the difference absolute value sum is the smallest in the region where the basic image and the parallax detection image are most similar, it can be estimated that the same subject is displayed in the corresponding pixel.

一方、例えば、正規化相互相関を用いて対応画素を探索する際には、以下のように評価が行われる。視差検出画像の探索領域と、基本画像の探索領域との関係は上述のものと同様である。視差検出画像の探索領域において、基本画像の探索領域を順次移動させながら正規化相互相関を求める。   On the other hand, for example, when searching for corresponding pixels using normalized cross-correlation, evaluation is performed as follows. The relationship between the search area for the parallax detection image and the search area for the basic image is the same as described above. In the search area of the parallax detection image, the normalized cross correlation is obtained while sequentially moving the search area of the basic image.

正規化相互相関(NCC:Normalized Correlation Coefficient)は次式により求められる。

Figure 2016158266
この正規化相互相関が最大となる位置のテンプレートの中心に位置する画素が対応画素になる。この正規化相互相関を利用することにより、視差検出画像と基本画像とに輝度差がある場合においても、高い精度で対応画素を検出することができる。 Normalized correlation coefficient (NCC) is obtained by the following equation.
Figure 2016158266
The pixel located at the center of the template where the normalized cross-correlation is maximized is the corresponding pixel. By utilizing this normalized cross-correlation, even when there is a luminance difference between the parallax detection image and the basic image, the corresponding pixel can be detected with high accuracy.

画素移動部246は、対応画素探索部245によって探索された対応画素の情報に基づいて、基本画像の画素を視差検出画像の対応する画素の位置に移動することによって視差画像を生成するものである。基本画像と視差検出画像の画素数が一致しない場合には、基本画像の複数の画素から補間して視差画像の画素値を求めてもよい。   The pixel moving unit 246 generates a parallax image by moving the pixel of the basic image to the position of the corresponding pixel of the parallax detection image based on the information of the corresponding pixel searched by the corresponding pixel search unit 245. . When the number of pixels of the basic image and the parallax detection image does not match, the pixel value of the parallax image may be obtained by interpolation from a plurality of pixels of the basic image.

この実施の形態では、視差検出画像は視差情報のみが利用され、明るさや解像度などの画質は基本画像のものが反映される。これにより、左右で画質が均等な視差画像を得ることができる。   In this embodiment, only the parallax information is used for the parallax detection image, and the image quality such as brightness and resolution reflects that of the basic image. Thereby, parallax images with uniform image quality on the left and right can be obtained.

[撮像装置の動作]
図9は、本技術の実施の形態における撮像装置の動作例を示す流れ図である。まず、被写体からの入射光は、交換レンズ110およびリレーレンズ部130を介して平行光領域140に導かれ、透過型ミラー141およびミラー143乃至146によって分離される(ステップS901)。
[Operation of imaging device]
FIG. 9 is a flowchart illustrating an operation example of the imaging apparatus according to the embodiment of the present technology. First, incident light from the subject is guided to the parallel light region 140 via the interchangeable lens 110 and the relay lens unit 130, and is separated by the transmission type mirror 141 and the mirrors 143 to 146 (step S901).

透過型ミラー141およびミラー142によって集光レンズ153に導かれた光は撮像素子173において光電変換されて、基本画像が生成される(ステップS902)。また、ミラー143乃至146によって集光レンズ151および152に導かれた光は撮像素子171および172において光電変換されて、視差検出画像が生成される(ステップS902)。これら基本画像および視差検出画像の生成は独立して行われ、各画像の生成レートは異なっていても構わない。   The light guided to the condenser lens 153 by the transmissive mirror 141 and the mirror 142 is photoelectrically converted by the image sensor 173 to generate a basic image (step S902). Further, the light guided to the condenser lenses 151 and 152 by the mirrors 143 to 146 is photoelectrically converted by the image sensors 171 and 172, and a parallax detection image is generated (step S902). The basic image and the parallax detection image are generated independently, and the generation rate of each image may be different.

また、視差画像生成部241および242の対応画素探索部245において、基本画像と視差検出画像の対応画素が探索される(ステップS903)。この対応画素の探索は、左右の視差検出画像のそれぞれについて行われる。   In addition, the corresponding pixel search unit 245 of the parallax image generation units 241 and 242 searches for a corresponding pixel between the basic image and the parallax detection image (step S903). This search for corresponding pixels is performed for each of the left and right parallax detection images.

そして、視差画像生成部241および242の画素移動部246において、対応画素の情報に基づいて、基本画像の画素を視差検出画像の対応する画素の位置に移動することによって視差画像が生成される(ステップS904)。   Then, the pixel moving unit 246 of the parallax image generating units 241 and 242 generates a parallax image by moving the pixel of the basic image to the position of the corresponding pixel of the parallax detection image based on the information of the corresponding pixel ( Step S904).

このように、第2の実施の形態によれば、1つの高画質な基本画像の画素を用いて視差画像を生成することにより、明るさや解像度等の画質として基本画像のものを視差画像に反映することができ、左右の間で画質が均等な視差画像を得ることができる。   As described above, according to the second embodiment, by generating a parallax image using pixels of one high-quality basic image, the image quality such as brightness and resolution is reflected in the parallax image. It is possible to obtain a parallax image with uniform image quality between the left and right.

<3.第3の実施の形態>
第2の実施の形態では、画像メモリ221および222に保持された基本画像および視差検出画像に基づいて視差画像を生成していたが、この第3の実施の形態では画像メモリ221および222へ保持される前に視差画像を生成する。すなわち、この第3の実施の形態では、基本画像および視差検出画像がRAW画像である状態で、信号処理部213を用いることなく、視差画像を生成する。なお、撮像装置の全体構成は図6により説明したものと同様であるため、説明を省略する。
<3. Third Embodiment>
In the second embodiment, the parallax image is generated based on the basic image and the parallax detection image held in the image memories 221 and 222. In the third embodiment, the parallax image is held in the image memories 221 and 222. A parallax image is generated before being processed. That is, in the third embodiment, a parallax image is generated without using the signal processing unit 213 in a state where the basic image and the parallax detection image are RAW images. The overall configuration of the imaging device is the same as that described with reference to FIG.

[映像生成部の構成]
図10は、本技術の第3の実施の形態における映像生成部200の構成例を示す図である。この第3の実施の形態における映像生成部200は、図7における信号処理部213を不要とし、視差画像生成部241および242をそれぞれ信号処理部211および212に接続することにより構成される。
[Configuration of video generator]
FIG. 10 is a diagram illustrating a configuration example of the video generation unit 200 according to the third embodiment of the present technology. The video generation unit 200 in the third embodiment is configured by eliminating the signal processing unit 213 in FIG. 7 and connecting the parallax image generation units 241 and 242 to the signal processing units 211 and 212, respectively.

信号処理部211および212は、撮像部100から出力された基本画像および視差検出画像の映像データをそれぞれ受け取り、A/D変換を施して、視差画像生成部241および242にそれぞれ供給する。   The signal processing units 211 and 212 receive the basic image and the parallax detection image video data output from the imaging unit 100, respectively, perform A / D conversion, and supply them to the parallax image generation units 241 and 242, respectively.

視差画像生成部241および242は、それぞれ信号処理部211および212から供給された基本画像および視差検出画像の映像データに基づいて視差画像を生成し、それぞれ信号処理部211および212に供給する。なお、視差画像生成部241および242の構成については、図8により説明したものと同様であるため、説明を省略する。   The parallax image generation units 241 and 242 generate parallax images based on the basic image and the video data of the parallax detection images supplied from the signal processing units 211 and 212, respectively, and supply the parallax images to the signal processing units 211 and 212, respectively. Note that the configuration of the parallax image generation units 241 and 242 is the same as that described with reference to FIG.

そして、信号処理部211および212は、視差画像生成部241および242から供給された視差画像に対してデモザイク処理やホワイトバランス調整処理等の各種信号処理を施して、それぞれ画像メモリ221および222に保持させる。   Then, the signal processing units 211 and 212 perform various signal processing such as demosaic processing and white balance adjustment processing on the parallax images supplied from the parallax image generation units 241 and 242, and hold them in the image memories 221 and 222, respectively. Let

符号化部231および232は、画像メモリ221および222に保持された視差画像の映像データを符号化して映像記憶部300に出力する。   The encoding units 231 and 232 encode the video data of the parallax images held in the image memories 221 and 222 and output the encoded video data to the video storage unit 300.

このように、第3の実施の形態によれば、基本画像および視差検出画像がRAW画像である状態において視差画像を生成することにより、より高品質な視差画像を得ることができる。   Thus, according to the third embodiment, a higher-quality parallax image can be obtained by generating a parallax image in a state where the basic image and the parallax detection image are RAW images.

<4.第4の実施の形態>
この第4の実施の形態では、視差画像を時間方向に補間して任意の時刻の画像を生成する。なお、撮像装置の全体構成は図6により説明したものと同様であるため、説明を省略する。
<4. Fourth Embodiment>
In the fourth embodiment, an image at an arbitrary time is generated by interpolating parallax images in the time direction. The overall configuration of the imaging device is the same as that described with reference to FIG.

[映像生成部の構成]
図11は、本技術の第4の実施の形態における映像生成部200の構成例を示す図である。この第4の実施の形態における映像生成部200は、第2の実施の形態と比べて、時間方向補間部251および252が、それぞれ画像メモリ221または222に接続されている点で異なる。時間方向補間部251および252は、それぞれ画像メモリ221および222に保持されている視差画像の映像データについて、時間方向の補間を行うものである。
[Configuration of video generator]
FIG. 11 is a diagram illustrating a configuration example of the video generation unit 200 according to the fourth embodiment of the present technology. The video generation unit 200 according to the fourth embodiment is different from the second embodiment in that the time direction interpolation units 251 and 252 are connected to the image memory 221 or 222, respectively. The time direction interpolation units 251 and 252 perform time direction interpolation on the video data of the parallax images held in the image memories 221 and 222, respectively.

[時間方向補間部の構成]
図12は、本技術の第4の実施の形態における時間方向補間部251および252の構成例を示す図である。この時間方向補間部251および252は、それぞれフレームバッファ254と、対応画素探索部255と、補間処理部256とを備えている。
[Configuration of time direction interpolation unit]
FIG. 12 is a diagram illustrating a configuration example of the time direction interpolation units 251 and 252 in the fourth embodiment of the present technology. Each of the time direction interpolation units 251 and 252 includes a frame buffer 254, a corresponding pixel search unit 255, and an interpolation processing unit 256.

フレームバッファ254は、視差画像の映像データをフレーム毎に保持するバッファである。視差画像の映像データは時系列のフレームにより構成されており、そのフレームをフレームバッファ254に一旦保持することにより、対応画素探索部255において異なるフレーム同士の比較を行うことができる。例えば、視差画像の映像データの直前のフレームをフレームバッファ254に保持しておくことにより、画像メモリ221または222から供給されている現在のフレームとその直前のフレームの両者を対応画素探索部255に供給することができる。なお、視差画像には左右の画像が存在するため、フレームバッファ254は少なくとも2枚のフレームを保持する必要がある。   The frame buffer 254 is a buffer that holds video data of a parallax image for each frame. The video data of the parallax image is composed of time-series frames, and by temporarily holding the frames in the frame buffer 254, the corresponding pixel search unit 255 can compare different frames. For example, by holding the frame immediately before the video data of the parallax image in the frame buffer 254, both the current frame supplied from the image memory 221 or 222 and the frame immediately before it are stored in the corresponding pixel search unit 255. Can be supplied. Note that since there are left and right images in the parallax image, the frame buffer 254 needs to hold at least two frames.

対応画素探索部255は、視差画像の映像データの現在のフレームとフレームバッファ254に保持されたフレームとを比較することにより、両フレームにおける対応画素を探索するものである。この対応画素探索部255は、フレームバッファ254に保持された視差画像の左右それぞれの画像において探索領域を設け、現在の視差画像の一部の領域をテンプレートとして探索を行う。この探索においては、上述の対応画素探索部245と同様の手法を採ることができるため、詳細な説明は省略する。   The corresponding pixel search unit 255 searches for corresponding pixels in both frames by comparing the current frame of the video data of the parallax image and the frame held in the frame buffer 254. The corresponding pixel search unit 255 provides a search region in each of the left and right images of the parallax image held in the frame buffer 254, and searches using a partial region of the current parallax image as a template. In this search, a method similar to that of the above-described corresponding pixel search unit 245 can be adopted, and thus detailed description thereof is omitted.

補間処理部256は、対応画素探索部255によって探索された対応画素の情報に基づいて、任意の時刻における画素値を補間により生成するものである。ここで、フレームバッファ254に保持された視差画像を過去データとし、画像メモリ221または222から供給されている現在の視差画像を現在データとする。まず、過去データから現在データへ対応画素間を結ぶ移動ベクトルの中点座標(u,v)において、2つの対応画素の画素値の平均値から画素値s(u,v)が算出される。   The interpolation processing unit 256 generates a pixel value at an arbitrary time by interpolation based on information on the corresponding pixel searched by the corresponding pixel search unit 255. Here, the parallax image held in the frame buffer 254 is set as past data, and the current parallax image supplied from the image memory 221 or 222 is set as current data. First, the pixel value s (u, v) is calculated from the average value of the two corresponding pixels at the midpoint coordinates (u, v) of the movement vector connecting the corresponding pixels from the past data to the current data.

この場合のu−v空間は、視差画像のX−Y空間に必ずしも一致しない。そこで、全域の画素値s(u,v)からX−Y空間の画素値F(X,Y)を、補間処理により生成する。この場合の補間処理としては、例えば、以下のような線形補間法を採用することができる。ただし、F0は求める画素値F(X,Y)、siは既知の画素値s(u,v)、tは計算に用いられる近接点数である。また、wiは重みであり、座標(X,Y)への距離の逆数を用いることができる。

Figure 2016158266
The uv space in this case does not necessarily match the XY space of the parallax image. Therefore, the pixel value F (X, Y) in the XY space is generated by interpolation processing from the pixel values s (u, v) of the entire area. As the interpolation processing in this case, for example, the following linear interpolation method can be employed. Here, F 0 is a pixel value F (X, Y) to be obtained, s i is a known pixel value s (u, v), and t is the number of adjacent points used in the calculation. Further, w i is a weight, and the reciprocal of the distance to the coordinates (X, Y) can be used.
Figure 2016158266

ここでは、過去データと現在データの対応画素の画素値の平均値を算出することにより移動ベクトルの中点における画素値を求めたが、任意の比率の点を線形比で計算することにより、任意の時刻における画素値を生成してもよい。   Here, the pixel value at the midpoint of the movement vector is obtained by calculating the average value of the pixel values of the corresponding pixels of the past data and the current data. Pixel values at the time may be generated.

[時間方向補間部の動作]
図13は、本技術の第4の実施の形態における時間方向補間部251および252の動作例を示す流れ図である。時間方向補間部251および252は、以下の処理を視差画像のフレームレート毎に繰り返す(L910)。
[Operation of time direction interpolation unit]
FIG. 13 is a flowchart illustrating an operation example of the time direction interpolation units 251 and 252 according to the fourth embodiment of the present technology. The time direction interpolation units 251 and 252 repeat the following process for each frame rate of the parallax image (L910).

まず、画像メモリ221または222から新たな視差画像のフレームf_new(X,Y)が取得される(ステップS911)。また、フレームバッファ254に保持されていたフレームをf_old(X,Y)とする(ステップS912)。そして、対応画素探索部255は、視差画像のフレームf_new(X,Y)とフレームf_old(X,Y)とを比較することにより、両フレームにおける対応画素を探索する(ステップS913)。   First, a new parallax image frame f_new (X, Y) is acquired from the image memory 221 or 222 (step S911). In addition, the frame held in the frame buffer 254 is set to f_old (X, Y) (step S912). Then, the corresponding pixel search unit 255 searches for a corresponding pixel in both frames by comparing the frame f_new (X, Y) and the frame f_old (X, Y) of the parallax image (step S913).

補間処理部256は、探索された対応画素間を結ぶ移動ベクトルの中点座標(u,v)を生成し(ステップS914)、2つの対応画素の画素値の平均値から画素値s(u,v)を算出する(ステップS915)。そして、補間処理部256は、線形補間法等により画素値F(X,Y)を求める(ステップS916)。この画素値F(X,Y)は、中間時刻の映像として出力される(ステップS917)。   The interpolation processing unit 256 generates the midpoint coordinates (u, v) of the movement vector connecting the searched corresponding pixels (step S914), and calculates the pixel value s (u, v) from the average value of the pixel values of the two corresponding pixels. v) is calculated (step S915). Then, the interpolation processing unit 256 obtains a pixel value F (X, Y) by a linear interpolation method or the like (step S916). The pixel value F (X, Y) is output as an intermediate time image (step S917).

そして、視差画像の次のフレームの処理の前に、視差画像のフレームf_new(X,Y)がフレームバッファ254に保持される(ステップS918)。   Then, before the processing of the next frame of the parallax image, the frame f_new (X, Y) of the parallax image is held in the frame buffer 254 (step S918).

このように、第4の実施の形態によれば、視差画像のフレームレートを向上させることができる。なお、ここでは、視差画像を時間方向に補間する実施態様について説明したが、視差検出画像または基本画像を補間するようにしてもよい。   Thus, according to the fourth embodiment, the frame rate of a parallax image can be improved. Here, although an embodiment in which a parallax image is interpolated in the time direction has been described, a parallax detection image or a basic image may be interpolated.

<5.第5の実施の形態>
この第5の実施の形態では、視差画像を空間方向に補間して任意の位置の視点の画像を生成する。なお、撮像装置の全体構成は図6により説明したものと同様であるため、説明を省略する。
<5. Fifth embodiment>
In the fifth embodiment, a parallax image is interpolated in the spatial direction to generate a viewpoint image at an arbitrary position. The overall configuration of the imaging device is the same as that described with reference to FIG.

[映像生成部の構成]
図14は、本技術の第5の実施の形態における映像生成部200の構成例を示す図である。この第5の実施の形態における映像生成部200は、第2の実施の形態と比べて、空間方向補間部260が、画像メモリ221および222に接続されている点で異なる。空間方向補間部260は、画像メモリ221および222に保持されている視差画像の映像データについて、空間方向の補間を行うものである。
[Configuration of video generator]
FIG. 14 is a diagram illustrating a configuration example of the video generation unit 200 according to the fifth embodiment of the present technology. The video generation unit 200 according to the fifth embodiment is different from the second embodiment in that a spatial direction interpolation unit 260 is connected to the image memories 221 and 222. The spatial direction interpolation unit 260 performs spatial direction interpolation on the video data of the parallax images held in the image memories 221 and 222.

[空間方向補間部の構成]
図15は、本技術の第5の実施の形態における空間方向補間部260の構成例を示す図である。この空間方向補間部260は、対応画素探索部265と、補間処理部266とを備えている。
[Configuration of spatial direction interpolation unit]
FIG. 15 is a diagram illustrating a configuration example of the spatial direction interpolation unit 260 according to the fifth embodiment of the present technology. The spatial direction interpolation unit 260 includes a corresponding pixel search unit 265 and an interpolation processing unit 266.

対応画素探索部265は、視差画像の左画像のフレームと右画像のフレームとを比較することにより、両フレームにおける対応画素を探索するものである。この対応画素探索部265は、左右画像の一方の画像において探索領域を設け、他方の画像の一部の領域をテンプレートとして探索を行う。この探索においては、上述の対応画素探索部245と同様の手法を採ることができるため、詳細な説明は省略する。   The corresponding pixel search unit 265 searches for a corresponding pixel in both frames by comparing the left image frame and the right image frame of the parallax image. The corresponding pixel search unit 265 provides a search area in one of the left and right images, and searches using a partial area of the other image as a template. In this search, a method similar to that of the above-described corresponding pixel search unit 245 can be adopted, and thus detailed description thereof is omitted.

補間処理部266は、対応画素探索部265によって探索された対応画素の情報に基づいて、任意の位置の視点における画素値を補間により生成するものである。ここで、一方の画像を第1視点データとし、他方の画像を第2視点データとする。まず、第1視点データから第2視点データへ対応画素間を結ぶベクトルの中点座標(u,v)において、2つの対応画素の画素値の平均値から画素値s(u,v)が算出される。   The interpolation processing unit 266 generates the pixel value at the viewpoint at an arbitrary position based on the information on the corresponding pixel searched by the corresponding pixel search unit 265 by interpolation. Here, one image is set as first viewpoint data, and the other image is set as second viewpoint data. First, the pixel value s (u, v) is calculated from the average value of the two corresponding pixels at the midpoint coordinates (u, v) of the vector connecting the corresponding pixels from the first viewpoint data to the second viewpoint data. Is done.

この場合のu−v空間も、第4の実施の形態の場合と同様に、視差画像のX−Y空間に必ずしも一致しない。そこで、全域の画素値s(u,v)からX−Y空間の画素値F(X,Y)を、補間処理により生成する。補間処理の内容についても第4の実施の形態の場合と同様であるため、詳細な説明は省略する。   The uv space in this case does not always match the XY space of the parallax image as in the case of the fourth embodiment. Therefore, the pixel value F (X, Y) in the XY space is generated by interpolation processing from the pixel values s (u, v) of the entire area. The contents of the interpolation processing are the same as in the case of the fourth embodiment, and detailed description thereof is omitted.

ここでは、第1視点データと第2視点データの対応画素の画素値の平均値を算出することによりベクトルの中点における画素値を求めたが、任意の比率の点を線形比で計算することにより、任意の位置の視点における画素値を生成してもよい。   Here, the pixel value at the midpoint of the vector is obtained by calculating the average value of the pixel values of the corresponding pixels of the first viewpoint data and the second viewpoint data. However, a point with an arbitrary ratio is calculated with a linear ratio. Thus, a pixel value at a viewpoint at an arbitrary position may be generated.

[空間方向補間部の動作]
図16は、本技術の第5の実施の形態における空間方向補間部260の動作例を示す流れ図である。空間方向補間部260は、以下の処理を視差画像のフレームレート毎に繰り返す(L920)。
[Operation of spatial direction interpolation unit]
FIG. 16 is a flowchart illustrating an operation example of the spatial direction interpolation unit 260 in the fifth embodiment of the present technology. The spatial direction interpolation unit 260 repeats the following processing for each frame rate of the parallax image (L920).

まず、画像メモリ221から新たな視差画像の左画像のフレームf_left(X,Y)が取得される(ステップS921)。また、画像メモリ222から新たな視差画像の右画像のフレームf_right(X,Y)が取得される(ステップS922)。そして、対応画素探索部265は、視差画像のフレームf_left(X,Y)とフレームf_right(X,Y)とを比較することにより、両フレームにおける対応画素を探索する(ステップS923)。   First, the frame f_left (X, Y) of the left image of a new parallax image is acquired from the image memory 221 (step S921). In addition, the frame f_right (X, Y) of the right image of the new parallax image is acquired from the image memory 222 (step S922). Then, the corresponding pixel search unit 265 searches for a corresponding pixel in both frames by comparing the frame f_left (X, Y) and the frame f_right (X, Y) of the parallax image (step S923).

補間処理部266は、探索された対応画素間を結ぶベクトルの中点座標(u,v)を生成し(ステップS924)、2つの対応画素の画素値の平均値から画素値s(u,v)を算出する(ステップS925)。そして、補間処理部266は、線形補間法等により画素値F(X,Y)を求める(ステップS926)。この画素値F(X,Y)は、中間時刻の映像として出力される(ステップS927)。   The interpolation processing unit 266 generates the midpoint coordinates (u, v) of the vectors connecting the searched corresponding pixels (step S924), and calculates the pixel value s (u, v) from the average value of the pixel values of the two corresponding pixels. ) Is calculated (step S925). Then, the interpolation processing unit 266 obtains the pixel value F (X, Y) by a linear interpolation method or the like (step S926). This pixel value F (X, Y) is output as an intermediate time image (step S927).

このように、第5の実施の形態によれば、任意の位置の視点における視差画像を生成することができる。なお、ここでは視差画像の左画像と右画像に基づいて対応画素を探索することを想定したが、基本画像と視差画像の左右画像の一方とを比較することにより、両画像における対応画素を探索するようにしてもよい。   Thus, according to the fifth embodiment, a parallax image at a viewpoint at an arbitrary position can be generated. Although it is assumed here that the corresponding pixels are searched based on the left image and the right image of the parallax image, the corresponding pixels in both images are searched by comparing the basic image with one of the left and right images of the parallax image. You may make it do.

<6.第6の実施の形態>
[映像記録再生システムの構成]
図17は、本技術の第6の実施の形態における映像記録再生システムの一構成例を示す図である。この映像記録再生システムは、撮像部100と、映像生成部200と、映像記憶部300と、映像再生部400と、表示部500とを備えている。撮像部100、映像生成部200および映像記憶部300については、図6において説明したものと同様であるため、説明を省略する。
<6. Sixth Embodiment>
[Configuration of video recording / playback system]
FIG. 17 is a diagram illustrating a configuration example of a video recording / reproducing system according to the sixth embodiment of the present technology. This video recording / playback system includes an imaging unit 100, a video generation unit 200, a video storage unit 300, a video playback unit 400, and a display unit 500. The imaging unit 100, the video generation unit 200, and the video storage unit 300 are the same as those described with reference to FIG.

映像再生部400は、映像記憶部300に記憶された映像データを読み出して、再生するものである。この映像再生部400は、左右の視差画像の映像データに対応して、復号部411および412と、表示制御部421および422とを備えている。復号部411および412は、映像記憶部300から読み出された視差画像の映像データを復号するものである。表示制御部421および422は、復号部411および412によって復号された視差画像の映像データを表示部500に表示させるように制御するものである。   The video playback unit 400 reads and plays back video data stored in the video storage unit 300. The video reproduction unit 400 includes decoding units 411 and 412 and display control units 421 and 422 corresponding to the video data of the left and right parallax images. The decoding units 411 and 412 decode the video data of the parallax image read from the video storage unit 300. The display control units 421 and 422 are for controlling the video data of the parallax images decoded by the decoding units 411 and 412 to be displayed on the display unit 500.

表示部500は、映像再生部400から出力された視差画像の映像データを表示するものである。この表示部500としては、例えば、2台のプロジェクタに円偏光または直線偏光フィルターを取り付けて左右眼用の視差画像をそれぞれ提示し、表示に対応した円偏光または直線偏光眼鏡で観視するような態様が考えられる。また、フィルター付きフラットパネルディスプレイにおいて、同様に左右眼用の視差画像を同時に提示し、レンチキュラーレンズ、パララックスバリア方式等の眼鏡なし立体表示装置等を利用してもよい。このように、本技術の実施の形態では、左右眼用の画像を交互に提示するのではなく、同時に提示することにより、視覚疲労を軽減している。   The display unit 500 displays the video data of the parallax image output from the video playback unit 400. As this display unit 500, for example, a circularly polarized light or linearly polarized light filter is attached to two projectors, and parallax images for left and right eyes are respectively presented, and viewed with circularly polarized light or linearly polarized glasses corresponding to the display. Embodiments are possible. Similarly, in a flat panel display with a filter, a parallax image for the left and right eyes may be simultaneously presented, and a lenticular lens, a stereoscopic display device without glasses such as a parallax barrier method, or the like may be used. As described above, in the embodiment of the present technology, visual fatigue is reduced by presenting images for the left and right eyes alternately instead of presenting them alternately.

また、本技術の実施の形態では、撮像部100における映像データの生成から、表示部500における映像データの表示までを、高フレームレート化することにより、動きによるボケ(Blur)やジャーキネス(Jerkiness)の解消を図る。動きによるボケは、撮影時のMTF(Modulation Transfer Function)の低下に加えて、特に、ホールド型表示において移動する被写体を追従して見る際(追従視)、映像の網膜上のスリップにより多く発生する。ここで、ホールド型表示は、フレーム期間中、フィルムや液晶プロジェクタ等に映像が継続して表示されることを意味する。また、ジャーキネスは、映像の滑らかさを失われて、動きがギクシャクすることをいう。このジャーキネスは、高速シャッターを用いて撮影された映像を、視線を固定して見る際(固定視)に多く発生する。こうした動画質劣化には、撮影と表示のフレームレートやカメラの撮影の開口率(開口時間/フレーム時間)、視覚特性等が関与する。   Further, in the embodiment of the present technology, motion blur and jerkiness are increased by increasing the frame rate from generation of video data in the imaging unit 100 to display of video data in the display unit 500. To solve the problem. In addition to a decrease in MTF (Modulation Transfer Function) at the time of shooting, blurring due to movement occurs more often due to slipping on the retina of the image, especially when tracking a moving subject in a hold-type display (following vision). . Here, the hold-type display means that an image is continuously displayed on a film, a liquid crystal projector, or the like during a frame period. In addition, jerkiness means that the smoothness of the image is lost and the movement becomes jerky. This jerkiness often occurs when an image shot using a high-speed shutter is viewed with a fixed line of sight (fixed vision). Such degradation in moving image quality involves the frame rate of shooting and display, the aperture ratio (opening time / frame time) of camera shooting, visual characteristics, and the like.

このように、本技術の第6の実施の形態によれば、高画質な視差画像を撮像および再生することができる。   As described above, according to the sixth embodiment of the present technology, a high-quality parallax image can be captured and reproduced.

なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。   The above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the invention-specific matters in the claims have a corresponding relationship. Similarly, the invention specific matter in the claims and the matter in the embodiment of the present technology having the same name as this have a corresponding relationship. However, the present technology is not limited to the embodiment, and can be embodied by making various modifications to the embodiment without departing from the gist thereof.

なお、本技術は以下のような構成もとることができる。
(1)被写体からの光を集光する撮影レンズと、
前記集光された光を伝送して平行光とするリレーレンズと、
前記平行光を透過および反射する半透過膜と、
前記半透過膜によって透過または反射されることにより導かれた光を左右2つに分光するミラーと、
前記分光された光をそれぞれ結像させる第1および第2の結像レンズと、
前記第1および第2の結像レンズによって結像された光をそれぞれ電子信号による視差検出画像に変換する第1および第2の撮像素子と、
前記半透過膜によって反射または透過された光のうち前記ミラーに導かれなかった光を結像させる第3の結像レンズと、
前記第3の結像レンズによって結像された光を電子信号による基本画像に変換する第3の撮像素子と
を具備する撮像装置。
(2)前記基本画像と前記視差検出画像のそれぞれとを比較することにより前記視差検出画像のそれぞれと同じ視点の視差画像を前記基本画像に基づいて生成する視差画像生成部をさらに具備する前記(1)に記載の撮像装置。
(3)前記視差画像生成部は、
前記基本画像と前記視差検出画像のそれぞれとを比較して互いに対応する画素を探索する対応画素探索部と、
前記探索結果に基づいて前記基本画像の画素を前記視差検出画像において対応する画素の位置へ移動することにより前記視差画像を生成する画素移動部と
を備える前記(2)に記載の撮像装置。
(4)前記基本画像または前記視差検出画像を時系列のフレームとして含む映像データについて異なる時刻における2つの前記フレームを比較して互いに対応する画素を探索して、当該探索結果に基づいて前記対応する画素の中点座標およびその画素値を求めることにより任意の時刻の画像を補間する時刻方向補間部をさらに具備する前記(2)または(3)に記載の撮像装置。
(5)前記基本画像または前記視差検出画像のうちのいずれか2つを比較して互いに対応する画素を探索して、当該探索結果に基づいて前記対応する画素の中点座標およびその画素値を求めることにより任意の視点の画像を補間する空間方向補間部をさらに具備する前記(2)または(3)に記載の撮像装置。
(6)前記第1乃至第3の撮像素子の各々は、毎秒60フレーム以上のレートで前記基本画像または前記視差検出画像を生成する前記(1)から(5)のいずれかに記載の撮像装置。
(7)前記第1および第2の撮像素子の各々は、毎秒230乃至250フレームのレートで前記視差検出画像を生成する前記(1)から(6)のいずれかに記載の撮像装置。
(8)前記第1および第2の撮像素子の各々は、毎秒290乃至310フレームのレートで前記視差検出画像を生成する前記(1)から(6)のいずれかに記載の撮像装置。
(9)前記第1および第2の撮像素子の各々は、毎秒590乃至610フレームのレートで前記視差検出画像を生成する前記(1)から(6)のいずれかに記載の撮像装置。
(10)被写体からの光を集光する撮影レンズと、
前記集光された光を伝送して平行光とするリレーレンズと、
前記平行光を透過および反射する半透過膜と、
前記半透過膜によって透過または反射されることにより導かれた光を左右2つに分光するミラーと、
前記分光された光をそれぞれ結像させる第1および第2の結像レンズと、
前記第1および第2の結像レンズによって結像された光をそれぞれ電子信号による視差検出画像に変換する第1および第2の撮像素子と、
前記半透過膜によって反射または透過された光のうち前記ミラーに導かれなかった光を結像させる第3の結像レンズと、
前記第3の結像レンズによって結像された光を電子信号による基本画像に変換する第3の撮像素子と、
前記基本画像と前記視差検出画像のそれぞれとを比較することにより前記視差検出画像のそれぞれと同じ視点の視差画像を前記基本画像に基づいて生成する視差画像生成部と、
前記視差画像をそれぞれ左右の映像データのフレームとして生成して記憶部に記録させる映像生成部と、
前記記憶部に記録された前記左右の映像データを同時に再生表示させる映像再生部と
を具備する映像記録再生システム。
In addition, this technique can also take the following structures.
(1) a photographic lens that collects light from the subject;
A relay lens that transmits the collected light to be parallel light;
A semi-transmissive film that transmits and reflects the parallel light;
A mirror that splits light guided by being transmitted or reflected by the semi-transmissive film into left and right two parts;
First and second imaging lenses that respectively image the dispersed light;
First and second imaging elements for converting light imaged by the first and second imaging lenses into parallax detection images by electronic signals, respectively;
A third imaging lens that forms an image of light reflected or transmitted by the semi-transmissive film but not guided to the mirror;
An image pickup apparatus comprising: a third image pickup device that converts light imaged by the third image forming lens into a basic image using an electronic signal.
(2) The apparatus further includes a parallax image generation unit that generates a parallax image at the same viewpoint as each of the parallax detection images by comparing the basic image and the parallax detection images based on the basic image. The imaging device according to 1).
(3) The parallax image generation unit
A corresponding pixel search unit for searching for pixels corresponding to each other by comparing each of the basic image and the parallax detection image;
The imaging apparatus according to (2), further including: a pixel moving unit that generates the parallax image by moving a pixel of the basic image to a position of a corresponding pixel in the parallax detection image based on the search result.
(4) The video data including the basic image or the parallax detection image as a time-series frame is searched for corresponding pixels by comparing two frames at different times, and the corresponding is performed based on the search result. The imaging apparatus according to (2) or (3), further including a time direction interpolation unit that interpolates an image at an arbitrary time by obtaining a middle point coordinate of the pixel and a pixel value thereof.
(5) Comparing any two of the basic image and the parallax detection image to search for corresponding pixels, and based on the search result, determine the midpoint coordinates of the corresponding pixels and their pixel values. The imaging apparatus according to (2) or (3), further including a spatial direction interpolation unit that interpolates an image of an arbitrary viewpoint by obtaining.
(6) The imaging device according to any one of (1) to (5), wherein each of the first to third imaging elements generates the basic image or the parallax detection image at a rate of 60 frames or more per second. .
(7) The imaging device according to any one of (1) to (6), wherein each of the first and second imaging elements generates the parallax detection image at a rate of 230 to 250 frames per second.
(8) The imaging device according to any one of (1) to (6), wherein each of the first and second imaging elements generates the parallax detection image at a rate of 290 to 310 frames per second.
(9) The imaging device according to any one of (1) to (6), wherein each of the first and second imaging elements generates the parallax detection image at a rate of 590 to 610 frames per second.
(10) a photographic lens that collects light from the subject;
A relay lens that transmits the collected light to be parallel light;
A semi-transmissive film that transmits and reflects the parallel light;
A mirror that splits light guided by being transmitted or reflected by the semi-transmissive film into left and right two parts;
First and second imaging lenses that respectively image the dispersed light;
First and second imaging elements for converting light imaged by the first and second imaging lenses into parallax detection images by electronic signals, respectively;
A third imaging lens that forms an image of light reflected or transmitted by the semi-transmissive film but not guided to the mirror;
A third imaging element that converts light imaged by the third imaging lens into a basic image by an electronic signal;
A parallax image generating unit that generates a parallax image of the same viewpoint as each of the parallax detection images by comparing the basic image and each of the parallax detection images;
A video generation unit for generating the parallax images as left and right video data frames and recording the frames in a storage unit;
A video recording / reproducing system comprising: a video reproducing unit that simultaneously reproduces and displays the left and right video data recorded in the storage unit.

100 撮像部
110 交換レンズ
115 瞳
120 レンズマウント
130 リレーレンズ部
140 平行光領域
141 透過型ミラー
142〜146 ミラー
151〜153 集光レンズ
171〜173 撮像素子
200 映像生成部
211〜213 信号処理部
221、222 画像メモリ
231、232 符号化部
241、242 視差画像生成部
245、255、265 対応画素探索部
246 画素移動部
251 時間方向補間部
254 フレームバッファ
256、266 補間処理部
260 空間方向補間部
300 映像記憶部
400 映像再生部
411、412 復号部
421、422 表示制御部
500 表示部
DESCRIPTION OF SYMBOLS 100 Image pick-up part 110 Interchangeable lens 115 Pupil 120 Lens mount 130 Relay lens part 140 Parallel light area 141 Transmission type mirror 142-146 Mirror 151-153 Condensing lens 171-173 Image pick-up element 200 Image | video production | generation part 211-213 Signal processing part 221, 222 Image memory 231, 232 Coding unit 241, 242 Parallax image generation unit 245, 255, 265 Corresponding pixel search unit 246 Pixel moving unit 251 Time direction interpolation unit 254 Frame buffer 256, 266 Interpolation processing unit 260 Spatial direction interpolation unit 300 Video Storage unit 400 Video playback unit 411, 412 Decoding unit 421, 422 Display control unit 500 Display unit

Claims (12)

入射光を第1の成分と第2の成分に分光するミラーと、
前記第1の成分を結像して、視差検出画像を生成する際に用いる第1の画像信号を得る撮像素子と、
前記第2の成分を結像して、前記視差検出画像より高画質な画像である基本画像を生成する際に用いる第2の画像信号を得る他の撮像素子と
を具備する撮像装置。
A mirror that splits incident light into a first component and a second component;
An imaging device that forms an image of the first component and obtains a first image signal used when generating a parallax detection image;
An image pickup apparatus comprising: another image pickup device that forms an image of the second component and obtains a second image signal used when generating a basic image that is a higher quality image than the parallax detection image.
前記ミラーは、透過型ミラーであり、入射光を透過または反射することによって前記第1の成分と第2の成分に分光する
請求項1記載の撮像装置。
The imaging device according to claim 1, wherein the mirror is a transmissive mirror, and splits the incident light into the first component and the second component by transmitting or reflecting the incident light.
前記第1の画像信号を得る撮像素子は、視差を有する左用の画像信号と右用の画像信号を得る
請求項1記載の撮像装置。
The imaging device according to claim 1, wherein the imaging element that obtains the first image signal obtains a left image signal and a right image signal having parallax.
前記第1の画像信号と前記第2の画像信号とに基づいて画像を生成する画像生成部をさらに具備する請求項1記載の撮像装置。   The imaging apparatus according to claim 1, further comprising an image generation unit that generates an image based on the first image signal and the second image signal. 入射光を第1の成分と第2の成分に分光するミラーと、前記第1の成分を結像して、視差検出画像を生成する際に用いる第1の画像信号を得る撮像素子と、前記第2の成分を結像して、前記視差検出画像より高画質な画像である基本画像を生成する際に用いる第2の画像信号を得る他の撮像素子とを備える撮像装置から出力される前記第1の画像信号と前記第2の画像信号とに基づいて、画像を生成する画像生成部
を具備する画像処理装置。
A mirror that splits incident light into a first component and a second component; an imaging device that forms an image of the first component to obtain a first image signal used when generating a parallax detection image; The second component is imaged and output from an imaging device including another imaging element that obtains a second image signal used when generating a basic image that is a higher quality image than the parallax detection image. An image processing apparatus comprising an image generation unit that generates an image based on a first image signal and the second image signal.
前記画像生成部は、前記第1の画像信号に基づいて前記視差検出画像を生成し、前記第2の画像信号に基づいて前記基本画像を生成し、前記視差検出画像と前記基本画像とに基づいて前記画像を生成する
請求項5記載の画像処理装置。
The image generation unit generates the parallax detection image based on the first image signal, generates the basic image based on the second image signal, and based on the parallax detection image and the basic image The image processing apparatus according to claim 5, wherein the image is generated.
前記画像生成部は、
前記第1の画像信号と前記第2の画像信号のそれぞれとを比較して互いに対応する画素信号を探索し、
前記探索の結果に基づいて前記第2の画像信号の画素信号を前記第1の画像信号において対応する画素信号に置換することにより前記画像を生成する
請求項5記載の画像処理装置。
The image generation unit
Comparing each of the first image signal and the second image signal to search for corresponding pixel signals;
The image processing apparatus according to claim 5, wherein the image is generated by replacing a pixel signal of the second image signal with a corresponding pixel signal in the first image signal based on a result of the search.
前記第1の画像信号は、前記第1の成分から得た、視差を有する左用の画像信号と右用の画像信号であり、
前記画像生成部は、前記左用の画像信号、前記右用の画像信号、および、前記第2の画像信号に基づいて、前記画像を生成する
請求項5記載の画像処理装置。
The first image signal is a left image signal and a right image signal having parallax obtained from the first component,
The image processing apparatus according to claim 5, wherein the image generation unit generates the image based on the left image signal, the right image signal, and the second image signal.
前記画像生成部は、前記第1の画像信号と前記第2の画像信号とに基づいて前記視差検出画像と同じ視点の前記画像を生成する請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the image generation unit generates the image at the same viewpoint as the parallax detection image based on the first image signal and the second image signal. 前記画像生成部は、前記第1の画像信号と前記第2の画像信号とに基づいて任意の時刻の前記画像を生成する
請求項5記載の画像処理装置。
The image processing apparatus according to claim 5, wherein the image generation unit generates the image at an arbitrary time based on the first image signal and the second image signal.
前記画像生成部は、前記第1の画像信号と前記第2の画像信号とに基づいて任意の視点の前記画像を生成する請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the image generation unit generates the image at an arbitrary viewpoint based on the first image signal and the second image signal. 撮像装置と画像処理装置とからなるシステムであって、
前記撮像装置は、
入射光を第1の成分と第2の成分に分光するミラーと、
前記第1の成分を結像して、視差検出画像を生成する際に用いる第1の画像信号を得る撮像素子と、
前記第2の成分を結像して、前記視差検出画像より画素数の高い画像である、基本画像を生成する際に用いる第2の画像信号を得る他の撮像素子とを備え、
前記画像処理装置は、
前記撮像装置から出力される、前記第1の画像信号と前記第2の画像信号とに基づいて、画像を生成する画像生成部を備える
システム。
A system comprising an imaging device and an image processing device,
The imaging device
A mirror that splits incident light into a first component and a second component;
An imaging device that forms an image of the first component and obtains a first image signal used when generating a parallax detection image;
Another imaging element that forms the second component and obtains a second image signal that is used when generating a basic image that is an image having a higher number of pixels than the parallax detection image;
The image processing apparatus includes:
A system comprising an image generation unit that generates an image based on the first image signal and the second image signal output from the imaging device.
JP2016073809A 2016-04-01 2016-04-01 Imaging apparatus and video recording / reproducing system Expired - Fee Related JP6237811B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016073809A JP6237811B2 (en) 2016-04-01 2016-04-01 Imaging apparatus and video recording / reproducing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016073809A JP6237811B2 (en) 2016-04-01 2016-04-01 Imaging apparatus and video recording / reproducing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011218870A Division JP5912382B2 (en) 2011-10-03 2011-10-03 Imaging apparatus and video recording / reproducing system

Publications (2)

Publication Number Publication Date
JP2016158266A true JP2016158266A (en) 2016-09-01
JP6237811B2 JP6237811B2 (en) 2017-11-29

Family

ID=56826918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016073809A Expired - Fee Related JP6237811B2 (en) 2016-04-01 2016-04-01 Imaging apparatus and video recording / reproducing system

Country Status (1)

Country Link
JP (1) JP6237811B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016611A (en) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd Parallax image pickup device and camera
JP2005210217A (en) * 2004-01-20 2005-08-04 Olympus Corp Stereoscopic camera
JP2005244916A (en) * 1998-08-28 2005-09-08 Imax Corp Image processor
JP2008187440A (en) * 2007-01-30 2008-08-14 Fujifilm Corp Image sensing device and its driving method
JP2010230879A (en) * 2009-03-26 2010-10-14 Fujifilm Corp Double eye camera device
JP2011160299A (en) * 2010-02-02 2011-08-18 Konica Minolta Holdings Inc Three-dimensional imaging system and camera for the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005244916A (en) * 1998-08-28 2005-09-08 Imax Corp Image processor
JP2001016611A (en) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd Parallax image pickup device and camera
JP2005210217A (en) * 2004-01-20 2005-08-04 Olympus Corp Stereoscopic camera
JP2008187440A (en) * 2007-01-30 2008-08-14 Fujifilm Corp Image sensing device and its driving method
JP2010230879A (en) * 2009-03-26 2010-10-14 Fujifilm Corp Double eye camera device
JP2011160299A (en) * 2010-02-02 2011-08-18 Konica Minolta Holdings Inc Three-dimensional imaging system and camera for the same

Also Published As

Publication number Publication date
JP6237811B2 (en) 2017-11-29

Similar Documents

Publication Publication Date Title
JP5531483B2 (en) Imaging apparatus and video recording / reproducing system
US8078048B2 (en) Imaging device and video recording/reproducing system
JP5140210B2 (en) Imaging apparatus and image processing method
KR20190052031A (en) How to use wide-angle image capturing elements and long-focus image capturing elements to achieve a sharp and accurate zooming mechanism
JP5204350B2 (en) Imaging apparatus, playback apparatus, and image processing method
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
JP5204349B2 (en) Imaging apparatus, playback apparatus, and image processing method
JP5912382B2 (en) Imaging apparatus and video recording / reproducing system
WO2010024270A1 (en) Imaging device and image recording and playback system
JP6237811B2 (en) Imaging apparatus and video recording / reproducing system
US9239464B2 (en) Imaging apparatus and imaging method
Montgomery et al. Stereoscopic camera design
JP4588439B2 (en) Stereoscopic image photographing apparatus and method
JP2012088549A (en) Stereoscopic image pickup device, stereoscopic image display device, and stereoscopic image pickup and display device
CN102478756B (en) Method and apparatus for shooting stereoscopic film
JP2018182470A (en) Stereoscopic image pickup apparatus adopting wavelength selective polarization separation method
JP2014102265A (en) 3d imaging apparatus
JP2014107836A (en) Imaging device, control method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R151 Written notification of patent or utility model registration

Ref document number: 6237811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees