JP2006105771A - Imaging device and topographical map preparing apparatus - Google Patents
Imaging device and topographical map preparing apparatus Download PDFInfo
- Publication number
- JP2006105771A JP2006105771A JP2004292532A JP2004292532A JP2006105771A JP 2006105771 A JP2006105771 A JP 2006105771A JP 2004292532 A JP2004292532 A JP 2004292532A JP 2004292532 A JP2004292532 A JP 2004292532A JP 2006105771 A JP2006105771 A JP 2006105771A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- images
- information
- distribution information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、被写体距離情報に基づいて立体画像のための情報を得ることの出来る撮像装置および地形図作成装置に関するものである。 The present invention relates to an imaging device and a topographic map creation device that can obtain information for a stereoscopic image based on subject distance information.
従来から立体画像カメラに関し、数多くの提案がなされている。 Conventionally, many proposals have been made regarding stereoscopic image cameras.
特開昭50-23740号公報に開示されている図形認識装置では、二台のカメラで被写体を撮影して左眼と右目による視差分が左右にシフトされたものの再生画像を得るようにしたものである。 In the figure recognition device disclosed in Japanese Patent Laid-Open No. 50-23740, a subject is photographed with two cameras and a reproduced image is obtained in which the parallax between the left eye and the right eye is shifted left and right. It is.
特公昭55-36240号公報に開示されている立体画像表示装置は、平面画面情報と奥行き情報を組み合わせて立体画像情報を得るようにした立体画像表示装置で、この装置における奥行き情報は二台のカメラで撮影した画像情報の相関から得たり、超音波もしくは電波等による高度測定手段を利用して得るようにしている。 The stereoscopic image display device disclosed in Japanese Patent Publication No. 55-36240 is a stereoscopic image display device that obtains stereoscopic image information by combining flat screen information and depth information. It is obtained from the correlation of image information taken with a camera, or obtained by using altitude measuring means such as ultrasonic waves or radio waves.
特許第3112485号公報に開示されている立体電子スチルカメラでは、フォーカシングレンズをスキャンしてコントラストピークの分布を検出することで、被写体距離分布を検出している。
しかしながら、上記従来例では、小型の機器で一回の取り込みで立体情報を得ることができなかった。 However, in the above conventional example, three-dimensional information could not be obtained by a single capture with a small device.
特開昭50-23740号、特公昭55-36240号の従来例では、立体情報を得る為の装置が大型化・複雑化する事が避けられなかった。 In the conventional examples disclosed in Japanese Patent Laid-Open Nos. 50-23740 and 55-36240, it is inevitable that the apparatus for obtaining the three-dimensional information is increased in size and complexity.
特許第3112485号による従来例では、フォーカシングレンズのスキャンの時間に被写体が動いてしまうような場合には正確な距離情報を得ることができない。 In the conventional example of Japanese Patent No. 3112485, accurate distance information cannot be obtained when the subject moves during the scanning time of the focusing lens.
前記課題を解決するために、本発明による撮像装置は、撮影レンズと、撮像素子と、前記撮影レンズの少なくとも二つの異なった瞳領域を通った光束から得られる画像を独立して取り込む画像取り込み手段と、前記画像取り込み手段から得られた少なくとも二つの画像から被写体の距離分布情報を検出する検出手段と、該二つの画像から該距離分布情報に対応して被写体の距離毎に画像を分離する分離手段と、前記二つの瞳領域とは異なった視差を持つ一対の立体画像に再合成する合成手段を有する事を特徴とする。 In order to solve the above-described problems, an imaging apparatus according to the present invention includes an image capturing unit that independently captures an image obtained from a light beam that has passed through a photographing lens, an imaging element, and at least two different pupil regions of the photographing lens. Detection means for detecting subject distance distribution information from at least two images obtained from the image capturing means, and separation for separating the images for each subject distance from the two images corresponding to the distance distribution information And combining means for recombining the two pupil regions with a pair of stereoscopic images having different parallaxes.
前記手段により、本発明は、小型の機器で一回の取り込みで立体情報を得ることにより、立体画像を得ることが出来る。 By the means described above, the present invention can obtain a three-dimensional image by obtaining three-dimensional information by a single capture with a small device.
また、視差の拡大や縮小も行うことが出来る。 In addition, parallax can be enlarged or reduced.
〔第一の実施の形態〕
図1〜図7は本発明の実施の形態を示し、図1は本発明の撮像装置の主要ブロック図である。
[First embodiment]
1 to 7 show an embodiment of the present invention, and FIG. 1 is a main block diagram of an imaging apparatus of the present invention.
本撮像装置は撮像とデフォーカス検知が同時に行うことのできる2次元撮像素子を利用し、被写体像とデフォーカス分布を同時に取り込み、そのデフォーカス分布情報に基づいて3次元画像情報を生成する。 The imaging apparatus uses a two-dimensional imaging element capable of performing imaging and defocus detection simultaneously, captures a subject image and a defocus distribution at the same time, and generates three-dimensional image information based on the defocus distribution information.
図1において、1は撮像手段で、撮像手段1は特許公開2002-14277号公報等で示されている従来例の撮像素子と同様に構成され、撮像と同時にデフォーカス分布を取得する事が可能になっている。
In FIG. 1,
2はデフォーカス検出手段で、全画面のデフォーカス分布情報を出力する。 Defocus detection means 2 outputs defocus distribution information for the entire screen.
3はデフォーカスマップ記憶手段で、デフォーカス検出手段2の出力を全画面を所定の領域毎に分割し、それぞれの領域の代表デフォーカス値を算出して記憶する。 Defocus map storage means 3 divides the entire screen of the output of the defocus detection means 2 into predetermined areas, and calculates and stores representative defocus values for each area.
4は画像処理手段で、撮像手段1の出力信号から、カラーマトリックス処理やガンマ処理等の所定の画像処理を行い、画像データーとして画像一時記憶手段5に記憶する。
An image processing unit 4 performs predetermined image processing such as color matrix processing and gamma processing from the output signal of the
6は三次元画像生成手段で、三次元画像生成手段6はデフォーカスマップ記憶手段3に記憶されたデフォーカス分布情報に基づき、画像データーを視差を持つ一対の画像データーに変換する。
デフォーカスマップで示されている距離情報は所定の観察系を仮定したときの視差情報に変換される。所定の観察系とは、自然な立体感を得るためには人間の両目の間隔で得られる観察系であり、より強調された立体感を得るためにはより大きな間隔を持った観察系となる。 The distance information shown in the defocus map is converted into parallax information when a predetermined observation system is assumed. The predetermined observation system is an observation system obtained at a distance between human eyes to obtain a natural stereoscopic effect, and an observation system having a larger interval to obtain a more emphasized stereoscopic effect. .
観察系の二眼の間隔が決定されると、距離ごとの視差が演算で求められる。 When the distance between the two eyes of the observation system is determined, the parallax for each distance is obtained by calculation.
距離ごとの視差がデフォーカスマップに対応した視差マップとして得られると、視差情報に基づき画像データーがずれを持った一対のデーターとして再構成される。 When the parallax for each distance is obtained as a parallax map corresponding to the defocus map, the image data is reconstructed as a pair of data having a deviation based on the parallax information.
再構成時に、画像データーの距離ごとの分離を行う必要が生じるが、ある距離領域毎にまとめて代表距離として変換する事もできる。代表距離を用いるときには、被写体を画像認識し、距離ごとの被写体の輪郭を抽出しこの輪郭領域内は同一代表距離として像を作成するとよい。 At the time of reconstruction, it is necessary to perform separation for each distance of the image data. However, it is possible to collectively convert the distance for each certain distance area as a representative distance. When using the representative distance, it is preferable to recognize the subject image, extract the contour of the subject for each distance, and create an image with the same representative distance in the contour region.
この処理を行うことで、画像の距離測定誤差が生じても、画像に著しい違和感を生じさせる事を回避できる。 By performing this process, it is possible to avoid causing the image to feel remarkably strange even if an image distance measurement error occurs.
再構成時に、手前の被写体の影から現れてくるはずの画像は実際の視差像が無いため周辺の画像から演算で生成される。 At the time of reconstruction, an image that should appear from the shadow of the subject in the foreground does not have an actual parallax image, and is generated by calculation from surrounding images.
7は等距離情報生成手段で、デフォーカスマップのデフォーカス情報の等距離位置を結んだ等距離線図データーを生成する。 7 is equidistance information generating means for generating equidistance diagram data connecting the equidistant positions of the defocus information of the defocus map.
図2は本発明の撮像装置の構成図である。 FIG. 2 is a configuration diagram of the imaging apparatus of the present invention.
同図において、10は撮像装置本体、11は撮像装置の撮影レンズ、12は光学ローパスフィルター、13は赤外カットフィルタ、14は撮像素子である。撮像素子14は図3で示された構成をとっており、固体撮像素子で構成されている。
In the figure,
図3において、カラーフィルターを有したフォトダイオード配列は2つずつペアとなり一つのマイクロレンズと対応している。 In FIG. 3, two photodiode arrays each having a color filter are paired and correspond to one microlens.
上記構成で、G111-G311・・・、G112-G312・・・の様に同一色のカラーフィルターを持ち個々のマイクロレンズの同じ側に対応したフォトダイオードを一組のものとし、各々の相関を取ることでデフォーカス分布を得ることが可能となっている。本実施例では、カラーフィルターを考慮し、RGBそれぞれについて相関を取っている。 In the above configuration, a set of photodiodes corresponding to the same side of each microlens having color filters of the same color as G111-G311 ..., G112-G312 ... By taking it, it is possible to obtain a defocus distribution. In this embodiment, a color filter is taken into consideration, and correlation is obtained for each of RGB.
もちろん白黒タイプでよければ、その必要は無い。 Of course, if the black and white type is acceptable, there is no need.
この撮像素子から得られる像信号は、レンズの異なった瞳位置から来る光束が2像として分離されて出力される。 The image signal obtained from this image sensor is output by separating light beams coming from different pupil positions of the lens as two images.
この2像の相関を取ることで、距離情報を得ることが出来る。 Distance information can be obtained by correlating these two images.
15はタイミングジェネレーター(TG)で、撮像素子14の駆動を行っている。
A timing generator (TG) 15 drives the
16はA/D変換器(A/D)で、撮像素子14から出力されてくるアナログ信号をサンプリングしてデジタル信号に変換する。
Reference numeral 16 denotes an A / D converter (A / D) which samples an analog signal output from the
17は一次バッファメモリで、A/D変換器の出力データーを一時記憶する。
A
撮影レンズ11〜一次バッファメモリ17が、図1の撮像手段1に対応している。
The taking
18は相関演算回路で、図1のデフォーカス検出手段2に対応している。
A
相関演算回路18は、一次バッファメモリ17に蓄えられた2像の相関を画面全体に対して行い、画面の部分ごとにデフォーカス量を決定していく。
The
図4は2系列データーを説明する為の特性図で、二系列の信号の相関を取ることによりデフォーカス量と方向に応じ、かつ画面の部分毎にそこに対応したズレ量(Δ1、Δ2・・・)が得られる。 FIG. 4 is a characteristic diagram for explaining the two series of data. By taking the correlation of the two series of signals, the amount of deviation (Δ1, Δ2,.・ ・) Is obtained.
決定されたデフォーカス量がデフォーカスバッファメモリ19に記憶される。
The determined defocus amount is stored in the
20は画像前処理プロセッサ、22は画像バッファメモリである。
画像前処理プロセッサ20は一次バッファメモリ17の画像データーに対し、カラーマトリックス処理・ガンマ処理・ノイズ低減処理等を行い、画像バッファメモリ22に2枚の画像として蓄える。
The
23はCPUで、カメラ全体のコントロールと、三次元データー化処理、記録処理等を行う。
24は外部インターフェース、25は外部記憶装置である。外部記憶装置25はフラッシュメモリ等の不揮発記憶媒体で構成されている。
26は撮影指示手段であるところのレリーズスイッチ、27はメニューボタン、28は設定などの選択をするための十字キー、29はセットボタンである。
30は電源スイッチで、撮像装置の電源のオン・オフを行う。
31は表示手段であるところの表示パネルで、表示パネル30はバックライト付きのTFTカラー液晶パネルで構成されている。
表示パネル31は、撮影時のフレーミング決定のためのファインダーと、撮影画像の確認、等距離マップ確認、および撮像装置の各種設定の為のメニュー操作に使用される。
The
次に、図5のフローチャートを用いて撮像装置の動作を説明する。 Next, the operation of the imaging apparatus will be described using the flowchart of FIG.
電源スイッチ30がオンになると、S101から動作が始まる。
(S101)
ファインダーモードに撮像素子14等を設定し、撮像素子14の信号をリアルタイムに取り出し、ファインダー像として表示パネル31に画像表示を行う。
(S102)
電源スイッチ30がオフになると、機器の動作を終了させる。
(S103)
レリーズスイッチ26が押されたら、S150に処理を移行する。
(S104)
メニューボタン27が押されたら、S110に処理を移行する。
When the
(S101)
The
(S102)
When the
(S103)
If the
(S104)
If the
押されていなければ、S102に戻る。 If not, the process returns to S102.
S102〜S104で機器の操作入力を監視している。
(S110)
撮像素子14をオフにする。
(S111)
表示パネル31にメニュー表示を行う。
The operation input of the device is monitored in S102 to S104.
(S110)
The
(S111)
A menu is displayed on the
このとき、メニューのデフォルトの選択項目を反転表示し、現在のメニューの選ばれている内容を示す。 At this time, the default selection item of the menu is highlighted to indicate the selected content of the current menu.
メニューの表示形態を図6に示す。
(S112)
メニューボタン27が押されたらS101に進む。
(S113)
十字キー28またはセットボタン29から入力があればS120に進む。
(S114)
電源スイッチ30がオフになると、機器の動作を終了させる。
The display form of the menu is shown in FIG.
(S112)
If the
(S113)
If there is an input from the cross key 28 or the set button 29, the process proceeds to S120.
(S114)
When the
いずれの入力も無ければS112に戻る
(S120)
メニュー設定処理を行う。
If there is no input, return to S112
(S120)
Perform menu setting processing.
メニュー設定処理では、以下の処理を行う。 In the menu setting process, the following process is performed.
十字キー28の上下が押された時には、メニューの項目間の移動を行う。 When the up and down of the cross key 28 is pressed, the menu item is moved.
十字キー28の左右が押された時には、階層メニューへの出入りを行う。右を押すと下の階層に、左を押すと上の階層に移る。 When the left and right of the cross key 28 are pressed, the user enters and exits the hierarchical menu. Press right to move to the lower level, and press left to move to the upper level.
セットボタン29で項目の設定値を決定する。
(S121)
設定値が変更されていたら、所定の設定変更を行う。
The set value of the item is determined by the set button 29.
(S121)
If the setting value has been changed, a predetermined setting change is performed.
その後S112に戻る。 Thereafter, the process returns to S112.
S150から、撮影とデーター作成のシーケンスが行われる。
(S150)
CPU23はTG15を本撮影モードに設定する。
(S151)
CPU23はTG15を介して撮像素子14を駆動し、本撮影を実行する。
(S152)
撮像素子14の出力はA/D16によりデジタルデーターに変換され、一次バッファメモリ17に記憶される。
(S153)
相関演算回路18により、一次バッファメモリ17に蓄えられた2像の相関を画面全体に対して行い、画面の部分ごとにデフォーカス量を計算してデフォーカスバッファメモリ19に記憶する。このデフォーカス量が被写体距離に対応している。
(S154)
画像前処理プロセッサ20は一次バッファメモリ17の画像データーに、カラーマトリックス処理・ガンマ処理・ノイズ低減処理等を行い、画像バッファメモリ22に2枚の画像として蓄える。
(S155)
CPU23は、画像バッファメモリ22に蓄えられた画像に対し、デフォーカスバッファメモリ19の値を参照しながら、被写体の像分離を行う。
From S150, a sequence of shooting and data creation is performed.
(S150)
The
(S151)
The
(S152)
The output of the
(S153)
The
(S154)
The
(S155)
The
像分離にあたっては、デフォーカス量の値が近似しており、かつ被写体の輪郭が認識できた部分については一つのまとまった像として分離するとともに、代表デフォーカス値を設定する。 In the image separation, the defocus amount value is approximate and a portion where the contour of the subject can be recognized is separated as a single image and a representative defocus value is set.
また、画像は元々2枚あるが、この時点で一枚に合成される。 Also, there are originally two images, but at this point they are combined into one.
像分離された画像は画像バッファメモリ22に分離された状態で、代表デフォーカス値とともに記憶される。
(S156)
S155で生成された分離像を代表デフォーカス値から得られる被写体距離に応じて所定の視差を持つ様にずらした一対の画像を生成する。この処理を全ての分離像に対して行う。
(S157)
S156で得られた像を2枚の画像に合成する。
The separated image is stored in the
(S156)
A pair of images are generated by shifting the separated image generated in S155 so as to have a predetermined parallax according to the subject distance obtained from the representative defocus value. This process is performed for all separated images.
(S157)
The image obtained in S156 is combined into two images.
この時、重ね合わせで不足する領域の像は、奥にある像から補間演算で生成する。
(S158)
デフォーカスバッファメモリ19の値を参照し、被写体距離を所定間隔で分割したときの等被写体距離線図を作成する。
(S159)
外部インターフェース24を介し、外部記憶装置25に2枚の画像と等被写体距離線図をセットで記憶する。
At this time, an image of a region that is insufficient due to superposition is generated by interpolation from an image at the back.
(S158)
With reference to the value in the
(S159)
Two images and an equal subject distance diagram are stored as a set in the
この時、関連したファイル名にしても良いし、一つのデーターとしてまとめて記憶する方式や、タグ情報を付加する方式でも良い。
また、撮像装置の設定によって、記憶される内容は変化する。
(S160)
ファインダーモードに撮像素子14等を設定し、撮像素子14の信号をリアルタイムに取り出し、ファインダー像として表示パネル31に画像表示を行う。
At this time, a related file name may be used, a method of storing the data collectively as a single data, or a method of adding tag information.
In addition, the stored content varies depending on the setting of the imaging device.
(S160)
The
その後S102に戻る。 Thereafter, the process returns to S102.
以上で撮像装置の動作が行われる。 Thus, the operation of the imaging apparatus is performed.
[第二の実施の形態]
図7〜8は本発明の第二の実施の形態を示し、無線コントロール式の小型航空機に内蔵された例を示している。
[Second Embodiment]
7 to 8 show a second embodiment of the present invention and show an example incorporated in a radio-controlled small aircraft.
第一の実施の形態と対応する部分には同じ番号を振ってある。 The same numbers are assigned to portions corresponding to those in the first embodiment.
50は撮像装置本体で、無線コントロール式の小型航空機の機能を有している。 Reference numeral 50 denotes an imaging apparatus main body, which has the function of a wirelessly controlled small aircraft.
撮像装置本体50は、無線送受信機51が内蔵され、無線でコントロール可能になっている。
The imaging device main body 50 includes a
52はエンジン、53は操舵装置である。 52 is an engine, and 53 is a steering device.
55は位置を把握する為のGPSユニット、56は機器の方位を把握する為の方位検知ユニット、57は機器の加速状況を把握する為の加速度センサー、58は機器の高度を把握する為の高度センサー、59は機器の速度を把握する為の対地速度センサー、60は機器の傾きを把握する為の傾斜センサーである。
55 is a GPS unit for grasping the position, 56 is an orientation detection unit for grasping the orientation of the device, 57 is an acceleration sensor for grasping the acceleration status of the device, and 58 is an altitude for grasping the altitude of the device. A
55〜60のセンサー類で、撮像装置の空間上の位置と方向を把握する。 The position and direction of the imaging device in the space are grasped with 55 to 60 sensors.
61はコントローラーである。 61 is a controller.
コントローラー61には、送受信機62が内蔵され、撮像装置本体50と無線で通信を行う。
The
63は操作レバーで、撮像装置本体50の飛行動作の操縦を行う。
64は表示パネルで、撮像装置本体50の撮像部から送られる画像を表示する。
A
65は撮影指示スイッチである。
66はCPU、67はバッファメモリである。 66 is a CPU and 67 is a buffer memory.
本実施の形態では、撮像装置本体50を遠隔操作し、自由なタイミングで撮影・記録動作を行うことが出来る。 In the present embodiment, the imaging apparatus main body 50 can be remotely operated to perform shooting / recording operations at any timing.
撮影〜記録の動作は第一の実施の形態に加えて、撮影時の位置情報も同時に記録される。 In addition to the first embodiment, the shooting to recording operation simultaneously records position information at the time of shooting.
この位置情報を元にして、撮影した立体像と等距離線図で地上の高さ情報も含めた詳細な実画像情報をもつ地形図を作成する事が出来る。 Based on this position information, it is possible to create a topographic map having detailed real image information including height information on the ground using a captured stereoscopic image and an equidistant map.
また、所定距離移動ごとや所定時間ごと等に自動的に撮影〜データー作成〜記録動作を行うようにしても良い。 The photographing, data creation, and recording operations may be automatically performed every predetermined distance movement or every predetermined time.
その様に構成すれば、広範囲の地形図データーを簡易に取得する事が出来る。 If configured in this way, a wide range of topographic map data can be easily acquired.
1 撮像手段
2 デフォーカス検出手段
3 デフォーカスマップ記憶手段
4 画像処理手段
5 画像一時記憶手段
6 三次元画像生成手段
7 等距離情報生成手段
DESCRIPTION OF
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004292532A JP2006105771A (en) | 2004-10-05 | 2004-10-05 | Imaging device and topographical map preparing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004292532A JP2006105771A (en) | 2004-10-05 | 2004-10-05 | Imaging device and topographical map preparing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006105771A true JP2006105771A (en) | 2006-04-20 |
Family
ID=36375691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004292532A Withdrawn JP2006105771A (en) | 2004-10-05 | 2004-10-05 | Imaging device and topographical map preparing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006105771A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009296272A (en) * | 2008-06-04 | 2009-12-17 | Sony Corp | Image encoding device and image encoding method |
WO2011118077A1 (en) * | 2010-03-24 | 2011-09-29 | 富士フイルム株式会社 | Three-dimensional imaging device, and disparity image restoration method |
WO2012002307A1 (en) * | 2010-06-29 | 2012-01-05 | 富士フイルム株式会社 | Single-lens stereoscopic image capture device |
WO2012108099A1 (en) * | 2011-02-09 | 2012-08-16 | 富士フイルム株式会社 | Imaging device and imaging method |
WO2012132123A1 (en) * | 2011-03-31 | 2012-10-04 | 富士フイルム株式会社 | Stereoscopic imaging apparatus and stereoscopic imaging method |
WO2013005489A1 (en) * | 2011-07-06 | 2013-01-10 | オリンパス株式会社 | Image capture device and image processing device |
WO2013038863A1 (en) * | 2011-09-13 | 2013-03-21 | 富士フイルム株式会社 | Monocular stereoscopic imaging device, imaging method, and program |
JP2013061440A (en) * | 2011-09-13 | 2013-04-04 | Canon Inc | Imaging device and control method of imaging device |
JP2013157726A (en) * | 2012-01-27 | 2013-08-15 | Canon Inc | Imaging apparatus and method for controlling imaging apparatus |
WO2014050875A1 (en) * | 2012-09-27 | 2014-04-03 | 株式会社ニコン | Image pick-up element and image pick-up device |
US8988576B2 (en) | 2011-08-30 | 2015-03-24 | Fujifilm Corporation | Solid-state imaging device and digital camera |
EP2747429A4 (en) * | 2011-08-19 | 2015-07-08 | Fujifilm Corp | Image pickup apparatus and shading correction method |
JP2016106466A (en) * | 2015-12-25 | 2016-06-16 | キヤノン株式会社 | Imaging device and control method therefor, and image processing apparatus and control method therefor |
JP2016154360A (en) * | 2016-03-30 | 2016-08-25 | キヤノン株式会社 | Imaging apparatus and control method therefor |
US9674461B2 (en) | 2013-09-27 | 2017-06-06 | Fujifilm Corporation | Imaging device and imaging method |
JP2017229075A (en) * | 2017-07-13 | 2017-12-28 | キヤノン株式会社 | Image processing apparatus and control method therefor, and imaging device |
US9906770B2 (en) | 2012-03-16 | 2018-02-27 | Nikon Corporation | Image sensor, image-capturing apparatus and image capturing system |
-
2004
- 2004-10-05 JP JP2004292532A patent/JP2006105771A/en not_active Withdrawn
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8369630B2 (en) | 2008-06-04 | 2013-02-05 | Sony Corporation | Image encoding device and image encoding method with distance information |
JP4591548B2 (en) * | 2008-06-04 | 2010-12-01 | ソニー株式会社 | Image coding apparatus and image coding method |
JP2009296272A (en) * | 2008-06-04 | 2009-12-17 | Sony Corp | Image encoding device and image encoding method |
WO2011118077A1 (en) * | 2010-03-24 | 2011-09-29 | 富士フイルム株式会社 | Three-dimensional imaging device, and disparity image restoration method |
CN102884802B (en) * | 2010-03-24 | 2014-03-12 | 富士胶片株式会社 | Three-dimensional imaging device, and disparity image restoration method |
US8593509B2 (en) | 2010-03-24 | 2013-11-26 | Fujifilm Corporation | Three-dimensional imaging device and viewpoint image restoration method |
JP5180407B2 (en) * | 2010-03-24 | 2013-04-10 | 富士フイルム株式会社 | Stereo imaging device and parallax image restoration method |
CN102884802A (en) * | 2010-03-24 | 2013-01-16 | 富士胶片株式会社 | Three-dimensional imaging device, and disparity image restoration method |
WO2012002307A1 (en) * | 2010-06-29 | 2012-01-05 | 富士フイルム株式会社 | Single-lens stereoscopic image capture device |
JP5595499B2 (en) * | 2010-06-29 | 2014-09-24 | 富士フイルム株式会社 | Monocular stereoscopic imaging device |
US9077976B2 (en) | 2010-06-29 | 2015-07-07 | Fujifilm Corporation | Single-eye stereoscopic image capturing device |
US8823778B2 (en) | 2011-02-09 | 2014-09-02 | Fujifilm Corporation | Imaging device and imaging method |
JPWO2012108099A1 (en) * | 2011-02-09 | 2014-07-03 | 富士フイルム株式会社 | Imaging apparatus and imaging method |
JP5469258B2 (en) * | 2011-02-09 | 2014-04-16 | 富士フイルム株式会社 | Imaging apparatus and imaging method |
WO2012108099A1 (en) * | 2011-02-09 | 2012-08-16 | 富士フイルム株式会社 | Imaging device and imaging method |
WO2012132123A1 (en) * | 2011-03-31 | 2012-10-04 | 富士フイルム株式会社 | Stereoscopic imaging apparatus and stereoscopic imaging method |
CN103444192A (en) * | 2011-03-31 | 2013-12-11 | 富士胶片株式会社 | Stereoscopic imaging apparatus and stereoscopic imaging method |
US9648305B2 (en) | 2011-03-31 | 2017-05-09 | Fujifilm Corporation | Stereoscopic imaging apparatus and stereoscopic imaging method |
CN103444192B (en) * | 2011-03-31 | 2014-11-26 | 富士胶片株式会社 | Stereoscopic imaging apparatus and stereoscopic imaging method |
WO2013005489A1 (en) * | 2011-07-06 | 2013-01-10 | オリンパス株式会社 | Image capture device and image processing device |
EP2747429A4 (en) * | 2011-08-19 | 2015-07-08 | Fujifilm Corp | Image pickup apparatus and shading correction method |
US8988576B2 (en) | 2011-08-30 | 2015-03-24 | Fujifilm Corporation | Solid-state imaging device and digital camera |
WO2013038863A1 (en) * | 2011-09-13 | 2013-03-21 | 富士フイルム株式会社 | Monocular stereoscopic imaging device, imaging method, and program |
JP2013061440A (en) * | 2011-09-13 | 2013-04-04 | Canon Inc | Imaging device and control method of imaging device |
JP2013157726A (en) * | 2012-01-27 | 2013-08-15 | Canon Inc | Imaging apparatus and method for controlling imaging apparatus |
US10412358B2 (en) | 2012-03-16 | 2019-09-10 | Nikon Corporation | Image sensor, image-capturing apparatus and image-capturing system |
US9906770B2 (en) | 2012-03-16 | 2018-02-27 | Nikon Corporation | Image sensor, image-capturing apparatus and image capturing system |
US10270999B2 (en) | 2012-09-27 | 2019-04-23 | Nikon Corporation | Image sensor and image-capturing device |
US20150256778A1 (en) | 2012-09-27 | 2015-09-10 | Nikon Corporation | Image sensor and image-capturing device |
US11405576B2 (en) | 2012-09-27 | 2022-08-02 | Nikon Corporation | Image sensor and image-capturing device |
US11032506B2 (en) | 2012-09-27 | 2021-06-08 | Nikon Corporation | Image sensor and image-capturing device |
WO2014050875A1 (en) * | 2012-09-27 | 2014-04-03 | 株式会社ニコン | Image pick-up element and image pick-up device |
US9674461B2 (en) | 2013-09-27 | 2017-06-06 | Fujifilm Corporation | Imaging device and imaging method |
JP2016106466A (en) * | 2015-12-25 | 2016-06-16 | キヤノン株式会社 | Imaging device and control method therefor, and image processing apparatus and control method therefor |
JP2016154360A (en) * | 2016-03-30 | 2016-08-25 | キヤノン株式会社 | Imaging apparatus and control method therefor |
JP2017229075A (en) * | 2017-07-13 | 2017-12-28 | キヤノン株式会社 | Image processing apparatus and control method therefor, and imaging device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006105771A (en) | Imaging device and topographical map preparing apparatus | |
JP5178553B2 (en) | Imaging device | |
CN102959943B (en) | Stereoscopic panoramic image synthesizer and method and image capture apparatus | |
CN103595979B (en) | Image processing equipment, image picking-up apparatus and image processing method | |
JP6512810B2 (en) | Image pickup apparatus, control method and program | |
JP6708790B2 (en) | Image generation device, image generation system, image generation method, and image generation program | |
US20100321470A1 (en) | Imaging apparatus and control method therefor | |
JP6159097B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP2013537728A (en) | Video camera providing video with perceived depth | |
JP2009267787A (en) | Composition determination device, composition determination method, and program | |
US9225895B2 (en) | Automatic focusing method and apparatus for same | |
US20190304122A1 (en) | Image processing device, image processing method, recording medium storing image processing program and image pickup apparatus | |
US20130044226A1 (en) | Imaging device and distance information detecting method | |
JP2008172342A (en) | Three-dimensional image recorder and three-dimensional image recording method | |
US20040252223A1 (en) | Image pickup device, image pickup system and image pickup method | |
JP2008015815A (en) | Image processor and image processing program | |
JP4468794B2 (en) | Display control apparatus, camera, and display control method | |
JPH1021401A (en) | Three-dimensional information processor | |
JP6257260B2 (en) | Imaging apparatus and control method thereof | |
JP2004260591A (en) | Stereoscopic image display device | |
JP6532370B2 (en) | Imaging system, composition setting device, and composition setting program | |
JP2003296329A (en) | Information providing device, information providing method and information processing program | |
JP2021150942A (en) | Image capture device and image capture processing method | |
US11754833B2 (en) | Image processing apparatus and control method for image processing apparatus | |
JP2006324727A (en) | Imaging apparatus and image processing method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080108 |