JP2006105771A - Imaging device and topographical map preparing apparatus - Google Patents

Imaging device and topographical map preparing apparatus Download PDF

Info

Publication number
JP2006105771A
JP2006105771A JP2004292532A JP2004292532A JP2006105771A JP 2006105771 A JP2006105771 A JP 2006105771A JP 2004292532 A JP2004292532 A JP 2004292532A JP 2004292532 A JP2004292532 A JP 2004292532A JP 2006105771 A JP2006105771 A JP 2006105771A
Authority
JP
Japan
Prior art keywords
image
imaging
images
information
distribution information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004292532A
Other languages
Japanese (ja)
Inventor
Yoshihiko Konno
吉彦 今野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004292532A priority Critical patent/JP2006105771A/en
Publication of JP2006105771A publication Critical patent/JP2006105771A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem wherein a small apparatus cannot obtain stereoscopic information with a single imaging operation. <P>SOLUTION: There are provided with an imaging lens; an imaging element; an image capture means for independently taking images obtained from light fluxes through at least two different pupil areas of the imaging lens; a detection means for detecting distance distribution information on an object, from at least two of the images obtained from the image capture means; a separation means for separating the images for each distance to the object according to the distance distribution information, from the two images; and a compositing means for re-compositing a pair of stereoscopic images, having disparity different from that of the two pupil areas. Thus, the stereoscopic image, having desired disparity, can be obtained by one photographing. Further, there are provided an imaging position detection means for detecting the position, the height, and the direction of the imaging place and a map information generation means for generating map information, including contour lines from at least one of the images, the distance distribution information, and the imaging position information. Thus, an actual photographed topographical map with the contour lines can be prepared. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、被写体距離情報に基づいて立体画像のための情報を得ることの出来る撮像装置および地形図作成装置に関するものである。   The present invention relates to an imaging device and a topographic map creation device that can obtain information for a stereoscopic image based on subject distance information.

従来から立体画像カメラに関し、数多くの提案がなされている。   Conventionally, many proposals have been made regarding stereoscopic image cameras.

特開昭50-23740号公報に開示されている図形認識装置では、二台のカメラで被写体を撮影して左眼と右目による視差分が左右にシフトされたものの再生画像を得るようにしたものである。   In the figure recognition device disclosed in Japanese Patent Laid-Open No. 50-23740, a subject is photographed with two cameras and a reproduced image is obtained in which the parallax between the left eye and the right eye is shifted left and right. It is.

特公昭55-36240号公報に開示されている立体画像表示装置は、平面画面情報と奥行き情報を組み合わせて立体画像情報を得るようにした立体画像表示装置で、この装置における奥行き情報は二台のカメラで撮影した画像情報の相関から得たり、超音波もしくは電波等による高度測定手段を利用して得るようにしている。   The stereoscopic image display device disclosed in Japanese Patent Publication No. 55-36240 is a stereoscopic image display device that obtains stereoscopic image information by combining flat screen information and depth information. It is obtained from the correlation of image information taken with a camera, or obtained by using altitude measuring means such as ultrasonic waves or radio waves.

特許第3112485号公報に開示されている立体電子スチルカメラでは、フォーカシングレンズをスキャンしてコントラストピークの分布を検出することで、被写体距離分布を検出している。
特開昭50-23740号公報 特公昭55-36240号公報 特許第3112485号公報
In the stereoscopic electronic still camera disclosed in Japanese Patent No. 3112485, the subject distance distribution is detected by scanning the focusing lens and detecting the distribution of the contrast peak.
Japanese Patent Laid-Open No. 50-23740 Japanese Patent Publication No.55-36240 Japanese Patent No. 3112485

しかしながら、上記従来例では、小型の機器で一回の取り込みで立体情報を得ることができなかった。   However, in the above conventional example, three-dimensional information could not be obtained by a single capture with a small device.

特開昭50-23740号、特公昭55-36240号の従来例では、立体情報を得る為の装置が大型化・複雑化する事が避けられなかった。   In the conventional examples disclosed in Japanese Patent Laid-Open Nos. 50-23740 and 55-36240, it is inevitable that the apparatus for obtaining the three-dimensional information is increased in size and complexity.

特許第3112485号による従来例では、フォーカシングレンズのスキャンの時間に被写体が動いてしまうような場合には正確な距離情報を得ることができない。   In the conventional example of Japanese Patent No. 3112485, accurate distance information cannot be obtained when the subject moves during the scanning time of the focusing lens.

前記課題を解決するために、本発明による撮像装置は、撮影レンズと、撮像素子と、前記撮影レンズの少なくとも二つの異なった瞳領域を通った光束から得られる画像を独立して取り込む画像取り込み手段と、前記画像取り込み手段から得られた少なくとも二つの画像から被写体の距離分布情報を検出する検出手段と、該二つの画像から該距離分布情報に対応して被写体の距離毎に画像を分離する分離手段と、前記二つの瞳領域とは異なった視差を持つ一対の立体画像に再合成する合成手段を有する事を特徴とする。   In order to solve the above-described problems, an imaging apparatus according to the present invention includes an image capturing unit that independently captures an image obtained from a light beam that has passed through a photographing lens, an imaging element, and at least two different pupil regions of the photographing lens. Detection means for detecting subject distance distribution information from at least two images obtained from the image capturing means, and separation for separating the images for each subject distance from the two images corresponding to the distance distribution information And combining means for recombining the two pupil regions with a pair of stereoscopic images having different parallaxes.

前記手段により、本発明は、小型の機器で一回の取り込みで立体情報を得ることにより、立体画像を得ることが出来る。   By the means described above, the present invention can obtain a three-dimensional image by obtaining three-dimensional information by a single capture with a small device.

また、視差の拡大や縮小も行うことが出来る。   In addition, parallax can be enlarged or reduced.

〔第一の実施の形態〕
図1〜図7は本発明の実施の形態を示し、図1は本発明の撮像装置の主要ブロック図である。
[First embodiment]
1 to 7 show an embodiment of the present invention, and FIG. 1 is a main block diagram of an imaging apparatus of the present invention.

本撮像装置は撮像とデフォーカス検知が同時に行うことのできる2次元撮像素子を利用し、被写体像とデフォーカス分布を同時に取り込み、そのデフォーカス分布情報に基づいて3次元画像情報を生成する。   The imaging apparatus uses a two-dimensional imaging element capable of performing imaging and defocus detection simultaneously, captures a subject image and a defocus distribution at the same time, and generates three-dimensional image information based on the defocus distribution information.

図1において、1は撮像手段で、撮像手段1は特許公開2002-14277号公報等で示されている従来例の撮像素子と同様に構成され、撮像と同時にデフォーカス分布を取得する事が可能になっている。   In FIG. 1, reference numeral 1 denotes an image pickup means, and the image pickup means 1 is configured in the same manner as a conventional image pickup device disclosed in Japanese Patent Publication No. 2002-14277, and can acquire a defocus distribution simultaneously with image pickup. It has become.

2はデフォーカス検出手段で、全画面のデフォーカス分布情報を出力する。   Defocus detection means 2 outputs defocus distribution information for the entire screen.

3はデフォーカスマップ記憶手段で、デフォーカス検出手段2の出力を全画面を所定の領域毎に分割し、それぞれの領域の代表デフォーカス値を算出して記憶する。   Defocus map storage means 3 divides the entire screen of the output of the defocus detection means 2 into predetermined areas, and calculates and stores representative defocus values for each area.

4は画像処理手段で、撮像手段1の出力信号から、カラーマトリックス処理やガンマ処理等の所定の画像処理を行い、画像データーとして画像一時記憶手段5に記憶する。   An image processing unit 4 performs predetermined image processing such as color matrix processing and gamma processing from the output signal of the imaging unit 1, and stores the image data in the image temporary storage unit 5 as image data.

6は三次元画像生成手段で、三次元画像生成手段6はデフォーカスマップ記憶手段3に記憶されたデフォーカス分布情報に基づき、画像データーを視差を持つ一対の画像データーに変換する。   Reference numeral 6 denotes a three-dimensional image generation means. The three-dimensional image generation means 6 converts the image data into a pair of image data having parallax based on the defocus distribution information stored in the defocus map storage means 3.

デフォーカスマップで示されている距離情報は所定の観察系を仮定したときの視差情報に変換される。所定の観察系とは、自然な立体感を得るためには人間の両目の間隔で得られる観察系であり、より強調された立体感を得るためにはより大きな間隔を持った観察系となる。   The distance information shown in the defocus map is converted into parallax information when a predetermined observation system is assumed. The predetermined observation system is an observation system obtained at a distance between human eyes to obtain a natural stereoscopic effect, and an observation system having a larger interval to obtain a more emphasized stereoscopic effect. .

観察系の二眼の間隔が決定されると、距離ごとの視差が演算で求められる。   When the distance between the two eyes of the observation system is determined, the parallax for each distance is obtained by calculation.

距離ごとの視差がデフォーカスマップに対応した視差マップとして得られると、視差情報に基づき画像データーがずれを持った一対のデーターとして再構成される。   When the parallax for each distance is obtained as a parallax map corresponding to the defocus map, the image data is reconstructed as a pair of data having a deviation based on the parallax information.

再構成時に、画像データーの距離ごとの分離を行う必要が生じるが、ある距離領域毎にまとめて代表距離として変換する事もできる。代表距離を用いるときには、被写体を画像認識し、距離ごとの被写体の輪郭を抽出しこの輪郭領域内は同一代表距離として像を作成するとよい。   At the time of reconstruction, it is necessary to perform separation for each distance of the image data. However, it is possible to collectively convert the distance for each certain distance area as a representative distance. When using the representative distance, it is preferable to recognize the subject image, extract the contour of the subject for each distance, and create an image with the same representative distance in the contour region.

この処理を行うことで、画像の距離測定誤差が生じても、画像に著しい違和感を生じさせる事を回避できる。   By performing this process, it is possible to avoid causing the image to feel remarkably strange even if an image distance measurement error occurs.

再構成時に、手前の被写体の影から現れてくるはずの画像は実際の視差像が無いため周辺の画像から演算で生成される。   At the time of reconstruction, an image that should appear from the shadow of the subject in the foreground does not have an actual parallax image, and is generated by calculation from surrounding images.

7は等距離情報生成手段で、デフォーカスマップのデフォーカス情報の等距離位置を結んだ等距離線図データーを生成する。   7 is equidistance information generating means for generating equidistance diagram data connecting the equidistant positions of the defocus information of the defocus map.

図2は本発明の撮像装置の構成図である。   FIG. 2 is a configuration diagram of the imaging apparatus of the present invention.

同図において、10は撮像装置本体、11は撮像装置の撮影レンズ、12は光学ローパスフィルター、13は赤外カットフィルタ、14は撮像素子である。撮像素子14は図3で示された構成をとっており、固体撮像素子で構成されている。   In the figure, reference numeral 10 denotes an imaging apparatus body, 11 denotes a photographing lens of the imaging apparatus, 12 denotes an optical low-pass filter, 13 denotes an infrared cut filter, and 14 denotes an imaging element. The image sensor 14 has the configuration shown in FIG. 3, and is composed of a solid-state image sensor.

図3において、カラーフィルターを有したフォトダイオード配列は2つずつペアとなり一つのマイクロレンズと対応している。   In FIG. 3, two photodiode arrays each having a color filter are paired and correspond to one microlens.

上記構成で、G111-G311・・・、G112-G312・・・の様に同一色のカラーフィルターを持ち個々のマイクロレンズの同じ側に対応したフォトダイオードを一組のものとし、各々の相関を取ることでデフォーカス分布を得ることが可能となっている。本実施例では、カラーフィルターを考慮し、RGBそれぞれについて相関を取っている。   In the above configuration, a set of photodiodes corresponding to the same side of each microlens having color filters of the same color as G111-G311 ..., G112-G312 ... By taking it, it is possible to obtain a defocus distribution. In this embodiment, a color filter is taken into consideration, and correlation is obtained for each of RGB.

もちろん白黒タイプでよければ、その必要は無い。   Of course, if the black and white type is acceptable, there is no need.

この撮像素子から得られる像信号は、レンズの異なった瞳位置から来る光束が2像として分離されて出力される。   The image signal obtained from this image sensor is output by separating light beams coming from different pupil positions of the lens as two images.

この2像の相関を取ることで、距離情報を得ることが出来る。   Distance information can be obtained by correlating these two images.

15はタイミングジェネレーター(TG)で、撮像素子14の駆動を行っている。   A timing generator (TG) 15 drives the image sensor 14.

16はA/D変換器(A/D)で、撮像素子14から出力されてくるアナログ信号をサンプリングしてデジタル信号に変換する。   Reference numeral 16 denotes an A / D converter (A / D) which samples an analog signal output from the image sensor 14 and converts it into a digital signal.

17は一次バッファメモリで、A/D変換器の出力データーを一時記憶する。   A primary buffer memory 17 temporarily stores output data of the A / D converter.

撮影レンズ11〜一次バッファメモリ17が、図1の撮像手段1に対応している。   The taking lens 11 to the primary buffer memory 17 correspond to the image pickup means 1 in FIG.

18は相関演算回路で、図1のデフォーカス検出手段2に対応している。   A correlation operation circuit 18 corresponds to the defocus detection means 2 in FIG.

相関演算回路18は、一次バッファメモリ17に蓄えられた2像の相関を画面全体に対して行い、画面の部分ごとにデフォーカス量を決定していく。   The correlation calculation circuit 18 performs correlation between the two images stored in the primary buffer memory 17 on the entire screen, and determines the defocus amount for each portion of the screen.

図4は2系列データーを説明する為の特性図で、二系列の信号の相関を取ることによりデフォーカス量と方向に応じ、かつ画面の部分毎にそこに対応したズレ量(Δ1、Δ2・・・)が得られる。   FIG. 4 is a characteristic diagram for explaining the two series of data. By taking the correlation of the two series of signals, the amount of deviation (Δ1, Δ2,.・ ・) Is obtained.

決定されたデフォーカス量がデフォーカスバッファメモリ19に記憶される。   The determined defocus amount is stored in the defocus buffer memory 19.

20は画像前処理プロセッサ、22は画像バッファメモリである。   Reference numeral 20 denotes an image preprocessing processor, and 22 denotes an image buffer memory.

画像前処理プロセッサ20は一次バッファメモリ17の画像データーに対し、カラーマトリックス処理・ガンマ処理・ノイズ低減処理等を行い、画像バッファメモリ22に2枚の画像として蓄える。   The image preprocessor 20 performs color matrix processing, gamma processing, noise reduction processing, and the like on the image data in the primary buffer memory 17 and stores them in the image buffer memory 22 as two images.

23はCPUで、カメラ全体のコントロールと、三次元データー化処理、記録処理等を行う。   Reference numeral 23 denotes a CPU which controls the entire camera, performs three-dimensional data processing, recording processing, and the like.

24は外部インターフェース、25は外部記憶装置である。外部記憶装置25はフラッシュメモリ等の不揮発記憶媒体で構成されている。   Reference numeral 24 is an external interface, and 25 is an external storage device. The external storage device 25 is composed of a nonvolatile storage medium such as a flash memory.

26は撮影指示手段であるところのレリーズスイッチ、27はメニューボタン、28は設定などの選択をするための十字キー、29はセットボタンである。   Reference numeral 26 denotes a release switch which is a photographing instruction means, 27 is a menu button, 28 is a cross key for selecting settings and the like, and 29 is a set button.

30は電源スイッチで、撮像装置の電源のオン・オフを行う。   Reference numeral 30 denotes a power switch for turning on / off the power of the imaging apparatus.

31は表示手段であるところの表示パネルで、表示パネル30はバックライト付きのTFTカラー液晶パネルで構成されている。   Reference numeral 31 denotes a display panel as a display means, and the display panel 30 is constituted by a TFT color liquid crystal panel with a backlight.

表示パネル31は、撮影時のフレーミング決定のためのファインダーと、撮影画像の確認、等距離マップ確認、および撮像装置の各種設定の為のメニュー操作に使用される。   The display panel 31 is used for a finder for framing determination at the time of shooting, menu operations for checking a shot image, checking an equidistance map, and various settings of the imaging device.

次に、図5のフローチャートを用いて撮像装置の動作を説明する。   Next, the operation of the imaging apparatus will be described using the flowchart of FIG.

電源スイッチ30がオンになると、S101から動作が始まる。
(S101)
ファインダーモードに撮像素子14等を設定し、撮像素子14の信号をリアルタイムに取り出し、ファインダー像として表示パネル31に画像表示を行う。
(S102)
電源スイッチ30がオフになると、機器の動作を終了させる。
(S103)
レリーズスイッチ26が押されたら、S150に処理を移行する。
(S104)
メニューボタン27が押されたら、S110に処理を移行する。
When the power switch 30 is turned on, the operation starts from S101.
(S101)
The image sensor 14 and the like are set in the finder mode, the signal of the image sensor 14 is taken out in real time, and an image is displayed on the display panel 31 as a finder image.
(S102)
When the power switch 30 is turned off, the operation of the device is terminated.
(S103)
If the release switch 26 is pressed, the process proceeds to S150.
(S104)
If the menu button 27 is pressed, the process proceeds to S110.

押されていなければ、S102に戻る。   If not, the process returns to S102.

S102〜S104で機器の操作入力を監視している。
(S110)
撮像素子14をオフにする。
(S111)
表示パネル31にメニュー表示を行う。
The operation input of the device is monitored in S102 to S104.
(S110)
The image sensor 14 is turned off.
(S111)
A menu is displayed on the display panel 31.

このとき、メニューのデフォルトの選択項目を反転表示し、現在のメニューの選ばれている内容を示す。   At this time, the default selection item of the menu is highlighted to indicate the selected content of the current menu.

メニューの表示形態を図6に示す。
(S112)
メニューボタン27が押されたらS101に進む。
(S113)
十字キー28またはセットボタン29から入力があればS120に進む。
(S114)
電源スイッチ30がオフになると、機器の動作を終了させる。
The display form of the menu is shown in FIG.
(S112)
If the menu button 27 is pressed, the process proceeds to S101.
(S113)
If there is an input from the cross key 28 or the set button 29, the process proceeds to S120.
(S114)
When the power switch 30 is turned off, the operation of the device is terminated.

いずれの入力も無ければS112に戻る
(S120)
メニュー設定処理を行う。
If there is no input, return to S112
(S120)
Perform menu setting processing.

メニュー設定処理では、以下の処理を行う。   In the menu setting process, the following process is performed.

十字キー28の上下が押された時には、メニューの項目間の移動を行う。   When the up and down of the cross key 28 is pressed, the menu item is moved.

十字キー28の左右が押された時には、階層メニューへの出入りを行う。右を押すと下の階層に、左を押すと上の階層に移る。   When the left and right of the cross key 28 are pressed, the user enters and exits the hierarchical menu. Press right to move to the lower level, and press left to move to the upper level.

セットボタン29で項目の設定値を決定する。
(S121)
設定値が変更されていたら、所定の設定変更を行う。
The set value of the item is determined by the set button 29.
(S121)
If the setting value has been changed, a predetermined setting change is performed.

その後S112に戻る。   Thereafter, the process returns to S112.

S150から、撮影とデーター作成のシーケンスが行われる。
(S150)
CPU23はTG15を本撮影モードに設定する。
(S151)
CPU23はTG15を介して撮像素子14を駆動し、本撮影を実行する。
(S152)
撮像素子14の出力はA/D16によりデジタルデーターに変換され、一次バッファメモリ17に記憶される。
(S153)
相関演算回路18により、一次バッファメモリ17に蓄えられた2像の相関を画面全体に対して行い、画面の部分ごとにデフォーカス量を計算してデフォーカスバッファメモリ19に記憶する。このデフォーカス量が被写体距離に対応している。
(S154)
画像前処理プロセッサ20は一次バッファメモリ17の画像データーに、カラーマトリックス処理・ガンマ処理・ノイズ低減処理等を行い、画像バッファメモリ22に2枚の画像として蓄える。
(S155)
CPU23は、画像バッファメモリ22に蓄えられた画像に対し、デフォーカスバッファメモリ19の値を参照しながら、被写体の像分離を行う。
From S150, a sequence of shooting and data creation is performed.
(S150)
The CPU 23 sets TG15 to the main shooting mode.
(S151)
The CPU 23 drives the image sensor 14 via the TG 15 to execute the main photographing.
(S152)
The output of the image sensor 14 is converted into digital data by the A / D 16 and stored in the primary buffer memory 17.
(S153)
The correlation calculation circuit 18 performs correlation between the two images stored in the primary buffer memory 17 on the entire screen, calculates a defocus amount for each portion of the screen, and stores it in the defocus buffer memory 19. This defocus amount corresponds to the subject distance.
(S154)
The image preprocessor 20 performs color matrix processing, gamma processing, noise reduction processing, and the like on the image data in the primary buffer memory 17 and stores them in the image buffer memory 22 as two images.
(S155)
The CPU 23 performs image separation of the subject on the image stored in the image buffer memory 22 while referring to the value of the defocus buffer memory 19.

像分離にあたっては、デフォーカス量の値が近似しており、かつ被写体の輪郭が認識できた部分については一つのまとまった像として分離するとともに、代表デフォーカス値を設定する。   In the image separation, the defocus amount value is approximate and a portion where the contour of the subject can be recognized is separated as a single image and a representative defocus value is set.

また、画像は元々2枚あるが、この時点で一枚に合成される。   Also, there are originally two images, but at this point they are combined into one.

像分離された画像は画像バッファメモリ22に分離された状態で、代表デフォーカス値とともに記憶される。
(S156)
S155で生成された分離像を代表デフォーカス値から得られる被写体距離に応じて所定の視差を持つ様にずらした一対の画像を生成する。この処理を全ての分離像に対して行う。
(S157)
S156で得られた像を2枚の画像に合成する。
The separated image is stored in the image buffer memory 22 together with the representative defocus value.
(S156)
A pair of images are generated by shifting the separated image generated in S155 so as to have a predetermined parallax according to the subject distance obtained from the representative defocus value. This process is performed for all separated images.
(S157)
The image obtained in S156 is combined into two images.

この時、重ね合わせで不足する領域の像は、奥にある像から補間演算で生成する。
(S158)
デフォーカスバッファメモリ19の値を参照し、被写体距離を所定間隔で分割したときの等被写体距離線図を作成する。
(S159)
外部インターフェース24を介し、外部記憶装置25に2枚の画像と等被写体距離線図をセットで記憶する。
At this time, an image of a region that is insufficient due to superposition is generated by interpolation from an image at the back.
(S158)
With reference to the value in the defocus buffer memory 19, an equal subject distance diagram when the subject distance is divided at a predetermined interval is created.
(S159)
Two images and an equal subject distance diagram are stored as a set in the external storage device 25 via the external interface 24.

この時、関連したファイル名にしても良いし、一つのデーターとしてまとめて記憶する方式や、タグ情報を付加する方式でも良い。
また、撮像装置の設定によって、記憶される内容は変化する。
(S160)
ファインダーモードに撮像素子14等を設定し、撮像素子14の信号をリアルタイムに取り出し、ファインダー像として表示パネル31に画像表示を行う。
At this time, a related file name may be used, a method of storing the data collectively as a single data, or a method of adding tag information.
In addition, the stored content varies depending on the setting of the imaging device.
(S160)
The image sensor 14 and the like are set in the finder mode, the signal of the image sensor 14 is taken out in real time, and an image is displayed on the display panel 31 as a finder image.

その後S102に戻る。   Thereafter, the process returns to S102.

以上で撮像装置の動作が行われる。   Thus, the operation of the imaging apparatus is performed.

[第二の実施の形態]
図7〜8は本発明の第二の実施の形態を示し、無線コントロール式の小型航空機に内蔵された例を示している。
[Second Embodiment]
7 to 8 show a second embodiment of the present invention and show an example incorporated in a radio-controlled small aircraft.

第一の実施の形態と対応する部分には同じ番号を振ってある。   The same numbers are assigned to portions corresponding to those in the first embodiment.

50は撮像装置本体で、無線コントロール式の小型航空機の機能を有している。   Reference numeral 50 denotes an imaging apparatus main body, which has the function of a wirelessly controlled small aircraft.

撮像装置本体50は、無線送受信機51が内蔵され、無線でコントロール可能になっている。   The imaging device main body 50 includes a wireless transceiver 51 and can be controlled wirelessly.

52はエンジン、53は操舵装置である。   52 is an engine, and 53 is a steering device.

55は位置を把握する為のGPSユニット、56は機器の方位を把握する為の方位検知ユニット、57は機器の加速状況を把握する為の加速度センサー、58は機器の高度を把握する為の高度センサー、59は機器の速度を把握する為の対地速度センサー、60は機器の傾きを把握する為の傾斜センサーである。   55 is a GPS unit for grasping the position, 56 is an orientation detection unit for grasping the orientation of the device, 57 is an acceleration sensor for grasping the acceleration status of the device, and 58 is an altitude for grasping the altitude of the device. A sensor 59 is a ground speed sensor for grasping the speed of the device, and 60 is a tilt sensor for grasping the tilt of the device.

55〜60のセンサー類で、撮像装置の空間上の位置と方向を把握する。   The position and direction of the imaging device in the space are grasped with 55 to 60 sensors.

61はコントローラーである。   61 is a controller.

コントローラー61には、送受信機62が内蔵され、撮像装置本体50と無線で通信を行う。   The controller 61 incorporates a transceiver 62 and communicates with the imaging device main body 50 wirelessly.

63は操作レバーで、撮像装置本体50の飛行動作の操縦を行う。   Reference numeral 63 denotes an operation lever that controls the flight operation of the imaging apparatus main body 50.

64は表示パネルで、撮像装置本体50の撮像部から送られる画像を表示する。   A display panel 64 displays an image sent from the imaging unit of the imaging apparatus main body 50.

65は撮影指示スイッチである。   Reference numeral 65 denotes a photographing instruction switch.

66はCPU、67はバッファメモリである。   66 is a CPU and 67 is a buffer memory.

本実施の形態では、撮像装置本体50を遠隔操作し、自由なタイミングで撮影・記録動作を行うことが出来る。   In the present embodiment, the imaging apparatus main body 50 can be remotely operated to perform shooting / recording operations at any timing.

撮影〜記録の動作は第一の実施の形態に加えて、撮影時の位置情報も同時に記録される。   In addition to the first embodiment, the shooting to recording operation simultaneously records position information at the time of shooting.

この位置情報を元にして、撮影した立体像と等距離線図で地上の高さ情報も含めた詳細な実画像情報をもつ地形図を作成する事が出来る。   Based on this position information, it is possible to create a topographic map having detailed real image information including height information on the ground using a captured stereoscopic image and an equidistant map.

また、所定距離移動ごとや所定時間ごと等に自動的に撮影〜データー作成〜記録動作を行うようにしても良い。   The photographing, data creation, and recording operations may be automatically performed every predetermined distance movement or every predetermined time.

その様に構成すれば、広範囲の地形図データーを簡易に取得する事が出来る。   If configured in this way, a wide range of topographic map data can be easily acquired.

撮像装置の主要ブロック図Main block diagram of imaging device 撮像装置の構成図Configuration diagram of imaging device 撮像素子の構成図Image sensor block diagram 2系列データーの特性図Characteristic chart of 2 series data 撮像装置の動作を示すフローチャートFlow chart showing operation of imaging device メニューの説明図Illustration of menu 第二の実施の形態の撮像装置の構成図The block diagram of the imaging device of 2nd embodiment コントローラーの構成図Controller configuration diagram

符号の説明Explanation of symbols

1 撮像手段
2 デフォーカス検出手段
3 デフォーカスマップ記憶手段
4 画像処理手段
5 画像一時記憶手段
6 三次元画像生成手段
7 等距離情報生成手段
DESCRIPTION OF SYMBOLS 1 Imaging means 2 Defocus detection means 3 Defocus map storage means 4 Image processing means 5 Image temporary storage means 6 Three-dimensional image generation means 7 Equidistant information generation means

Claims (4)

撮影レンズと、撮像素子と、前記撮影レンズの少なくとも二つの異なった瞳領域を通った光束から得られる画像を独立して取り込む画像取り込み手段と、前記画像取り込み手段から得られた少なくとも二つの画像から被写体の距離分布情報を検出する検出手段と、該二つの画像から該距離分布情報に対応して被写体の距離毎に画像を分離する分離手段と、前記二つの瞳領域とは異なった視差を持つ一対の立体画像に再合成する合成手段を有する事を特徴とする撮像装置。   From an imaging lens, an image sensor, an image capturing unit that independently captures an image obtained from a light beam that has passed through at least two different pupil regions of the photographing lens, and at least two images obtained from the image capturing unit The detection means for detecting the distance distribution information of the subject, the separation means for separating the image for each distance of the subject corresponding to the distance distribution information from the two images, and the two pupil regions have different parallaxes An image pickup apparatus having a synthesizing unit that re-synthesizes a pair of stereoscopic images. 撮影レンズと、撮像素子と、前記撮影レンズの少なくとも二つの異なった瞳領域を通った光束から得られる画像を独立して取り込む画像取り込み手段と、前記画像取り込み手段から得られた少なくとも二つの画像から被写体の距離分布情報を検出する検出手段と、前記距離分布情報から所定の距離毎に等距離領域を示す等距離線を生成する事を特徴とする撮像装置。   From an imaging lens, an image sensor, an image capturing unit that independently captures an image obtained from a light beam that has passed through at least two different pupil regions of the photographing lens, and at least two images obtained from the image capturing unit An image pickup apparatus, comprising: detection means for detecting distance distribution information of a subject; and an equidistance line indicating an equidistant region for each predetermined distance from the distance distribution information. 撮影レンズと、撮像素子と、前記撮影レンズの少なくとも二つの異なった瞳領域を通った光束から得られる画像を独立して取り込む画像取り込み手段と、前記画像取り込み手段から得られた少なくとも二つの画像から被写体の距離分布情報を検出する検出手段と、撮像場所の位置と高さと方向を検出する撮像位置検出手段と、前記画像の少なくとも一つと距離分布情報と撮像位置情報から等高線を含む地図情報を生成する地図情報生成手段を有する事を特徴とする地形図作成装置。   From an imaging lens, an image sensor, an image capturing unit that independently captures an image obtained from a light beam that has passed through at least two different pupil regions of the photographing lens, and at least two images obtained from the image capturing unit Detection means for detecting distance distribution information of a subject, imaging position detection means for detecting the position, height and direction of an imaging location, and generating map information including contour lines from at least one of the images, distance distribution information and imaging position information An apparatus for creating a topographic map, characterized by having a map information generating means. 請求項3記載の地形図作成装置において、少なくとも前記撮像手段を空間的に移動させる移動手段を有し、前記移動手段による前記撮像手段の移動に伴い複数の地図情報を生成する事を特徴とする地形図作成装置。   4. The topographic map creating apparatus according to claim 3, further comprising a moving unit that spatially moves the imaging unit, and generating a plurality of map information as the imaging unit is moved by the moving unit. Topographic map creation device.
JP2004292532A 2004-10-05 2004-10-05 Imaging device and topographical map preparing apparatus Withdrawn JP2006105771A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004292532A JP2006105771A (en) 2004-10-05 2004-10-05 Imaging device and topographical map preparing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004292532A JP2006105771A (en) 2004-10-05 2004-10-05 Imaging device and topographical map preparing apparatus

Publications (1)

Publication Number Publication Date
JP2006105771A true JP2006105771A (en) 2006-04-20

Family

ID=36375691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004292532A Withdrawn JP2006105771A (en) 2004-10-05 2004-10-05 Imaging device and topographical map preparing apparatus

Country Status (1)

Country Link
JP (1) JP2006105771A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009296272A (en) * 2008-06-04 2009-12-17 Sony Corp Image encoding device and image encoding method
WO2011118077A1 (en) * 2010-03-24 2011-09-29 富士フイルム株式会社 Three-dimensional imaging device, and disparity image restoration method
WO2012002307A1 (en) * 2010-06-29 2012-01-05 富士フイルム株式会社 Single-lens stereoscopic image capture device
WO2012108099A1 (en) * 2011-02-09 2012-08-16 富士フイルム株式会社 Imaging device and imaging method
WO2012132123A1 (en) * 2011-03-31 2012-10-04 富士フイルム株式会社 Stereoscopic imaging apparatus and stereoscopic imaging method
WO2013005489A1 (en) * 2011-07-06 2013-01-10 オリンパス株式会社 Image capture device and image processing device
WO2013038863A1 (en) * 2011-09-13 2013-03-21 富士フイルム株式会社 Monocular stereoscopic imaging device, imaging method, and program
JP2013061440A (en) * 2011-09-13 2013-04-04 Canon Inc Imaging device and control method of imaging device
JP2013157726A (en) * 2012-01-27 2013-08-15 Canon Inc Imaging apparatus and method for controlling imaging apparatus
WO2014050875A1 (en) * 2012-09-27 2014-04-03 株式会社ニコン Image pick-up element and image pick-up device
US8988576B2 (en) 2011-08-30 2015-03-24 Fujifilm Corporation Solid-state imaging device and digital camera
EP2747429A4 (en) * 2011-08-19 2015-07-08 Fujifilm Corp Image pickup apparatus and shading correction method
JP2016106466A (en) * 2015-12-25 2016-06-16 キヤノン株式会社 Imaging device and control method therefor, and image processing apparatus and control method therefor
JP2016154360A (en) * 2016-03-30 2016-08-25 キヤノン株式会社 Imaging apparatus and control method therefor
US9674461B2 (en) 2013-09-27 2017-06-06 Fujifilm Corporation Imaging device and imaging method
JP2017229075A (en) * 2017-07-13 2017-12-28 キヤノン株式会社 Image processing apparatus and control method therefor, and imaging device
US9906770B2 (en) 2012-03-16 2018-02-27 Nikon Corporation Image sensor, image-capturing apparatus and image capturing system

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8369630B2 (en) 2008-06-04 2013-02-05 Sony Corporation Image encoding device and image encoding method with distance information
JP4591548B2 (en) * 2008-06-04 2010-12-01 ソニー株式会社 Image coding apparatus and image coding method
JP2009296272A (en) * 2008-06-04 2009-12-17 Sony Corp Image encoding device and image encoding method
WO2011118077A1 (en) * 2010-03-24 2011-09-29 富士フイルム株式会社 Three-dimensional imaging device, and disparity image restoration method
CN102884802B (en) * 2010-03-24 2014-03-12 富士胶片株式会社 Three-dimensional imaging device, and disparity image restoration method
US8593509B2 (en) 2010-03-24 2013-11-26 Fujifilm Corporation Three-dimensional imaging device and viewpoint image restoration method
JP5180407B2 (en) * 2010-03-24 2013-04-10 富士フイルム株式会社 Stereo imaging device and parallax image restoration method
CN102884802A (en) * 2010-03-24 2013-01-16 富士胶片株式会社 Three-dimensional imaging device, and disparity image restoration method
WO2012002307A1 (en) * 2010-06-29 2012-01-05 富士フイルム株式会社 Single-lens stereoscopic image capture device
JP5595499B2 (en) * 2010-06-29 2014-09-24 富士フイルム株式会社 Monocular stereoscopic imaging device
US9077976B2 (en) 2010-06-29 2015-07-07 Fujifilm Corporation Single-eye stereoscopic image capturing device
US8823778B2 (en) 2011-02-09 2014-09-02 Fujifilm Corporation Imaging device and imaging method
JPWO2012108099A1 (en) * 2011-02-09 2014-07-03 富士フイルム株式会社 Imaging apparatus and imaging method
JP5469258B2 (en) * 2011-02-09 2014-04-16 富士フイルム株式会社 Imaging apparatus and imaging method
WO2012108099A1 (en) * 2011-02-09 2012-08-16 富士フイルム株式会社 Imaging device and imaging method
WO2012132123A1 (en) * 2011-03-31 2012-10-04 富士フイルム株式会社 Stereoscopic imaging apparatus and stereoscopic imaging method
CN103444192A (en) * 2011-03-31 2013-12-11 富士胶片株式会社 Stereoscopic imaging apparatus and stereoscopic imaging method
US9648305B2 (en) 2011-03-31 2017-05-09 Fujifilm Corporation Stereoscopic imaging apparatus and stereoscopic imaging method
CN103444192B (en) * 2011-03-31 2014-11-26 富士胶片株式会社 Stereoscopic imaging apparatus and stereoscopic imaging method
WO2013005489A1 (en) * 2011-07-06 2013-01-10 オリンパス株式会社 Image capture device and image processing device
EP2747429A4 (en) * 2011-08-19 2015-07-08 Fujifilm Corp Image pickup apparatus and shading correction method
US8988576B2 (en) 2011-08-30 2015-03-24 Fujifilm Corporation Solid-state imaging device and digital camera
WO2013038863A1 (en) * 2011-09-13 2013-03-21 富士フイルム株式会社 Monocular stereoscopic imaging device, imaging method, and program
JP2013061440A (en) * 2011-09-13 2013-04-04 Canon Inc Imaging device and control method of imaging device
JP2013157726A (en) * 2012-01-27 2013-08-15 Canon Inc Imaging apparatus and method for controlling imaging apparatus
US10412358B2 (en) 2012-03-16 2019-09-10 Nikon Corporation Image sensor, image-capturing apparatus and image-capturing system
US9906770B2 (en) 2012-03-16 2018-02-27 Nikon Corporation Image sensor, image-capturing apparatus and image capturing system
US10270999B2 (en) 2012-09-27 2019-04-23 Nikon Corporation Image sensor and image-capturing device
US20150256778A1 (en) 2012-09-27 2015-09-10 Nikon Corporation Image sensor and image-capturing device
US11405576B2 (en) 2012-09-27 2022-08-02 Nikon Corporation Image sensor and image-capturing device
US11032506B2 (en) 2012-09-27 2021-06-08 Nikon Corporation Image sensor and image-capturing device
WO2014050875A1 (en) * 2012-09-27 2014-04-03 株式会社ニコン Image pick-up element and image pick-up device
US9674461B2 (en) 2013-09-27 2017-06-06 Fujifilm Corporation Imaging device and imaging method
JP2016106466A (en) * 2015-12-25 2016-06-16 キヤノン株式会社 Imaging device and control method therefor, and image processing apparatus and control method therefor
JP2016154360A (en) * 2016-03-30 2016-08-25 キヤノン株式会社 Imaging apparatus and control method therefor
JP2017229075A (en) * 2017-07-13 2017-12-28 キヤノン株式会社 Image processing apparatus and control method therefor, and imaging device

Similar Documents

Publication Publication Date Title
JP2006105771A (en) Imaging device and topographical map preparing apparatus
JP5178553B2 (en) Imaging device
CN102959943B (en) Stereoscopic panoramic image synthesizer and method and image capture apparatus
CN103595979B (en) Image processing equipment, image picking-up apparatus and image processing method
JP6512810B2 (en) Image pickup apparatus, control method and program
JP6708790B2 (en) Image generation device, image generation system, image generation method, and image generation program
US20100321470A1 (en) Imaging apparatus and control method therefor
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2013537728A (en) Video camera providing video with perceived depth
JP2009267787A (en) Composition determination device, composition determination method, and program
US9225895B2 (en) Automatic focusing method and apparatus for same
US20190304122A1 (en) Image processing device, image processing method, recording medium storing image processing program and image pickup apparatus
US20130044226A1 (en) Imaging device and distance information detecting method
JP2008172342A (en) Three-dimensional image recorder and three-dimensional image recording method
US20040252223A1 (en) Image pickup device, image pickup system and image pickup method
JP2008015815A (en) Image processor and image processing program
JP4468794B2 (en) Display control apparatus, camera, and display control method
JPH1021401A (en) Three-dimensional information processor
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2004260591A (en) Stereoscopic image display device
JP6532370B2 (en) Imaging system, composition setting device, and composition setting program
JP2003296329A (en) Information providing device, information providing method and information processing program
JP2021150942A (en) Image capture device and image capture processing method
US11754833B2 (en) Image processing apparatus and control method for image processing apparatus
JP2006324727A (en) Imaging apparatus and image processing method thereof

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080108