JP2001141422A - Image pickup device and image processor - Google Patents

Image pickup device and image processor

Info

Publication number
JP2001141422A
JP2001141422A JP32033699A JP32033699A JP2001141422A JP 2001141422 A JP2001141422 A JP 2001141422A JP 32033699 A JP32033699 A JP 32033699A JP 32033699 A JP32033699 A JP 32033699A JP 2001141422 A JP2001141422 A JP 2001141422A
Authority
JP
Japan
Prior art keywords
subject
image
unit
depth
size ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32033699A
Other languages
Japanese (ja)
Inventor
Shuji Ono
修司 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP32033699A priority Critical patent/JP2001141422A/en
Publication of JP2001141422A publication Critical patent/JP2001141422A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image pickup device and an image processor capable of obtaining information relating to the depth of an object over a wide visual field. SOLUTION: This device is provided with an image pickup part 20 for picking up the parallactic image of the object obtained in the case of viewing the object from two different view point positions, a size ratio detection part 306 for detecting the ratio of the size of the image of the specified area of the object in the parallactic image, a position deviation detection part 304 for detecting the deviation of the position of the image of the specified area of the object in the parallactic image and a depth calculation part 308 for calculating the depth value of the specified area of the object based on the position deviation and the size ratio.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被写体の奥行きに
関する情報を取得する画像撮像装置、画像処理装置、画
像処理方法、及び記録媒体に関する。特に本発明は、視
差画像に基づいて被写体の奥行きに関する情報を取得す
る画像撮像装置、画像処理装置、画像処理方法、及び記
録媒体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image pickup apparatus, an image processing apparatus, an image processing method, and a recording medium for acquiring information on the depth of a subject. In particular, the present invention relates to an image capturing apparatus, an image processing apparatus, an image processing method, and a recording medium that acquire information on the depth of a subject based on a parallax image.

【0002】[0002]

【従来の技術】被写体の位置情報を得るために、人間の
両眼立体視の機能を真似て、カメラを2台並べて、異な
る2つの視点から被写体を見た場合の視差画像を撮影
し、被写体の奥行き値を測定するステレオ撮影の技法が
古くからある。視点位置の違いから、被写体の像が視差
画像上で位置がずれることを検出し、像の位置ずれとカ
メラのレンズの焦点距離に基づいて、3角測量の原理に
よりカメラから被写体までの距離を測定する方法が採ら
れている。
2. Description of the Related Art In order to obtain positional information of a subject, two cameras are arranged side by side to imitate the function of binocular stereopsis of a human, and a parallax image is obtained when the subject is viewed from two different viewpoints. There is an old technique of stereo photography that measures the depth value of an image. Based on the difference in the viewpoint positions, it is detected that the image of the subject is displaced on the parallax image, and the distance from the camera to the subject is determined based on the principle of triangulation based on the displacement of the image and the focal length of the camera lens. The method of measuring is adopted.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、カメラ
を2台並べても、レンズの視野角の限界のため、視点の
移動方向に視差の死角領域が発生し、広い視野にわたる
被写体の奥行き情報を高い精度で得ることができないと
いう問題を生じていた。
However, even if two cameras are arranged, a blind spot area of parallax is generated in the moving direction of the viewpoint due to the limitation of the viewing angle of the lens, and the depth information of the subject over a wide field of view can be obtained with high accuracy. Had a problem that it was not possible to get it.

【0004】そこで本発明は、上記の課題を解決するた
めに、広い視野にわたって被写体の奥行きに関する情報
を取得することのできる画像撮像装置、画像処理装置、
画像処理方法、及び記録媒体を提供することを目的とす
る。この目的は特許請求の範囲における独立項に記載の
特徴の組み合わせにより達成される。また従属項は本発
明の更なる有利な具体例を規定する。
[0004] In order to solve the above-mentioned problems, the present invention provides an image pickup apparatus, an image processing apparatus, and an image processing method capable of acquiring information on the depth of a subject over a wide field of view.
It is an object to provide an image processing method and a recording medium. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous embodiments of the present invention.

【0005】[0005]

【課題を解決するための手段】上記課題を解決するため
に、本発明の第1の形態においては、被写体の奥行きに
関する情報を取得する画像撮像装置であって、2つの異
なる視点位置から被写体を見た場合に得られる被写体の
視差画像を撮像する撮像部と、視差画像における被写体
の特定領域の像の大きさの比を検出する大きさ比検出部
と、大きさ比に基づいて、被写体の特定領域の奥行き値
を算出する奥行き算出部とを備えたことを特徴とする。
According to a first aspect of the present invention, there is provided an image pickup apparatus for acquiring information relating to the depth of a subject. An imaging unit that captures a parallax image of a subject obtained when the subject is viewed, a size ratio detection unit that detects a size ratio of an image of a specific region of the subject in the parallax image, and A depth calculation unit for calculating a depth value of the specific area.

【0006】視差画像における被写体の特定領域の像の
位置のずれを検出する位置ずれ検出部をさらに備え、奥
行き算出部は、位置ずれ及び大きさ比に基づいて、被写
体の特定領域の奥行き値を算出してもよい。
[0006] The image processing apparatus further includes a position shift detecting unit for detecting a position shift of the image of the specific region of the subject in the parallax image, and the depth calculating unit calculates a depth value of the specific region of the subject based on the position shift and the size ratio. It may be calculated.

【0007】奥行き算出部は、被写体の特定領域毎に、
位置ずれ及び大きさ比を考慮する割合を変えて、被写体
の特定領域の奥行き値を算出してもよい。奥行き算出部
は、被写体の特定領域を2つの視点位置の中点から見た
場合の方位によって、位置ずれ及び大きさ比を考慮する
割合を変えて、被写体の特定領域の奥行き値を算出して
もよい。被写体の特定領域が、2つの視点位置を結ぶ直
線の方向に近づくにつれて、大きさ比を考慮する割合を
増やし、被写体の特定領域が、2つの視点位置の中点を
通り、2つの視点位置を結ぶ直線に垂直な平面に近づく
につれて、位置ずれを考慮する割合を増やして、被写体
の特定領域の奥行き値を算出してもよい。
[0007] The depth calculation section provides, for each specific region of the subject,
The depth value of the specific region of the subject may be calculated by changing the ratio in which the displacement and the size ratio are considered. The depth calculation unit calculates the depth value of the specific region of the subject by changing the ratio of considering the position shift and the size ratio depending on the azimuth when the specific region of the subject is viewed from the midpoint of the two viewpoint positions. Is also good. As the specific region of the subject approaches the direction of the straight line connecting the two viewpoint positions, the ratio of considering the size ratio is increased, and the specific region of the subject passes through the midpoint of the two viewpoint positions and the two viewpoint positions are shifted. The depth value of the specific region of the subject may be calculated by increasing the rate of considering the positional deviation as approaching a plane perpendicular to the connecting straight line.

【0008】撮像部は、視野角の広い光学レンズを有
し、光学レンズを移動させる駆動部をさらに備え、撮像
部は、駆動部が光学レンズを移動させた位置を視点位置
として、被写体の視差画像を撮像してもよい。撮像部
は、視点位置の異なる2つの視野角の広い光学レンズを
有し、2つの光学レンズによって被写体の視差画像を撮
像してもよい。光学レンズは魚眼レンズであり、奥行き
算出部は、撮像部が魚眼レンズによって撮像する被写体
の全方位の領域について奥行き値を算出してもよい。撮
像部は、固体撮像素子を有し、光学レンズによって被写
体の視差画像を固体撮像素子に撮像してもよい。
The imaging section has an optical lens having a wide viewing angle, and further includes a driving section for moving the optical lens. The imaging section uses the position at which the driving section has moved the optical lens as a viewpoint position to determine the parallax of the subject. An image may be taken. The imaging unit may include two optical lenses having different viewing points and wide viewing angles, and may capture a parallax image of the subject using the two optical lenses. The optical lens may be a fisheye lens, and the depth calculation unit may calculate a depth value for an omnidirectional area of the subject imaged by the imaging unit with the fisheye lens. The imaging unit may include a solid-state imaging device, and image a parallax image of the subject on the solid-state imaging device using an optical lens.

【0009】本発明の第2の形態においては、被写体の
奥行きに関する情報を取得する画像処理装置であって、
複数の異なる視点位置から被写体を見た場合に得られる
被写体の複数の視差画像を入力する入力部と、複数の視
差画像における被写体の特定領域の像の大きさの比を検
出する大きさ比検出部と、大きさ比に基づいて、被写体
の特定領域の奥行き値を算出する奥行き算出部とを備え
たことを特徴とする。
According to a second aspect of the present invention, there is provided an image processing apparatus for acquiring information relating to the depth of a subject,
An input unit for inputting a plurality of parallax images of the subject obtained when the subject is viewed from a plurality of different viewpoint positions, and a size ratio detection for detecting a ratio of an image size of a specific region of the subject in the plurality of parallax images And a depth calculator for calculating a depth value of a specific area of the subject based on the size ratio.

【0010】奥行き算出部が算出した被写体の特定領域
の奥行き値に基づいて、入力部が入力する被写体の画像
の座標変換を行うことにより画像を変換する画像変換部
をさらに備えてもよい。入力部が入力する被写体の画像
が魚眼レンズによって被写体を撮像した全方位画像であ
る場合に、画像変換部は、座標変換によって、全方位画
像を透視投影画像に変換してもよい。画像変換部は、座
標変換によって、被写体の正投影画像を生成してもよ
い。
[0010] The image processing apparatus may further include an image conversion unit that converts the image by performing coordinate conversion of the image of the subject input by the input unit based on the depth value of the specific region of the subject calculated by the depth calculation unit. When the image of the subject input by the input unit is an omnidirectional image obtained by capturing the subject with a fisheye lens, the image conversion unit may convert the omnidirectional image into a perspective projection image by coordinate conversion. The image conversion unit may generate an orthographic image of the subject by performing coordinate conversion.

【0011】本発明の第3の形態においては、被写体の
奥行きに関する情報を取得する画像処理方法であって、
複数の異なる視点位置から被写体を見た場合に得られる
被写体の複数の視差画像を入力し、複数の視差画像にお
ける被写体の特定領域の像の位置のずれ及び大きさの比
を検出し、被写体の特定領域毎に、位置ずれ及び大きさ
比を考慮する割合を変えて、被写体の特定領域の奥行き
値を算出することを特徴とする。
According to a third aspect of the present invention, there is provided an image processing method for acquiring information on the depth of a subject,
A plurality of parallax images of a subject obtained when the subject is viewed from a plurality of different viewpoint positions are input, and a position shift and a size ratio of an image of a specific region of the subject in the plurality of parallax images are detected. The depth value of the specific region of the subject is calculated by changing the ratio in which the displacement and the size ratio are considered for each specific region.

【0012】本発明の第4の形態においては、被写体の
奥行きに関する情報を取得するコンピュータ用のプログ
ラムを格納した記録媒体であって、プログラムが、複数
の異なる視点位置から被写体を見た場合に得られる被写
体の複数の視差画像を入力させる入力モジュールと、複
数の視差画像における被写体の特定領域の像の位置のず
れを検出する位置ずれ検出モジュールと、複数の視差画
像における被写体の特定領域の像の大きさの比を検出す
る大きさ比検出モジュールと、被写体の特定領域毎に、
位置ずれ及び大きさ比を考慮する割合を変えて、被写体
の特定領域の奥行き値を算出する奥行き算出モジュール
とを備えたことを特徴とする。
According to a fourth aspect of the present invention, there is provided a recording medium storing a computer program for acquiring information on the depth of a subject, the program being provided when the subject is viewed from a plurality of different viewpoint positions. An input module for inputting a plurality of parallax images of a subject to be input, a position shift detection module for detecting a position shift of an image of a specific region of the subject in the plurality of parallax images, and an image of a specific region of the subject in the plurality of parallax images. A size ratio detection module that detects a size ratio, and a specific region of a subject,
A depth calculation module that calculates a depth value of a specific area of the subject by changing a ratio in which a position shift and a size ratio are considered.

【0013】なお上記の発明の概要は、本発明の必要な
特徴の全てを列挙したものではなく、これらの特徴群の
サブコンビネーションも又発明となりうる。
The above summary of the present invention does not list all of the necessary features of the present invention, and sub-combinations of these features may also constitute the present invention.

【0014】[0014]

【発明の実施の形態】以下、発明の実施の形態を通じて
本発明を説明するが、以下の実施形態は特許請求の範囲
にかかる発明を限定するものではなく、また、実施形態
の中で説明されている特徴の組み合わせの全てが発明の
解決手段に必須であるとは限らない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described through embodiments of the present invention. However, the following embodiments do not limit the invention according to the claims and are described in the embodiments. Not all combinations of the features described above are essential to the solution of the invention.

【0015】(実施形態1)本発明の第1の実施形態を
説明する。図1は、画像撮像装置の一例としてのデジタ
ルカメラ10の構成図である。デジタルカメラ10に
は、デジタルスチルカメラや静止画像を撮影できるデジ
タルビデオカメラ等が含まれる。デジタルカメラ10
は、主に撮像ユニット20、撮像制御ユニット40、処
理ユニット60、表示ユニット100、および操作ユニ
ット110を含む。
(Embodiment 1) A first embodiment of the present invention will be described. FIG. 1 is a configuration diagram of a digital camera 10 as an example of an image capturing device. The digital camera 10 includes a digital still camera, a digital video camera capable of capturing a still image, and the like. Digital camera 10
Mainly includes an imaging unit 20, an imaging control unit 40, a processing unit 60, a display unit 100, and an operation unit 110.

【0016】撮像ユニット20は、撮影および結像に関
する機構部材および電気部材を含む。撮像ユニット20
はまず、映像を取り込んで処理を施す撮影レンズ22、
絞り24、シャッタ26、光学LPF(ローパスフィル
タ)28、固体撮像素子の一例であるCCD30、およ
び撮像信号処理部32を含む。撮影レンズ22は、フォ
ーカスレンズやズームレンズ等からなる。この構成によ
り、被写体像がCCD30の受光面上に結像する。結像
した被写体像の光量に応じ、CCD30の各センサエレ
メント(図示せず)に電荷が蓄積される(以下その電荷
を「蓄積電荷」という)。蓄積電荷は、リードゲートパ
ルスによってシフトレジスタ(図示せず)に読み出さ
れ、レジスタ転送パルスによって電圧信号として順次読
み出される。
The imaging unit 20 includes a mechanism member and an electric member related to photographing and image formation. Imaging unit 20
First, a photographing lens 22 for capturing and processing images,
An aperture 24, a shutter 26, an optical LPF (low-pass filter) 28, a CCD 30 which is an example of a solid-state image sensor, and an image signal processor 32 are included. The taking lens 22 includes a focus lens, a zoom lens, and the like. With this configuration, a subject image is formed on the light receiving surface of the CCD 30. Charges are accumulated in each sensor element (not shown) of the CCD 30 according to the amount of light of the formed subject image (hereinafter, the charges are referred to as “accumulated charges”). The accumulated charge is read out to a shift register (not shown) by a read gate pulse, and is sequentially read out as a voltage signal by a register transfer pulse.

【0017】デジタルカメラ10は一般に電子シャッタ
機能を有するので、シャッタ26のような機械式シャッ
タは必須ではない。電子シャッタ機能を実現するため
に、CCD30にシャッタゲートを介してシャッタドレ
インが設けられる。シャッタゲートを駆動すると蓄積電
荷がシャッタドレインに掃き出される。シャッタゲート
の制御により、各センサエレメントに電荷を蓄積するた
めの時間、すなわちシャッタ速度が制御できる。
Since the digital camera 10 generally has an electronic shutter function, a mechanical shutter such as the shutter 26 is not essential. In order to realize the electronic shutter function, the CCD 30 is provided with a shutter drain via a shutter gate. When the shutter gate is driven, accumulated charges are swept out to the shutter drain. By controlling the shutter gate, the time for accumulating the electric charges in each sensor element, that is, the shutter speed can be controlled.

【0018】CCD30から出力される電圧信号、すな
わちアナログ信号は撮像信号処理部32でR、G、B成
分に色分解され、まずホワイトバランスが調整される。
つづいて撮像信号処理部32はガンマ補正を行い、必要
なタイミングでR、G、B信号を順次A/D変換し、そ
の結果得られたデジタルの画像データ(以下単に「デジ
タル画像データ」とよぶ)を処理ユニット60へ出力す
る。
A voltage signal output from the CCD 30, that is, an analog signal is color-separated into R, G, and B components by an image signal processing unit 32, and a white balance is adjusted first.
Subsequently, the imaging signal processing unit 32 performs gamma correction, sequentially A / D converts the R, G, and B signals at necessary timing, and obtains digital image data (hereinafter, simply referred to as “digital image data”) obtained as a result. ) Is output to the processing unit 60.

【0019】撮像ユニット20はさらに、ファインダ3
4とストロボ36を有する。ファインダ34には図示し
ないLCDを内装してもよく、その場合、後述のメイン
CPU62等からの各種情報をファインダ34内に表示
できる。ストロボ36は、コンデンサ(図示せず)に蓄
えられたエネルギが放電管36aに供給されたときそれ
が発光することで機能する。
The image pickup unit 20 further includes a finder 3
4 and a strobe 36. The finder 34 may be equipped with an LCD (not shown). In this case, various information from the main CPU 62 and the like described later can be displayed in the finder 34. The strobe 36 functions by emitting light when energy stored in a capacitor (not shown) is supplied to the discharge tube 36a.

【0020】撮像制御ユニット40は、レンズ駆動部4
2、フォーカス駆動部44、絞り駆動部46、シャッタ
駆動部48、それらを制御する撮像系CPU50、測距
センサ52、および測光センサ54をもつ。レンズ駆動
部42などの駆動部は、それぞれステッピングモータ等
の駆動手段を有する。後述のレリーズスイッチ114の
押下に応じ、測距センサ52は被写体までの距離を測定
し、測光センサ54は被写体輝度を測定する。測定され
た距離のデータ(以下単に「測距データ」という)およ
び被写体輝度のデータ(以下単に「測光データ」とい
う)は撮像系CPU50へ送られる。撮像系CPU50
は、ユーザから指示されたズーム倍率等の撮影情報に基
づき、レンズ駆動部42とフォーカス駆動部44を制御
して撮影レンズ22のズーム倍率とピントの調整を行
う。また撮像系CPU50は、視差画像を撮像するため
に、レンズ駆動部42を制御して撮影レンズ22の位置
を移動させる。
The imaging control unit 40 includes a lens driving unit 4
2. It has a focus drive unit 44, an aperture drive unit 46, a shutter drive unit 48, an imaging system CPU 50 that controls them, a distance measurement sensor 52, and a photometry sensor 54. The driving units such as the lens driving unit 42 each have a driving unit such as a stepping motor. When a release switch 114 described later is pressed, the distance measurement sensor 52 measures the distance to the subject, and the photometry sensor 54 measures the brightness of the subject. The measured distance data (hereinafter simply referred to as “distance measurement data”) and the subject luminance data (hereinafter simply referred to as “photometry data”) are sent to the imaging system CPU 50. Imaging system CPU 50
Controls the lens drive unit 42 and the focus drive unit 44 to adjust the zoom magnification and focus of the photographing lens 22 based on the photographing information such as the zoom magnification designated by the user. Further, the imaging system CPU 50 controls the lens driving unit 42 to move the position of the imaging lens 22 in order to capture a parallax image.

【0021】撮像系CPU50は、1画像フレームのR
GBのデジタル信号積算値、すなわちAE情報に基づい
て絞り値とシャッタ速度を決定する。決定された値にし
たがい、絞り駆動部46とシャッタ駆動部48がそれぞ
れ絞り量の調整とシャッタ26の開閉を行う。
The image pickup system CPU 50 controls the R of one image frame.
An aperture value and a shutter speed are determined based on an integrated value of a digital signal of GB, that is, AE information. According to the determined values, the aperture driving unit 46 and the shutter driving unit 48 adjust the aperture amount and open and close the shutter 26, respectively.

【0022】撮像系CPU50はまた、測光データに基
づいてストロボ36の発光を制御し、同時に絞り26の
絞り量を調整する。ユーザが映像の取込を指示したと
き、CCD30が電荷蓄積を開始し、測光データから計
算されたシャッタ時間の経過後、蓄積電荷が撮像信号処
理部32へ出力される。
The imaging system CPU 50 controls the emission of the strobe light 36 based on the photometric data, and at the same time adjusts the aperture of the aperture 26. When the user instructs the capture of an image, the CCD 30 starts to accumulate electric charges, and the accumulated electric charges are output to the imaging signal processing unit 32 after a lapse of a shutter time calculated from the photometric data.

【0023】処理ユニット60は、デジタルカメラ10
全体、とくに処理ユニット60自身を制御するメインC
PU62と、これによって制御されるメモリ制御部6
4、YC処理部70、オプション装置制御部74、圧縮
伸張処理部78、通信I/F部80を有する。メインC
PU62は、シリアル通信などにより、撮像系CPU5
0との間で必要な情報をやりとりする。メインCPU6
2の動作クロックは、クロック発生器88から与えられ
る。クロック発生器88は、撮像系CPU50、表示ユ
ニット100に対してもそれぞれ異なる周波数のクロッ
クを提供する。
The processing unit 60 includes the digital camera 10
The main C that controls the whole, especially the processing unit 60 itself
PU 62 and memory control unit 6 controlled by PU 62
4, a YC processing unit 70, an optional device control unit 74, a compression / decompression processing unit 78, and a communication I / F unit 80. Main C
The PU 62 is connected to the imaging CPU 5 by serial communication or the like.
Necessary information is exchanged with 0. Main CPU6
The second operation clock is provided from a clock generator 88. The clock generator 88 also provides clocks having different frequencies to the imaging system CPU 50 and the display unit 100, respectively.

【0024】メインCPU62には、キャラクタ生成部
84とタイマ86が併設されている。タイマ86は電池
でバックアップされ、つねに日時をカウントしている。
このカウント値から撮影日時に関する情報、その他の時
刻情報がメインCPU62に与えられる。キャラクタ生
成部84は、撮影日時、タイトル等の文字情報を発生
し、この文字情報が適宜撮影画像に合成される。
The main CPU 62 is provided with a character generator 84 and a timer 86. The timer 86 is backed up by a battery and always counts the date and time.
From this count value, information about the shooting date and time and other time information are given to the main CPU 62. The character generation unit 84 generates character information such as a shooting date and time and a title, and the character information is appropriately combined with the captured image.

【0025】メモリ制御部64は、不揮発性メモリ66
とメインメモリ68を制御する。不揮発性メモリ66
は、EEPROM(電気的消去およびプログラム可能な
ROM)やFLASHメモリなどで構成され、ユーザー
による設定情報や出荷時の調整値など、デジタルカメラ
10の電源がオフの間も保持すべきデータが格納されて
いる。不揮発性メモリ66には、場合によりメインCP
U62のブートプログラムやシステムプログラムなどが
格納されてもよい。一方、メインメモリ68は一般にD
RAMのように比較的安価で容量の大きなメモリで構成
される。メインメモリ68は、撮像ユニット20から出
力されたデータを格納するフレームメモリとしての機
能、各種プログラムをロードするシステムメモリとして
の機能、その他ワークエリアとしての機能をもつ。不揮
発性メモリ66とメインメモリ68は、処理ユニット6
0内外の各部とメインバス82を介してデータのやりと
りを行う。
The memory control unit 64 includes a nonvolatile memory 66
And the main memory 68. Non-volatile memory 66
Is constituted by an EEPROM (electrically erasable and programmable ROM) or a flash memory, and stores data to be retained even when the power of the digital camera 10 is off, such as setting information by a user and adjustment values at the time of shipment. ing. The non-volatile memory 66 may have a main CP
A boot program or a system program of U62 may be stored. On the other hand, the main memory 68 generally has a D
It is composed of a relatively inexpensive and large-capacity memory such as a RAM. The main memory 68 has a function as a frame memory for storing data output from the imaging unit 20, a function as a system memory for loading various programs, and a function as a work area. The non-volatile memory 66 and the main memory 68
Data is exchanged with each unit inside and outside the unit 0 via the main bus 82.

【0026】YC処理部70は、デジタル画像データに
YC変換を施し、輝度信号Yと色差(クロマ)信号B−
Y、R−Yを生成する。輝度信号と色差信号はメモリ制
御部64によってメインメモリ68に一旦格納される。
圧縮伸張処理部78はメインメモリ68から順次輝度信
号と色差信号を読み出して圧縮する。こうして圧縮され
たデータ(以下単に「圧縮データ」という)は、オプシ
ョン装置制御部74を介してオプション装置76の一種
であるメモリカードへ書き込まれる。
The YC processing unit 70 performs YC conversion on the digital image data, and outputs a luminance signal Y and a color difference (chroma) signal B-
Generate Y, RY. The luminance signal and the color difference signal are temporarily stored in the main memory 68 by the memory control unit 64.
The compression / decompression processing unit 78 sequentially reads out the luminance signal and the color difference signal from the main memory 68 and compresses them. The data thus compressed (hereinafter simply referred to as “compressed data”) is written to a memory card, which is a type of the optional device 76, via the optional device control section 74.

【0027】処理ユニット60はさらにエンコーダ72
をもつ。エンコーダ72は輝度信号と色差信号を入力
し、これらをビデオ信号(NTSCやPAL信号)に変
換してビデオ出力端子90から出力する。オプション装
置76に記録されたデータからビデオ信号を生成する場
合、そのデータはまずオプション装置制御部74を介し
て圧縮伸張処理部78へ与えられる。つづいて、圧縮伸
張処理部78で必要な伸張処理が施されたデータはエン
コーダ72によってビデオ信号へ変換される。
The processing unit 60 further includes an encoder 72
With. The encoder 72 receives a luminance signal and a color difference signal, converts them into a video signal (NTSC or PAL signal), and outputs the video signal from a video output terminal 90. When a video signal is generated from data recorded in the optional device 76, the data is first supplied to the compression / decompression processing unit 78 via the optional device control unit 74. Subsequently, the data subjected to the necessary expansion processing by the compression / expansion processing unit 78 is converted into a video signal by the encoder 72.

【0028】オプション装置制御部74は、オプション
装置76に認められる信号仕様およびメインバス82の
バス仕様にしたがい、メインバス82とオプション装置
76の間で必要な信号の生成、論理変換、または電圧変
換などを行う。デジタルカメラ10は、オプション装置
76として前述のメモリカードのほかに、例えばPCM
CIA準拠の標準的なI/Oカードをサポートしてもよ
い。その場合、オプション装置制御部74は、PCMC
IA用バス制御LSIなどで構成してもよい。
The optional device control unit 74 generates a necessary signal between the main bus 82 and the optional device 76, performs logical conversion, or converts voltage according to the signal specifications recognized by the optional device 76 and the bus specifications of the main bus 82. And so on. The digital camera 10 may include, for example, a PCM as an optional device 76 in addition to the above-described memory card.
A standard CIA-compliant standard I / O card may be supported. In that case, the optional device control unit 74
It may be constituted by an IA bus control LSI or the like.

【0029】通信I/F部80は、デジタルカメラ10
がサポートする通信仕様、たとえばUSB、RS−23
2C、イーサネット、Bluetooth、IrDAな
どの仕様に応じたプロトコル変換等の制御を行う。通信
I/F部80は、必要に応じてドライバICを含み、ネ
ットワークを含む外部機器とコネクタ92を介して通信
する。そうした標準的な仕様のほかに、例えばプリン
タ、カラオケ機、ゲーム機等の外部機器との間で独自の
I/Fによるデータ授受を行う構成としてもよい。
The communication I / F unit 80 is a digital camera 10
Communication specifications supported by, for example, USB, RS-23
It performs control such as protocol conversion according to specifications such as 2C, Ethernet, Bluetooth, and IrDA. The communication I / F unit 80 includes a driver IC as necessary, and communicates with an external device including a network via a connector 92. In addition to such standard specifications, data may be exchanged with an external device such as a printer, a karaoke machine, a game machine, or the like by a unique I / F.

【0030】表示ユニット100は、LCDモニタ10
2とLCDパネル104を有する。それらはLCDドラ
イバであるモニタドライバ106、パネルドライバ10
8によってそれぞれ制御される。LCDモニタ102
は、例えば2インチ程度の大きさでカメラ背面に設けら
れ、現在の撮影や再生のモード、撮影や再生のズーム倍
率、電池残量、日時、モード設定のための画面、被写体
画像などを表示する。LCDパネル104は例えば小さ
な白黒LCDでカメラ上面に設けられ、画質(FINE
/NORMAL/BASICなど)、ストロボ発光/発
光禁止、標準撮影可能枚数、画素数、電池容量などの情
報を簡易的に表示する。
The display unit 100 includes an LCD monitor 10
2 and an LCD panel 104. These are the LCD driver monitor driver 106, panel driver 10
8 respectively. LCD monitor 102
Is provided on the back of the camera with a size of, for example, about 2 inches, and displays a current shooting and playback mode, a zoom ratio for shooting and playback, a remaining battery level, a date and time, a screen for mode setting, a subject image, and the like. . The LCD panel 104 is, for example, a small black-and-white LCD provided on the upper surface of the camera and has an image quality (FINE).
/ NORMAL / BASIC etc.), information such as strobe light emission / non-light emission, standard number of recordable images, number of pixels, battery capacity, etc. are simply displayed.

【0031】操作ユニット110は、ユーザーがデジタ
ルカメラ10の動作やそのモードなどを設定または指示
するために必要な機構および電気部材を含む。パワース
イッチ112は、デジタルカメラ10の電源のオンオフ
を決める。レリーズスイッチ114は、半押しと全押し
の二段階押し込み構造になっている。一例として、半押
しでAFおよびAEがロックし、全押しで撮影画像の取
込が行われ、必要な信号処理、データ圧縮等の後、メイ
ンメモリ68、オプション装置76等に記録される。操
作ユニット110はこれらのスイッチの他、回転式のモ
ードダイヤルや十字キーなどによる設定を受け付けても
よく、それらは図1において機能設定部116と総称さ
れている。操作ユニット110で指定できる動作または
機能の例として、「ファイルフォーマット」、「特殊効
果」、「印画」、「決定/保存」、「表示切換」等があ
る。ズームスイッチ118は、ズーム倍率を決める。
The operation unit 110 includes mechanisms and electrical members necessary for the user to set or instruct the operation and mode of the digital camera 10. The power switch 112 determines whether the power of the digital camera 10 is turned on or off. The release switch 114 has a two-stage pressing structure of half pressing and full pressing. As an example, AF and AE are locked by a half-press, captured images are captured by a full-press, and are recorded in the main memory 68, the optional device 76, etc. after necessary signal processing, data compression, and the like. The operation unit 110 may receive a setting using a rotary mode dial, a cross key, or the like in addition to these switches, and these are collectively referred to as a function setting unit 116 in FIG. Examples of operations or functions that can be specified by the operation unit 110 include “file format”, “special effects”, “printing”, “determine / save”, and “display switching”. The zoom switch 118 determines a zoom magnification.

【0032】以上の構成による主な動作は以下のとおり
である。まずデジタルカメラ10のパワースイッチ11
2がオンされ、カメラ各部に電力が供給される。メイン
CPU62は、機能設定部116の状態を読み込むこと
で、デジタルカメラ10が撮影モードにあるか再生モー
ドにあるかを判断する。
The main operation of the above configuration is as follows. First, the power switch 11 of the digital camera 10
2 is turned on, and power is supplied to each part of the camera. The main CPU 62 determines whether the digital camera 10 is in the shooting mode or the playback mode by reading the state of the function setting unit 116.

【0033】カメラが撮影モードにあるとき、メインC
PU62はレリーズスイッチ114の半押し状態を監視
する。半押し状態が検出されたとき、メインCPU62
は測光センサ54および測距センサ52からそれぞれ測
光データと測距データを得る。得られたデータに基づい
て撮像制御ユニット40が動作し、撮影レンズ22のピ
ント、絞りなどの調整が行われる。調整が完了すると、
LCDモニタ102に「スタンバイ」などの文字を表示
してユーザーにその旨を伝え、つづいてレリーズスイッ
チ114の全押し状態を監視する。レリーズスイッチ1
14が全押しされると、所定のシャッタ時間をおいてシ
ャッタ26が閉じられ、CCD30の蓄積電荷が撮像信
号処理部32へ掃き出される。撮像信号処理部32によ
る処理の結果生成されたデジタル画像データはメインバ
ス82へ出力される。デジタル画像データは一旦メイン
メモリ68へ格納され、この後YC処理部70と圧縮伸
張処理部78で処理を受け、オプション装置制御部74
を経由してオプション装置76へ記録される。記録され
た画像は、フリーズされた状態でしばらくLCDモニタ
102に表示され、ユーザーは撮影画像を知ることがで
きる。以上で一連の撮影動作が完了する。
When the camera is in the shooting mode, the main C
The PU 62 monitors the half-pressed state of the release switch 114. When the half-pressed state is detected, the main CPU 62
Obtains photometry data and distance measurement data from the photometry sensor 54 and the distance measurement sensor 52, respectively. The imaging control unit 40 operates based on the obtained data, and the focus, aperture, and the like of the photographing lens 22 are adjusted. Once the adjustment is complete,
Characters such as "standby" are displayed on the LCD monitor 102 to inform the user of the fact, and then the state of the release switch 114 being fully pressed is monitored. Release switch 1
When the shutter 14 is fully pressed, the shutter 26 is closed after a predetermined shutter time, and the accumulated charges in the CCD 30 are swept out to the imaging signal processing unit 32. The digital image data generated as a result of the processing by the imaging signal processing unit 32 is output to the main bus 82. The digital image data is temporarily stored in the main memory 68, and then processed by the YC processing unit 70 and the compression / decompression processing unit 78.
Is recorded in the option device 76 via the. The recorded image is displayed on the LCD monitor 102 for a while in a frozen state, so that the user can know the captured image. Thus, a series of photographing operations is completed.

【0034】一方、デジタルカメラ10が再生モードの
場合、メインCPU62は、メモリ制御部64を介して
メインメモリ68から最後に撮影した画像を読み出し、
これを表示ユニット100のLCDモニタ102へ表示
する。この状態でユーザーが機能設定部116にて「順
送り」、「逆送り」を指示すると、現在表示している画
像の前後に撮影された画像が読み出され、LCDモニタ
102へ表示される。
On the other hand, when the digital camera 10 is in the reproduction mode, the main CPU 62 reads out the last photographed image from the main memory 68 via the memory control unit 64,
This is displayed on the LCD monitor 102 of the display unit 100. In this state, when the user instructs “forward” or “reverse” on the function setting unit 116, images taken before and after the currently displayed image are read and displayed on the LCD monitor 102.

【0035】本実施形態において、撮像ユニット20
は、被写体の画像、特に被写体の視差画像を撮像する。
図2は、デジタルカメラ10の撮像ユニット20の撮影
レンズ22及び固体撮像素子の一例であるCCD30の
構成の一例である。図において撮像ユニット20に含ま
れる他の構成要素は省略し、撮像ユニット20の撮影レ
ンズ22及びCCD30の構成のみを示す。この例で
は、撮影レンズ22とCCD30が2つ設けられ、それ
ぞれの撮影レンズ22が結像する被写体の像がCCD3
0に受光される。CCD30は2つ設ける必要はなく、
2つの撮影レンズ22が結像する被写体の像を受光でき
る共通のCCD30を1つ設けてもよい。
In this embodiment, the imaging unit 20
Captures an image of a subject, particularly a parallax image of the subject.
FIG. 2 is an example of the configuration of the imaging lens 22 of the imaging unit 20 of the digital camera 10 and the CCD 30 that is an example of the solid-state imaging device. In the figure, other components included in the imaging unit 20 are omitted, and only the configuration of the imaging lens 22 and the CCD 30 of the imaging unit 20 is shown. In this example, two photographing lenses 22 and two CCDs 30 are provided, and an image of a subject formed by each photographing lens 22 is a CCD3.
0 is received. There is no need to provide two CCDs 30,
One common CCD 30 that can receive the image of the subject formed by the two photographing lenses 22 may be provided.

【0036】撮影レンズ22は、視野角の広い光学レン
ズであることが望ましく、広角レンズまたは魚眼レンズ
等であってもよい。魚眼レンズは視野角が180度に達
するように設計されており、広い視野の被写体を撮影す
る上で最も好ましい。
The photographing lens 22 is preferably an optical lens having a wide viewing angle, and may be a wide-angle lens or a fish-eye lens. The fisheye lens is designed to have a viewing angle of 180 degrees, and is most preferable for capturing an object with a wide field of view.

【0037】本実施形態のCCD30は、固体撮像素子
の一例である。固体撮像素子は、半導体化および集積化
された撮像素子で、構造上、半導体基板上に光電変換と
電荷の蓄積機能をもった画素群を二次元的に配列したも
のである。固体撮像素子は、撮影レンズ22によって結
像された光を受光し、光電変換作用によって電荷を蓄積
する。蓄積された電荷像は一定の順序に走査され、電気
信号として読み出される。
The CCD 30 of this embodiment is an example of a solid-state image sensor. A solid-state imaging device is a semiconductorized and integrated imaging device, and is a two-dimensionally arranged pixel group having a function of photoelectric conversion and charge accumulation on a semiconductor substrate in terms of structure. The solid-state imaging device receives light formed by the imaging lens 22 and accumulates electric charges by a photoelectric conversion action. The stored charge images are scanned in a certain order and read out as electric signals.

【0038】固体撮像素子は、基本的に、外部から入射
する光を受光して光電変換を行うための受光素子部を含
む半導体素子と、半導体素子を収納するパッケージと、
受光素子部への光の入射を可能にするため、パッケージ
の半導体素子と対向する位置に配置された透明保護部材
と、透明保護部材の外側表面あるいは内側において、透
明保護部材よりも高い遮光性を有する遮光部材から構成
されていることが好ましい。これにより、撮像される画
像の品質を向上させることができる。さらに透明保護部
はマイクロレンズの機能を持つことにより、結像される
画像の解像度を向上させてもよい。受光素子部と透明保
護部の間に、または、透明保護部の上または透明保護部
中にカラーフィルタを設け、カラーの画像を撮像できる
ようにしてもよい。
The solid-state image sensor basically includes a semiconductor element including a light receiving element for receiving light incident from the outside and performing photoelectric conversion, a package accommodating the semiconductor element,
In order to enable light to enter the light receiving element, a transparent protective member disposed at a position facing the semiconductor element of the package, and a light shielding property higher than the transparent protective member on the outer surface or inside of the transparent protective member. It is preferable that the light-shielding member is formed from a light-shielding member having the light-shielding member. Thereby, the quality of the captured image can be improved. Further, the transparent protective portion may have a function of a microlens to improve the resolution of an image to be formed. A color filter may be provided between the light receiving element section and the transparent protection section, or on or in the transparent protection section, so that a color image can be captured.

【0039】本実施形態のCCD30は、視差画像にお
ける視差を正確に検出できるように、解像度が十分に高
い電荷結合素子(CCD)1次元イメージセンサ(リニ
アセンサ)又は2次元イメージセンサ(エリアセンサ)
イメージセンサであることが望ましい。固体撮像素子と
してCCD以外に、MOSイメージセンサ、CdS−S
e密着型イメージセンサ、a−Si(アモルファスシリ
コン)密着型イメージセンサ、又はバイポーラ密着型イ
メージセンサのいずれかを用いてもよい。
The CCD 30 of this embodiment is a charge-coupled device (CCD) having a sufficiently high resolution, a one-dimensional image sensor (linear sensor) or a two-dimensional image sensor (area sensor), so that parallax in a parallax image can be accurately detected.
An image sensor is desirable. MOS image sensor, CdS-S other than CCD as solid-state image sensor
Any of an e-contact image sensor, an a-Si (amorphous silicon) contact image sensor, or a bipolar contact image sensor may be used.

【0040】図3は、撮像ユニット20の撮影レンズ2
2及びCCD30の構成の他の例である。この例では、
撮影レンズ22が1つ設けられ、レンズ駆動部42が撮
影レンズ22を移動させて、被写体を異なる視点から見
た場合の視差画像をCCD30に撮像する。
FIG. 3 shows the photographing lens 2 of the image pickup unit 20.
2 is another example of the configuration of the CCD 30. In this example,
One photographing lens 22 is provided, and the lens driving unit 42 moves the photographing lens 22 to capture a parallax image when the subject is viewed from a different viewpoint on the CCD 30.

【0041】図4は、撮像ユニット20の撮影レンズ2
2及びCCD30の構成の他の例である。撮影レンズ2
2は本撮影用と視差撮影用に2つ設けられ、本撮影用の
撮影レンズ22は、被写体の画像をCCD30に撮像
し、視差撮影用の撮影レンズ22は、被写体の視差画像
をCCD30に撮像する。本撮影用の撮影レンズ22
は、標準の光学レンズであってもよく、視野角の広い広
角レンズまたは魚眼レンズであってもよい。視差撮影用
の撮影レンズ22は、視差画像を撮像するために、レン
ズ駆動部42によって位置が移動する。本撮影用の撮影
レンズ22が像を受光させるCCD30と、視差撮影用
の撮影レンズ22が像を受光させるCCD30とで、C
CDの解像度や感度が異なっていてもよい。
FIG. 4 shows the photographing lens 2 of the image pickup unit 20.
2 is another example of the configuration of the CCD 30. Shooting lens 2
2 is provided for main photographing and parallax photographing. A photographing lens 22 for main photographing captures an image of a subject on the CCD 30, and a photographing lens 22 for parallax photographing captures a parallax image of the subject on the CCD 30. I do. Shooting lens 22 for actual shooting
May be a standard optical lens, a wide-angle lens with a wide viewing angle, or a fish-eye lens. The position of the imaging lens 22 for parallax imaging is moved by the lens driving unit 42 in order to capture a parallax image. The CCD 30 for allowing the photographing lens 22 for main photographing to receive an image and the CCD 30 for allowing the photographing lens 22 for parallax photographing to receive an image have a C
The resolution and sensitivity of the CD may be different.

【0042】本実施形態の処理ユニット60は、撮像ユ
ニット20が撮像した被写体の視差画像に基づいて、被
写体の奥行き情報を獲得する。図5は、処理ユニット6
0の機能ブロック図である。処理ユニット60は、視差
画像記憶部302と、位置ずれ検出部304と、大きさ
比検出部306と、奥行き算出部308と、記録部31
0とを有する。
The processing unit 60 of this embodiment acquires depth information of a subject based on a parallax image of the subject captured by the imaging unit 20. FIG. 5 shows the processing unit 6.
0 is a functional block diagram. The processing unit 60 includes a parallax image storage unit 302, a displacement detection unit 304, a size ratio detection unit 306, a depth calculation unit 308, and a recording unit 31.
0.

【0043】視差画像記憶部302は、撮像ユニット2
0が撮像した被写体の複数の視差画像を記憶する。位置
ずれ検出部304は、視差画像記憶部302が記憶する
複数の視差画像において、被写体の特定領域の像の位置
が視差によってずれる量を検出する。大きさ比検出部3
06は、視差画像記憶部302が記憶する視差画像にお
いて、被写体の特定領域の像の大きさが視差によって変
化する比率を検出する。
The parallax image storage unit 302 includes the imaging unit 2
0 stores a plurality of parallax images of the captured subject. The displacement detection unit 304 detects an amount by which the position of the image of the specific area of the subject shifts due to the parallax in the plurality of parallax images stored in the parallax image storage unit 302. Size ratio detector 3
Reference numeral 06 denotes a ratio in the parallax image stored in the parallax image storage unit 302, at which the size of the image of the specific region of the subject changes due to the parallax.

【0044】奥行き算出部308は、位置ずれ検出部3
04が検出した位置ずれと、大きさ比検出部306が検
出した大きさ比とを用いて、被写体の特定領域の奥行き
値を算出する。
The depth calculator 308 is provided with the position shift detector 3
The depth value of the specific region of the subject is calculated using the position shift detected by the position detection unit 04 and the size ratio detected by the size ratio detection unit 306.

【0045】位置ずれ検出部304、大きさ比検出部3
06、及び奥行き算出部308によって、視差画像に撮
像された被写体の一部の領域または全部の領域につい
て、被写体の奥行き値が算出される。
The position shift detector 304 and the size ratio detector 3
06, and the depth calculation unit 308 calculates the depth value of the subject with respect to a partial region or the entire region of the subject captured in the parallax image.

【0046】奥行き算出部308は算出した被写体の奥
行き情報を撮像制御ユニット40へ入力し、撮像制御ユ
ニット40は、被写体の奥行き情報に基づいて、フォー
カス駆動部44、絞り駆動部46及びシャッタ駆動部4
8を制御して、フォーカス、絞り、シャッター速度を調
整してもよい。
The depth calculation unit 308 inputs the calculated depth information of the subject to the imaging control unit 40, and the imaging control unit 40 executes the focus driving unit 44, the aperture driving unit 46, and the shutter driving unit based on the depth information of the subject. 4
8 may be controlled to adjust the focus, aperture, and shutter speed.

【0047】記録部310は、奥行き算出部308が算
出した被写体の奥行き情報、及び視差画像記憶部302
が記憶する被写体の視差画像をオプション装置76に記
録させる。
The recording section 310 stores the depth information of the subject calculated by the depth calculation section 308 and the parallax image storage section 302.
Is recorded in the optional device 76.

【0048】処理ユニット60の位置ずれ検出部30
4、大きさ比検出部306、及び奥行き算出部308の
機能は一例として、図1のメインCPU62と、メイン
メモリ68や不揮発性メモリ66に格納またはロードさ
れたプログラムとの連携によって実現することができ
る。メインCPU62が内蔵メモリをもつ場合にはその
メモリに必要なプログラムを格納し、諸機能をファーム
ウエアとして実現してもよい。処理ユニット60の視差
画像記憶部302が記憶すべき視差画像データは、メイ
ンメモリ68または不揮発性メモリ66に記憶させるこ
とができる。また視差画像データは圧縮伸張処理部78
によって圧縮されてもよい。処理ユニット60の記録部
310の機能は一例として、オプション装置制御部74
によって実現することができる。また、ユーザの指示を
受け付ける操作ユニット110が被写体の画像の特定領
域を処理ユニット60に指示し、奥行き算出部308
は、ユーザが指定する特定領域について奥行き値を算出
してもよい。デジタルカメラ10において処理ユニット
60の上述の機能を実現する設計には相当の自由度があ
る。
The displacement detector 30 of the processing unit 60
4. As an example, the functions of the size ratio detection unit 306 and the depth calculation unit 308 can be realized by cooperation of the main CPU 62 of FIG. 1 with a program stored or loaded in the main memory 68 or the nonvolatile memory 66. it can. When the main CPU 62 has a built-in memory, necessary programs may be stored in the memory and various functions may be realized as firmware. The parallax image data to be stored in the parallax image storage unit 302 of the processing unit 60 can be stored in the main memory 68 or the nonvolatile memory 66. The parallax image data is supplied to the compression / decompression processing unit 78.
May be compressed. The function of the recording unit 310 of the processing unit 60 is, for example, an optional device control unit 74.
It can be realized by. Further, the operation unit 110 that receives the user's instruction instructs the processing unit 60 to specify the specific area of the image of the subject, and the depth calculation unit 308
May calculate a depth value for a specific area specified by the user. There is considerable flexibility in designing the digital camera 10 to implement the above functions of the processing unit 60.

【0049】次に、撮影レンズ22の最も望ましい形態
である、視野角の広い光学レンズの一例としての魚眼レ
ンズのレンズ特性を説明する。図6は、魚眼レンズ32
0が結像する被写体の点の入射角θと、全方位画像32
2における被写体の点の像の位置との関係を説明する図
である。魚眼レンズ320の中心はxy平面の原点の位
置にある。被写体の点の方位は、被写体の点から魚眼レ
ンズ320への入射光が魚眼レンズ320の光軸となす
入射角θで表される。入射角θは被写体の点の半画角で
ある。全方位画像322の中心はXY平面の原点の位置
にある。被写体の点の全方位画像322上での位置を、
XY平面の原点からの距離rで表す。この距離rは像高
とも呼ばれる。魚眼レンズの焦点距離をfとすると、被
写体の点の位置rと入射角θの間には、r=f・θの関
係がある。
Next, lens characteristics of a fisheye lens as an example of an optical lens having a wide viewing angle, which is the most desirable form of the taking lens 22, will be described. FIG. 6 shows a fisheye lens 32.
0 is the incident angle θ of the object point to be imaged, and the omnidirectional image 32
FIG. 4 is a diagram for explaining the relationship between the position of an image of a subject point and the position of the subject in FIG. The center of the fisheye lens 320 is located at the origin of the xy plane. The azimuth of the point of the subject is represented by an incident angle θ formed by the light incident on the fisheye lens 320 from the point of the subject and the optical axis of the fisheye lens 320. The incident angle θ is a half angle of view of a point of the subject. The center of the omnidirectional image 322 is at the position of the origin on the XY plane. The position of the object point on the omnidirectional image 322 is
It is represented by a distance r from the origin of the XY plane. This distance r is also called an image height. Assuming that the focal length of the fisheye lens is f, there is a relationship of r = f · θ between the position r of the point of the subject and the incident angle θ.

【0050】このように、魚眼レンズは、視野角が18
0度であり、被写体の全方位の画像を撮像面に結像する
ことができる。特に、被写体の点の位置rと入射角θの
間に成り立つレンズ特性を示す関係式がr=f・θとな
る魚眼レンズは「fθレンズ」と呼ばれ、広く用いられ
ている。撮影レンズ22として、fθレンズの代わり
に、レンズ特性を示す関係式がr=f・sinθとなる
「fsinθレンズ」と呼ばれる魚眼レンズを用いても
よい。また、一般に位置rが入射角θに対して単調に増
加し、被写体の全方位の領域の点が、有限の位置rに撮
像される魚眼レンズであればよく、必ずしもfθレン
ズ、fsinθレンズの特性を示す魚眼レンズでなくて
もよい。魚眼レンズは視野角が180度に達するように
設計されており、広い視野の被写体を撮影する上で最も
好ましい。しかし、撮影レンズ22は、視野角が十分に
広く、広い視野にわたって被写体を撮像することができ
る光学レンズであれば、必ずしも魚眼レンズである必要
はなく、視野角の広い広角レンズを用いてもよい。
As described above, the fisheye lens has a viewing angle of 18
It is 0 degrees, and an omnidirectional image of the subject can be formed on the imaging surface. In particular, a fisheye lens in which a relational expression indicating a lens characteristic satisfying a position r of a point of a subject and an incident angle θ satisfies r = f · θ is called an “fθ lens” and is widely used. Instead of the fθ lens, a fish-eye lens called “fsin θ lens” in which a relational expression indicating lens characteristics is r = f · sin θ may be used as the taking lens 22. In general, the position r monotonically increases with respect to the incident angle θ, and a point in the omnidirectional region of the subject may be a fisheye lens that is imaged at a finite position r, and the characteristics of the fθ lens and fsin θ lens are not necessarily required. The fisheye lens need not be shown. The fisheye lens is designed to have a viewing angle of 180 degrees, and is most preferable for capturing an object with a wide field of view. However, the taking lens 22 is not necessarily a fisheye lens as long as it is an optical lens having a sufficiently wide viewing angle and capable of imaging an object over a wide field of view, and a wide-angle lens having a wide viewing angle may be used.

【0051】図7は、2つの魚眼レンズを用いて被写体
を見た場合の視差の説明図である。魚眼レンズ324及
び326は、それぞれ点L、Rの位置を視点位置とする
ように置かれている。点Lと点Rは距離2dだけ離れて
いる。線328及び330はそれぞれ魚眼レンズ324
及び326の光軸である。点L、Rの中点を点Oとす
る。被写体の奥行き値は、点Oからの距離によって定義
する。被写体の点Aの奥行き値は、線分OAの長さZで
ある。また線分OAが、点Oから引いた垂線329とな
す角をθとする。角θは点Oから点Aを見た場合の点A
の方位角(半画角)である。
FIG. 7 is an explanatory diagram of parallax when an object is viewed using two fisheye lenses. The fisheye lenses 324 and 326 are placed so that the positions of the points L and R are the viewpoint positions. Point L and point R are separated by a distance 2d. Lines 328 and 330 are fisheye lens 324, respectively.
And 326 are optical axes. The midpoint between points L and R is point O. The depth value of the subject is defined by the distance from the point O. The depth value of the point A of the subject is the length Z of the line segment OA. The angle formed by the line segment OA and the perpendicular 329 drawn from the point O is defined as θ. Angle θ is point A when point A is viewed from point O
(Half angle of view).

【0052】線分LAが魚眼レンズ324の光軸328
となす角、すなわち点Aの魚眼レンズ324への入射角
をθ1とし、線分RAが魚眼レンズ326の光軸330
となす角、すなわち点Aの魚眼レンズ326への入射角
をθ2とする。入射角θ1は視点Lから点Aを見た場合
の点Aの方位、入射角θ2は視点Rから点Aを見た場合
の点Aの方位である。視点が異なるために、点Aの方位
に差θ1−θ2が生じる。これを視差角と呼ぶ。線分L
Aと線分RAのなす角をθAとすると、θA=θ1−θ
2であるから、便宜上、θAを、点Aを異なる視点L、
Rから見た場合の視差角と考えてもよい。
The line segment LA is the optical axis 328 of the fisheye lens 324.
, The incident angle of the point A to the fisheye lens 324 is θ1, and the line segment RA is the optical axis 330 of the fisheye lens 326.
, That is, the angle of incidence of the point A on the fisheye lens 326 is θ2. The incident angle θ1 is the azimuth of point A when viewing point A from viewpoint L, and the incident angle θ2 is the azimuth of point A when viewing point A from viewpoint R. Since the viewpoints are different, a difference θ1−θ2 occurs in the azimuth of the point A. This is called a parallax angle. Line segment L
Assuming that the angle between A and the line segment RA is θA, θA = θ1−θ
For convenience, θA is defined as point A, and point A is defined as a different viewpoint L,
It may be considered as a parallax angle when viewed from R.

【0053】魚眼レンズ322及び324がfθレンズ
である場合、像高rと入射角θの間にr=f・θの関係
が成立するので、視点L、Rから点Aを見た場合の像高
、rの差と、入射角θ1、θ2の差との間には、
次の比例関係
When the fisheye lenses 322 and 324 are fθ lenses, the relationship of r = f · θ is established between the image height r and the incident angle θ, so that the image height when the point A is viewed from the viewpoints L and R is obtained. Between the difference between r L and r R and the difference between the incident angles θ1 and θ2,
Next proportional relationship

【0054】r−r=f・(θ1−θ2) が成り立つ。The following holds: r L −r R = f · (θ1−θ2)

【0055】したがって、魚眼レンズ324及び326
で写した視差画像において、点Aの像高の差r−r
を検出すると、魚眼レンズの焦点距離fが既知である場
合、入射角の差θ1−θ2を計算することができ、視差
角θAを算出できる。
Therefore, the fisheye lenses 324 and 326
In the parallax image captured by the above, the image height difference r L −r R of the point A
Is detected, if the focal length f of the fisheye lens is known, the difference θ1−θ2 between the incident angles can be calculated, and the parallax angle θA can be calculated.

【0056】次に、視差角θAと奥行き値Z、方位角θ
の間に成り立つ関係式を導く。角LAOをθL、角RA
OをθRとおく。3角形LAH及び3角形RAHに注目
すると、
Next, the parallax angle θA, the depth value Z, and the azimuth angle θ
A relational expression that satisfies is derived. Angle LAO is θL, angle RA
Let O be θR. Focusing on triangular LAH and triangular RAH,

【0057】tan(θ+θL)=(Z・sinθ+
d)/(Z・cosθ) tan(θ−θR)=(Z・sinθ−d)/(Z・c
osθ) が成り立つ。
Tan (θ + θL) = (Z · sin θ +
d) / (Z · cos θ) tan (θ−θR) = (Z · sin θ−d) / (Z · c
os θ) holds.

【0058】したがって、視差角θAは、 θA=θL+θR =tan−1(Z・sinθ+d)/(Z・cosθ) −tan−1(Z・sinθ−d)/(Z・cosθ) (1) と書ける。Therefore, the parallax angle θA can be written as θA = θL + θR = tan −1 (Z · sin θ + d) / (Z · cos θ) −tan −1 (Z · sin θ−d) / (Z · cos θ) (1) .

【0059】図8は、視差角θAの式(1)のグラフで
ある。視点間距離2d、及び奥行き値Zをある値に固定
して、方位角θの値を変えて、視差角θAの値をグラフ
にした。方位角θ=0のとき、視差角θAは最大であ
る。方位角θ=π/2のとき、視差角θAは0になる。
FIG. 8 is a graph of equation (1) for the parallax angle θA. The value of the parallax angle θA was graphed by changing the value of the azimuth angle θ while fixing the inter-viewpoint distance 2d and the depth value Z to certain values. When the azimuth angle θ = 0, the parallax angle θA is the maximum. When the azimuth θ = π / 2, the parallax angle θA becomes 0.

【0060】図8のグラフから明らかなように、魚眼レ
ンズの並びの横方向に近い領域にある被写体に対して
は、視差角が非常に小さくなるため、視差画像上での像
の位置のずれは極めて小さくなる。図9は、被写体の視
差角の大きさの違いを説明する図である。点A、Bのよ
うに、方位角θが0に近い領域にある被写体の点につい
ては視差角θA、θBが十分に大きく、視差画像上での
像の位置のずれを検出することは容易である。点Aより
も点Bの方が視差角が大きいから、位置ずれも大きい。
これは点Oからの距離が近い被写体ほど、視差画像上で
の像の位置ずれが大きいことを意味する。点C、Dのよ
うに、方位角θがπ/2に近い領域にある被写体の点に
ついては視差角θC、θDは小さく、視差画像上での像
の位置のずれを検出することは困難になる。点Cよりも
点Dの方が視差角がさらに小さくなっており、点Oから
の距離が遠い被写体ほど、視差画像上での像の位置ずれ
が小さくなる。
As is clear from the graph of FIG. 8, the parallax angle becomes very small for an object located in a region close to the horizontal direction of the array of fisheye lenses, so that the displacement of the image position on the parallax image is small. Extremely small. FIG. 9 is a diagram illustrating the difference in the magnitude of the parallax angle of the subject. For points of the subject in an area where the azimuth angle θ is close to 0, such as points A and B, the parallax angles θA and θB are sufficiently large, and it is easy to detect the displacement of the image position on the parallax image. is there. Since the parallax angle of the point B is larger than that of the point A, the positional deviation is larger.
This means that the closer the subject is from the point O, the greater the displacement of the image on the parallax image. For points of the subject such as points C and D in which the azimuth angle θ is close to π / 2, the parallax angles θC and θD are small, and it is difficult to detect the displacement of the image position on the parallax image. Become. The parallax angle of the point D is smaller than that of the point C, and the position of the image on the parallax image is smaller for a subject farther from the point O.

【0061】このように魚眼レンズの並びの横方向に
は、視差画像において位置のずれが小さくなる領域が存
在する。この領域を「死角」領域と呼ぶ。死角領域で
は、位置ずれによって、被写体の奥行き値を求めること
は困難であるため、別の方法を用いて奥行き値を求め
る。魚眼レンズの横方向では、視差画像において、被写
体のある部分領域の大きさが変化することを用いる。
As described above, in the horizontal direction of the arrangement of the fisheye lenses, there is an area where the positional deviation is small in the parallax image. This area is called a “blind spot” area. In the blind spot area, it is difficult to obtain the depth value of the subject due to the positional shift. Therefore, the depth value is obtained using another method. In the horizontal direction of the fisheye lens, the fact that the size of a partial area where a subject is present changes in a parallax image is used.

【0062】図10は、異なる視点から被写体の領域を
見た場合の大きさの違いを説明する図である。被写体の
特定領域332は図の位置にあり、特定領域332上の
ある1点をCとする。点Oから見た点Cの方位角をθと
する。魚眼レンズ324が撮像面334に特定領域33
2を結像した像の大きさをSとする。魚眼レンズ32
6が撮像面336に特定領域332を結像した像の大き
さをSとする。視点L、視点Rから特定領域332を
見た場合の見かけの角度をそれぞれθ、θとする。
また、点Oから点Cまでの距離をZとし、点L、Rから
点Cまでの距離をそれぞれZ、Zとする。
FIG. 10 is a diagram for explaining a difference in size when the subject area is viewed from different viewpoints. The specific area 332 of the subject is at the position shown in the figure, and a certain point on the specific area 332 is C. The azimuth angle of the point C viewed from the point O is defined as θ. The fisheye lens 324 is located on the imaging surface 334 in the specific area 33.
Let SL be the size of the image formed by imaging No. 2. Fisheye lens 32
6 the size of the image obtained by imaging the particular region 332 to the imaging surface 336 and S R. Apparent angles when the specific region 332 is viewed from the viewpoint L and the viewpoint R are θ L and θ R , respectively.
Further, the distance from point O to the point C is Z, the point L, respectively the distance R to the point C Z L, and Z R.

【0063】異なる視点位置L、Rで特定領域332を
見た場合に、見かけの角度θ、θ 、像の大きさ
、Sには違いが生じる。fθレンズの特性から
A specific area 332 is created at different viewpoint positions L and R.
When viewed, the apparent angle θL, Θ R, The size of the statue
SL, SRMakes a difference. From the characteristics of fθ lens

【0064】S=f・θ, S=f・θ が成り立つ。したがってSL= F · θL, SR= F · θR  Holds. Therefore

【0065】 S/S=θ/θ (2) であり、像の大きさの比S/Sは見かけの角度の比
θ/θに等しい。
S L / S R = θ L / θ R (2), and the image size ratio S L / S R is equal to the apparent angle ratio θ L / θ R.

【0066】一方、被写体までの距離と、見かけの角度
との間には反比例の関係があり、距離が近いほど、見か
けの角度が大きくなる。したがって、距離の比Z/Z
は見かけの角度の比θ/θの逆数に等しい。すな
わち
On the other hand, there is an inverse relationship between the distance to the subject and the apparent angle, and the closer the distance, the larger the apparent angle. Therefore, the distance ratio Z L / Z
R is equal to the reciprocal of the apparent angle ratio θ L / θ R. Ie

【0067】 Z/Z=θ/θ (3) である。したがって(2)、(3)より、Z L / Z R = θ R / θ L (3) Therefore, from (2) and (3),

【0068】 S/S=Z/Z (4) が成り立ち、像の大きさの比S/Sは距離の比Z
/Zの逆数である。これにより、視差画像における像
の大きさの比を検出すれば、距離の比を算出できる。
S L / S R = Z R / Z L (4), and the image size ratio S L / S R is the distance ratio Z L
/ Z R is the reciprocal of R. Thus, the distance ratio can be calculated by detecting the image size ratio in the parallax image.

【0069】次に距離比Z/Z、被写体の奥行き値
Z、及び視点間距離2dの間に成り立つ関係式を導く。
図11は、異なる視点から見た場合の被写体の点までの
距離の違いを説明する図である。点Cは図10の被写体
の特定領域332の1点である。図10と同じ記号を用
いて説明する。3角形CRH及び3角形CLHに注目す
ると、
Next, a relational expression that satisfies the distance ratio Z L / Z R , the subject depth value Z, and the viewpoint distance 2d is derived.
FIG. 11 is a diagram illustrating a difference in distance to a point of a subject when viewed from different viewpoints. Point C is one point in the specific area 332 of the subject in FIG. Description will be made using the same symbols as in FIG. Paying attention to the triangle CRH and the triangle CLH,

【0070】 Z =(Z・cosθ)+(Z・sinθ−d) =(Z・cosθ)+(Z・sinθ+d) が成り立つ。これより、距離の比Z/ZZ R 2 = (Z · cos θ) 2 + (Z · sin θ−d) 2 Z L 2 = (Z · cos θ) 2 + (Z · sin θ + d) 2 holds. From this, the distance ratio Z L / Z R is

【0071】 (Z/Z={(Z・cosθ)+(Z・sinθ+d)} /{(Z・cosθ)+(Z・sinθ−d)} (5) と書ける。したがって、(4)、(5)により、像の大
きさ比を検出すると、被写体の方位角θ、視点間距離2
dから、被写体の奥行き値を算出することができる。
(Z L / Z R ) 2 = {(Z · cos θ) 2 + (Z · sin θ + d) 2 } / {(Z · cos θ) 2 + (Z · sin θ−d) 2 } (5) . Therefore, when the image size ratio is detected by (4) and (5), the azimuth angle θ of the subject and the inter-viewpoint distance 2
From d, the depth value of the subject can be calculated.

【0072】図12は、像の大きさ比S/Sのグラ
フである。式(4)、(5)により定まる大きさ比S
/Sの式において、dが50ミリメートルであり、Z
が100、200、400、800ミリメートルのいず
れかである場合に、方位角θの値を変えて、大きさ比S
/Sの変化をグラフにした。図から明らかなよう
に、方位角θ=0の場合には、左右の魚眼レンズで見た
場合の大きさ比は1であり、視差画像において像の大き
さは同じである。方位角θ=π/2の場合には、大きさ
比が1より小さくなり、視差画像において像の大きさに
違いが生じる。
FIG. 12 is a graph of the image size ratio S L / S R. The size ratio S L determined by equations (4) and (5)
/ S in the formula of R, d is 50 mm, Z
Is 100, 200, 400, or 800 millimeters, the value of the azimuth angle θ is changed and the magnitude ratio S
And the change in the L / S R in the graph. As is clear from the figure, when the azimuth angle θ = 0, the size ratio when viewed with the left and right fisheye lenses is 1, and the size of the image in the parallax image is the same. When the azimuth angle θ = π / 2, the size ratio becomes smaller than 1 and a difference occurs in the size of the image in the parallax image.

【0073】このように、魚眼レンズの並びの横方向で
は、視差画像において像の大きさが大きく異なるので、
大きさ比から奥行き値を容易に算出できる。一方、方位
角θが0に近い領域では、視差画像において像の大きさ
にほとんど違いがないため、大きさ比から奥行き値を求
めることは困難になる。
As described above, in the horizontal direction of the arrangement of the fisheye lenses, the size of the image in the parallax image is greatly different.
The depth value can be easily calculated from the size ratio. On the other hand, in a region where the azimuth angle θ is close to 0, there is almost no difference in the size of the image in the parallax image, so that it is difficult to obtain the depth value from the size ratio.

【0074】像の位置のずれ及び像の大きさの比につい
て、以上述べたことより、方位角θが0に近い領域で
は、位置ずれの検出が容易であるが、大きさ比の検出が
困難である。一方、方位角θがπ/2に近い領域では、
大きさ比の検出が容易であるが、位置ずれの検出が困難
である。
As described above, regarding the displacement of the image position and the ratio of the image size, in the region where the azimuth angle θ is close to 0, it is easy to detect the positional deviation, but it is difficult to detect the size ratio. It is. On the other hand, in the region where the azimuth angle θ is close to π / 2,
Although it is easy to detect the size ratio, it is difficult to detect the displacement.

【0075】次に、位置ずれと大きさ比の関係を調べ
る。図13は、位置ずれと大きさ比の関係を天球上で説
明した図である。天球は視野の無限遠方であり、図では
上半球のみ示す。魚眼レンズ324、326の視点L、
Rの中点Oを通り、直線LRに垂直な平面を半円350
とする。また、視点L、Rを結ぶ直線と天球が交わる点
を点352及び354とする。
Next, the relationship between the displacement and the size ratio will be examined. FIG. 13 is a diagram illustrating the relationship between the displacement and the size ratio on a celestial sphere. The celestial sphere is at infinity in the field of view, and only the upper hemisphere is shown in the figure. The viewpoint L of the fisheye lenses 324 and 326,
A plane passing through the midpoint O of R and perpendicular to the straight line LR is a semicircle 350
And The points where the straight line connecting the viewpoints L and R intersect with the celestial sphere are points 352 and 354.

【0076】天球において、被写体の点を中点Oから見
た場合の方位角θは、被写体の点と中点Oを結ぶ直線が
半円350となす角である。方位角θが0(ゼロ)とな
る領域では、位置ずれが最も強く現れ、大きさ比が完全
に消失する。この領域は半円350である。
In the celestial sphere, the azimuth θ when the point of the subject is viewed from the midpoint O is the angle formed by a straight line connecting the point of the subject and the midpoint O with the semicircle 350. In a region where the azimuth angle θ is 0 (zero), the positional deviation appears most strongly, and the size ratio completely disappears. This area is a semicircle 350.

【0077】一方、中点Oから見た場合の方位角θがπ
/2すなわち直角である領域では、大きさ比が最も強く
現れ、位置ずれが完全に消失する。この領域は、点35
2と視点Rを結ぶ線分、及び点354と視点Lを結ぶ線
分上の点である。
On the other hand, the azimuth θ when viewed from the midpoint O is π
/ 2, that is, a region at a right angle, the size ratio appears most strongly, and the positional displacement completely disappears. This area is the point 35
2 and a point on the line segment connecting the point 354 and the viewpoint L.

【0078】位置ずれ及び大きさ比の値は、視点L、R
を結ぶ直線、すなわちx軸の周りで対称である。半円3
50と平行な面で天球を切った場合の断面を考えると、
この断面は半円であり、半円の円周上の点は同一の位置
ずれ、大きさ比の値を持つ。したがって、位置ずれ及び
大きさ比の値は、x軸を通る任意の平面で天球を切った
断面で、議論することができる。x軸を通る平面の一例
として天球の地平面であるxy平面を考える。
The values of the displacement and the size ratio are determined by the viewpoints L and R.
, Ie, symmetric about the x-axis. Half circle 3
Considering the cross section when the celestial sphere is cut on a plane parallel to 50,
This cross section is a semicircle, and points on the circumference of the semicircle have the same positional deviation and size ratio values. Therefore, the values of the displacement and the size ratio can be discussed in a section obtained by cutting the celestial sphere at an arbitrary plane passing through the x-axis. As an example of a plane passing through the x-axis, an xy plane, which is a ground plane of a celestial sphere, is considered.

【0079】図14は、位置ずれと大きさ比の関係をx
y平面で説明した図である。被写体の点Aが方位角θの
方位にあるとして、3角形OAHをx軸の周りに回転し
てできる円錐を考える。このように、ある方位角θが決
められたとき、円錐の頂点を中点Oとし、円錐角がπ/
2−θである円錐が規定される。
FIG. 14 shows the relationship between the displacement and the size ratio by x.
It is the figure demonstrated in the y-plane. Consider a cone formed by rotating the triangle OAH around the x-axis, assuming that the point A of the subject is at the azimuth θ. Thus, when a certain azimuth angle θ is determined, the vertex of the cone is set to the midpoint O, and the cone angle is π /
A cone that is 2-θ is defined.

【0080】方位角θがπ/2に近い場合、円錐内の点
はx軸の近傍の領域にある。この円錐内の点について
は、大きさ比が強く現れ、位置ずれはほとんど消失す
る。一方、方位角θが0に近い場合、円錐角がπ/2で
あり、円錐内にはy軸近傍の点を除くほとんどの点を含
むようになる。円錐外にあるy軸近傍の点については、
位置ずれが強く現れ、大きさ比はほとんど消失する。
When the azimuth θ is close to π / 2, the point in the cone is in a region near the x-axis. For the points within this cone, the size ratio appears strongly, and the misregistration almost disappears. On the other hand, when the azimuth angle θ is close to 0, the cone angle is π / 2, and the cone includes almost all points except points near the y-axis. For points outside the cone near the y-axis,
Displacement appears strongly, and the size ratio almost disappears.

【0081】このように、位置ずれと大きさ比の強弱
は、被写体の方位によって相互に補完し合う関係にあ
る。したがって、被写体の方位によって、位置ずれと大
きさ比のいずれかを用いて奥行き値を算出したり、位置
ずれから求めた奥行き値と大きさ比から求めた奥行き値
を適当な重み付けで合成して、奥行き値を算出すること
ができる。
As described above, the positional deviation and the magnitude of the size ratio are in a mutually complementary relationship depending on the orientation of the subject. Therefore, depending on the azimuth of the subject, the depth value is calculated using any of the displacement and the size ratio, or the depth value obtained from the displacement and the depth value obtained from the size ratio are combined with appropriate weighting. , The depth value can be calculated.

【0082】たとえば、被写体の領域の方位角θが0に
近いほど、位置ずれを考慮する割合を増やし、方位角が
π/2に近いほど、大きさ比を考慮する割合を増やすよ
うに、重み付けをする。また、所定の値の方位角θM、
θNを決めて、θMより大きい方位角θにある領域につ
いては、大きさ比によって奥行き値を求め、θNより小
さい方位角θにある領域については、位置ずれによって
奥行き値を求めてもよい。θMより小さく、θNより大
きい方位角θにある領域については、位置ずれと大きさ
比を考慮する割合を適当に決めて、奥行き値を求めても
よい。
For example, as the azimuth angle θ of the region of the subject is closer to 0, the ratio of considering the positional shift is increased, and as the azimuth angle is closer to π / 2, the ratio of considering the size ratio is increased. do. Also, a predetermined value of the azimuth θM,
For θN, the depth value may be determined by the size ratio for a region having an azimuth angle θ larger than θM, and for the region having an azimuth angle θ smaller than θN, the depth value may be determined by displacement. For a region having an azimuth angle θ smaller than θM and larger than θN, a depth value may be obtained by appropriately determining a ratio in which the displacement and the size ratio are considered.

【0083】また、他の方法として、視差画像に写され
た被写体の特定領域の奥行き値を求める際、その特定領
域の位置ずれと大きさ比の両方を検出して、検出精度が
高い方を奥行き値計算に用いてもよい。特に重なりのあ
る被写体を撮影した場合は、方位だけでなく、被写体の
奥行き分布によって、位置ずれと大きさ比のどちらの検
出精度が高くなるかが変わることがある。そのため、被
写体の方位だけ位置ずれと大きさ比の考慮の割合を決め
るのではなく、視差画像に写された被写体の領域毎に、
位置ずれと大きさ比のどちらを用いるか、あるいは位置
ずれと大きさ比を考慮する割合を決めることがより好ま
しい。
As another method, when calculating the depth value of a specific area of a subject shown in a parallax image, both the positional deviation and the size ratio of the specific area are detected, and the higher detection accuracy is determined. It may be used for depth value calculation. In particular, when a subject having an overlap is photographed, it may change depending on not only the azimuth but also the depth distribution of the subject, which of the positional deviation and the size ratio has higher detection accuracy. Therefore, instead of determining the ratio of the consideration of the positional deviation and the size ratio only for the azimuth of the subject, for each region of the subject in the parallax image,
It is more preferable to determine which of the displacement and the size ratio is used, or to determine a ratio in which the displacement and the size ratio are considered.

【0084】視差角の式(1)、及び大きさ比S/S
の式(4)、(5)を詳しく解析すると、位置ずれと
大きさ比の検出精度の比が一定となる被写体の領域は、
被写体の方位だけでは決まらず、被写体の奥行き値にも
依存することがわかる。したがって、より正確には、被
写体の方位が同じでも、被写体までの距離が違えば、位
置ずれと大きさ比の考慮の割合を変える必要が生じる。
このため、視差画像に写された被写体の特定領域の奥行
き値を求める際、その特定領域の位置ずれと大きさ比を
検出して、位置ずれと大きさ比の検出精度の高い方を優
先して用いて、特定領域の仮の奥行き値を算出する。そ
の後、特定領域の方位と仮の奥行き値に基づいて、位置
ずれと大きさ比の考慮の割合を決めて、奥行き値を再度
求め直すことがより好ましい。
Equation (1) for the parallax angle and the size ratio S L / S
When the expressions (4) and (5) of R are analyzed in detail, the region of the subject where the ratio of the detection accuracy of the displacement and the size ratio is constant is:
It can be seen that it is not determined only by the azimuth of the subject, but also depends on the depth value of the subject. Therefore, more precisely, even if the direction of the subject is the same, if the distance to the subject is different, it is necessary to change the ratio of consideration of the positional deviation and the size ratio.
For this reason, when calculating the depth value of the specific area of the subject captured in the parallax image, the position shift and the size ratio of the specific area are detected, and the one with higher detection accuracy of the position shift and the size ratio is prioritized. To calculate a temporary depth value of the specific area. After that, it is more preferable to determine the ratio of consideration of the positional deviation and the size ratio based on the azimuth of the specific area and the provisional depth value, and to obtain the depth value again.

【0085】このように、位置ずれと大きさ比を用い
て、被写体の奥行き値を求める計算方法にはいくつもの
変形が考えられるが、いずれにしても位置ずれと大きさ
比を組み合わせて、被写体の領域毎の奥行き値を求める
ことに本質的な特徴がある。
As described above, the calculation method for obtaining the depth value of the subject by using the positional deviation and the size ratio may be modified in various ways. In any case, the positional deviation and the size ratio are combined to obtain the subject. There is an essential feature in obtaining the depth value for each area.

【0086】図15は、被写体の奥行き値の算出処理の
フローチャートである。撮像ユニット20が撮像した視
差画像を入力し(S100)、視差画像に写された被写
体の特定領域を選択する(S102)。特定領域の選択
は、視差画像の領域を適当に分割し、自動的に分割され
た領域を順次選択してもよいし、ユーザが操作ユニット
110を用いて指定した被写体の領域を選択してもよ
い。位置ずれ検出部304は、被写体の特定領域の像の
位置のずれを検出する(S104)。大きさ比検出部3
06は、被写体の特定領域の像の大きさ比を検出する
(S106)。奥行き算出部308は、位置ずれと大き
さ比を用いて、特定領域の奥行き値を算出する(S10
8)。
FIG. 15 is a flowchart of the processing for calculating the depth value of the subject. The parallax image captured by the imaging unit 20 is input (S100), and a specific region of the subject shown in the parallax image is selected (S102). The specific region may be selected by appropriately dividing the region of the parallax image and sequentially selecting the automatically divided regions, or by selecting the region of the subject specified by the user using the operation unit 110. Good. The position shift detection unit 304 detects a position shift of the image of the specific region of the subject (S104). Size ratio detector 3
06 detects the size ratio of the image of the specific area of the subject (S106). The depth calculation unit 308 calculates the depth value of the specific area using the positional deviation and the size ratio (S10).
8).

【0087】図16は、奥行き値算出処理S108のフ
ローチャートである。視点間の中点から見た被写体の特
定領域の方位角θに基づいて、位置ずれと大きさ比を考
慮する割合γを決める(S200)。方位角θが0に近
いほど、位置ずれを考慮する割合が大きく、方位角θが
π/2に近いほど、大きさ比を考慮する割合が大きい。
位置ずれに基づいて、式(1)を用いて特定領域の奥行
き値Z1を算出する(S202)。大きさ比に基づい
て、式(4)、(5)を用いて特定領域の奥行き値Z2
を算出する(S204)。位置ずれと大きさ比を考慮す
る割合γに基づいて、奥行き値Z1及びZ2を合成し
て、特定領域の奥行き値Zを算出する。奥行き値Z1及
びZ2を合成して奥行き値Zを算出する方法として、た
とえば、割合γでZ1とZ2の重み付け平均を計算して
Zとする。
FIG. 16 is a flowchart of the depth value calculation processing S108. Based on the azimuth angle θ of the specific area of the subject viewed from the midpoint between the viewpoints, a ratio γ that considers the positional deviation and the size ratio is determined (S200). As the azimuth angle θ is closer to 0, the ratio of considering the positional deviation is higher, and as the azimuth angle θ is closer to π / 2, the ratio of considering the size ratio is higher.
Based on the displacement, the depth value Z1 of the specific area is calculated using Expression (1) (S202). On the basis of the size ratio, the depth value Z2 of the specific area is calculated using Expressions (4) and (5).
Is calculated (S204). The depth values Z1 and Z2 are combined based on the ratio γ in which the position shift and the size ratio are considered to calculate the depth value Z of the specific area. As a method of calculating the depth value Z by combining the depth values Z1 and Z2, for example, a weighted average of Z1 and Z2 is calculated at a ratio γ to be Z.

【0088】奥行き値算出処理S108には、いくつか
の変形が考えられる。図17は、奥行き値算出処理S1
08の変形例のフローチャートである。被写体の特定領
域の位置ずれと大きさ比の検出精度を比較して、位置ず
れと大きさ比を考慮する割合γを決める(S201)。
それ以降のS202、S204、S206の処理は図1
6と同じである。この変形例では、被写体の特定領域の
方位角θで割合γを決めるのではなく、特定領域の位置
ずれと大きさ比の検出精度の良い方の考慮の度合いを大
きくするように割合γを決める。
Several modifications are conceivable for the depth value calculation processing S108. FIG. 17 shows a depth value calculation process S1.
It is a flowchart of the modification of 08. By comparing the positional deviation of the specific region of the subject with the detection accuracy of the size ratio, a ratio γ in which the positional deviation and the size ratio are considered is determined (S201).
Subsequent processes in S202, S204, and S206 are shown in FIG.
Same as 6. In this modification, the ratio γ is determined not to determine the ratio γ based on the azimuth angle θ of the specific region of the subject, but to increase the degree of consideration of the one with higher detection accuracy of the positional deviation and the size ratio of the specific region. .

【0089】図18は、奥行き値算出処理S108の他
の変形例のフローチャートである。被写体の特定領域の
位置ずれと大きさ比の検出精度を比較し、どちらか精度
の良い方の値から、特定領域の仮の奥行き値Z3を算出
する(S210)。特定領域の方位角θと仮の奥行き値
Z3に基づいて、位置ずれと大きさ比を考慮する割合γ
を決める(S212)。それ以降のS202、S20
4、S206の処理は図16と同じである。この変形例
では、割合γを、方位角θと仮の奥行き値Z3から決め
る点が異なる。
FIG. 18 is a flowchart of another modification of the depth value calculation processing S108. The positional deviation of the specific region of the subject and the detection accuracy of the size ratio are compared, and the provisional depth value Z3 of the specific region is calculated from the value with the higher accuracy (S210). A ratio γ in which the positional deviation and the size ratio are considered based on the azimuth angle θ of the specific area and the temporary depth value Z3.
Is determined (S212). S202 and S20 thereafter
4. The processing in S206 is the same as that in FIG. This modification is different in that the ratio γ is determined from the azimuth angle θ and the temporary depth value Z3.

【0090】図19は、奥行き値算出処理S108の他
の変形例のフローチャートである。被写体の特定領域の
方位角θが所定の値θMより大きいなら(S220)、
大きさ比に基づいて特定領域の奥行き値Zを計算し(S
222)、そうでないなら、S224に進む。特定領域
の方位角θがθNより小さいなら(S224)、位置ず
れに基づいて特定領域の奥行き値Zを計算し(S22
6)、そうでないなら、S228に進む。S228で
は、位置ずれと大きさ比を考慮する割合を決めて特定領
域の奥行き値Zを計算する。S228の処理は、図1
6、17、18のいずれかの処理を用いることができ
る。
FIG. 19 is a flowchart of another modification of the depth value calculation processing S108. If the azimuth θ of the specific area of the subject is larger than the predetermined value θM (S220),
The depth value Z of the specific area is calculated based on the size ratio (S
222) If not, proceed to S224. If the azimuth angle θ of the specific area is smaller than θN (S224), the depth value Z of the specific area is calculated based on the displacement (S22).
6) If not, proceed to S228. In S228, the depth value Z of the specific area is calculated by determining the ratio in which the positional deviation and the size ratio are considered. The process of S228 is performed as shown in FIG.
Any of the processes 6, 17, and 18 can be used.

【0091】位置ずれと大きさ比の検出の精度や処理コ
ストは、撮像ユニット20のCCD30の解像度や画像
処理を行う処理ユニット60のメインCPU62、不揮
発性メモリ66、メインメモリ68、メインバス82等
の処理性能等、ハードウエア性能に依存する面と、位置
や大きさを検出する画像処理手法のアルゴリズム性能
等、システムの機能構成に依存する面がある。そのた
め、一概に、位置ずれと大きさ比の考慮の割合を、式
(1)、(4)及び(5)から理論的に導出される検出
精度の割合だけで決めることはできない。
The accuracy and processing cost of detecting the displacement and the size ratio are determined by the resolution of the CCD 30 of the imaging unit 20 and the main CPU 62 of the processing unit 60 for performing image processing, the non-volatile memory 66, the main memory 68, the main bus 82, and the like. There are aspects that depend on the hardware performance, such as the processing performance, and aspects that depend on the functional configuration of the system, such as the algorithm performance of the image processing method for detecting the position and size. For this reason, the rate of consideration of the positional deviation and the size ratio cannot be determined simply by the rate of the detection accuracy theoretically derived from Equations (1), (4), and (5).

【0092】さらに、視差画像における位置ずれと大き
さ比とでは、検出の容易さが異なる。位置ずれの場合
は、被写体のある大きさを持った特定領域を、複数の視
差画像に見つけ、その特定領域内のある1点、たとえば
中心や重心、あるいは特徴的な1点について、視差画像
間での位置のずれを検出する。一方、大きさ比の場合
は、被写体のある大きさを持った特定領域を、複数の視
差画像間で見つけ、その特定領域の大きさの変化を検出
する必要があり、1点の位置ずれを検出する場合より
も、画像処理上のコストが大きくなることがある。ま
た、位置ずれと大きさ比が検出された後の奥行き値の計
算においても、大きさ比を用いた計算の方が、一般に演
算処理のコストが大きい。そのため、位置ずれと大きさ
比の考慮の割合を決定する際、検出精度だけでなく、処
理コストも含めて決定することが好ましい。
Further, the ease of detection differs between the positional deviation and the size ratio in the parallax image. In the case of misalignment, a specific area having a certain size of the subject is found in a plurality of parallax images, and a certain point in the specific area, for example, a center or a center of gravity, or a characteristic point, is detected between the parallax images. Detect the positional deviation at. On the other hand, in the case of the size ratio, it is necessary to find a specific region having a certain size of the subject among a plurality of parallax images and detect a change in the size of the specific region. The cost in image processing may be higher than in the case of detection. Also, in the calculation of the depth value after the positional deviation and the size ratio have been detected, the calculation using the size ratio generally has a higher calculation cost. Therefore, it is preferable to determine not only the detection accuracy but also the processing cost when determining the ratio of consideration of the position shift and the size ratio.

【0093】このように、位置ずれと大きさ比を用い
て、被写体の奥行き値を求める計算方法には、被写体の
領域の方位角、被写体の奥行きの推定値、位置ずれと大
きさ比の検出精度と処理コスト、ハードウエア性能やシ
ステムの機能構成等に基づいて、いくつものバリエーシ
ョンが考えられる。いずれにしても、本実施形態の画像
撮像装置によれば、位置ずれと大きさ比のいずれかの精
度が低くなる場合や、いずれかの処理コストが高くなる
場合に、他方によって補完することで、被写体の全方位
の領域の奥行き情報を高い精度で効率良く算出できる。
As described above, the calculation method for obtaining the depth value of the subject using the displacement and the size ratio includes the azimuth angle of the subject area, the estimated value of the subject depth, and the detection of the displacement and the size ratio. Many variations are possible based on accuracy, processing cost, hardware performance, system functional configuration, and the like. In any case, according to the image capturing apparatus of the present embodiment, when the accuracy of any one of the positional deviation and the size ratio is low, or when any one of the processing costs is high, it is complemented by the other. In addition, depth information of an omnidirectional area of a subject can be efficiently calculated with high accuracy.

【0094】以上述べたように、本実施形態の画像撮像
装置によれば、2つの視野角の広いレンズを用いて被写
体の視差画像を撮影し、被写体の像の位置のずれと大き
さの比を検出し、位置ずれと大きさ比を用いて被写体の
奥行き値を求めることができる。位置ずれの検出精度が
落ちる領域では大きさ比を用い、大きさ比の検出精度が
落ちる領域では位置ずれを用いることができるため、広
い視野にわたって被写体の奥行き情報を高い精度で算出
することができる。
As described above, according to the image pickup apparatus of the present embodiment, a parallax image of a subject is photographed using two lenses having a wide viewing angle, and the ratio between the displacement of the subject image and the size of the subject is calculated. Is detected, and the depth value of the subject can be obtained using the positional deviation and the size ratio. Since the size ratio can be used in an area where the detection accuracy of the position ratio is reduced, and the position deviation can be used in an area where the detection accuracy of the size ratio is reduced, the depth information of the subject can be calculated with high accuracy over a wide field of view. .

【0095】また、本実施形態の画像撮像装置は、監視
用カメラとして利用することもできる。従来の監視用カ
メラは、全方位の画像を得るために、カメラを駆動させ
なければならなかった。本実施形態の画像撮像装置を監
視カメラとして用いた場合、カメラを駆動させなくて
も、全方位の被写体を撮影し、奥行き情報を算出するこ
とができる。得られた奥行き情報から、人物等の主要被
写体を容易に抽出することができるため、銀行や小売店
に設置して、防犯に利用することができる。
The image pickup device of the present embodiment can also be used as a monitoring camera. Conventional surveillance cameras had to be driven to obtain omnidirectional images. When the image capturing apparatus of the present embodiment is used as a surveillance camera, it is possible to photograph an omnidirectional subject and calculate depth information without driving the camera. Since the main subject such as a person can be easily extracted from the obtained depth information, it can be installed in a bank or a retail store and used for crime prevention.

【0096】(実施形態2)本発明の第2の実施形態を
説明する。図20は、画像処理装置の一例としての、写
真画像の現像や編集等を行うラボシステム200の構成
図である。本実施形態のラボシステム200は、入力部
210と、処理部220と、記録部240と、出力部2
50とを有する。
(Embodiment 2) A second embodiment of the present invention will be described. FIG. 20 is a configuration diagram of a lab system 200 that develops and edits a photographic image as an example of an image processing apparatus. The lab system 200 of the present embodiment includes an input unit 210, a processing unit 220, a recording unit 240, and an output unit 2
50.

【0097】入力部210は、被写体の画像データを入
力する。画像データとして、被写体を異なる視点から見
た場合の視差画像を入力する。デジタルカメラ等で撮影
された対象物のデジタル画像を入力する場合、入力部2
10には、半導体メモリカード等の着脱自在な記録媒体
から画像データを読み取るための読み取り装置が用いら
れる。また、フロッピーディスク、MO、CD−ROM
等から画像データを読み取る場合は、入力部210とし
て、それぞれフロッピードライブ、MOドライブ、CD
ドライブ等が用いられてもよい。
The input section 210 inputs image data of a subject. As image data, a parallax image when the subject is viewed from different viewpoints is input. When inputting a digital image of an object photographed by a digital camera or the like, the input unit 2
A reading device for reading image data from a detachable recording medium such as a semiconductor memory card is used for 10. Also, floppy disk, MO, CD-ROM
When reading image data from a device such as a floppy drive, MO drive, or CD,
A drive or the like may be used.

【0098】処理部220は、入力部210が入力した
視差画像を記憶し、被写体の奥行き情報を算出する。処
理部220は算出した奥行き情報を視差画像とともに記
録部240に出力する。また処理部220は算出した奥
行き情報をもとに、被写体の画像を処理して、記録部2
40と出力部250に出力してもよい。
The processing section 220 stores the parallax image input by the input section 210 and calculates depth information of the subject. The processing unit 220 outputs the calculated depth information to the recording unit 240 together with the parallax image. The processing unit 220 processes the image of the subject based on the calculated depth information,
40 and the output unit 250.

【0099】記録部240は、処理部220が出力した
奥行き情報または画像データを着脱自在な記録媒体に記
録する。記録媒体として、書き込み可能なCD−RO
M、DVD等の光記録媒体や、MO等の光磁気記録媒
体、フロッピーディスク等の磁気記録媒体等が用いられ
る。記録部240として、CD−Rドライブ、DVDド
ライブ、MOドライブ、フロッピードライブ等が用いら
れる。また、記録部240は、フラッシュメモリ、メモ
リカード等の半導体メモリに奥行き情報または画像デー
タを記録してもよい。
The recording section 240 records the depth information or image data output from the processing section 220 on a removable recording medium. Writable CD-RO as recording medium
Optical recording media such as M and DVD, magneto-optical recording media such as MO, and magnetic recording media such as floppy disks are used. As the recording unit 240, a CD-R drive, a DVD drive, an MO drive, a floppy drive, or the like is used. The recording unit 240 may record depth information or image data in a semiconductor memory such as a flash memory or a memory card.

【0100】出力部250は、処理部220が出力した
被写体の処理された画像データを画像として出力する。
例えば画像を画面表示する場合、出力部250には画像
を表示するモニタが用いられる。また例えば画像を印刷
する場合、出力部250にはデジタルプリンタやレーザ
プリンタ等のプリンタが用いられる。
The output section 250 outputs the processed image data of the subject output by the processing section 220 as an image.
For example, when displaying an image on a screen, a monitor that displays the image is used as the output unit 250. For example, when printing an image, a printer such as a digital printer or a laser printer is used as the output unit 250.

【0101】図21は、処理部220の機能構成図であ
る。処理部220は、視差画像記憶部302と、位置ず
れ検出部304と、大きさ比検出部306と、奥行き算
出部308と、画像変換部312とを有する。
FIG. 21 is a functional block diagram of the processing section 220. The processing unit 220 includes a parallax image storage unit 302, a displacement detection unit 304, a size ratio detection unit 306, a depth calculation unit 308, and an image conversion unit 312.

【0102】視差画像記憶部302は、入力部210が
入力した被写体の複数の視差画像のデータをRAM等の
半導体メモリまたはハードディスク等の磁気記録媒体に
記憶する。位置ずれ検出部304は、視差画像記憶部3
02が記憶する複数の視差画像において、被写体の特定
領域の像の位置が視差によってずれる量を検出する。大
きさ比検出部306は、視差画像記憶部302が記憶す
る視差画像において、被写体の特定領域の像の大きさが
視差によって変化する比率を検出する。奥行き算出部3
08は、位置ずれ検出部304が検出した位置ずれと大
きさ比検出部306が検出した大きさ比を用いて、被写
体の特定領域の奥行き値を算出する。
The parallax image storage unit 302 stores data of a plurality of parallax images of the subject input by the input unit 210 in a semiconductor memory such as a RAM or a magnetic recording medium such as a hard disk. The displacement detection unit 304 stores the parallax image storage unit 3
In a plurality of parallax images stored in No. 02, an amount by which the position of the image of the specific region of the subject shifts due to parallax is detected. The size ratio detection unit 306 detects, in the parallax image stored in the parallax image storage unit 302, a ratio at which the size of the image of the specific region of the subject changes due to the parallax. Depth calculator 3
08 calculates the depth value of the specific area of the subject using the position shift detected by the position shift detection unit 304 and the size ratio detected by the size ratio detection unit 306.

【0103】位置ずれ検出部304、大きさ比検出部3
06、及び奥行き算出部308が、視差画像に撮像され
た被写体の一部の領域または全部の領域について、被写
体の奥行き情報を算出する処理については、第1の実施
形態と同じであるから、説明を省略する。
[0103] Position shift detector 304, size ratio detector 3
06 and the process in which the depth calculation unit 308 calculates the depth information of the subject for a partial region or the entire region of the subject captured in the parallax image is the same as in the first embodiment. Is omitted.

【0104】画像変換部312は、奥行き算出部308
が算出した被写体の奥行き情報に基づいて、被写体の画
像を処理する。画像変換部312は、被写体の奥行き情
報、視差画像、または処理された画像を記憶部240と
出力部250に出力する。
The image conversion unit 312 includes a depth calculation unit 308
The image of the subject is processed based on the depth information of the subject calculated by. The image conversion unit 312 outputs the depth information of the subject, the parallax image, or the processed image to the storage unit 240 and the output unit 250.

【0105】画像変換部312は、被写体の奥行き情報
に基づいて魚眼レンズで撮影された被写体の全方位画像
を透視投影画像に変形してもよい。図22は、全方位画
像から透視投影画像への変換を説明する図である。魚眼
レンズで撮影された被写体の全方位画像356上の点ま
たは領域について、奥行き値が算出されているので、座
標変換を行うことにより、その点または領域を透視投影
画像358上に写像することができる。透視投影画像3
58は、通常の標準レンズで被写体を撮影したときの画
像である。
The image conversion unit 312 may transform the omnidirectional image of the subject photographed by the fisheye lens into a perspective projection image based on the depth information of the subject. FIG. 22 is a diagram illustrating conversion from an omnidirectional image to a perspective projection image. Since the depth value has been calculated for a point or area on the omnidirectional image 356 of the subject captured by the fisheye lens, the point or area can be mapped on the perspective projection image 358 by performing coordinate transformation. . Perspective projection image 3
Reference numeral 58 denotes an image obtained by photographing a subject with a normal standard lens.

【0106】画像変換部312は、被写体の奥行き情報
に基づいて、魚眼レンズで撮影された被写体の全方位画
像から、被写体の正面図、側面図、上面図等の正投影図
法の画像を生成してもよい。図23は、魚眼レンズで撮
影された部屋の間取りの模式図である。魚眼レンズによ
り部屋の天井付近から部屋の全方位を撮影している。図
24は、全方位画像を座標変換して得られた部屋の平面
図である。部屋の全方位の奥行き情報を利用することに
より、全方位画像はこのような平面図に変換することが
できる。図25は、全方位画像を座標変換して得られた
部屋の側面図である。このように、画像変換部312
は、被写体の全方位の奥行き情報に基づいて、被写体の
全方位画像から、被写体の正面図、側面図、上面図等の
正投影画像を生成し、設計図等の作成に役立てることが
できる。このような画像変換処理は、建築や都市計画の
場面で広く使われる。
The image conversion unit 312 generates an orthographic projection image such as a front view, a side view, and a top view of the subject from the omnidirectional image of the subject taken by the fisheye lens based on the depth information of the subject. Is also good. FIG. 23 is a schematic diagram of a floor plan of a room taken by a fisheye lens. The fisheye lens shoots the room in all directions from near the ceiling. FIG. 24 is a plan view of a room obtained by performing coordinate conversion on an omnidirectional image. By using the omnidirectional depth information of the room, the omnidirectional image can be converted into such a plan view. FIG. 25 is a side view of a room obtained by performing coordinate conversion on an omnidirectional image. Thus, the image conversion unit 312
Generates an orthographic image of a front view, a side view, a top view, and the like of a subject from an omnidirectional image of the subject based on omnidirectional depth information of the subject, which can be useful for creating a design drawing and the like. Such image conversion processing is widely used in the construction and city planning scenes.

【0107】本実施形態の画像処理装置によれば、視野
角の広いレンズで撮影された被写体の視差画像を入力し
て、広い視野にわたる被写体の奥行き情報を算出するこ
とができる。また算出された奥行き情報に基づいて、画
像処理を行い、CAD等の図面データを作成することが
できる。また、全方位の奥行き情報のある画像データ
は、CG(コンピュータグラフィックス)やシミュレー
ションに利用することができる。
According to the image processing apparatus of the present embodiment, it is possible to input a parallax image of a subject photographed with a lens having a wide viewing angle and calculate depth information of the subject over a wide field of view. Further, image processing can be performed based on the calculated depth information to create drawing data such as CAD. Image data having omnidirectional depth information can be used for CG (computer graphics) and simulation.

【0108】(実施形態3)次に、本発明の第3の実施
形態を説明する。図26は、画像処理装置の構成図であ
る。本実施形態の画像処理装置の基本的な構成及び動作
は、第2の実施形態の画像処理装置と同様である。本実
施形態では、画像処理装置の処理部220として、パー
ソナルコンピュータやワークステーション等の電子計算
機を用いる点が、第2の実施形態と異なる。
(Embodiment 3) Next, a third embodiment of the present invention will be described. FIG. 26 is a configuration diagram of the image processing apparatus. The basic configuration and operation of the image processing apparatus according to the present embodiment are the same as those of the image processing apparatus according to the second embodiment. The present embodiment differs from the second embodiment in that an electronic computer such as a personal computer or a workstation is used as the processing unit 220 of the image processing apparatus.

【0109】図26を参照しながら、本実施形態の処理
部220のハードウエア構成を説明する。CPU230
はROM232及びRAM234に格納されたプログラ
ムに基づいて動作する。キーボード、マウス等の入力装
置231を介して利用者によりデータが入力される。ハ
ードディスク233は、画像等のデータ、及びCPU2
30を動作させるプログラムを格納する。CD−ROM
ドライブ235はCD−ROM290からデータ又はプ
ログラムを読み取り、RAM234、ハードディスク2
33及びCPU230の少なくともいずれかに提供す
る。
The hardware configuration of the processing section 220 according to the present embodiment will be described with reference to FIG. CPU 230
Operate based on programs stored in the ROM 232 and the RAM 234. Data is input by a user via an input device 231 such as a keyboard and a mouse. The hard disk 233 stores data such as images and the CPU 2
30 is stored. CD-ROM
The drive 235 reads data or a program from the CD-ROM 290,
33 and the CPU 230.

【0110】CPU230が実行するプログラムの機能
構成は、第2の実施形態の画像処理装置の処理部220
の機能構成と同じであり、視差画像記憶モジュールと、
位置ずれ検出モジュールと、大きさ比検出モジュール
と、奥行き算出モジュールと、画像変換モジュールとを
有する。
The functional configuration of the program executed by the CPU 230 is the same as that of the processing unit 220 of the image processing apparatus according to the second embodiment.
Parallax image storage module is the same as the functional configuration of
It has a displacement detection module, a size ratio detection module, a depth calculation module, and an image conversion module.

【0111】視差画像記憶モジュール、位置ずれ検出モ
ジュール、大きさ比検出モジュール、奥行き算出モジュ
ール、及び画像変換モジュールが、CPU230に行わ
せる処理は、それぞれ、第2の実施形態の画像処理装置
の処理部220における、視差画像記憶部302、位置
ずれ検出部304、大きさ比検出部306、奥行き算出
部308、及び画像変換部312の機能及び動作と同じ
であるから、説明を省略する。これらのプログラムは、
CD−ROM290等の記録媒体に格納されて利用者に
提供される。記録媒体の一例としてのCD−ROM29
0には、本出願で説明した画像処理装置の動作の一部又
は全ての機能を格納することができる。
The processing performed by the parallax image storage module, the displacement detection module, the size ratio detection module, the depth calculation module, and the image conversion module by the CPU 230 is the processing unit of the image processing apparatus of the second embodiment. The functions and operations of the parallax image storage unit 302, the displacement detection unit 304, the size ratio detection unit 306, the depth calculation unit 308, and the image conversion unit 312 in 220 are the same as those in FIG. These programs are
It is stored on a recording medium such as a CD-ROM 290 and provided to the user. CD-ROM 29 as an example of a recording medium
0 can store some or all of the functions of the operation of the image processing apparatus described in the present application.

【0112】上記のプログラムは記録媒体から直接RA
M234に読み出されてCPU230により実行されて
もよい。あるいは、上記のプログラムは記録媒体からハ
ードディスク233にインストールされ、RAM234
に読み出されてCPU230により実行されてもよい。
The above program is directly stored in the RA from the recording medium.
It may be read by M234 and executed by the CPU 230. Alternatively, the above program is installed on the hard disk 233 from a recording medium,
And may be executed by the CPU 230.

【0113】記録媒体としては、CD−ROM290の
他にも、ハードディスク、ROMやRAM等のメモリ、
DVDやPD等の光学記録媒体、フロッピーディスクや
ミニディスク(MD)等の磁気記録媒体、MO等の光磁
気記録媒体、テープ状記録媒体、不揮発性の半導体メモ
リカード等を用いることができる。
As a recording medium, in addition to the CD-ROM 290, a hard disk, a memory such as a ROM or a RAM,
An optical recording medium such as a DVD or PD, a magnetic recording medium such as a floppy disk or a mini disk (MD), a magneto-optical recording medium such as an MO, a tape-shaped recording medium, and a nonvolatile semiconductor memory card can be used.

【0114】上記のプログラムは、単一の記録媒体に格
納されてもよいし、複数の記録媒体に分割されて格納さ
れてもよい。また、上記プログラムは記録媒体に圧縮さ
れて格納されてもよい。圧縮されたプログラムは伸張さ
れ、RAM234等の別の記録媒体に読み出され、実行
されてもよい。さらに、圧縮されたプログラムはCPU
230によって伸張され、ハードディスク233等にイ
ンストールされた後、RAM234等の別の記録媒体に
読み出され、実行されてもよい。
The above program may be stored on a single recording medium, or may be divided and stored on a plurality of recording media. Further, the program may be compressed and stored in a recording medium. The compressed program may be decompressed, read to another recording medium such as the RAM 234, and executed. Furthermore, the compressed program is a CPU
After being decompressed by 230 and installed on the hard disk 233 or the like, it may be read to another recording medium such as the RAM 234 and executed.

【0115】さらに、記録媒体の一例としてのCD−R
OM290は、通信ネットワークを介して、ホストコン
ピュータによって提供される上記のプログラムを格納し
てもよい。記録媒体に格納された上記のプログラムは、
ホストコンピュータのハードディスクに格納され、通信
ネットワークを介してホストコンピュータから当該コン
ピュータに送信され、RAM234等の別の記録媒体に
読み出され、実行されてもよい。
Furthermore, a CD-R as an example of a recording medium
The OM 290 may store the program provided by the host computer via the communication network. The above program stored in the recording medium is
It may be stored in the hard disk of the host computer, transmitted from the host computer to the computer via a communication network, read out to another recording medium such as the RAM 234, and executed.

【0116】上記のプログラムを格納した記録媒体は、
本出願の画像処理装置を製造するためにのみ使用される
ものであり、そのような記録媒体の業としての製造およ
び販売等が本出願に基づく特許権の侵害を構成すること
は明らかである。
The recording medium storing the above program is
It is apparent that the invention is used only for manufacturing the image processing apparatus of the present application, and that the manufacture and sale of such a recording medium as a business constitute infringement of a patent right based on the present application.

【0117】(実施形態4)次に、本発明の第4の実施
形態を説明する。本実施形態の画像撮像装置の一例は、
カメラを内蔵したノート型コンピュータやカメラを内蔵
した携帯型電子端末等の電子機器等である。これらの場
合、ノート型コンピュータや携帯型電子端末の電子計算
機部分は主に図26に示した処理部220として機能す
る。本実施形態の画像撮像装置は、第1の実施形態の画
像撮像装置の処理ユニット60を、図26に示した処理
部220のハードウエア構成に換えたものである。本実
施形態の画像撮像装置の基本的な構成及び動作は、第1
の実施形態の画像撮像装置と同様である。
(Embodiment 4) Next, a fourth embodiment of the present invention will be described. An example of the image capturing device according to the present embodiment includes:
Electronic devices such as a notebook computer with a built-in camera and a portable electronic terminal with a built-in camera. In these cases, the computer section of the notebook computer or portable electronic terminal mainly functions as the processing section 220 shown in FIG. The image capturing apparatus according to the present embodiment is obtained by replacing the processing unit 60 of the image capturing apparatus according to the first embodiment with the hardware configuration of the processing unit 220 illustrated in FIG. The basic configuration and operation of the image pickup apparatus of the present embodiment
This is the same as the image pickup device of the embodiment.

【0118】本実施形態の処理部220のハードウエア
構成は、第3の実施形態の処理部220のハードウエア
構成と同じであるから説明を省略する。CPU230が
実行するプログラムの機能構成は、第1の実施形態の画
像撮像装置の処理ユニット60の機能構成と同じであ
り、視差画像記憶モジュールと、位置ずれ検出モジュー
ルと、大きさ比検出モジュールと、奥行き算出モジュー
ルと、記録モジュールとを有する。
The hardware configuration of the processing unit 220 according to the present embodiment is the same as the hardware configuration of the processing unit 220 according to the third embodiment, and a description thereof will be omitted. The functional configuration of the program executed by the CPU 230 is the same as the functional configuration of the processing unit 60 of the image capturing apparatus according to the first embodiment, and includes a parallax image storage module, a displacement detection module, a size ratio detection module, It has a depth calculation module and a recording module.

【0119】視差画像記憶モジュール、位置ずれ検出モ
ジュール、大きさ比検出モジュール、奥行き算出モジュ
ール、及び画像変換モジュールが、CPU230に行わ
せる処理は、それぞれ、第1の実施形態の画像撮像装置
の処理部220における、視差画像記憶部302、位置
ずれ検出部304、大きさ比検出部306、奥行き算出
部308、及び記録部310の機能及び動作と同じであ
るから、説明を省略する。これらのプログラムは、CD
−ROM290等の記録媒体に格納されて利用者に提供
される。記録媒体の一例としてのCD−ROM290に
は、本出願で説明した画像撮像装置の動作の一部又は全
ての機能を格納することができる。
The processes that the parallax image storage module, the displacement detection module, the size ratio detection module, the depth calculation module, and the image conversion module cause the CPU 230 to perform are respectively the processing units of the image pickup apparatus of the first embodiment. The functions and operations of the parallax image storage unit 302, the displacement detection unit 304, the size ratio detection unit 306, the depth calculation unit 308, and the recording unit 310 in 220 are the same as those in FIG. These programs are on CD
-Stored in a recording medium such as the ROM 290 and provided to the user. The CD-ROM 290 as an example of the recording medium can store some or all of the functions of the operation of the image capturing apparatus described in the present application.

【0120】上記のプログラムを格納した記録媒体は、
本出願の画像撮像装置を製造するためにのみ使用される
ものであり、そのような記録媒体の業としての製造およ
び販売等が本出願に基づく特許権の侵害を構成すること
は明らかである。
The recording medium storing the above program is
It is clear that the present invention is used only for manufacturing the image pickup apparatus of the present application, and that such production and sale of a recording medium as a business constitutes infringement of a patent right based on the present application.

【0121】次に、本実施形態の画像撮像装置の実験結
果を示す。図27、28、29、30及び31に、本実
施形態の画像撮像装置によって、被写体の大きさ比を測
定した実験結果を示す。実験では、レンズ特性がfθで
ある魚眼レンズを搭載したデジタルカメラを用い、デジ
タルカメラを移動することにより、左右の異なる2つの
視点から見た被写体を順次撮影した。被写体の人物には
撮影中極力動かないように指示した。図27は、左の視
点から撮影した被写体の視差画像をディスプレイ上に表
示した中間調画像の写真である。図28は、右の視点か
ら撮影した被写体の視差画像をディスプレイ上に表示し
た中間調画像の写真である。左右の魚眼レンズの焦点距
離fは8mmであり、視点間距離2dは約20cmであ
る。撮影された視差画像は全方位画像である。
Next, experimental results of the image pickup apparatus of the present embodiment will be shown. 27, 28, 29, 30, and 31 show experimental results obtained by measuring the size ratio of a subject using the image pickup device of the present embodiment. In the experiment, a digital camera equipped with a fish-eye lens having a lens characteristic of fθ was used, and by moving the digital camera, subjects photographed from two different left and right viewpoints were sequentially photographed. The subject was instructed not to move during shooting. FIG. 27 is a photograph of a halftone image in which a parallax image of a subject taken from a left viewpoint is displayed on a display. FIG. 28 is a photograph of a halftone image in which a parallax image of a subject taken from a right viewpoint is displayed on a display. The focal length f of the left and right fisheye lenses is 8 mm, and the distance 2d between the viewpoints is about 20 cm. The captured parallax image is an omnidirectional image.

【0122】図29は、被写体の全方位画像の中心付近
を拡大した画像をディスプレイ上に表示した中間調画像
の写真である。中心付近の領域では左右の視差画像で大
きさの違いはほとんどなく、大きさ比が1になる。
FIG. 29 is a photograph of a halftone image in which an image obtained by enlarging the vicinity of the center of an omnidirectional image of a subject is displayed on a display. In the region near the center, there is almost no difference in size between the left and right parallax images, and the size ratio becomes 1.

【0123】図30は、被写体の全方位画像の周辺付近
を拡大した画像をディスプレイ上に表示した中間調画像
の写真である。視点の移動方向にある、全方位画像の周
辺領域では、人物像の大きさが左右の視差画像で大きく
異なることがわかる。
FIG. 30 is a photograph of a halftone image in which an image obtained by enlarging the periphery of an omnidirectional image of a subject is displayed on a display. It can be seen that in the peripheral area of the omnidirectional image in the moving direction of the viewpoint, the size of the human image is significantly different between the left and right parallax images.

【0124】図31は、被写体の全方位画像の周辺付近
を拡大した画像をディスプレイ上に表示した中間調画像
の写真である。同様に人物像の大きさの違いを検出でき
るが、大きさの違いは、図30の人物像に比べて小さ
い。これは、図31に写された人物は、図30の人物よ
りも遠い位置にあるためである。このように、視点の移
動方向の領域では、大きさ比の違いから、被写体の奥行
き情報を得ることができる。
FIG. 31 is a photograph of a halftone image in which an image obtained by enlarging the vicinity of an omnidirectional image of a subject is displayed on a display. Similarly, the difference in the size of the human image can be detected, but the difference in the size is smaller than that of the human image in FIG. This is because the person shown in FIG. 31 is located farther than the person in FIG. As described above, in the area in the moving direction of the viewpoint, the depth information of the subject can be obtained from the difference in the size ratio.

【0125】このように、本実験により、従来は難しい
とされていた大きさ比の検出がCCDに撮像された視差
画像の比較によって可能であるという良好な結果を得
た。これにより、従来は困難であった「死角」領域での
奥行き値測定が可能であることが確かめられた。
As described above, according to the present experiment, a favorable result was obtained in which it was possible to detect the size ratio, which was conventionally considered difficult, by comparing the parallax images captured by the CCD. As a result, it was confirmed that depth value measurement in a “blind spot” region, which was difficult in the past, was possible.

【0126】以上述べたように、本発明の画像撮像装置
及び画像処理装置によれば、被写体の視差画像から、被
写体の像の位置のずれと大きさの比を検出し、位置ずれ
と大きさ比を用いて被写体の奥行き値を求めることがで
きる。位置ずれの検出精度が落ちる領域では大きさ比を
用い、大きさ比の検出精度が落ちる領域では位置ずれを
用いることができるため、広い視野にわたって被写体の
奥行き情報を高い精度で算出することができる。
As described above, according to the image pickup apparatus and the image processing apparatus of the present invention, the ratio between the positional shift and the size of the image of the subject is detected from the parallax image of the subject, and the positional shift and the size are detected. The depth value of the subject can be obtained using the ratio. Since the size ratio can be used in an area where the detection accuracy of the position ratio is reduced, and the position deviation can be used in an area where the detection accuracy of the size ratio is reduced, the depth information of the subject can be calculated with high accuracy over a wide field of view. .

【0127】以上、本発明を実施の形態を用いて説明し
たが、本発明の技術的範囲は上記実施の形態に記載の範
囲には限定されない。上記実施の形態に、多様な変更又
は改良を加えることができることが当業者に明らかであ
る。その様な変更又は改良を加えた形態も本発明の技術
的範囲に含まれ得ることが、特許請求の範囲の記載から
明らかである。
As described above, the present invention has been described using the embodiments. However, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is apparent to those skilled in the art that various changes or improvements can be added to the above embodiment. It is apparent from the description of the appended claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

【0128】[0128]

【発明の効果】上記説明から明らかなように、本発明に
よれば広い視野にわたって被写体の奥行きに関する情報
を高い精度で取得することができる。
As is apparent from the above description, according to the present invention, information on the depth of a subject can be obtained with high accuracy over a wide field of view.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 画像撮像装置の一例としてのデジタルカメラ
10の構成図である。
FIG. 1 is a configuration diagram of a digital camera 10 as an example of an image capturing apparatus.

【図2】 撮像ユニット20の撮影レンズ22及びCC
D30の構成の一例である。
FIG. 2 shows a photographing lens 22 and a CC of an imaging unit 20;
It is an example of the configuration of D30.

【図3】 撮像ユニット20の撮影レンズ22及びCC
D30の構成の他の例である。
FIG. 3 shows a photographing lens 22 and a CC of an imaging unit 20;
It is another example of the structure of D30.

【図4】 撮像ユニット20の撮影レンズ22及びCC
D30の構成の他の例である。
FIG. 4 shows a photographing lens 22 and a CC of the image pickup unit 20.
It is another example of the structure of D30.

【図5】 処理ユニット60の機能ブロック図である。FIG. 5 is a functional block diagram of a processing unit 60.

【図6】 魚眼レンズ320が結像する被写体の点の入
射角θと、全方位画像322における被写体の点の像の
位置との関係を説明する図である。
6 is a diagram illustrating a relationship between an incident angle θ of a point of a subject formed by the fisheye lens 320 and a position of an image of the point of the subject in the omnidirectional image 322. FIG.

【図7】 2つの魚眼レンズを用いて被写体を見た場合
の視差の説明図である。
FIG. 7 is an explanatory diagram of parallax when a subject is viewed using two fisheye lenses.

【図8】 視差角θAの式(1)のグラフである。FIG. 8 is a graph of Expression (1) of the parallax angle θA.

【図9】 被写体の視差角の大きさの違いを説明する図
である。
FIG. 9 is a diagram illustrating a difference in the magnitude of a parallax angle of a subject.

【図10】 異なる視点から被写体の領域を見た場合の
大きさの違いを説明する図である。
FIG. 10 is a diagram illustrating a difference in size when a subject area is viewed from different viewpoints.

【図11】 異なる視点から見た場合の被写体の点まで
の距離の違いを説明する図である。
FIG. 11 is a diagram illustrating a difference in distance to a point of a subject when viewed from different viewpoints.

【図12】 像の大きさ比S/Sのグラフである。FIG. 12 is a graph of an image size ratio S L / S R.

【図13】 位置ずれと大きさ比の関係を天球上で説明
した図である。
FIG. 13 is a diagram illustrating the relationship between the positional deviation and the size ratio on a celestial sphere.

【図14】 位置ずれと大きさ比の関係をxy平面で説
明した図である。
FIG. 14 is a diagram illustrating the relationship between the displacement and the size ratio in the xy plane.

【図15】 被写体の奥行き値の算出処理のフローチャ
ートである。
FIG. 15 is a flowchart of processing for calculating a depth value of a subject.

【図16】 奥行き値算出処理S108のフローチャー
トである。
FIG. 16 is a flowchart of a depth value calculation process S108.

【図17】 奥行き値算出処理S108の変形例のフロ
ーチャートである。
FIG. 17 is a flowchart of a modified example of the depth value calculation processing S108.

【図18】 奥行き値算出処理S108の他の変形例の
フローチャートである。
FIG. 18 is a flowchart of another modified example of the depth value calculation processing S108.

【図19】 奥行き値算出処理S108の他の変形例の
フローチャートである。
FIG. 19 is a flowchart of another modified example of the depth value calculation processing S108.

【図20】 画像処理装置の一例としての、写真画像の
現像や編集等を行うラボシステム200の構成図であ
る。
FIG. 20 is a configuration diagram of a lab system 200 that develops and edits a photographic image, as an example of an image processing apparatus.

【図21】 処理部220の機能構成図である。FIG. 21 is a functional configuration diagram of a processing unit 220.

【図22】 全方位画像から透視投影画像への変換を説
明する図である。
FIG. 22 is a diagram illustrating conversion from an omnidirectional image to a perspective projection image.

【図23】 魚眼レンズで撮影された部屋の間取りの模
式図である。
FIG. 23 is a schematic diagram of a floor plan of a room taken by a fisheye lens.

【図24】 全方位画像を座標変換して得られた部屋の
平面図である。
FIG. 24 is a plan view of a room obtained by performing coordinate transformation on an omnidirectional image.

【図25】 全方位画像を座標変換して得られた部屋の
正投影画像である。
FIG. 25 is an orthographic projection image of a room obtained by performing coordinate transformation on an omnidirectional image.

【図26】 画像処理装置の構成図である。FIG. 26 is a configuration diagram of an image processing apparatus.

【図27】 左の視点から撮影した被写体の視差画像を
ディスプレイ上に表示した中間調画像の写真である。
FIG. 27 is a photograph of a halftone image in which a parallax image of a subject taken from a left viewpoint is displayed on a display.

【図28】 右の視点から撮影した被写体の視差画像を
ディスプレイ上に表示した中間調画像の写真である。
FIG. 28 is a photograph of a halftone image in which a parallax image of a subject captured from a right viewpoint is displayed on a display.

【図29】 被写体の全方位画像の中心付近を拡大した
画像をディスプレイ上に表示した中間調画像の写真であ
る。
FIG. 29 is a photograph of a halftone image in which an image obtained by enlarging the vicinity of the center of an omnidirectional image of a subject is displayed on a display.

【図30】 被写体の全方位画像の周辺付近を拡大した
画像をディスプレイ上に表示した中間調画像の写真であ
る。
FIG. 30 is a photograph of a halftone image in which an image obtained by enlarging the periphery of an omnidirectional image of a subject is displayed on a display.

【図31】 被写体の全方位画像の周辺付近を拡大した
画像をディスプレイ上に表示した中間調画像の写真であ
る。
FIG. 31 is a photograph of a halftone image in which an image obtained by enlarging the vicinity of an omnidirectional image of a subject is displayed on a display.

【符号の説明】[Explanation of symbols]

10 デジタルカメラ 20 撮像ユニッ
ト 40 撮像制御ユニット 60 処理ユニッ
ト 100 表示ユニット 110 操作ユニッ
ト 200 画像処理装置 210 入力部 220 処理部 240 記録部 250 出力部 290 記録媒体 302 視差画像記憶部 304 位置ずれ検
出部 306 大きさ比検出部 308 奥行き算出
部 310 記録部 312 画像変換部 324、326 魚眼レンズ
Reference Signs List 10 digital camera 20 imaging unit 40 imaging control unit 60 processing unit 100 display unit 110 operation unit 200 image processing device 210 input unit 220 processing unit 240 recording unit 250 output unit 290 recording medium 302 parallax image storage unit 304 displacement detection unit 306 size Depth calculation unit 308 Depth calculation unit 310 Recording unit 312 Image conversion unit 324, 326 Fisheye lens

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA06 FF05 FF15 GG08 JJ03 JJ26 KK01 LL06 LL10 LL22 LL30 PP22 QQ03 QQ24 QQ26 QQ33 QQ38 SS02 SS13 UU05 UU07 2F112 AC06 BA03 CA02 CA12 CA20 DA05 DA22 FA03 FA07 FA21 5C022 AA00 AA13 AB68 AC42 AC69 5C061 AA29 AB02 AB04 AB06 AB08 AB21 AB24  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA06 FF05 FF15 GG08 JJ03 JJ26 KK01 LL06 LL10 LL22 LL30 PP22 QQ03 QQ24 QQ26 QQ33 QQ38 SS02 SS13 UU05 UU07 2F112 AC06 BA03 CA02 CA12 CA20 DA05 FA22 A02A03 AB AC69 5C061 AA29 AB02 AB04 AB06 AB08 AB21 AB24

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 被写体の奥行きに関する情報を取得する
画像撮像装置であって、 2つの異なる視点位置から前記被写体を見た場合に得ら
れる前記被写体の視差画像を撮像する撮像部と、 前記視差画像における前記被写体の特定領域の像の大き
さの比を検出する大きさ比検出部と、 前記大きさ比に基づいて、前記被写体の前記特定領域の
奥行き値を算出する奥行き算出部とを備えたことを特徴
とする画像撮像装置。
1. An image capturing apparatus for acquiring information on the depth of a subject, wherein the capturing unit captures a parallax image of the subject obtained when the subject is viewed from two different viewpoint positions; A size ratio detection unit that detects a size ratio of the image of the specific region of the subject in, and a depth calculation unit that calculates a depth value of the specific region of the subject based on the size ratio. An image pickup apparatus characterized by the above-mentioned.
【請求項2】 前記視差画像における前記被写体の前記
特定領域の像の位置のずれを検出する位置ずれ検出部を
さらに備え、前記奥行き算出部は、前記位置ずれ及び前
記大きさ比に基づいて、前記被写体の前記特定領域の奥
行き値を算出することを特徴とする請求項1に記載の画
像撮像装置。
2. The image processing apparatus according to claim 1, further comprising: a position shift detecting unit configured to detect a position shift of an image of the specific region of the subject in the parallax image, wherein the depth calculating unit determines the position shift based on the position shift and the size ratio. The apparatus according to claim 1, wherein a depth value of the specific area of the subject is calculated.
【請求項3】 前記奥行き算出部は、前記被写体の前記
特定領域毎に、前記位置ずれ及び前記大きさ比を考慮す
る割合を変えて、前記被写体の前記特定領域の前記奥行
き値を算出することを特徴とする請求項2に記載の画像
撮像装置。
3. The depth calculation unit calculates the depth value of the specific region of the subject by changing a ratio in which the position shift and the size ratio are considered for each of the specific regions of the subject. The image pickup device according to claim 2, wherein:
【請求項4】 前記奥行き算出部は、前記被写体の前記
特定領域を前記2つの視点位置の中点から見た場合の方
位によって、前記位置ずれ及び前記大きさ比を考慮する
割合を変えて、前記被写体の前記特定領域の前記奥行き
値を算出することを特徴とする請求項3に記載の画像撮
像装置。
4. The depth calculation unit changes a ratio in which the position shift and the size ratio are considered according to an azimuth when the specific region of the subject is viewed from a midpoint of the two viewpoint positions, The apparatus according to claim 3, wherein the depth value of the specific area of the subject is calculated.
【請求項5】 前記奥行き算出部は、前記被写体の前記
特定領域が、前記2つの視点位置を結ぶ直線の方向に近
いほど、前記大きさ比を考慮する割合を増やし、前記被
写体の前記特定領域が、前記2つの視点位置の中点を通
り、前記2つの視点位置を結ぶ直線に垂直な平面に近い
ほど、前記位置ずれを考慮する割合を増やして、前記被
写体の前記特定領域の前記奥行き値を算出することを特
徴とする請求項4に記載の画像撮像装置。
5. The depth calculating section increases a ratio of considering the size ratio as the specific area of the subject is closer to a direction of a straight line connecting the two viewpoint positions, and increases the specific area of the subject. However, the closer to the plane perpendicular to the straight line connecting the two viewpoint positions, passing through the midpoint of the two viewpoint positions, the greater the rate of considering the position shift, and the greater the depth value of the specific area of the subject. The image pickup apparatus according to claim 4, wherein is calculated.
【請求項6】 前記撮像部は、視野角の広い光学レンズ
を有し、前記光学レンズを移動させる駆動部をさらに備
え、前記撮像部は、前記駆動部が前記光学レンズを移動
させた位置を前記視点位置として、前記被写体の前記視
差画像を撮像することを特徴とする請求項1に記載の画
像撮像装置。
6. The imaging unit has an optical lens having a wide viewing angle, and further includes a driving unit that moves the optical lens, wherein the imaging unit determines a position where the driving unit has moved the optical lens. The image capturing apparatus according to claim 1, wherein the parallax image of the subject is captured as the viewpoint position.
【請求項7】 前記撮像部は、視点位置の異なる2つの
視野角の広い光学レンズを有し、前記2つの光学レンズ
によって前記被写体の前記視差画像を撮像することを特
徴とする請求項1に記載の画像撮像装置。
7. The apparatus according to claim 1, wherein the imaging unit has two optical lenses having different viewing positions and having a wide viewing angle, and capturing the parallax image of the subject with the two optical lenses. The image pickup apparatus according to any one of the preceding claims.
【請求項8】 前記光学レンズは魚眼レンズであり、前
記奥行き算出部は、前記撮像部が前記魚眼レンズによっ
て撮像する前記被写体の全方位の領域について前記奥行
き値を算出することを特徴とする請求項6または7に記
載の画像撮像装置。
8. The apparatus according to claim 6, wherein the optical lens is a fisheye lens, and the depth calculation unit calculates the depth value for an omnidirectional area of the subject imaged by the imaging unit with the fisheye lens. Or the image pickup device according to 7.
【請求項9】 前記撮像部は、固体撮像素子を有し、前
記光学レンズによって前記被写体の前記視差画像を前記
固体撮像素子に撮像することを特徴とする請求項6また
は7に記載の画像撮像装置。
9. The image pickup apparatus according to claim 6, wherein the image pickup unit has a solid-state image pickup device, and the parallax image of the subject is picked up by the solid-state image pickup device by the optical lens. apparatus.
【請求項10】 被写体の奥行きに関する情報を取得す
る画像処理装置であって、 複数の異なる視点位置から前記被写体を見た場合に得ら
れる前記被写体の複数の視差画像を入力する入力部と、 前記複数の視差画像における前記被写体の特定領域の像
の大きさの比を検出する大きさ比検出部と、 前記大きさ比に基づいて、前記被写体の前記特定領域の
奥行き値を算出する奥行き算出部とを備えたことを特徴
とする画像処理装置。
10. An image processing apparatus for acquiring information on a depth of a subject, comprising: an input unit configured to input a plurality of parallax images of the subject obtained when the subject is viewed from a plurality of different viewpoint positions; A size ratio detection unit that detects a size ratio of the image of the specific region of the subject in a plurality of parallax images; and a depth calculation unit that calculates a depth value of the specific region of the subject based on the size ratio. An image processing apparatus comprising:
【請求項11】 前記複数の視差画像における前記被写
体の前記特定領域の像の位置のずれを検出する位置ずれ
検出部をさらに備え、前記奥行き算出部は、前記位置ず
れ及び前記大きさ比に基づいて、前記被写体の前記特定
領域の奥行き値を算出することを特徴とする請求項10
に記載の画像処理装置。
11. The image processing apparatus according to claim 1, further comprising: a position shift detecting unit configured to detect a position shift of an image of the specific area of the subject in the plurality of parallax images, wherein the depth calculating unit determines the position shift based on the position shift and the size ratio. And calculating a depth value of the specific area of the subject.
An image processing apparatus according to claim 1.
【請求項12】 前記奥行き算出部は、前記被写体の前
記特定領域毎に、前記位置ずれ及び前記大きさ比を考慮
する割合を変えて、前記被写体の前記特定領域の前記奥
行き値を算出することを特徴とする請求項11に記載の
画像処理装置。
12. The depth calculation unit calculates the depth value of the specific region of the subject by changing a ratio of considering the position shift and the size ratio for each of the specific regions of the subject. The image processing apparatus according to claim 11, wherein:
【請求項13】 前記奥行き算出部は、前記被写体の前
記特定領域を前記2つの視点位置の中点から見た場合の
方位によって、前記位置ずれ及び前記大きさ比を考慮す
る割合を変えて、前記被写体の前記特定領域の前記奥行
き値を算出することを特徴とする請求項12に記載の画
像処理装置。
13. The depth calculation unit changes a ratio in which the position shift and the size ratio are considered according to an azimuth when the specific region of the subject is viewed from a midpoint between the two viewpoint positions. The image processing apparatus according to claim 12, wherein the depth value of the specific area of the subject is calculated.
【請求項14】 前記被写体の前記特定領域が、前記2
つの視点位置を結ぶ直線の方向に近づくにつれて、前記
大きさ比を考慮する割合を増やし、前記被写体の前記特
定領域が、前記2つの視点位置の中点を通り、前記2つ
の視点位置を結ぶ直線に垂直な平面に近づくにつれて、
前記位置ずれを考慮する割合を増やして、前記被写体の
前記特定領域の前記奥行き値を算出することを特徴とす
る請求項13に記載の画像処理装置。
14. The method according to claim 1, wherein the specific area of the subject is the 2
As approaching the direction of the straight line connecting the two viewpoint positions, the ratio considering the size ratio is increased, and the specific region of the subject passes through the midpoint of the two viewpoint positions, and the straight line connects the two viewpoint positions. As you approach a plane perpendicular to
The image processing apparatus according to claim 13, wherein the depth value of the specific region of the subject is calculated by increasing a ratio of considering the position shift.
【請求項15】 前記奥行き算出部が算出した前記被写
体の前記特定領域の前記奥行き値に基づいて、前記入力
部が入力する前記被写体の画像の座標変換を行うことに
より前記画像を変換する画像変換部をさらに備えたこと
を特徴とする請求項10に記載の画像処理装置。
15. An image conversion for converting the image by performing coordinate conversion of an image of the subject input by the input unit based on the depth value of the specific area of the subject calculated by the depth calculation unit. The image processing apparatus according to claim 10, further comprising a unit.
【請求項16】 前記入力部が入力する前記被写体の前
記画像が魚眼レンズによって前記被写体を撮像した全方
位画像である場合に、前記画像変換部は、前記座標変換
によって、前記全方位画像を透視投影画像に変換するこ
とを特徴とする請求項15に記載の画像処理装置。
16. When the image of the subject input by the input unit is an omnidirectional image of the subject captured by a fisheye lens, the image conversion unit perspectively projects the omnidirectional image by the coordinate transformation. The image processing apparatus according to claim 15, wherein the image processing apparatus converts the image into an image.
【請求項17】 前記画像変換部は、前記座標変換によ
って、前記被写体の正投影画像を生成することを特徴と
する請求項15に記載の画像処理装置。
17. The image processing apparatus according to claim 15, wherein the image conversion unit generates an orthographic image of the subject by the coordinate conversion.
【請求項18】 被写体の奥行きに関する情報を取得す
る画像処理方法であって、 複数の異なる視点位置から前記被写体を見た場合に得ら
れる前記被写体の複数の視差画像を入力し、 前記複数の視差画像における前記被写体の特定領域の像
の位置のずれ及び大きさの比を検出し、 前記被写体の前記特定領域毎に、前記位置ずれ及び前記
大きさ比を考慮する割合を変えて、前記被写体の前記特
定領域の奥行き値を算出することを特徴とする画像処理
方法。
18. An image processing method for acquiring information on the depth of a subject, comprising: inputting a plurality of parallax images of the subject obtained when the subject is viewed from a plurality of different viewpoint positions; Detecting the ratio of the position shift and the size of the image of the specific region of the subject in the image, and changing the ratio considering the position shift and the size ratio for each of the specific regions of the subject, An image processing method comprising calculating a depth value of the specific area.
【請求項19】 被写体の奥行きに関する情報を取得す
るコンピュータ用のプログラムを格納した記録媒体であ
って、前記プログラムが、 複数の異なる視点位置から前記被写体を見た場合に得ら
れる前記被写体の複数の視差画像を入力させる入力モジ
ュールと、 前記複数の視差画像における前記被写体の特定領域の像
の位置のずれを検出する位置ずれ検出モジュールと、 前記複数の視差画像における前記被写体の前記特定領域
の像の大きさの比を検出する大きさ比検出モジュール
と、 前記被写体の前記特定領域毎に、前記位置ずれ及び前記
大きさ比を考慮する割合を変えて、前記被写体の前記特
定領域の前記奥行き値を算出する奥行き算出モジュール
とを備えたことを特徴とする記録媒体。
19. A recording medium storing a computer program for acquiring information on the depth of a subject, wherein the program is provided with a plurality of the subjects obtained when the subject is viewed from a plurality of different viewpoint positions. An input module for inputting a parallax image, a position shift detection module for detecting a position shift of an image of a specific region of the subject in the plurality of parallax images, and an image of the specific region of the subject in the plurality of parallax images. A size ratio detection module that detects a size ratio, and for each of the specific regions of the subject, changing the ratio of considering the displacement and the size ratio to change the depth value of the specific region of the subject. A recording medium comprising a depth calculation module for calculating the depth.
JP32033699A 1999-11-10 1999-11-10 Image pickup device and image processor Pending JP2001141422A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32033699A JP2001141422A (en) 1999-11-10 1999-11-10 Image pickup device and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32033699A JP2001141422A (en) 1999-11-10 1999-11-10 Image pickup device and image processor

Publications (1)

Publication Number Publication Date
JP2001141422A true JP2001141422A (en) 2001-05-25

Family

ID=18120355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32033699A Pending JP2001141422A (en) 1999-11-10 1999-11-10 Image pickup device and image processor

Country Status (1)

Country Link
JP (1) JP2001141422A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004008744A1 (en) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP2006052975A (en) * 2004-08-10 2006-02-23 Nikon Corp Binocular vision apparatus
WO2008053649A1 (en) * 2006-11-02 2008-05-08 Konica Minolta Holdings, Inc. Wide angle image acquiring method and wide angle streo camera device
WO2009152769A1 (en) * 2008-06-17 2009-12-23 深圳华为通信技术有限公司 Video communication method, apparatus and system
JP2011027496A (en) * 2009-07-23 2011-02-10 Konica Minolta Opto Inc Periphery display device
JP2012198077A (en) * 2011-03-18 2012-10-18 Ricoh Co Ltd Stereo camera device and parallax image generating method
JP2019032295A (en) * 2017-08-09 2019-02-28 ミツミ電機株式会社 Distance measuring camera
WO2019124040A1 (en) * 2017-12-18 2019-06-27 ミツミ電機株式会社 Distance measuring camera
WO2019150807A1 (en) * 2018-02-01 2019-08-08 ミツミ電機株式会社 Authentication device
JP2019164011A (en) * 2018-03-19 2019-09-26 ミツミ電機株式会社 Range-finding camera
WO2020008832A1 (en) * 2018-07-06 2020-01-09 ミツミ電機株式会社 Distance measurement camera
WO2020017377A1 (en) * 2018-07-18 2020-01-23 ミツミ電機株式会社 Ranging camera
WO2020017209A1 (en) * 2018-07-18 2020-01-23 ミツミ電機株式会社 Distance measurement camera
US10663295B2 (en) 2015-12-04 2020-05-26 Socionext Inc. Distance measurement system, mobile object, and component
WO2020158158A1 (en) * 2019-02-01 2020-08-06 ミツミ電機株式会社 Authentication device
WO2020162003A1 (en) * 2019-02-06 2020-08-13 ミツミ電機株式会社 Distance measurement camera
CN112149684A (en) * 2020-08-19 2020-12-29 北京豆牛网络科技有限公司 Image processing method and image preprocessing method for target detection
CN112585423A (en) * 2018-11-01 2021-03-30 三美电机株式会社 Distance measuring camera
JP2022128516A (en) * 2017-12-18 2022-09-01 ミツミ電機株式会社 ranging camera
JP2022128518A (en) * 2018-03-19 2022-09-01 ミツミ電機株式会社 ranging camera
JP2022128517A (en) * 2017-08-09 2022-09-01 ミツミ電機株式会社 ranging camera

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004008744A1 (en) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP2006052975A (en) * 2004-08-10 2006-02-23 Nikon Corp Binocular vision apparatus
WO2008053649A1 (en) * 2006-11-02 2008-05-08 Konica Minolta Holdings, Inc. Wide angle image acquiring method and wide angle streo camera device
JPWO2008053649A1 (en) * 2006-11-02 2010-02-25 コニカミノルタホールディングス株式会社 Wide-angle image acquisition method and wide-angle stereo camera device
US8269820B2 (en) 2006-11-02 2012-09-18 Konica Minolta Holdings, Inc. Wide-angle image acquiring method and wide-angle stereo camera device
WO2009152769A1 (en) * 2008-06-17 2009-12-23 深圳华为通信技术有限公司 Video communication method, apparatus and system
US8446459B2 (en) 2008-06-17 2013-05-21 Huawei Device Co., Ltd. Video communication method, device, and system
JP2011027496A (en) * 2009-07-23 2011-02-10 Konica Minolta Opto Inc Periphery display device
JP2012198077A (en) * 2011-03-18 2012-10-18 Ricoh Co Ltd Stereo camera device and parallax image generating method
US10663295B2 (en) 2015-12-04 2020-05-26 Socionext Inc. Distance measurement system, mobile object, and component
JP7288226B2 (en) 2017-08-09 2023-06-07 ミツミ電機株式会社 ranging camera
JP7104296B2 (en) 2017-08-09 2022-07-21 ミツミ電機株式会社 Rangefinder camera
JP2019032295A (en) * 2017-08-09 2019-02-28 ミツミ電機株式会社 Distance measuring camera
US11525676B2 (en) 2017-08-09 2022-12-13 Mitsumi Electric Co., Ltd. Distance measuring camera
JP2022128517A (en) * 2017-08-09 2022-09-01 ミツミ電機株式会社 ranging camera
CN110998228A (en) * 2017-08-09 2020-04-10 三美电机株式会社 Distance measuring camera
JP2019109124A (en) * 2017-12-18 2019-07-04 ミツミ電機株式会社 Ranging camera
WO2019124040A1 (en) * 2017-12-18 2019-06-27 ミツミ電機株式会社 Distance measuring camera
JP7328589B2 (en) 2017-12-18 2023-08-17 ミツミ電機株式会社 ranging camera
US11499824B2 (en) * 2017-12-18 2022-11-15 Mitsumi Electric Co., Ltd. Distance measuring camera
JP7104294B2 (en) 2017-12-18 2022-07-21 ミツミ電機株式会社 Rangefinder camera
JP2022128516A (en) * 2017-12-18 2022-09-01 ミツミ電機株式会社 ranging camera
WO2019150807A1 (en) * 2018-02-01 2019-08-08 ミツミ電機株式会社 Authentication device
JP7157303B2 (en) 2018-02-01 2022-10-20 ミツミ電機株式会社 Authentication device
JP2019133526A (en) * 2018-02-01 2019-08-08 ミツミ電機株式会社 Authentication device
CN111670455A (en) * 2018-02-01 2020-09-15 三美电机株式会社 Authentication device
CN111868474A (en) * 2018-03-19 2020-10-30 三美电机株式会社 Distance measuring camera
JP7104301B2 (en) 2018-03-19 2022-07-21 ミツミ電機株式会社 Rangefinder camera
JP2019164011A (en) * 2018-03-19 2019-09-26 ミツミ電機株式会社 Range-finding camera
JP7288227B2 (en) 2018-03-19 2023-06-07 ミツミ電機株式会社 ranging camera
WO2019181622A1 (en) * 2018-03-19 2019-09-26 ミツミ電機株式会社 Distance measurement camera
US11436746B2 (en) * 2018-03-19 2022-09-06 Mitsumi Electric Co., Ltd. Distance measuring camera
JP2022128518A (en) * 2018-03-19 2022-09-01 ミツミ電機株式会社 ranging camera
WO2020008832A1 (en) * 2018-07-06 2020-01-09 ミツミ電機株式会社 Distance measurement camera
US11410321B2 (en) 2018-07-06 2022-08-09 Mitsumi Electric Co., Ltd. Distance measuring camera
CN112368544A (en) * 2018-07-06 2021-02-12 三美电机株式会社 Distance measuring camera
JP2020008415A (en) * 2018-07-06 2020-01-16 ミツミ電機株式会社 Distance measuring camera
JP7121269B2 (en) 2018-07-06 2022-08-18 ミツミ電機株式会社 ranging camera
JP7227454B2 (en) 2018-07-18 2023-02-22 ミツミ電機株式会社 ranging camera
CN112424566A (en) * 2018-07-18 2021-02-26 三美电机株式会社 Distance measuring camera
EP3825649A4 (en) * 2018-07-18 2022-04-20 Mitsumi Electric Co., Ltd. Ranging camera
US11341668B2 (en) 2018-07-18 2022-05-24 Mitsumi Electric Co., Ltd. Distance measuring camera
JP2020020775A (en) * 2018-07-18 2020-02-06 ミツミ電機株式会社 Distance measuring camera
WO2020017377A1 (en) * 2018-07-18 2020-01-23 ミツミ電機株式会社 Ranging camera
WO2020017209A1 (en) * 2018-07-18 2020-01-23 ミツミ電機株式会社 Distance measurement camera
US11385053B2 (en) * 2018-11-01 2022-07-12 Mitsumi Electric Co., Ltd. Distance measuring camera
CN112585423A (en) * 2018-11-01 2021-03-30 三美电机株式会社 Distance measuring camera
EP3875900A4 (en) * 2018-11-01 2022-08-03 Mitsumi Electric Co., Ltd. Ranging camera
WO2020158158A1 (en) * 2019-02-01 2020-08-06 ミツミ電機株式会社 Authentication device
JP2020126371A (en) * 2019-02-01 2020-08-20 ミツミ電機株式会社 Authentication device
WO2020162003A1 (en) * 2019-02-06 2020-08-13 ミツミ電機株式会社 Distance measurement camera
JP2020126029A (en) * 2019-02-06 2020-08-20 ミツミ電機株式会社 Distance measurement camera
JP7256368B2 (en) 2019-02-06 2023-04-12 ミツミ電機株式会社 ranging camera
US11842507B2 (en) 2019-02-06 2023-12-12 Mitsumi Electric Co., Ltd. Distance measuring camera
CN112149684A (en) * 2020-08-19 2020-12-29 北京豆牛网络科技有限公司 Image processing method and image preprocessing method for target detection
CN112149684B (en) * 2020-08-19 2024-06-07 北京豆牛网络科技有限公司 Image processing method and image preprocessing method for target detection

Similar Documents

Publication Publication Date Title
JP3907891B2 (en) Image capturing apparatus and image processing apparatus
JP2001141422A (en) Image pickup device and image processor
JP6468307B2 (en) Imaging apparatus, image processing apparatus and method
EP1185112B1 (en) Apparatus for parallax image capturing and parallax image processing
US9185317B2 (en) Image capturing apparatus capable of storing focus detection data
US20080117316A1 (en) Multi-eye image pickup device
KR20160028490A (en) Image processing apparatus, image processing method, and imaging system
JP2001141430A (en) Image pickup device and image processing device
JP5846172B2 (en) Image processing apparatus, image processing method, program, and imaging system
CN102972032A (en) Three-dimensional image display device, three-dimensional image display method, three-dimensional image display program, and recording medium
JP2007201539A (en) Digital camera
US20120147145A1 (en) Image processing device, image processing method, and program
JP6222205B2 (en) Image processing device
JP5796611B2 (en) Image processing apparatus, image processing method, program, and imaging system
JP2019053758A (en) Image processing apparatus
JP4162842B2 (en) Image capturing apparatus and image capturing method
JP6079838B2 (en) Image processing apparatus, program, image processing method, and imaging system
KR20160011533A (en) Image capturing apparatus, method for capturing image, and non-transitory recordable medium
JP4282920B2 (en) Parallax image imaging device and parallax image processing device
JP4516221B2 (en) Imaging device
KR101009832B1 (en) Method and apparatus for compounding taken image in digital camera
JP6439845B2 (en) Image processing device
JP2006148701A (en) System and method of calibrating position of digital camera
JP2013113877A (en) Stereoscopic photographing device, and portable terminal device using the same
JP2004117195A (en) Digital camera with speed measuring function