JP2023004680A - Image processing device and control method for image processing device - Google Patents

Image processing device and control method for image processing device Download PDF

Info

Publication number
JP2023004680A
JP2023004680A JP2021106532A JP2021106532A JP2023004680A JP 2023004680 A JP2023004680 A JP 2023004680A JP 2021106532 A JP2021106532 A JP 2021106532A JP 2021106532 A JP2021106532 A JP 2021106532A JP 2023004680 A JP2023004680 A JP 2023004680A
Authority
JP
Japan
Prior art keywords
distance information
image
correction map
image processing
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021106532A
Other languages
Japanese (ja)
Inventor
慎吾 森
Shingo Mori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021106532A priority Critical patent/JP2023004680A/en
Publication of JP2023004680A publication Critical patent/JP2023004680A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To address a probability that, when the state of a lens, a barrel, or a sensor is changed due to a temperature change or posture change of an imaging device, optical characteristics such as a field curvature and a distortion aberration are changed to generate a ranging error in an overall screen.SOLUTION: An image processing device includes generation means for generating distance information using a plurality of image signals obtained from different view points, detection means for detecting a flat region in the image signals, and estimation means for estimating a correction map for correcting the distance information. The estimation means expresses the correction map by using a function in which position coordinates of an image are variables, and estimates the correction map on the basis of the distance information corresponding to the flat region.SELECTED DRAWING: Figure 1

Description

本発明は、画像を使用した測距機能を有する、デジタルカメラやデジタルビデオカメラ、車載センサデバイス、ロボットビジョンセンサデバイスといった撮像装置の画像処理装置及びその制御方法に関する。 The present invention relates to an image processing apparatus and a control method thereof for an imaging apparatus such as a digital camera, a digital video camera, an in-vehicle sensor device, a robot vision sensor device, etc., having a distance measurement function using an image.

撮像装置において、異なる視点から撮像された画像信号に基づいて被写体のデフォーカス状態や撮像装置から被写体までの距離などの距離情報を検出できる測距機能を備えたものが提案されている(特許文献1参照)。 An imaging device has been proposed that has a distance measurement function capable of detecting distance information such as the defocus state of a subject and the distance from the imaging device to the subject based on image signals captured from different viewpoints (Patent Document 1).

WO2010/010707WO2010/010707

このような測距機能を有する撮像装置では、撮像装置の温度変化や姿勢変化などでレンズや鏡筒、センサの状態が変化することで、像面湾曲や歪曲収差などの光学特性が変化し、画面全体に測距誤差が発生する可能性がある。 In imaging devices with such a range finding function, optical characteristics such as curvature of field and distortion change due to changes in the state of lenses, barrels, and sensors due to changes in the temperature and posture of the imaging device. Distance measurement errors may occur across the screen.

上記課題に鑑み、本発明に係る画像処理装置は、異なる視点で撮像された複数の画像信号を用いて距離情報を生成する生成手段と、前記画像信号における平面領域を検出する検出手段と、前記距離情報を補正するための補正マップを推定する推定手段と、を備え、前記推定手段は、前記補正マップを画像の位置座標を変数とする関数で表し、前記平面領域に対応する距離情報に基づいて前記補正マップを推定することを特徴とする。 In view of the above problems, an image processing apparatus according to the present invention provides a generation means for generating distance information using a plurality of image signals captured from different viewpoints, a detection means for detecting a plane area in the image signals, and the estimating means for estimating a correction map for correcting the distance information, wherein the estimating means expresses the correction map as a function having the position coordinates of the image as variables, and calculates the correction map based on the distance information corresponding to the plane area. and estimating the correction map.

本発明によれば、画面全体に生じる測距誤差を低減し、装置の姿勢変化や温度変動があっても高精度な測距が可能となる。 According to the present invention, it is possible to reduce distance measurement errors that occur in the entire screen, and to perform highly accurate distance measurement even if there is a change in the posture of the device or a change in temperature.

第1の実施形態に係る撮像装置の構成を示すブロック図1 is a block diagram showing the configuration of an imaging device according to a first embodiment; FIG. 第1の実施形態に係る光学系および撮像部を説明した図FIG. 2 is a diagram explaining an optical system and an imaging unit according to the first embodiment; 第1の実施形態に係る画像処理部の構成を示すブロック図1 is a block diagram showing the configuration of an image processing unit according to the first embodiment; FIG. 第1の実施形態に係る補正マップの推定処理動作を説明したフロー図FIG. 4 is a flow diagram for explaining the correction map estimation processing operation according to the first embodiment; 第1の実施形態に係る入力画像の一例An example of an input image according to the first embodiment 第1の実施形態に係る距離情報を生成した場合のグラフの例Example of graph when distance information is generated according to the first embodiment 第1の実施形態に係る像面湾曲の補正量を示すグラフの例An example of a graph showing a correction amount of curvature of field according to the first embodiment 第1の実施形態に係る補正マップの推定に用いる画像を説明した図FIG. 4 is a diagram explaining an image used for estimating a correction map according to the first embodiment; 第2の実施形態に係る撮像装置の構成を示す図A diagram showing the configuration of an imaging device according to a second embodiment.

以下、図を参照して本発明の実施形態を詳細に説明するが、本発明は各実施例に記載された内容に限定されない。本発明は各実施例に示された構成の組み合わせや、種々の変形および変更が可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings, but the present invention is not limited to the contents described in each example. The present invention can be combined with the configuration shown in each embodiment, and various modifications and changes can be made.

実施例1では、像面位相差測距機能を有する撮像装置を使用して、室内の人物を撮影するユースケースを例に説明する。本実施形態は、外部の撮像装置を使用して撮影された画像を取得し、測距演算の可能な画像処理装置にも適用可能である。画像処理装置には、デジタルカメラやスマートフォンを含む携帯電話機、ゲーム機、タブレット端末、時計型や眼鏡型の情報端末、医療機器、監視システムや車載用システムの機器などが含まれてよい。 In the first embodiment, a use case of photographing a person in a room using an imaging apparatus having an image plane phase-difference ranging function will be described as an example. This embodiment can also be applied to an image processing apparatus capable of obtaining an image captured by an external imaging device and performing distance measurement calculation. The image processing device may include mobile phones including digital cameras and smartphones, game machines, tablet terminals, watch-type and eyeglass-type information terminals, medical equipment, equipment for monitoring systems and in-vehicle systems, and the like.

図1は、本発明を適用できる画像処理装置を撮像装置100に応用した場合の構成図を示すブロック図である。撮像装置100は、光学系101、撮像部102、A/D変換部103、制御部104、画像処理部105、記録部106、揮発性メモリ107、不揮発性メモリ108を備える。 FIG. 1 is a block diagram showing a configuration diagram when an image processing apparatus to which the present invention can be applied is applied to an imaging apparatus 100. As shown in FIG. The imaging device 100 includes an optical system 101 , an imaging unit 102 , an A/D conversion unit 103 , a control unit 104 , an image processing unit 105 , a recording unit 106 , a volatile memory 107 and a nonvolatile memory 108 .

光学系101はズームレンズやフォーカスレンズから構成されるレンズ群、絞り調整装置、およびシャッター装置を備えている。この光学系101は撮像部102に到達する被写体像の倍率やピント位置、あるいは光量を調整している。 The optical system 101 includes a lens group including a zoom lens and a focus lens, an aperture adjustment device, and a shutter device. This optical system 101 adjusts the magnification, focus position, or amount of light of the subject image reaching the imaging unit 102 .

撮像部102は光学系101を通過した被写体の光束を光電変換し、電気信号に変換するCCDやCMOSセンサ等の光電変換素子である。 The imaging unit 102 is a photoelectric conversion element such as a CCD or CMOS sensor that photoelectrically converts the luminous flux of an object that has passed through the optical system 101 and converts the converted light into an electric signal.

光学系101および撮像部102にはそれぞれ駆動制御部を設けてもよい。駆動制御部は後述する制御部104からの指示により、光学系および撮像部を駆動し、ピント位置を自動調整することなどが可能である。 A drive control unit may be provided for each of the optical system 101 and the imaging unit 102 . The drive control unit can drive the optical system and the imaging unit according to instructions from the control unit 104, which will be described later, and automatically adjust the focus position.

A/D変換部103は、入力されたアナログ画像信号をデジタル画像信号のデータに変換する。 The A/D converter 103 converts the input analog image signal into digital image signal data.

また、撮像部102は、A/D変換部を含み、後述の制御部104に位相差情報または位相差情報から換算されたデフォーカス情報を出力する撮像面位相差センサであってもよい。 Further, the imaging unit 102 may be an imaging surface phase difference sensor that includes an A/D conversion unit and outputs phase difference information or defocus information converted from the phase difference information to the control unit 104 described later.

画像処理部105は、A/D変換部103等からのデータに対して通常の信号処理の他に、本発明における視差算出処理を行う。ここで通常の処理信号とは、ノイズ低減処理や現像処理、ガンマ変換による階調圧縮処理によって所定の出力レンジに階調圧縮する処理などを指す。 The image processing unit 105 performs parallax calculation processing according to the present invention in addition to normal signal processing on data from the A/D conversion unit 103 and the like. Here, the normal processed signal refers to processing such as noise reduction processing, development processing, and gradation compression processing by gamma conversion to a predetermined output range.

制御部104は、少なくとも1つのプロセッサまたは回路からなる制御部であり、撮像装置100全体を制御する。例えばCPUやMPUなどのプロセッサを含み、不揮発性メモリ108に記録されたプログラムを揮発性メモリ107に展開し、実行することにより、撮像装置100が備える各ブロックの動作を制御する。例えば、適正な明るさを持つ入力画像を得る為の撮影時の露光量を算出し、それを実現する為に光学系101と撮像部102を制御して、絞り、シャッタースピード、センサのアナログゲインを制御する。 A control unit 104 is a control unit including at least one processor or circuit, and controls the imaging apparatus 100 as a whole. For example, it includes a processor such as a CPU and an MPU, develops a program recorded in the nonvolatile memory 108 in the volatile memory 107, and executes it to control the operation of each block included in the imaging apparatus 100. FIG. For example, the amount of exposure at the time of shooting to obtain an input image with appropriate brightness is calculated, and in order to achieve this, the optical system 101 and imaging unit 102 are controlled, and the aperture, shutter speed, and analog gain of the sensor are calculated. to control.

記録部106は、画像を記録する機能を有し、たとえば、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた情報記録媒体を含んでも良い。 The recording unit 106 has a function of recording an image, and may include, for example, an information recording medium using a package containing a rotating recording medium such as a memory card equipped with a semiconductor memory or a magneto-optical disk.

図2(A)は、図1の撮像装置100における、光学系101と撮像部102の位置関係を記している。破線101aは光学系101の光軸であり、撮像部102は光軸101aと略垂直になるように配置されている。 FIG. 2A shows the positional relationship between the optical system 101 and the imaging unit 102 in the imaging apparatus 100 of FIG. A dashed line 101a is the optical axis of the optical system 101, and the imaging unit 102 is arranged so as to be substantially perpendicular to the optical axis 101a.

図2(B)は、図1の撮像部102の画素配列構成を示している。ここで光軸101aはz軸方向に一致している。各画素200は図2(C)に示す断面図のように、マイクロレンズ201、カラーフィルタ202、光電変換部203A、203Bで構成されている。撮像部102は画素毎にカラーフィルタ202によって検出する波長帯域に応じたRed、Green、Blueの分光特性が与えられ、カラーフィルタは公知の配色パターンによって配置されている。基盤204には波長帯域に応じた感度を持つ光電変換部203A、203Bが形成されている。 FIG. 2B shows the pixel array configuration of the imaging unit 102 in FIG. Here, the optical axis 101a coincides with the z-axis direction. Each pixel 200 is composed of a microlens 201, a color filter 202, and photoelectric conversion units 203A and 203B, as shown in the cross-sectional view of FIG. 2(C). The imaging unit 102 is provided with red, green, and blue spectral characteristics according to the wavelength band detected by the color filter 202 for each pixel, and the color filters are arranged according to a known coloration pattern. Photoelectric conversion units 203A and 203B having sensitivities corresponding to wavelength bands are formed on the substrate 204 .

図2(D)は光学系101の光軸101aと撮像部102の交点から射出瞳を見た図である。光電変換部203Aと203Bには、それぞれ射出瞳の異なる領域である第1の瞳領域210を通過した光束と第2の瞳領域220を主に通過した光束が入射する。光電変換部203Aおよび203Bに入射した光束をそれぞれ光電変換することで、異なる視点から撮像されたA画像およびB画像を生成する。検出されたA画像とB画像は画像処理部105に伝送され、測距演算処理により距離情報を算出し、記録部106に保存される。また、A画像とB画像を加算した画像は、画像情報として利用できる。 FIG. 2D is a view of the exit pupil viewed from the intersection of the optical axis 101a of the optical system 101 and the imaging unit 102. FIG. A light flux that has passed through the first pupil region 210 and a light flux that has mainly passed through the second pupil region 220, which are different regions of the exit pupil, enter the photoelectric conversion units 203A and 203B. By photoelectrically converting the light beams incident on the photoelectric conversion units 203A and 203B, an A image and a B image captured from different viewpoints are generated. The detected A image and B image are transmitted to the image processing unit 105 , distance information is calculated by distance measurement calculation processing, and stored in the recording unit 106 . Also, an image obtained by adding the A image and the B image can be used as image information.

図2(D)の符号211は瞳領域210の重心位置であり、符号221は瞳領域220の重心位置である。本実施形態において、瞳領域210の重心位置211は、射出瞳の中心からx軸方向に偏心(移動)しており、瞳領域220の重心位置221はその逆方向に偏心(移動)している。この重心間距離が基線長222となり、その線分方向を瞳分割方向と呼ぶ。A画像とB画像は瞳分割方向と同じ方向に位置が変化する。この画像間の相対的な位置変化量、すなわちA画像とB画像の視差は、デフォーカス量に応じた値となる。この視差を公知の手法により検出、変換し、デフォーカス量や撮像装置から被写体までの距離といった距離情報に変換することができる。 Reference numeral 211 in FIG. 2D denotes the center-of-gravity position of the pupil region 210 , and reference numeral 221 denotes the center-of-gravity position of the pupil region 220 . In this embodiment, the center of gravity 211 of the pupil region 210 is decentered (moved) from the center of the exit pupil in the x-axis direction, and the center of gravity 221 of the pupil region 220 is decentered (moved) in the opposite direction. . The distance between the centers of gravity is the baseline length 222, and the line segment direction is called the pupil division direction. The positions of the A image and the B image change in the same direction as the pupil division direction. The amount of relative positional change between the images, that is, the parallax between the A image and the B image has a value corresponding to the defocus amount. This parallax can be detected and converted by a known method, and converted into distance information such as the defocus amount and the distance from the imaging device to the subject.

次に、図3を参照して、本実施形態に係る画像処理部105の構成について説明する。なお、画像処理部105の各ブロックは、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。また、複数の機能ブロックが統合され又は1つの機能ブロックが分離されてもよい。 Next, the configuration of the image processing unit 105 according to this embodiment will be described with reference to FIG. Note that each block of the image processing unit 105 may be realized by a combination of software and hardware. Also, multiple functional blocks may be integrated or one functional block may be separated.

信号処理部301は、ノイズ低減処理や現像処理など、上述の通常の信号処理を行う。なお、信号処理部301は、A画像とB画像の信号を合成して1つの画像信号として扱ってよい。 A signal processing unit 301 performs the above-described normal signal processing such as noise reduction processing and development processing. Note that the signal processing unit 301 may synthesize the signals of the A image and the B image and handle them as one image signal.

撮影情報取得部302は、撮影時にユーザが設定した撮影モードや、焦点距離、絞り値、露光時間などの各種情報を、例えば制御部104を介して不揮発性メモリ108又は揮発性メモリ107から取得して、距離情報生成部305に提供する。 The shooting information acquisition unit 302 acquires various information such as the shooting mode set by the user at the time of shooting, the focal length, the aperture value, and the exposure time from the nonvolatile memory 108 or the volatile memory 107 via the control unit 104, for example. and provides it to the distance information generation unit 305 .

補正情報取得部303は、像面湾曲の補正情報や、歪曲収差の補正係数など、撮影設定に含まれない定常的な各種情報を、例えば制御部104を介して不揮発性メモリ108又は揮発性メモリ107から取得して、距離情報生成部305に提供する。 A correction information acquisition unit 303 acquires a variety of regular information that is not included in shooting settings, such as field curvature correction information and distortion aberration correction coefficients, in the nonvolatile memory 108 or volatile memory via the control unit 104, for example. 107 and provided to the distance information generation unit 305 .

平面検出部304は、信号処理部301から出力された画像信号に基づいて、被写体の平面の領域を検出する。 The plane detection unit 304 detects the plane area of the subject based on the image signal output from the signal processing unit 301 .

距離情報生成部305は、A画像とB画像の画像信号を取得し、その視差及び撮影情報と補正情報に基づいて、デフォーカス量や撮像装置から被写体までの距離といった距離情報を生成する。 A distance information generation unit 305 acquires the image signals of the A image and the B image, and generates distance information such as the defocus amount and the distance from the imaging device to the subject based on the parallax, shooting information, and correction information.

補正マップ推定部306は、平面検出部304と距離情報生成部305の出力を用いて、距離情報の歪みを補正する補正マップを出力する。補正マップは、例えば制御部104を介して不揮発性メモリ108又は揮発性メモリ107に保存され、次回の距離情報の生成に使用される。 A correction map estimation unit 306 outputs a correction map for correcting distortion of distance information using the outputs of the plane detection unit 304 and the distance information generation unit 305 . The correction map is stored, for example, in the non-volatile memory 108 or volatile memory 107 via the control unit 104, and used to generate the next distance information.

以下、図4、図5を参照して、本実施形態に係る補正マップの推定処理の一連の動作について説明する。図5は入力画像501の一例の図である。入力画像501は、室内に3人の人物502、503、504が立っているシーンを撮影した画像である。 A series of operations of the correction map estimation process according to the present embodiment will be described below with reference to FIGS. 4 and 5. FIG. FIG. 5 is a diagram of an example of an input image 501. FIG. An input image 501 is an image of a scene in which three persons 502, 503, and 504 are standing in a room.

S401では、距離情報生成部305は、入力画像501のA画像とB画像を取得する。 In S<b>401 , the distance information generation unit 305 acquires the A image and the B image of the input image 501 .

S402では、距離情報生成部305は、A画像とB画像に基づいて、距離情報を生成する。具体的には、A画像とB画像の視差を算出し、視差をデフォーカス量に変換したのち、レンズの公式を用いてデフォーカス量を物面までの距離に変換する。視差の算出とデフォーカス量の変換は、例えば、特開2016-9062号公報に開示されているような公知の手法を用いて、画素毎のデフォーカス量の分布を生成してもよい。 In S402, the distance information generation unit 305 generates distance information based on the A image and the B image. Specifically, after calculating the parallax between the A image and the B image and converting the parallax into a defocus amount, the lens formula is used to convert the defocus amount into a distance to the object plane. Parallax calculation and defocus amount conversion may be performed by generating a defocus amount distribution for each pixel using, for example, a known method disclosed in Japanese Patent Application Laid-Open No. 2016-9062.

ここでは像面湾曲によって生じるデフォーカス量を考慮して距離変換を行うため、像面湾曲補正マップWを使用してデフォーカス量を補正する。補正前のデフォーカス量をL、補正後のデフォーカス量をL′とすると、L′=L+Wと計算される。光学系101と撮像部102の状態が変わらなければ像面湾曲は変わらない。したがって、事前に設計データあるいは計測により像面湾曲補正マップWを求めておき、不揮発性メモリ107等に記録することも可能である。 Here, since the distance conversion is performed in consideration of the defocus amount caused by the field curvature, the field curvature correction map W is used to correct the defocus amount. Assuming that the defocus amount before correction is L and the defocus amount after correction is L', L'=L+W is calculated. If the states of the optical system 101 and the imaging unit 102 do not change, the curvature of field does not change. Therefore, it is also possible to obtain the field curvature correction map W in advance by design data or measurement, and record it in the nonvolatile memory 107 or the like.

上述したように、撮像装置から被写体までの距離は幾何光学におけるレンズの公式から計算することができる。 As described above, the distance from the imaging device to the subject can be calculated from the lens formula in geometric optics.

Figure 2023004680000002

A:物面から光学系101の主点までの距離
B:光学系101の主点から結像位置までの距離
F:光学系101の焦点距離
Figure 2023004680000002

A: Distance from the object surface to the principal point of the optical system 101 B: Distance from the principal point of the optical system 101 to the imaging position F: Focal length of the optical system 101

式(1)において、主点から撮像素子までの距離とデフォーカス量からBの値を求め、Fは設計データもしくは計測して求めた値を使用することで、物面までの距離Aを画素毎に算出できる。以下、このように算出した撮像装置から被写体までの距離を測距値と呼ぶ。測距値の基準は、式(1)のAの値を用いれば光学系の主点となるが、適切なオフセット値を与えることで、センサやレンズ先端など測距値の基準を変更してもよい。 In equation (1), the value of B is obtained from the distance from the principal point to the image sensor and the amount of defocus, and F is the design data or the value obtained by measurement, so that the distance A to the object plane is can be calculated for each Hereinafter, the distance from the imaging device to the object calculated in this manner is referred to as a distance measurement value. If the value of A in equation (1) is used, the reference of the distance measurement value will be the principal point of the optical system. good too.

S403では、平面検出部304は、画像信号に基づいて入力画像501に写る被写体から平面の領域を検出する。検出方法は既存の手法を使用してよく、例えばニューラルネットによる画像セグメンテーションを用いて、室内の壁、床、天井と推定される領域を平面としてしてもよい。平面が検出された場合、処理はS404へ進み、検出されなかった場合、補正マップの推定処理は終了となる。 In S403, the plane detection unit 304 detects a plane area from the subject appearing in the input image 501 based on the image signal. An existing technique may be used as the detection method. For example, image segmentation using a neural network may be used to make the areas estimated to be the walls, floor, and ceiling of the room as planes. If a plane is detected, the process proceeds to S404, and if not detected, the correction map estimation process ends.

S404では、補正マップ推定部306は、平面検出部304の検出した平面(以下、平面と呼ぶ)に対応する距離情報に基づいて、補正マップを推定するかどうか判定する。 In S404, the correction map estimation unit 306 determines whether or not to estimate a correction map based on the distance information corresponding to the plane detected by the plane detection unit 304 (hereinafter referred to as a plane).

図6は、図5の破線510上の測距値を示すグラフである。破線510は、平面の被写体である室内の壁506、507、509と、平面でない被写体である人物502、503、504に跨っている。距離情報生成部305にて生成された距離情報が正しい場合、平面の領域における測距値の変化量は一定である。図6(A)は距離情報が正しく生成されたときのグラフであり、平面に対応する測距値の変化量は一定である。一方、図6(B)は距離情報が正しく生成されなかった場合であり、平面に対応する距離情報は曲線(曲面)となっている。このように、平面に対応する測距値の変化量が一定でない場合に、補正マップ推定部306は補正マップの推定を開始する。 FIG. 6 is a graph showing distance measurements on dashed line 510 in FIG. A dashed line 510 straddles indoor walls 506, 507, and 509, which are planar subjects, and persons 502, 503, and 504, which are non-planar subjects. When the distance information generated by the distance information generation unit 305 is correct, the amount of change in the distance measurement value in the plane area is constant. FIG. 6A is a graph when the distance information is correctly generated, and the amount of change in the distance measurement value corresponding to the plane is constant. On the other hand, FIG. 6B shows a case where the distance information is not correctly generated, and the distance information corresponding to the plane is a curve (curved surface). Thus, when the amount of change in the distance measurement value corresponding to the plane is not constant, the correction map estimating unit 306 starts estimating the correction map.

具体的な判定方法は、例えば、ある平面において、近接画素間の測距値の差を求め、前記差の近接画素間での変化量がある閾値を超えた場合に補正を開始してもよい。あるいは平面領域内の変化量がある閾値を超えた場合に、補正を開始してもよい。また、同一平面の各画素の測距値を抽出し、平面になるようにフィッティングを行い、得られた距離値と各画素の測距値とを比較して判定してもよい。各画素の平面上の距離値と測距値の誤差を求め、その平均誤差が閾値を上回った場合に補正マップの推定を開始する。あるいは各平面の一定領域内の誤差のばらつきが特定の閾値を上回った場合に補正マップの推定を開始してもよい。 As a specific determination method, for example, a difference in distance measurement values between adjacent pixels on a certain plane may be obtained, and correction may be started when the amount of change in the difference between adjacent pixels exceeds a certain threshold. . Alternatively, correction may be started when the amount of change in the planar region exceeds a certain threshold. Alternatively, the distance measurement value of each pixel on the same plane may be extracted, fitting may be performed so as to form a plane, and the obtained distance value may be compared with the distance measurement value of each pixel for determination. The error between the distance value on the plane of each pixel and the measured distance value is obtained, and estimation of the correction map is started when the average error exceeds the threshold value. Alternatively, estimation of the correction map may be started when the error variation within a certain area of each plane exceeds a specific threshold.

S405では、補正マップ推定部306は、平面に対応する距離情報に基づいて、測距値が平面に近づくように補正マップを推定する。補正マップは画像の位置座標を変数とする関数として表現される。すなわち、補正マップは画素毎に補正値を持つものとして扱うことが可能である。本実施例では、補正マップとして、像面湾曲補正マップWの変化量ΔWを推定する。また、本実施例では、式(2)のように、ΔWは画像のx、y座標を変数とする二次曲面とするが、球面やお椀型のような、連続的かつある位置で最大(または最小)となる関数であれば、どのようなものを使用してもよい。ΔWは像面湾曲補正マップWの変化量のため、補正後のデフォーカス量L′はL′=L+W+ΔWと表現される。
+a+a+axy+ayz+azx+a=0・・・(2)
1,2,・・・7:二次曲面のパラメータ
(x,y):画像の位置座標
z:補正値
In S405, the correction map estimating unit 306 estimates a correction map based on the distance information corresponding to the plane so that the distance measurement value approaches the plane. The correction map is expressed as a function with image position coordinates as variables. That is, the correction map can be treated as having a correction value for each pixel. In this embodiment, the amount of change ΔW of the curvature of field correction map W is estimated as the correction map. In this embodiment, ΔW is a quadratic surface whose variables are the x and y coordinates of the image, as in equation (2). or minimum) can be used. Since .DELTA.W is the amount of change in the field curvature correction map W, the defocus amount L' after correction is expressed as L'=L+W+.DELTA.W.
a1x2 + a2y2 + a3z2 + a4xy + a5yz + a6zx +a7=0 ( 2 )
a 1, 2, . . . 7 : Parameter of quadratic surface (x, y): Position coordinates of image z: Correction value

補正マップの推定処理について説明する。平面に対応するデフォーカス量L′を抽出し、その値に基づいて二次曲面のパラメータを推定する。レンズの公式に従うと、ΔWを考量した各画素の測距値Aは式(3)で計算される(B=L′とする)。 A correction map estimation process will be described. A defocus amount L' corresponding to the plane is extracted, and the parameter of the quadratic surface is estimated based on that value. According to the lens formula, the measured distance value A of each pixel considering .DELTA.W is calculated by equation (3) (assuming that B=L').

Figure 2023004680000003
Figure 2023004680000003

式(3)に従い算出される画素毎の測距値Aが、各平面の領域で、できるだけ平面に近づくように二次曲面パラメータを推定する。パラメータの推定方法は公知の方法を使用してよい。例えば、上記、補正開始の判定処理のように、近接画素間の測距値の差の変化量や、フィッティングで求めた距離値との差や差のばらつきといった評価値を最小化する最適化問題を解けばよい。ただし、画面全体の測距誤差を考慮する必要があるため、画像に存在するすべての平面において評価値を求め、その総和を最小化する必要がある。 The quadratic surface parameters are estimated so that the distance measurement value A for each pixel calculated according to Equation (3) is as close to a plane as possible in each plane region. A known method may be used for estimating parameters. For example, like the correction start determination process described above, an optimization problem that minimizes evaluation values such as the amount of change in the difference in the distance measurement value between adjacent pixels, the difference from the distance value obtained by fitting, and the variation in the difference. can be solved. However, since it is necessary to consider the distance measurement error of the entire screen, it is necessary to obtain evaluation values for all planes present in the image and minimize the sum total.

また、本実施例では、像面湾曲を考慮した補正であるため、像面湾曲の影響を受けにくい光学系101の光軸付近の撮像部における補正前の測距値Aを基に、二次曲面のオフセット成分を決定する。 In the present embodiment, since the correction is made in consideration of the curvature of field, a quadratic Determine the offset component of the surface.

ΔWは画像の位置座標を変数としているため、平面でない領域においても補正を行うことが可能である。 Since ΔW uses the position coordinate of the image as a variable, it is possible to perform correction even in a non-flat area.

図7のグラフは、破線510上の像面湾曲の補正量を示したものである。点線701は元々の像面湾曲補正マップWである。実線702は平面の領域におけるW+ΔWであり、破線703は平面でない領域におけるW+ΔWである。以上のように、補正マップ推定部306は、平面の測距値に基づいて、画像全体の補正マップを推定することができる。 The graph in FIG. 7 shows the correction amount of the curvature of field on the dashed line 510 . A dotted line 701 is the original field curvature correction map W. FIG. The solid line 702 is W+ΔW in planar regions and the dashed line 703 is W+ΔW in non-planar regions. As described above, the correction map estimation unit 306 can estimate the correction map of the entire image based on the distance measurement value of the plane.

S406では、距離情報生成部305が補正マップ推定部306にて推定された補正マップを用いて距離情報を再生成する。これにより、画面全体の距離情報の補正が行われた補正距離情報が生成される。 In S406, the distance information generation unit 305 regenerates the distance information using the correction map estimated by the correction map estimation unit 306. FIG. As a result, corrected distance information obtained by correcting the distance information of the entire screen is generated.

上述した処理により、画面全体の距離情報の補正が行われる。平面の測距値に基づいて適切な補正マップを推定し、補正された距離情報を生成できるため、測距値の歪み成分が軽減され、高精度な測距が可能となる。 Through the processing described above, the correction of the distance information of the entire screen is performed. Since an appropriate correction map can be estimated based on the distance measurement value of the plane and the corrected distance information can be generated, the distortion component of the distance measurement value is reduced, and highly accurate distance measurement is possible.

撮像装置の温度変化や姿勢変化などにより像面湾曲が変化すると、工場出荷時の像面湾曲補正マップWでは補正しきれないため、画面全体に歪んだような測距誤差が発生する。像面湾曲は画像の位置座標に応じた所定の関数で表すことができるため、画面の一部の平面領域の情報を使用して、画面全体の補正マップを推定することが可能である。 If the curvature of field changes due to changes in the temperature or posture of the imaging apparatus, the curvature of field correction map W at the time of shipment from the factory cannot be used to correct the curvature of field. Since the curvature of field can be represented by a predetermined function according to the positional coordinates of the image, it is possible to estimate a correction map for the entire screen using information on a partial plane area of the screen.

本実施例では、平面の検出を画像処理で自動的に行ったが、画像の表示と接触入力機能を持つタッチパネルの備わった撮像装置を使用して、ユーザが直接平面を指定できるようにしてもよい。すなわち、画像処理では判定が困難な平面をユーザが検出対象として指定したり、誤検出した平面をユーザが指定して検出対象から外したりすることで、より高精度に補正マップを推定することができる。 In this embodiment, plane detection is automatically performed by image processing, but it is also possible to allow the user to directly specify a plane by using an imaging device equipped with a touch panel having image display and contact input functions. good. In other words, the user can specify a plane that is difficult to determine in image processing as a detection target, or the user can specify a falsely detected plane and exclude it from the detection target, thereby estimating the correction map with higher accuracy. can.

本実施例では平面の距離情報をすべて使用して補正マップを推定したが、視差演算のしやすい高コントラストの領域や、視差演算における相関値の高い領域など、より信頼度の高い距離情報に基づいて補正マップを推定してもよい。そうすることで、より高精度に補正マップを推定することができる。 In this embodiment, the correction map is estimated using all plane distance information. may be used to estimate the correction map. By doing so, the correction map can be estimated with higher accuracy.

本実施例では、1組のA画像とB画像を使用して補正マップを推定したが、2組以上のA画像とB画像を使用して、各組の平面の測距値に基づいて補正マップを推定してもよい。すなわち、複数回撮像して得た画像信号を用いる。例えば、画像501に加えて、図8(A)のような画像801を推定に使用してもよい。画像801は、画像501とシーンが少し異なっている。人物502と503の位置が移動し、504は撮像範囲から居なくなり、撮像装置の姿勢も画像501とは異なっている。図8(B)は画像801に画像501を点線にて重畳した図である。天井508と右側の壁507は各画像で平面の領域であり、各々の画像から求めた距離情報を利用することができる。また、縦線領域802は画像501とは異なる位置に平面領域があり、画像501のみと比べて広い平面領域の距離情報を利用することができる。いずれにおいても、平面領域の距離情報が多くなるため、よりロバストかつ高精度に補正マップを推定することができる。 In this example, one set of A and B images is used to estimate the correction map, but two or more sets of A and B images are used to correct based on the range measurements of each set of planes. Maps may be estimated. That is, image signals obtained by imaging multiple times are used. For example, in addition to the image 501, an image 801 as shown in FIG. 8A may be used for estimation. Image 801 has a slightly different scene from image 501 . The positions of persons 502 and 503 have moved, 504 has disappeared from the imaging range, and the posture of the imaging device is also different from that of image 501 . FIG. 8B is a diagram in which the image 501 is superimposed on the image 801 by a dotted line. The ceiling 508 and the right wall 507 are plane regions in each image, and the distance information obtained from each image can be used. Also, the vertical line area 802 has a planar area at a position different from that of the image 501, and distance information of a wider planar area than the image 501 alone can be used. In any case, since the amount of distance information in the planar area increases, the correction map can be estimated more robustly and with high accuracy.

画像処理装置に、平面の距離情報が存在しない領域を画面上に表示する報知機能を追加してもよい。そうすることで、より高精度な補正に必要な画像を、ユーザが新たに撮像することが容易となる。 A notification function may be added to the image processing apparatus to display on the screen an area where there is no plane distance information. By doing so, it becomes easier for the user to newly capture an image necessary for more accurate correction.

本実施例では、平面の測距値が正しく生成されていないと判定された場合に補正マップを生成したが、別の判定基準で補正マップを推定してもよい。例えば、撮像装置に温度センサや姿勢センサを取り付け、それらの変化量がある閾値を超えた場合に補正マップを推定してもよい。また、センサの値と補正マップの値を不揮発性メモリ108に保存しておき、現在のセンサの値に応じて過去に推定した補正マップを使用して補正を実施してもよい。 In this embodiment, the correction map is generated when it is determined that the distance measurement value of the plane is not correctly generated, but the correction map may be estimated based on another determination criterion. For example, a temperature sensor or an orientation sensor may be attached to the imaging device, and the correction map may be estimated when the amount of change in them exceeds a certain threshold. Alternatively, sensor values and correction map values may be stored in the non-volatile memory 108, and correction may be performed using a previously estimated correction map according to current sensor values.

また、画像処理装置に補正マップによる補正が不十分だと推定される領域を検出する領域検出手段を追加してもよい。この場合、検出した領域を報知する領域報知手段も用意することで、より高精度な補正に必要な画像を、ユーザが新たに撮像することが容易となる。画像処理装置に補正マップの推定を実施するか否かを制御するスイッチのような機能を用意してもよい。不要な平面検出処理を実施しないことで、画像処理装置の消費電力を抑えることができる。 Also, an area detection means for detecting an area estimated to be insufficiently corrected by the correction map may be added to the image processing apparatus. In this case, by also providing area notification means for notifying the detected area, it becomes easier for the user to newly capture an image necessary for more accurate correction. A function such as a switch for controlling whether or not to perform correction map estimation may be provided in the image processing apparatus. Power consumption of the image processing apparatus can be suppressed by not performing unnecessary plane detection processing.

また、画像処理装置によって算出された距離情報をもとに制御部104が駆動制御部を駆動させてもよい。これによって光学系と撮像部の両方、または一方を駆動し、適切なピント位置に自動調整することが可能となり、ユーザが容易に被写体にピントの合った撮影を行うことができる。 Alternatively, the control unit 104 may drive the drive control unit based on the distance information calculated by the image processing device. This makes it possible to drive both or one of the optical system and the imaging unit and automatically adjust the focus position to an appropriate one, so that the user can easily take an image in which the subject is in focus.

実施例2では、ステレオ画像を撮像する撮像装置を例に、本発明を適用できる画像処理装置について説明する。なお、実施例1と同様の構成や処理の場合は、説明を省略する。 In a second embodiment, an image processing apparatus to which the present invention can be applied will be described using an image pickup apparatus that picks up stereo images as an example. In addition, in the case of the same configuration and processing as in the first embodiment, the description will be omitted.

本実施形態は、外部の撮像装置を使用して撮影された画像を取得し、測距演算の可能な画像処理装置にも適用可能である。画像処理装置には、デジタルカメラやスマートフォンを含む携帯電話機、ゲーム機、タブレット端末、時計型や眼鏡型の情報端末、医療機器、監視システムや車載用システムの機器などが含まれてよい。 This embodiment can also be applied to an image processing apparatus capable of obtaining an image captured by an external imaging device and performing distance measurement calculation. The image processing device may include mobile phones including digital cameras and smartphones, game machines, tablet terminals, watch-type and eyeglass-type information terminals, medical equipment, equipment for monitoring systems and in-vehicle systems, and the like.

図9(a)は、本発明を適用できる画像処理装置を撮像装置900に応用した場合の構成図を示すブロック図である。撮像装置900は、光学系9011、9012、撮像部9021、9022、A/D変換部9031、9032、制御部904、画像処理部905、記録部906、揮発性メモリ907、不揮発性メモリ908を備える。 FIG. 9A is a block diagram showing the configuration of an imaging device 900 in which an image processing device to which the present invention can be applied is applied. The imaging device 900 includes optical systems 9011 and 9012, imaging units 9021 and 9022, A/D conversion units 9031 and 9032, a control unit 904, an image processing unit 905, a recording unit 906, a volatile memory 907, and a nonvolatile memory 908. .

撮像装置900の構成要素は、光学系9011,9012、撮像部9021、9022を除いて、実施例1の構成要素と同様の機能を有しているため、説明を省略する。 Except for optical systems 9011 and 9012 and imaging units 9021 and 9022, the constituent elements of the imaging apparatus 900 have the same functions as those of the constituent elements of the first embodiment, so description thereof will be omitted.

光学系9011、9012はズームレンズやフォーカスレンズから構成されるレンズ群、絞り調整装置、およびシャッター装置を備えている同一種類の光学系である。この光学系9011、9012はそれぞれ撮像部9021、9022に到達する被写体像の倍率やピント位置、あるいは光量を調整しており、それらのパラメータはそれぞれの光学系で同一になるように調整されている。 The optical systems 9011 and 9012 are the same type of optical system including a lens group including a zoom lens and a focus lens, an aperture adjustment device, and a shutter device. These optical systems 9011 and 9012 adjust the magnification, focus position, or light amount of the subject images reaching the imaging units 9021 and 9022, respectively, and these parameters are adjusted to be the same for each optical system. .

撮像部9021、9022は、光学系9011、9012それぞれを通過した被写体の光束を光電変換し、電気信号に変換するCCDやCMOSセンサ等の光電変換素子である。 The imaging units 9021 and 9022 are photoelectric conversion elements such as CCDs and CMOS sensors that photoelectrically convert the subject light beams that have passed through the optical systems 9011 and 9012, respectively, and convert them into electric signals.

A/D変換部9031、9032はそれぞれ撮像部9021、9022から入力されたアナログ画像信号をデジタル画像信号のデータに変換する。 A/D converters 9031 and 9032 convert the analog image signals input from the imaging units 9021 and 9022, respectively, into digital image signal data.

また、撮像部9021、9022はA/D変換部を含み、後述の制御部904にデフォーカス量情報を出力する撮像面位相差センサであってもよい。 Also, the imaging units 9021 and 9022 may be imaging surface phase difference sensors that include an A/D conversion unit and output defocus amount information to the control unit 904, which will be described later.

図9(b)は、撮像装置900の光学系9011、9012と撮像部9021、9022の位置関係を記したものである。光学系9011と光学系9012は、光軸9011aと光軸9012aが略平行になるように配置されている。光学系9011と光学系9012の主点の間の距離が基線長921となる。また撮像部9021及び9022は略同一平面上に配置されており、それぞれA画像およびB画像を生成する。A画像とB画像に写る同一被写体の基線長方向における画像上の相対的な位置変化を視差と呼ぶ。この視差を公知の方法により検出、変換することで、撮像装置から被写体までの距離を算出することができる。 FIG. 9B shows the positional relationship between optical systems 9011 and 9012 and imaging units 9021 and 9022 of the imaging device 900 . The optical system 9011 and the optical system 9012 are arranged so that the optical axis 9011a and the optical axis 9012a are substantially parallel. The distance between the principal points of the optical system 9011 and the optical system 9012 is the baseline length 921 . The imaging units 9021 and 9022 are arranged substantially on the same plane, and generate an A image and a B image, respectively. A relative positional change in the baseline length direction of the same subject in the A image and the B image is called parallax. By detecting and converting this parallax by a known method, the distance from the imaging device to the subject can be calculated.

以下、本実施形態に係る補正マップの推定処理の一連の動作について説明するが、画像の取得、平面検出、補正マップ推定開始の処理は実施例1と同様のため省略し、距離情報生成と補正マップの推定処理についてのみ説明する。 A series of operations of the correction map estimation process according to the present embodiment will be described below. Only the map estimation process will be described.

画像処理部905の距離情報生成部305は、A画像とB画像に基づいて、公知の手法により撮像装置から被写体までの距離情報を生成する。距離情報の生成過程は、画像の前処理、視差演算、距離変換の三段階に分けられる。 A distance information generation unit 305 of the image processing unit 905 generates distance information from the imaging device to the subject based on the A image and the B image by a known technique. The process of generating distance information is divided into three steps: image preprocessing, parallax calculation, and distance conversion.

まず画像の前処理について説明する。A画像とB画像はそれぞれ歪曲収差を含んでおり、そのままだと画像の領域に応じた測距誤差が生じてしまうため、距離情報生成部305は補正情報取得部より取得した歪曲補正パラメータkを使用して歪曲補正を行う。一般に歪曲収差は光軸を中心として円周方向、接線方向に生じる。したがって歪曲収差は、例えば、式(4)のようにモデル化することが可能である。 First, image preprocessing will be described. The A image and the B image each include distortion aberration, and if left as it is, a distance measurement error corresponding to the area of the image will occur. Use to correct distortion. Distortion generally occurs in the circumferential and tangential directions about the optical axis. Distortion can therefore be modeled, for example, as in Equation (4).

Figure 2023004680000004
(x,y):歪曲収差のないレンズの画像座標
(x,y):歪曲収差のあるレンズの画像座標
1,2,・・・5:歪曲補正パラメータ
Figure 2023004680000004
(x u , yu ): Image coordinates of lens without distortion (x d , y d ): Image coordinates of lens with distortion k 1, 2, . . . 5 : Distortion correction parameters

歪曲補正パラメータkは、光学系8011,8012の状態が変わらなければ変化しないため、基本的には工場出荷時に不揮発性メモリ807に記録されたものを使用する。 Since the distortion correction parameter k does not change unless the states of the optical systems 8011 and 8012 change, basically the one recorded in the nonvolatile memory 807 at the time of shipment from the factory is used.

次に距離情報生成部305は視差を算出する。算出方法は、公知の方法を使用してよく、例えば、ブロックマッチングや位相限定相関法などにより視差を算出する。 Next, the distance information generation unit 305 calculates parallax. A known method may be used as the calculation method. For example, the parallax is calculated by block matching, phase-only correlation method, or the like.

最後に距離情報生成部305は式(5)に従って、各画素にて算出された視差を撮像装置から被写体までの距離情報に変換する。 Finally, the distance information generation unit 305 converts the parallax calculated at each pixel into distance information from the imaging device to the subject according to Equation (5).

Figure 2023004680000005

A:物面から光学系の主点までの距離
B:基線長の距離
F:光学系の焦点距離
Z:視差
Figure 2023004680000005

A: Distance from object surface to principal point of optical system B: Distance of baseline length F: Focal length of optical system Z: Parallax

以上のように生成された撮像装置から被写体までの距離情報を測距値と呼ぶ。 The distance information from the imaging device to the object generated as described above is called a distance measurement value.

補正マップ推定部306は、平面に対応する測距値の変化量が一定でない場合に、補正マップの推定処理を開始する。撮像装置の温度変化などによってレンズの歪み係数が変化すると、領域に応じて光束の結像位置が変化するため、画面全体に歪んだような測距誤差が表れる。本実施例では、補正マップとして、歪曲による結像位置の変化量を推定する。すなわち、補正マップは式(4)と同様のモデルであり、歪曲補正パラメータkの変化量Δkを係数ごとに求めることで補正を行う。補正の方法は実施例1と同様に、補正開始の判定処理に使用した測距値の変化量の変化や、フィッティングで求めた平面との誤差やばらつきといった評価値を、画像のすべての平面を考慮して最小化すればよい。 The correction map estimation unit 306 starts estimation processing of the correction map when the amount of change in the distance measurement value corresponding to the plane is not constant. When the distortion coefficient of the lens changes due to changes in the temperature of the imaging device, etc., the imaging position of the light flux changes depending on the area, and thus a distorted distance measurement error appears on the entire screen. In this embodiment, the amount of change in the imaging position due to distortion is estimated as the correction map. That is, the correction map is a model similar to Equation (4), and correction is performed by obtaining the amount of change Δk of the distortion correction parameter k for each coefficient. As in the first embodiment, the correction method is the same as in the first embodiment. should be considered and minimized.

上述した処理により、平面の測距値に基づいて適切な補正マップを推定できるため、測距値の歪み成分が軽減され、高精度な測距が可能となる。 By the above-described processing, an appropriate correction map can be estimated based on the distance measurement value of the plane, so the distortion component of the distance measurement value is reduced, and highly accurate distance measurement is possible.

温度変化や装置の姿勢変化により歪曲収差が変化すると、工場出荷時の歪曲補正パラメータkでは歪曲を補正しきれないため、画面全体に歪んだような測距誤差が発生する。歪曲収差は画像の位置座標に応じた所定の関数で表すことができるため、画面の一部の平面領域の情報を使用して、画面全体の補正マップを推定することが可能である。 If the distortion changes due to a change in temperature or a change in the posture of the apparatus, the distortion correction parameter k at the factory shipment cannot correct the distortion, resulting in a distance measurement error such that the entire screen is distorted. Since distortion aberration can be represented by a predetermined function according to the positional coordinates of the image, it is possible to estimate a correction map for the entire screen using information on a partial plane area of the screen.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えばASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100 撮像装置
101 光学系
102 撮像部
103 A/D変換部
104 正刑部
105 画像処理部
106 記録部
107 揮発性メモリ
108 不揮発性メモリ
100 imaging device 101 optical system 102 imaging unit 103 A/D conversion unit 104 sentencing unit 105 image processing unit 106 recording unit 107 volatile memory 108 nonvolatile memory

Claims (21)

異なる視点で撮像された複数の画像信号を用いて距離情報を生成する生成手段と、
前記画像信号における平面領域を検出する検出手段と、
前記距離情報を補正するための補正マップを推定する推定手段と、を備え、
前記推定手段は、前記補正マップを画像の位置座標を変数とする関数で表し、
前記平面領域に対応する距離情報に基づいて前記補正マップを推定することを特徴とする画像処理装置。
generating means for generating distance information using a plurality of image signals captured at different viewpoints;
a detecting means for detecting a plane area in the image signal;
estimating means for estimating a correction map for correcting the distance information;
The estimating means expresses the correction map as a function having the position coordinates of the image as variables,
An image processing apparatus, wherein the correction map is estimated based on distance information corresponding to the plane area.
前記生成手段は、像面湾曲に基づく収差を補正する像面湾曲補正マップを使用して前記距離情報を生成し、
前記推定手段は前記像面湾曲補正マップによる前記距離情報の誤差を補正する前記補正マップを推定することを特徴とする請求項1に記載の画像処理装置。
The generating means generates the distance information using a field curvature correction map that corrects aberration based on field curvature,
2. The image processing apparatus according to claim 1, wherein said estimating means estimates said correction map for correcting an error of said distance information due to said curvature of field correction map.
前記補正マップは二次曲面で表す関数であることを特徴とする請求項2に記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein the correction map is a function represented by a quadratic surface. 前記生成手段は、歪曲収差を補正した前記画像信号に基づいて前記距離情報を生成し、
前記推定手段における前記関数は歪曲収差のモデルに基づいて表現されることを特徴とする請求項1に記載の画像処理装置。
The generating means generates the distance information based on the image signal corrected for distortion,
2. An image processing apparatus according to claim 1, wherein said function in said estimation means is expressed based on a model of distortion aberration.
前記推定手段は、前記平面領域に対応する距離情報に基づいての平面の算出を行い、得られた前記平面との距離値と前記距離情報の差が小さくなるように補正マップを推定することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The estimating means calculates a plane based on distance information corresponding to the plane area, and estimates a correction map so that a difference between the obtained distance value from the plane and the distance information is small. 5. The image processing apparatus according to any one of claims 1 to 4. 前記推定手段は、前記平面領域に対応する距離情報の変化量が、前記平面領域において一定になるように補正マップを推定することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 6. The method according to any one of claims 1 to 5, wherein said estimating means estimates the correction map such that a change amount of distance information corresponding to said planar area is constant in said planar area. Image processing device. 前記生成手段は、前記補正マップを用いて、前記距離情報を補正した補正距離情報を生成することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 7. The image processing apparatus according to any one of claims 1 to 6, wherein said generating means generates corrected distance information by correcting said distance information using said correction map. 前記生成手段は、異なる視点で複数回撮像された画像信号を取得し、各画素の信号に基づいて複数の距離情報を生成し、前記補正手段は該複数の距離情報に基づいて補正マップを生成することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 The generation means acquires image signals captured multiple times from different viewpoints, generates a plurality of distance information based on the signals of each pixel, and the correction means generates a correction map based on the plurality of distance information. 8. The image processing apparatus according to any one of claims 1 to 7, wherein: 前記推定手段は、画像の同じ位置座標における前記複数の距離情報に基づいて前記補正マップを推定することを特徴とする請求項8に記載の画像処理装置。 9. The image processing apparatus according to claim 8, wherein said estimating means estimates said correction map based on said plurality of pieces of distance information at the same position coordinates of the image. 前記画像信号は、前記平面領域の位置が異なるように複数回撮像して取得した画像信号であることを特徴とする請求項8に記載の画像処理装置。 9. The image processing apparatus according to claim 8, wherein the image signal is an image signal acquired by imaging a plurality of times so that the positions of the planar regions are different. 前記検出手段は、前記画像信号の中に平面が含まれているかを判定する機能を有することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 11. The image processing apparatus according to any one of claims 1 to 10, wherein said detection means has a function of determining whether a plane is included in said image signal. 前記検出手段で前記画像の中に平面が含まれていないと判定された場合に、ユーザに平面の撮影を促す情報を報知する報知手段を有することを特徴とする請求項11に記載の画像処理装置。 12. The image processing according to claim 11, further comprising notifying means for notifying a user of information prompting the user to photograph a plane when the detecting means determines that the plane is not included in the image. Device. 前記補正手段による補正が不十分と推定される領域を検出する領域検出手段を備え、前記領域検出手段により検出された領域を報知する領域報知手段を有することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。 13. The apparatus according to any one of claims 1 to 12, further comprising area detection means for detecting an area estimated to be insufficiently corrected by said correction means, and area notification means for notifying the area detected by said area detection means. The image processing device according to any one of items 1 and 2. 前記推定手段は、前記平面に対応する距離情報に予め定めた閾値より大きな変化がある場合に、前記補正マップの推定を行うことを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。 14. The estimating means according to any one of claims 1 to 13, wherein the estimating means estimates the correction map when there is a change greater than a predetermined threshold in the distance information corresponding to the plane. Image processing device. 前記補正手段は、前記平面の領域における距離情報と該距離情報の信頼度に基づいて補正マップを推定することを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。 15. The image processing apparatus according to any one of claims 1 to 14, wherein said correction means estimates a correction map based on distance information in said plane area and reliability of said distance information. 請求項1乃至15のいずれか1項に記載の画像処理装置と、光学系を介して結像された被写体像を撮像する撮像手段と、を有することを特徴とする撮像装置。 An imaging apparatus comprising: the image processing apparatus according to any one of claims 1 to 15; and imaging means for imaging a subject image formed via an optical system. 前記撮像手段は、光学系の、異なる瞳領域を通過した光束が複数の光電変換部に入射し、前記複数の光電変換部で生成された信号をもとに前記複数の画像を生成することを特徴とする請求項16に記載の撮像装置。 The imaging means is configured such that light beams passing through different pupil regions of an optical system are incident on a plurality of photoelectric conversion units, and the plurality of images are generated based on signals generated by the plurality of photoelectric conversion units. 17. An imaging device according to claim 16. 前記撮像装置の温度や姿勢の変化を検出する変化検出手段を備え、前記生成手段は、前記変化検出手段が予め定めた閾値より大きい変化量を検出した場合に、前記補正マップを生成することを特徴とする請求項16または17に記載の撮像装置。 A change detection means for detecting a change in the temperature or posture of the imaging device is provided, and the generation means generates the correction map when the change detection means detects a change amount larger than a predetermined threshold value. 18. The imaging device according to claim 16 or 17. 光学系および撮像部の両方、またはいずれか一方を駆動制御する駆動制御手段を有し、前記駆動制御手段は前記画像処理装置が得た距離情報を用いて光学系および撮像部を駆動し、ピント位置を自動調整することを特徴とする請求項16乃至18のいずれか1項に記載の撮像装置。 drive control means for driving and controlling both or one of the optical system and the imaging section, the drive control means driving the optical system and the imaging section using the distance information obtained by the image processing apparatus, and focusing; 19. The imaging apparatus according to any one of claims 16 to 18, wherein the position is automatically adjusted. 異なる視点で撮像された複数の画像信号を用いて距離情報を生成する生成ステップと、
前記画像信号における平面領域を検出する検出ステップと、
前記距離情報を補正するための補正マップを推定する推定ステップと、を備え、
前記推定ステップは、前記補正マップを画像の位置座標を変数とする関数で表し、前記平面領域に対応する距離情報に基づいて前記補正マップを推定することを特徴とする画像処理方法。
a generation step of generating distance information using a plurality of image signals captured at different viewpoints;
a detection step of detecting a planar area in the image signal;
an estimation step of estimating a correction map for correcting the distance information;
The image processing method, wherein the estimating step expresses the correction map by a function having positional coordinates of the image as variables, and estimates the correction map based on distance information corresponding to the plane area.
請求項20に記載の制御方法の各ステップをコンピュータに実行させるプログラム。 A program that causes a computer to execute each step of the control method according to claim 20.
JP2021106532A 2021-06-28 2021-06-28 Image processing device and control method for image processing device Pending JP2023004680A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021106532A JP2023004680A (en) 2021-06-28 2021-06-28 Image processing device and control method for image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021106532A JP2023004680A (en) 2021-06-28 2021-06-28 Image processing device and control method for image processing device

Publications (1)

Publication Number Publication Date
JP2023004680A true JP2023004680A (en) 2023-01-17

Family

ID=85100714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021106532A Pending JP2023004680A (en) 2021-06-28 2021-06-28 Image processing device and control method for image processing device

Country Status (1)

Country Link
JP (1) JP2023004680A (en)

Similar Documents

Publication Publication Date Title
JP4852591B2 (en) Stereoscopic image processing apparatus, method, recording medium, and stereoscopic imaging apparatus
JP5825817B2 (en) Solid-state imaging device and imaging apparatus
JP5868183B2 (en) Imaging apparatus and imaging method
JP6585006B2 (en) Imaging device and vehicle
JP5963606B2 (en) Imaging apparatus and control method thereof
JP7009091B2 (en) Distance information generator, image pickup device, distance information generation method, and program
CN109255810B (en) Image processing apparatus and image processing method
JP2015194706A (en) Focus detection device and control method thereof
US10306132B2 (en) Distance calculation apparatus, imaging apparatus and distance calculation method that include confidence calculation of distance information
JP2014006388A (en) Imaging apparatus, and its control method and program
WO2016140066A1 (en) Signal processing device, signal processing method, program, electronic device, and imaging element
JP2020008415A (en) Distance measuring camera
JP2019168479A (en) Controller, imaging device, method for control, program, and, and storage medium
CN110995982B (en) Image processing apparatus, control method therefor, imaging apparatus, and recording medium
KR20200014204A (en) Control apparatus, imaging apparatus, and storage medium
JPWO2019202984A1 (en) Imaging device and distance measurement method, distance measurement program and recording medium
JP2023004680A (en) Image processing device and control method for image processing device
JP2016066995A (en) Image deviation amount calculation device, imaging device and image deviation amount calculation method
JP2016099432A (en) Focus detection device, and method, program and storage medium
JP2004007213A (en) Digital three dimensional model image pickup instrument
JP2003057531A (en) Method and device for phase difference detection, range finder, and image pickup device
JP2016066015A (en) Focus detector, control method thereof, program, and memory medium
JP7293309B2 (en) IMAGING DEVICE, CONTROL METHOD AND STORAGE MEDIUM
US20230292004A1 (en) Image processing apparatus, measurement method, and storage medium for measuring distance from image
JP2017130890A (en) Image processing device and control method and program thereof

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213