JP2023001950A - Information processing apparatus, imaging apparatus, image processing method, and program - Google Patents

Information processing apparatus, imaging apparatus, image processing method, and program Download PDF

Info

Publication number
JP2023001950A
JP2023001950A JP2021102865A JP2021102865A JP2023001950A JP 2023001950 A JP2023001950 A JP 2023001950A JP 2021102865 A JP2021102865 A JP 2021102865A JP 2021102865 A JP2021102865 A JP 2021102865A JP 2023001950 A JP2023001950 A JP 2023001950A
Authority
JP
Japan
Prior art keywords
area
information
distance
image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021102865A
Other languages
Japanese (ja)
Inventor
拓也 石橋
Takuya Ishibashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021102865A priority Critical patent/JP2023001950A/en
Publication of JP2023001950A publication Critical patent/JP2023001950A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)

Abstract

To provide an information processing apparatus that can accurately detect an edge area of the shape of a subject.SOLUTION: A control unit 101 of a shape information detection device 110 acquires a plurality of images picked up in different illumination conditions. The control unit 101 acquires distance information on a subject in terms of a depth direction in the images. The control unit 101 determines an edge area of the subject based on information on a change in the luminance value between the plurality of images and information on a change of the distance information in areas of interest of the images.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、撮像装置、画像処理方法およびプログラムに関する。 The present invention relates to an information processing device, an imaging device, an image processing method, and a program.

2つの撮像部を備え、立体視用の画像を撮像できる、いわゆるステレオカメラが提案されている。ステレオカメラは、各撮像部によって同一の被写体を同時に撮像し、視差を有する第1の画像と第2の画像との2種類の画像を取得する。視差を有する画像から画素毎の視差量を算出することでカメラから被写体までの距離を算出することが可能である。 A so-called stereo camera has been proposed that includes two imaging units and can capture images for stereoscopic viewing. A stereo camera captures images of the same subject at the same time using respective imaging units, and obtains two types of images, a first image and a second image having parallax. By calculating the amount of parallax for each pixel from an image having parallax, it is possible to calculate the distance from the camera to the subject.

ステレオカメラから被写体までの距離は、カメラ座標系で表現した形状情報となるが、画像処理により、世界座標系で表現した形状情報に変換することも可能である。視差量を算出する方法として一般に用いられるステレオマッチング法は、マッチング領域の大きさの影響によって、算出される視差量があいまいとなる。特に、距離変化が大きくなる形状のエッジ領域は、マッチング領域の大きさの影響を受けやすいので、誤った視差量が算出される可能性が高い。したがって、より正確な形状情報を取得するためには、エッジ領域を高精度に検出し、エッジ領域の形状情報を補正する必要がある。従来技術の一例として、特許文献1は、異なる照明条件下で収集された1組の画像からエッジ領域を検出する方法を開示している。 The distance from the stereo camera to the object is shape information expressed in the camera coordinate system, but it can be converted into shape information expressed in the world coordinate system by image processing. In the stereo matching method, which is generally used as a method for calculating the amount of parallax, the calculated amount of parallax becomes ambiguous due to the influence of the size of the matching area. In particular, an edge region having a shape with a large distance change is likely to be affected by the size of the matching region, so there is a high possibility that an erroneous amount of parallax will be calculated. Therefore, in order to obtain more accurate shape information, it is necessary to detect the edge region with high precision and correct the shape information of the edge region. As an example of the prior art, US Pat. No. 6,200,000 discloses a method for detecting edge regions from a set of images collected under different lighting conditions.

特開2004-289829号公報JP 2004-289829 A

異なる照明条件下で撮影した各画像の照明によって発生した影を検出し、影の輪郭部をエッジ領域として検出する方法が考えられる。しかし、影の輪郭部には、エッジ領域ではない領域も含まれるので、上記の方法では、エッジ領域を高精度に検出することができない。本発明は、被写体の形状のエッジ領域を高精度に検出することが可能な情報処理装置の提供を目的とする。 A conceivable method is to detect shadows generated by illumination of images shot under different lighting conditions, and to detect contours of the shadows as edge regions. However, since the outline of the shadow includes areas that are not edge areas, the edge areas cannot be detected with high accuracy by the above method. SUMMARY OF THE INVENTION An object of the present invention is to provide an information processing apparatus capable of detecting an edge region of a shape of a subject with high accuracy.

本発明の一実施形態の情報処理装置は、異なる照明条件で撮像された複数の画像を取得する第1の取得手段と、前記画像内における奥行き方向に関する被写体の距離情報を取得する第2の取得手段と、前記複数の画像間の輝度値の変化情報と、画像の注目領域内の前記距離情報の変化情報とに基づいて、前記被写体のエッジ領域を決定する制御手段と、を有する。 An information processing apparatus according to an embodiment of the present invention includes first acquisition means for acquiring a plurality of images captured under different illumination conditions, and second acquisition means for acquiring distance information of a subject in the depth direction in the images. and control means for determining an edge region of the subject based on change information of luminance values between the plurality of images and change information of the distance information in the region of interest of the images.

本発明の情報処理装置によれば、被写体の形状のエッジ領域を高精度に検出することが可能となる。 According to the information processing apparatus of the present invention, it is possible to detect the edge area of the shape of the object with high accuracy.

形状情報検出装置の構成を説明する図である。It is a figure explaining the structure of a shape information detection apparatus. 撮像装置の構成例を説明する図である。It is a figure explaining the structural example of an imaging device. 形状情報検出装置の動作処理の一例を説明するフローチャートである。It is a flow chart explaining an example of operation processing of a shape information detecting device. 撮像の一例を示す図である。It is a figure which shows an example of imaging. 撮像装置の発光部の発光位置と撮像画像の一例を説明する図である。FIG. 4 is a diagram illustrating an example of a light emitting position of a light emitting unit of an imaging device and a captured image; 距離情報の取得処理の一例を説明するフローチャートである。7 is a flowchart illustrating an example of distance information acquisition processing; 撮像部の構成の一例を説明する図である。It is a figure explaining an example of a structure of an imaging part. A像とB像に対する微小ブロックの設定例を示す図である。FIG. 10 is a diagram showing an example of setting minute blocks for an A image and a B image; 相関量の演算結果を示す図である。It is a figure which shows the calculation result of the amount of correlations. エッジ領域の検出処理の一例を説明するフローチャートである。8 is a flowchart illustrating an example of edge region detection processing; 第1の領域の一例を示す図である。It is a figure which shows an example of a 1st area|region. 第2の領域の検出処理の一例を説明する図である。It is a figure explaining an example of the detection process of a 2nd area|region. エッジ領域の一例を示す図である。It is a figure which shows an example of an edge area|region. 距離情報の補正処理の一例を説明する図である。It is a figure explaining an example of correction processing of distance information. 実施例2の情報処理装置による第1の領域の検出処理の例である。It is an example of detection processing of the first region by the information processing apparatus of the second embodiment.

(実施例1)
以下に、図面を参照して、本実施形態の情報処理装置について説明する。
情報処理装置は、被写体の形状のエッジ領域を検出(決定)し、検出したエッジ領域を距離情報の補正に利用することで、より高精度な形状情報を検出する。形状のエッジ領域とは、撮影視点で取得した撮影画像において、被写体までの距離情報の値(距離値)の変化量が大きい領域を示す。以下の説明では、特に断りがない限り、「エッジ領域」は、形状のエッジ領域を示す。
(Example 1)
The information processing apparatus of this embodiment will be described below with reference to the drawings.
The information processing device detects (determines) an edge region of the shape of the subject and uses the detected edge region to correct the distance information, thereby detecting shape information with higher accuracy. The edge area of the shape indicates an area in which the value of the distance information (distance value) to the subject has a large amount of change in the photographed image acquired at the photographing viewpoint. In the following description, unless otherwise specified, "edge region" indicates the edge region of the shape.

図1は、本実施形態の情報処理装置の一例である形状情報検出装置の構成を説明する図である。
形状情報検出装置100は、撮像装置110と、画像処理装置120とを有する。撮像装置110と画像処理装置120との間の情報のやり取りは、制御部101によって制御される。制御部101は、例えばCPU(Central Processing Unit)等のプロセッサーである。図1中では、制御部101は、撮像装置110と画像処理装置120とに共通の一つの制御部であるが、撮像装置110と画像処理装置120のそれぞれが制御部を有し、2つの制御部が互いに情報を通信するようにしてもよい。
FIG. 1 is a diagram for explaining the configuration of a shape information detection device that is an example of an information processing device according to this embodiment.
The shape information detection device 100 has an imaging device 110 and an image processing device 120 . Information exchange between the imaging device 110 and the image processing device 120 is controlled by the control unit 101 . The control unit 101 is a processor such as a CPU (Central Processing Unit). In FIG. 1, the control unit 101 is one control unit common to the imaging device 110 and the image processing device 120. The imaging device 110 and the image processing device 120 each have a control unit, and two control units are provided. The units may communicate information with each other.

撮像装置110は、制御部101と、発光装置111と、撮像部112とを有する。発光装置111は、制御部101によって制御され、発光位置と発光時間、発光タイミングに基づいて、撮影時に被写体に対して発光する。撮像部112は、画像処理する対象を撮像し、制御部101の制御により、画像処理装置120の画像情報入力部122へ撮像された画像を供給する。 The imaging device 110 has a control section 101 , a light emitting device 111 and an imaging section 112 . The light-emitting device 111 is controlled by the control unit 101 and emits light to the subject during photographing based on the light-emitting position, the light-emitting time, and the light-emitting timing. The image capturing unit 112 captures an image of an object for image processing, and supplies the captured image to the image information input unit 122 of the image processing apparatus 120 under the control of the control unit 101 .

画像処理装置120は、制御部101と、メモリ121と、画像情報入力部122と、パラメータ設定部123と、距離情報取得部124と、エッジ領域検出部125と、距離情報補正部126と、形状情報算出部127とを有する。制御部101は、画像処理装置120が有する各モジュールを制御する。 The image processing apparatus 120 includes a control unit 101, a memory 121, an image information input unit 122, a parameter setting unit 123, a distance information acquisition unit 124, an edge area detection unit 125, a distance information correction unit 126, a shape and an information calculation unit 127 . The control unit 101 controls each module included in the image processing apparatus 120 .

メモリ121は、各モジュールでの処理に必要な情報の読み出しと各モジュールでの処理結果の保存を行う。また、メモリ121には、制御部101が実行する制御プログラムが予め記憶されている。画像情報入力部122は、撮像部112が撮像した画像情報、または外部装置で撮像された画像を取得し、メモリ121へ供給する。パラメータ設定部123は、ユーザによって画像処理装置120へ入力された各パラメータ情報をメモリ121へ供給する。距離情報取得部124は、撮像によって得られた画像に基づいて、画像内の奥行き方向に関する被写体の距離情報を取得し、距離情報をメモリ121へ供給する。エッジ領域検出部125は、撮像によって得られた画像と、被写体の距離情報とに基づいて被写体の形状のエッジ領域を検出(決定)し、メモリ121へ供給する。距離情報補正部126は、検出されたエッジ領域に基づいて、距離情報を補正し、補正した距離情報をメモリ121へ供給する。形状情報算出部127は、補正された距離情報に基づいて、形状情報を算出し、メモリ121へ供給する。 The memory 121 reads out information necessary for processing in each module and stores processing results in each module. In addition, the memory 121 stores in advance a control program executed by the control unit 101 . The image information input unit 122 acquires image information captured by the imaging unit 112 or an image captured by an external device, and supplies it to the memory 121 . The parameter setting unit 123 supplies each parameter information input to the image processing apparatus 120 by the user to the memory 121 . The distance information acquisition unit 124 acquires distance information of the object in the depth direction in the image based on the image obtained by imaging, and supplies the distance information to the memory 121 . The edge area detection unit 125 detects (determines) an edge area of the shape of the subject based on the captured image and the distance information of the subject, and supplies the edge area to the memory 121 . The distance information correction unit 126 corrects the distance information based on the detected edge area, and supplies the corrected distance information to the memory 121 . The shape information calculator 127 calculates shape information based on the corrected distance information, and supplies the shape information to the memory 121 .

図1に示す形状情報検出装置100は、本発明の情報処理装置の一例である。画像処理装置120単体も本発明の適用範囲である。また、不図示であるが、発光装置111及び撮像部112を備え、画像処理装置120と同様の機能を有する撮像装置も本発明の適用範囲である。 A shape information detection device 100 shown in FIG. 1 is an example of an information processing device of the present invention. The image processing apparatus 120 alone is also within the scope of the present invention. Further, although not shown, an imaging device including the light emitting device 111 and the imaging unit 112 and having the same functions as the image processing device 120 is also within the scope of the present invention.

図2は、撮像装置の構成例を説明する図である。
図2(A)は、撮像装置110の斜視図の一例を示す。図2(B)は、撮像装置1109が備える発光装置111の一例を示す。発光装置111は、複数の異なる位置に発光部を有する。発光部113は、発光装置111が有する発光部の1つである。発光装置111が有する複数の発光部は、個別に発光することができる。また、制御部101は、所定の個数の発光部を発光させることができ、全ての発光部の発光、全ての発光部を発光しないなどの制御が可能である。発光部の数は少なくとも2個以上あればよく、図2(A),(B)に示す8個以上を設置してもよい。
FIG. 2 is a diagram illustrating a configuration example of an imaging device.
FIG. 2A shows an example of a perspective view of the imaging device 110. FIG. FIG. 2B shows an example of the light-emitting device 111 included in the imaging device 1109 . The light-emitting device 111 has light-emitting portions at a plurality of different positions. The light emitting unit 113 is one of light emitting units included in the light emitting device 111 . A plurality of light-emitting portions included in the light-emitting device 111 can emit light individually. Further, the control unit 101 can cause a predetermined number of light emitting units to emit light, and can control all light emitting units to emit light, all light emitting units not to emit light, and the like. At least two or more light-emitting units may be provided, and eight or more as shown in FIGS. 2A and 2B may be installed.

図2(C)は、撮像装置110が有する撮像光学系の構成例を示す。撮像部112は、被写体である物体114から発せられた光をレンズ115により予定結像面116で結像し、センサ面117で受光する。制御部101は、受光された情報を画像情報として取得する。 FIG. 2C shows a configuration example of an imaging optical system that the imaging device 110 has. The image pickup unit 112 forms an image of light emitted from an object 114 , which is a subject, by a lens 115 on a planned imaging plane 116 , and receives the light on a sensor plane 117 . The control unit 101 acquires the received information as image information.

図3は、形状情報検出装置の動作処理の一例を説明するフローチャートである。
本フローチャートの処理は、制御部101がメモリ121内の制御プログラムを読み出して実行することによって実現される。図2中のSは、本フローチャートにしたがう各処理を示すステップ番号である。
FIG. 3 is a flowchart illustrating an example of operation processing of the shape information detection device.
The processing of this flowchart is implemented by the control unit 101 reading and executing the control program in the memory 121 . S in FIG. 2 is a step number indicating each process according to this flowchart.

S201において、制御部101が、処理に必要なパラメータを取得して設定する。
制御部101は、パラメータとして少なくとも下記の情報を取得する。
(1)撮像装置110から被写体のピント位置までの距離
(2)一対の瞳領域を通過する光束の重心の開き角の大きさによって決まる変換係数
(3)撮像装置110のレンズにおける像側主点からセンサ面までの距離
(4)撮像装置110の焦点距離
(5)輝度値の閾値
(6)距離値の閾値
輝度値の閾値は、後述する第1の領域の検出に用いられる。また、距離値の閾値は、後述する第2の領域の検出に用いられる。
In S201, the control unit 101 acquires and sets parameters necessary for processing.
The control unit 101 acquires at least the following information as parameters.
(1) The distance from the imaging device 110 to the focus position of the subject (2) A conversion coefficient determined by the size of the opening angle of the center of gravity of the light flux passing through the pair of pupil regions (3) The image-side principal point of the lens of the imaging device 110 to the sensor surface (4) focal length of the imaging device 110 (5) brightness value threshold (6) distance value threshold The brightness value threshold is used to detect a first region, which will be described later. Also, the threshold value of the distance value is used for detecting a second area, which will be described later.

次に、S202において、制御部101が、撮像装置110が撮像した画像(撮像画像)、または任意の外部装置が撮像した撮像画像を取得する。本実施形態では、制御部101は、異なる照明条件で撮像された複数の画像を取得する。以下に図4および図5を参照して、S202の処理の具体例について説明する。 Next, in S202, the control unit 101 acquires an image (captured image) captured by the imaging device 110 or a captured image captured by an arbitrary external device. In this embodiment, the control unit 101 acquires a plurality of images captured under different lighting conditions. A specific example of the processing of S202 will be described below with reference to FIGS. 4 and 5. FIG.

図4は、撮像装置による被写体の撮像の一例を示す図である。
図4(A)は、撮像装置110と被写体301,302との位置関係を示す。図4(A)に示す例では、撮像装置110は、被写体301,302に対して斜め上の位置から撮像する。
FIG. 4 is a diagram illustrating an example of imaging of a subject by an imaging device.
FIG. 4A shows the positional relationship between the imaging device 110 and the subjects 301 and 302. FIG. In the example shown in FIG. 4A, the imaging device 110 images the subjects 301 and 302 from a position obliquely above them.

図4(B)は、図4(A)の位置関係で、撮像装置110が発光装置111を発光せずに被写体301、302を撮像した場合に得られる画像である。図4(B)に示す画像では、被写体301と被写体302の境界部303が被写体301のエッジ領域となる。 FIG. 4B is an image obtained when the imaging device 110 captures the subjects 301 and 302 without emitting light from the light emitting device 111 in the positional relationship of FIG. 4A. In the image shown in FIG. 4B , a boundary portion 303 between the subject 301 and the subject 302 is the edge region of the subject 301 .

図5は、撮像装置の発光部の発光位置と撮像画像の一例を説明する図である。
図5(A)は、図4(A)の位置関係で、撮像装置110が発光装置111の発光部401を発光させて撮像した場合に得られる画像を示す。発光装置111の発光部401のみを発光させることで、被写体301が被写体302に影部402を発生させた画像を取得することができる。
FIG. 5 is a diagram illustrating an example of a light emitting position of a light emitting unit of an imaging device and a captured image.
FIG. 5A shows an image obtained when the imaging device 110 captures an image by causing the light emitting unit 401 of the light emitting device 111 to emit light in the positional relationship shown in FIG. 4A. By causing only the light emitting unit 401 of the light emitting device 111 to emit light, it is possible to obtain an image in which the subject 301 causes the subject 302 to generate a shadow portion 402 .

図5(B)は、図4(A)の位置関係で、撮像装置110が発光装置111の発光部403を発光させて撮像した場合に得られる画像を示す。この場合は、被写体301が被写体302に影部404を発生させた画像を取得することができる。
図5(C)は、図4(A)の位置関係で、撮像装置110が発光装置111の発光部405を発光させて撮像した場合に得られる画像を示す。この場合は、被写体301が被写体302に影部406を発生させた画像を取得することができる。
図5(D)は、図4(A)乃至図4(C)に示す、異なる影部を持つ複数の画像に基づいて抽出される、複数の照明条件での撮像に対応する影部を示す。図5(D)中の影部407が、抽出された影部である。影部407は、S204でエッジ領域を検出する際に利用される。以上説明したように、撮像時に被写体に対して異なる複数の方向から照明することで、異なる照明条件での撮像による複数の画像を取得することが可能となる。
FIG. 5B shows an image obtained when the imaging device 110 captures an image by causing the light emitting unit 403 of the light emitting device 111 to emit light in the positional relationship shown in FIG. 4A. In this case, an image in which the subject 301 causes the shadow 404 to appear on the subject 302 can be obtained.
FIG. 5C shows an image obtained when the imaging device 110 captures an image by causing the light emitting unit 405 of the light emitting device 111 to emit light in the positional relationship shown in FIG. 4A. In this case, an image in which the subject 301 causes the shadow 406 to appear on the subject 302 can be acquired.
FIG. 5(D) shows shadows corresponding to imaging under multiple lighting conditions, extracted based on multiple images with different shadows shown in FIGS. 4(A) to 4(C). . A shadow 407 in FIG. 5D is the extracted shadow. The shaded area 407 is used when detecting the edge area in S204. As described above, by illuminating a subject from a plurality of different directions during imaging, it is possible to obtain a plurality of images captured under different lighting conditions.

図3の説明に戻る。S203において、制御部101が、距離情報取得部124を制御して、撮像によって得られた画像に基づいて、画像内の奥行き方向に関する被写体の距離情報(深度情報)を取得する。 Returning to the description of FIG. In S203, the control unit 101 controls the distance information acquisition unit 124 to acquire distance information (depth information) of the subject in the depth direction in the image based on the image obtained by imaging.

本発明の適用における距離情報については、撮像範囲における被写体の奥行き方向の距離分布と対応する情報であればよい。例えば焦点深度で正規化する前のデフォーカス量の分布情報や、各画素に対応する被写体距離を示す深度マップの使用が可能である。また、距離情報は、デフォーカス量の導出に用いられる位相差を示す2次元情報であってもよい。この位相差は異なる視点間の相対的な像ずれ量に相当する。また、撮像光学系のフォーカスレンズの位置を介して、被写体側の実距離情報に換算した距離マップを使用することが可能である。 The distance information in the application of the present invention may be information corresponding to the distance distribution of the object in the depth direction in the imaging range. For example, it is possible to use defocus amount distribution information before normalization by the focal depth, or a depth map indicating the subject distance corresponding to each pixel. Further, the distance information may be two-dimensional information indicating a phase difference used for deriving the defocus amount. This phase difference corresponds to the amount of relative image shift between different viewpoints. Also, it is possible to use a distance map converted into actual distance information on the object side via the position of the focus lens of the imaging optical system.

以下に説明するように、本実施形態では、例えば、視点の異なる一対の画像データの相関からデフォーカス量を導出するDFD方式によって距離情報を算出する。DFDは“Depth From Defocus”の略号である。なお、TOF方式等の測距センサモジュールから得た距離分布を距離情報として導出することもできる。TOFは“Time Of Flight”の略号である。あるいは、撮像画像のコントラスト情報や評価値に基づくコントラスト測距方式により距離情報を取得することも可能である。 As described below, in this embodiment, for example, distance information is calculated by the DFD method that derives the defocus amount from the correlation of a pair of image data from different viewpoints. DFD is an abbreviation for "Depth From Defocus". A distance distribution obtained from a distance measuring sensor module such as a TOF method can also be derived as distance information. TOF is an abbreviation for "Time Of Flight". Alternatively, it is also possible to acquire distance information by a contrast ranging method based on contrast information of a captured image or an evaluation value.

図6は、距離情報の取得処理の一例を説明するフローチャートである。
S501において、制御部101が、図3のS202で取得した画像情報に基づいて、視点の異なる一対の画像データを生成する。制御部101は、照明条件が全発光や発光なしなど、影部が少ない画像に係る画像情報に基づいて、一対の画像データを生成することが好ましい。影部はコントラストが低くなるので、デフォーカス量の算出精度が低下してしまうためである。発光部の1つの投影系に格子状などのパターンを配置し、被写体にパターンを投影した画像を撮像してデフォーカス量の算出に用いることで、算出精度を高めることもできる。
FIG. 6 is a flowchart illustrating an example of distance information acquisition processing.
In S501, the control unit 101 generates a pair of image data from different viewpoints based on the image information acquired in S202 of FIG. It is preferable that the control unit 101 generates a pair of image data based on image information related to an image with few shadows, such as full light emission or no light emission under illumination conditions. This is because the accuracy of defocus amount calculation decreases because the contrast of the shadow portion is low. Calculation accuracy can be improved by arranging a pattern such as a lattice on one projection system of the light emitting unit, capturing an image in which the pattern is projected onto the subject, and using the image to calculate the defocus amount.

図7は、本実施形態の撮像装置が有する撮像部の構成の一例を説明する図である。
撮像部112(図1)は、例えば、複数のマイクロレンズと、各マイクロレンズに対応する複数の光電変換部を備え、視点の異なる複数の画像信号を出力する。
図7(A)に示すように、撮像部112は、二次元的に規則的に配列された複数の画素612を有する。図7(B)は画素612の構成を示す。画素612は、マイクロレンズ611と一対の光電変換部613A、614B(以下、瞳分割画素613A、614Bと記述)とを有する。光電変換部613Aと光電変換部614Bは、撮像部112が有する撮像光学系の互いに異なる瞳分割領域を通過した被写体光を光電変換して画像信号を出力する。本実施形態においては、瞳分割画素613Aから出力される画像信号に係る画像をA像、瞳分割画素614Bから出力される画像信号に係る画像をB像とする。また、A像とB像との合成により得られる画像をAB像とする。図7に示す撮像部の構成に基づいて、距離情報の取得のために必要な情報として、A像とB像という視点の異なる一対の画像を得ることが可能となる。
FIG. 7 is a diagram illustrating an example of the configuration of an imaging unit included in the imaging apparatus of this embodiment.
The imaging unit 112 (FIG. 1) includes, for example, a plurality of microlenses and a plurality of photoelectric conversion units corresponding to the microlenses, and outputs a plurality of image signals from different viewpoints.
As shown in FIG. 7A, the imaging unit 112 has a plurality of pixels 612 that are regularly arranged two-dimensionally. FIG. 7B shows the structure of the pixel 612. FIG. The pixel 612 has a microlens 611 and a pair of photoelectric conversion units 613A and 614B (hereinafter referred to as pupil division pixels 613A and 614B). The photoelectric conversion units 613A and 614B photoelectrically convert subject light that has passed through different pupil division regions of the imaging optical system of the imaging unit 112, and output image signals. In the present embodiment, the image based on the image signal output from the pupil-divided pixel 613A is referred to as the A image, and the image based on the image signal output from the pupil-divided pixel 614B is referred to as the B image. An image obtained by synthesizing the A image and the B image is called an AB image. Based on the configuration of the imaging unit shown in FIG. 7, it is possible to obtain a pair of images, A image and B image, from different viewpoints as information necessary for obtaining distance information.

図6の説明に戻る。S502において、制御部101が、S501で一対の画像データとして生成したA像とB像とに対して、微小ブロックを設定する。微小ブロックは、一般にテンプレートマッチングを行う際に設定される領域であるウィンドウと同義である。 Returning to the description of FIG. In S502, the control unit 101 sets minute blocks for the A and B images generated as a pair of image data in S501. A minute block is generally synonymous with a window, which is an area set when template matching is performed.

図8は、A像とB像に対する微小ブロックの設定例を示す図である。
制御部101は、図7(A)、(B)に示すA像701,B像702について、微小ブロック703を設定する。微小ブロック703は、例えば、A像701,B像702の各画素を着目画素704とした場合に、着目画素704を中心とする予め定められたサイズの領域に対して設定される。なお、図8(A)に示す例では、微小ブロック703は、着目画素704を中心とする3×3画素の正方領域に対して設定されているが、微小ブロックの形状やサイズはいずれであってもよい。図7(C)の微小ブロック705のように、大きさや形状が変更された微小ブロックを設定することも可能である。
FIG. 8 is a diagram showing a setting example of minute blocks for the A image and the B image.
The control unit 101 sets minute blocks 703 for the A image 701 and the B image 702 shown in FIGS. 7A and 7B. For example, when each pixel of the A image 701 and the B image 702 is a pixel of interest 704, the minute block 703 is set in a region of a predetermined size centered on the pixel of interest 704. FIG. In the example shown in FIG. 8A, the minute block 703 is set in a square area of 3×3 pixels centered on the target pixel 704, but the shape and size of the minute block may be any. may It is also possible to set a minute block whose size and shape are changed, like the minute block 705 in FIG. 7C.

図6の説明に戻る。S503において、制御部101が、一対の瞳分割画像(A像とB像)間で画素(図8の着目画素704)ごとに相関演算処理を行い、該画素に対応する微小ブロック703に含まれる像のずれ量(像ずれ量)を算出する。
A像及びB像とで同一位置の着目画素704について定められた(一対の)微小ブロック703のデータ数(画素数)がmである場合、一対の微小ブロック703の画素データを、それぞれE(1)~E(m)、F(1)~F(m)として表現する。
制御部101は、データ系列Eに対してデータ系列Fを相対的にずらしながら、式(1)に基づき、データのずらし量kにおける相関量C(k)を演算する。
C(k)=Σ|E(n)-F(n+k)| ・・・式(1)
C(k)は、データ系列の番数nについて計算される。n及びn+kは、1~mの範囲に限定される。ずらし量kは整数であり、画像データのデータ間隔を単位とした相対的なシフト量である。ずらし量kは、ステレオマッチング法における視差量と同義である。
Returning to the description of FIG. In S503, the control unit 101 performs correlation calculation processing for each pixel (target pixel 704 in FIG. 8) between a pair of pupil-divided images (image A and image B). An image deviation amount (image deviation amount) is calculated.
When the number of data (the number of pixels) of the (pair of) minute blocks 703 determined for the pixel of interest 704 at the same position in the A image and the B image is m, the pixel data of the pair of minute blocks 703 are respectively represented by E ( 1) to E(m) and F(1) to F(m).
Control section 101 shifts data sequence F relative to data sequence E, and calculates correlation amount C(k) at data shift amount k based on equation (1).
C(k)=Σ|E(n)−F(n+k)| Expression (1)
C(k) is computed for number n of the data series. n and n+k are limited to ranges from 1 to m. The shift amount k is an integer and is a relative shift amount in units of data intervals of image data. The amount of shift k is synonymous with the amount of parallax in the stereo matching method.

図9は、相関量の演算結果を示す図である。
図9に示すグラフの横軸が像ずれ量を示す。縦軸が相関量C(k)を示す。一対のデータ系列の相関が高い像ずれ量において、相関量C(k)が最小になる。制御部101は、式(2)~式(5)による3点内挿の手法を用い、連続的な相関量に対する最小値C(x)を与える像ずれ量xを求める。
x=kj+D/SLOP ・・・式(2)
C(x)=C(kj)-|D| ・・・式(3)
D={C(kj-1)-C(kj+1)}/2 ・・・式(4)
SLOP=MAX{C(kj+1)-C(kj),C(kj-1)-C(kj)}
・・・式(5)
kjは、離散的な相関量C(k)が最小となるkである。
式(2)で求まるシフト量xが、1つの着目画素704における像ずれ量として、距離情報に含められる。なお、像ずれ量xの単位は、pixelである。
FIG. 9 is a diagram showing calculation results of correlation amounts.
The horizontal axis of the graph shown in FIG. 9 indicates the amount of image shift. The vertical axis indicates the amount of correlation C(k). The amount of correlation C(k) is minimized at the amount of image shift where the correlation between a pair of data sequences is high. The control unit 101 uses the three-point interpolation method according to equations (2) to (5) to find the image shift amount x that gives the minimum value C(x) for the continuous correlation amount.
x=kj+D/SLOP Expression (2)
C(x)=C(kj)−|D| Expression (3)
D={C(kj−1)−C(kj+1)}/2 Equation (4)
SLOP=MAX{C(kj+1)-C(kj), C(kj-1)-C(kj)}
... formula (5)
kj is k that minimizes the discrete correlation amount C(k).
The shift amount x obtained by Equation (2) is included in the distance information as the image shift amount in one pixel of interest 704 . Note that the unit of the image shift amount x is pixel.

図6の説明に戻る。S504において、制御部101が、S503で求めた像ずれ量xに基づき、式(6)を用いて、被写体像面の予定結像面に対するデフォーカス量DEFを求める。
DEF=KX・x ・・・式(6)
KXは、一対の瞳領域を通過する光束の重心の開き角の大きさによって決まる変換係数である。制御部101は、着目画素位置を1画素ずつずらしながら、上記の演算を繰り返し実行することで、各画素位置のデフォーカス量を算出することができる。
Returning to the description of FIG. In S504, the control unit 101 obtains the defocus amount DEF of the object image plane with respect to the planned imaging plane based on the image shift amount x obtained in S503 and using Equation (6).
DEF=KX·x Expression (6)
KX is a conversion coefficient determined by the open angle of the center of gravity of the light flux passing through the pair of pupil regions. The control unit 101 can calculate the defocus amount of each pixel position by repeatedly executing the above calculation while shifting the target pixel position by one pixel.

次に、S505において、制御部101が、S504で算出されたデフォーカス量に基づいて、撮像装置110の撮像部112のセンサ面から被写体までの距離zを算出する。 距離zは、式(7)と式(8)を用いて算出できる。
dist=1/(1/(dist_d+DEF) 1/f)・・・式(7)
z=length-dist・・・式(8)
distは、ピント位置から被写体までの距離を示す。dist_dは、撮像部112のレンズにおける像側主点からセンサ面までの距離を示す。fは、焦点距離を示す。lengthは、センサ面からピント位置までの距離を示す。本実施形態では、制御部101は、式(6)~式(8)に基づいて、像ずれ量xから距離zを算出するが、他の式を用いて距離zを算出してもよい。なお、距離zはセンサ面からの距離に限定されるものではなく、レンズ先端等の任意の位置からの距離でもよい。
Next, in S505, the control unit 101 calculates the distance z from the sensor surface of the imaging unit 112 of the imaging device 110 to the subject based on the defocus amount calculated in S504. The distance z can be calculated using equations (7) and (8).
dist=1/(1/(dist_d+DEF) 1/f) Expression (7)
z=length-dist Expression (8)
dist indicates the distance from the focus position to the subject. dist_d indicates the distance from the image-side principal point of the lens of the imaging unit 112 to the sensor surface. f indicates the focal length. length indicates the distance from the sensor surface to the focus position. In this embodiment, the control unit 101 calculates the distance z from the image shift amount x based on equations (6) to (8), but the distance z may be calculated using other equations. Note that the distance z is not limited to the distance from the sensor surface, and may be the distance from any position such as the tip of the lens.

上述したセンサ面からピント位置までの距離lengthは、例えば、レーザ測距手段により、測定することが可能である。また、形状情報検出装置100は、撮像時のレンズ位置とピント位置との関係をデータテーブルに持つことで、撮像時のレンズ位置に対応したピント位置までの距離を推定することが可能である。これにより、撮像装置のセンサ面からピント位置までの距離を算出する際の処理負荷が低減される。 The above-described distance length from the sensor surface to the focus position can be measured by, for example, laser distance measuring means. Further, the shape information detection apparatus 100 can estimate the distance to the focus position corresponding to the lens position at the time of imaging by having the relationship between the lens position and the focus position at the time of imaging in the data table. This reduces the processing load when calculating the distance from the sensor surface of the imaging device to the focus position.

以上説明したように、1枚の画像から視点の異なる一対の画像データを生成する方法によって、撮像部のセンサ面から被写体までの距離zを算出することができる。したがって、撮像装置110は、単眼のカメラでよいので、撮像装置110の構成を簡易にすることができる。さらに、複数のカメラを設置する際に必要となるキャリブレーション処理も簡易、または不要とすることができる。もちろん、ステレオカメラによって距離zを算出することも可能である。また、距離zの算出を撮像装置110の外部装置で行い、画像処理装置120が有する制御部101が、外部装置で算出された距離zを取得することも可能である。 As described above, the distance z from the sensor surface of the imaging unit to the subject can be calculated by the method of generating a pair of image data from different viewpoints from one image. Therefore, since the imaging device 110 may be a monocular camera, the configuration of the imaging device 110 can be simplified. Furthermore, calibration processing required when installing a plurality of cameras can be simplified or eliminated. Of course, it is also possible to calculate the distance z with a stereo camera. Further, it is also possible to calculate the distance z by an external device of the imaging device 110 and allow the control unit 101 of the image processing device 120 to acquire the distance z calculated by the external device.

図3の説明に戻る。S204において、制御部101が、エッジ領域を検出する。
図10は、図3のS204におけるエッジ領域の検出処理の一例を説明するフローチャートである。
S901において、制御部101が、図3のS202において取得された、異なる照明条件での撮像による複数の画像に基づいて、第1の領域を検出する。制御部101は、例えば、図5(A)乃至(C)に示す、異なる影部を有する複数の画像に基づいて、第1の領域を検出する。具体的には、制御部101は、異なる照明条件で撮像された複数の画像間での、画素毎の輝度値の最大値画像と最小値画像を算出する。制御部101は、最大値画と最小値画像との間での輝度値の差を輝度値の変化情報(変化量)として算出する。そして、制御部101は、輝度値の変化量が閾値以上の領域である影部を第1の領域として検出する。
Returning to the description of FIG. In S204, the control unit 101 detects an edge area.
FIG. 10 is a flowchart illustrating an example of the edge region detection processing in S204 of FIG.
In S901, the control unit 101 detects a first region based on a plurality of images captured under different lighting conditions, which are acquired in S202 of FIG. The control unit 101 detects the first area based on, for example, a plurality of images having different shades shown in FIGS. 5(A) to 5(C). Specifically, the control unit 101 calculates a maximum value image and a minimum value image of luminance values for each pixel among a plurality of images captured under different lighting conditions. The control unit 101 calculates the difference in luminance value between the maximum value image and the minimum value image as luminance value change information (amount of change). Then, the control unit 101 detects, as a first area, a shadow area, which is an area where the amount of change in luminance value is equal to or greater than the threshold.

図11は、実施例1において検出される第1の領域を示す図である。
領域1001が第1の領域を示す。第1の領域の検出に用いられる輝度値の閾値として、パラメータ設定部123を用いてユーザが任意に設定した輝度値の閾値を適用することが可能である。
FIG. 11 is a diagram showing the first area detected in Example 1. FIG.
A region 1001 indicates the first region. As the luminance value threshold used for detecting the first area, a luminance value threshold arbitrarily set by the user using the parameter setting unit 123 can be applied.

制御部101が、被写体までの距離値に応じて輝度値の閾値を変更するようにしてもよい。被写体までの距離値が大きくなると、発光部から発光される被写体の明るさ(照度)が弱くなって、影が薄くなる。被写体の明るさは、発光部から被写体までの距離の二乗に反比例する。したがって、発光部から被写体までの距離値をLD、変更前の輝度値の閾値LT_1とすると、変更後の輝度値の閾値LTは、式(9)により算出できる。
LT=LT_1/(α1×LD×LD)・・・式(9)
α1は発光部から被写体までの距離値LDの影響を制御するための任意の定数であり、1/(LD×LD)~∞の範囲で設定される。
制御部101が、発光部から被写体までの距離値が大きいほど、輝度値の閾値を小さい値に設定することで、遠い被写体でも影部の領域を検出することが可能となる。
The control unit 101 may change the threshold value of the brightness value according to the distance value to the subject. As the distance value to the object increases, the brightness (illuminance) of the object emitted from the light emitting unit becomes weaker and the shadow becomes lighter. The brightness of an object is inversely proportional to the square of the distance from the light emitting unit to the object. Therefore, if the distance value from the light emitting unit to the subject is LD, and the threshold value LT_1 of the brightness value before change is assumed, the threshold value LT of the brightness value after change can be calculated by Equation (9).
LT=LT_1/(α1×LD×LD) Expression (9)
α1 is an arbitrary constant for controlling the influence of the distance value LD from the light emitting unit to the object, and is set within the range of 1/(LD×LD) to ∞.
The control unit 101 sets the threshold value of the luminance value to a smaller value as the distance value from the light emitting unit to the subject increases, thereby making it possible to detect a shadow region even in a distant subject.

制御部101が、輝度の最大値画像の輝度値と、他の撮像画像の輝度値とを比較し、輝度値の変化情報として輝度値の比を算出してもよい。例えば、制御部101は、輝度の最大値画像の輝度値の、輝度の最小値画像の輝度値に対する比を算出する。そして、制御部101が、算出した輝度値の比が閾値以上である領域を影部として検出してもよい。これにより、被写体の色の影響を低減して影部の検出を行うことができる。また、輝度の最大値画像の輝度値と、他の撮像画像の輝度値とのそれぞれに対して、発光せずに撮像した画像の輝度値を差し引いてから輝度値の比較を行ってもよい。これにより、明るい環境でも環境光の影響を低減して影部の検出を行うことが可能となる。 The control unit 101 may compare the luminance value of the maximum luminance value image and the luminance values of other captured images, and calculate the luminance value ratio as the luminance value change information. For example, the control unit 101 calculates the ratio of the luminance value of the maximum luminance value image to the luminance value of the minimum luminance value image. Then, the control unit 101 may detect an area in which the calculated luminance value ratio is equal to or greater than a threshold as a shadow area. This makes it possible to detect shadows while reducing the influence of the color of the subject. Alternatively, the luminance values of the image captured without emitting light may be subtracted from the luminance values of the maximum luminance value image and the luminance values of the other captured images before the luminance values are compared. As a result, even in a bright environment, shadows can be detected by reducing the influence of ambient light.

図10の説明に戻る。S902において、制御部101が、図3のS203において取得された距離情報に基づいて、第2の領域を検出する。
図12は、第2の領域の検出処理の一例を説明する図である。
図12(A)は、距離情報の算出処理の対象となる撮像画像の一例を示す。制御部101は、注目する画素として設定される画素(設定画素)1101を含む周囲の領域を、注目領域1102として設定する。また、制御部101は、設定画素1103を含む設定画素の周囲の領域を注目領域1104として設定する。制御部101は、注目領域の距離情報の値(距離値)の変化量が閾値以上である場合は、注目領域に含まれる設定画素を第2の領域に含まれる画素として検出する。
Returning to the description of FIG. In S902, the control unit 101 detects the second area based on the distance information acquired in S203 of FIG.
FIG. 12 is a diagram illustrating an example of the second area detection process.
FIG. 12A shows an example of a captured image to be processed for calculating distance information. The control unit 101 sets a region around a pixel (set pixel) 1101 set as a pixel of interest as a region of interest 1102 . Also, the control unit 101 sets a region around the set pixels including the set pixel 1103 as a region of interest 1104 . When the amount of change in the value of the distance information (distance value) of the attention area is greater than or equal to the threshold, the control unit 101 detects the set pixels included in the attention area as pixels included in the second area.

図12(B)は、注目領域1102について、画素Yc方向の正解距離と算出距離を1次元にプロットしたグラフを示す。横軸は画素Ycを示す。縦軸は、距離(mm)を示す。図12(B)に示す距離差は、注目領域1102の距離値の変化情報(変化量)である。距離差は、注目領域1102が1次元の距離値のデータ列である場合に、そのデータ列の最大値と最小値の差である。
図12(C)は、注目領域1103について、画素Yc方向の正解距離と算出距離を1次元にプロットしたグラフを示す。横軸は画素Ycを示す。縦軸は、距離(mm)を示す。図12(C)に示す距離差は、注目領域1104の距離値の変化量である。
FIG. 12B shows a graph obtained by one-dimensionally plotting the correct distance and the calculated distance in the pixel Yc direction for the region of interest 1102 . The horizontal axis indicates the pixel Yc. The vertical axis indicates distance (mm). The distance difference shown in FIG. 12B is change information (amount of change) of the distance value of the attention area 1102 . The distance difference is the difference between the maximum value and the minimum value of the data string when the region of interest 1102 is a data string of one-dimensional distance values.
FIG. 12C shows a graph obtained by one-dimensionally plotting the correct distance and the calculated distance in the pixel Yc direction for the region of interest 1103 . The horizontal axis indicates the pixel Yc. The vertical axis indicates distance (mm). The distance difference shown in FIG. 12C is the amount of change in the distance value of the attention area 1104 .

制御部101は、注目領域について算出された距離差が、距離値の閾値以上であるかを判断し、距離値が閾値以上である場合に、当該注目領域に含まれる設定画素を、第2の領域に含まれる画素として検出する。距離値の閾値は、例えば、パラメータ設定部123を用いたユーザによる操作入力に基づいて予め設定される。距離値の閾値として、実験等によって予め決められた閾値を用いてもよい。例えば、図12(C)に示す注目領域1104の距離差は、距離値の閾値よりも小さいと判断される。したがって、設定画素1103は、第2の領域として検出されない。一方、図12(B)に示す注目領域1102の距離差は、距離値の閾値よりも大きいと判断される。したがって、設定画素1101は、第2の領域として検出される。 The control unit 101 determines whether the distance difference calculated for the region of interest is equal to or greater than a distance value threshold. Detect as pixels included in the area. The threshold value of the distance value is set in advance based on an operation input by the user using the parameter setting unit 123, for example. As the threshold value of the distance value, a threshold value determined in advance by an experiment or the like may be used. For example, it is determined that the distance difference of the region of interest 1104 shown in FIG. 12C is smaller than the distance value threshold. Therefore, the setting pixel 1103 is not detected as the second area. On the other hand, it is determined that the distance difference of the region of interest 1102 shown in FIG. 12B is greater than the distance value threshold. Therefore, the setting pixel 1101 is detected as the second area.

上述した注目領域の範囲については、ユーザが任意の範囲に決定することが可能である。例えば、図3のS203において算出された距離情報は、像ずれ量の算出のために用いられる微小ブロック(ウィンドウ)の大きさの分、あいまいな値となる。したがって、制御部101が、注目領域の範囲を、上記微小ブロックの範囲よりも広い範囲に設定することで、あいまいな値以外の距離情報に基づいて第2の領域を精度良く検出することができる。 The user can arbitrarily determine the range of the attention area described above. For example, the distance information calculated in S203 of FIG. 3 is an ambiguous value due to the size of the minute block (window) used for calculating the image shift amount. Therefore, by setting the range of the region of interest to be wider than the range of the minute blocks, the second region can be accurately detected based on the distance information other than the ambiguous value. .

上記のように、設定画素毎に設定した注目領域の距離値の変化量を評価することで、第2の領域を検出することができる。なお、注目領域の距離値の変化量を領域毎に評価して、領域毎に第2の領域であるかを判断してもよい。これにより、画素毎の計算が不要となるため、計算量を削減することが可能である。距離値の変化量として、注目領域の距離値の最大値の最小値に対する距離値の比を用いてもよく、当該距離値の比が閾値以上である場合に、設定画素を第2の領域として検出してもよい。 As described above, the second area can be detected by evaluating the amount of change in the distance value of the attention area set for each set pixel. Note that it is also possible to evaluate the amount of change in the distance value of the attention area for each area and determine whether it is the second area for each area. This eliminates the need for calculation for each pixel, so it is possible to reduce the amount of calculation. A ratio of the maximum distance value to the minimum distance value of the region of interest may be used as the amount of change in the distance value. may be detected.

また、制御部101が、図10のS901で検出された第1の領域に対応する注目領域内の被写体までの距離の変化量に基づいて、第2の領域を検出することで、第2の領域の検出のための処理負荷を低減させることができる。図12(D)は、検出された第2の領域域1105を示す。 Further, the control unit 101 detects the second area based on the amount of change in the distance to the subject in the attention area corresponding to the first area detected in S901 of FIG. The processing load for region detection can be reduced. FIG. 12(D) shows the detected second region 1105 .

(距離値の閾値の制御例1)
ユーザが任意に設定した距離値の閾値について、制御部101が、撮像画像のRGB色情報に基づいて、距離値の閾値を変更してもよい。一般に、被写体の形状のエッジ領域は、異なる被写体の形状の境目であることが多いので、被写体の色が異なっている領域である可能性が高い。したがって、制御部101は、例えば、設定画素の色と、設定画素を含む周囲の領域の色との色差を評価し、色差が大きいほど距離値の閾値を小さくする。これにより、距離差が小さい撮影シーンであっても第2の領域を検出することができる。
具体的には、制御部101は、設定画素の色と、設定画素を含む周囲の領域を含む注目領域の色とを比較し、最大の色差を決定する。制御部101は、決定した色差が大きいほど距離値の閾値を小さくする。制御部101が、周囲の領域の色の平均値と設定画素の色との差を色差として用いて距離値の閾値を制御してもよい。
(Example 1 of distance value threshold control)
The control unit 101 may change the distance value threshold arbitrarily set by the user based on the RGB color information of the captured image. In general, the edge area of the shape of the subject is often the boundary between the shapes of different subjects, and thus is likely to be an area where the color of the subject is different. Therefore, for example, the control unit 101 evaluates the color difference between the color of the set pixel and the color of the surrounding area including the set pixel, and decreases the distance value threshold as the color difference increases. This makes it possible to detect the second area even in a shooting scene with a small distance difference.
Specifically, the control unit 101 compares the color of the set pixel with the color of the target area including the surrounding area including the set pixel, and determines the maximum color difference. The control unit 101 decreases the threshold value of the distance value as the determined color difference increases. The control unit 101 may control the threshold value of the distance value using the difference between the average color value of the surrounding area and the color of the set pixel as the color difference.

一般に、色差の表現方法の公知例として、ユークリッド距離によって表現する方法やLab色空間で表現する方法があり、本実施例では、上記の公知の技術を用いて算出された色差を色差CDとして用いる。色差をCD、変更前の距離値の閾値DT_1とすると、変更後の距離値の閾値DTは、式(10)によって算出できる。
DT=DT_1/(α2×CD)・・・式(10)
α2は、色差CDの影響を制御するための任意の定数であり、1/CD~∞の範囲で設定される。
また、以下の式(11)によって、変更後の距離値の閾値DTを算出することも可能である。
DT =DT_1-(α3×CD)・・・式(11)
α3は,色差CDの影響を制御するための任意の定数であり、0~DT_1/CDの範囲で設定される。
In general, known examples of color difference expression methods include a method of expression using the Euclidean distance and a method of expression in the Lab color space. In this embodiment, the color difference calculated using the above known technique is used as the color difference CD. . Assuming that the color difference is CD and the threshold value DT_1 of the distance value before change is used, the threshold value DT of the distance value after change can be calculated by Equation (10).
DT=DT_1/(α2×CD) Expression (10)
α2 is an arbitrary constant for controlling the influence of the color difference CD and is set within the range of 1/CD to ∞.
It is also possible to calculate the threshold value DT of the distance value after change by the following equation (11).
DT=DT_1-(α3×CD) Expression (11)
α3 is an arbitrary constant for controlling the influence of color difference CD, and is set in the range of 0 to DT_1/CD.

(距離値の閾値の制御例2)
ユーザが任意に設定した距離値の閾値について、制御部101が、注目領域内における局所領域毎の面の傾きの変化量に基づき、面の傾きの変化量が大きいほど、距離値の閾値として小さい値を設定するようにしてもよい。局所領域毎の面の傾きとは、局所領域の形状における変位量や面法線等の情報である。当該面の傾きの取得方法として、距離情報を面内方向に微分して変位量を算出する方法や、照度差ステレオ法によって面法線を算出することで取得する方法がある。本実施例では、一例として、面法線を局所領域毎の面の傾きとして使用する。
(Example 2 of distance value threshold control)
Regarding the threshold value of the distance value arbitrarily set by the user, the control unit 101 determines, based on the amount of change in the inclination of the surface for each local area in the region of interest, that the larger the amount of change in the inclination of the surface, the smaller the threshold value of the distance value. A value may be set. The inclination of the surface for each local area is information such as the amount of displacement in the shape of the local area and the surface normal. As a method of obtaining the tilt of the surface, there is a method of differentiating the distance information in the in-plane direction to calculate the amount of displacement, and a method of obtaining the surface normal by calculating the surface normal using the photometric stereo method. In this embodiment, as an example, the surface normal is used as the inclination of the surface for each local region.

一般に、エッジ領域は、異なる被写体の形状の境目であることが多いので、被写体の形状の面法線が異なっている可能性が高い。したがって、制御部101は、例えば、設定画素の面法線と、設定画素の周囲の領域の面法線との差(例えば、角度)が大きいほど距離値の閾値を小さくする。これにより、距離差が小さい撮影シーンでも第2の領域を検出することが可能となる。
具体的には、制御部101が、設定画素の面法線と、設定画素の周囲の領域の面法線とを比較し、最大となる差を、設定画素の面法線と周囲の領域の面法線との差として用いる。また、周囲の領域の面法線の平均値と設定画素の面法線との差を、設定画素の面法線と周囲の領域の面法線との差として用いてもよい。
例えば、設定画素の面法線と周囲の領域の面法線との差をND、変更前の距離値の閾値DT_1とすると、変更後の距離値の閾値DTは、式(12)によって算出できる。
DT=DT_1/(α4×ND)・・・式(12)
α4は、設定画素の面法線と周囲の領域の面法線との差NDの影響を制御するための任意の定数であり、1/ND~∞の範囲で設定される。
In general, the edge region is often the boundary between the shapes of different subjects, so it is highly possible that the surface normals of the shapes of the subjects are different. Therefore, for example, the control unit 101 decreases the threshold value of the distance value as the difference (for example, angle) between the surface normal of the set pixel and the surface normal of the area around the set pixel increases. This makes it possible to detect the second area even in a shooting scene with a small distance difference.
Specifically, the control unit 101 compares the surface normal of the set pixel and the surface normal of the area around the set pixel, and determines the maximum difference between the surface normal of the set pixel and the area around the set pixel. Used as a difference from the surface normal. Alternatively, the difference between the average value of the surface normals of the surrounding area and the surface normal of the set pixel may be used as the difference between the surface normal of the set pixel and the surface normal of the surrounding area.
For example, if the difference between the surface normal of the set pixel and the surface normal of the surrounding area is ND, and the distance value threshold DT_1 before change is assumed, the distance value threshold DT after change can be calculated by equation (12). .
DT=DT_1/(α4×ND) Expression (12)
α4 is an arbitrary constant for controlling the influence of the difference ND between the surface normal of the set pixel and the surface normal of the surrounding area, and is set within the range of 1/ND to ∞.

また、制御部101が、式(13)を用いて変更後の距離値の閾値DTを算出することも可能である。
DT=DT_1-(α5×ND)・・・式(13)
α5は、設定画素の面法線と周囲の領域の面法線との差NDの影響を制御するための任意の定数であり、0~DT_1/NDの範囲で設定される。
It is also possible for the control unit 101 to calculate the threshold value DT of the distance value after change using the equation (13).
DT=DT_1-(α5×ND) Expression (13)
α5 is an arbitrary constant for controlling the influence of the difference ND between the surface normal of the set pixel and the surface normal of the surrounding area, and is set in the range of 0 to DT_1/ND.

以上説明したように、距離値の閾値を、色差や設定画素の面法線と周囲の領域の面法線との差に基づいて変更することが可能である。また、色差と、面法線の差とを組み合わせて、例えば、式(14)または式(15)にしたがって、変更後の閾値を算出することも可能である。
DT=DT_1/{(α4×ND)×(α2×CD)}・・・式(14)
DT=DT_1-(α3×CD)-(α5×ND)・・・式(15)
これにより、形状の色差と面法線の双方を考慮した距離値の閾値の変更が可能になり、第2の領域の検出の精度を高めることができる。
As described above, it is possible to change the threshold value of the distance value based on the color difference or the difference between the surface normal of the set pixel and the surface normal of the surrounding area. It is also possible to combine the color difference and the difference between the surface normals and calculate the changed threshold according to, for example, Equation (14) or Equation (15).
DT=DT_1/{(α4×ND)×(α2×CD)} Expression (14)
DT=DT_1-(α3×CD)−(α5×ND) Expression (15)
This makes it possible to change the threshold value of the distance value in consideration of both the color difference of the shape and the surface normal, thereby improving the accuracy of detecting the second area.

図10の説明に戻る。S903において、制御部101が、S901で検出された第1の領域と、S902で検出された第2の領域に基づいて、エッジ領域を検出する。なお、本実施形態では、一旦第1の領域と第2の領域とを検出した上でエッジ領域を検出する方法を適用するが、本発明の適用範囲はこの方法に限定されない。制御部101が、異なる照明条件での撮像で得られた複数の画像の輝度値の変化情報と、画像の注目領域内の距離情報の変化情報とに基づき、エッジ領域を検出してもよい。例えば、制御部101は、輝度値の変化量が輝度値の閾値以上の領域であって、かつ、距離情報の変化量が距離値の閾値以上の領域に対応する画素を、エッジ領域に含まれる画素として決定してもよい。 Returning to the description of FIG. In S903, the control unit 101 detects an edge area based on the first area detected in S901 and the second area detected in S902. In addition, in this embodiment, a method of detecting the edge region after detecting the first region and the second region is applied, but the scope of application of the present invention is not limited to this method. The control unit 101 may detect an edge region based on change information of luminance values of a plurality of images obtained by imaging under different lighting conditions and change information of distance information in the region of interest of the image. For example, the control unit 101 includes pixels corresponding to an area in which the amount of change in luminance value is equal to or greater than the threshold value of luminance value and in which the amount of change in distance information is equal to or more than the threshold value of distance value is included in the edge region. You may decide as a pixel.

図13は、検出されたエッジ領域の一例を示す図である。
制御部101は、例えば、図11に示す第1の領域1001と、図12(D)に示す第2の領域1105とが重複する領域をエッジ領域1201として決定する。
以上説明した本実施形態の情報処理装置によれば、異なる照明条件で撮像された複数の画像の輝度値の変化量と、距離情報の変化量とに基づいて、精度良くエッジ領域を検出することができる。制御部101が、検出されたエッジ領域を所定の画面上に表示するようにしてもよい。
FIG. 13 is a diagram showing an example of detected edge regions.
For example, the control unit 101 determines an area where the first area 1001 shown in FIG. 11 and the second area 1105 shown in FIG. 12D overlap as the edge area 1201 .
According to the information processing apparatus of the present embodiment described above, an edge region can be accurately detected based on the amount of change in luminance values of a plurality of images captured under different lighting conditions and the amount of change in distance information. can be done. The control unit 101 may display the detected edge area on a predetermined screen.

図3の説明に戻る。S205において、制御部101が、距離情報補正部126を制御して、S204で検出したエッジ領域に基づいて距離情報を補正する。距離情報の補正処理については、図14を用いて後述する。
次に、図3のS206において、制御部101が、形状情報算出部127を制御して、S205で補正した距離情報を用いて形状情報を算出する。
Returning to the description of FIG. In S205, the control unit 101 controls the distance information correction unit 126 to correct the distance information based on the edge area detected in S204. The distance information correction process will be described later with reference to FIG. 14 .
Next, in S206 of FIG. 3, the control unit 101 controls the shape information calculation unit 127 to calculate shape information using the distance information corrected in S205.

S205を終えた段階で算出されてる距離情報は、カメラ視点におけるカメラ座標系での被写体の形状情報ともいえる。制御部101は、カメラ座標系から世界座標系の点群に変換する方法を適用することにより、被写体の形状情報を算出することが可能である。このように、被写体の形状情報を世界座標系の点群とすることで、カメラ座標系での形状情報よりも、一般に流通しているアプリケーションなどで容易に利用することが可能となる。 The distance information calculated after S205 can be said to be the shape information of the subject in the camera coordinate system at the camera viewpoint. The control unit 101 can calculate the shape information of the subject by applying a method of converting from the camera coordinate system to the point cloud of the world coordinate system. In this way, by using the point cloud of the world coordinate system as the shape information of the subject, it becomes possible to use the shape information more easily in commonly distributed applications than in the case of the shape information in the camera coordinate system.

図14は、距離情報の補正処理の一例を説明する図である。
図14(A)は、距離情報の補正対象の領域を示す。距離情報の補正対象の領域は、例えば、エッジ領域を含む任意の範囲の領域に設定される。図14(A)に示す例では、領域1401が、距離情報の補正対象の領域である。
FIG. 14 is a diagram illustrating an example of distance information correction processing.
FIG. 14(A) shows a region for correction of distance information. The area for which distance information is to be corrected is set, for example, to any range of area including an edge area. In the example shown in FIG. 14A, an area 1401 is an area to be corrected for distance information.

図14(B)は、領域1401の拡大図の一例を示す。注目点1402は、補正対象の画素の位置を示す。境界部1403は、図3のS204で検出されたエッジ領域を示す。領域1404は、図10のS902で検出された第2の領域を示す。領域1405および領域1406は、第1の領域、第2の領域およびエッジ領域として検出されなかった領域を示す。領域1405は、領域1406に対して手前側(カメラ側)にある領域である。 FIG. 14B shows an example of an enlarged view of the region 1401. FIG. A point of interest 1402 indicates the position of a pixel to be corrected. A boundary portion 1403 indicates the edge area detected in S204 of FIG. A region 1404 indicates the second region detected in S902 of FIG. Regions 1405 and 1406 indicate regions that were not detected as the first, second and edge regions. An area 1405 is an area on the front side (camera side) of the area 1406 .

図14(C)は、境界部1403を境に領域1401を分割して得られる領域のうち、注目点1402が属する領域1407を示す。制御部101は、例えば、注目点1402の距離情報の補正値を、領域1407に含まれる距離値の平均値から算出して、補正後の距離値とする。これにより、距離差が大きい領域1406の距離値を除くことができるので、補正後の距離値を高精度に算出することができる。また、制御部101が、領域1407から領域1404を除いて得られる領域の距離値の平均値に基づいて、注目点1402の補正後の距離値を算出するようにしてもよい。第2の領域である領域1404は、距離差が大きく、マッチング領域(微小ブロック)の大きさの影響により、あいまいな距離値となっている可能性が高い。制御部101が、領域1404を除いて得られる領域の距離値の平均値に基づいて補正後の距離値を算出することで、距離値をより高精度に算出することができる。 FIG. 14C shows an area 1407 to which the target point 1402 belongs, among the areas obtained by dividing the area 1401 with the boundary 1403 as a boundary. For example, the control unit 101 calculates the correction value of the distance information of the target point 1402 from the average value of the distance values included in the area 1407, and uses the corrected distance value. As a result, the distance value of the area 1406 with a large distance difference can be removed, so the corrected distance value can be calculated with high accuracy. Alternatively, the control unit 101 may calculate the corrected distance value of the point of interest 1402 based on the average value of the distance values of the regions obtained by excluding the region 1404 from the region 1407 . The area 1404, which is the second area, has a large distance difference, and is highly likely to have an ambiguous distance value due to the influence of the size of the matching area (minute block). By having the control unit 101 calculate the corrected distance value based on the average value of the distance values of the area obtained by excluding the area 1404, the distance value can be calculated with higher accuracy.

次に、面法線を使用して距離情報を補正する方法について説明する。
図14(D)は、図14(A)に示す領域1401のYc方向の所定の1ラインの距離値(正解距離と算出距離)を1次元にプロットしたグラフを示す。横軸は、画素Ycを示す。縦軸は、距離(mm)を示す。
面法線は、局所領域の面の傾きであるので、制御部101が、面法線をYc方向に積分することで距離値を算出することが可能である。具体的には、制御部101は、面法線の積分を開始した位置の距離値を、基準となる距離として面法線の積分値に加算することで、距離値を算出する。面法線の積分を開始する位置は、任意に決定することができる。
Next, a method for correcting distance information using surface normals will be described.
FIG. 14D shows a graph obtained by one-dimensionally plotting the distance values (correct distance and calculated distance) of one predetermined line in the Yc direction of the region 1401 shown in FIG. 14A. The horizontal axis indicates the pixel Yc. The vertical axis indicates distance (mm).
Since the surface normal is the inclination of the surface of the local region, the control unit 101 can calculate the distance value by integrating the surface normal in the Yc direction. Specifically, the control unit 101 calculates the distance value by adding the distance value at the position where the integration of the surface normal is started to the integrated value of the surface normal as a reference distance. The position at which surface normal integration is started can be determined arbitrarily.

ここで、エッジ領域の情報を用いることにより、領域1401を境界部1403を境にして図14(D)に示す領域aと領域bとに分割することが可能である。本実施形態では、領域aと領域bとは同じ面法線を有し、境界部1403の面法線は検出できていないものとする。 Here, by using the edge area information, it is possible to divide the area 1401 into areas a and b shown in FIG. In this embodiment, it is assumed that the area a and the area b have the same surface normal, and the surface normal of the boundary 1403 cannot be detected.

図14(E)は、エッジ領域を用いずに、面法線から距離値を算出した結果を示す。面法線は境界部1403を境に変化しないため、面法線を積分していくと、破線で示す距離値1408が算出されてしまい、補正後の距離値として用いることができない。
図14(F)は、エッジ領域を用いて、面法線から距離値を算出した結果を示す。制御部101は、領域1401を境界部1403を境に領域aと領域bに分割し、領域aにおいて基準となる距離aを設定し、領域bにおいて基準となる距離bを設定した上で、面法線から距離値を算出する。破線で示す距離値1409は、面法線を使用して算出される補正後の距離値となる。
FIG. 14E shows the result of calculating the distance value from the surface normal without using the edge region. Since the surface normal does not change at the boundary 1403, integrating the surface normal results in a distance value 1408 indicated by a dashed line, which cannot be used as the corrected distance value.
FIG. 14F shows the result of calculating the distance value from the surface normal using the edge region. The control unit 101 divides the region 1401 into a region a and a region b with a boundary portion 1403 as a boundary, sets a reference distance a in the region a, and sets a reference distance b in the region b. Computes a distance value from the normal. A distance value 1409 indicated by a dashed line is the corrected distance value calculated using the surface normal.

上記の説明では、図14(D)に示すように、領域1401のYc方向の所定の1ラインの距離値を例に挙げたが、2次元の方向で面法線を積分することも可能である。
面法線の積分を開始する位置を、第2の領域を除いた領域から選択するようにしてもよい。例えば、領域1401を境界部1403で分割して得られる2つの領域から第2の領域1404を除くと、領域1405と領域1406が得られる。制御部101は、領域1405と領域1406のそれぞれについて、基準となる距離を決定する。これにより、領域1404のあいまいな距離を基準となる距離に設定しないようにできるので、より高精度に距離値を算出することができる。
In the above description, as shown in FIG. 14D, the distance value of one predetermined line in the Yc direction of the region 1401 was taken as an example, but it is also possible to integrate the surface normal in two-dimensional directions. be.
The position at which the integration of the surface normal is started may be selected from an area other than the second area. For example, when the second region 1404 is removed from the two regions obtained by dividing the region 1401 at the boundary 1403, regions 1405 and 1406 are obtained. The control unit 101 determines a reference distance for each of the regions 1405 and 1406 . As a result, the ambiguous distance of the area 1404 can be prevented from being set as the reference distance, so that the distance value can be calculated with higher accuracy.

(実施例2)
図15は、実施例2の情報処理装置による第1の領域の検出処理の例である。
実施例2の情報処理装置の構成および基本的動作は、実施例1の情報処理装置および構成と基本的動作と同様である。実施例2の情報処理装置は、影部の輪郭部を第1の領域として検出する。
(Example 2)
FIG. 15 is an example of first area detection processing by the information processing apparatus according to the second embodiment.
The configuration and basic operation of the information processing apparatus of the second embodiment are the same as the information processing apparatus, configuration and basic operation of the first embodiment. The information processing apparatus according to the second embodiment detects the outline of the shadow as the first area.

図15(A)は、図11の領域1001の輪郭部を示す。実施例2では、制御部101は、輝度値の変化量が輝度の閾値以上の領域(影部)1001の輪郭部1301を第1の領域として検出する。例えば、制御部101は、領域1001の値を1、領域1001以外の領域の値を0とした行列を作成する。制御部101は、作成した行列のX方向、Y方向の微分値DIFFについて、|DIFF|>0となる領域の値を1、それ以外の領域の値を0とする。これにより、値が1の領域が輪郭部1301として検出できる。 FIG. 15A shows the outline of region 1001 in FIG. In the second embodiment, the control unit 101 detects the contour portion 1301 of the region (shadow portion) 1001 in which the amount of change in luminance value is equal to or greater than the luminance threshold as the first region. For example, the control unit 101 creates a matrix in which the value of the area 1001 is 1 and the value of the area other than the area 1001 is 0. The control unit 101 sets the values of the X-direction and Y-direction differential values DIFF of the created matrix to 1 in regions where |DIFF|>0, and to 0 in other regions. As a result, an area with a value of 1 can be detected as the contour portion 1301 .

図15(B)に示すように、制御部101は、検出した輪郭部1301と、図12(D)に示す第2の領域1105とが重なる領域1302を、エッジ領域として決定する。実施例2の情報処理装置によれば、影部の輪郭部を第1の領域とすることで、高精度にエッジ領域を検出することが可能である。 As shown in FIG. 15B, the control unit 101 determines an area 1302 where the detected contour portion 1301 and the second area 1105 shown in FIG. 12D overlap as an edge area. According to the information processing apparatus of the second embodiment, it is possible to detect the edge area with high accuracy by using the outline of the shadow as the first area.

また、制御部101が、検出された輪郭部1301に対応する領域を対象として、距離値が距離値の閾値以上であるかを判断して、第2の領域を検出することで、第2の領域を算出する際の処理負荷を低減することが可能である。 In addition, the control unit 101 determines whether the distance value of the area corresponding to the detected contour part 1301 is equal to or greater than the threshold value of the distance value, and detects the second area. It is possible to reduce the processing load when calculating the area.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100 形状情報検出装置
110 撮像装置
120 画像処理装置
100 shape information detection device 110 imaging device 120 image processing device

Claims (21)

異なる照明条件で撮像された複数の画像を取得する第1の取得手段と、
前記画像内における奥行き方向に関する被写体の距離情報を取得する第2の取得手段と、
前記複数の画像間の輝度値の変化情報と、画像の注目領域内の前記距離情報の変化情報とに基づいて、前記被写体のエッジ領域を決定する制御手段と、を有する
ことを特徴とする情報処理装置。
a first acquisition means for acquiring a plurality of images captured under different lighting conditions;
a second acquisition means for acquiring distance information of a subject in the depth direction in the image;
and a control unit that determines an edge region of the subject based on change information of luminance values between the plurality of images and change information of the distance information in the region of interest of the image. processing equipment.
前記複数の画像間の輝度値の変化量に基づいて、第1の領域を検出する第1の検出手段と、
前記注目領域内の前記被写体までの距離の変化量に基づいて、第2の領域を検出する第2の検出手段と、を有し、
前記制御手段は、前記第1の領域の情報と前記第2の領域の情報とに基づいて、前記被写体のエッジ領域を決定する
ことを特徴とする請求項1に記載の情報処理装置。
a first detection means for detecting a first region based on the amount of change in luminance value between the plurality of images;
a second detection means for detecting a second area based on the amount of change in the distance to the subject within the attention area;
2. The information processing apparatus according to claim 1, wherein said control means determines an edge area of said subject based on information on said first area and information on said second area.
前記制御手段は、前記第1の領域と前記第2の領域とが重複する領域を前記被写体のエッジ領域として決定する
ことを特徴とする請求項2に記載の情報処理装置。
3. The information processing apparatus according to claim 2, wherein said control means determines an area where said first area and said second area overlap as an edge area of said subject.
前記第1の検出手段は、前記輝度値の変化量が閾値以上の領域を前記第1の領域として検出する
ことを特徴とする請求項2または請求項3に記載の情報処理装置。
4. The information processing apparatus according to claim 2, wherein the first detection means detects, as the first area, an area in which the amount of change in luminance value is equal to or greater than a threshold.
前記第1の検出手段は、前記輝度値の変化量が閾値以上の領域の輪郭部を前記第1の領域として検出する
ことを特徴とする請求項2乃至4のいずれか1項に記載の情報処理装置。
5. The information according to any one of claims 2 to 4, wherein the first detection means detects, as the first area, a contour portion of an area in which the amount of change in luminance value is equal to or greater than a threshold. processing equipment.
前記第1の検出手段は、前記被写体までの距離の値が大きいほど前記閾値を小さい値に設定する
ことを特徴とする請求項4または請求項5に記載の情報処理装置。
6. The information processing apparatus according to claim 4, wherein the first detection means sets the threshold to a smaller value as the value of the distance to the subject increases.
前記第2の検出手段は、前記第1の領域に対応する前記注目領域内の被写体までの距離の変化量に基づいて、前記第2の領域を検出する
ことを特徴とする請求項2乃至6のいずれか1項に記載の情報処理装置。
6. The second detection means detects the second area based on the amount of change in distance to a subject within the attention area corresponding to the first area. The information processing device according to any one of .
前記第2の検出手段は、被写体までの距離の変化量が閾値以上の領域を前記第2の領域として検出する
ことを特徴とする請求項2乃至7のいずれか1項に記載の情報処理装置。
8. The information processing apparatus according to any one of claims 2 to 7, wherein the second detection means detects, as the second area, an area in which the amount of change in distance to the subject is equal to or greater than a threshold. .
前記第2の取得手段は、前記注目領域内の色差が大きいほど前記閾値を小さい値に設定する
ことを特徴とする請求項8に記載の情報処理装置。
9. The information processing apparatus according to claim 8, wherein the second acquisition unit sets the threshold to a smaller value as the color difference in the attention area increases.
前記第2の取得手段は、前記注目領域内における局所領域毎の面の傾きの変化量が大きいほど前記閾値を小さい値に設定する
ことを特徴とする請求項8または請求項9に記載の情報処理装置。
10. The information according to claim 8, wherein the second acquisition unit sets the threshold to a smaller value as the amount of change in surface inclination of each local region in the attention region increases. processing equipment.
前記距離情報は、視点の異なる一対の画像から取得される像ずれ量に基づく距離情報、フォーカスの異なる複数の画像から取得されるコントラスト情報の分布、またはTOF方式で取得される距離情報のうちの少なくともいずれかである
ことを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
The distance information is distance information based on the amount of image shift obtained from a pair of images with different viewpoints, the distribution of contrast information obtained from a plurality of images with different focus, or the distance information obtained by the TOF method. 11. The information processing apparatus according to any one of claims 1 to 10, wherein:
前記注目領域は、前記視点の異なる一対の画像から取得される相対的な像ずれ量の算出のために設定される領域の範囲より広い範囲に設定される
ことを特徴とする請求項11に記載の情報処理装置。
12. The area of interest according to claim 11, wherein the area of interest is set to a range wider than a range of areas set for calculating a relative amount of image shift obtained from the pair of images having different viewpoints. information processing equipment.
前記エッジ領域の情報に基づいて、前記距離情報を補正する補正手段を有する
ことを特徴とする請求項2乃至12のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 2 to 12, further comprising correction means for correcting the distance information based on the information on the edge area.
前記補正手段は、前記距離情報の補正対象の領域を前記エッジ領域に基づいて分割し、分割された領域のうちの前記距離情報の補正対象の画素が属する領域の距離情報に基づいて、前記距離情報の補正値を算出する
ことを特徴とする請求項13に記載の情報処理装置。
The correcting means divides the area for which the distance information is to be corrected based on the edge area, and calculates the distance based on the distance information of the area to which the pixel for which the distance information is to be corrected belongs among the divided areas. 14. The information processing apparatus according to claim 13, wherein an information correction value is calculated.
前記補正手段は、前記距離情報の補正対象の領域を前記エッジ領域に基づいて分割し、前記分割された領域のうちの前記距離情報の補正対象の画素が属する領域から前記第2の領域を除いた領域の距離情報に基づいて、前記距離情報の補正値を算出する
ことを特徴とする請求項14に記載の情報処理装置。
The correcting means divides the area to be corrected of the distance information based on the edge area, and removes the second area from the area to which the pixels to be corrected of the distance information belong among the divided areas. 15. The information processing apparatus according to claim 14, wherein the correction value of the distance information is calculated based on the distance information of the area obtained.
前記補正手段は、前記距離情報の補正対象の領域を前記エッジ領域に基づいて分割し、前記分割された領域において、局所領域の面の傾きを積分することによって、前記距離情報の補正値を算出する
ことを特徴とする請求項13に記載の情報処理装置。
The correcting means divides the area to be corrected for the distance information based on the edge area, and calculates the correction value of the distance information by integrating the inclination of the surface of the local area in the divided area. The information processing apparatus according to claim 13, characterized by:
前記決定されたエッジ領域を表示する表示手段を有する
ことを特徴とする請求項1乃至16のいずれか1項に記載の情報処理装置。
17. The information processing apparatus according to any one of claims 1 to 16, further comprising display means for displaying the determined edge region.
請求項1乃至17のいずれか1項に記載の情報処理装置と、
被写体に対して発光する発光手段と、
前記被写体を撮像する撮像手段と、を有する
ことを特徴とする撮像装置。
an information processing apparatus according to any one of claims 1 to 17;
a light emitting means for emitting light to a subject;
and imaging means for imaging the subject.
前記撮像手段は、複数のマイクロレンズと、各マイクロレンズに対応する複数の光電変換部を備え、視点の異なる複数の画像信号を出力する
ことを特徴とする請求項18に記載の撮像装置。
19. The image pickup apparatus according to claim 18, wherein the image pickup means includes a plurality of microlenses and a plurality of photoelectric conversion units corresponding to each microlens, and outputs a plurality of image signals from different viewpoints.
情報処理装置にて実行される画像処理方法であって、
異なる照明条件で撮像された複数の画像を取得する第1の取得工程と、
前記画像内における奥行き方向に関する被写体の距離情報を取得する第2の取得工程と、
前記複数の画像間の輝度値の変化情報と、画像の注目領域内の前記距離情報の変化情報とに基づいて、前記被写体のエッジ領域を決定する制御工程と、を有する
ことを特徴とする画像処理方法。
An image processing method executed by an information processing device,
a first acquisition step of acquiring a plurality of images captured under different lighting conditions;
a second acquisition step of acquiring distance information of the subject in the depth direction in the image;
and a control step of determining an edge region of the subject based on change information of luminance values between the plurality of images and change information of the distance information in the region of interest of the image. Processing method.
コンピュータを、請求項1乃至17のいずれか1項に記載の情報処理装置の各手段として機能させる
ことを特徴とするプログラム。
A program that causes a computer to function as each means of the information processing apparatus according to any one of claims 1 to 17.
JP2021102865A 2021-06-22 2021-06-22 Information processing apparatus, imaging apparatus, image processing method, and program Pending JP2023001950A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021102865A JP2023001950A (en) 2021-06-22 2021-06-22 Information processing apparatus, imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021102865A JP2023001950A (en) 2021-06-22 2021-06-22 Information processing apparatus, imaging apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2023001950A true JP2023001950A (en) 2023-01-10

Family

ID=84797767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021102865A Pending JP2023001950A (en) 2021-06-22 2021-06-22 Information processing apparatus, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2023001950A (en)

Similar Documents

Publication Publication Date Title
US10237532B2 (en) Scan colorization with an uncalibrated camera
US8786679B2 (en) Imaging device, 3D modeling data creation method, and computer-readable recording medium storing programs
JP6112769B2 (en) Information processing apparatus and information processing method
US8144974B2 (en) Image processing apparatus, method, and program
JP2016133396A (en) Normal information generation device, image-capturing device, normal information generation method, and normal information generation program
JP6786225B2 (en) Image processing equipment, imaging equipment and image processing programs
US10205928B2 (en) Image processing apparatus that estimates distance information, method of controlling the same, and storage medium
JP7378219B2 (en) Imaging device, image processing device, control method, and program
US11803982B2 (en) Image processing device and three-dimensional measuring system
US20040184656A1 (en) Method for measuring object based on image and photographing apparatus
JP2006279546A (en) Electronic camera, image processing program, and image processing method
JP7163025B2 (en) Image measuring device, image measuring method, imaging device, program
US11808561B2 (en) Electronic apparatus for controlling a projector to project an image onto a screen at an actual size length, control method thereof and computer readable storage medium
JP6353233B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2017134561A (en) Image processing device, imaging apparatus and image processing program
US11004229B2 (en) Image measurement device, image measurement method, imaging device
JP2023001950A (en) Information processing apparatus, imaging apparatus, image processing method, and program
US11295464B2 (en) Shape measurement device, control method, and recording medium
US11468586B2 (en) Three-dimensional measurement apparatus, image capturing apparatus, control method, and recording medium
JP2023035612A (en) Estimation device, method and program
WO2016194576A1 (en) Information processing device and method
US11790600B2 (en) Image processing device, imaging apparatus, image processing method, and recording medium
CN109565544B (en) Position designating device and position designating method
JP7479840B2 (en) Image processing device, image processing method, and program
JP2020129187A (en) Contour recognition device, contour recognition system and contour recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240610