JP2016156702A - Imaging device and imaging method - Google Patents

Imaging device and imaging method Download PDF

Info

Publication number
JP2016156702A
JP2016156702A JP2015034585A JP2015034585A JP2016156702A JP 2016156702 A JP2016156702 A JP 2016156702A JP 2015034585 A JP2015034585 A JP 2015034585A JP 2015034585 A JP2015034585 A JP 2015034585A JP 2016156702 A JP2016156702 A JP 2016156702A
Authority
JP
Japan
Prior art keywords
divided
unit
distance
region
effective range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015034585A
Other languages
Japanese (ja)
Inventor
松尾 順向
Toshihisa Matsuo
順向 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015034585A priority Critical patent/JP2016156702A/en
Publication of JP2016156702A publication Critical patent/JP2016156702A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device and an imaging method using a stereo camera with which the accuracy in determination of abnormal pixels included in distance images can be improved.SOLUTION: An imaging device comprises an imaging part 2, a three-dimensional measurement part 3, a face area extraction part 4, an area division part 5, an effective range setting part 6, an abnormal pixel determination part 7, an interpolation part 8, and a smoothing part 9. The abnormal pixel determination part 7 determines, for each of divided areas constituting distance images obtained through division by the area division part 5, of a plurality of pixels included in each of the divided areas, a pixel having a distance value falling out of an effective range set in each of the divided areas as an abnormal pixel.SELECTED DRAWING: Figure 1

Description

本発明は、ステレオカメラを用いた撮像装置および撮像方法に関するものである。   The present invention relates to an imaging apparatus and imaging method using a stereo camera.

近年、複数のカメラ(ステレオカメラ)または3次元センサを用いて対象物までの距離および対象物の形状等を計測するステレオ3次元計測装置が実用化されている。ステレオ3次元計測の手法としては、カメラを2台(例えば左右)離間して配置して対象物を同時に撮影し、得られた左右画像のペアから左右の画像の対応する画素の対、つまり対応点を探索し、左右画像の対応点同士が左右方向にどれだけ離れているか、すなわち視差を求め、この視差から三角測量の原理を用いて対象物までの距離を算出する計測方法である。このような3次元計測装置の普及が、様々な分野において進みつつある。   2. Description of the Related Art In recent years, stereo three-dimensional measurement apparatuses that measure the distance to an object, the shape of the object, and the like using a plurality of cameras (stereo cameras) or a three-dimensional sensor have been put into practical use. As a stereo three-dimensional measurement method, two cameras (for example, left and right) are spaced apart to simultaneously photograph an object, and a pair of corresponding pixels in the left and right images from the obtained pair of left and right images, that is, correspondence This is a measurement method in which a point is searched, the distance between corresponding points in the left and right images is determined in the left-right direction, that is, a parallax is obtained, and the distance to the object is calculated from the parallax using the principle of triangulation. The spread of such a three-dimensional measuring apparatus is progressing in various fields.

従来の一般的なカメラは、各画素の輝度情報および色情報を、2次元画像データ形式で保存できるに過ぎない。これに対し、3次元計測装置は、撮影対象物である人または物までの距離を測定することによって、各画素の距離値を距離画像データまたは点群データなどの3次元形状データの形式によって保存することができる。   A conventional general camera can only store luminance information and color information of each pixel in a two-dimensional image data format. In contrast, the three-dimensional measuring device measures the distance to the person or object that is the object to be photographed, and stores the distance value of each pixel in the form of three-dimensional shape data such as distance image data or point cloud data. can do.

3次元計測の主要な用途の一つとして、人の顔の形状を測定することが挙げられる。人の顔の形状が各個人に固有の特徴および情報を有していることから、3次元測定された人の顔の特徴または情報を活用する各種のセキュリティシステムおよび医療関連システムの開発が、期待されている。   One of the main uses of three-dimensional measurement is to measure the shape of a human face. Since the shape of a person's face has characteristics and information unique to each individual, development of various security systems and medical-related systems that utilize the characteristics or information of a person's face measured in three dimensions is expected. Has been.

3次元計測装置によって生成される距離画像の一部には、実際の距離値とは異なる誤計測値を有する画素が含まれることがある。この原因には様々なものがあり、たとえば、撮像された画像の品質が低かったり、あるいは、3次元計測に用いる処理方法またはパラメータに不適当な点があったりすることなどが挙げられる。   A part of the distance image generated by the three-dimensional measurement apparatus may include a pixel having an erroneous measurement value different from the actual distance value. There are various causes for this, for example, the quality of the captured image is low, or the processing method or parameters used for the three-dimensional measurement are inappropriate.

このような3次元計測時の不備を解決することを目的とした従来の3次元計測装置の一例が、特許文献1に開示されている。この従来装置は、人物の3次元距離画像に適合するようにスケール変換された立体モデルの3次元座標系における位置を決定し、さらに、位置が特定された立体モデルから、3次元形状データを補間するための処理基準となる背景面を決定する。これにより、3次元計測で欠落した3次元形状データを補間する。   An example of a conventional three-dimensional measuring apparatus aimed at solving such deficiencies during three-dimensional measurement is disclosed in Patent Document 1. This conventional apparatus determines a position in a three-dimensional coordinate system of a three-dimensional coordinate system that has been scale-converted so as to fit a three-dimensional distance image of a person, and further interpolates three-dimensional shape data from the three-dimensional model whose position has been specified. A background surface to be a processing standard for the determination is determined. Thereby, the three-dimensional shape data missing in the three-dimensional measurement is interpolated.

特開2001−12922号(2001年1月19日公開)JP 2001-12922 (published January 19, 2001)

本発明の上記の課題を解決するためになされたものである。そしてその目的は、距離画像に含まれる異常画素の判定精度をより高められる撮像装置および撮像方法を提供することにある。   The present invention has been made to solve the above-described problems of the present invention. And the objective is to provide the imaging device and imaging method which can raise the determination precision of the abnormal pixel contained in a distance image more.

本発明に係る撮像装置は、上記の課題を解決するために、被写体を複数の異なる視点から撮影することによって、各上記視点に対応する複数の画像を生成する撮像部と、上記複数の画像を3次元計測処理することによって、距離画像を生成する3次元計測部と、上記距離画像において判定領域を抽出する抽出部と、上記判定領域を、複数の異なる分割領域に分割する分割部と、上記分割領域ごとに、当該分割領域に応じた有効範囲を設定する設定部と、上記分割領域ごとに、当該分割領域に含まれる複数の画素のうち、当該分割領域に設定された上記有効範囲から外れる距離値を有する画素を、異常画素であると判定する判定部とを備えていることを特徴としている。   In order to solve the above-described problem, an imaging apparatus according to the present invention captures a subject from a plurality of different viewpoints, thereby generating an imaging unit that generates a plurality of images corresponding to each of the viewpoints, and the plurality of images. A three-dimensional measurement unit that generates a distance image by performing a three-dimensional measurement process, an extraction unit that extracts a determination region in the distance image, a division unit that divides the determination region into a plurality of different divided regions, and For each divided region, a setting unit that sets an effective range according to the divided region, and for each divided region, out of the effective range set for the divided region among a plurality of pixels included in the divided region And a determination unit that determines that a pixel having a distance value is an abnormal pixel.

本発明に係る撮像方法は、上記の課題を解決するために、被写体を複数の異なる視点から撮影することによって、各上記視点に対応する複数の画像を生成する撮像工程と、上記複数の画像を3次元計測処理することによって、距離画像を生成する3次元計測工程と、上記距離画像において判定領域を抽出する抽出工程と、上記判定領域を、複数の異なる分割領域に分割する分割工程と、上記分割領域ごとに、当該分割領域に応じた有効範囲を設定する設定工程と、上記分割領域ごとに、当該分割領域に含まれる複数の画素のうち、当該分割領域に設定された上記有効範囲から外れる距離値を有する画素を、異常画素であると判定する判定工程とを有することを特徴としている。   In order to solve the above problems, an imaging method according to the present invention captures a subject from a plurality of different viewpoints, thereby generating a plurality of images corresponding to each of the viewpoints, and the plurality of images. A three-dimensional measurement process for generating a distance image by performing a three-dimensional measurement process; an extraction process for extracting a determination area in the distance image; a division process for dividing the determination area into a plurality of different divided areas; A setting step for setting an effective range according to the divided area for each divided area, and out of the effective range set for the divided area among the plurality of pixels included in the divided area for each divided area And determining a pixel having a distance value as an abnormal pixel.

本発明の一態様によれば、距離画像に含まれる異常画素の判定精度をより高められるという効果を奏する。   According to one aspect of the present invention, there is an effect that the determination accuracy of abnormal pixels included in a distance image can be further increased.

本発明の実施形態1に係る撮像装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the imaging device which concerns on Embodiment 1 of this invention. 撮像部および次元計測部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of an imaging part and a dimension measurement part. 本発明の実施形態1における2つの平行化画像に対して対応点探索処理を実行する方法を示す説明図である。It is explanatory drawing which shows the method of performing a corresponding point search process with respect to two parallelized images in Embodiment 1 of this invention. (a)は、本発明の実施形態1における左カメラの平行化画像上の各画素を示す説明図であり、(b)は、本発明の実施形態1における1つの注目画素に対して得られる値と視差との関係曲線を示すグラフである。(A) is explanatory drawing which shows each pixel on the parallel image of the left camera in Embodiment 1 of this invention, (b) is obtained with respect to one attention pixel in Embodiment 1 of this invention. It is a graph which shows the relationship curve of a value and parallax. 本発明の実施形態1に係る撮像装置が実行する誤計測値の低減処理を説明する図である。It is a figure explaining the reduction process of the erroneous measurement value which the imaging device which concerns on Embodiment 1 of this invention performs. 本発明の実施形態3に係る撮像装置が実行する有効範囲の設定処理を説明する図である。It is a figure explaining the setting process of the effective range which the imaging device which concerns on Embodiment 3 of this invention performs. 本発明の実施形態5に係る撮像装置が実行する顔領域の検出処理を説明する図である。It is a figure explaining the detection process of the face area | region which the imaging device which concerns on Embodiment 5 of this invention performs.

〔実施の形態1〕
本発明の一実施形態について、図1〜図5に基づいて以下に説明する。
[Embodiment 1]
One embodiment of the present invention will be described below with reference to FIGS.

図1は、本発明の実施形態1に係る撮像装置1の要部構成を示すブロック図である。この図に示すように、撮像装置1は、撮像部2、3次元計測部3、顔領域抽出部4(抽出部)、領域分割部5(分割部)、有効範囲設定部(設定部、平均距離値算出部、基準値算出部、フォーカス距離範囲算出部)6、異常画素判定部(判定部)7、補間部8、および平滑化部9を備えている。   FIG. 1 is a block diagram showing a main configuration of an imaging apparatus 1 according to Embodiment 1 of the present invention. As shown in this figure, the imaging device 1 includes an imaging unit 2, a three-dimensional measuring unit 3, a face area extracting unit 4 (extracting unit), an area dividing unit 5 (dividing unit), and an effective range setting unit (setting unit, average). A distance value calculation unit, a reference value calculation unit, a focus distance range calculation unit) 6, an abnormal pixel determination unit (determination unit) 7, an interpolation unit 8, and a smoothing unit 9.

図2は、撮像部2および3次元計測部3の詳細な構成を示すブロック図である。この図に示すように、撮像部2は、右カメラ2aおよび左カメラ2bを備えている。また、3次元計測部10は、平行化部11、プレフィルタ部12、対応点探索部13と、距離画像生成部14を備えている。   FIG. 2 is a block diagram illustrating detailed configurations of the imaging unit 2 and the three-dimensional measurement unit 3. As shown in this figure, the imaging unit 2 includes a right camera 2a and a left camera 2b. The three-dimensional measuring unit 10 includes a parallelizing unit 11, a prefilter unit 12, a corresponding point searching unit 13, and a distance image generating unit 14.

撮像部2は、人の顔などの被写体を複数の異なる視点から撮影することによって、各上記視点に対応する複数の画像を生成する。撮像部2内の右カメラ2aおよび左カメラ2bは、被写体を撮像するためのカメラである。これらは、レンズ付きのCCD(Charge Coupled Device:電荷結合素子)カメラまたはCMOS(Complementary Metal-Oxide Semiconductor:相補形金属酸化膜半導体)カメラでよく、カラーカメラまたはモノクロカメラのいずれでもよい。本実施の形態では、データ量が少なくて済むモノクロカメラを使用している。   The imaging unit 2 captures a subject such as a human face from a plurality of different viewpoints, thereby generating a plurality of images corresponding to each of the viewpoints. The right camera 2a and the left camera 2b in the imaging unit 2 are cameras for imaging a subject. These may be a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal-Oxide Semiconductor) camera with a lens, and may be either a color camera or a monochrome camera. In this embodiment, a monochrome camera that requires a small amount of data is used.

3次元計測部3は、撮像部2によって得られた複数の画像を3次元計測することによって、被写体の距離画像を生成する。   The three-dimensional measurement unit 3 generates a distance image of the subject by three-dimensionally measuring a plurality of images obtained by the imaging unit 2.

顔領域抽出部4は、距離画像から被写体の顔領域(判定領域)を抽出する。顔領域検出の詳細については後述する。   The face area extraction unit 4 extracts the face area (determination area) of the subject from the distance image. Details of the face area detection will be described later.

領域分割部5は、距離画像から抽出された顔領域を、人の顔形状の特徴に基づく複数の異なる分割領域に分割する。   The area dividing unit 5 divides the face area extracted from the distance image into a plurality of different divided areas based on the characteristics of the human face shape.

有効範囲設定部6は、分割領域ごとに、当該分割領域に応じた有効範囲を設定する。有効範囲とは、被写体における分割領域に対応する箇所が正常に3次元計測された場合に、当該分割領域内の各画素が取り得ると想定される距離値の範囲を意味する。   The effective range setting unit 6 sets an effective range corresponding to each divided region for each divided region. The effective range means a range of distance values that can be assumed by each pixel in the divided area when a portion corresponding to the divided area in the subject is normally three-dimensionally measured.

異常画素判定部7は、分割領域ごとに、当該分割領域に含まれる複数の画素のうち、当該分割領域に設定された有効範囲から外れる距離値を有する画素を、すべて異常画素であると判定する。   For each divided region, the abnormal pixel determination unit 7 determines that all of the pixels included in the divided region that have a distance value outside the effective range set in the divided region are abnormal pixels. .

補間部8は、分割領域ごとに、異常画素であると判定された画素の周囲の画素群の各距離値を用いた補間処理によって、当該異常画素の距離値を当該分割領域に設定された有効範囲内の値に変更する。   For each divided region, the interpolation unit 8 performs effective interpolation in which the distance value of the abnormal pixel is set in the divided region by interpolation processing using each distance value of the pixel group around the pixel determined to be an abnormal pixel. Change to a value within the range.

平滑化部9は、分割領域ごとに、当該分割領域に含まれるすべての画素の距離値に対して平滑化処理を実行する。   For each divided region, the smoothing unit 9 performs a smoothing process on the distance values of all the pixels included in the divided region.

撮像装置1は、図示しないプロセッサおよびメモリを備えている。このメモリには、プロセッサが上述した3次元計測処理などの各処理を実行するときに必要なプログラム、一時的なデータ、右カメラ2aおよび左カメラ2bのキャリブレーションデータ、およびフォーカス距離等のデータなどが、格納されている。   The imaging device 1 includes a processor and a memory (not shown). In this memory, a program necessary for the processor to execute each process such as the above-described three-dimensional measurement process, temporary data, calibration data of the right camera 2a and the left camera 2b, and data such as a focus distance, etc. Is stored.

本実施形態に係る撮像装置1が実行する3次元計測の手順について、以下に説明する。   A procedure for three-dimensional measurement executed by the imaging apparatus 1 according to the present embodiment will be described below.

本実施の形態の撮像装置1では、右カメラ2aおよび左カメラ2bにて撮影されたキャプチャ画像は、3次元計測部10にて3次元計測処理が実行される。   In the imaging apparatus 1 according to the present embodiment, a three-dimensional measurement process is executed by the three-dimensional measurement unit 10 on the captured images taken by the right camera 2a and the left camera 2b.

3次元計測部10では、まず、右カメラ2aおよび左カメラ2bにて撮影されたキャプチャ画像に対して、平行化部11にてステレオ平行化処理が実行される。ステレオ平行化処理とは、複数のカメラで撮影した各画像において、たとえば、広角レンズ等を用いると画像の外側に行くほど歪みが大きくなる。その歪みを補正することを平行化処理という。ステレオ平行化処理は、予め実施されたカメラキャリブレーションにより得られる。このため、メモリに格納されているキャリブレーションデータ15に基づいて、右カメラ2aのキャプチャ画像、および左カメラ2bのキャプチャ画像にステレオ平行化処理を施す。キャリブレーションデータ15は、計測を実行する前に予め2つの右カメラ2aおよび左カメラ2bのそれぞれのレンズの歪や角度ずれを補正するためのデータである。   In the three-dimensional measuring unit 10, first, the parallelizing unit 11 performs a stereo parallelization process on the captured images taken by the right camera 2 a and the left camera 2 b. In the stereo parallelization process, in each image taken by a plurality of cameras, for example, when a wide-angle lens or the like is used, the distortion increases toward the outside of the image. Correcting the distortion is called parallelization processing. The stereo parallelization process is obtained by camera calibration performed in advance. For this reason, stereo parallelization processing is performed on the captured image of the right camera 2a and the captured image of the left camera 2b based on the calibration data 15 stored in the memory. The calibration data 15 is data for correcting distortion and angular deviation of the lenses of the two right cameras 2a and 2b in advance before executing measurement.

次に、ステレオ平行化後の画像(以下、「平行化画像」という。)に対して、プレフィルタ部12にてプレフィルタ処理が実行され、その後、対応点探索部13にて対応点探索が実行される。   Next, prefiltering is performed by the prefilter unit 12 on the stereo-parallelized image (hereinafter referred to as “parallelized image”), and then the corresponding point search unit 13 performs corresponding point search. Executed.

まず、プレフィルタ部12では、左右画像の輝度差および画像内の局所的な輝度レベルの変動等を吸収するために、プレフィルタとして微分処理されてエッジ強調処理が施される。プレフィルタとしては、たとえばソベルフィルタまたはラプラシアンフィルタ等が用いられる。   First, in the prefilter unit 12, in order to absorb a luminance difference between the left and right images, a local luminance level variation in the image, and the like, differentiation processing is performed as a prefilter and edge enhancement processing is performed. For example, a Sobel filter or a Laplacian filter is used as the prefilter.

続いて、対応点探索部13の対応点探索処理について、図3および図4の(a)(b)に基づいて説明する。図3は、本発明の実施形態1における2つの平行化画像に対して対応点探索処理を実行する方法を示す説明図である。図4の(a)は、本発明の実施形態1における左カメラ2bの平行化画像上の各画素を示す説明図であり、図4の(b)は、本発明の実施形態1における1つの注目画素に対して得られるSAD値と視差との関係曲線を示すグラフである。なお、撮像装置1では、左カメラ2bを基準として、左カメラ2bの平行化画像上の各画素に対して右カメラ2aの平行化画像から対応する画素を探索する処理を行うものとする。   Next, the corresponding point search process of the corresponding point search unit 13 will be described based on FIGS. 3 and 4A and 4B. FIG. 3 is an explanatory diagram illustrating a method for executing corresponding point search processing on two parallelized images according to the first embodiment of the present invention. 4A is an explanatory diagram showing each pixel on the parallelized image of the left camera 2b according to the first embodiment of the present invention, and FIG. 4B is a diagram illustrating one pixel according to the first embodiment of the present invention. It is a graph which shows the relationship curve of the SAD value and parallax obtained with respect to an attention pixel. Note that the imaging apparatus 1 performs a process of searching for a corresponding pixel from the parallelized image of the right camera 2a for each pixel on the parallelized image of the left camera 2b with the left camera 2b as a reference.

対応点探索処理は、図3に示すように、まず、左カメラ2bの平行化画像の注目画素を中心として、縦横それぞれp×p(pは整数)画素の正方形状の「相関窓」と呼ばれる領域を設定する。続いて、右カメラ2aの平行化画像における縦方向の同一画素行に、同じ大きさの相関窓を設定し、これを画素行の左右方向にスライドさせながら、両画像の相関窓に含まれる画素間の相関度合いを示す判定精度としての評価値を計算する。この相関度合いを示す評価値としては、たとえばSAD(Sum of Absolute Differrence:差分絶対値和)等の画素演算にて計算できる量が用いられる。下記式で表されるSADでは、値が小さいほど相関度合いが高い。   As shown in FIG. 3, the corresponding point search process is first called a square-shaped “correlation window” of p × p (p is an integer) pixels in the vertical and horizontal directions centering on the target pixel of the parallelized image of the left camera 2b. Set the area. Subsequently, a correlation window of the same size is set in the same vertical pixel row in the parallelized image of the right camera 2a, and the pixels included in the correlation window of both images are slid in the horizontal direction of the pixel row. An evaluation value as a determination accuracy indicating the degree of correlation between the two is calculated. As the evaluation value indicating the degree of correlation, for example, an amount that can be calculated by pixel calculation such as SAD (Sum of Absolute Differrence) is used. In SAD represented by the following formula, the smaller the value, the higher the degree of correlation.

Figure 2016156702
Figure 2016156702

ここで、たとえば、図4の(a)(b)に示すように、所定の対応点探索範囲の左端から右端まで(図4の(a)(b)では左カメラ2bの平行化画像の左端から右端まで)探索したとき、相関度合いが最も高くなる状態(最もSAD値が小さい)での右カメラ2aの平行化画像の相関窓の中心画素位置が、左カメラ2bの平行化画像の注目画素に対する対応点と特定する。本実施の形態では、図4の(b)に示すように、位置xk(kは整数)が対応位置となっている。   Here, for example, as shown in FIGS. 4A and 4B, from the left end to the right end of the predetermined corresponding point search range (in FIGS. 4A and 4B, the left end of the parallel image of the left camera 2b). To the right end), the center pixel position of the correlation window of the parallelized image of the right camera 2a in the state where the degree of correlation is highest (the SAD value is the smallest) when searching is the target pixel of the parallelized image of the left camera 2b Specify a corresponding point for. In the present embodiment, as shown in FIG. 4B, the position xk (k is an integer) is the corresponding position.

続いて、得られた対応点の情報から視差の値が算出される。視差とは、左カメラ2bの平行化画像の注目画素と右カメラ2aの平行化画像の対応画素との距離を、水平方向の画素単位で表したものと定義される。つまり、図4の(b)に示すように、視差「xi−xk(i,kは整数)」にて表される。   Subsequently, a parallax value is calculated from the information on the obtained corresponding points. Parallax is defined as the distance between the pixel of interest of the parallelized image of the left camera 2b and the corresponding pixel of the parallelized image of the right camera 2a expressed in units of pixels in the horizontal direction. That is, as shown in (b) of FIG. 4, the parallax “xi−xk (where i and k are integers)” is represented.

次いで、距離画像生成部14による距離画像生成処理を行う。具体的には、得られた視差の値から、三角測量の原理により対象物の3次元座標(X,Y,Z)を算出する。なお、3次元座標(X,Y,Z)とは、基準である左カメラ2bの撮像面中心から、水平方向の距離X,垂直方向の距離Y、奥行き方向の距離をZとする。   Next, distance image generation processing by the distance image generation unit 14 is performed. Specifically, the three-dimensional coordinates (X, Y, Z) of the object are calculated from the obtained parallax value by the principle of triangulation. Note that the three-dimensional coordinates (X, Y, Z) are a distance X in the horizontal direction, a distance Y in the vertical direction, and a distance in the depth direction from the center of the imaging surface of the left camera 2b as a reference.

たとえば、測定対象物までの奥行き方向の距離Zを計測する場合、   For example, when measuring the distance Z in the depth direction to the measurement object,

Figure 2016156702
Figure 2016156702

にて計算することができる。 Can be calculated.

3次元計測部3は、基準である左カメラ2bの平行化画像の各画素に対して距離値Zを求め、その画素の画素値とすることによって、被写体の距離画像を生成する。この距離画像には、上述したように、実際の距離値(Z値)とは異なる誤計測値(誤距離値)を有する画素が含まれることがある。このような誤計測値を低減する方法について、図5を参照して以下に説明する。図5は、本発明の実施形態1に係る撮像装置1が実行する誤計測値の低減処理を説明する図である。   The three-dimensional measuring unit 3 obtains a distance value Z for each pixel of the parallelized image of the left camera 2b, which is a reference, and generates a distance image of the subject by using the pixel value of the pixel. As described above, the distance image may include a pixel having an erroneous measurement value (error distance value) different from the actual distance value (Z value). A method for reducing such erroneous measurement values will be described below with reference to FIG. FIG. 5 is a diagram for explaining the erroneous measurement value reduction process executed by the imaging apparatus 1 according to the first embodiment of the present invention.

図5の(a)に、3次元計測処理によって生成された被写体(人の顔)の距離画像の一例を示す。この距離画像に含まれる各画素は、それぞれ3次元座標の値(X値、Y値、およびZ値)を有し、図5の(a)では、各画素のZ値の大きさをグレースケールで表すものとする。画素のZ値が小さいほど、その画素に対応する被写体の箇所が撮像部2に近い。Z値がより小さい画素を図面上でより白く表すとすると、図5の(a)に示す距離画像では本来であれば頬の部分よりも鼻の部分の方がより白く(明るく)表現されるべきであるが、本図では簡略化している。また、図5の(a)では、距離画像内の誤計測値を有する画素を、計測ノイズNi(iは自然数)として示している。   FIG. 5A shows an example of a distance image of the subject (human face) generated by the three-dimensional measurement process. Each pixel included in the distance image has a three-dimensional coordinate value (X value, Y value, and Z value). In FIG. 5A, the magnitude of the Z value of each pixel is grayscale. It shall be expressed as The smaller the Z value of a pixel, the closer the location of the subject corresponding to that pixel is to the imaging unit 2. If a pixel having a smaller Z value is expressed in white on the drawing, the distance image shown in FIG. 5A originally represents the nose portion more white (brighter) than the cheek portion. It should be simplified in this figure. In FIG. 5A, a pixel having an erroneous measurement value in the distance image is shown as measurement noise Ni (i is a natural number).

図5の(a)に示す例では、計測ノイズNiは、距離画像における顔領域およびそれ以外の領域の両方に存在する。撮像装置1は、まず、距離画像から顔領域を抽出することによって、顔領域以外の領域に含まれるすべての計測ノイズを削減する。この手順について、以下に説明する。   In the example shown in FIG. 5A, the measurement noise Ni exists in both the face area and other areas in the distance image. First, the imaging apparatus 1 reduces all measurement noises included in regions other than the face region by extracting the face region from the distance image. This procedure will be described below.

本実施形態では、顔領域抽出部4が、距離画像から顔領域を抽出する。その際、顔領域抽出部4は、まず、撮像部2によって得られた複数の撮像画像の少なくともいずれかから、2次元の顔領域を検出し、それから、その検出結果を利用することによって、距離画像から3次元の顔領域を抽出する。以下ではまず、顔領域抽出部4による顔領域抽出の詳細について説明する。   In the present embodiment, the face area extraction unit 4 extracts a face area from the distance image. At that time, the face area extraction unit 4 first detects a two-dimensional face area from at least one of the plurality of captured images obtained by the imaging unit 2, and then uses the detection result to obtain the distance. A three-dimensional face region is extracted from the image. Below, the detail of the face area extraction by the face area extraction part 4 is demonstrated first.

顔領域抽出部4は、撮像部2によって得られた複数の撮像画像のいずれかから、被写体の顔領域を検出する。以下では、左カメラ2bによって得られた撮像画像を用いるものとする。この撮像画像は3次元計測処理が適用される前の2次元画像であるため、撮像画像内の各画素は被写体の色を表す色情報を有している。顔領域抽出部4は、撮像画像内の各画素の色情報に基づき、撮像画像から被写体の顔領域を検出する。具体的には、撮像画像から顔領域を検出するために、肌色検出処理を実行する。より詳細には、顔領域抽出部4は、人の肌色に特徴的な色情報パターン(たとえばR値、G値、およびB値の比率)に基づき、距離画像に含まれる肌色の色情報を有する各画素を選択することによって、撮像画像から顔領域を検出する。図5の(b)に、顔領域抽出部4によって撮像画像から検出された顔領域31の一例を示す。顔領域抽出部4は、図5の(c)に示すように、距離画像における、撮像画像から検出された顔領域31に対応する領域を、距離画像内の顔領域32として抽出する。   The face area extraction unit 4 detects the face area of the subject from one of a plurality of captured images obtained by the imaging unit 2. Hereinafter, a captured image obtained by the left camera 2b is used. Since the captured image is a two-dimensional image before the three-dimensional measurement process is applied, each pixel in the captured image has color information representing the color of the subject. The face area extraction unit 4 detects the face area of the subject from the captured image based on the color information of each pixel in the captured image. Specifically, skin color detection processing is executed to detect a face area from the captured image. More specifically, the face area extraction unit 4 has skin color information included in the distance image based on a color information pattern (for example, a ratio of R value, G value, and B value) characteristic of human skin color. A face area is detected from the captured image by selecting each pixel. FIG. 5B shows an example of the face area 31 detected from the captured image by the face area extracting unit 4. As shown in FIG. 5C, the face area extraction unit 4 extracts an area corresponding to the face area 31 detected from the captured image in the distance image as a face area 32 in the distance image.

なお、顔領域抽出部4は、撮像部2によって得られた撮像画像ではなく、平行化部11によって得られた平行化画像から顔領域を検出してもよい。たとえば、左カメラ2bによって得られる平行化画像には撮像画像と同じく色情報が残されているので、顔領域抽出部4はこの色情報に基づき平行化画像から顔領域を検出する。また、顔領域抽出部4は、2次元の顔領域31を利用することなく、距離画像から3次元の顔領域32を直接抽出してもよい。   Note that the face area extraction unit 4 may detect a face area from the parallelized image obtained by the parallelizing unit 11 instead of the captured image obtained by the imaging unit 2. For example, since color information remains in the parallelized image obtained by the left camera 2b as in the captured image, the face area extraction unit 4 detects the face area from the parallelized image based on this color information. Further, the face area extraction unit 4 may directly extract the three-dimensional face area 32 from the distance image without using the two-dimensional face area 31.

図5の(c)に示すように、顔領域32が距離画像から抽出されることによって、距離画像における顔領域32以外の領域に含まれるすべての計測ノイズが削減される。一方、距離画像から抽出された顔領域32には、依然として、複数の計測ノイズNiが残っている。これらの計測ノイズを削減する方法について、以下に説明する。   As shown in FIG. 5C, by extracting the face area 32 from the distance image, all measurement noise included in the area other than the face area 32 in the distance image is reduced. On the other hand, a plurality of measurement noises Ni still remain in the face area 32 extracted from the distance image. A method for reducing these measurement noises will be described below.

一般に、人の顔の形状には個人差があるが、顔における目、鼻、および頬などの、顔に含まれる特徴的な部分の配置には個人差がなく、どのような顔であっても、顔における一定の領域に内に配置されている。領域分割部5は、このような人の顔の特徴パターンを利用することによって、顔領域32を、少なくとも人の目、鼻、およびその他にそれぞれ対応する複数の分割領域33に、分割する
本実施形態に係る撮像装置1のメモリには、図5の(d)に示すような、顔領域32を複数の異なる分割領域33に分割するための領域分割パターンが予め記録されている。図5の(d)の例では、領域分割パターンは、複数の異なる分割領域を規定している。それぞれの分割領域33は、人の顔に含まれる特徴的な部分(領域)に対応する。領域分割部5は、距離画像から抽出された顔領域32の輪郭に合致するように、領域分割パターンの大きさを調整した上で、雛形を顔領域32に適用する。大きさの調整には、たとえば、顔領域32の輪郭と、領域分割パターンの外郭とを合致させることが挙げられる。領域分割部5は、図5の(e)に示すように、顔領域32に領域分割パターンを適用することによって、顔領域32を複数の分割領域33a〜33yに分割する。
In general, there are individual differences in the shape of a person's face, but there is no individual difference in the arrangement of characteristic parts included in the face, such as eyes, nose, and cheeks. Is also located within a certain area of the face. The area dividing unit 5 divides the face area 32 into a plurality of divided areas 33 respectively corresponding to the human eyes, nose, and others by using such a human face feature pattern. In the memory of the imaging apparatus 1 according to the embodiment, an area division pattern for dividing the face area 32 into a plurality of different divided areas 33 as shown in FIG. In the example of FIG. 5D, the area division pattern defines a plurality of different divided areas. Each divided region 33 corresponds to a characteristic part (region) included in a human face. The area dividing unit 5 adjusts the size of the area dividing pattern so as to match the contour of the face area 32 extracted from the distance image, and then applies the template to the face area 32. The size adjustment includes, for example, matching the contour of the face region 32 with the outline of the region division pattern. The area dividing unit 5 divides the face area 32 into a plurality of divided areas 33a to 33y by applying an area dividing pattern to the face area 32 as shown in FIG.

表記の簡略化のため、図5の(e)には、分割領域33a〜33yのうち、分割領域33a、33c、および33yのみに、対応する部材番号を表記している。各分割領域33a〜33yのうちの一部に、計測ノイズNiが含まれている。以下に、各分割領域33に含まれる計測ノイズを削減する方法について、説明する。   In order to simplify the notation, in FIG. 5E, corresponding member numbers are shown only in the divided regions 33a, 33c, and 33y among the divided regions 33a to 33y. Measurement noise Ni is included in a part of each of the divided regions 33a to 33y. Hereinafter, a method for reducing measurement noise included in each divided region 33 will be described.

領域分割部5は、複数の分割領域33a〜33yに分割された顔領域32を、有効範囲設定部6に出力する。有効範囲設定部6は、顔領域32を構成する分割領域33ごとに、当該分割領域33に応じた有効範囲を設定する。本実施形態では、各分割領域33に対応する有効範囲が、撮像装置1のメモリに予め記録されている。そこで有効範囲設定部6は、メモリに記録されている分割領域33に対応する有効範囲を、当該分割領域33に対して設定すればよい。   The area dividing unit 5 outputs the face area 32 divided into the plurality of divided areas 33 a to 33 y to the effective range setting unit 6. The effective range setting unit 6 sets an effective range corresponding to each divided region 33 for each divided region 33 constituting the face region 32. In the present embodiment, the effective range corresponding to each divided region 33 is recorded in advance in the memory of the imaging apparatus 1. Therefore, the effective range setting unit 6 may set an effective range corresponding to the divided area 33 recorded in the memory for the divided area 33.

上述したように、領域分割パターンに含まれる各分割領域33は、人の顔形状に含まれる各特徴部分に基づき規定されている。そこで、撮像部2と被写体との距離を一定に維持した状態で被写体を撮像することにすると、各分割領域33内における各画素の確からしい(有効な)距離値の範囲を予め算出することができる。そこで、領域分割パターンに含まれる分割領域33ごとに、当該分割領域33に対応する人の顔形状の特徴部分に応じた有効な距離値の範囲を、当該分割領域33に対応付けて、撮像装置1のメモリに予め記録させておけばよい。   As described above, each divided region 33 included in the region divided pattern is defined based on each characteristic portion included in the human face shape. Therefore, if the subject is imaged in a state where the distance between the imaging unit 2 and the subject is kept constant, a range of probable (effective) distance values of each pixel in each divided region 33 can be calculated in advance. it can. Therefore, for each divided region 33 included in the region divided pattern, an effective distance value range corresponding to the feature portion of the human face shape corresponding to the divided region 33 is associated with the divided region 33, and the imaging apparatus It may be recorded in advance in one memory.

各分割領域33に設定される有効範囲の一例について、図5の(f)を参照して説明する。図5の(e)に示す一点鎖線(A−A’線)を基準にした顔領域32の断面イメージを、図5の(f)に示す。A−A’線は、分割領域33a〜33yのうち、分割領域33b、33d、33f、33j、33m、33n、33q、33v、および33yに重畳している。そのため、図5の(f)に、これらの分割領域33b、33d、・・・および33yの断面イメージを示す。図5の(f)には、さらに、人の顔形状の統計データに基づく顔形状の実際の輪郭35を示す。   An example of the effective range set in each divided region 33 will be described with reference to FIG. FIG. 5F shows a cross-sectional image of the face region 32 based on the one-dot chain line (A-A ′ line) shown in FIG. The A-A ′ line is superimposed on the divided areas 33 b, 33 d, 33 f, 33 j, 33 m, 33 n, 33 q, 33 v, and 33 y among the divided areas 33 a to 33 y. Therefore, (f) of FIG. 5 shows a cross-sectional image of these divided regions 33b, 33d,. FIG. 5F further shows the actual contour 35 of the face shape based on the statistical data of the human face shape.

各分割領域33に対応してメモリに予め記録される有効範囲34は、輪郭35に基づき決定される。たとえば、分割領域33qは鼻周辺に対応する領域であるため、分割領域33qに対応する有効範囲34として、比較的広い範囲がメモリに記録される。一方、分割領域33vは口周辺に対応する領域であるため、分割領域33vに対応する有効範囲34として、比較的狭い範囲がメモリに記録される。有効範囲設定部6は、輪郭35に基づき決定された有効範囲34を各分割領域33に設定することによって、図5の(f)に示すように、鼻周辺に対応する分割領域33vには比較的広い有効範囲34を設定し、一方、口周辺に対応する分割領域33yには比較的狭い有効範囲34を設定する。   The effective range 34 recorded in advance in the memory corresponding to each divided region 33 is determined based on the contour 35. For example, since the divided region 33q is a region corresponding to the periphery of the nose, a relatively wide range is recorded in the memory as the effective range 34 corresponding to the divided region 33q. On the other hand, since the divided area 33v is an area corresponding to the periphery of the mouth, a relatively narrow range is recorded in the memory as the effective range 34 corresponding to the divided area 33v. The effective range setting unit 6 sets the effective range 34 determined based on the contour 35 in each divided region 33, thereby comparing the divided region 33v corresponding to the periphery of the nose as shown in FIG. A relatively wide effective range 34 is set, while a relatively narrow effective range 34 is set in the divided region 33y corresponding to the periphery of the mouth.

有効範囲設定部6は、各分割領域33に有効範囲34が設定された顔領域32を異常画素判定部7に通知する。異常画素判定部7は、分割領域33ごとに、当該分割領域33に含まれる複数の画素のうち、当該分割領域33に設定された有効範囲34から外れる距離値を有する画素を、異常画素であると判定する。たとえば図5の(f)の例では、分割領域33dに含まれる計測ノイズNiの距離値が、分割領域33dに設定された有効範囲34から外れているので、この計測ノイズNiは異常画素であると判定される。一方、分割領域33jに含まれる計測ノイズN1の距離値が、分割領域33jに設定された有効範囲34内にあるので、この計測ノイズN1は異常画素であると判定されない。図5の(f)の例では、分割領域33b、33f、33m、33q、33vにそれぞれ含まれる計測ノイズNiは、いずれも異常画素であると判定され、一方、分割領域33jに含まれる計測ノイズN1および分割領域33yに含まれる計測ノイズN2は、いずれも異常画素であると判定されない。   The effective range setting unit 6 notifies the abnormal pixel determination unit 7 of the face region 32 in which the effective range 34 is set in each divided region 33. The abnormal pixel determination unit 7 is, for each divided region 33, a pixel having a distance value out of the effective range 34 set in the divided region 33 among the plurality of pixels included in the divided region 33 is an abnormal pixel. Is determined. For example, in the example of FIG. 5F, the distance value of the measurement noise Ni included in the divided area 33d is out of the effective range 34 set in the divided area 33d, so this measurement noise Ni is an abnormal pixel. It is determined. On the other hand, since the distance value of the measurement noise N1 included in the divided area 33j is within the effective range 34 set in the divided area 33j, the measurement noise N1 is not determined to be an abnormal pixel. In the example of FIG. 5F, the measurement noise Ni included in each of the divided areas 33b, 33f, 33m, 33q, and 33v is determined to be an abnormal pixel, while the measurement noise included in the divided area 33j. N1 and the measurement noise N2 included in the divided region 33y are not determined to be abnormal pixels.

異常画素判定部7は、顔領域32を構成するすべての分割領域33a〜33yを対象に、上述した異常画素の判定処理を実行する。これにより、図5の(e)に示す、分割領域33j、33l、33r、および33yに含まれる各計測ノイズNiは、いずれも異常画素であるとは判定されない。一方、これらの分割領域33以外の各分割領域33に含まれる計測ノイズNiは、いずれも異常画素であると判定される。   The abnormal pixel determination unit 7 executes the above-described abnormal pixel determination process for all the divided regions 33a to 33y constituting the face region 32. Thereby, each measurement noise Ni included in the divided regions 33j, 33l, 33r, and 33y shown in FIG. 5E is not determined to be an abnormal pixel. On the other hand, the measurement noise Ni included in each divided region 33 other than these divided regions 33 is determined to be an abnormal pixel.

異常画素判定部7は、複数の分割領域33に分割された顔領域32と、各分割領域33における異常画素の判定結果とを、補間部8に出力する。補間部8は、分割領域33ごとに、計測ノイズNi(異常画素)であると判定された画素の周囲の画素群の各距離値を用いた補間処理によって、当該計測ノイズNiの距離値を当該分割領域33に設定された有効範囲内の値に変更する。補間処理としては、膨張処理または収縮処理が挙げられる。この補間処理によって、異常画素であると判定されたすべての計測ノイズNiが、顔領域32から削減される。図5の(g)に、補間処理が行われた後の顔領域32を示す。この図に示す例では、分割領域33j、33l、33r、および33yに含まれる各計測ノイズNi以外のすべての計測ノイズNiが削減されている。   The abnormal pixel determination unit 7 outputs the face region 32 divided into the plurality of divided regions 33 and the abnormal pixel determination result in each divided region 33 to the interpolation unit 8. The interpolation unit 8 calculates the distance value of the measurement noise Ni by the interpolation process using the distance values of the pixel groups around the pixel determined to be the measurement noise Ni (abnormal pixel) for each divided region 33. The value is changed to a value within the effective range set in the divided area 33. Examples of the interpolation processing include expansion processing and contraction processing. By this interpolation processing, all measurement noises Ni determined to be abnormal pixels are reduced from the face area 32. FIG. 5G shows the face area 32 after the interpolation process is performed. In the example shown in this figure, all measurement noises Ni other than the measurement noises Ni included in the divided regions 33j, 33l, 33r, and 33y are reduced.

補間部8は、異常画素であると判定された各計測ノイズNiに対して補間処理を実行した後の顔領域32を、平滑化部9に出力する。分割領域33jに含まれる計測ノイズN1および分割領域33yに含まれる計測ノイズN2などの、有効範囲34に含まれる距離値を有する画素は、異常画素であると判定されないので、顔領域32内に残されている。平滑化部9は、顔領域32に残されたこれらの計測ノイズN1等を、分割領域33ごとの平滑化処理によって、削減する。平滑化処理としては、たとえば、ガウシアン空間フィルタ処理およびメディアン空間フィルタ処理が挙げられる。   The interpolation unit 8 outputs the face area 32 after performing the interpolation process on each measurement noise Ni determined to be an abnormal pixel to the smoothing unit 9. Pixels having distance values included in the effective range 34, such as the measurement noise N1 included in the divided region 33j and the measurement noise N2 included in the divided region 33y, are not determined to be abnormal pixels, and thus remain in the face region 32. Has been. The smoothing unit 9 reduces the measurement noise N1 and the like remaining in the face area 32 by the smoothing process for each divided area 33. Examples of the smoothing process include a Gaussian spatial filter process and a median spatial filter process.

以上に説明した各処理によって、距離画像に含まれる計測ノイズNiがすべて削減された3次元の顔領域32(顔領域画像)を取得することができる。   Through the processes described above, a three-dimensional face area 32 (face area image) in which all the measurement noise Ni included in the distance image is reduced can be acquired.

上述したように、本実施形態では、被写体は人であり、かつ、距離画像から抽出される領域は顔領域である。しかし、本発明の実施形態はこの例に限られない。たとえば、被写体は、人以外の物体等の任意に被写体であり得る。また、距離画像から抽出され、かつ、複数の分割領域に分割される領域は、異常画素の有無を判定するための任意の認定領域であり得る。   As described above, in this embodiment, the subject is a person, and the region extracted from the distance image is a face region. However, the embodiment of the present invention is not limited to this example. For example, the subject can be any subject such as an object other than a person. In addition, the region extracted from the distance image and divided into a plurality of divided regions can be any authorized region for determining the presence or absence of abnormal pixels.

〔実施形態2〕
本発明に係る実施形態2について、以下に説明する。上述した実施形態と共通する各部材には同じ符号を付し、詳細な説明を省略する。
[Embodiment 2]
Embodiment 2 according to the present invention will be described below. Each member common to the above-described embodiment is denoted by the same reference numeral, and detailed description thereof is omitted.

実施形態1に係る有効範囲設定部6は、予めメモリに記録されている各分割領域33に対応する有効範囲34を、各分割領域33に設定する。一方、本実施形態に係る有効範囲設定部6は、このようなメモリに予め記録されている有効範囲34ではなく、各分割領域33に対象にした所定の演算によって有効範囲を設定するための基準値を算出し、この基準値に基づく有効範囲を、対応する分割領域33に設定する。   The effective range setting unit 6 according to the first embodiment sets the effective range 34 corresponding to each divided region 33 recorded in advance in the memory in each divided region 33. On the other hand, the effective range setting unit 6 according to the present embodiment is not the effective range 34 recorded in advance in such a memory, but a reference for setting the effective range by a predetermined calculation for each divided region 33. A value is calculated, and an effective range based on this reference value is set in the corresponding divided region 33.

この設定方法について、以下に説明する。有効範囲設定部6は、まず、分割領域33ごとに、有効範囲を設定するための基準値として、当該分割領域33に含まれる各画素の距離値の平均距離値を算出し、この平均距離値に基づく有効範囲を、当該分割領域33に設定する。本実施形態では、有効範囲設定部6は、平均距離値を中心値とした所定の範囲(たとえば前後の一定範囲)を、対応する分割領域33に設定する。これにより、被写体がどのようなものであったとしても、各分割領域33における被写体の実際の形状に応じた適切な有効範囲を、各分割領域33に設定することができる。さらには、被写体に応じた各分割領域33用の有効範囲34を、予めメモリに記録しておく必要が生じない。   This setting method will be described below. The effective range setting unit 6 first calculates an average distance value of the distance values of each pixel included in the divided region 33 as a reference value for setting the effective range for each divided region 33, and this average distance value Is set to the divided area 33. In the present embodiment, the effective range setting unit 6 sets a predetermined range (for example, a certain range before and after) having the average distance value as the center value in the corresponding divided region 33. As a result, no matter what the subject is, an appropriate effective range according to the actual shape of the subject in each divided region 33 can be set in each divided region 33. Furthermore, it is not necessary to record the effective range 34 for each divided region 33 corresponding to the subject in the memory in advance.

〔実施形態3〕
本発明に係る実施形態3について、図6に基づいて以下に説明する。上述した各実施形態と共通する各部材には同じ符号を付し、詳細な説明を省略する。
[Embodiment 3]
Embodiment 3 according to the present invention will be described below with reference to FIG. The members common to the above-described embodiments are denoted by the same reference numerals, and detailed description thereof is omitted.

実施形態1に係る有効範囲設定部6は、カメラと被写体との距離が一定である(距離が既知である)ことを前提にして、各分割領域33に有効範囲34を設定する。一方、本実施形態に係る有効範囲設定部6は、その距離が未知である場合に対応した方法によって、各分割領域33に有効範囲34を設定する。以下に、その方法について説明する。   The effective range setting unit 6 according to the first embodiment sets the effective range 34 in each divided region 33 on the assumption that the distance between the camera and the subject is constant (the distance is known). On the other hand, the effective range setting unit 6 according to the present embodiment sets the effective range 34 in each divided region 33 by a method corresponding to the case where the distance is unknown. The method will be described below.

距離画像における計測ノイズの多くは、3次元空間内におけるランダムな位置に発生する。そこで有効範囲設定部6は、ガウシアン空間フィルタ等の空間フィルタによって平滑化された分割領域33ごとに、当該分割領域33に含まれる各画素の距離値のうち最大値および最小値を得ることによって、当該分割領域33内の各画素のカメラからの大まかな距離を算出することができる。有効範囲設定部6は、これらの最大値および最小値に基づき、分割領域33に有効範囲を設定する。   Most of the measurement noise in the distance image is generated at random positions in the three-dimensional space. Therefore, the effective range setting unit 6 obtains the maximum value and the minimum value among the distance values of each pixel included in the divided region 33 for each divided region 33 smoothed by a spatial filter such as a Gaussian spatial filter. A rough distance from the camera of each pixel in the divided area 33 can be calculated. The effective range setting unit 6 sets an effective range in the divided region 33 based on these maximum and minimum values.

図6を参照してより詳細に説明する。図6は、本発明の実施形態3に係る撮像装置1が実行する有効範囲設定処理を説明する図である。   This will be described in more detail with reference to FIG. FIG. 6 is a diagram for explaining an effective range setting process executed by the imaging apparatus 1 according to the third embodiment of the present invention.

図6の(a)は、図5の(f)と同様に、複数の分割領域33にされた後の顔領域32の断面イメージを示す。この断面イメージは、各分割領域33が平滑化処理を受ける前のものである。 本実施形態では、有効範囲設定部6は、各分割領域33に有効範囲を設定する前に、まず、平滑化部9に各分割領域33の平滑化処理を指示する。   FIG. 6A shows a cross-sectional image of the face area 32 after being divided into a plurality of divided areas 33, as in FIG. This cross-sectional image is an image before each divided region 33 is subjected to the smoothing process. In the present embodiment, the effective range setting unit 6 first instructs the smoothing unit 9 to perform the smoothing process on each divided region 33 before setting the effective range on each divided region 33.

この指示を受けて、平滑化部9は、有効範囲が設定される前の各分割領域33を平滑化処理する。各分割領域33が平滑化処理を受けた後の顔領域32の断面イメージを、図6の(c)に示す。距離画像に含まれる計測ノイズの影響を受けることによって、平滑化後の各分割領域33における断面形状36は、人の顔形状の統計データに基づく顔形状の実際の輪郭35の前後に歪んでいる。有効範囲設定部6は、平滑化された分割領域33ごとに、当該分割領域33における断面形状36に対応する各画素の各距離値のうち最大値および最小値を取得する。そして、図6の(c)に示すように、これらの最大値および最小値に基づく有効範囲37を、対応する分割領域33に設定する。これにより、実際の顔形状に近い有効範囲37が、各分割領域33に設定される。   In response to this instruction, the smoothing unit 9 smoothes each divided region 33 before the effective range is set. FIG. 6C shows a cross-sectional image of the face area 32 after each divided area 33 has been subjected to the smoothing process. Due to the influence of measurement noise included in the distance image, the cross-sectional shape 36 in each divided region 33 after smoothing is distorted before and after the actual contour 35 of the face shape based on the statistical data of the human face shape. . The effective range setting unit 6 acquires the maximum value and the minimum value of the distance values of the pixels corresponding to the cross-sectional shape 36 in the divided region 33 for each smoothed divided region 33. Then, as shown in FIG. 6C, an effective range 37 based on these maximum and minimum values is set in the corresponding divided region 33. Thereby, an effective range 37 close to the actual face shape is set in each divided region 33.

有効範囲37の設定後における異常画素の判定等の処理は、上述した実施形態1と共通するため、その詳細な説明な説明は省略する。   Processing such as abnormal pixel determination after the effective range 37 is set is the same as that in the first embodiment, and a detailed description thereof will be omitted.

〔実施形態4〕
本発明に係る実施形態4について、以下に説明する。上述した実施形態と共通する各部材には同じ符号を付し、詳細な説明を省略する。
[Embodiment 4]
Embodiment 4 according to the present invention will be described below. Each member common to the above-described embodiment is denoted by the same reference numeral, and detailed description thereof is omitted.

本実施形態では、有効範囲設定部6は、撮像装置1に備えられるカメラ(右カメラ2aまたは左カメラ2b)のフォーカス距離範囲を算出し、算出されたフォーカス距離範囲に基づき各分割領域33に有効範囲を設定する。   In the present embodiment, the effective range setting unit 6 calculates the focus distance range of the camera (the right camera 2a or the left camera 2b) provided in the imaging apparatus 1, and is effective for each divided region 33 based on the calculated focus distance range. Set the range.

フォーカス距離範囲の算出方法について、以下に説明する。たとえば、被写体距離(ピントを合わせる距離)をsとし、レンズ焦点距離をfとし、F値をFとし、許容錯乱円直径をδとする。この場合、被写体距離sに対して、許容錯乱円の範囲でピントの合う有効範囲は、近点と遠点との間である。ただし、近点とは距離sから近点距離:Dnだけカメラ寄りの位置、遠点とは距離sから遠点距離:Dfだけカメラから遠い位置とする。   A method for calculating the focus distance range will be described below. For example, s is the subject distance (the distance to focus), f is the lens focal length, F is the F value, and δ is the allowable circle of confusion. In this case, the effective range in focus within the allowable circle of confusion with respect to the subject distance s is between the near point and the far point. However, the near point is a position closer to the camera by the distance s from the distance s, and the far point is the position far from the camera by the distance s from the distance s: Df.

このとき、近点距離:D、遠点距離:Dは以下で示される。 At this time, the near point distance: D n and the far point distance: D f are shown below.

Figure 2016156702
Figure 2016156702

有効範囲設定部6は、s+Dとs−Dとの間の範囲を、カメラのフォーカス距離範囲として算出する。さらに、有効範囲設定部6は、算出されたフォーカス距離範囲を、有効範囲34として各分割領域33に設定する。この結果、本実施形態では、すべての分割領域33に対して、信頼性が高くかつ同じ範囲の有効範囲34が一律に設定される。異常画素判定部7が、設定された有効範囲34から外れる距離値を有する画素を、異常画素であると判定することは、実施形態1と同様である。 The effective range setting unit 6 calculates the range between s + D f and s−D n as the focus distance range of the camera. Further, the effective range setting unit 6 sets the calculated focus distance range as the effective range 34 in each divided region 33. As a result, in this embodiment, the effective range 34 with high reliability and the same range is uniformly set for all the divided regions 33. The abnormal pixel determination unit 7 determines that a pixel having a distance value outside the set effective range 34 is an abnormal pixel, as in the first embodiment.

なお、本実施形態ではすべての分割領域33に対して同じ距離値の有効範囲34が設定されるので、撮像装置1は、顔領域32を分割領域33に分割しなくてもよい。この場合、有効範囲設定部6は、顔領域32を一つの領域であると見做し、この1つの領域に対して、フォーカス距離範囲に基づく有効範囲34を設定する。したがって、顔領域32の分割処理を省略することができる。   In the present embodiment, since the effective range 34 having the same distance value is set for all the divided regions 33, the imaging apparatus 1 does not have to divide the face region 32 into the divided regions 33. In this case, the effective range setting unit 6 regards the face region 32 as one region, and sets an effective range 34 based on the focus distance range for this one region. Therefore, the division process of the face area 32 can be omitted.

〔実施形態5〕
本発明に係る実施形態4について、図7に基づいて以下に説明する。上述した各実施形態と共通する各部材には同じ符号を付し、詳細な説明を省略する。
[Embodiment 5]
Embodiment 4 according to the present invention will be described below with reference to FIG. The members common to the above-described embodiments are denoted by the same reference numerals, and detailed description thereof is omitted.

実施形態1に係る顔領域抽出部4は、撮像画像から2次元の顔領域31を検出するために、撮像画像内の各画素の色情報(特に肌色の情報)を利用する。一方、本実施形態に係る顔領域抽出部4は、予め記録された被写体の特徴パターンと、撮像画像とを照合することによって、撮像画像から顔領域31を検出する。   The face area extraction unit 4 according to the first embodiment uses color information (particularly skin color information) of each pixel in the captured image in order to detect a two-dimensional face area 31 from the captured image. On the other hand, the face area extraction unit 4 according to the present embodiment detects the face area 31 from the captured image by collating the feature pattern of the subject recorded in advance with the captured image.

この検出方法について、図7を参照して以下に説明する。図7は、本発明の実施形態5に係る撮像装置1が実行する顔領域31の検出処理を説明する図である。   This detection method will be described below with reference to FIG. FIG. 7 is a diagram illustrating the face area 31 detection processing executed by the imaging apparatus 1 according to the fifth embodiment of the present invention.

図7の(a)に、撮像部2によって得られた2次元の撮像画像を示す。顔領域抽出部4は、この撮像画像に低解像度処理を施すことによって、図7の(b)に示す低解像度画像を生成する。撮像装置1のメモリには、図7の(c)に示す、顔特徴パターンが予め記録されている。この顔特徴パターンは、輪郭41、特徴42、特徴43、および特徴44を有している。特徴42および43は、それぞれ人の右目および左目に対応し、特徴44は、人の口に対応している。   FIG. 7A shows a two-dimensional captured image obtained by the imaging unit 2. The face area extraction unit 4 performs a low resolution process on the captured image to generate a low resolution image shown in FIG. A face feature pattern shown in FIG. 7C is recorded in the memory of the imaging apparatus 1 in advance. This face feature pattern has a contour 41, a feature 42, a feature 43, and a feature 44. Features 42 and 43 correspond to a person's right eye and left eye, respectively, and feature 44 corresponds to a person's mouth.

顔領域抽出部4は、図7の(b)に示す低解像度画像と、図7の(c)に示す顔特徴パターンとを照合する。ここでいう照合として、たとえばパターンマッチングが挙げられる。これにより、低解像画像における、特徴42〜44のマッチング位置が得られ、これに基づき、低解像度画像における輪郭41の対応位置が決まる。顔領域抽出部4は、元の撮像画像における、輪郭41の対応位置と同じ位置に、輪郭41を合成することによって、図8の(d)に示す撮像画像を生成する。顔領域抽出部4は、図8の(d)に示す撮像画像における輪郭41内の領域を、被写体の2次元顔領域31として抽出する。   The face area extraction unit 4 collates the low-resolution image shown in FIG. 7B with the face feature pattern shown in FIG. An example of the collation here is pattern matching. Thereby, the matching positions of the features 42 to 44 in the low resolution image are obtained, and based on this, the corresponding positions of the contour 41 in the low resolution image are determined. The face area extraction unit 4 generates the captured image shown in FIG. 8D by synthesizing the contour 41 at the same position as the corresponding position of the contour 41 in the original captured image. The face area extraction unit 4 extracts the area within the contour 41 in the captured image shown in FIG. 8D as the two-dimensional face area 31 of the subject.

〔まとめ〕
本発明の態様1に係る撮像装置は、被写体を複数の異なる視点から撮影することによって、各上記視点に対応する複数の画像を生成する撮像部と、上記複数の画像を3次元計測処理することによって、距離画像を生成する3次元計測部と、上記距離画像において判定領域を抽出する抽出部(顔領域抽出部4)と、上記判定領域を、複数の異なる分割領域に分割する分割部(領域分割部5)と、上記分割領域ごとに、当該分割領域に応じた有効範囲を設定する設定部(有効範囲設定部6)と、上記分割領域ごとに、当該分割領域に含まれる複数の画素のうち、当該分割領域に設定された上記有効範囲から外れる距離値を有する画素を、異常画素であると判定する判定部(異常画素判定部7)とを備えていることを特徴としている。
[Summary]
An imaging apparatus according to aspect 1 of the present invention captures a subject from a plurality of different viewpoints, and generates a plurality of images corresponding to each of the viewpoints, and performs a three-dimensional measurement process on the plurality of images. A three-dimensional measurement unit that generates a distance image, an extraction unit (face region extraction unit 4) that extracts a determination region in the distance image, and a division unit (region) that divides the determination region into a plurality of different division regions A dividing unit 5), a setting unit (effective range setting unit 6) for setting an effective range corresponding to the divided region for each divided region, and a plurality of pixels included in the divided region for each divided region. Among these, a determination unit (abnormal pixel determination unit 7) that determines that a pixel having a distance value outside the effective range set in the divided region is an abnormal pixel is provided.

上記の構成によれば、撮像装置は、距離画像において抽出された判定領域を構成する各分割領域に、各分割領域に応じた有効範囲を設定する。そして、当該分割領域に含まれる複数の画素のうち、当該分割領域に設定された上記有効範囲から外れる距離値を有する画素を、異常画素であると判定する。   According to said structure, an imaging device sets the effective range according to each division area to each division area which comprises the determination area extracted in the distance image. Then, a pixel having a distance value out of the effective range set in the divided area among the plurality of pixels included in the divided area is determined as an abnormal pixel.

このように、撮像装置は、各分割領域に設定される有効範囲に基づき異常画素の有無を判定するため、従来技術とは異なり、被写体の立体モデルの形状の影響を受けずに済む。また、分割領域に応じた有効範囲が分割領域に設定されるので、撮像部に対する被写体の距離および向きなどに関わらず、分割領域内の異常画素の有無を高い精度で判定することができる。   In this way, since the imaging apparatus determines the presence or absence of abnormal pixels based on the effective range set in each divided region, unlike the prior art, it is not affected by the shape of the subject's three-dimensional model. Further, since the effective range corresponding to the divided area is set as the divided area, the presence or absence of abnormal pixels in the divided area can be determined with high accuracy regardless of the distance and orientation of the subject with respect to the imaging unit.

以上のように、撮像装置は、距離画像に含まれる異常画素の判定精度をより高めることができる。   As described above, the imaging apparatus can further increase the determination accuracy of abnormal pixels included in the distance image.

本発明の態様2に係る撮像装置は、上記態様1において、上記分割部は、予め記録された領域分割パターンと上記判定領域とに基づいて、上記判定領域を複数の異なる分割領域に分割することを特徴としている。   In the imaging device according to aspect 2 of the present invention, in the aspect 1, the dividing unit divides the determination area into a plurality of different divided areas based on a pre-recorded area division pattern and the determination area. It is characterized by.

上記の構成によれば、領域分割パターンを予め用意するだけで、判定領域を複数の分割領域に適切に分割することができる。   According to said structure, a determination area | region can be appropriately divided | segmented into a some division area only by preparing an area division pattern previously.

本発明の態様3に係る撮像装置は、上記態様2において、上記分割部は、予め記録された領域分割パターンの外郭と上記判定領域の輪郭とを照合することにより、上記判定領域を複数の異なる分割領域に分割することを特徴としている。   In the imaging device according to aspect 3 of the present invention, in the aspect 2, the division unit compares the outline of the area division pattern recorded in advance with the outline of the determination area, thereby making the determination areas different from each other. It is characterized by dividing into divided areas.

上記の構成によれば、判定領域の大きさに関わらず、判定領域を、領域分割パターンに応じた複数の分割領域に分割することができる。   According to the above configuration, the determination area can be divided into a plurality of divided areas according to the area division pattern regardless of the size of the determination area.

本発明の態様4に係る撮像装置は、上記態様1〜3のいずれかにおいて、上記抽出部は、上記複数の画像の少なくともいずれかに含まれる各画素の色情報に基づき、上記判定領域を抽出することを特徴としている。   The imaging device according to aspect 4 of the present invention is the imaging apparatus according to any one of the aspects 1 to 3, wherein the extraction unit extracts the determination region based on color information of each pixel included in at least one of the plurality of images. It is characterized by doing.

上記の構成によれば、距離画像から判定領域を正確に抽出することができる。   According to said structure, a determination area | region can be extracted correctly from a distance image.

本発明の態様5に係る撮像装置は、上記態様1〜3のいずれかにおいて、上記抽出部は、予め記録された被写体の特徴パターンと、上記複数の画像の少なくともいずれかとを照合することにより、上記判定領域を抽出することを特徴としている。   In any one of the above-described aspects 1 to 3, the extraction unit according to the aspect 5 of the present invention compares the feature pattern of the subject recorded in advance with at least one of the plurality of images. The determination area is extracted.

上記の構成によれば、背景色などの影響によって色情報に基づく判定領域の抽出が難しい場合でも、距離画像から判定領域を正確に抽出することができる。   According to the above configuration, even when it is difficult to extract the determination area based on the color information due to the influence of the background color or the like, the determination area can be accurately extracted from the distance image.

本発明の態様6に係る撮像装置は、上記態様1〜3のいずれかにおいて、上記分割領域ごとに、当該分割領域に含まれる複数の画素の距離値を用いて所定の基準値を算出する基準値算出部(有効範囲設定部6)をさらに備えており、上記設定部は、上記分割領域ごとに、上記基準値に基づいて、上記有効範囲を設定することを特徴としている。   The imaging apparatus according to Aspect 6 of the present invention is the imaging device according to any one of Aspects 1 to 3, wherein, for each of the divided areas, a reference value for calculating a predetermined reference value using distance values of a plurality of pixels included in the divided area. A value calculating unit (effective range setting unit 6) is further provided, and the setting unit sets the effective range based on the reference value for each of the divided regions.

上記の構成によれば、各分割領域における被写体の実際の形状に応じた適切な有効範囲を、各分割領域に設定することができる。   According to the above configuration, an appropriate effective range according to the actual shape of the subject in each divided region can be set in each divided region.

本発明の態様7に係る撮像装置は、上記態様6において、上記基準値算出部は、上記分割領域ごとに、当該分割領域に含まれる複数の画素の距離値の平均距離値を、上記基準値として算出し、上記設定部は、上記分割領域ごとに、上記平均距離値に基づいて上記有効範囲を設定することを特徴としている。   In the imaging device according to aspect 7 of the present invention, in the aspect 6, the reference value calculation unit calculates, for each divided area, an average distance value of distance values of a plurality of pixels included in the divided area as the reference value. And the setting unit sets the effective range based on the average distance value for each of the divided regions.

上記の構成によれば、各分割領域における被写体の実際の形状に応じた適切な有効範囲を、各分割領域に設定することができる。   According to the above configuration, an appropriate effective range according to the actual shape of the subject in each divided region can be set in each divided region.

本発明の態様8に係る撮像装置は、上記態様1〜5のいずれかにおいて、上記分割領域ごとに、当該分割領域に含まれる複数の画素の距離値を空間フィルタを用いて平滑化する平滑化部をさらに備えており、上記設定部は、上記分割領域ごとに、平滑化された当該分割領域に含まれる複数の画素の複数の上記距離値のうちの最大値および最小値に基づいて、有効範囲を設定することを特徴としている。   An imaging apparatus according to an eighth aspect of the present invention provides the imaging device according to any one of the first to fifth aspects, wherein for each of the divided regions, a distance value of a plurality of pixels included in the divided region is smoothed using a spatial filter. The setting unit is effective for each of the divided regions based on the maximum value and the minimum value of the plurality of distance values of the plurality of pixels included in the smoothed divided region. It is characterized by setting a range.

上記の構成によれば、各分割領域における被写体の実際の形状に応じた適切な有効範囲を、各分割領域に設定することができる。   According to the above configuration, an appropriate effective range according to the actual shape of the subject in each divided region can be set in each divided region.

本発明の態様9に係る撮像装置は、上記態様1〜5のいずれかにおいて、撮像装置におけるフォーカス距離範囲を算出するフォーカス距離範囲算出部を備えており、上記設定部は、上記分割領域ごとに、上記フォーカス距離範囲に基づいて、上記有効範囲を設定することを特徴としている。   An imaging apparatus according to an aspect 9 of the present invention includes a focus distance range calculation unit that calculates a focus distance range in the imaging apparatus according to any one of the aspects 1 to 5, and the setting unit is provided for each of the divided regions. The effective range is set based on the focus distance range.

上記の構成によれば、被写体と撮像部との距離が不明であっても、適切な有効範囲を各分割領域に設定することができる。   According to said structure, even if the distance of a to-be-photographed part and an imaging part is unknown, an appropriate effective range can be set to each division area.

本発明の態様10に係る撮像方法は、被写体を複数の異なる視点から撮影することによって、各上記視点に対応する複数の画像を生成する撮像工程と、上記複数の画像を3次元計測処理することによって、距離画像を生成する3次元計測工程と、上記距離画像において判定領域を抽出する抽出工程と、上記判定領域を、複数の異なる分割領域に分割する分割工程と、上記分割領域ごとに、当該分割領域に応じた有効範囲を設定する設定工程と、上記分割領域ごとに、当該分割領域に含まれる複数の画素のうち、当該分割領域に設定された上記有効範囲から外れる距離値を有する画素を、異常画素であると判定する判定工程とを有することを特徴としている。   The imaging method according to the tenth aspect of the present invention is to capture a subject from a plurality of different viewpoints to generate a plurality of images corresponding to each of the viewpoints, and to perform a three-dimensional measurement process on the plurality of images. For each of the divided regions, a three-dimensional measuring step for generating a distance image, an extracting step for extracting a determination region in the distance image, a dividing step for dividing the determination region into a plurality of different divided regions, and A setting step of setting an effective range according to the divided area, and a pixel having a distance value out of the effective range set in the divided area among the plurality of pixels included in the divided area for each of the divided areas. And a determination step of determining that the pixel is an abnormal pixel.

上記の構成によれば、距離画像に含まれる異常画素の判定精度をより高めることができる。   According to said structure, the determination precision of the abnormal pixel contained in a distance image can be improved more.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることによって、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims. Embodiments obtained by appropriately combining technical means disclosed in different embodiments are also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、ステレオカメラを用いた撮像装置および撮像方法に利用することができる。   The present invention can be used for an imaging apparatus and an imaging method using a stereo camera.

1 撮像装置
2 撮像部
2a 右カメラ
2b 左カメラ
3 3次元計測部
4 顔領域抽出部(抽出部)
5 領域分割部(分割部)
6 有効範囲設定部(設定部、平均距離値算出部、基準値算出部、フォーカス距離算出部)
7 異常画素判定部(判定部)
8 補間部
9 平滑化部
11 平行化部
12 プレフィルタ部
13 対応点探索部
14 距離画像生成部
15 キャリブレーションデータ
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Imaging part 2a Right camera 2b Left camera 3 Three-dimensional measurement part 4 Face area extraction part (extraction part)
5 Area division part (division part)
6 Effective range setting unit (setting unit, average distance value calculating unit, reference value calculating unit, focus distance calculating unit)
7 Abnormal pixel determination unit (determination unit)
DESCRIPTION OF SYMBOLS 8 Interpolation part 9 Smoothing part 11 Parallelizing part 12 Pre filter part 13 Corresponding point search part 14 Distance image generation part 15 Calibration data

Claims (10)

被写体を複数の異なる視点から撮影することによって、各上記視点に対応する複数の画像を生成する撮像部と、
上記複数の画像を3次元計測処理することによって、距離画像を生成する3次元計測部と、
上記距離画像において判定領域を抽出する抽出部と、
上記判定領域を、複数の異なる分割領域に分割する分割部と、
上記分割領域ごとに、当該分割領域に応じた有効範囲を設定する設定部と、
上記分割領域ごとに、当該分割領域に含まれる複数の画素のうち、当該分割領域に設定された上記有効範囲から外れる距離値を有する画素を、異常画素であると判定する判定部とを備えていることを特徴とする撮像装置。
An imaging unit that shoots a subject from a plurality of different viewpoints to generate a plurality of images corresponding to each of the viewpoints;
A three-dimensional measurement unit that generates a distance image by performing a three-dimensional measurement process on the plurality of images;
An extraction unit for extracting a determination region in the distance image;
A dividing unit that divides the determination area into a plurality of different divided areas;
For each of the divided areas, a setting unit that sets an effective range according to the divided area;
A determination unit that determines, for each of the divided regions, a pixel having a distance value out of the effective range set in the divided region among a plurality of pixels included in the divided region as an abnormal pixel; An imaging apparatus characterized by comprising:
上記分割部は、予め記録された領域分割パターンと上記判定領域とに基づいて、上記判定領域を複数の異なる上記分割領域に分割することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the division unit divides the determination area into a plurality of different division areas based on a pre-recorded area division pattern and the determination area. 上記分割部は、予め記録された領域分割パターンの外郭と上記判定領域の輪郭とを照合することにより、上記判定領域を複数の異なる上記分割領域に分割することを特徴とする請求項2に記載の撮像装置。   3. The division unit according to claim 2, wherein the division unit divides the determination region into a plurality of different division regions by collating an outline of a region division pattern recorded in advance with an outline of the determination region. Imaging device. 上記抽出部は、上記複数の画像の少なくともいずれかに含まれる各画素の色情報に基づき、上記判定領域を抽出することを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the extraction unit extracts the determination region based on color information of each pixel included in at least one of the plurality of images. . 上記抽出部は、予め記録された被写体の特徴パターンと、上記複数の画像の少なくともいずれかとを照合することにより、上記判定領域を抽出することを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。   The extraction section extracts the determination region by comparing a feature pattern of a subject recorded in advance with at least one of the plurality of images. The imaging device described in 1. 上記分割領域ごとに、当該分割領域に含まれる複数の画素の距離値を用いて所定の基準値を算出する基準値算出部をさらに備えており、
上記設定部は、上記分割領域ごとに、上記基準値に基づいて上記有効範囲を設定することを特徴とする請求項1〜5のいずれか1項に記載の撮像装置。
Each of the divided regions further includes a reference value calculation unit that calculates a predetermined reference value using distance values of a plurality of pixels included in the divided region,
The imaging apparatus according to claim 1, wherein the setting unit sets the effective range based on the reference value for each of the divided regions.
上記基準値算出部は、上記分割領域ごとに、当該分割領域に含まれる複数の画素の距離値の平均距離値を、上記基準値として算出し、
上記設定部は、上記分割領域ごとに、上記平均距離値に基づいて上記有効範囲を設定することを特徴とする請求項6のいずれか1項に記載の撮像装置。
The reference value calculation unit calculates, for each of the divided regions, an average distance value of distance values of a plurality of pixels included in the divided region as the reference value,
The imaging apparatus according to claim 6, wherein the setting unit sets the effective range based on the average distance value for each of the divided regions.
上記分割領域ごとに、当該分割領域に含まれる複数の画素の距離値を空間フィルタを用いて平滑化する平滑化部をさらに備えており、
上記設定部は、上記分割領域ごとに、平滑化された当該分割領域に含まれる複数の画素の複数の上記距離値のうちの最大値および最小値に基づいて、有効範囲を設定することを特徴とする請求項1〜5のいずれか1項に記載の撮像装置。
Each of the divided regions further includes a smoothing unit that smoothes the distance values of a plurality of pixels included in the divided region using a spatial filter,
The setting unit sets an effective range for each of the divided regions based on a maximum value and a minimum value among a plurality of the distance values of a plurality of pixels included in the smoothed divided region. The imaging device according to any one of claims 1 to 5.
上記撮像装置におけるフォーカス距離範囲を算出するフォーカス距離範囲算出部を備えており、
上記設定部は、上記分割領域ごとに、上記フォーカス距離範囲に基づいて、上記有効範囲を設定することを特徴とする請求項1〜5のいずれか1項に記載の撮像装置。
A focus distance range calculation unit for calculating a focus distance range in the imaging apparatus;
The imaging apparatus according to claim 1, wherein the setting unit sets the effective range for each of the divided regions based on the focus distance range.
被写体を複数の異なる視点から撮影することによって、各上記視点に対応する複数の画像を生成する撮像工程と、
上記複数の画像を3次元計測処理することによって、距離画像を生成する3次元計測工程と、
上記距離画像において判定領域を抽出する抽出工程と、
上記判定領域を、複数の異なる分割領域に分割する分割工程と、
上記分割領域ごとに、当該分割領域に応じた有効範囲を設定する設定工程と、
上記分割領域ごとに、当該分割領域に含まれる複数の画素のうち、当該分割領域に設定された上記有効範囲から外れる距離値を有する画素を、異常画素であると判定する判定工程とを有することを特徴とする撮像方法。
An imaging step of generating a plurality of images corresponding to each of the viewpoints by photographing the subject from a plurality of different viewpoints;
A three-dimensional measurement process for generating a distance image by performing a three-dimensional measurement process on the plurality of images;
An extraction step of extracting a determination region in the distance image;
A dividing step of dividing the determination area into a plurality of different divided areas;
For each of the divided areas, a setting step for setting an effective range according to the divided area;
Determining a pixel having a distance value out of the effective range set in the divided area among the plurality of pixels included in the divided area as an abnormal pixel for each of the divided areas. An imaging method characterized by the above.
JP2015034585A 2015-02-24 2015-02-24 Imaging device and imaging method Pending JP2016156702A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015034585A JP2016156702A (en) 2015-02-24 2015-02-24 Imaging device and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015034585A JP2016156702A (en) 2015-02-24 2015-02-24 Imaging device and imaging method

Publications (1)

Publication Number Publication Date
JP2016156702A true JP2016156702A (en) 2016-09-01

Family

ID=56825718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015034585A Pending JP2016156702A (en) 2015-02-24 2015-02-24 Imaging device and imaging method

Country Status (1)

Country Link
JP (1) JP2016156702A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022514805A (en) * 2019-11-27 2022-02-16 深▲セン▼市商▲湯▼科技有限公司 Biological detection method and device, storage medium
WO2022270058A1 (en) * 2021-06-24 2022-12-29 パナソニックIpマネジメント株式会社 Image processing device and image processing method
JP7393184B2 (en) 2019-11-07 2023-12-06 東芝テック株式会社 Point cloud data processing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7393184B2 (en) 2019-11-07 2023-12-06 東芝テック株式会社 Point cloud data processing device
JP2022514805A (en) * 2019-11-27 2022-02-16 深▲セン▼市商▲湯▼科技有限公司 Biological detection method and device, storage medium
JP7076590B2 (en) 2019-11-27 2022-05-27 深▲セン▼市商▲湯▼科技有限公司 Biological detection method and device, storage medium
WO2022270058A1 (en) * 2021-06-24 2022-12-29 パナソニックIpマネジメント株式会社 Image processing device and image processing method

Similar Documents

Publication Publication Date Title
US11272161B2 (en) System and methods for calibration of an array camera
US9774837B2 (en) System for performing distortion correction and calibration using pattern projection, and method using the same
JP6363863B2 (en) Information processing apparatus and information processing method
JP7134012B2 (en) Parallax estimation device and method
US9025862B2 (en) Range image pixel matching method
JP2019012426A5 (en)
CN107316326B (en) Edge-based disparity map calculation method and device applied to binocular stereo vision
JP5901614B2 (en) Image processing apparatus and image processing method
JP6071257B2 (en) Image processing apparatus, control method therefor, and program
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP6566768B2 (en) Information processing apparatus, information processing method, and program
CN107517346B (en) Photographing method and device based on structured light and mobile device
JP6594170B2 (en) Image processing apparatus, image processing method, image projection system, and program
JP7378219B2 (en) Imaging device, image processing device, control method, and program
US10621694B2 (en) Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium
JP2019091122A (en) Depth map filter processing device, depth map filter processing method and program
JP2016156702A (en) Imaging device and imaging method
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
JP7312026B2 (en) Image processing device, image processing method and program
JP5727969B2 (en) Position estimation apparatus, method, and program
WO2017187935A1 (en) Information processing apparatus, information processing method, and program
JP6351364B2 (en) Information processing apparatus, information processing method, and program
JP2008003800A (en) Image processing apparatus and image processing program
JPWO2020144760A1 (en) Image processing equipment, image processing method and image processing program
JP6481375B2 (en) Information processing system, information processing method, program, and information processing apparatus