JP4333457B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4333457B2
JP4333457B2 JP2004119449A JP2004119449A JP4333457B2 JP 4333457 B2 JP4333457 B2 JP 4333457B2 JP 2004119449 A JP2004119449 A JP 2004119449A JP 2004119449 A JP2004119449 A JP 2004119449A JP 4333457 B2 JP4333457 B2 JP 4333457B2
Authority
JP
Japan
Prior art keywords
image processing
distance
predetermined
face
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004119449A
Other languages
Japanese (ja)
Other versions
JP2005301833A (en
Inventor
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2004119449A priority Critical patent/JP4333457B2/en
Publication of JP2005301833A publication Critical patent/JP2005301833A/en
Application granted granted Critical
Publication of JP4333457B2 publication Critical patent/JP4333457B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置および画像処理方法に係り、特に、撮像手段で撮像された画像中における顔などの物体を検出する画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method for detecting an object such as a face in an image captured by an imaging unit.

顔向き計測や個人認証などを行う際、カメラで撮影された顔を含む画像中から、顔を検出ことが要求される。このような顔を検出するものとして、特開平5−197793号に開示された顔画像特徴点抽出装置がある。この顔画像特徴点抽出装置は、画像中における顔のエッジ抽出を行い、エッジ抽出後に形状データとの一致度を算出する、いわゆるパターンマッチングを行うことにより、顔を検出するというものである。
特開平5−197793号公報
When performing face orientation measurement or personal authentication, it is required to detect a face from an image including a face photographed by a camera. As a device for detecting such a face, there is a face image feature point extracting device disclosed in Japanese Patent Laid-Open No. 5-197793. This face image feature point extracting device detects a face by performing edge extraction of a face in an image and calculating a degree of coincidence with shape data after edge extraction, so-called pattern matching.
JP-A-5-197793

しかし、カメラで撮影された顔の大きさは一定とはならないものである。このため、上記特許文献1に開示された顔画像特徴点抽出装置においては、形状データとの一致度を算出するにあたり、多くのサイズの形状データを持っていなければならず、データベースが膨大となり、画像処理装置に記憶されるデータ量が多くなるという問題があった。さらには、多くのサイズの形状データについて一致度を算出するので、検出を行う際に長時間を要するという問題があった。   However, the size of the face photographed by the camera is not constant. For this reason, in the face image feature point extraction device disclosed in Patent Document 1, in calculating the degree of coincidence with the shape data, it must have shape data of many sizes, the database becomes enormous, There has been a problem that the amount of data stored in the image processing apparatus increases. Furthermore, since the degree of coincidence is calculated for many sizes of shape data, there is a problem that it takes a long time to perform detection.

そこで、本発明の課題は、記憶するデータ量を少なくするとともに、高速で検出対象物の検出を行うことができる画像処理装置および画像処理方法を提供することにある。   Accordingly, an object of the present invention is to provide an image processing apparatus and an image processing method capable of reducing the amount of data to be stored and detecting a detection target at high speed.

上記課題を解決した本発明に係る画像処理装置は、所定の位置関係にある複数の撮像手段で撮影した画像内における物体を検出する画像処理装置であって、複数の撮像手段によって撮影された物体を三次元形状に復元する三次元復元手段と、三次元復元手段によって三次元復元された物体における所定位置からの距離が所定の範囲内にある位置を映す画素を抽出する所定距離画素抽出手段と、所定位置からの距離に応じた検出対象物体の大きさが予め記憶されており、検出対象物体の大きさと、所定距離画素抽出手段で抽出された画素が撮像手段によって撮像された画像中で占める大きさと、を比較することにより、検出対象物体を検出する比較検出手段と、を備えるものである。 An image processing apparatus according to the present invention that has solved the above problems is an image processing apparatus that detects an object in an image photographed by a plurality of imaging means having a predetermined positional relationship, and is an object photographed by a plurality of imaging means. A three-dimensional restoration means for restoring the three-dimensional shape, and a predetermined distance pixel extraction means for extracting a pixel that reflects a position within a predetermined range of the distance from the predetermined position in the object three-dimensionally restored by the three-dimensional restoration means; The size of the detection target object corresponding to the distance from the predetermined position is stored in advance, and the size of the detection target object and the pixels extracted by the predetermined distance pixel extraction unit occupy in the image captured by the imaging unit Comparison detection means for detecting a detection target object by comparing the size.

また、上記課題を解決した本発明に係る画像処理方法は、所定の位置関係にある複数の撮像手段で撮影した画像内における物体を検出する画像処理方法であって、複数の撮像手段によって撮影された物体を三次元形状に復元する三次元復元工程と、三次元復元工程によって三次元復元された物体における所定位置からの距離が所定の範囲内にある位置を映す画素を抽出する所定距離画素抽出工程と、予め記憶された所定位置からの距離ごとの検出対象物体の大きさと、所定距離画素抽出工程で抽出された画素が撮像手段によって撮像された画像中で占める大きさと、を比較することにより、検出対象物体を検出する比較検出工程と、を含むことを特徴とする。   An image processing method according to the present invention that solves the above-described problems is an image processing method for detecting an object in an image captured by a plurality of imaging means having a predetermined positional relationship, and is captured by a plurality of imaging means. 3D restoration process that restores a 3D shape to a captured object, and a predetermined distance pixel extraction that extracts a pixel that reflects a position within a predetermined range of a distance from a predetermined position in the object that has been three-dimensionally restored by the 3D restoration process By comparing the size of the detection target object for each distance from the predetermined position stored in advance with the size that the pixel extracted in the predetermined distance pixel extraction step occupies in the image captured by the imaging unit And a comparison detection step of detecting a detection target object.

また、上記課題を解決した本発明に係る画像処理方法は、所定の位置関係にある複数の撮像手段で撮影した画像内における物体を検出する画像処理方法であって、複数の撮像手段によって撮影された物体を三次元形状に復元する三次元復元工程と、三次元復元工程によって三次元復元された物体における所定位置からの距離が所定の範囲内にある位置を映す画素を抽出する所定距離画素抽出工程と、予め記憶された所定位置からの距離に応じた検出対象物体の大きさと、所定距離画素抽出工程で抽出された画素が撮像手段によって撮像された画像中で占める大きさと、を比較することにより、検出対象物体を検出する比較検出工程と、を含むことを特徴とする。

An image processing method according to the present invention that solves the above-described problems is an image processing method for detecting an object in an image captured by a plurality of imaging means having a predetermined positional relationship, and is captured by a plurality of imaging means. 3D restoration process that restores a 3D shape to a captured object, and a predetermined distance pixel extraction that extracts a pixel that reflects a position within a predetermined range of a distance from a predetermined position in the object that has been three-dimensionally restored by the 3D restoration process The process compares the size of the detection target object according to the distance from the predetermined position stored in advance with the size occupied by the pixel extracted in the predetermined distance pixel extraction step in the image captured by the imaging unit. And a comparison detection step of detecting a detection target object.

ここで、本発明においては、検出対象物体の大きさを比較しているので、画像処理装置は、検出対象物の大きさに対応するデータが記憶され、顔自体のデータは不要である。したがって、画像処理装置に記憶されるデータ量を少なくすることができるとともに、高速での検出を行うことができる。   Here, in the present invention, since the sizes of the detection target objects are compared, the image processing apparatus stores data corresponding to the size of the detection target object, and does not need the data of the face itself. Therefore, the amount of data stored in the image processing apparatus can be reduced, and detection at a high speed can be performed.

本発明に係る画像処理装置および画像処理方法によれば、記憶するデータを少なくするとともに、高速で検出対象物の検出を行うことができる。   According to the image processing apparatus and the image processing method of the present invention, it is possible to reduce the amount of data to be stored and detect the detection target at high speed.

以下、図面を参照して、本発明の好適な実施形態について説明する。図1は本発明の実施形態に係る画像処理装置のブロック構成図である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.

図1に示すように、本実施形態に係る画像処理装置1は、三次元復元部11、所定距離画素抽出手段である画素抽出部12、および比較検出手段である顔円形比較部13を備えている。また、画像処理装置1には、複数の撮像手段である第一カメラ2および第二カメラ3が接続されている。第一カメラ2および第二カメラ3は、互いに所定の位置関係にあるものである。第一カメラ2および第二カメラ3は、人の顔などを撮影した画像を画像処理装置1における三次元復元部11に出力している。本実施形態では、人の顔を検出対象物体としている。   As shown in FIG. 1, the image processing apparatus 1 according to this embodiment includes a three-dimensional restoration unit 11, a pixel extraction unit 12 that is a predetermined distance pixel extraction unit, and a face circle comparison unit 13 that is a comparison detection unit. Yes. The image processing apparatus 1 is connected to a first camera 2 and a second camera 3 which are a plurality of imaging means. The first camera 2 and the second camera 3 are in a predetermined positional relationship with each other. The first camera 2 and the second camera 3 output an image obtained by photographing a human face or the like to the three-dimensional restoration unit 11 in the image processing apparatus 1. In this embodiment, a human face is used as a detection target object.

三次元復元部11は、第一カメラ2および第二カメラ3で撮影された画像を三次元復元し、三次元復元画像を作成する。三次元復元部11は、復元した三次元復元画像を画素抽出部12に出力する。   The three-dimensional restoration unit 11 three-dimensionally restores images taken by the first camera 2 and the second camera 3 and creates a three-dimensional restored image. The three-dimensional restoration unit 11 outputs the restored three-dimensional restoration image to the pixel extraction unit 12.

画素抽出部12は、所定位置、たとえば第一カメラ2が設置されている位置から所定距離の範囲内にある物体を映す画素を抽出する。画素抽出部12では、第一カメラ2からの所定距離の範囲を複数設定している。これら複数の所定距離のそれぞれについて、その所定距離範囲内にある画素を抽出する。   The pixel extraction unit 12 extracts pixels that show an object within a predetermined distance from a predetermined position, for example, a position where the first camera 2 is installed. In the pixel extraction unit 12, a plurality of predetermined distance ranges from the first camera 2 are set. For each of the plurality of predetermined distances, pixels within the predetermined distance range are extracted.

画素抽出部12における抽出結果は、顔円形比較部13に出力される。顔円形比較部13には、検出対象物体である顔の形状と大きさが所定位置、たとえば第一カメラ2からの距離ごとにテンプレートとして予め記憶されている。顔の形状は、楕円に近似される形状にモデル化することができ、画素抽出部12には、第一カメラ2からの距離に応じた大きさの楕円形がテンプレートとして記憶されている。顔円形比較部13では、画素抽出部12から出力された抽出結果と、予め記憶されたテンプレートとから、円形度を比較する。この円形度の比較により、検出対象物体である顔の検出を行う。   The extraction result in the pixel extraction unit 12 is output to the face circle comparison unit 13. In the face circle comparison unit 13, the shape and size of the face that is the detection target object are stored in advance as templates for each predetermined position, for example, for each distance from the first camera 2. The shape of the face can be modeled as a shape that approximates an ellipse, and the pixel extraction unit 12 stores an ellipse having a size corresponding to the distance from the first camera 2 as a template. The face circle comparison unit 13 compares the circularity from the extraction result output from the pixel extraction unit 12 and a template stored in advance. By comparing the circularity, a face that is a detection target object is detected.

以上の構成を有する本実施形態に係る画像処理装置を用いた画像処理方法について説明する。図2は、本実施形態に係る画像処理方法の手順を示すフローチャートである。   An image processing method using the image processing apparatus according to this embodiment having the above configuration will be described. FIG. 2 is a flowchart showing the procedure of the image processing method according to the present embodiment.

図2に示すように、本実施形態に係る画像処理方法では、まず第一カメラ2および第二カメラ3によって画像を撮影し、画像処理装置1における三次元復元部11に出力する。三次元復元部11では、カメラ2,3で撮影した画像および2つのカメラ2,3のカメラパラメータに基づいて、撮像した画像を三次元復元する(S1)。   As shown in FIG. 2, in the image processing method according to the present embodiment, first, an image is taken by the first camera 2 and the second camera 3 and output to the three-dimensional restoration unit 11 in the image processing apparatus 1. The three-dimensional reconstruction unit 11 performs three-dimensional reconstruction of the captured images based on the images captured by the cameras 2 and 3 and the camera parameters of the two cameras 2 and 3 (S1).

復元結果は、第一カメラ2から見た画像の各画素が、第一カメラ2の光軸方向を奥行きとしたときの距離画像として算出される。そして、最終的なここでの処理結果は、第一カメラ2で撮影した各画素が、第一カメラ2の奥行き方向にどれ位離れた場所に位置するかを示す画像となり、その距離が画素ごとに求められる。   The restoration result is calculated as a distance image when each pixel of the image viewed from the first camera 2 has the optical axis direction of the first camera 2 as the depth. The final processing result here is an image showing how far each pixel photographed by the first camera 2 is located in the depth direction of the first camera 2, and the distance is determined for each pixel. Is required.

こうして三次元復元をしたら、画素抽出部12において、画素抽出を行う。画素の抽出を行う際には、カウンタを0に設定する(S2)。カウンタを0に設定したら、次に、第一カメラ2から所定範囲の距離に存在する位置を映す画素を抽出する(S3)。カウンタが0のときには、第一カメラ2からの距離が0〜50mmの範囲に位置する物体を示す画素を抽出する。   After three-dimensional restoration in this way, the pixel extraction unit 12 performs pixel extraction. When extracting pixels, the counter is set to 0 (S2). If the counter is set to 0, next, a pixel that reflects a position existing at a distance within a predetermined range from the first camera 2 is extracted (S3). When the counter is 0, a pixel indicating an object located within a range of 0 to 50 mm from the first camera 2 is extracted.

このように、第一カメラ2からの距離が0〜50mmの範囲に位置する物体を示す画素を抽出したら、顔円形比較部13において、抽出した画素が占める大きさと、予め記憶されている検出対象物体である顔の大きさとを比較する。こうして、抽出した画素が占める大きさが、予め記憶されているテンプレートに対して所定のしきい値、たとえば70%以上を占める領域を探索する(S4)。   As described above, when the pixels indicating the object located within the range of 0 to 50 mm from the first camera 2 are extracted, the face circle comparison unit 13 occupies the size occupied by the extracted pixels and the detection target stored in advance. Compare the size of the face that is the object. Thus, an area in which the size occupied by the extracted pixel occupies a predetermined threshold, for example, 70% or more with respect to the template stored in advance is searched (S4).

第一カメラ2で顔を撮影していると、図3に模式的に示すように、第一カメラ2からの距離が0〜50mmの範囲R1では、顔FAにおける鼻の部分程度が存在する。このときには、図4(a)に示すように、画面P1における存在画素E1は、わずかの領域のみを占めるに過ぎないものとなる。   When the face is photographed by the first camera 2, as schematically shown in FIG. 3, the nose portion of the face FA exists in the range R <b> 1 where the distance from the first camera 2 is 0 to 50 mm. At this time, as shown in FIG. 4A, the existence pixel E1 in the screen P1 occupies only a small area.

また、画像に映し出される顔の大きさは、第一カメラ2からの距離によって異なり、第一カメラ2からの距離が短いほど、画像に映し出される顔の大きさは大きくなり、第一カメラ2からの距離が長いほど、画像に映し出される顔の大きさは小さくなる。顔円形比較部13には、第一カメラ2からの距離に応じた顔の大きさのテンプレートが記憶されている。   The size of the face shown in the image varies depending on the distance from the first camera 2. The shorter the distance from the first camera 2, the larger the size of the face shown in the image. The longer the distance, the smaller the size of the face shown in the image. The face circle comparison unit 13 stores a face size template corresponding to the distance from the first camera 2.

図5(a)〜(g)に示すように、顔円形比較部13に記憶されるテンプレートの大きさは、第一カメラ2からの距離の範囲によって変わっている。第一カメラ2からの距離が0〜50mmでは、図5(a)に示す大きさのテンプレートO1が記憶されている。顔の形状は、一般的に楕円に近い形状をなしている。テンプレートO1は、顔の輪郭を一般化した楕円形をなしており、図6に示すように、第一カメラ2の光軸に直交し、顔FAの前部を横断する面を想定して設定されている。   As shown in FIGS. 5A to 5G, the size of the template stored in the face circle comparison unit 13 varies depending on the range of distance from the first camera 2. When the distance from the first camera 2 is 0 to 50 mm, a template O1 having a size shown in FIG. 5A is stored. The face shape is generally close to an ellipse. The template O1 has an oval shape that generalizes the outline of the face, and is set assuming a plane that is orthogonal to the optical axis of the first camera 2 and crosses the front of the face FA as shown in FIG. Has been.

第一カメラ2からの距離が10〜60mmでは、図5(b)に示す大きさのテンプレートO2が記憶されている。図5(b)に示すテンプレートO1は、図5(a)に示すテンプレートO1よりも若干小さく設定されている。   When the distance from the first camera 2 is 10 to 60 mm, a template O2 having a size shown in FIG. 5B is stored. The template O1 shown in FIG. 5B is set slightly smaller than the template O1 shown in FIG.

以後、第一カメラ2からの距離の範囲が10mm後退するごとに、図5(c)に示すテンプレートO3、図5(d)に示すテンプレートO4、図5(e)に示すテンプレートO5、図5(f)に示すテンプレートO6、および図5(g)に示すテンプレートO7の順に小さくなっていく。これらのテンプレートO2〜O6についても、テンプレートO1と同様、第一カメラ2の光軸に直交し、顔FAの前部を横断する面を想定して設定されている。   Thereafter, every time the range of the distance from the first camera 2 moves backward by 10 mm, the template O3 shown in FIG. 5C, the template O4 shown in FIG. 5D, the template O5 shown in FIG. The template O6 shown in (f) and the template O7 shown in FIG. These templates O2 to O6 are also set on the assumption of a plane orthogonal to the optical axis of the first camera 2 and crossing the front part of the face FA, like the template O1.

ステップS4に戻り、抽出した画素が占める大きさが、予め記憶されているテンプレートに対して所定のしきい値以上の領域を占める領域が検出されたら、検出された領域が顔候補となる。また、抽出した画素が占める大きさが、予め記憶されているテンプレートに対して所定のしきい値以上の領域を占める領域が探索されなかったら、顔候補は検出されなかったことになる。ここでは、顔候補となる領域は検出されなかったことになる。   Returning to step S4, if an area occupying an area in which the size of the extracted pixel occupies a predetermined threshold or more with respect to a template stored in advance is detected, the detected area becomes a face candidate. In addition, if a region that occupies an area in which the size of the extracted pixel occupies a predetermined threshold or more with respect to a template stored in advance is not searched, no face candidate is detected. In this case, a region that is a face candidate is not detected.

こうして、i=0での検出が終了したら、カウンタを1増やし(S5)、i=n(=8)となって終了するか否かを判断する(S6)。その結果、終了しないと判断したら、ステップS3に戻って、第一カメラ2からの距離が10〜60mmの範囲R2に位置する物体を示す画素を抽出する。   Thus, when the detection at i = 0 is completed, the counter is incremented by 1 (S5), and i = n (= 8) is determined to determine whether or not to end (S6). As a result, if it is determined that the process is not ended, the process returns to step S3, and pixels indicating an object located in the range R2 whose distance from the first camera 2 is 10 to 60 mm are extracted.

その後、顔円形比較部13において、抽出した画素が占める大きさと、予め記憶されている検出対象物体である顔の大きさとを比較する。こうして、抽出した画素が占める大きさが、予め記憶されているテンプレートに対して所定のしきい値以上の領域を占める領域を探索する(S4)。   Thereafter, the face circle comparison unit 13 compares the size occupied by the extracted pixels with the size of the face that is the detection target object stored in advance. Thus, an area that occupies an area in which the size of the extracted pixel occupies a predetermined threshold or more with respect to the template stored in advance is searched (S4).

以後、同様にして、i=nに到達するまで、ステップS2からステップS4の処理を繰り返し、第一カメラ2からの距離が20〜70mmの範囲R3、第一カメラ2からの距離が30〜80mmの範囲R4、および第一カメラ2からの距離が40〜90mmの範囲R5について、テンプレートに対して所定のしきい値以上の領域を占める領域を探索する。また、第一カメラ2からの距離が50〜100mmの範囲R6、第一カメラ2からの距離が60〜110mmの範囲R7、および第一カメラ2からの距離が70〜120mmの範囲R8について、テンプレートに対して所定のしきい値以上の領域を占める領域を探索する。   Thereafter, in the same manner, the processing from step S2 to step S4 is repeated until i = n is reached, the range R3 in which the distance from the first camera 2 is 20 to 70 mm, and the distance from the first camera 2 is 30 to 80 mm. The range R4 and the range R5 having a distance from the first camera 2 of 40 to 90 mm are searched for a region that occupies a region equal to or greater than a predetermined threshold with respect to the template. Further, a template is used for a range R6 in which the distance from the first camera 2 is 50 to 100 mm, a range R7 in which the distance from the first camera 2 is 60 to 110 mm, and a range R8 in which the distance from the first camera 2 is 70 to 120 mm. Are searched for an area occupying an area equal to or greater than a predetermined threshold.

このように、10mm刻みで各刻みにおいて50mm間隔の範囲内に存在する画素を抽出する。そして、各刻みにおけるテンプレートとの比較により、テンプレート中を占める領域割合がしきい値以上である場合に、顔候補とする。図4(b)〜(g)に、画像P2〜P7に映し出される存在範囲E2〜E7と、テンプレートO2〜O7との関係を示す。図4に示す例では、(d)、(e)に示す場合がしきい値を超えており、顔として検出することができる。   In this manner, pixels existing within a range of 50 mm intervals are extracted at intervals of 10 mm. A face candidate is determined when the ratio of the area in the template is equal to or greater than the threshold value by comparison with the template at each step. FIGS. 4B to 4G show the relationship between the existing ranges E2 to E7 displayed in the images P2 to P7 and the templates O2 to O7. In the example shown in FIG. 4, the cases shown in (d) and (e) exceed the threshold value and can be detected as a face.

このように、本実施形態に係る画像処理方法では、顔の大きさと画素が占める大きさとを比較することにより、確実に顔を検出することができる。また、画像処理装置1では、顔の大きさに対応するデータを記憶し、顔自体に対するデータは不要である。このため、画像処理装置1におけるデータ量を少なくすることができ、しかも高速での検出を可能とすることができる。   As described above, in the image processing method according to the present embodiment, the face can be reliably detected by comparing the face size with the size occupied by the pixels. Further, the image processing apparatus 1 stores data corresponding to the size of the face and does not need data for the face itself. For this reason, the data amount in the image processing apparatus 1 can be reduced, and detection at high speed can be achieved.

以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。たとえば、上記実施形態において、移動する物体として人の顔を例示しているが、たとえば自動車などの移動体などを移動する物体とすることができる。また、上記実施形態では、顔のテンプレートを楕円形に設定したが、顔の凹凸を考慮して、たとえば鼻の部分を除いた形状をテンプレートとして設定することができる。このように、テンプレートの形状は、検出対象物に応じて適宜調整することにより、さらに精度の高い検出を行うことができる。   The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment. For example, in the above embodiment, a human face is illustrated as a moving object, but a moving object such as an automobile can be used as the moving object. In the above embodiment, the face template is set to be oval. However, in consideration of the unevenness of the face, for example, a shape excluding the nose portion can be set as the template. As described above, the shape of the template can be appropriately adjusted according to the detection target, whereby detection with higher accuracy can be performed.

本発明に係る画像処理装置のブロック構成図である。1 is a block configuration diagram of an image processing apparatus according to the present invention. 本発明に係る画像処理方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image processing method which concerns on this invention. 第一カメラと顔との距離関係を示す模式図である。It is a schematic diagram which shows the distance relationship between a 1st camera and a face. (a)〜(g)とも、画像に映された物体が存在する画素とテンプレートとの関係を示す図である。(A)-(g) is a figure which shows the relationship between the pixel in which the object reflected on the image exists, and a template. (a)〜(g)とも、テンプレートの大きさを示す図である。(A)-(g) is a figure which shows the magnitude | size of a template. 画像とテンプレートとを比較する際の位置関係を説明する図である。It is a figure explaining the positional relationship at the time of comparing an image and a template.

符号の説明Explanation of symbols

1…画像処理装置、2…第一カメラ、3…第二カメラ、11…三次元復元部、12…画素抽出部、13…顔円形比較部、FA…顔、O1〜O7…テンプレート、P1〜P7…画面、E1〜E7…存在範囲。   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 2 ... 1st camera, 3 ... 2nd camera, 11 ... Three-dimensional decompression | restoration part, 12 ... Pixel extraction part, 13 ... Face circular comparison part, FA ... Face, O1-O7 ... Template, P1- P7 ... screen, E1-E7 ... existing range.

Claims (2)

所定の位置関係にある複数の撮像手段で撮影した画像内における物体を検出する画像処理装置であって、
前記複数の撮像手段によって撮影された物体を三次元形状に復元する三次元復元手段と、
前記三次元復元手段によって三次元復元された物体における所定位置からの距離が所定の範囲内にある位置を映す画素を抽出する所定距離画素抽出手段と、
前記所定位置からの距離に応じた検出対象物体の大きさが予め記憶されており、前記検出対象物体の大きさと、前記所定距離画素抽出手段で抽出された画素が前記撮像手段によって撮像された画像中で占める大きさと、を比較することにより、検出対象物体を検出する比較検出手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for detecting an object in an image captured by a plurality of imaging means having a predetermined positional relationship,
Three-dimensional restoration means for restoring an object photographed by the plurality of imaging means to a three-dimensional shape;
Predetermined distance pixel extracting means for extracting pixels that reflect a position within a predetermined range of a distance from a predetermined position in the object three-dimensionally restored by the three-dimensional restoration means;
The size of the detection target object corresponding to the distance from the predetermined position is stored in advance, and the size of the detection target object and the pixel extracted by the predetermined distance pixel extraction unit are captured by the imaging unit Comparison detecting means for detecting a detection target object by comparing the size occupied in the medium,
An image processing apparatus comprising:
所定の位置関係にある複数の撮像手段で撮影した画像内における物体を検出する画像処理方法であって、
前記複数の撮像手段によって撮影された物体を三次元形状に復元する三次元復元工程と、
前記三次元復元工程によって三次元復元された物体における所定位置からの距離が所定の範囲内にある位置を映す画素を抽出する所定距離画素抽出工程と、
予め記憶された前記所定位置からの距離に応じた検出対象物体の大きさと、前記所定距離画素抽出工程で抽出された画素が前記撮像手段によって撮像された画像中で占める大きさと、を比較することにより、検出対象物体を検出する比較検出工程と、
を含むことを特徴とする画像処理方法。
An image processing method for detecting an object in an image photographed by a plurality of imaging means having a predetermined positional relationship,
A three-dimensional restoration step of restoring an object photographed by the plurality of imaging means into a three-dimensional shape;
A predetermined distance pixel extracting step of extracting pixels that reflect a position within a predetermined range of the distance from the predetermined position in the object three-dimensionally restored by the three-dimensional restoration step;
The size of the detection target object corresponding to the distance from the predetermined position stored in advance is compared with the size occupied by the pixel extracted in the predetermined distance pixel extraction step in the image captured by the imaging unit. A comparison detection step of detecting a detection target object,
An image processing method comprising:
JP2004119449A 2004-04-14 2004-04-14 Image processing apparatus and image processing method Expired - Fee Related JP4333457B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004119449A JP4333457B2 (en) 2004-04-14 2004-04-14 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004119449A JP4333457B2 (en) 2004-04-14 2004-04-14 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2005301833A JP2005301833A (en) 2005-10-27
JP4333457B2 true JP4333457B2 (en) 2009-09-16

Family

ID=35333261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004119449A Expired - Fee Related JP4333457B2 (en) 2004-04-14 2004-04-14 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4333457B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4048779B2 (en) * 2001-12-28 2008-02-20 松下電工株式会社 Distance image processing device
JP4033345B2 (en) * 2003-02-17 2008-01-16 株式会社デンソー Head extraction method
JP2005092451A (en) * 2003-09-16 2005-04-07 Sony Corp Head detector and head detecting method and head detecting program

Also Published As

Publication number Publication date
JP2005301833A (en) 2005-10-27

Similar Documents

Publication Publication Date Title
JP2000105829A (en) Method and device for face parts image detection
US8442322B2 (en) Image processing apparatus and non-transitory storage medium storing image processing program
JP5454737B2 (en) Wrinkle detection device, wrinkle detection method and program
US11928805B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
TWI504858B (en) A vehicle specification measuring and processing device, a vehicle specification measuring method, and a recording medium
JP4518139B2 (en) Image processing device
JP2007333679A (en) Three-dimensional position correcting apparatus
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
JP6107372B2 (en) Image processing apparatus, image processing method, and image processing program
JP2012068948A (en) Face attribute estimating apparatus and method therefor
CN109074646B (en) Image recognition device and image recognition program
JP6221283B2 (en) Image processing apparatus, image processing method, and image processing program
EP3955207A1 (en) Object detection device
JP2011107878A (en) Position detection apparatus and position detection method
JP2016053763A (en) Image processor, image processing method and program
KR101726692B1 (en) Apparatus and method for extracting object
JP5935118B2 (en) Object detection apparatus and object detection method
JP4333457B2 (en) Image processing apparatus and image processing method
JP2010191767A (en) Device and method for recognizing character
JP4274038B2 (en) Image processing apparatus and image processing method
JP2018059767A (en) Image processing device, image processing method and program
JP2004145592A (en) Motion vector extraction device, method and program, and its recording medium
CN112529013A (en) Image recognition method, device, equipment and computer readable medium
EP3196592B1 (en) Measurement apparatus that scans original, method of controlling the same, and storage medium
JP6688091B2 (en) Vehicle distance deriving device and vehicle distance deriving method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090615

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4333457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees