JP6236363B2 - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP6236363B2 JP6236363B2 JP2014134417A JP2014134417A JP6236363B2 JP 6236363 B2 JP6236363 B2 JP 6236363B2 JP 2014134417 A JP2014134417 A JP 2014134417A JP 2014134417 A JP2014134417 A JP 2014134417A JP 6236363 B2 JP6236363 B2 JP 6236363B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- image
- direction feature
- directions
- edge direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 24
- 230000007717 exclusion Effects 0.000 claims description 7
- 239000006185 dispersion Substances 0.000 description 9
- 230000001788 irregular Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Description
本発明は、カメラの撮像画像に基づいて対象物を認識する対象物認識装置に関する。 The present invention relates to an object recognition apparatus that recognizes an object based on a captured image of a camera.
従来より、カメラの撮像画像に対してエッジ抽出処理を行って、物体の輪郭を抽出したエッジ画像を生成し、エッジ画像に基づいて対象物を認識する対象物認識装置が提案されている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an object recognition apparatus has been proposed in which edge extraction processing is performed on a captured image of a camera to generate an edge image from which an object outline is extracted, and the object is recognized based on the edge image (for example, , See Patent Document 1).
特許文献1に記載された対象物認識装置においては、時系列の撮像画像から生成されたエッジ画像間におけるエッジ点の移動方向と移動距離に基づいて、自車両に接近してくる歩行者を認識している。 In the object recognition apparatus described in Patent Document 1, a pedestrian approaching the host vehicle is recognized based on the moving direction and moving distance of edge points between edge images generated from time-series captured images. doing.
エッジ画像から対象物を認識する手法として、注目領域におけるエッジ方向(濃淡の変化の方向)を抽出し、抽出されたエッジ方向の特徴量(強度(変化の急激差(輝度差))若しくはエッジの個数等)により、注目領域内の画像部分が監視対象物(歩行者等)の画像部分であるか否かを判断する手法が用いられている。 As a method for recognizing an object from an edge image, the edge direction (direction of change in shading) in the region of interest is extracted, and the extracted feature quantity (intensity (abrupt difference in change (luminance difference)) or edge A method of determining whether or not the image portion in the attention area is the image portion of the monitoring target (pedestrian or the like) is used.
しかしながら、この手法による場合は、注目領域に不規則なノイズによる画像部分が写りこんでいるときに、このノイズによる画像部分を対象物の画像部分であると誤認識するおそれがある。 However, according to this method, when an image portion due to irregular noise appears in the attention area, there is a possibility that the image portion due to this noise is erroneously recognized as the image portion of the object.
本発明はかかる背景に鑑みてなされたものであり、不規則なノイズの画像部分を、特定種別の対象物の画像部分から区別して検出対象から除外することができる対象物認識装置を提供することを目的とする。 The present invention has been made in view of such a background, and provides an object recognition apparatus capable of distinguishing an image portion of irregular noise from an image portion of a specific type of object and excluding it from a detection target. With the goal.
本発明は、上記目的を達成するためになされたものであり、本発明の対象物認識装置は、
車両に搭載されるカメラによる撮像画像に基づいて、対象物を認識する対象物認識装置であって、
前記撮像画像から、周囲との輝度差が所定輝度以上であるエッジ点を抽出したエッジ画像を生成するエッジ画像生成部と、
前記エッジ画像の所定範囲に設定された注目領域に対して、該注目領域内の複数の方向について、各方向毎のエッジ点の特徴量であるエッジ方向特徴量を算出するエッジ方向特徴量算出部と、
前記注目領域における前記複数の方向のエッジ方向特徴量の分散度合が所定レベル以下となり前記エッジ方向特徴量が特定の方向性を有さないときに、前記注目領域を前記対象物の認識対象から除外するノイズ領域除外部とを備えたことを特徴とする。
The present invention has been made to achieve the above object, and the object recognition apparatus of the present invention provides:
An object recognition device for recognizing an object based on an image captured by a camera mounted on a vehicle ,
An edge image generation unit that generates an edge image obtained by extracting an edge point whose brightness difference from the surroundings is greater than or equal to a predetermined brightness from the captured image;
An edge direction feature value calculation unit that calculates an edge direction feature value that is a feature value of an edge point for each direction for a plurality of directions in the focus area for a focus area set in a predetermined range of the edge image When,
When the degree of variance of the edge direction feature quantity in the plurality of directions in the attention area is below a predetermined level and the edge direction feature quantity has no specific directionality , the attention area is excluded from the recognition target of the object And a noise region excluding unit that performs the processing.
かかる本発明によれば、前記エッジ画像の所定範囲に設定された前記注目領域に対して、前記エッジ方向特徴量算出部により、前記複数方向について、各方向毎のエッジ方向特徴量(例えば強度)が算出される。ここで、特定方向のエッジ方向特徴量は、(1)特定方向のエッジ点の強度、(2)特定方向のエッジ点の個数、(1),(2)の組合わせ、等により表されるエッジ点の方向性の強さを示す指標値である。 According to the present invention, the edge direction feature value (for example, intensity) for each direction is obtained by the edge direction feature value calculation unit for the attention area set in a predetermined range of the edge image. Is calculated. Here, the edge direction feature amount in the specific direction is expressed by (1) the strength of the edge point in the specific direction, (2) the number of edge points in the specific direction, the combination of (1) and (2), etc. This is an index value indicating the strength of the directionality of the edge point.
そして、前記注目領域が対象物の画像部分であるときは、前記注目領域内のエッジ点は、対象物の形状に応じた一定の方向性を持って分布する。それに対して、前記注目領域が不規則なノイズによる画像部分であるときには、前記注目領域内のエッジ点は特定の方向性を持たずに不規則に分布する。そのため、前記注目領域内の前記複数方向のエッジ方向特徴量の分散度合が前記所定レベル以下であるとき(特定の方向性を有しないとき)は、前記注目領域は対象物の画像部分ではないと判断することができる。 When the attention area is an image portion of the object, the edge points in the attention area are distributed with a certain direction according to the shape of the object. On the other hand, when the attention area is an image portion due to irregular noise, the edge points in the attention area are irregularly distributed without having a specific directionality. Therefore, when the degree of dispersion of the edge direction feature quantities in the plurality of directions in the attention area is equal to or less than the predetermined level (when there is no specific directionality), the attention area is not an image portion of the object. Judgment can be made.
そこで、前記ノイズ領域除外部は、前記注目領域における前記複数の方向のエッジ方向特徴量の分散度合が所定レベル以下であるときに、前記注目領域を前記対象物の検出対象外とする。これにより、不規則なノイズによる画像部分を、特定種別の対象物の画像部分から区別して検出対象から除外することができる。 Therefore, the noise region excluding unit excludes the target region from being detected as the target when the degree of dispersion of the edge direction feature values in the plurality of directions in the target region is equal to or lower than a predetermined level. Thereby, the image part by irregular noise can be distinguished from the image part of the specific type of object and excluded from the detection target.
また、前記ノイズ領域除外部は、前記注目領域内の前記複数の方向のエッジ方向特徴量の差が、所定値以下であるときに、前記複数方向のエッジ方向特徴量の分散度合が前記所定レベル以下であると判断するようにしてもよい。 The noise region excluding unit may determine that the degree of dispersion of the edge direction feature values in the plurality of directions is the predetermined level when a difference between the edge direction feature values in the plurality of directions in the attention region is equal to or less than a predetermined value. You may make it judge that it is the following.
次に、本発明の対象物認識方法は、車両に搭載されるカメラによる撮像画像に基づいて、対象物を認識する対象物認識方法であって、
前記撮像画像から、周囲との輝度差が所定レベル以上であるエッジ点を抽出したエッジ画像を生成するエッジ画像生成工程と、
前記エッジ画像の所定範囲に設定された注目領域に対して、該注目領域内の複数の方向について、各方向毎のエッジ点の特徴量であるエッジ方向特徴量を算出するエッジ方向特徴量算出工程と、
前記注目領域における前記複数の方向のエッジ方向特徴量の分散度合が所定レベル以下となり前記エッジ方向特徴量が特定の方向性を有さないときに、前記注目領域を前記対象物の認識対象から除外するノイズ領域除外工程と
を含むことを特徴とする。
Next, the object recognition method of the present invention is an object recognition method for recognizing an object based on an image captured by a camera mounted on a vehicle ,
An edge image generation step of generating an edge image obtained by extracting an edge point having a luminance difference of a predetermined level or more from the captured image;
An edge direction feature value calculating step for calculating an edge direction feature value, which is a feature value of an edge point for each direction, for a plurality of directions in the target area for a target area set in a predetermined range of the edge image When,
When the degree of variance of the edge direction feature quantity in the plurality of directions in the attention area is below a predetermined level and the edge direction feature quantity has no specific directionality , the attention area is excluded from the recognition target of the object And a noise region excluding step.
かかる本発明の対象物認識方法を、カメラを備えた車両等の実機に適用して実行することにより、上述した本発明の対象物認識装置による場合の作用効果を得ることができる。 By applying the object recognition method of the present invention to an actual machine such as a vehicle equipped with a camera, the operational effects of the object recognition apparatus of the present invention described above can be obtained.
本発明の対象物認識装置の実施形態の一例について、図1〜図3を参照して説明する。 An example of the embodiment of the object recognition apparatus of the present invention will be described with reference to FIGS.
図1を参照して、対象物認識装置10は、カメラ2(カラーカメラ)、スピーカ5、表示器6等を備えた車両1に搭載されている。 Referring to FIG. 1, an object recognition device 10 is mounted on a vehicle 1 that includes a camera 2 (color camera), a speaker 5, a display 6, and the like.
対象物認識装置10は、図示しないCPU、メモリ、各種インターフェース回路等により構成された電子回路ユニットであり、メモリに保持された対象物認識用のプログラムをCPUで実行することにより、撮像画像取得部11、エッジ画像生成部12、注目領域設定部13、エッジ方向特徴量算出部14、ノイズ領域除外部15、及び対象物認識部16として機能する。なお、対象物認識装置10によって、本発明の対象物認識方法が実施される。 The object recognition device 10 is an electronic circuit unit configured by a CPU, a memory, various interface circuits, and the like (not shown), and a captured image acquisition unit is executed by executing a program for object recognition held in the memory by the CPU. 11, the edge image generation unit 12, the attention region setting unit 13, the edge direction feature amount calculation unit 14, the noise region exclusion unit 15, and the object recognition unit 16. Note that the object recognition method of the present invention is implemented by the object recognition apparatus 10.
以下、図2に示したフローチャートに従って、対象物認識装置10による一連の処理について説明する。 Hereinafter, a series of processes performed by the object recognition apparatus 10 will be described with reference to the flowchart shown in FIG.
図2のSTEP1は、撮像画像取得部11による処理である。撮像画像取得部11は、カメラ2から出力される車両1の周囲(前方)の映像信号を入力して、この映像信号のカラー成分(R値,G値,B値)をデモザイキングし、各画素のデータとしてR値,G値,B値を有するカラーの撮像画像21を取得する。そして、この車両1の前方の撮像画像21のデータを画像メモリ20に保持する。 STEP 1 in FIG. 2 is a process performed by the captured image acquisition unit 11. The captured image acquisition unit 11 inputs a video signal around the vehicle 1 output from the camera 2 (front), and demosaices the color components (R value, G value, B value) of the video signal. A color captured image 21 having R value, G value, and B value as pixel data is acquired. Then, data of the captured image 21 in front of the vehicle 1 is held in the image memory 20.
続くSTEP2は、エッジ画像生成部12による処理である。エッジ画像生成部12は、撮像画像21の各画素のカラー成分を輝度に変換する処理を行って、グレースケール画像(多値画像)を生成する。なお、カメラ2がモノクロカメラであるときには、各画素の輝度からグレースケールの撮像画像が得られるので、上述したカラーの撮像画像21からグレースケール画像22を生成する処理は不要である。 The subsequent STEP 2 is processing by the edge image generation unit 12. The edge image generation unit 12 performs a process of converting the color component of each pixel of the captured image 21 into luminance, and generates a grayscale image (multi-valued image). Note that when the camera 2 is a monochrome camera, a grayscale captured image is obtained from the luminance of each pixel, and thus the above-described processing for generating the grayscale image 22 from the color captured image 21 is unnecessary.
また、エッジ画像生成部12は、グレースケール画像22からエッジ点(周囲部の画素(画像部分)との輝度差(輝度の変化量)が所定値以上である画素。輝度が暗から明に変化する正のエッジ点、及び輝度が明から暗に変化する負のエッジ点を含む)を抽出して、エッジ画像23を生成する。 In addition, the edge image generation unit 12 is a pixel in which the luminance difference (luminance change amount) from the edge point (the surrounding pixel (image portion)) is greater than or equal to a predetermined value from the grayscale image 22. The luminance changes from dark to bright. Edge image 23 is generated by extracting a positive edge point and a negative edge point whose luminance changes from light to dark.
なお、エッジ画像生成部12によりエッジ画像23を生成する処理は、本発明のエッジ画像生成工程に相当する。 The process of generating the edge image 23 by the edge image generation unit 12 corresponds to the edge image generation process of the present invention.
次のSTEP3は、注目領域設定部13による処理である。注目領域設定部13は、エッジ画像23に対して、ひとかたまりになっているエッジ点(以下、エッジ部分という)にラベルを付するラべリングと、近接したエッジ部分を同一物体の画像部分であるとして関連付けるクラスタリングを行う。そして、注目領域設定部13は、歩行者(本発明の対象物に相当する)の画像部分である可能性がある画像部分を含む所定範囲を大注目領域に設定し、大注目領域に含まれる複数の小注目領域(本発明の注目領域に相当する)を設定する。 The next STEP 3 is processing by the attention area setting unit 13. The region-of-interest setting unit 13 is a labeling method for labeling edge points (hereinafter referred to as edge portions) as a group with respect to the edge image 23, and adjacent edge portions are image portions of the same object. Perform clustering to associate as Then, the attention area setting unit 13 sets a predetermined range including an image part that may be an image part of a pedestrian (corresponding to the object of the present invention) as the large attention area, and is included in the large attention area. A plurality of small attention areas (corresponding to the attention areas of the present invention) are set.
なお、分散値を評価するための小注目領域については、ランダムノイズサンプルと認識したい対象サンプルとを用いて、統計的に分離度が高いものを選択するとより効果的である。 For the small attention area for evaluating the variance value, it is more effective to use a random noise sample and a target sample to be recognized and select a statistically high degree of separation.
続くSTEP4〜STEP7のループ及びSTEP8,STEP9により、STEP3で設定された各小注目領域に対して、ノイズによる画像部分に対して設定された小注目領域を含む大注目領域を除外する処理が実行される。STEP4〜STEP7はエッジ方向特徴量算出部14による処理であり、STEP8及びSTEP9はノイズ領域除外部15による処理である。 By the subsequent loops of STEP4 to STEP7 and STEP8 and STEP9, the process of excluding the large attention area including the small attention area set for the image part due to noise is executed for each small attention area set in STEP3. The STEP 4 to STEP 7 are processes by the edge direction feature quantity calculation unit 14, and STEP 8 and STEP 9 are processes by the noise region exclusion unit 15.
なお、エッジ方向特徴量算出部14による処理は、本発明のエッジ方向特徴量算出工程に相当する。また、ノイズ領域除外部15による処理は、本発明のノイズ領域除外工程に相当する。 Note that the processing by the edge direction feature quantity calculation unit 14 corresponds to the edge direction feature quantity calculation step of the present invention. Further, the processing by the noise region excluding unit 15 corresponds to the noise region excluding step of the present invention.
ここで、図3を参照して、注目領域の複数方向のエッジ強度について説明する。図3は、大注目領域の例として、歩行者の画像部分51を含む大注目領域50とノイズによる画像部分51を含む大注目領域60を示している。 Here, with reference to FIG. 3, edge strengths in a plurality of directions of the region of interest will be described. FIG. 3 shows, as examples of a region of great attention, a region of great interest 50 including a pedestrian image portion 51 and a region of great interest 60 including an image portion 51 due to noise.
エッジ方向特徴量算出部14は、STEP5で、各小注目領域の各エッジ方向のエッジ点の特徴量(エッジ方向特徴量)を算出する。本実施形態では、図3に示したように、8方向(a,b,c,…,h)のエッジ方向(エッジ点の方向)のエッジ強度をエッジ方向特徴量として算出する。なお、エッジ方向特徴量として、エッジ点の個数を算出してもよい。続くSTEP6で、エッジ方向特徴量算出部14は、各小注目領域のエッジ方向特徴量の分散値を算出する。 In STEP 5, the edge direction feature value calculation unit 14 calculates the feature value (edge direction feature value) of the edge point in each edge direction of each small attention area. In the present embodiment, as shown in FIG. 3, the edge strength in the edge direction (edge point direction) in eight directions (a, b, c,..., H) is calculated as the edge direction feature amount. Note that the number of edge points may be calculated as the edge direction feature amount. In subsequent STEP 6, the edge direction feature value calculation unit 14 calculates the variance value of the edge direction feature value of each small attention area.
大注目領域50の小注目領域52からは歩行者の肩のラインに相当するbの方向にエッジ点が多く抽出されるため、bのエッジ強度のみが大きくなっている。それに対して、大注目領域60の小注目領域62では、特定方向に多いエッジ点は抽出されず、エッジ点の方向が分散している。そのため、8方向のエッジ強度の分散度合が小さい小注目領域は、ノイズの画像部分について設定された小注目領域であると判断することができる。 Since many edge points are extracted from the small attention area 52 of the large attention area 50 in the direction b corresponding to the shoulder line of the pedestrian, only the edge strength of b is increased. On the other hand, in the small attention area 62 of the large attention area 60, many edge points are not extracted in the specific direction, and the directions of the edge points are dispersed. Therefore, it is possible to determine that the small attention area having a small degree of dispersion of the edge strengths in the eight directions is the small attention area set for the noise image portion.
そこで、ノイズ領域除外部15は、次のSTEP8で、各小注目領域の分散値の合計値若しくは平均値(本発明の複数方向のエッジ方向特徴量の分散度合に相当する)が、分散閾値Edf_th(本発明の所定レベルに相当する)以下であるか否かを判断する。 Therefore, in the next STEP 8, the noise region excluding unit 15 determines that the total value or the average value (corresponding to the degree of dispersion of the edge direction feature values in a plurality of directions of the present invention) of each small attention area is the dispersion threshold value Edf_th. It is determined whether or not (corresponding to a predetermined level of the present invention) or less.
そして、エッジ方向特徴量の分散度合が分散閾値Edf_th以下であるときにはSTEP9に分岐し、ノイズ領域除外部15は、大注目領域を認識対象から除外して処理を終了する。一方、エッジ方向特徴量の分散度合が分散閾値Edf_thよりも大きいときには、ノイズ領域除外部15は、大注目領域を認識対象から除外せずに処理を終了する。 When the degree of dispersion of the edge direction feature amount is equal to or less than the dispersion threshold Edf_th, the process branches to STEP 9, and the noise region exclusion unit 15 excludes the region of great interest from the recognition target and ends the process. On the other hand, when the degree of variance of the edge direction feature amount is larger than the variance threshold value Edf_th, the noise region excluding unit 15 ends the process without excluding the region of great interest from the recognition target.
なお、8方向のエッジ強度の差に代えて、8方向のエッジ強度の最大値と最小値との差等の他の算出値を、エッジ強度の分散度合として用いてもよい。 Instead of the difference in edge strength in the eight directions, other calculated values such as the difference between the maximum value and the minimum value in the edge strength in the eight directions may be used as the degree of dispersion of the edge strength.
対象物認識部16は、STEP4〜STEP9の処理により、歩行者の認識を行うための対象から除外されなかった小領域に対して、特徴量抽出等の処理を行って、歩行者を認識する。対象物認識部16は、車両1の前方に設定された監視領域内に存在する歩行者を認識したときに、スピーカ5からの警報音の出力、表示器6への警報表示等を行って、運転者に注意を促す。 The object recognition unit 16 recognizes the pedestrian by performing a process such as feature amount extraction on the small area that is not excluded from the object for performing the pedestrian recognition by the processes of STEP4 to STEP9. When the object recognition unit 16 recognizes a pedestrian existing in the monitoring area set in front of the vehicle 1, the object recognition unit 16 outputs an alarm sound from the speaker 5, displays an alarm on the display 6, and the like. Call attention to the driver.
なお、本実施形態では、歩行者を対象物とする例を示したが、車両、野生動物等を対象物とする場合にも、同様にして本発明を適用することができる。 In the present embodiment, an example in which a pedestrian is an object has been described. However, the present invention can be similarly applied to a case in which a vehicle, a wild animal, or the like is an object.
1…車両、11…撮像画像取得部、12…エッジ画像生成部、13…注目領域設定部、14…エッジ方向特徴量算出部、15…ノイズ領域除外部、16…対象物認識部、20…画像メモリ、21…撮像画像、22…グレースケール画像、23…エッジ画像。 DESCRIPTION OF SYMBOLS 1 ... Vehicle, 11 ... Captured image acquisition part, 12 ... Edge image generation part, 13 ... Attention area setting part, 14 ... Edge direction feature-value calculation part, 15 ... Noise area exclusion part, 16 ... Object recognition part, 20 ... Image memory, 21 ... captured image, 22 ... grayscale image, 23 ... edge image.
Claims (3)
前記撮像画像から、周囲との輝度差が所定輝度以上であるエッジ点を抽出したエッジ画像を生成するエッジ画像生成部と、
前記エッジ画像の所定範囲に設定された注目領域に対して、該注目領域内の複数の方向について、各方向毎のエッジ点の特徴量であるエッジ方向特徴量を算出するエッジ方向特徴量算出部と、
前記注目領域における前記複数の方向のエッジ方向特徴量の分散度合が所定レベル以下となり前記エッジ方向特徴量が特定の方向性を有さないときに、前記注目領域を前記対象物の認識対象から除外するノイズ領域除外部と
を備えたことを特徴とする対象物認識装置。 An object recognition device for recognizing an object based on an image captured by a camera mounted on a vehicle ,
An edge image generation unit that generates an edge image obtained by extracting an edge point whose brightness difference from the surroundings is greater than or equal to a predetermined brightness from the captured image;
An edge direction feature value calculation unit that calculates an edge direction feature value that is a feature value of an edge point for each direction for a plurality of directions in the focus area for a focus area set in a predetermined range of the edge image When,
When the degree of variance of the edge direction feature quantity in the plurality of directions in the attention area is below a predetermined level and the edge direction feature quantity has no specific directionality , the attention area is excluded from the recognition target of the object An object recognition apparatus comprising: a noise area exclusion unit that performs the following.
前記ノイズ領域除外部は、前記注目領域内の前記複数の方向のエッジ方向特徴量の差が、所定値以下であるときに、前記複数方向のエッジ方向特徴量の分散度合が前記所定レベル以下であると判断することを特徴とする対象物認識装置。 The object recognition apparatus according to claim 1,
The noise region excluding unit has a degree of variance of the edge direction feature value in the plurality of directions equal to or less than the predetermined level when a difference between the edge direction feature values in the plurality of directions in the attention region is a predetermined value or less. An object recognition apparatus characterized by determining that there is an object.
前記撮像画像から、周囲との輝度差が所定レベル以上であるエッジ点を抽出したエッジ画像を生成するエッジ画像生成工程と、
前記エッジ画像の所定範囲に設定された注目領域に対して、該注目領域内の複数の方向について、各方向毎のエッジ点の特徴量であるエッジ方向特徴量を算出するエッジ方向特徴量算出工程と、
前記注目領域における前記複数の方向のエッジ方向特徴量の分散度合が所定レベル以下となり前記エッジ方向特徴量が特定の方向性を有さないときに、前記注目領域を前記対象物の認識対象から除外するノイズ領域除外工程とを含むことを特徴とする対象物認識方法。 An object recognition method for recognizing an object based on an image captured by a camera mounted on a vehicle ,
An edge image generation step of generating an edge image obtained by extracting an edge point having a luminance difference of a predetermined level or more from the captured image;
An edge direction feature value calculating step for calculating an edge direction feature value, which is a feature value of an edge point for each direction, for a plurality of directions in the target area for a target area set in a predetermined range of the edge image When,
When the degree of variance of the edge direction feature quantity in the plurality of directions in the attention area is below a predetermined level and the edge direction feature quantity has no specific directionality , the attention area is excluded from the recognition target of the object The object recognition method characterized by including the noise area | region exclusion process to perform.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014134417A JP6236363B2 (en) | 2014-06-30 | 2014-06-30 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014134417A JP6236363B2 (en) | 2014-06-30 | 2014-06-30 | Object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016012284A JP2016012284A (en) | 2016-01-21 |
JP6236363B2 true JP6236363B2 (en) | 2017-11-22 |
Family
ID=55228953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014134417A Expired - Fee Related JP6236363B2 (en) | 2014-06-30 | 2014-06-30 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6236363B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6508134B2 (en) * | 2016-06-14 | 2019-05-08 | トヨタ自動車株式会社 | Object discrimination device |
JP7252750B2 (en) * | 2018-12-14 | 2023-04-05 | 株式会社デンソーテン | Image processing device and image processing method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011248525A (en) * | 2010-05-25 | 2011-12-08 | Kyushu Institute Of Technology | Object detection device and detection method thereof |
-
2014
- 2014-06-30 JP JP2014134417A patent/JP6236363B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016012284A (en) | 2016-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10943141B2 (en) | Object detection device and object detection method | |
JP5760090B2 (en) | Biological recognition device | |
CN105933589A (en) | Image processing method and terminal | |
KR102474837B1 (en) | Foreground area extracting method and apparatus | |
JP6333975B2 (en) | Vehicle periphery monitoring device | |
JP6432296B2 (en) | Device and method for detecting zebra crossings in images | |
JP2015204023A (en) | Subject detection device, subject detection method, and program | |
JP6236363B2 (en) | Object recognition device | |
KR101689863B1 (en) | Part-based flame detection device and method | |
JP6431299B2 (en) | Vehicle periphery monitoring device | |
US9064158B2 (en) | Vehicle surroundings monitoring device | |
JP4887540B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP6593791B2 (en) | Flame detection apparatus and flame detection method | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP6275022B2 (en) | Image monitoring device | |
JP5776769B2 (en) | Object approach detection device, object approach detection method, and program | |
JP5642785B2 (en) | Vehicle periphery monitoring device | |
JP6408414B2 (en) | Moving body detection apparatus and background model construction method thereof | |
JP6173962B2 (en) | Lane mark recognition device | |
JP2011170499A (en) | Periphery monitoring device of vehicle | |
KR102174000B1 (en) | System for Recognizing Information Plate for vehicle and Method thereof | |
JP6516609B2 (en) | Moving object detection apparatus and background model construction method | |
JP2015219693A (en) | Image detection device and program | |
JP6482892B2 (en) | Monitoring system | |
KR101067516B1 (en) | Fast shadow removal Method using Normalized Cross CorrelationNCC and Integral Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6236363 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |