JP2010079716A - Pedestrian detection device for vehicle - Google Patents
Pedestrian detection device for vehicle Download PDFInfo
- Publication number
- JP2010079716A JP2010079716A JP2008248938A JP2008248938A JP2010079716A JP 2010079716 A JP2010079716 A JP 2010079716A JP 2008248938 A JP2008248938 A JP 2008248938A JP 2008248938 A JP2008248938 A JP 2008248938A JP 2010079716 A JP2010079716 A JP 2010079716A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- vehicle
- guardrail
- search area
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、車両の歩行者検出装置に関し、特に、自車両と歩行者との間の遮蔽物を検出する歩行者検出制御に関するものである。 The present invention relates to a pedestrian detection device for a vehicle, and more particularly to pedestrian detection control for detecting a shield between a host vehicle and a pedestrian.
従来、自車両の周囲に存在する車両や歩行者等の障害物を検出するため、例えばCCDカメラやCMOSカメラ等の撮像手段を備え、この撮像画像を処理して車両の運転や走行に用いる情報を得る技術が知られている。 Conventionally, in order to detect an obstacle such as a vehicle or a pedestrian existing around the host vehicle, for example, an imaging unit such as a CCD camera or a CMOS camera is provided, and the captured image is processed to be used for driving and running the vehicle. Techniques for obtaining are known.
特許文献1は、車両に搭載される撮像手段によって撮像された車両周囲の画像が白線特徴抽出手段に入力され、道路の白線及び白線に平行なガードレールの輪郭点が求められ、この輪郭点が多項式として検出される。また、撮像された画像は間欠画像取得手段に入力後圧縮され、白線特徴抽出手段の特徴データと間欠画像取得手段の画像データとを時間順に保存する技術が提案されている。 In Patent Document 1, an image around a vehicle imaged by an imaging unit mounted on a vehicle is input to a white line feature extraction unit, and a contour point of a guardrail parallel to the white line and the white line of a road is obtained. Detected as Further, a technique has been proposed in which a captured image is compressed after being input to an intermittent image acquisition unit, and feature data of a white line feature extraction unit and image data of the intermittent image acquisition unit are stored in time order.
特許文献1では、ガードレールの輪郭点を多項式として検出するため、正確な道路状況を小容量で記録できると共に、背景が変化する場合であっても、移動物体の特徴情報を画像上から抽出することが可能となる。 In Patent Document 1, since the contour point of the guardrail is detected as a polynomial, accurate road conditions can be recorded with a small capacity, and feature information of a moving object can be extracted from an image even when the background changes. Is possible.
また、特許文献2は、カメラで撮像した自車両周囲の画像データのうち、人の頭部から肩部及び肩部から腕部に相当する領域を規定し、この領域にある被撮像物を歩行者であると認識する技術が提案されている。特許文献2では、対象物の画像から歩行者の特徴が顕著に現れる頭から肩に相当する領域を検出することで、歩行者の検出精度を向上することができる。 Patent Document 2 defines areas corresponding to a person's head-to-shoulder and shoulder-to-arm part from the image data around the host vehicle captured by the camera, and walks the object to be imaged in this area. A technique for recognizing a person as a person is proposed. In patent document 2, the detection precision of a pedestrian can be improved by detecting the area | region equivalent to the shoulder from the head where the feature of a pedestrian appears notably from the image of a target object.
従来の歩行者認識は、特許文献2のように、頭部、肩部等体の特徴検出領域を設定し、夫々の領域で検出された特徴部と歩行者認識用の特徴部との一致度合で判定しているのに対し、背景としてのガードレール等の静止物体は標準のテンプレートを用いるか、或いは、特許文献1のように、別の判別式を用いて判定している。つまり、歩行者認識とガードレール等の静止物体とを個別に分けて物体認識を行うため、制御上、処理が複雑となる。 Conventional pedestrian recognition, as in Patent Document 2, sets feature detection regions of the body such as the head and shoulders, and the degree of coincidence between the feature detected in each region and the feature for pedestrian recognition On the other hand, a stationary object such as a guardrail as a background is determined by using a standard template or by using another discriminant as in Patent Document 1. That is, since the pedestrian recognition and the stationary object such as the guard rail are separately performed for object recognition, the processing is complicated in terms of control.
特に、車両の歩行者認識では、歩行者がガードレール等の遮蔽物の前方に存在するか否かによって、その歩行者に対する注視度合が全く違うものとなる。例えば、自車両前方に歩行者が存在する場合、自車両と歩行者との間にガードレールがあれば、乗員に対する注視度合が低くなるが、遮蔽物がなければ、乗員に対する充分な注視が必要である。 In particular, in pedestrian recognition of a vehicle, the degree of gazing at the pedestrian is completely different depending on whether the pedestrian is present in front of a shield such as a guardrail. For example, when there is a pedestrian in front of the host vehicle, if there is a guardrail between the host vehicle and the pedestrian, the degree of gazing at the occupant will be low, but if there is no shield, sufficient gazing at the occupant is necessary. is there.
つまり、歩行者認識を行うには歩行者と背景の静止物体との識別認識が必須であり、更に、車両に搭載して用いるためには、歩行者と自車両との間の遮蔽物を加味した歩行者判定を、短時間で行う必要がある。 In other words, it is essential to identify and recognize a pedestrian and a stationary object in the background in order to perform pedestrian recognition. It is necessary to perform the pedestrian determination in a short time.
本発明の目的は、撮像手段による歩行者検出と自車両と歩行者との間にある遮蔽物の検出とを制御上の処理負担を大きくすることなく且つ検出精度の高い歩行者検出装置を提供することである。 An object of the present invention is to provide a pedestrian detection device with high detection accuracy without increasing the processing burden on control of detection of a pedestrian by an imaging means and detection of a shielding object between the host vehicle and the pedestrian. It is to be.
本発明の車両の歩行者検出装置は、車両に搭載された複数の撮像手段と、この撮像手段によって撮像された撮像画像を画像処理する画像処理手段とを有し、この画像処理された撮像データに基づき歩行者を検出するものである。 The vehicle pedestrian detection device according to the present invention includes a plurality of imaging units mounted on the vehicle, and an image processing unit that performs image processing on a captured image captured by the imaging unit. The pedestrian is detected based on the above.
請求項1の発明は、第1の撮像手段による撮像画像から得られた撮像データに基づき歩行者を検出する歩行者検出手段と、この歩行者検出手段によって検出された前記歩行者の撮像データにおける歩行者を特徴付ける特徴点を探索する領域を設定する探索領域設定手段と、第2の撮像手段による撮像画像から得られた前記歩行者の撮像データにおける歩行者を特徴付ける特徴点であって、前記探索領域内における前記歩行者の撮像データの特徴点と一致する特徴点を前記探索領域内における対応点として検出する対応点検出手段と、前記対応点検出手段により検出された対応点に基づいて、自車両と前記歩行者との間の遮蔽物を判定する遮蔽物判定手段を有することを特徴とする。 According to the first aspect of the present invention, there is provided a pedestrian detection unit that detects a pedestrian based on imaging data obtained from an image captured by the first imaging unit, and imaging data of the pedestrian detected by the pedestrian detection unit. Search area setting means for setting an area for searching for a feature point characterizing a pedestrian, and a feature point characterizing a pedestrian in the pedestrian image data obtained from an image captured by a second imaging means, Based on the corresponding points detected by the corresponding point detecting means, the corresponding point detecting means for detecting the characteristic points matching the characteristic points of the pedestrian's imaging data in the area as the corresponding points in the search area. It has the shielding object determination means which determines the shielding object between a vehicle and the said pedestrian.
請求項1の発明では、歩行者を検出する対応点に基づいて、自車両と前記歩行者との間にある遮蔽物を判定するため、遮蔽物を判定する専用の特徴点を別途抽出する必要がなく、また、遮蔽物単独の距離検出が不要となる。 In the first aspect of the invention, in order to determine the shielding object between the host vehicle and the pedestrian based on the corresponding points for detecting the pedestrian, it is necessary to separately extract a special feature point for determining the shielding object. There is no need to detect the distance of the shield alone.
請求項2の発明は、請求項1の発明において、前記歩行者検出手段は、検出された歩行者の撮像データを、頭部領域と胴部領域と脚部領域とに区分し、夫々の区分領域のパターンマッチングによって検出することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the invention, the pedestrian detection means divides the detected pedestrian imaging data into a head region, a torso region, and a leg region. Detection is performed by pattern matching of regions.
請求項3の発明は、請求項1又は2の発明において、前記探索領域設定手段は、検出された歩行者の撮像データに基づき設定された、所定高さより上方の第1領域と所定高さより下方の第2領域との夫々の一部に第1,第2の探索領域を設定することを特徴とする。 According to a third aspect of the present invention, in the first or second aspect of the invention, the search area setting means is set based on the detected pedestrian imaging data, and the first area above a predetermined height and below the predetermined height. The first and second search areas are set in a part of each of the second areas.
請求項4の発明は、請求項3の発明において、前記遮蔽物判定手段は、前記第1及び第2の探索領域における対応点検出数の相対比較によって自車両と前記歩行者間の遮蔽物を判定することを特徴とする。 According to a fourth aspect of the present invention, in the third aspect of the present invention, the shielding object determining means detects a shielding object between the host vehicle and the pedestrian by relative comparison of the number of corresponding points detected in the first and second search areas. It is characterized by determining.
請求項5の発明は、請求項3の発明において、前記遮蔽物判定手段は、前記第1,第2の探索領域における対応点の距離の相対比較によって自車両と前記歩行者間の遮蔽物を判定することを特徴とする。 According to a fifth aspect of the present invention, in the third aspect of the present invention, the shielding object judging means detects the shielding object between the host vehicle and the pedestrian by comparing the distances of corresponding points in the first and second search areas. It is characterized by determining.
請求項6の発明は、請求項1又は2の発明において、前記探索領域設定手段は、ガードレールの設置高さに対応して前記探索領域を設定すると共に、前記遮蔽物判定手段は、前記対応点検出数が所定値以下のとき、自車両と前記歩行者間の遮蔽物をガードレールと判定することを特徴とする。 According to a sixth aspect of the present invention, in the first or second aspect of the invention, the search area setting means sets the search area corresponding to an installation height of a guardrail, and the shielding object determining means is the correspondence inspection. When the number of departures is less than or equal to a predetermined value, the shield between the host vehicle and the pedestrian is determined as a guardrail.
請求項7の発明は、請求項6の発明において、前記遮蔽物判定手段は、ガードレールの設置高さより高い探索領域とガードレールを含む探索領域における対応点検出数の相対比較によって自車両と前記歩行者間のガードレールを判定することを特徴とする。 According to a seventh aspect of the present invention, in the sixth aspect of the present invention, the shielding object judging means is configured to compare the own vehicle and the pedestrian by relative comparison of the detected number of corresponding points in the search area higher than the guardrail installation height and the search area including the guardrail. It is characterized by determining a guardrail between.
請求項8の発明は、請求項1又は2の発明において、前記歩行者検出手段が、自車両前方に歩行者を検出した場合、継続して前記歩行者を撮像することを特徴とする。 The invention of claim 8 is characterized in that, in the invention of claim 1 or 2, when the pedestrian detection means detects a pedestrian in front of the host vehicle, the pedestrian is continuously imaged.
請求項9の発明は、請求項8の発明において、前記遮蔽物判定手段は、所定時点の対応点検出率と所定時点から所定時間経過後の対応点検出率の相対比較によって自車両と前記歩行者間の遮閉物を判定することを特徴とする。 According to a ninth aspect of the present invention, in the eighth aspect of the invention, the shielding object judging unit is configured to compare the vehicle and the walking with a relative comparison between a corresponding point detection rate at a predetermined time and a corresponding point detection rate after a predetermined time has elapsed from the predetermined time. It is characterized by determining a blocking object between persons.
請求項1の発明によれば、撮像手段による歩行者検出と自車両と歩行者との間にある遮蔽物検出とが制御上の処理負担を大きくすることなく実行できると共に、高い検出精度を得ることができる。つまり、歩行者検出用の特徴点を遮蔽物判定の特徴点として兼用するため、遮蔽物判定のための処理時間が短縮できる。しかも、歩行者位置の検出のための第1,第2撮像手段で検出した対応点を用いて、歩行者と遮蔽物との相対位置を検出するため、遮蔽物単独の距離検出を行うことなく、自車両と歩行者との間の遮蔽物の有無を判定できる。 According to the first aspect of the present invention, detection of a pedestrian by an imaging unit and detection of a shielding object between the host vehicle and the pedestrian can be executed without increasing the control processing load, and high detection accuracy is obtained. be able to. That is, since the feature point for detecting the pedestrian is also used as the feature point for the obstacle determination, the processing time for the obstacle determination can be shortened. Moreover, since the relative position between the pedestrian and the shielding object is detected using the corresponding points detected by the first and second imaging means for detecting the pedestrian position, the distance of the shielding object alone is not detected. The presence or absence of an obstacle between the host vehicle and the pedestrian can be determined.
請求項2の発明によれば、検出された歩行者の撮像データを、頭部領域と胴部領域と脚部領域とに区分し、夫々の区分領域のパターンマッチングによって歩行者を検出するため、高精度で且つ容易に歩行者を検出できる。 According to the invention of claim 2, in order to categorize the detected pedestrian imaging data into a head region, a torso region, and a leg region, and to detect a pedestrian by pattern matching of each segmented region, Pedestrians can be detected with high accuracy and ease.
請求項3の発明によれば、検出された歩行者の撮像データに基づき設定された、所定高さより上方の第1領域と所定高さより下方の第2領域との夫々の一部に第1,第2の探索領域を設定するため、制御上の処理負担と蓄積するデータ量を低減することができる。 According to the third aspect of the present invention, the first and second portions of the first region above the predetermined height and the second region below the predetermined height set based on the detected pedestrian image data are first, Since the second search area is set, the control processing load and the amount of data to be accumulated can be reduced.
請求項4の発明によれば、第1及び第2の探索領域における対応点検出数の相対比較によって自車両と前記歩行者間の遮蔽物を判定するため、制御上の処理負担と蓄積するデータ量を低減しつつ、歩行者と遮蔽物との相対位置関係を検出できる。 According to invention of Claim 4, in order to determine the obstruction | occlusion between the own vehicle and the said pedestrian by the relative comparison of the corresponding point detection number in the 1st and 2nd search area | region, the processing load on control and the data to accumulate | store The relative positional relationship between the pedestrian and the shielding object can be detected while reducing the amount.
請求項5の発明によれば、第1,第2の探索領域における対応点の距離の相対比較によって自車両と前記歩行者間の遮蔽物を判定するため、制御上の処理負担と蓄積するデータ量を低減しつつ、歩行者と遮蔽物との相対位置を精度良く検出できる。 According to the fifth aspect of the present invention, the control processing burden and the accumulated data are determined in order to determine the shielding object between the own vehicle and the pedestrian by the relative comparison of the distance between the corresponding points in the first and second search areas. The relative position between the pedestrian and the shielding object can be accurately detected while reducing the amount.
請求項6の発明によれば、ガードレールの設置高さに対応して前記探索領域を設定すると共に、前記遮蔽物判定手段は、前記対応点検出数が所定値以下のとき、自車両と前記歩行者間の遮蔽物をガードレールと判定するため、パターンマッチングが難しいガードレールであっても、制御上の処理負担と蓄積するデータ量を低減しつつ、歩行者とガードレールとの相対位置関係を検出できる。 According to invention of Claim 6, while setting said search area | region according to the installation height of a guardrail, the said obstruction determination means is the said vehicle and the said walk, when the said corresponding point detection number is below a predetermined value. Since the obstacle between the pedestrians is determined to be a guard rail, the relative positional relationship between the pedestrian and the guard rail can be detected while reducing the control processing load and the amount of data to be accumulated even if the guard rail is difficult to pattern match.
請求項7の発明によれば、ガードレールの設置高さより高い探索領域とガードレールを含む探索領域における対応点検出数の相対比較によって自車両と前記歩行者間のガードレールを判定するため、歩行者とガードレールとの相対位置関係を精度良く検出できる。 According to the invention of claim 7, since the guard rail between the host vehicle and the pedestrian is determined by relative comparison of the number of corresponding points detected in the search area higher than the guard rail installation height and the search area including the guard rail, Can be detected with high accuracy.
請求項8の発明によれば、自車両前方に歩行者を検出した場合、継続して前記歩行者を撮像するため、自車両と歩行者との間の遮蔽物の有無を精度良く判定できる。 According to invention of Claim 8, when a pedestrian is detected ahead of the own vehicle, since the said pedestrian is imaged continuously, the presence or absence of the obstruction | occlusion between the own vehicle and a pedestrian can be determined accurately.
請求項9の発明によれば、所定時点の対応点検出率と所定時点から所定時間経過後の対応点検出率の相対比較によって自車両と前記歩行者間の遮蔽物を判定するため、遮蔽物の連続性を判定でき、更に、遮蔽物を精度良く判定できる。 According to the ninth aspect of the present invention, the shield between the host vehicle and the pedestrian is determined by a relative comparison between the corresponding point detection rate at a predetermined time and the corresponding point detection rate after a predetermined time has elapsed from the predetermined time. Can be determined, and the shielding object can be determined with high accuracy.
以下、図面に基づき本発明を実施するための最良の形態を説明する。
本発明の車両の歩行者検出装置は、車両に搭載された複数の撮像手段と、この撮像手段によって撮像された撮像画像を画像処理する画像処理手段とを有し、この画像処理された撮像データに基づき歩行者を検出するものである。
Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.
The vehicle pedestrian detection device according to the present invention includes a plurality of imaging units mounted on the vehicle, and an image processing unit that performs image processing on a captured image captured by the imaging unit. The pedestrian is detected based on the above.
図1〜図4に基づいて実施例1を説明する。図1は、本実施形態に係る歩行者検出装置1の各構成要素のレイアウト図である。図1に示すように、歩行者検出装置1は、自車両V周囲の前方空間を撮像する第1撮像手段としての第1CCDカメラ2と、自車両V周囲の前方空間を撮像する第2撮像手段としての第2CCDカメラ3とを装備している。 A first embodiment will be described with reference to FIGS. FIG. 1 is a layout diagram of each component of the pedestrian detection device 1 according to the present embodiment. As shown in FIG. 1, the pedestrian detection device 1 includes a first CCD camera 2 as a first imaging unit that images a front space around the host vehicle V, and a second imaging unit that images a front space around the host vehicle V. As a second CCD camera 3.
第1CCDカメラ2は車室前部のルームミラー右側に配置され、第2CCDカメラ3は車室前部のルームミラー左側に配置されている。これらCCDカメラ2,3は、自車両V周囲を撮像し、接触を避けるべき歩行者等の障害物を抽出・特定するものである。尚、第1,第2撮像手段は、CMOSカメラ等画像センサであればよく、CCDカメラに限られるものではない。 The first CCD camera 2 is arranged on the right side of the room mirror in the front part of the vehicle compartment, and the second CCD camera 3 is arranged on the left side of the room mirror in the front part of the vehicle compartment. These CCD cameras 2 and 3 image the surroundings of the host vehicle V, and extract and specify obstacles such as pedestrians that should avoid contact. The first and second imaging means may be image sensors such as CMOS cameras, and are not limited to CCD cameras.
歩行者検出装置1は、運転席前方のインスツルメントパネルに配置される警報装置4を有している。この警報装置4は、CCDカメラ2,3で検出された自車両V周囲の歩行者等の障害物を表示・報知すると共に、この障害物との接触を回避するように乗員に視覚や聴覚による警報を発する。具体的には、スピーカ、ランプ、ブザー、ディスプレイ等の装備が警報装置4に相当する。 The pedestrian detection device 1 has an alarm device 4 arranged on an instrument panel in front of the driver's seat. This alarm device 4 displays and alerts obstacles such as pedestrians around the host vehicle V detected by the CCD cameras 2 and 3 and visually or audibly informs the occupant to avoid contact with the obstacles. Raise an alarm. Specifically, equipment such as a speaker, a lamp, a buzzer, and a display corresponds to the alarm device 4.
図2は、この歩行者検出装置1のコントロールユニット5を中心とした制御システム図を示す。コントロールユニット5は、画像処理部6(画像処理手段)、歩行者検出部7(歩行者検出手段)、歩行者検出用マッチングデータベース8、歩行者領域設定部9、中間領域設定部10、探索領域設定部11(探索領域設定手段)、対応点検出部12(対応点検出手段)、遮蔽物判定部13(遮蔽物判定手段)から構成する。 FIG. 2 shows a control system diagram centering on the control unit 5 of the pedestrian detection apparatus 1. The control unit 5 includes an image processing unit 6 (image processing unit), a pedestrian detection unit 7 (pedestrian detection unit), a pedestrian detection matching database 8, a pedestrian region setting unit 9, an intermediate region setting unit 10, and a search region. The setting unit 11 (search area setting unit), the corresponding point detection unit 12 (corresponding point detection unit), and the shielding object determination unit 13 (shielding object determination unit).
画像処理部6は、CCDカメラ2,3からの撮像画像信号に基づき画像処理を行い、撮像対象の輪郭形状や特徴部分等形状に関する画像データを抽出する。CCDカメラ2,3によって撮像された画像データは、画像処理後、夫々のカメラに対応して設けられた第1保存部6aと第2保存部6bとに保存される。 The image processing unit 6 performs image processing based on the captured image signals from the CCD cameras 2 and 3 and extracts image data related to the contour shape, the feature portion, and the like of the imaging target. Image data picked up by the CCD cameras 2 and 3 is stored in a first storage unit 6a and a second storage unit 6b provided for each camera after image processing.
歩行者検出部7は、第1保存部6aから得られる第1CCDカメラ2の画像データと歩行者検出用マッチングデータベース8に格納される歩行者検出データとを照合して、撮像対象が歩行者か否か判定を行う。具体的には、画像データを歩行者の頭部位置に相当する頭部領域と胴部位置に相当する胴部領域と脚部位置に相当する脚部領域とに区分したテンプレートデータを用いて、夫々の区分領域のパターンマッチングを頭部から順に行い、一致率が所定値以上の場合、撮像対象が歩行者であると認識する。また、歩行者検出部7が、歩行者認識した場合、この歩行者の撮像画像は、歩行者が前方の撮像領域から外れるまで継続して画像処理され、以降の判断が行われるよう構成されている。 The pedestrian detection unit 7 compares the image data of the first CCD camera 2 obtained from the first storage unit 6a with the pedestrian detection data stored in the pedestrian detection matching database 8 to determine whether the imaging target is a pedestrian. Determine whether or not. Specifically, using template data that divides the image data into a head region corresponding to the pedestrian's head position, a torso region corresponding to the torso position, and a leg region corresponding to the leg position, Pattern matching of each divided area is performed in order from the head, and when the matching rate is a predetermined value or more, it is recognized that the imaging target is a pedestrian. In addition, when the pedestrian detection unit 7 recognizes a pedestrian, the captured image of the pedestrian is continuously processed until the pedestrian deviates from the front imaging area, and the subsequent determination is performed. Yes.
歩行者検出用マッチングデータベース8は、歩行者の頭部領域と胴部領域と脚部領域とに区分したパターンマッチング用のテンプレートデータを有している。データベース8内には、年齢別、性別毎に頭部特徴を有した頭部テンプレートデータと、夫々の頭部テンプレートデータに対する関連度合が設定された胴部テンプレートデータと、夫々の胴部テンプレートデータに対する関連度合が設定された脚部テンプレートデータとが3段階の階層データとして蓄積されている。所定の頭部テンプレートデータが選定されると、関連度合の高い順に個々の胴部テンプレートデータが選定、照合されるよう構成されている。脚部テンプレートデータも同様にして選定され、歩行者検出が行われる。 The pedestrian detection matching database 8 includes template data for pattern matching divided into a pedestrian's head region, torso region, and leg region. The database 8 includes head template data having head characteristics for each age and gender, torso template data in which a degree of association with each head template data is set, and to each torso template data. Leg template data to which the degree of association is set is stored as three levels of hierarchical data. When predetermined head template data is selected, individual trunk template data is selected and collated in descending order of the degree of association. Leg template data is similarly selected and pedestrian detection is performed.
図3a及び図3bに示すように、歩行者領域設定部9は、画像データ上で歩行者検出部7によって検出された歩行者の頭部領域と胴部領域と脚部領域とを含む略長方形状の歩行者領域Xを設定する。 As shown in FIGS. 3a and 3b, the pedestrian region setting unit 9 is a substantially rectangular shape including a pedestrian's head region, torso region, and leg region detected by the pedestrian detection unit 7 on the image data. A pedestrian area X having a shape is set.
中間領域設定部10は、歩行者領域設定部9によって設定された歩行者領域Xを上半身に相当する第1領域Aと下半身に相当する第2領域Bとに区分する。本実施例では、第1領域Aと第2領域Bとの境界をガードレールGの上端近傍位置、例えば路面から1mの高さに設定しており、ガードレールGが存在する場合、第2領域Bの略半分程度の領域をガードレールGが占めるように設定されている。 The middle region setting unit 10 divides the pedestrian region X set by the pedestrian region setting unit 9 into a first region A corresponding to the upper body and a second region B corresponding to the lower body. In the present embodiment, the boundary between the first area A and the second area B is set at a position near the upper end of the guard rail G, for example, a height of 1 m from the road surface, and when the guard rail G is present, It is set so that the guardrail G occupies approximately half of the area.
探索領域設定部11は、第1領域Aに所定面積の第1探索領域aと第2領域Bに第1探索領域aと同面積の第2探索領域bとを設定する。第1探索領域aは歩行者の首から下の胸部領域、第2探索領域bは、ガードレールGが存在する場合、ガードレールGの側面に当たる正面領域が対応するように構成されている。 The search area setting unit 11 sets a first search area a having a predetermined area in the first area A and a second search area b having the same area as the first search area a in the second area B. The first search area a is configured to correspond to the chest area below the pedestrian's neck, and the second search area b corresponds to the front area corresponding to the side surface of the guardrail G when the guardrail G is present.
対応点検出部12は、第1CCDカメラ2による撮像画像から得られた、第1,第2探索領域a,b内の特徴点と、第2CCDカメラ3による撮像画像から得られた特徴点であって、前記探索領域内における第1CCDカメラ2の特徴点と一致する特徴点を第1,第2探索領域a,b内における対応点として検出する。 The corresponding point detection unit 12 is a feature point in the first and second search areas a and b obtained from the image taken by the first CCD camera 2 and a feature point obtained from the image taken by the second CCD camera 3. Thus, feature points that coincide with the feature points of the first CCD camera 2 in the search area are detected as corresponding points in the first and second search areas a and b.
図4に基づいて、対応点検出部12における処理を説明する。尚、上段左図は第1CCDカメラ2で撮像した第1探索領域a(aR)、上段右図は第2CCDカメラ3で撮像した第1探索領域a(aL)、下左図は第1CCDカメラ2で撮像した第2探索領域b(bR)、下段右図は第2CCDカメラ3で撮像した第2探索領域b(bL)を示す。
上半身に相当する第1探索領域aでは、第1CCDカメラ2で撮像された歩行者における歩行者を特徴付ける特徴点Pa、例えば服の皺等が認識される。尚、TaRは第1CCDカメラ2が一回に画像処理可能な領域、例えば4ビットの画像処理領域である。
Based on FIG. 4, the process in the corresponding point detection part 12 is demonstrated. The upper left figure is the first search area a (aR) imaged by the first CCD camera 2, the upper right figure is the first search area a (aL) imaged by the second CCD camera 3, and the lower left figure is the first CCD camera 2. The second search area b (bR) imaged in FIG. 4B, and the lower right figure shows the second search area b (bL) imaged by the second CCD camera 3.
In the first search area a corresponding to the upper body, a feature point Pa that characterizes a pedestrian among pedestrians captured by the first CCD camera 2, for example, a heel of clothes is recognized. Note that TaR is an area where the first CCD camera 2 can process an image at a time, for example, a 4-bit image processing area.
上段右図に示すように、第2CCDカメラ3は、処理領域TaLを走査していき、特徴点Paを捕捉するまで移動し、捕捉した時点で対応点(特徴点)Paを検出する。CCDカメラ2,3は自動的に焦点が合うように構成されており、双方のCCDカメラ2,3の設置位置が予め設定されているため、画像データ上の縦横位置に加え、対応点Paまでの距離を算出することができる。同様に、第2探索領域bにおいて、第1CCDカメラ2で撮像された歩行者の特徴部Pbを、第2CCDカメラ3の処理領域TbLの走査することによって特徴点Pbを捕捉し、対応点Pbを検出する。 As shown in the upper right diagram, the second CCD camera 3 scans the processing area TaL, moves until it captures the feature point Pa, and detects the corresponding point (feature point) Pa when captured. The CCD cameras 2 and 3 are configured so as to be automatically focused, and since the installation positions of both the CCD cameras 2 and 3 are set in advance, up to the corresponding point Pa in addition to the vertical and horizontal positions on the image data. Can be calculated. Similarly, in the second search region b, the feature point Pb is captured by scanning the feature region Pb of the pedestrian captured by the first CCD camera 2 in the processing region TbL of the second CCD camera 3, and the corresponding point Pb is obtained. To detect.
遮蔽物判定部13は、第1探索領域aで検出された特徴点Pa数と、第2探索領域bで検出された特徴点Pb数とを算出し、特徴点Paと特徴点Pbとの差分により相対比較を行っている。この差分が所定値よりも大きなとき、歩行者と自車両Vとの間にガードレールGが存在すると判定して警報手段4に作動指令を発しない。一方、差分が所定値以下のとき、歩行者と自車両Vとの間にガードレールGが存在しないと判定して警報手段4に作動指令を発する。 The shielding object determination unit 13 calculates the number of feature points Pa detected in the first search region a and the number of feature points Pb detected in the second search region b, and the difference between the feature point Pa and the feature point Pb. A relative comparison is performed. When this difference is larger than a predetermined value, it is determined that the guardrail G exists between the pedestrian and the host vehicle V, and no operation command is issued to the warning means 4. On the other hand, when the difference is equal to or smaller than the predetermined value, it is determined that the guardrail G is not present between the pedestrian and the host vehicle V, and an operation command is issued to the warning means 4.
第1探索領域aである歩行者の首から下の胸部領域は、首や肩等の身体的特徴及び衣類の模様や皺等が存在しており、一般的に、特徴点が多数検出され、結果的に多数の対応点が検出される。一方、第2探索領域bも、同様に、脚や衣類の模様、皺等が存在しており、遮蔽物がなければ、多数の特徴点Pbが検出される。しかしながら、遮蔽物、特にガードレールGが存在する場合、その表面は構造上シンプルであり、また、模様も存在しないため、特徴点Pbが検出されることなく、結果的に、対応点Pbも検出されない。このガードレールGにおける対応点の検出傾向を利用して、ガードレールGを検出している。 The chest region below the pedestrian's neck that is the first search area a has physical features such as the neck and shoulders, and clothing patterns and folds. As a result, a large number of corresponding points are detected. On the other hand, in the second search area b, similarly, there are legs, clothing patterns, wrinkles, etc., and if there is no shielding object, a large number of feature points Pb are detected. However, when there is a shield, in particular, the guardrail G, the surface is simple in structure, and since there is no pattern, the feature point Pb is not detected, and as a result, the corresponding point Pb is not detected. . The guardrail G is detected using the detection tendency of corresponding points in the guardrail G.
次に、図5のフローチャートに基づき、本歩行者検出装置1の制御について説明する。尚、Si(i=1,2…)は各処理ステップを示す。
まず、第1,第2CCDカメラ2,3により自車両V周囲の画像を撮像し、第1,第2保存部6a,6bに格納し、画像処理を行う(S1)。尚、保存部6a,6bには、所定時間、例えば、10秒程度の画像データが保存されている。次に、パターンマッチング用のテンプレートと第1CCDカメラ2の画像データとの照合を行い特徴部分の一致率を算出する(S2)。
Next, control of the pedestrian detection apparatus 1 will be described based on the flowchart of FIG. Si (i = 1, 2,...) Indicates each processing step.
First, an image around the host vehicle V is picked up by the first and second CCD cameras 2 and 3, stored in the first and second storage units 6a and 6b, and image processing is performed (S1). The storage units 6a and 6b store image data for a predetermined time, for example, about 10 seconds. Next, the pattern matching template and the image data of the first CCD camera 2 are collated to calculate the matching rate of the characteristic portion (S2).
S2の算出に基づき、S3の判定の結果、歩行者が存在すると判定した場合、歩行者領域Xの設定(S4)と、第1領域A及び第2領域Bの設定(S5)と、第1探索領域a及び第2探索領域bの設定(S6)とを行いS7に移行する。S7で、第1探索領域a及び第2探索領域bの夫々の対応点の数を算出し、次に移行する。また、S3の判定の結果、Noの場合、リターンする。尚、S3で歩行者が存在すると判定した場合は、この歩行者の捕捉を、この歩行者がCCDカメラ2,3の撮像領域から外れるまで継続して行っている。 Based on the calculation of S2, if it is determined that there is a pedestrian as a result of the determination of S3, the setting of the pedestrian area X (S4), the setting of the first area A and the second area B (S5), the first The search area a and the second search area b are set (S6), and the process proceeds to S7. In S7, the number of corresponding points in each of the first search area a and the second search area b is calculated, and the process proceeds to the next. If the result of determination in S3 is No, the process returns. If it is determined in S3 that there is a pedestrian, the pedestrian is continuously captured until the pedestrian moves out of the imaging area of the CCD cameras 2 and 3.
S8の判定の結果、第1探索領域aの検出された対応点数と第2探索領域bの検出された対応点数との差分が所定値よりも大きな場合、歩行者と自車両Vとの間にガードレールGが存在すると判定し(S9)、リターンする。S8の判定の結果、第1探索領域aの検出された対応点数と第2探索領域bの検出された対応点数との差分が所定値以下の場合、歩行者と自車両Vとの間にガードレールGが存在しないと判定し(S10)、警報装置4を作動し(S11)、リターンする。 If the difference between the number of corresponding points detected in the first search area a and the number of corresponding points detected in the second search area b is greater than a predetermined value as a result of the determination in S8, the distance between the pedestrian and the host vehicle V It determines with the guardrail G existing (S9), and returns. If the difference between the number of corresponding points detected in the first search area a and the number of corresponding points detected in the second search area b is equal to or smaller than a predetermined value as a result of the determination in S8, a guardrail is provided between the pedestrian and the host vehicle V. It determines with G not existing (S10), operates the alarm device 4 (S11), and returns.
尚、本実施例の場合、S8において、現時点における判定結果と所定時間前の判定結果とをガードレールGの判定に用いている。つまり、所定時間前の判定で遮蔽物が認識され、更に、現時点においても遮蔽物が認識された場合、遮蔽物が水平方向に延設される構造と判断されるため、ガードレールGの判定条件の1つとしている。 In this embodiment, the determination result at the present time and the determination result before a predetermined time are used for the determination of the guardrail G in S8. In other words, when the shielding object is recognized by the determination before the predetermined time, and when the shielding object is recognized even at the present time, it is determined that the shielding object extends in the horizontal direction. One.
次に、本実施例1の作用、効果を説明する。
歩行者検出用の特徴点をガードレールG(遮蔽物)判定の特徴点として兼用するため、遮蔽物判定のための処理時間が短縮できる。しかも、検出された歩行者の撮像データに基づき設定され、ガードレールの設置高さよりも上方の第1領域Aとガードレールを撮像領域に含むことができる下方の第2領域Bとの夫々の一部に第1,第2の探索領域a,bを設定し、夫々の領域における対応点数の差分を判定するため、パターンマッチングが難しいガードレールGであっても、制御上の処理負担と蓄積するデータ量を低減することができる。
Next, functions and effects of the first embodiment will be described.
Since the feature points for detecting pedestrians are also used as the feature points for determining the guardrail G (shielding object), the processing time for determining the shielding object can be shortened. Moreover, it is set based on the detected imaging data of the pedestrian, and is included in each of a first area A above the guardrail installation height and a second area B below that can include the guardrail in the imaging area. Since the first and second search areas a and b are set and the difference in the number of corresponding points in each area is determined, even if the guard rail G is difficult to match the pattern, the control processing load and the amount of data to be accumulated can be reduced. Can be reduced.
また、検出された歩行者の撮像データを、頭部領域と胴部領域と脚部領域とに区分し、夫々の区分領域のパターンマッチングによって歩行者を検出するため、高精度で且つ容易に歩行者を検出できる。更に、自車両V前方に歩行者を検出した場合、継続してこの歩行者を撮像するため、自車両Vと歩行者との間のガードレールGの有無を精度良く判定できる。 In addition, the detected pedestrian imaging data is divided into a head region, a torso region, and a leg region, and pedestrians are detected by pattern matching of the respective divided regions. Can be detected. Furthermore, when a pedestrian is detected in front of the host vehicle V, since this pedestrian is continuously imaged, the presence or absence of the guard rail G between the host vehicle V and the pedestrian can be accurately determined.
図6のフローチャートに基づき、第2実施例を説明する。
実施例1との相違点は、実施例1では第1探索領域aの検出された対応点数と第2探索領域bの検出された対応点数との差分で遮蔽物としてのガードレールGの有無を判定していたのに対し、実施例2では第1探索領域aまでの距離と第2探索領域bまでの距離との差分で遮蔽物としてのガードレールGの有無を判定する点である。
A second embodiment will be described based on the flowchart of FIG.
The difference from the first embodiment is that, in the first embodiment, the presence / absence of the guardrail G as a shield is determined by the difference between the number of corresponding points detected in the first search area a and the number of corresponding points detected in the second search area b. In contrast, in the second embodiment, the presence / absence of the guardrail G as a shield is determined based on the difference between the distance to the first search area a and the distance to the second search area b.
まず、第1,第2CCDカメラ2,3により自車両V周囲の画像を撮像し、第1,第2保存部6a,6bに格納し、画像処理を行う(S21)。次に、パターンマッチング用のテンプレートと第1CCDカメラ2の画像データとの照合を行い特徴部分の一致率を算出する(S22)。 First, images around the host vehicle V are picked up by the first and second CCD cameras 2 and 3, stored in the first and second storage units 6 a and 6 b, and image processing is performed (S 21). Next, the pattern matching template and the image data of the first CCD camera 2 are collated to calculate the matching rate of the characteristic portion (S22).
S22の算出に基づき、S23の判定の結果、歩行者が存在すると判定した場合、歩行者領域Xの設定(S24)と、第1領域A及び第2領域Bの設定(S25)と、第1探索領域a及び第2探索領域bの設定(S26)とを行いS27に移行する。S27で、第1探索領域a及び第2探索領域bの夫々の対応点の数を算出し、次に移行する。また、S23の判定の結果、Noの場合、リターンする。 Based on the calculation of S22, when it is determined that there is a pedestrian as a result of the determination of S23, the setting of the pedestrian area X (S24), the setting of the first area A and the second area B (S25), and the first The search area a and the second search area b are set (S26), and the process proceeds to S27. In S27, the number of corresponding points in each of the first search area a and the second search area b is calculated, and the process proceeds to the next. If the result of determination in S23 is No, the process returns.
遮蔽物判定部13によって、第1探索領域aで検出された夫々の対応点までの距離を算出し、夫々の対応点までの距離の平均値を求めることで第1探索領域aまでの距離を算出する(S28)。同様に、第2探索領域bまでの距離を算出する(S29)。S30の判定の結果、第1探索領域aまでの距離と第2探索領域bまでの距離との差分が所定値よりも大きな場合、歩行者と自車両Vとの間にガードレールGが存在すると判定し(S31)、リターンする。 The shielding object determination unit 13 calculates the distance to each corresponding point detected in the first search area a, and calculates the average value of the distance to each corresponding point to obtain the distance to the first search area a. Calculate (S28). Similarly, the distance to the second search area b is calculated (S29). If the difference between the distance to the first search area a and the distance to the second search area b is greater than a predetermined value as a result of the determination in S30, it is determined that the guardrail G exists between the pedestrian and the host vehicle V. (S31) and return.
S30の判定の結果、第1探索領域aまでの距離と第2探索領域bまでの距離との差分が所定値以下の場合、歩行者と自車両Vとの間にガードレールGが存在しないと判定し(S32)、警報装置4を作動し(S33)、リターンする。尚、実施例1と同様に、S30で、現時点における判定結果と所定時間前の判定結果とをガードレールGの判定に用いている。 If the difference between the distance to the first search area a and the distance to the second search area b is equal to or smaller than a predetermined value as a result of the determination in S30, it is determined that there is no guardrail G between the pedestrian and the host vehicle V. Then, the alarm device 4 is actuated (S33), and the process returns. As in the first embodiment, the determination result at the present time and the determination result before a predetermined time are used for the determination of the guardrail G in S30.
次に、本実施例2の作用、効果を説明する。
基本的に、歩行者検出用の特徴点をガードレールG(遮蔽物)判定の特徴点として兼用するため、ガードレールG判定のための処理時間が短縮できる。しかも、第1,第2の探索領域a,bにおける対応点の距離の相対比較によって自車両と歩行者間のガードレールGを判定するため、制御上の処理負担と蓄積するデータ量を低減しつつ、歩行者とガードレールGとの相対位置を精度良く検出できる。
Next, functions and effects of the second embodiment will be described.
Basically, the feature point for detecting the pedestrian is also used as the feature point for determining the guardrail G (shielding object), so that the processing time for determining the guardrail G can be shortened. Moreover, since the guard rail G between the host vehicle and the pedestrian is determined by relative comparison of the distances between corresponding points in the first and second search areas a and b, the control processing load and the amount of accumulated data are reduced. The relative position between the pedestrian and the guardrail G can be detected with high accuracy.
次に、前記実施例を部分的に変更した変形例について説明する。
1〕前記実施例においては、ガードレールの判定を、現時点における対応点数、或いは、距離の判定結果と所定時間前の判定結果とを判定条件とした例を説明したが、現時点の判定結果のみを用いてガードレールの判定を行うことも可能である。
Next, a modification in which the above embodiment is partially changed will be described.
1) In the above-described embodiment, an example has been described in which the determination of the guardrail is based on the number of corresponding points at the present time, or the determination result of the distance and the determination result before a predetermined time, but only the current determination result is used. It is also possible to determine the guardrail.
2〕前記実施例においては、歩行者と自車両Vとの間にガードレールGが存在しないとき、警報を作動させる例を説明したが、警報に限らず、他の運転支援制御に適用することも可能である。 2] In the above embodiment, an example has been described in which an alarm is activated when the guardrail G is not present between the pedestrian and the host vehicle V. However, the present invention is not limited to the alarm, and may be applied to other driving support control. Is possible.
その他、当業者であれば、本発明の趣旨を逸脱することなく、前記実施例に種々の変更を付加した形態で実施可能であり、本発明はそのような変更形態も包含するものである。 In addition, those skilled in the art can implement the present invention by adding various modifications without departing from the spirit of the present invention, and the present invention includes such modifications.
V 車両(自車両)
1 歩行者検出装置
2 第1CCDカメラ
3 第2CCDカメラ
4 警報装置
5 コントロールユニット
6 画像処理部
7 歩行者検出部
8 歩行者検出用マッチングデータベース
9 歩行者領域設定部
10 中間領域設定部
11 探索領域設定部
12 対応点検出部
13 遮蔽物判定部
A,B 第1,第2領域
a,b 第1,第2探索領域
Pa,Pb 特徴点(対応点)
V vehicle (own vehicle)
DESCRIPTION OF SYMBOLS 1 Pedestrian detection apparatus 2 1st CCD camera 3 2nd CCD camera 4 Alarm apparatus 5 Control unit 6 Image processing part 7 Pedestrian detection part 8 Pedestrian detection matching database 9 Pedestrian area setting part 10 Intermediate area setting part 11 Search area setting Part 12 Corresponding point detection part 13 Shielding object determination part A, B 1st, 2nd area | region a, b 1st, 2nd search area Pa, Pb Characteristic point (corresponding point)
Claims (9)
第1の撮像手段による撮像画像から得られた撮像データに基づき歩行者を検出する歩行者検出手段と、
この歩行者検出手段によって検出された前記歩行者の撮像データにおける歩行者を特徴付ける特徴点を探索する領域を設定する探索領域設定手段と、
第2の撮像手段による撮像画像から得られた前記歩行者の撮像データにおける歩行者を特徴付ける特徴点であって、前記探索領域内における前記歩行者の撮像データの特徴点と一致する特徴点を前記探索領域内における対応点として検出する対応点検出手段と、
前記対応点検出手段により検出された対応点に基づいて、自車両と前記歩行者との間の遮蔽物を判定する遮蔽物判定手段を有することを特徴とする車両の歩行者検出装置。 A pedestrian of a vehicle having a plurality of imaging means mounted on the vehicle and an image processing means for performing image processing on a captured image captured by the imaging means, and detecting a pedestrian based on the image-processed imaging data In the detection device,
Pedestrian detection means for detecting a pedestrian based on imaging data obtained from an image captured by the first imaging means;
A search area setting means for setting an area for searching for a feature point characterizing a pedestrian in the image data of the pedestrian detected by the pedestrian detection means;
A feature point characterizing a pedestrian in the pedestrian imaging data obtained from an image captured by the second imaging means, wherein the feature point coincides with a feature point of the pedestrian imaging data in the search region. Corresponding point detecting means for detecting as corresponding points in the search area;
A pedestrian detection apparatus for a vehicle, comprising: an obstacle determination unit that determines an obstacle between the host vehicle and the pedestrian based on the corresponding point detected by the corresponding point detection unit.
The shielding object determining means determines a shielding object between the host vehicle and the pedestrian by relative comparison between a corresponding point detection rate at a predetermined time point and a corresponding point detection rate after a predetermined time has elapsed from the predetermined time point. Item 9. The vehicle pedestrian detection device according to Item 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008248938A JP2010079716A (en) | 2008-09-26 | 2008-09-26 | Pedestrian detection device for vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008248938A JP2010079716A (en) | 2008-09-26 | 2008-09-26 | Pedestrian detection device for vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010079716A true JP2010079716A (en) | 2010-04-08 |
Family
ID=42210067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008248938A Pending JP2010079716A (en) | 2008-09-26 | 2008-09-26 | Pedestrian detection device for vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010079716A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013179588A1 (en) * | 2012-05-31 | 2013-12-05 | 株式会社デンソー | Human detection apparatus |
JP2014064193A (en) * | 2012-09-21 | 2014-04-10 | Komatsu Ltd | Periphery monitoring system for work vehicle and work vehicle |
DE102014103136A1 (en) | 2013-03-13 | 2014-09-18 | Denso Corporation | Object detection device |
CN104123533A (en) * | 2013-04-26 | 2014-10-29 | 株式会社电装 | Object detection apparatus |
JP2015162011A (en) * | 2014-02-26 | 2015-09-07 | 沖電気工業株式会社 | control device, control method, and program |
US9235776B2 (en) | 2012-06-11 | 2016-01-12 | Denso Corporation | Person detection apparatus |
CN104364821B (en) * | 2012-05-31 | 2016-11-30 | 株式会社电装 | People detects device |
USRE48958E1 (en) * | 2013-08-02 | 2022-03-08 | Honda Motor Co., Ltd. | Vehicle to pedestrian communication system and method |
-
2008
- 2008-09-26 JP JP2008248938A patent/JP2010079716A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104364821B (en) * | 2012-05-31 | 2016-11-30 | 株式会社电装 | People detects device |
US9235778B2 (en) | 2012-05-31 | 2016-01-12 | Denso Corporation | Human detection apparatus |
JP2013250734A (en) * | 2012-05-31 | 2013-12-12 | Denso Corp | Person detection device |
CN104364821A (en) * | 2012-05-31 | 2015-02-18 | 株式会社电装 | Human detection apparatus |
WO2013179588A1 (en) * | 2012-05-31 | 2013-12-05 | 株式会社デンソー | Human detection apparatus |
US9235776B2 (en) | 2012-06-11 | 2016-01-12 | Denso Corporation | Person detection apparatus |
DE112013002889B4 (en) | 2012-06-11 | 2022-08-04 | Denso Corporation | person detection device |
JP2014064193A (en) * | 2012-09-21 | 2014-04-10 | Komatsu Ltd | Periphery monitoring system for work vehicle and work vehicle |
US10183632B2 (en) | 2012-09-21 | 2019-01-22 | Komatsu Ltd. | Work vehicle periphery monitoring system and work vehicle |
US9418287B2 (en) | 2013-03-13 | 2016-08-16 | Denso Corporation | Object detection apparatus |
DE102014103136A1 (en) | 2013-03-13 | 2014-09-18 | Denso Corporation | Object detection device |
DE102014104613A1 (en) | 2013-04-26 | 2014-10-30 | Denso Corporation | Object detecting device |
CN104123533A (en) * | 2013-04-26 | 2014-10-29 | 株式会社电装 | Object detection apparatus |
US9262693B2 (en) | 2013-04-26 | 2016-02-16 | Denso Corporation | Object detection apparatus |
USRE48958E1 (en) * | 2013-08-02 | 2022-03-08 | Honda Motor Co., Ltd. | Vehicle to pedestrian communication system and method |
USRE49232E1 (en) | 2013-08-02 | 2022-10-04 | Honda Motor Co., Ltd. | Vehicle to pedestrian communication system and method |
JP2015162011A (en) * | 2014-02-26 | 2015-09-07 | 沖電気工業株式会社 | control device, control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7025912B2 (en) | In-vehicle environment recognition device | |
KR101498976B1 (en) | Parking asistance system and parking asistance method for vehicle | |
JP4203512B2 (en) | Vehicle periphery monitoring device | |
JP5313072B2 (en) | External recognition device | |
JP3934119B2 (en) | Vehicle periphery monitoring device | |
EP2465092B1 (en) | Vehicle vicinity monitoring apparatus | |
JP4879189B2 (en) | Safe driving support device | |
JP6398347B2 (en) | Image processing apparatus, recognition object detection method, recognition object detection program, and moving object control system | |
JP3987057B2 (en) | Vehicle periphery monitoring device | |
JP2010079716A (en) | Pedestrian detection device for vehicle | |
JP4708124B2 (en) | Image processing device | |
JP4410292B1 (en) | Vehicle periphery monitoring device | |
JP4835201B2 (en) | 3D shape detector | |
US20140002658A1 (en) | Overtaking vehicle warning system and overtaking vehicle warning method | |
US10521679B2 (en) | Human detection device, human detection system, human detection method, and human detection program | |
JP2005316607A (en) | Image processor and image processing method | |
JP2010191793A (en) | Alarm display and alarm display method | |
US9160986B2 (en) | Device for monitoring surroundings of a vehicle | |
JP2010079639A (en) | Pedestrian detecting device for vehicle | |
JP4777196B2 (en) | Driving assistance device | |
JP2007334511A (en) | Object detection device, vehicle, object detection method and program for object detection | |
JP2012118683A (en) | Pedestrian recognition device | |
JP2011103058A (en) | Erroneous recognition prevention device | |
JP2008065756A (en) | Driving assist system | |
JP4539472B2 (en) | Vehicle travel support device |