JP2011258121A - Obstacle recognition device - Google Patents

Obstacle recognition device Download PDF

Info

Publication number
JP2011258121A
JP2011258121A JP2010134070A JP2010134070A JP2011258121A JP 2011258121 A JP2011258121 A JP 2011258121A JP 2010134070 A JP2010134070 A JP 2010134070A JP 2010134070 A JP2010134070 A JP 2010134070A JP 2011258121 A JP2011258121 A JP 2011258121A
Authority
JP
Japan
Prior art keywords
vehicle
obstacle
detection
unit
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010134070A
Other languages
Japanese (ja)
Other versions
JP5617362B2 (en
Inventor
Masakazu Nishijima
征和 西嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2010134070A priority Critical patent/JP5617362B2/en
Publication of JP2011258121A publication Critical patent/JP2011258121A/en
Application granted granted Critical
Publication of JP5617362B2 publication Critical patent/JP5617362B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an obstacle recognition device capable of eliminating effects of incident light to imaging means as much as possible and properly recognizing obstacles in a surrounding area of a vehicle.SOLUTION: The obstacle recognition device comprises: imaging means for imaging a surrounding area of a vehicle; first detection means for detecting obstacles using the picked-up image; second detection means for detecting obstacles using an electromagnetic wave and the like; and obstacle recognition means for recognizing obstacles in the surrounding area of the vehicle based on the detection results by these detection means. If a high luminance area exists in the picked-up image, the obstacle recognition means performs an obstacle recognition in the high luminance area by using a higher ratio of an obstacle detection result of the second detection means to an obstacle detection result of the first detection means than the ratio used for the obstacle recognition in surrounding areas that do not correspond to the high luminance area.

Description

本発明は、車両周辺の領域の障害物の認識を行う障害物認識装置に関する。   The present invention relates to an obstacle recognition apparatus that recognizes obstacles in a region around a vehicle.

夜間での車両走行時に歩行者等の障害物を的確に検知するために、赤外線カメラによる撮像画像を用いた検出技術や、レーザレーダによる検出技術が開発されている。撮像画像を用いた障害物検出は、レーザレーダによる検出と比べて障害物を見落とす可能性が低いため安全上好ましい技術と考えられるが、障害物検知のための画像処理に要する負荷が比較的大きくなりやすい。そこで、レーザレーダによる検出結果から歩行者が存在する可能性の高い領域を割り出し、その領域と赤外線カメラによる撮像画像とを重ねわせることで、実際に障害物検出のための画像処理を行う負荷を軽減させる技術が開示されている(たとえば、特許文献1を参照)。   In order to accurately detect obstacles such as pedestrians when driving a vehicle at night, a detection technique using an image captured by an infrared camera and a detection technique using a laser radar have been developed. Obstacle detection using captured images is considered a safety-friendly technique because it is less likely to overlook obstacles than laser radar detection, but the load required for image processing for obstacle detection is relatively large. Prone. Therefore, a load that actually performs image processing for obstacle detection by determining an area where a pedestrian is likely to exist from the detection result by the laser radar and superimposing the area and the captured image by the infrared camera. Has been disclosed (see, for example, Patent Document 1).

また、赤外線カメラを用いて車両前方の画像を撮像し、その撮像画像に基づいて障害物の検出を行う場合、対向車両からの入射光により赤外線カメラでハレーションが発生し、的確な前方の撮像を行うことができない場合がある。そこで、赤外線カメラでの撮像時に車両の前方に赤外線を照射する赤外線ランプの光量を、撮像画像中の輝度に基づいて制御することで、ハレーションの影響を軽減させる技術が公開されている(たとえば、特許文献2を参照)。   In addition, when an image in front of the vehicle is picked up using an infrared camera and an obstacle is detected based on the picked-up image, halation occurs in the infrared camera due to incident light from the oncoming vehicle, and accurate forward imaging is performed. It may not be possible. Therefore, a technique for reducing the influence of halation by controlling the light quantity of the infrared lamp that irradiates the front of the vehicle with infrared rays at the time of imaging with an infrared camera based on the luminance in the captured image is disclosed (for example, (See Patent Document 2).

特開2003−302470号公報JP 2003-302470 A 特開2008−252784号公報JP 2008-252784 A 特開2003−327065号公報JP 2003-327065 A

車両に搭載するカメラ等の撮像手段による撮像画像に基づいて、車両周辺に位置する歩行者等の障害物を検出する場合、その撮像手段に対向車のヘッドランプからの光等が入射することで、ハレーションが発生し、その影響で車両周辺の領域の撮像を的確に行うことが困難となる。的確な撮像ができない場合、検出された障害物に基づいて実行される車両の安全制御(たとえば、ドライバーへの注意喚起制御、車両の減速制御等)のタイミングがずれてしまうおそれがある。   When an obstacle such as a pedestrian located in the vicinity of a vehicle is detected based on an image captured by an imaging unit such as a camera mounted on the vehicle, light from an oncoming vehicle headlamp is incident on the imaging unit. As a result, halation occurs, and it becomes difficult to accurately capture the area around the vehicle due to the influence. If accurate imaging cannot be performed, the timing of vehicle safety control (for example, driver alert control, vehicle deceleration control, etc.) executed based on the detected obstacle may be shifted.

本発明は、上記問題に鑑みてなされたものであり、撮像手段による撮像画像に基づいた障害物の検出を行う場合、撮像手段への入射光による影響を可及的に排除し、車両周辺の領域に位置する障害物を的確に認識することが可能な障害物認識装置を提供することを目的とする。   The present invention has been made in view of the above problems, and in the case of detecting an obstacle based on a captured image by the imaging unit, the influence of incident light on the imaging unit is eliminated as much as possible, An object of the present invention is to provide an obstacle recognition device capable of accurately recognizing an obstacle located in a region.

本発明においては、上記課題を解決するために、撮像手段による撮像画像において、画像の輝度が所定の輝度を超える高輝度領域が存在する場合、その高輝度領域に対応する車両周辺の領域での障害物認識における、当該撮像画像に基づいた検出結果の影響度を低下させることとした。   In the present invention, in order to solve the above-described problem, in a captured image obtained by the imaging unit, when there is a high-luminance region where the luminance of the image exceeds a predetermined luminance, the region around the vehicle corresponding to the high-luminance region In the obstacle recognition, the influence of the detection result based on the captured image is reduced.

詳細には、本発明は、車両周辺の領域を撮像する撮像手段と、前記撮像手段による撮像
画像を用いて、前記車両周辺の領域に位置する障害物を検出する第一検出手段と、前記車両から電磁波を送信し、該障害物からの反射波を受信して得られた受信信号に基づいて、該車両の周囲に位置する障害物を検出する第二検出手段と、前記第一検出手段による検出結果と前記第二検出手段による検出結果とに基づいて、前記障害物を認識する障害物認識手段と、を備える障害物認識装置である。そして、前記障害物認識手段は、前記撮像手段による撮像画像において該画像の輝度が所定輝度を超える高輝度領域が存在すると判定された場合、該高輝度領域に対応する前記障害物認識については、前記第一検出手段による障害物検出結果に対する前記第二検出手段による障害物検出結果の比率を、該高輝度領域に対応しない前記車両周辺の領域での障害物認識の場合の該比率よりも大きくする。
Specifically, the present invention includes an imaging unit that captures an area around the vehicle, a first detection unit that detects an obstacle located in the area around the vehicle using an image captured by the imaging unit, and the vehicle A second detecting means for detecting an obstacle located around the vehicle based on a received signal obtained by transmitting an electromagnetic wave from the obstacle and receiving a reflected wave from the obstacle; and by the first detecting means An obstacle recognition apparatus comprising: an obstacle recognition unit that recognizes the obstacle based on a detection result and a detection result by the second detection unit. When the obstacle recognizing unit determines that there is a high luminance region in which the luminance of the image exceeds a predetermined luminance in the image captured by the imaging unit, the obstacle recognition corresponding to the high luminance region is: The ratio of the obstacle detection result by the second detection means to the obstacle detection result by the first detection means is larger than the ratio in the case of obstacle recognition in the area around the vehicle that does not correspond to the high luminance area. To do.

上記障害物認識装置では、障害物認識手段によって、第一検出手段による検出結果と第二検出手段による検出結果に基づいて障害物の認識処理が行われる。第一検出手段は車両の周辺領域の撮像画像に基づいて、たとえばその画像処理を行うことで障害物の存在を検出する。一方で、第二検出手段は、その周辺領域に対して送られた電磁波の反射波による受信信号に基づいて、障害物の存在を検出する。このように障害物の検出手法が異なる複数の検出手段による検出結果を用いて最終的に障害物を認識する構成とすることで、障害物の認識をより的確に行うことが可能となる。なお、この障害物認識装置において備えられる検出手段は、上記第一検出手段および第二検出手段に加えて、その他の検出手段であってもよい。   In the obstacle recognition apparatus, the obstacle recognition unit performs obstacle recognition processing based on the detection result by the first detection unit and the detection result by the second detection unit. The first detection means detects the presence of an obstacle, for example, by performing image processing based on the captured image of the surrounding area of the vehicle. On the other hand, a 2nd detection means detects presence of an obstruction based on the received signal by the reflected wave of the electromagnetic wave sent with respect to the surrounding area. Thus, it becomes possible to recognize an obstacle more correctly by setting it as the structure which finally recognizes an obstacle using the detection result by the several detection means from which the detection method of an obstacle differs. The detection means provided in the obstacle recognition apparatus may be other detection means in addition to the first detection means and the second detection means.

ここで、撮像手段に対して強い光が外部から入射される等の理由により、撮像画像において所定輝度を超える高輝度領域が存在してしまうと、その高輝度領域においては、撮像手段の撮像領域に存在する障害物が撮像画像において光に埋もれてしまい、第一検出手段により障害物としての像を検出できない可能性がある。このような場合、第一検出手段による検出結果を用いて障害物認識手段による障害物認識が行われると、正確な障害物認識が困難となる可能性がある。   Here, if there is a high-brightness region exceeding a predetermined luminance in the captured image due to strong light incident on the imaging unit from the outside, the imaging region of the imaging unit is displayed in the high-brightness region. May be buried in light in the captured image, and an image as an obstacle may not be detected by the first detection means. In such a case, if obstacle recognition by the obstacle recognition unit is performed using the detection result by the first detection unit, accurate obstacle recognition may be difficult.

そこで、本発明に係る障害物認識装置では、撮像画像に高輝度領域が存在する場合には、高輝度領域に対応する周辺領域での障害物認識については、第一検出手段による検出結果に対する第二検出手段による検出結果の比率を、該高輝度領域に対応しない周辺領域での障害物認識の場合の該比率よりも大きくする処理が行われる。すなわち、撮像画像での高輝度領域では障害物が光に埋もれる可能性があるため、高輝度領域に対応する周辺領域での障害物認識においては、第一検出手段による検出結果の重み(ウェイト)を小さくすることで、高輝度領域の影響を軽減するものである。なお、高輝度領域以外の領域に対応する周辺領域での障害物認識においては、第一検出手段と第二検出手段のそれぞれの検出結果を利用し、且つ第一検出手段の検出結果を相対的に大きい重みの下で考慮することで、各検出手段の検出結果を好適に利用した障害物の認識処理が行われる。   Therefore, in the obstacle recognition device according to the present invention, when there is a high-luminance region in the captured image, the obstacle recognition in the peripheral region corresponding to the high-luminance region is the second detection result for the detection result by the first detection means. A process of making the ratio of the detection results by the two detection means larger than the ratio in the case of obstacle recognition in the peripheral area not corresponding to the high luminance area is performed. That is, since there is a possibility that an obstacle is buried in light in the high brightness area in the captured image, the weight (weight) of the detection result by the first detection means in the obstacle recognition in the peripheral area corresponding to the high brightness area By reducing the value, the influence of the high luminance region is reduced. In the obstacle recognition in the peripheral area corresponding to the area other than the high brightness area, the detection results of the first detection means and the second detection means are used, and the detection results of the first detection means are relative to each other. Considering under a large weight, obstacle recognition processing that suitably uses the detection result of each detection means is performed.

ここで、上記の障害物認識装置において、前記障害物認識手段は、前記撮像画像内に前記高輝度領域が存在すると判定された場合、該高輝度領域に対応する前記障害物認識については、前記第二検出手段による障害物検出結果にのみ基づいて、前記車両周辺の領域に位置する障害物の認識を行ってもよい。この場合、高輝度領域に対応する車両周辺領域での障害物認識においては、第一検出手段による検出結果の重みをゼロとし、第二検出手段による検出結果のみに基づいて障害物の認識処理が行われることで、撮像画像における高輝度領域での障害物の光への埋もれの影響を可及的に排除することが可能となる。   Here, in the obstacle recognition apparatus, when the obstacle recognition unit determines that the high brightness area exists in the captured image, the obstacle recognition corresponding to the high brightness area is performed as described above. An obstacle located in the area around the vehicle may be recognized based only on the obstacle detection result by the second detection means. In this case, in the obstacle recognition in the vehicle peripheral area corresponding to the high luminance area, the weight of the detection result by the first detection unit is set to zero, and the obstacle recognition process is performed based only on the detection result by the second detection unit. By doing so, it becomes possible to eliminate as much as possible the influence of the obstruction of the obstacle in the high luminance region in the captured image.

また、上述までの障害物認識装置において、前記車両へ近接する対向車の存在を認識し、且つ該対向車の該車両に対する相対速度が所定速度以下である場合に、前記撮像画像における前記高輝度領域の存在の判定が行われてもよい。車両に対して対向車が近接してくる場合、対向車のヘッドラップ等から照射されるライトが撮像手段に入射することで、そ
の撮像画像に高輝度領域が形成される可能性があるが、特に、その対向車両の相対速度が低くなるほど、対向車からのライトの光軸の変化の程度が小さいため、入射光の撮像画像への影響が大きくなり、高輝度領域が形成されやすくなる。そこで、このような条件が成立する場合に、上述した撮像画像における高輝度領域の存在に関する判定が行われることで、高輝度領域を特定するための画像処理に要する負荷を軽減することが可能となる。
In the obstacle recognition device described above, when the presence of an oncoming vehicle that is close to the vehicle is recognized and the relative speed of the oncoming vehicle with respect to the vehicle is equal to or lower than a predetermined speed, the high brightness in the captured image is obtained. A determination of the presence of a region may be made. When an oncoming vehicle approaches the vehicle, there is a possibility that a high luminance region is formed in the captured image by the light emitted from the head wrap of the oncoming vehicle entering the imaging means. In particular, as the relative speed of the oncoming vehicle decreases, the degree of change in the optical axis of the light from the oncoming vehicle is small, so the influence of incident light on the captured image increases, and a high-luminance region is likely to be formed. Therefore, when such a condition is satisfied, it is possible to reduce the load required for image processing for specifying the high-luminance region by performing the determination regarding the presence of the high-luminance region in the captured image described above. Become.

ここで、本発明に係る障害物認識装置を別の側面から捉えることも可能である。たとえば、当該発明は、車両周辺の領域を撮像する撮像手段と、前記撮像手段による撮像画像を用いて、前記車両周辺の領域に位置する障害物を検出する第一検出手段と、前記車両周辺の領域における障害物の存在に関する情報を外部から受信する外部情報受信手段と、前記第一検出手段による検出結果に基づいて、前記障害物を認識する障害物認識手段と、を備える障害物認識装置である。そして、前記障害物認識手段は、前記障害物認識手段は、前記撮像手段による撮像画像において該画像の輝度が所定輝度を超える高輝度領域が存在すると判定された場合、前記第一検出手段による障害物検出に代えて、前記外部情報受信手段によって受信された情報に基づいて、前記車両周辺の領域に位置する障害物の認識を行う。   Here, the obstacle recognition apparatus according to the present invention can be grasped from another aspect. For example, the invention relates to an imaging unit that images an area around the vehicle, a first detection unit that detects an obstacle located in the area around the vehicle using an image captured by the imaging unit, An obstacle recognition apparatus comprising: external information receiving means for receiving information on the presence of an obstacle in an area from the outside; and obstacle recognition means for recognizing the obstacle based on a detection result by the first detection means. is there. Then, the obstacle recognizing means determines that the obstacle recognizing means has an obstruction caused by the first detecting means when it is determined that there is a high luminance area in which the luminance of the image exceeds a predetermined luminance in the image taken by the imaging means. Instead of detecting an object, an obstacle located in the area around the vehicle is recognized based on the information received by the external information receiving means.

上記障害物認識装置では、障害物の認識処理は、撮像画像を用いて行われた検出結果に基づいて、障害物認識手段によって行われる。一方で、撮像画像内に高輝度領域の存在が認められる場合には、撮像画像を用いた障害物の認識処理に代えて、外部情報受信手段によって受信、取得される外部情報に基づいて車両周辺の領域での障害物の認識処理が行われることで、高輝度領域内に障害物が埋もれてしまい、障害物の認識漏れが生じるのを回避することが可能となる。なお、この外部情報については、自車両以外の存在物から送信される情報であって、たとえば、AHS(Advanced Cruise-Assist Highway System)通信
等の路車間通信により送られてくる歩行者等の存在に関する情報や、車車間通信により送られてくる障害物の存在に関する情報等が、上記外部情報として例示できる。
In the obstacle recognition apparatus, the obstacle recognition process is performed by the obstacle recognition means based on the detection result obtained using the captured image. On the other hand, when the presence of a high-luminance region is recognized in the captured image, the vehicle periphery is based on external information received and acquired by the external information receiving means instead of the obstacle recognition processing using the captured image. By performing the obstacle recognition process in this area, it is possible to prevent the obstacle from being buried in the high luminance area and causing the obstacle to be recognized. In addition, this external information is information transmitted from an entity other than the own vehicle, for example, the presence of a pedestrian or the like sent by road-to-vehicle communication such as AHS (Advanced Cruise-Assist Highway System) communication. Information regarding the presence of obstacles sent by inter-vehicle communication, etc. can be exemplified as the external information.

さらに、本発明に係る障害物認識装置を別の側面から捉えることも可能である。たとえば、当該発明は、車両から撮像した画像から障害物を検出する第一検出手段と、前記車両から電磁波を放出し、反射されてきた電磁波を受信して障害物を検出する第二検出手段と、前記第一検出手段で取得された画像から高輝度領域を抽出し、この高輝度領域とその他の領域とにおける前記第二検出手段の検出ウェイトを異ならせる障害物認識手段と、を備える障害物認識装置である。   Furthermore, the obstacle recognition apparatus according to the present invention can be grasped from another aspect. For example, the present invention includes first detection means for detecting an obstacle from an image captured from a vehicle, and second detection means for detecting an obstacle by emitting electromagnetic waves from the vehicle and receiving reflected electromagnetic waves. An obstacle recognizing means for extracting a high brightness area from the image acquired by the first detection means and making the detection weight of the second detection means different in the high brightness area and other areas. It is a recognition device.

撮像手段による撮像画像に基づいた障害物の検出を行う場合、撮像手段への入射光による影響を可及的に排除し、車両周辺の領域に位置する障害物を的確に認識することが可能となる。   When detecting an obstacle based on a captured image by the imaging means, it is possible to eliminate as much as possible the influence of incident light on the imaging means and to accurately recognize the obstacle located in the area around the vehicle. Become.

本発明に係る障害物認識装置が搭載される車両の概略構成を示す図である。It is a figure which shows schematic structure of the vehicle by which the obstruction recognition apparatus which concerns on this invention is mounted. 図1に示す車両に搭載された車載機および障害物認識装置を含む車両安全制御装置の有する機能部をイメージ化した機能ブロック図である。It is the functional block diagram which imaged the functional part which the vehicle safety control apparatus containing the vehicle equipment and obstacle recognition apparatus which were mounted in the vehicle shown in FIG. 図1に示す車両で実行される歩行者認識処理に関する第一のフローチャートである。It is a 1st flowchart regarding the pedestrian recognition process performed with the vehicle shown in FIG. 図3に示す歩行者認識処理が実行される際の、車両周辺の障害物の配置の状況を示す図である。It is a figure which shows the condition of the arrangement | positioning of the obstacle around a vehicle at the time of the pedestrian recognition process shown in FIG. 3 being performed. 図3に示す歩行者認識処理が実行される際に用いられる撮像画像の一例を示す図である。It is a figure which shows an example of the captured image used when the pedestrian recognition process shown in FIG. 3 is performed. 図5Aに示す撮像画像において対向車両からのライトが存在しない場合の画像例である。It is an example of an image when there is no light from an oncoming vehicle in the captured image shown in FIG. 5A. 図1に示す車両で実行される歩行者認識処理に関する第二のフローチャートである。It is a 2nd flowchart regarding the pedestrian recognition process performed with the vehicle shown in FIG. 図1に示す車両で実行される歩行者認識処理に関する第三のフローチャートである。It is a 3rd flowchart regarding the pedestrian recognition process performed with the vehicle shown in FIG.

以下に、図面を参照して本発明の実施形態に係る障害物認識装置を含み、その認識結果を利用して車両全体の安全制御を行う車両安全制御装置10について説明する。なお、以下の実施形態の構成は例示であり、本発明はこの実施の形態の構成に限定されるものではない。   A vehicle safety control device 10 that includes an obstacle recognition device according to an embodiment of the present invention and performs safety control of the entire vehicle using the recognition result will be described below with reference to the drawings. The configuration of the following embodiment is an exemplification, and the present invention is not limited to the configuration of this embodiment.

図1は、上記車両安全制御装置10が搭載された車両1の概略構成を示す。図1では、車両1の運転席3にドライバー2が着座している状態が示されている。また、ドライバー2は、運転席3用に設置されたシートベルト4を使用することで、運転中の安全を確保することができる。ここで、運転席3の左前方のパネル部分にいわゆる車載機6が設置され、車載機6は、その構成要素として当該車載機で処理された情報を表示するディスプレイ装置が示されている。具体的には、車載機6は、その記録装置内の地図情報やGPS(Global Positioning System)装置の検出信号に基づいて、カーナビゲーションを実行する情
報処理装置であり、そのディスプレイ装置には、車載機6で処理された情報が必要に応じてドライバー2や、その他の搭乗員に知らせるために表示される。また、車載機6は、GPS信号以外にも、車両1の走行に有用な道路情報等を外部から無線で受信可能であって、その受信情報は車載機6内又は車両安全制御装置10内で利用され得る。
FIG. 1 shows a schematic configuration of a vehicle 1 on which the vehicle safety control device 10 is mounted. FIG. 1 shows a state in which a driver 2 is seated on the driver's seat 3 of the vehicle 1. The driver 2 can ensure safety during driving by using the seat belt 4 installed for the driver's seat 3. Here, a so-called in-vehicle device 6 is installed on the left front panel portion of the driver's seat 3, and the in-vehicle device 6 is shown as a display device that displays information processed by the in-vehicle device as a component. Specifically, the in-vehicle device 6 is an information processing device that performs car navigation based on map information in the recording device and a detection signal of a GPS (Global Positioning System) device. Information processed by the aircraft 6 is displayed to inform the driver 2 and other crew members as necessary. Further, the in-vehicle device 6 can receive road information and the like useful for traveling of the vehicle 1 from the outside in addition to the GPS signal, and the received information is received in the in-vehicle device 6 or the vehicle safety control device 10. Can be used.

ここで、図1に示す車両1には、車両1の前方領域を撮像領域とする赤外線カメラ20が設置されている。赤外線カメラ20は赤外線を受光可能であることから、夜間での車両1の前方領域の撮像も可能である。さらに、車両1には、ミリ波を送信し車外の障害物で反射された反射波を受信することで、車両1に対して接近する対向車等の相対位置に関する情報を検知可能なレーダ装置21と、出射レーザ光を走査し車外の障害物で反射された反射波を受信することで、車両1の前方領域に存在する歩行者等の障害物の存在を検出可能なレーザレーダ22が搭載されている。また、車両1には、その周囲環境が夜間であるか否かを判別するために車両1の周囲環境の光量を検出可能な光センサ23も設置されている。赤外線カメラ20、ミリ波レーダ21、レーザレーダ22および光センサ23は車両安全制御装置10に電気的に接続され、それぞれの検出結果が当該装置10へと引き渡され、当該装置10で、車両1の前方領域における障害物の認識、および当該障害物に関する安全制御等が実施されることになる。   Here, the vehicle 1 shown in FIG. 1 is provided with an infrared camera 20 having a front area of the vehicle 1 as an imaging area. Since the infrared camera 20 can receive infrared rays, it is also possible to image the front area of the vehicle 1 at night. Furthermore, the radar device 21 capable of detecting information on the relative position of an oncoming vehicle or the like approaching the vehicle 1 by transmitting a millimeter wave to the vehicle 1 and receiving a reflected wave reflected by an obstacle outside the vehicle. And a laser radar 22 that can detect the presence of an obstacle such as a pedestrian in the front area of the vehicle 1 by scanning the emitted laser beam and receiving a reflected wave reflected by the obstacle outside the vehicle. ing. The vehicle 1 is also provided with an optical sensor 23 that can detect the amount of light in the surrounding environment of the vehicle 1 in order to determine whether or not the surrounding environment is nighttime. The infrared camera 20, the millimeter wave radar 21, the laser radar 22, and the optical sensor 23 are electrically connected to the vehicle safety control device 10, and each detection result is delivered to the device 10. Recognition of obstacles in the front area, safety control related to the obstacles, and the like are performed.

具体的には、車両安全制御装置10は、車両1に関する安全制御を実行する制御装置であり、特に車両1に搭乗している搭乗者の運転時の身の安全に関する制御を行う。当該安全制御の一例としては、赤外線カメラ20やレーザレーダ22による障害物の検出結果に基づいて車両1の前方領域における障害物を認識し、当該障害物との衝突の可能性がある場合、ドライバー2等に対して注意を喚起することが挙げられる。その注意喚起の具体的な手法としては、車載機6のディスプレイ装置や車両1内のスピーカ7を通して、映像や音声でアラーム報知する方法、ドライバー2が装着しているシートベルト4を通してドライバー2に対して力を作用させる方法等、その他様々な従来から利用されている方法を挙げることができる。   Specifically, the vehicle safety control device 10 is a control device that executes safety control related to the vehicle 1, and in particular, performs control related to personal safety during driving of a passenger on the vehicle 1. As an example of the safety control, the driver recognizes an obstacle in the front area of the vehicle 1 based on the obstacle detection result by the infrared camera 20 or the laser radar 22 and there is a possibility of collision with the obstacle. Call attention to 2nd class. As a specific method for alerting the driver 2, an alarm is notified by an image or sound through the display device of the in-vehicle device 6 or the speaker 7 in the vehicle 1, and the driver 2 through the seat belt 4 worn by the driver 2. Various other conventionally used methods such as a method of applying a force can be given.

そこで、図2に、車両安全制御装置10を中心とした、車両1における安全制御に関する各制御の内容をイメージ化した機能ブロック図を示す。図2に示す車両安全制御装置1
0および車載機6は、実質的にはCPU、メモリ、ハードディスク等を含むコンピュータに相当し、そこで制御プログラムが実行されることで図2に示す各機能ブロックによる機能が実現される。
FIG. 2 is a functional block diagram illustrating the contents of each control related to safety control in the vehicle 1 with the vehicle safety control device 10 as the center. Vehicle safety control device 1 shown in FIG.
0 and the vehicle-mounted device 6 are substantially equivalent to a computer including a CPU, a memory, a hard disk, and the like, and a function by each functional block shown in FIG. 2 is realized by executing a control program there.

先ず、車両安全制御装置10が有する機能部について説明する。車両安全制御装置10は、画像処理部11、レーザ走査部12、歩行者認識部13、アラーム報知部14、シートベルト制御部15の機能部を有している。これらの機能部はあくまでも例示であり、車両安全制御装置10は、所定の目的達成のためにこれらの機能部以外の機能部を有していても構わない。以下に、これらの機能部の概略を説明する。画像処理部11は、赤外線カメラ20によって撮像された車両1の前方領域の撮像画像に対して、歩行者を検出するための画像処理を行う機能部である。撮像画像を用いた歩行者の検出に関する画像処理については既に公開されている技術であるため、本明細書での詳細な説明は割愛する。   First, the function part which the vehicle safety control apparatus 10 has is demonstrated. The vehicle safety control device 10 includes functional units of an image processing unit 11, a laser scanning unit 12, a pedestrian recognition unit 13, an alarm notification unit 14, and a seat belt control unit 15. These functional units are merely examples, and the vehicle safety control device 10 may have functional units other than these functional units in order to achieve a predetermined purpose. The outline of these functional units will be described below. The image processing unit 11 is a functional unit that performs image processing for detecting a pedestrian on the captured image of the front area of the vehicle 1 captured by the infrared camera 20. Since image processing related to detection of a pedestrian using a captured image is a technique that has already been disclosed, detailed description in this specification will be omitted.

また、車両安全制御装置10では、赤外線カメラ20による撮像画像の他に、レーザレーダ22による歩行者の検出処理も行われる。そこで、レーザ走査部12は、レーザレーダ22によって車両1の前方領域をレーザ走査した結果に基づいて、そこに存在する歩行者を検出するための処理を行う機能部である。当該処理についても既に公開されている技術であるため、本明細書での詳細な説明は割愛する。そして、車両安全制御装置10においては、画像処理部11による処理結果とレーザ走査部12による処理結果を踏まえて、歩行者認識部13が、車両1の前方領域における歩行者の認識処理を行う。   In the vehicle safety control device 10, a pedestrian detection process by the laser radar 22 is also performed in addition to the image captured by the infrared camera 20. Therefore, the laser scanning unit 12 is a functional unit that performs processing for detecting a pedestrian existing there based on the result of laser scanning of the front area of the vehicle 1 by the laser radar 22. Since this processing is also a technique that has already been disclosed, detailed description in this specification will be omitted. In the vehicle safety control device 10, the pedestrian recognition unit 13 performs a pedestrian recognition process in the front area of the vehicle 1 based on the processing result by the image processing unit 11 and the processing result by the laser scanning unit 12.

また、車両安全制御装置10においては、歩行者認識部13による認識結果に基づいて、ドライバー2の安全や歩行者の安全を確保するための制御が、アラーム報知部14やシートベルト制御部15によって実行される。アラーム報知部14は、車載機6のディスプレイ装置や車両1内のスピーカ7を通して、ドライバー2に障害物の存在を認知させるためのアラームを報知する機能部であり、シートベルト制御部15は、同様にドライバー2に障害物の存在を認知させるために、シートベルト4を介してドライバー2の注意を喚起する機能部である。このようなアラーム報知部14やシートベルト制御部15による安全制御の前提として、歩行者認識部13による認識結果が使用される構成が、車両安全制御装置10内に形成されている。この歩行者認識部13による認識処理の詳細な処理については、後述する。   In the vehicle safety control device 10, control for ensuring the safety of the driver 2 and the safety of the pedestrian is performed by the alarm notification unit 14 and the seat belt control unit 15 based on the recognition result by the pedestrian recognition unit 13. Executed. The alarm notification unit 14 is a functional unit that notifies the driver 2 of an alarm for recognizing the presence of an obstacle through the display device of the in-vehicle device 6 or the speaker 7 in the vehicle 1, and the seat belt control unit 15 is the same. It is a functional part that alerts the driver 2 through the seat belt 4 in order for the driver 2 to recognize the presence of an obstacle. As a premise of such safety control by the alarm notification unit 14 and the seat belt control unit 15, a configuration in which the recognition result by the pedestrian recognition unit 13 is used is formed in the vehicle safety control device 10. Detailed processing of the recognition processing by the pedestrian recognition unit 13 will be described later.

次に、車載機6が有する機能部について説明する。車載機6は、地図情報格納部61、カーナビゲーション部62、外部情報受信部63を有している。地図情報格納部61は、カーナビゲーション部62によって実行されるカーナビゲーション処理に使用される地図情報を格納する機能部であり、たとえば車両1の走行する道路の位置情報、形状に関する情報等が地図情報格納部61によって格納されている。そして、カーナビゲーション部62は、これらの地図情報とともに、図示しないGPS装置による検出信号を利用して、車両1のナビゲーション情報を車載機6のディスプレイ装置を介してドライバー2に提供する。さらに、外部情報受信部63は、車両1の外部から、車両1が路面を走行するために有益な情報(外部情報)を受信するための機能部である。この外部情報としては、AHS(Advanced Cruise-Assist Highway System)通信等の路車間通信により送られてくる歩行
者等の存在に関する情報や外部サーバから提供される情報、更には車両1以外の路面走行中の車両から車車間通信により送られてくる障害物に関する情報等が挙げられる。
Next, the function part which the vehicle equipment 6 has will be described. The in-vehicle device 6 includes a map information storage unit 61, a car navigation unit 62, and an external information reception unit 63. The map information storage unit 61 is a functional unit that stores map information used for the car navigation process executed by the car navigation unit 62. For example, the position information of the road on which the vehicle 1 travels, information on the shape, and the like are map information. Stored by the storage unit 61. And the car navigation part 62 provides the navigation information of the vehicle 1 to the driver 2 via the display apparatus of the vehicle equipment 6 using these map information and the detection signal by the GPS apparatus which is not illustrated. Furthermore, the external information receiving unit 63 is a functional unit for receiving information (external information) useful for the vehicle 1 traveling on the road surface from the outside of the vehicle 1. As this external information, information on the presence of pedestrians, etc. sent by road-to-vehicle communication such as AHS (Advanced Cruise-Assist Highway System) communication, information provided from an external server, and road driving other than vehicle 1 The information regarding the obstacle sent from the inside vehicle by inter-vehicle communication is mentioned.

そして、上述したように、赤外線カメラ20、ミリ波レーダ21、レーザレーダ22、光センサ23が車両安全制御装置10に電気的に接続されている。ここで、車両安全制御装置10内に形成される歩行者認識部13によって歩行者認識のための処理が行われることで、車両安全制御装置10が本発明に係る歩行者認識装置としても機能することとなる。当該歩行者認識処理について、図3に基づいて以下に説明する。当該処理は、車両安全
制御装置10内で実行される制御プログラムによって実現される。
As described above, the infrared camera 20, the millimeter wave radar 21, the laser radar 22, and the optical sensor 23 are electrically connected to the vehicle safety control device 10. Here, the process for pedestrian recognition is performed by the pedestrian recognition unit 13 formed in the vehicle safety control device 10 so that the vehicle safety control device 10 also functions as a pedestrian recognition device according to the present invention. It will be. The said pedestrian recognition process is demonstrated below based on FIG. This process is realized by a control program executed in the vehicle safety control device 10.

図3に示す歩行者認識処理は、車両1が路面を走行する際に連続的に又は断続的に実行される処理である。また、図4は、当該歩行者認識処理の実行の際に車両1の前方領域に存在する歩行者等の配置の一例を概略的に示している。先ず、S101では、赤外線カメラ20によって車両1の前方領域の撮像が行われる。S101の処理が終了すると、S102へ進む。S102では、車両1の周辺環境が夜間か否かについて判定が行われる。具体的には、光センサ23による検出光の強さに応じて当該判定が行われる。周囲環境が夜間である場合には、一般的に路面走行中の車両は視野確保のためにライト照射を行うため、その場合、外部から赤外線カメラ20へ光が入り込み、その撮像画像内に高輝度領域が形成される可能性があることを踏まえて、S102の判定処理が行われるものである。そこで、S102で肯定判定されるとS103へ進み、否定判定されるとS108へ進む。   The pedestrian recognition process shown in FIG. 3 is a process executed continuously or intermittently when the vehicle 1 travels on the road surface. FIG. 4 schematically shows an example of the arrangement of pedestrians and the like existing in the front area of the vehicle 1 when the pedestrian recognition process is executed. First, in step S <b> 101, an image of the front area of the vehicle 1 is taken by the infrared camera 20. When the process of S101 ends, the process proceeds to S102. In S102, it is determined whether or not the surrounding environment of the vehicle 1 is nighttime. Specifically, the determination is performed according to the intensity of the detection light from the optical sensor 23. When the surrounding environment is nighttime, a vehicle traveling on the road generally irradiates light to secure a field of view. In this case, light enters the infrared camera 20 from the outside, and the captured image has high brightness. In consideration of the possibility that a region is formed, the determination process of S102 is performed. Therefore, if a positive determination is made in S102, the process proceeds to S103, and if a negative determination is made, the process proceeds to S108.

S103では、車両1の前方から近接してくる対向車100が検出されるか否かが判定される。具体的には、ミリ波レーダ21の検出結果に基づいて算出される対向車100の車両1に対する相対位置等が、対向車としての条件を満たす場合(たとえば、相対的な方向や相対的距離が所定の範囲に収まる場合等)には、対向車100の存在が検出されることになる。S103で肯定判定されるとS104へ進み、否定判定されるとS108へ進む。   In S103, it is determined whether the oncoming vehicle 100 approaching from the front of the vehicle 1 is detected. Specifically, when the relative position or the like of the oncoming vehicle 100 calculated based on the detection result of the millimeter wave radar 21 satisfies the condition as an oncoming vehicle (for example, the relative direction and the relative distance are The presence of the oncoming vehicle 100 is detected when it falls within a predetermined range. If a positive determination is made in S103, the process proceeds to S104, and if a negative determination is made, the process proceeds to S108.

次にS104では、S103で対向車100が検出された場合、その車両1に対する相対速度が基準となる所定速度α未満であるか否かが判定される。対向車100の相対速度が低くなると、対向車100からのライトの光軸の変化の程度が小さいため、当該ライトが赤外線カメラ20に入射されるとライトの撮像画像への影響が大きくなり、撮像画像において高輝度領域が形成されやすくなることを踏まえて、S104の判定処理が行われるものである。そこで、S104で肯定判定されるとS105へ進み、否定判定されるとS108へ進む。   Next, in S104, when the oncoming vehicle 100 is detected in S103, it is determined whether or not the relative speed with respect to the vehicle 1 is less than the reference predetermined speed α. When the relative speed of the oncoming vehicle 100 decreases, the degree of change in the optical axis of the light from the oncoming vehicle 100 is small. Therefore, when the light enters the infrared camera 20, the influence of the light on the captured image increases. The determination process of S104 is performed in consideration of the fact that high-luminance regions are easily formed in the image. Therefore, if a positive determination is made in S104, the process proceeds to S105, and if a negative determination is made, the process proceeds to S108.

ここで、上記S102−S104の各判定処理で肯定判定が為されS105へ至った場合、すなわち、車両1の赤外線カメラ20に対向車100からのライトが入射し、その撮像画像に高輝度領域が形成される可能性が高くなり、その結果、本来撮像されるべき車両1の前方領域に存在する歩行者が、その高輝度領域に埋もれてしまい、的確な歩行者認識が困難となると考えられる。そこで、本実施例においては、撮像画像において高輝度領域が形成される可能性がある場合にはS105以降の処理が行われることで、そうではない場合にはS108の処理が行われることで、それぞれに応じた適切な歩行者認識処理が行われる。したがって、S102−S104の判定処理が、本発明に係る判定手段による判定処理に相当する。   Here, when an affirmative determination is made in each determination process of S102 to S104 and the process reaches S105, that is, the light from the oncoming vehicle 100 is incident on the infrared camera 20 of the vehicle 1, and a high-luminance region is included in the captured image. As a result, it is considered that a pedestrian existing in the front area of the vehicle 1 that should be imaged is buried in the high-luminance area, and accurate pedestrian recognition is difficult. Therefore, in the present embodiment, if there is a possibility that a high-luminance region is formed in the captured image, the processing from S105 is performed, and if not, the processing of S108 is performed. Appropriate pedestrian recognition processing corresponding to each is performed. Therefore, the determination process of S102 to S104 corresponds to the determination process by the determination unit according to the present invention.

そこで、S105では、前方領域S101で撮像された撮像画像において高輝度領域の抽出が行われる。なお、当該処理は画像処理部11によって実行される。ここで、図5Aに、撮像画像の一例を示す。図4にも示すように、道路を横断している歩行者Aは対向車100から車両1へ届くライトの光軸上、もしくはその光軸に近くに位置するため、撮像画像において図5Aのように歩行者Aはライトによる高輝度領域に埋もれてしまい、その姿が的確に撮像されていない。一方で、対向車100からのライトの光軸から離れて位置する歩行者Bについては、そのライトによる高輝度領域に埋もれることなく、その姿は的確に撮像されている。このような撮像画像において、画像を構成するピクセルの輝度が基準となる所定輝度以上の場合、当該ピクセルは、本来あるべき歩行者の姿を隠してしまう高輝度領域HBを形成するものとしてS105の処理が行われる。S105の処理が終了すると、S106およびS107へ進む。   Therefore, in S105, a high luminance area is extracted from the captured image captured in the front area S101. This process is executed by the image processing unit 11. Here, FIG. 5A shows an example of a captured image. As shown also in FIG. 4, since the pedestrian A crossing the road is located on or near the optical axis of the light reaching the vehicle 1 from the oncoming vehicle 100, the captured image is as shown in FIG. 5A. In addition, the pedestrian A is buried in a high brightness area by the light, and the figure is not accurately captured. On the other hand, the figure of the pedestrian B located away from the optical axis of the light from the oncoming vehicle 100 is accurately captured without being buried in the high luminance area by the light. In such a captured image, when the luminance of a pixel constituting the image is equal to or higher than a predetermined luminance as a reference, the pixel forms a high luminance region HB that hides the pedestrian as it should be in S105. Processing is performed. When the process of S105 ends, the process proceeds to S106 and S107.

S106では高輝度領域HB外での歩行者認識が行われ、さらにはS107では高輝度領域HB内での歩行者認識が行われる。これらの歩行者認識は、画像処理部11、レーザ走査部12、歩行者認識部13によって行われる。具体的には、画像処理部11の画像処理による歩行者検出結果をR1、レーザ走査部12の走査処理による歩行者検出結果をR2としたとき、S106での処理においては、歩行者認識部13は、下記の式に従い、両検出結果に重み係数を掛け合わせた上で両者を組み合わせて的確な歩行者認識を行う。
歩行者認識部13による認識処理=0.5×R1+0.5×R2・・・(式1)
In S106, pedestrian recognition is performed outside the high luminance area HB, and further in S107, pedestrian recognition is performed in the high luminance area HB. These pedestrian recognitions are performed by the image processing unit 11, the laser scanning unit 12, and the pedestrian recognition unit 13. Specifically, when the pedestrian detection result by the image processing of the image processing unit 11 is R1, and the pedestrian detection result by the scanning processing of the laser scanning unit 12 is R2, the pedestrian recognition unit 13 in the process at S106. In accordance with the following equation, both detection results are multiplied by a weighting factor and combined to perform accurate pedestrian recognition.
Recognition processing by the pedestrian recognition unit 13 = 0.5 × R1 + 0.5 × R2 (Expression 1)

すなわちS106では、撮像画像に基づいた検出結果の重みと、レーザレーダ22の走査結果の重みとを同率に扱うことで、両検出結果を互いに補完しながら最終的な歩行者認識が行われることになる。   That is, in S106, the weight of the detection result based on the captured image and the weight of the scanning result of the laser radar 22 are handled at the same rate, so that the final pedestrian recognition is performed while complementing both detection results. Become.

一方で、S107では、高輝度領域HB内では、撮像画像において歩行者の存在が高輝度領域HBに埋もれている可能性があることを踏まえて、歩行者認識部13は下記の式に従い歩行者認識を行う。
歩行者認識部13による認識処理=R2・・・(式2)
On the other hand, in S107, in the high brightness area HB, the pedestrian recognition unit 13 follows the following formula based on the possibility that the presence of a pedestrian in the captured image may be buried in the high brightness area HB. Recognize.
Recognition processing by the pedestrian recognition unit 13 = R2 (Expression 2)

すなわちS107では、高輝度領域HBについては、撮像画像による検出結果は利用されず、レーザレーダ22の走査結果のみが利用される。より具体的には、撮像画像における高輝度領域HBに対応する、車両1の前方領域の部分での歩行者認識に関しては、レーザレーダ22の走査結果のみが利用されることになる。レーザレーダ22の走査結果においては、前方領域での車両1に対する相対位置が把握されていることから、撮像画像での高輝度領域HBに対応するレーザレーダ22の走査結果の一部を特定することは可能である。このような処理を行うことで、高輝度領域HBに歩行者が埋もれたとする検出結果の影響を軽減し、結果として、歩行者Aの認識漏れを防ぐことが可能となる。   That is, in S107, for the high luminance region HB, the detection result based on the captured image is not used, and only the scanning result of the laser radar 22 is used. More specifically, only the scanning result of the laser radar 22 is used for pedestrian recognition in the front area portion of the vehicle 1 corresponding to the high luminance area HB in the captured image. In the scanning result of the laser radar 22, since the relative position with respect to the vehicle 1 in the front area is grasped, a part of the scanning result of the laser radar 22 corresponding to the high luminance area HB in the captured image is specified. Is possible. By performing such processing, it is possible to reduce the influence of the detection result that the pedestrian is buried in the high luminance area HB, and as a result, it is possible to prevent the recognition failure of the pedestrian A.

なお、上記式2においては、撮像画像に基づいた検出結果の重みをゼロとしているが、それに代えて、下記式2’のように撮像画像に基づいた検出結果の重みを、式1に示した重みと比べて低くなるように設定してもよい。すなわち、高輝度領域HB内での歩行者認識における撮像画像に基づいた検出結果の重みは、高輝度領域HB外での当該検出結果の重みより低い値とすることで、高輝度領域HBに歩行者が埋もれたとする検出結果の影響を軽減し、結果として、歩行者Aの認識漏れを防ぐことが可能となる。
歩行者認識部13による認識処理=0.1×R1+0.9×R2・・・(式2’)
In Equation 2, the weight of the detection result based on the captured image is set to zero. Instead, the weight of the detection result based on the captured image is expressed by Equation 1 as shown in Equation 2 ′ below. You may set so that it may become low compared with a weight. That is, the weight of the detection result based on the captured image in the pedestrian recognition in the high luminance area HB is set to a value lower than the weight of the detection result outside the high luminance area HB, so that the walking to the high luminance area HB is performed. The influence of the detection result that the person is buried is reduced, and as a result, the recognition failure of the pedestrian A can be prevented.
Recognition processing by the pedestrian recognition unit 13 = 0.1 × R1 + 0.9 × R2 (Expression 2 ′)

次にS108では、図5Bに示すように撮像画像においては高輝度領域は形成されておらず、歩行者Aが対向車100のライトによる高輝度領域に埋もれている可能性は低いと考えられることから、撮像画像を用いた検出結果R1を、上記式1に従って利用することで、歩行者認識の処理が行われる。   Next, in S108, as shown in FIG. 5B, the high-luminance area is not formed in the captured image, and it is considered unlikely that the pedestrian A is buried in the high-luminance area due to the light of the oncoming vehicle 100. Therefore, the pedestrian recognition process is performed by using the detection result R1 using the captured image in accordance with the above-described Expression 1.

S107又はS108の処理が終了すると、再びS101以降の処理が繰り返される。上記歩行者認識処理によれば、赤外線カメラ20による撮像画像を用いて歩行者認識処理を行う場合、対向車100のライトによる高輝度領域に歩行者の姿が埋もれる可能性があったとしても、赤外線カメラ20による検出結果と、レーザレーダ22による検出結果との重みを調整することで、車両1の前方領域における歩行者認識を的確に行うことが可能となる。そして、上記歩行者認識処理によって車両1の前方領域に歩行者が認識された場合には、その結果が、車両安全制御装置10内のアラーム報知部14やシートベルト制御部15に渡されて、上述したようなドライバー2に対する安全制御が実行されることになる。   When the process of S107 or S108 ends, the processes after S101 are repeated again. According to the above pedestrian recognition process, when the pedestrian recognition process is performed using the image captured by the infrared camera 20, even if the pedestrian may be buried in the high luminance area by the light of the oncoming vehicle 100, By adjusting the weight between the detection result by the infrared camera 20 and the detection result by the laser radar 22, pedestrian recognition in the front area of the vehicle 1 can be performed accurately. Then, when a pedestrian is recognized in the front area of the vehicle 1 by the pedestrian recognition process, the result is passed to the alarm notification unit 14 and the seat belt control unit 15 in the vehicle safety control device 10, The safety control for the driver 2 as described above is executed.

ここで、上記車両安全制御装置10では、ミリ波レーダ21を対向車の検出に利用した
が、ミリ波レーダ21の検出結果を車両1の前方領域における歩行者の認識処理に利用してもよい。この場合、一例として、ミリ波レーダ21の検出結果をR3とするとき、上記式1、式2を以下のように変更することができる。
S106における歩行者認識部13による認識処理
=0.5×R1+(0.3×R2+0.2×R3)・・・(式1の変更例)
S107における歩行者認識部13による認識処理
=0.2×R2+0.8×R3・・・(式2の変更例)
なお、各検出結果に掛かる重みの係数は、現実に車両1が置かれる周囲環境やミリ波レーダ21、レーザレーダ22の検出精度等を考慮して適宜設定すればよい。
Here, in the vehicle safety control device 10, the millimeter wave radar 21 is used for detection of an oncoming vehicle, but the detection result of the millimeter wave radar 21 may be used for pedestrian recognition processing in the front area of the vehicle 1. . In this case, as an example, when the detection result of the millimeter wave radar 21 is R3, the above formulas 1 and 2 can be changed as follows.
Recognition processing by the pedestrian recognition unit 13 in S106 = 0.5 × R1 + (0.3 × R2 + 0.2 × R3) (Modification example of Formula 1)
Recognition processing by the pedestrian recognition unit 13 in S107 = 0.2 × R2 + 0.8 × R3 (an example of changing formula 2)
Note that the coefficient of weight applied to each detection result may be appropriately set in consideration of the surrounding environment where the vehicle 1 is actually placed, the detection accuracy of the millimeter wave radar 21 and the laser radar 22, and the like.

本発明に係る車両安全装置10による歩行者認識処理の第2の実施例について、図6に基づいて説明する。図6は、歩行者認識処理のフローチャートであり、当該処理は、車両安全制御装置10内で実行される制御プログラムによって実現される。上述の図3に示す歩行者認識処理と同一の処理については同一の参照番号を付して、その詳細な説明は省略する。   A second embodiment of the pedestrian recognition process by the vehicle safety device 10 according to the present invention will be described with reference to FIG. FIG. 6 is a flowchart of the pedestrian recognition process, and this process is realized by a control program executed in the vehicle safety control device 10. The same processes as the pedestrian recognition process shown in FIG. 3 described above are denoted by the same reference numerals, and detailed description thereof is omitted.

本実施例に係る歩行者認識処理では、赤外線カメラ20による撮像画像において高輝度領域HBが存在するか否かの判定を、画像処理部11による画像処理を介して行う点で、図3に示す歩行者認識処理と異なる。具体的には、S101の処理終了後、図3に示す歩行者認識処理におけるS102−S104の判定処理に代えて、S201の判定処理が行われる。S201では、S101で撮像された撮像画像そのものに対して画像処理を行い、当該画像を構成するピクセルの輝度が所定輝度αを超えているピクセルによって形成される領域面性が基準面積を超える場合、高輝度領域HBが存在していると判定される。当該領域面積が基準面積を超えたときに高輝度領域HBが存在していると判定するのは、ノイズ的に含まれる高輝度のピクセルの影響を排除するためである。ただし、このように当該領域面積の大きさに応じて高輝度領域HBの存在を判定する代わりに、所定輝度αを超えているピクセルが存在することをもって、高輝度領域HBが存在していると判定しても構わない。   In the pedestrian recognition process according to the present embodiment, as shown in FIG. 3, whether or not the high brightness area HB exists in the image captured by the infrared camera 20 is determined through image processing by the image processing unit 11. Different from pedestrian recognition processing. Specifically, after the process of S101 ends, the determination process of S201 is performed instead of the determination process of S102 to S104 in the pedestrian recognition process shown in FIG. In S201, image processing is performed on the captured image itself captured in S101, and when the area surface formed by the pixels in which the luminance of the pixels constituting the image exceeds the predetermined luminance α exceeds the reference area, It is determined that the high brightness area HB exists. The reason why it is determined that the high brightness area HB exists when the area exceeds the reference area is to eliminate the influence of high brightness pixels included in noise. However, instead of determining the presence of the high brightness area HB according to the size of the area, the presence of the high brightness area HB when there is a pixel exceeding the predetermined brightness α. You may judge.

S201で肯定判定されるとS105以降の処理が行われ、否定判定されるとS108の処理が行われる。本実施例に係る歩行者認識処理によっても、上記歩行者認識処理と同様に、車両1の前方領域における歩行者認識を的確に行うことが可能となり、以て車両安全制御装置10によるドライバー2に対する安全制御の実効性が担保され得る。   If an affirmative determination is made in S201, the processing from S105 is performed, and if a negative determination is made, the processing in S108 is performed. Also by the pedestrian recognition process according to the present embodiment, the pedestrian recognition in the front area of the vehicle 1 can be accurately performed similarly to the pedestrian recognition process, and thus the vehicle safety control device 10 can deal with the driver 2. Effectiveness of safety control can be ensured.

本発明に係る車両安全装置10による歩行者認識処理の第3の実施例について、図7に基づいて説明する。図7は、歩行者認識処理のフローチャートであり、当該処理は、車両安全制御装置10内で実行される制御プログラムによって実現される。上述の図3、図6に示す歩行者認識処理と同一の処理については同一の参照番号を付して、その詳細な説明は省略する。   A third embodiment of pedestrian recognition processing by the vehicle safety device 10 according to the present invention will be described with reference to FIG. FIG. 7 is a flowchart of the pedestrian recognition process, and the process is realized by a control program executed in the vehicle safety control device 10. The same reference numerals are assigned to the same processes as the pedestrian recognition processes shown in FIGS. 3 and 6 described above, and a detailed description thereof is omitted.

本実施例に係る歩行者認識処理では、画像処理部11による上記S201での判定処理で肯定判定が為されると、上述までのS105−S107の処理に代えてS202の処理が行われる。S202では、S101で得られた撮像画像を用いずに、車両1の前方領域における歩行者認識を、外部情報受信部63が受信した外部情報に基づいて行う。すなわち、撮像画像において歩行者が高輝度領域HBに埋もれている可能性がある場合には、当該撮像画像に基づいた歩行者認識は全てキャンセルし、外部情報のみに基づいて歩行者の判断を行うものである。このため、外部情報の精度に依存することにはなるが、少なくとも歩行者が高輝度領域HBに埋もれることによる歩行者の認識漏れを防ぐことは可能とな
る。なお、S201において否定判定されると、上記S108の処理が行われる。
In the pedestrian recognition process according to the present embodiment, when an affirmative determination is made in the determination process in S201 by the image processing unit 11, the process in S202 is performed instead of the processes in S105 to S107 described above. In S202, pedestrian recognition in the front area of the vehicle 1 is performed based on the external information received by the external information reception unit 63 without using the captured image obtained in S101. That is, when there is a possibility that a pedestrian is buried in the high brightness area HB in the captured image, all pedestrian recognition based on the captured image is canceled and the pedestrian is determined based only on the external information. Is. For this reason, although depending on the accuracy of the external information, it is possible to prevent a pedestrian from missing recognition at least due to the pedestrian being buried in the high luminance area HB. If a negative determination is made in S201, the process of S108 is performed.

1・・・・車両
6・・・・車載機
10・・・・車両安全制御装置
20・・・・赤外線カメラ
21・・・・ミリ波レーダ
22・・・・レーザレーダ
23・・・・光センサ
100・・・・対向車
DESCRIPTION OF SYMBOLS 1 .... Vehicle 6 .... Onboard equipment 10 .... Vehicle safety control device 20 .... Infrared camera 21 ... Millimeter wave radar 22 .... Laser radar 23 ... Light Sensor 100 ... ・ ・ ・ Oncoming vehicle

Claims (5)

車両周辺の領域を撮像する撮像手段と、
前記撮像手段による撮像画像を用いて、前記車両周辺の領域に位置する障害物を検出する第一検出手段と、
前記車両から電磁波を送信し、該障害物からの反射波を受信して得られた受信信号に基づいて、該車両の周囲に位置する障害物を検出する第二検出手段と、
前記第一検出手段による検出結果と前記第二検出手段による検出結果とに基づいて、前記障害物を認識する障害物認識手段と、を備え、
前記障害物認識手段は、前記撮像手段による撮像画像において該画像の輝度が所定輝度を超える高輝度領域が存在すると判定された場合、該高輝度領域に対応する前記障害物認識については、前記第一検出手段による障害物検出結果に対する前記第二検出手段による障害物検出結果の比率を、該高輝度領域に対応しない前記車両周辺の領域での障害物認識の場合の該比率よりも大きくする、
障害物認識装置。
Imaging means for imaging an area around the vehicle;
First detection means for detecting an obstacle located in a region around the vehicle, using an image captured by the imaging means;
Second detection means for detecting an obstacle located around the vehicle based on a reception signal obtained by transmitting an electromagnetic wave from the vehicle and receiving a reflected wave from the obstacle;
Obstacle recognition means for recognizing the obstacle based on the detection result by the first detection means and the detection result by the second detection means,
When it is determined that there is a high-luminance region in which the luminance of the image exceeds a predetermined luminance in the image captured by the imaging unit, the obstacle recognition unit performs the obstacle recognition corresponding to the high-luminance region with respect to the obstacle recognition. The ratio of the obstacle detection result by the second detection means to the obstacle detection result by one detection means is larger than the ratio in the case of obstacle recognition in the area around the vehicle that does not correspond to the high luminance area.
Obstacle recognition device.
前記障害物認識手段は、前記撮像画像内に前記高輝度領域が存在すると判定された場合、該高輝度領域に対応する前記障害物認識については、前記第二検出手段による障害物検出結果にのみ基づいて、前記車両周辺の領域に位置する障害物の認識を行う、
請求項1に記載の障害物認識装置。
When it is determined that the high-luminance region exists in the captured image, the obstacle recognition unit is configured only with the obstacle detection result by the second detection unit for the obstacle recognition corresponding to the high-luminance region. Based on the obstacles located in the area around the vehicle,
The obstacle recognition apparatus according to claim 1.
前記車両へ近接する対向車の存在を認識し、且つ該対向車の該車両に対する相対速度が所定速度以下である場合に、前記撮像画像における前記高輝度領域の存在の判定が行われる、
請求項1又は請求項2に記載の障害物認識装置。
When the presence of an oncoming vehicle in proximity to the vehicle is recognized and the relative speed of the oncoming vehicle with respect to the vehicle is equal to or lower than a predetermined speed, the presence of the high brightness region in the captured image is determined.
The obstacle recognition apparatus according to claim 1 or 2.
車両周辺の領域を撮像する撮像手段と、
前記撮像手段による撮像画像を用いて、前記車両周辺の領域に位置する障害物を検出する第一検出手段と、
前記車両周辺の領域における障害物の存在に関する情報を外部から受信する外部情報受信手段と、
前記第一検出手段による検出結果に基づいて、前記障害物を認識する障害物認識手段と、を備え、
前記障害物認識手段は、前記撮像手段による撮像画像において該画像の輝度が所定輝度を超える高輝度領域が存在すると判定された場合、前記第一検出手段による障害物検出に代えて、前記外部情報受信手段によって受信された情報に基づいて、前記車両周辺の領域に位置する障害物の認識を行う、
障害物認識装置。
Imaging means for imaging an area around the vehicle;
First detection means for detecting an obstacle located in a region around the vehicle, using an image captured by the imaging means;
External information receiving means for receiving information on the presence of obstacles in the area around the vehicle from the outside;
Obstacle recognition means for recognizing the obstacle based on the detection result by the first detection means,
When it is determined that there is a high-luminance region in which the luminance of the image exceeds a predetermined luminance in the image captured by the imaging unit, the obstacle recognition unit replaces the obstacle detection by the first detection unit, and the external information Based on the information received by the receiving means, the obstacles located in the area around the vehicle are recognized.
Obstacle recognition device.
車両から撮像した画像から障害物を検出する第一検出手段と、
前記車両から電磁波を放出し、反射されてきた電磁波を受信して障害物を検出する第二検出手段と、
前記第一検出手段で取得された画像から高輝度領域を抽出し、この高輝度領域とその他の領域とにおける前記第二検出手段の検出ウェイトを異ならせる障害物認識手段と、
を備える障害物認識装置。
First detection means for detecting an obstacle from an image captured from a vehicle;
A second detection means for detecting an obstacle by emitting an electromagnetic wave from the vehicle and receiving the reflected electromagnetic wave;
An obstacle recognizing unit that extracts a high luminance region from the image acquired by the first detecting unit and makes the detection weight of the second detecting unit different in the high luminance region and other regions;
An obstacle recognition device comprising:
JP2010134070A 2010-06-11 2010-06-11 Obstacle recognition device Active JP5617362B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010134070A JP5617362B2 (en) 2010-06-11 2010-06-11 Obstacle recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010134070A JP5617362B2 (en) 2010-06-11 2010-06-11 Obstacle recognition device

Publications (2)

Publication Number Publication Date
JP2011258121A true JP2011258121A (en) 2011-12-22
JP5617362B2 JP5617362B2 (en) 2014-11-05

Family

ID=45474202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010134070A Active JP5617362B2 (en) 2010-06-11 2010-06-11 Obstacle recognition device

Country Status (1)

Country Link
JP (1) JP5617362B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014192143A1 (en) * 2013-05-31 2014-12-04 トヨタ自動車 株式会社 Driving assistance device for vehicles and onboard computer
JP2016008922A (en) * 2014-06-25 2016-01-18 株式会社東芝 Sensor information fusion device
WO2018173715A1 (en) * 2017-03-21 2018-09-27 コニカミノルタ株式会社 Illumination image capture device
CN113452978A (en) * 2021-06-28 2021-09-28 深圳市银星智能科技股份有限公司 Obstacle detection method and electronic equipment
JP2022154611A (en) * 2021-03-30 2022-10-13 本田技研工業株式会社 Drive assistance device, drive assistance method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202678A (en) * 2004-01-15 2005-07-28 Nissan Motor Co Ltd Traveling support device
JP2007128460A (en) * 2005-11-07 2007-05-24 Sumitomo Electric Ind Ltd Collision determination system, collision determination method, computer program, and determination device
JP2007255979A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2008176555A (en) * 2007-01-18 2008-07-31 Fujitsu Ten Ltd Obstacle detector and obstacle detection method
JP2009169814A (en) * 2008-01-18 2009-07-30 Honda Motor Co Ltd Vehicular collision avoidance support system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202678A (en) * 2004-01-15 2005-07-28 Nissan Motor Co Ltd Traveling support device
JP2007128460A (en) * 2005-11-07 2007-05-24 Sumitomo Electric Ind Ltd Collision determination system, collision determination method, computer program, and determination device
JP2007255979A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2008176555A (en) * 2007-01-18 2008-07-31 Fujitsu Ten Ltd Obstacle detector and obstacle detection method
JP2009169814A (en) * 2008-01-18 2009-07-30 Honda Motor Co Ltd Vehicular collision avoidance support system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014192143A1 (en) * 2013-05-31 2014-12-04 トヨタ自動車 株式会社 Driving assistance device for vehicles and onboard computer
JP5641271B1 (en) * 2013-05-31 2014-12-17 トヨタ自動車株式会社 Vehicle driving support device and in-vehicle computer
CN105247592A (en) * 2013-05-31 2016-01-13 丰田自动车株式会社 Driving assistance device for vehicles and onboard computer
EP3007149A4 (en) * 2013-05-31 2016-07-20 Toyota Motor Co Ltd Driving assistance device for vehicles and onboard computer
US10214208B2 (en) 2013-05-31 2019-02-26 Toyota Jidosha Kabushiki Kaisha Drive assist apparatus of vehicle and onboard computer
JP2016008922A (en) * 2014-06-25 2016-01-18 株式会社東芝 Sensor information fusion device
WO2018173715A1 (en) * 2017-03-21 2018-09-27 コニカミノルタ株式会社 Illumination image capture device
JPWO2018173715A1 (en) * 2017-03-21 2020-01-23 コニカミノルタ株式会社 Illumination imaging device
JP2022154611A (en) * 2021-03-30 2022-10-13 本田技研工業株式会社 Drive assistance device, drive assistance method, and program
JP7288923B2 (en) 2021-03-30 2023-06-08 本田技研工業株式会社 Driving support device, driving support method, and program
CN113452978A (en) * 2021-06-28 2021-09-28 深圳市银星智能科技股份有限公司 Obstacle detection method and electronic equipment
CN113452978B (en) * 2021-06-28 2023-01-17 深圳银星智能集团股份有限公司 Obstacle detection method and electronic equipment

Also Published As

Publication number Publication date
JP5617362B2 (en) 2014-11-05

Similar Documents

Publication Publication Date Title
US11798419B2 (en) Vehicular collision mitigation system
JP4434224B2 (en) In-vehicle device for driving support
JP4517393B2 (en) Driving assistance device
JP5371273B2 (en) Object detection device, periphery monitoring device, driving support system, and object detection method
US9663034B2 (en) Vehicle alarm output apparatus for intersection of roads
KR101687073B1 (en) Apparatus for esimating tunnel height and method thereof
JP2007172035A (en) Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method
US20180362034A1 (en) Driving assistance system
JP2013061919A (en) External environment recognition method and device, and vehicle system
JP2008037361A (en) Obstacle recognition device
JP2011027457A (en) Object detecting device, information processing method and information processing system
JP5617362B2 (en) Obstacle recognition device
CN111246160A (en) Information providing system and method, server, in-vehicle device, and storage medium
CN113246993B (en) driving support system
JP2007030603A (en) Vehicle travel assisting device
JP2009146153A (en) Moving object detection device, moving object detection method and moving object detection program
JP4872517B2 (en) Obstacle recognition device
JP2008286566A (en) On-vehicle device
US11724693B2 (en) Systems and methods to prevent vehicular mishaps
CN111619556B (en) Obstacle avoidance control method and device for automobile and storage medium
JP2015032107A (en) Vehicle periphery monitoring device
JP2018163530A (en) Object detection device, object detection method, and object detection program
CN115088248A (en) Image pickup apparatus, image pickup system, and image pickup method
JP2022063508A (en) Safe driving assistance device for vehicles
JP2010146082A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140901

R151 Written notification of patent or utility model registration

Ref document number: 5617362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151