JP4701961B2 - Pedestrian detection device - Google Patents

Pedestrian detection device Download PDF

Info

Publication number
JP4701961B2
JP4701961B2 JP2005278785A JP2005278785A JP4701961B2 JP 4701961 B2 JP4701961 B2 JP 4701961B2 JP 2005278785 A JP2005278785 A JP 2005278785A JP 2005278785 A JP2005278785 A JP 2005278785A JP 4701961 B2 JP4701961 B2 JP 4701961B2
Authority
JP
Japan
Prior art keywords
pedestrian
distance
infrared
image
retinal reflection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005278785A
Other languages
Japanese (ja)
Other versions
JP2007089094A (en
Inventor
恭司 水谷
浩一 藤田
清貴 森泉
智哉 川▲崎▼
哲也 粥川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005278785A priority Critical patent/JP4701961B2/en
Publication of JP2007089094A publication Critical patent/JP2007089094A/en
Application granted granted Critical
Publication of JP4701961B2 publication Critical patent/JP4701961B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、歩行者検知装置に係り、特に、赤外線画像に基づいて歩行者を検知する車両用の歩行者検知装置に関する。   The present invention relates to a pedestrian detection device, and more particularly to a pedestrian detection device for a vehicle that detects a pedestrian based on an infrared image.

従来、夜間における歩行者を検知する装置として、赤外線カメラを用いたものが種々提案されている。   Conventionally, various devices using infrared cameras have been proposed as devices for detecting pedestrians at night.

例えば、特許文献1には、レーザレーダ及び赤外線カメラを併用し、レーザレーダから得られる歩行者候補の検出情報をもとに赤外線画像中での歩行者検出の探索範囲を設定し、その範囲に歩行者が存在するか否かを検出する装置が開示されている。   For example, in Patent Document 1, a laser radar and an infrared camera are used in combination, and a search range for detecting pedestrians in an infrared image is set based on detection information of pedestrian candidates obtained from the laser radar. An apparatus for detecting whether a pedestrian is present is disclosed.

また、特許文献2には、赤外線カメラで撮像した画像の画素中で輝度値が閾値以上の画素群(歩行者の顔等)と閾値未満の画素群(背景等)とを輝度分離し、輝度分離された2種の画素群についてそれぞれ異なる処理を施し、これらと赤外線カメラの原画像とを加算した結果を表示する装置が開示されている。   Further, in Patent Document 2, luminance separation is performed on a pixel group (such as a pedestrian's face) whose luminance value is greater than or equal to a threshold value and a pixel group (such as a background) whose luminance value is less than the threshold value among pixels of an image captured by an infrared camera. An apparatus is disclosed that performs different processing on the two separated pixel groups and displays the result of adding these and the original image of the infrared camera.

さらに、特許文献3には、赤外線画像に基づいて明部が集中している領域を探し、これを検出対象者の頭部と決定する装置が開示されている。
特開2003−302470号公報 特開平11−243538号公報 特開平11−328364号公報
Further, Patent Document 3 discloses an apparatus that searches for a region where bright parts are concentrated based on an infrared image and determines this as the head of the person to be detected.
JP 2003-302470 A JP 11-243538 A Japanese Patent Laid-Open No. 11-328364

しかしながら、特許文献1記載の発明のようにレーザレーダによって歩行者を検出する場合、歩行者からの反射波が弱く、検出しづらい、という問題があった。このため、歩行者を検出できるように検出レベルを下げると、逆に他の物体を誤検出してしまう。さらに、検出処理にFFT(高速フーリエ変換)が必要な場合、演算負荷が大きいという問題もある。   However, when a pedestrian is detected by a laser radar as in the invention described in Patent Document 1, there is a problem that a reflected wave from the pedestrian is weak and difficult to detect. For this reason, if the detection level is lowered so that a pedestrian can be detected, other objects are erroneously detected. Further, when FFT (Fast Fourier Transform) is necessary for the detection process, there is a problem that the calculation load is heavy.

また、赤外線カメラで撮影した画像から歩行者を検出する場合、パターン認識等の画像処理が非常に複雑であり、処理負荷が大きくなる、という問題がある。   Moreover, when detecting a pedestrian from the image image | photographed with the infrared camera, image processings, such as pattern recognition, are very complicated, and there exists a problem that a processing load becomes large.

本発明は、上記事実を考慮して成されたものであり、夜間等における歩行者の検知精度を向上させることができる歩行者検知装置を提供することを目的とする。   The present invention has been made in consideration of the above-described facts, and an object of the present invention is to provide a pedestrian detection device that can improve the detection accuracy of a pedestrian at night or the like.

上記目的を達成するために、請求項1記載の発明は、 赤外線を発光する赤外線発光手段と、赤外線画像を撮影する赤外線カメラと、前記赤外線カメラによって撮影された赤外線画像を輝度画像に変換する変換手段と、前記輝度画像に基づいて、第1の所定値以上の輝度を有する第1の領域を抽出する第1の抽出手段と、抽出した第1の領域の輝度画像に基づいて、前記第1の所定値よりも大きい第2の所定値以上の輝度を有する隣接した2つの第2の領域を歩行者の網膜反射点の候補として抽出する第2の抽出手段と、抽出した2つの網膜反射点の候補の位置に基づいて、前記赤外線画像に歩行者が存在するか否かを判定する判定手段と、を備えたことを特徴とする。 In order to achieve the above object, the invention according to claim 1 is an infrared light emitting means for emitting infrared light, an infrared camera for photographing an infrared image, and a conversion for converting an infrared image photographed by the infrared camera into a luminance image. Means, first extraction means for extracting a first region having a luminance equal to or higher than a first predetermined value based on the luminance image, and the first extraction unit based on the extracted luminance image of the first region. A second extraction means for extracting two adjacent second regions having a luminance greater than a predetermined value greater than a predetermined value as pedestrian reflection point candidates , and the extracted two retinal reflection points Determination means for determining whether or not a pedestrian exists in the infrared image based on the position of the candidate.

この発明によれば、赤外線を発光し、赤外線カメラによって撮影された赤外線画像に基づいて、歩行者の網膜反射点の候補を出し、抽出した網膜反射点の候補の位置に基づいて、赤外線画像に歩行者が存在するか否かを判定手段によって判定する。 According to the invention, it emits infrared, based on the infrared images taken by the infrared camera, issued extract the candidate of the retinal reflection point of the pedestrian, on the basis of the position of the candidate of the extracted retinal reflection point, infrared images Whether or not there is a pedestrian is determined by the determining means.

このように、網膜反射点の候補の位置に基づいて歩行者か否かを判定するので、従来のように歩行者の形状等について精密にパターンマッチングする等の複雑な処理をする必要がなく、簡単かつ精度良く歩行者を検知することが可能となる。   In this way, since it is determined whether or not the pedestrian is based on the position of the candidate for the retinal reflection point, there is no need to perform complicated processing such as pattern matching precisely about the shape of the pedestrian as in the past, It becomes possible to detect a pedestrian easily and accurately.

具体的には、記赤外線画像を輝度画像に変換する変換手段と、前記輝度画像に基づいて、第1の所定値以上の輝度を有する第1の領域を抽出する第1の抽出手段と、抽出した第1の領域の輝度画像に基づいて、前記第1の所定値よりも大きい第2の所定値以上の輝度を有する隣接した2つの第2の領域を前記網膜反射点の候補として抽出する第2の抽出手段と、を含み、前記判定手段は、抽出した2つの網膜反射点の候補の位置に基づいて、前記赤外線画像に歩行者が存在するか否かを判定することができる。 Specifically, a converting means for converting the pre-Symbol infrared image into a luminance image, on the basis of the luminance image, first extracting means for extracting a first region having a first predetermined value or more brightness, Based on the extracted luminance image of the first region, two adjacent second regions having a luminance equal to or higher than a second predetermined value larger than the first predetermined value are extracted as candidates for the retinal reflection point. And a second extraction unit, wherein the determination unit can determine whether or not a pedestrian exists in the infrared image based on the extracted positions of the two candidate retinal reflection points.

すなわち、赤外線画像では、人間等の熱を持った物体は輝度が高くなるので、その部分を第1の抽出手段で第1の領域として抽出する。また、人間の網膜で反射された部分は、他の体の部分よりもさらに輝度が高くなると考えられるので、その部分を第2の抽出手段により第2の領域として抽出する。   That is, in an infrared image, since an object having heat such as a human has high luminance, the portion is extracted as a first region by the first extraction means. In addition, since the portion reflected by the human retina is considered to have higher luminance than other body portions, the portion is extracted as the second region by the second extraction means.

そして、抽出した2つの第2の領域を網膜反射点の候補とし、これらの位置に基づいて、歩行者か否かを判定する。   Then, the two extracted second regions are used as candidates for the retinal reflection point, and based on these positions, it is determined whether or not the person is a pedestrian.

このように、歩行者の候補を第1の領域として抽出し、さらに第1の領域から網膜反射点の候補を抽出するので、より正確に歩行者か否かを判定することができる。   Thus, since the candidate of a pedestrian is extracted as a 1st area | region and the candidate of a retinal reflection point is further extracted from a 1st area | region, it can be determined more correctly whether it is a pedestrian.

なお、請求項に記載したように、前記判定手段は、前記2つの網膜反射点の候補間の距離に基づいて、歩行者か否かを判定するようにしてもよい。例えば、前記候補間の距離が人間の目の間隔と判断できる範囲の距離の場合に歩行者と判定することができる。 In addition, as described in claim 2 , the determination unit may determine whether or not the person is a pedestrian based on a distance between the candidates for the two retinal reflection points. For example, when the distance between the candidates is within a range where it can be determined that the distance is between human eyes, it can be determined as a pedestrian.

この場合、請求項に記載したように、前記歩行者までの距離を検出する距離検出手段をさらに備え、前記判定手段は、前記2つの網膜反射点の候補間の距離と前記歩行者までの距離とに基づいて、歩行者か否かを判定するようにしてもよい。これにより、より精度良く歩行者か否かを判定することができる。 In this case, as described in claim 3 , further comprising distance detection means for detecting a distance to the pedestrian, wherein the determination means includes a distance between the two retinal reflection point candidates and the distance to the pedestrian. You may make it determine whether it is a pedestrian based on distance. Thereby, it can be determined whether it is a pedestrian more accurately.

なお、請求項に記載したように、前記距離検出手段は、ミリ波レーダである構成とすることができる。 According to a fourth aspect of the present invention, the distance detecting means can be a millimeter wave radar.

また、請求項に記載したように、前記判定手段は、前記2つの網膜反射点の候補の少なくとも一つの候補の位置から前記第1の領域の端部までの距離に基づいて、歩行者か否かを判定するようにしてもよい。例えば、第1の領域の所定方向の長さに対する、網膜反射点の位置から第1の領域の端部までの距離の割合を求め、これが人間の目の位置に相当する割合であった場合に歩行者と判定することができる。これにより、歩行者の候補である第1の領域の大きさに関係なく、精度良く歩行者か否かを判定することができる。 In addition, as described in claim 5 , the determination unit determines whether the pedestrian is based on a distance from the position of at least one candidate of the two retinal reflection point candidates to the end of the first region. It may be determined whether or not. For example, when the ratio of the distance from the position of the retinal reflection point to the end of the first area with respect to the length in the predetermined direction of the first area is obtained, and this is the ratio corresponding to the position of the human eye A pedestrian can be determined. Thereby, it can be determined whether it is a pedestrian accurately regardless of the magnitude | size of the 1st area | region which is a pedestrian candidate.

また、請求項に記載したように、前記判定手段による判定結果を出力する出力手段をさらに備えた構成としてもよい。 Further, as described in claim 6 , it may be configured to further include an output means for outputting a determination result by the determination means.

具体的には、例えば請求項に記載したように、前記出力手段は、検出した歩行者を強調表示する表示手段である構成とすることができる。 Specifically, for example, as described in claim 7 , the output unit may be a display unit that highlights a detected pedestrian.

このような歩行者検知装置を例えば自動車に搭載することにより、ドライバーは、夜間等においても歩行者が存在することを容易に認識することができ、危険を容易に回避することが可能となる。   By mounting such a pedestrian detection device in, for example, an automobile, the driver can easily recognize the presence of a pedestrian even at night or the like, and can easily avoid danger.

以上説明したように本発明によれば、夜間等における歩行者の検知精度を向上させることができる、という効果を有する。   As described above, according to the present invention, the detection accuracy of pedestrians at night can be improved.

以下、図面を参照して本発明の実施形態の一例を詳細に説明する。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る歩行者検知装置10の概略構成を示している。図1に示すように、歩行者検知装置10は、制御部12、赤外線発光部14、赤外線カメラ16、距離検出センサ18、操作部20、表示部22、音声出力部24、及びメモリ26等を含んで構成されている。   FIG. 1 shows a schematic configuration of a pedestrian detection device 10 according to an embodiment of the present invention. As shown in FIG. 1, the pedestrian detection device 10 includes a control unit 12, an infrared light emitting unit 14, an infrared camera 16, a distance detection sensor 18, an operation unit 20, a display unit 22, an audio output unit 24, a memory 26, and the like. It is configured to include.

赤外線発光部14は、制御部12からの指示により、歩行者の検出に適した所定波長の赤外線(例えば近赤外線)の光(赤外光)を発光する。   The infrared light emitting unit 14 emits infrared light (infrared light) having a predetermined wavelength suitable for detection of a pedestrian according to an instruction from the control unit 12.

赤外線カメラ16は、例えばCCDやC−MOSセンサ等を撮像素子として、赤外線を検出可能なカメラである。赤外線カメラ16で撮影された赤外線画像は、撮影された物体の温度や色等に応じて輝度が変化した画像となる。例えば温度が高い物体は輝度が高い画像となり、温度が低い物体は輝度が低い画像となる。   The infrared camera 16 is a camera capable of detecting infrared rays using, for example, a CCD or C-MOS sensor as an imaging device. The infrared image captured by the infrared camera 16 is an image whose luminance changes according to the temperature, color, etc. of the captured object. For example, an object having a high temperature is an image having a high luminance, and an object having a low temperature is an image having a low luminance.

赤外線発光部14は、図2に示すように、車両30の前方に存在する歩行者36等に赤外光を良好に投光できる所定位置に設けられる。なお、赤外線発光部14は、例えば車両30のヘッドランプ32から照射されるハイビームの光の可視光をカットするフィルターを設けることによりヘッドランプ32と兼用させた構成としてもよいし、赤外光を発光する素子を単独で設けた構成としても良い。赤外線発光部14とヘッドランプ32とを兼用させた構成の場合、ロービームで車両30の前方に可視光を照射しつつ、さらにその前方の領域に赤外光を照射することができる。   As shown in FIG. 2, the infrared light emitting unit 14 is provided at a predetermined position where infrared light can be favorably projected onto a pedestrian 36 or the like existing in front of the vehicle 30. In addition, the infrared light emission part 14 is good also as a structure combined with the headlamp 32 by providing the filter which cuts the visible light of the high beam light irradiated from the headlamp 32 of the vehicle 30, for example, and infrared light is received. A structure in which a light emitting element is provided alone may be employed. In the case where the infrared light emitting unit 14 and the headlamp 32 are combined, it is possible to irradiate visible light in front of the vehicle 30 with a low beam and further irradiate infrared light to a region in front of the visible light.

また、赤外線カメラ16は、図2に示すように、車両30の前方を良好に撮影できる所定位置、例えば、車両30のフロントウィンドウ内側のバックミラーやダッシュボード上等に設けられる。なお、車両30の前方を良好に撮影できる位置であれば、これに限られるものではない。   Further, as shown in FIG. 2, the infrared camera 16 is provided at a predetermined position where the front of the vehicle 30 can be photographed well, for example, on a rearview mirror or dashboard inside the front window of the vehicle 30. Note that the position is not limited to this as long as the position in front of the vehicle 30 can be satisfactorily photographed.

距離検出センサ18は、例えばレーザレーダにより構成することができ、車両30の前方に向けて検出用の電磁波信号が出力されるように車両の前方に取り付けられ、車両の前方に存在する物体との距離や相対速度を検出することができる。   The distance detection sensor 18 can be configured by, for example, a laser radar, and is attached to the front of the vehicle so that an electromagnetic wave signal for detection is output toward the front of the vehicle 30. Distance and relative speed can be detected.

このレーダは、例えばミリ波レーダで構成することができる。ミリ波レーダはドップラー効果を利用したレーダであり、検出対象の物体との距離と相対速度とを同時に検出することが可能である。なお、レーダの検出範囲は、例えば数度〜数十度の範囲である。   This radar can be constituted by, for example, a millimeter wave radar. The millimeter wave radar is a radar using the Doppler effect, and can simultaneously detect the distance to the object to be detected and the relative velocity. The radar detection range is, for example, a range of several degrees to several tens of degrees.

なお、車両30の前方に存在する物体との距離を検出できるものであれば、レーダに限らずどのようなセンサを用いてもよい。   Note that any sensor may be used as long as it can detect the distance to an object existing in front of the vehicle 30.

操作部20は、車両30の各種機能の設定を行うためのボタンやスイッチ等を含んで構成され、後述するナイトビュー機能の作動を指示するためのナイトビュースイッチも含まれる。   The operation unit 20 includes buttons and switches for setting various functions of the vehicle 30, and also includes a night view switch for instructing operation of a night view function to be described later.

表示部22は、制御部12からの指示により、例えば赤外線カメラ16で撮影された画像そのものや、撮影画像に所定の画像処理を施した画像等を表示する。表示部22は、例えば液晶ディスプレイ等で構成することができるが、フロントウィンドウに画像を投影する所謂ヘッドアップディスプレイで構成してもよい。なお、表示部22は、画像を表示できるものであれば、これに限られるものではない。   In response to an instruction from the control unit 12, the display unit 22 displays, for example, an image itself captured by the infrared camera 16, an image obtained by performing predetermined image processing on the captured image, or the like. The display unit 22 can be configured by, for example, a liquid crystal display or the like, but may be configured by a so-called head-up display that projects an image on a front window. The display unit 22 is not limited to this as long as it can display an image.

音声出力部24は、制御部12からの指示により、指定された音や音声、例えば警告音や警告メッセージ等を車室内の乗員に向けて出力する。   The voice output unit 24 outputs a designated sound or voice, such as a warning sound or a warning message, to an occupant in the vehicle interior according to an instruction from the control unit 12.

メモリ26は、後述する制御プログラムや各種パラメータ、テーブルデータ等が記憶される。制御部12は、メモリ26に記憶された制御プログラムに従って、各部を統括制御する。   The memory 26 stores a control program, various parameters, table data, and the like which will be described later. The control unit 12 controls each unit according to a control program stored in the memory 26.

次に、本実施形態の作用として、制御部12で実行されるナイトビュー制御について、図3に示すフローチャートを参照して説明する。   Next, as an operation of the present embodiment, night view control executed by the control unit 12 will be described with reference to a flowchart shown in FIG.

なお、図3に示す制御ルーチンは、例えば操作部20のナイトビュースイッチがユーザーによってオンされた場合に実行される。また、車両30のヘッドランプ32がオンされたときに実行されるようにしてもよい。さらに、車両30の外部の明るさを検出する明るさ検出手段を設け、この明るさ検出手段によって検出された明るさが所定値以下であることを検出した場合、すなわち、歩行者等を認識しづらい明るさになったことを検出した場合に実行されるようにしてもよい。   Note that the control routine shown in FIG. 3 is executed, for example, when the night view switch of the operation unit 20 is turned on by the user. Alternatively, it may be executed when the headlamp 32 of the vehicle 30 is turned on. Further, brightness detection means for detecting brightness outside the vehicle 30 is provided, and when it is detected that the brightness detected by the brightness detection means is less than a predetermined value, that is, pedestrians are recognized. It may be executed when it is detected that the brightness is difficult.

まず、ステップ100では、制御部12は、赤外線発光部14に赤外光を投光するように指示する。これにより、赤外線発光部14から赤外光が車両30の前方へ投光される。   First, in step 100, the control unit 12 instructs the infrared light emitting unit 14 to project infrared light. As a result, infrared light is projected from the infrared light emitting unit 14 to the front of the vehicle 30.

ステップ102では、赤外線カメラ16に撮影を開始するように指示する。これにより、赤外線カメラ16は、車両30の前方の撮影を開始し、撮影した赤外線画像を所定時間毎に制御部12へ出力する。   In step 102, the infrared camera 16 is instructed to start photographing. Thereby, the infrared camera 16 starts photographing in front of the vehicle 30 and outputs the photographed infrared image to the control unit 12 every predetermined time.

ステップ106では、赤外線カメラ16から出力された赤外線画像の各画素値を所定階調の輝度値に変換し、輝度画像を生成する。なお、輝度に限らず、明るさを示す物理量であれば他の物理量に変換してもよい。   In step 106, each pixel value of the infrared image output from the infrared camera 16 is converted into a luminance value of a predetermined gradation to generate a luminance image. In addition, you may convert into other physical quantities as long as it is a physical quantity which shows not only a brightness | luminance but brightness.

ステップ108では、周囲と比較して輝度が高く、ある程度の大きさを持った領域が存在するか否かを判断する。具体的には、例えば平均の輝度値が第1の所定値以上となる第1の領域を輝度画像から抽出する。ここで、第1の所定値は、輝度値がこの値以上であればその領域が歩行者である可能性があると判断できる値に設定され、予めメモリ26に記憶される。すなわち、ステップ108では、歩行者の可能性がある領域を検出する。   In step 108, it is determined whether or not there is an area having a higher brightness than the surrounding area and having a certain size. Specifically, for example, a first region where the average luminance value is equal to or greater than a first predetermined value is extracted from the luminance image. Here, the first predetermined value is set to a value by which it can be determined that there is a possibility that the region is a pedestrian if the luminance value is equal to or greater than this value, and is stored in the memory 26 in advance. That is, in step 108, an area where there is a possibility of a pedestrian is detected.

図4(A)に示すように、例えば道路34上に歩行者36が存在する場合に赤外線カメラ16で撮影した赤外線画像は同図(B)に示すような赤外線画像40となる。すなわち、通常は、歩行者36は道路34と比較して温度が高いため輝度が高くなる。従って、輝度の高い領域を検出することにより、歩行者の可能性がある領域を検出することができる。   As shown in FIG. 4A, for example, when a pedestrian 36 is present on the road 34, an infrared image taken by the infrared camera 16 becomes an infrared image 40 as shown in FIG. That is, since the pedestrian 36 normally has a higher temperature than the road 34, the brightness is increased. Therefore, by detecting a region with high brightness, a region with a possibility of a pedestrian can be detected.

そして、歩行者の可能性がある第1の領域を抽出できた場合には、ステップ110へ移行し、歩行者の可能性がある第1の領域を抽出できなかった場合には、ステップ118へ移行する。   If the first area with the possibility of a pedestrian can be extracted, the process proceeds to step 110. If the first area with the possibility of a pedestrian cannot be extracted, the process proceeds to step 118. Transition.

ステップ110では、抽出した第1の領域のうち歩行者の候補を特定する。具体的には、抽出した第1の領域の形状が人間の形状と近似しているか否かを公知のパターンマッチング等の手法を用いて判断する。そして、人間の形状と近似していると判断した第1の領域を歩行者候補として特定する。なお、赤外線画像の場合、実際に人間である領域が必ずしも人間の形状に近いとはいえない場合もあるので、人間の形状と近似しているか否かを厳密に判断せずに、人間と同程度の大きさ(面積)を有する領域であれば、これを歩行者の候補として特定するようにしてもよい。   In step 110, pedestrian candidates are identified from the extracted first region. Specifically, it is determined by using a known pattern matching method or the like whether or not the shape of the extracted first region is approximate to a human shape. Then, the first area determined to be approximate to the human shape is identified as a pedestrian candidate. In the case of infrared images, the area that is actually a human may not necessarily be close to the shape of a human, so it is not necessary to accurately determine whether it is close to the shape of a human or not. Any region having a certain size (area) may be specified as a pedestrian candidate.

なお、図4(A)に示すように、通常は、歩行者36の顔が車両30に向かっている状態で赤外線発光部14から赤外光が投光され、これが歩行者36に当たって反射した場合、歩行者36の目38の網膜から反射された光の輝度は他の部分から反射された光よりも高くなる。このため、同図(B)に示す赤外線画像40では、歩行者の目38の輝度は、他の体の部分よりも輝度が高くなる。従って、歩行者36の目38の位置を検出することにより、人間か否かを精度良く判断することができる。   As shown in FIG. 4A, normally, infrared light is projected from the infrared light emitting unit 14 with the face of the pedestrian 36 facing the vehicle 30, and the light hits the pedestrian 36 and is reflected. The brightness of the light reflected from the retina of the eye 38 of the pedestrian 36 is higher than that of the light reflected from other parts. For this reason, in the infrared image 40 shown to the same figure (B), the brightness | luminance of the pedestrian's eyes 38 becomes higher than the brightness | luminance of another body part. Therefore, by detecting the position of the eyes 38 of the pedestrian 36, it can be accurately determined whether or not the person is a human.

そこで、ステップ112では、特定した歩行者候補の第1の領域内に、その第1の領域内の他の領域と比較して輝度が高く、ある程度の大きさを持った領域が存在するか否かを判断する。具体的には、例えば平均の輝度値が第2の所定値以上となる第2の領域であって歩行者の目と同程度の大きさ(面積)を有する第2の領域が、比較的近い位置に2つ存在するか否かを、歩行者候補の第1の領域の輝度画像に基づいて判断する。ここで、第2の所定値は、第1の所定値よりも大きい値であって、輝度値がこの値以上であればその領域が歩行者の目である可能性があると判断できる値に設定され、予めメモリ26に記憶される。すなわち、ステップ112では、歩行者の目の可能性がある第2の領域を検出する。   Therefore, in step 112, whether or not there is a region having a certain level of brightness in the first region of the identified pedestrian candidate that is higher in luminance than the other regions in the first region. Determine whether. Specifically, for example, the second region having an average luminance value equal to or higher than the second predetermined value and having the same size (area) as the pedestrian's eyes is relatively close. Whether there are two positions is determined based on the luminance image of the first region of the pedestrian candidate. Here, the second predetermined value is a value larger than the first predetermined value, and if the luminance value is greater than or equal to this value, the second predetermined value can be determined to be a possibility that the region is the pedestrian's eyes. It is set and stored in the memory 26 in advance. That is, in step 112, a second region that has the possibility of pedestrian eyes is detected.

そして、歩行者の目の可能性がある領域が検出された場合には、ステップ114へ移行し、検出されなかった場合には、ステップ118へ移行する。   Then, if a region with the possibility of pedestrian eyes is detected, the process proceeds to step 114, and if not detected, the process proceeds to step 118.

ステップ114では、検出した歩行者の目の可能性がある2つの第2の領域(網膜反射点の候補、以下、単に網膜反射点という)の位置に基づいて、抽出した第2の領域が人間であるか否かを判定する。例えば、2つの網膜反射点の位置が所定範囲内に存在するか否かを判断することにより、抽出した第2の領域が人間であるか否かを判定する。   In step 114, the extracted second region is a human based on the positions of the two second regions (retinal reflection point candidates, hereinafter simply referred to as retinal reflection points) that may be detected by the pedestrian. It is determined whether or not. For example, it is determined whether or not the extracted second region is a human by determining whether or not the positions of the two retinal reflection points are within a predetermined range.

具体的には、例えば2つの網膜反射点の画像上での上下方向の距離(例えば画素数)が予め定めた第1の所定距離以内であるか否かをまず判断する。ここで、第1の所定距離は、2つの網膜反射点の上下方向における距離がこの距離以内の場合には、人間の目であると判断できる値に設定される。通常の姿勢においては人間の目は当然横方向に並ぶため、第1の所定距離は、通常は‘0’に近い値が設定され、予めメモリ26に記憶される。   Specifically, for example, it is first determined whether or not the vertical distance (for example, the number of pixels) on the image of two retinal reflection points is within a predetermined first predetermined distance. Here, the first predetermined distance is set to a value that can be determined to be human eyes when the distance in the vertical direction between the two retinal reflection points is within this distance. Since the human eyes are naturally arranged in the horizontal direction in the normal posture, the first predetermined distance is normally set to a value close to ‘0’ and stored in the memory 26 in advance.

次に、2つの網膜反射点の画像上での横(左右)方向の距離が予め定めた第2の所定距離以内であるか否かをまず判断する。ここで、第2の所定距離は、2つの網膜反射点の横方向における距離がこの距離以内の場合には、人間の目であると判断できる値に設定され、予めメモリ26に記憶される。   Next, it is first determined whether or not the distance in the lateral (left / right) direction on the image of the two retinal reflection points is within a predetermined second predetermined distance. Here, the second predetermined distance is set to a value that can be determined to be a human eye when the distance in the lateral direction of the two retinal reflection points is within this distance, and is stored in the memory 26 in advance.

そして、2つの網膜反射点の上下方向の距離が第1の所定距離以内で且つ横方向の距離が第2の所定距離以内の場合には、抽出した歩行者候補の第1の領域が人間であると判定し、それ以外の場合には、人間ではないと判定する。   When the vertical distance between the two retinal reflection points is within the first predetermined distance and the lateral distance is within the second predetermined distance, the extracted first region of the pedestrian candidate is human. It is determined that there is, and otherwise it is determined that the person is not human.

なお、抽出した歩行者候補の第1の領域から頭部を検出し、この頭部内に上記の条件を満たす2つの網膜反射点が存在する場合に限って人間であると判定してもよい。   Note that the head may be detected from the extracted first region of the pedestrian candidate, and it may be determined that the person is a human only when there are two retinal reflection points that satisfy the above conditions within the head. .

また、歩行者が車両30から近い位置に存在する場合と遠い位置に存在する場合とでは、2つの網膜反射点の上下方向及び横方向の距離が大きく異なる場合もある。そこで、例えば図5に示すように、抽出した歩行者候補の第1の領域から頭部42を検出してその長さLを求め、この頭部42の長さLに対する頭部42の上端からの網膜反射点44の距離d1の割合が、所定範囲内(例えば0〜10%以内)か否かを判断し、所定範囲内の場合に人間と判定してもよい。なお、頭部42の長さLに対する頭部42の下端からの網膜反射点44の距離の割合が所定範囲内(例えば90〜100%以内)か否かを判断し、所定範囲内の場合に人間と判定してもよい。   In addition, the distance in the vertical direction and the horizontal direction of the two retinal reflection points may differ greatly depending on whether the pedestrian is present at a position close to the vehicle 30 or at a position far from the vehicle 30. Therefore, for example, as shown in FIG. 5, the head 42 is detected from the extracted first region of the pedestrian candidate and the length L thereof is obtained, and from the upper end of the head 42 with respect to the length L of the head 42. It may be determined whether or not the ratio of the distance d1 of the retinal reflection point 44 is within a predetermined range (for example, within 0 to 10%). It is determined whether the ratio of the distance of the retinal reflection point 44 from the lower end of the head 42 to the length L of the head 42 is within a predetermined range (for example, within 90 to 100%). You may determine that you are human.

さらに、同図に示すように、抽出した歩行者候補の第1の領域から頭部42を検出してその幅Wを求め、この頭部42の幅Wに対する頭部の右端からの網膜反射点44の距離d2の割合が所定範囲内か否かを判断し、所定範囲内の場合に人間と判定してもよい。なお、頭部42の幅Wに対する頭部の左端からの網膜反射点44の距離の割合が所定範囲内か否かを判断し、所定範囲内の場合に人間と判定してもよい。   Further, as shown in the figure, the head 42 is detected from the extracted first region of the pedestrian candidate and the width W thereof is obtained, and the retinal reflection point from the right end of the head with respect to the width W of the head 42 is obtained. It may be determined whether or not the ratio of the distance d2 of 44 is within a predetermined range. Note that it may be determined whether or not the ratio of the distance of the retinal reflection point 44 from the left end of the head to the width W of the head 42 is within a predetermined range.

このように、頭部42の長さL又は幅Wに対する頭部42の端部からの網膜反射点44の距離の割合に基づいて人間か否かを判断することにより、車両30と歩行者36との距離が近いか遠いかに拘わらず、簡単且つ精度良く人間か否かを判定することができる。   Thus, by determining whether or not the person is a human based on the ratio of the distance of the retinal reflection point 44 from the end of the head 42 to the length L or width W of the head 42, the vehicle 30 and the pedestrian 36 are determined. It is possible to determine whether or not the person is simple and accurate regardless of whether the distance to is near or far.

また、距離検出センサ18により検出された歩行者36までの距離を用いて2つの網膜反射点の距離を求めても良い。   Alternatively, the distance between the two retinal reflection points may be obtained using the distance to the pedestrian 36 detected by the distance detection sensor 18.

例えば、歩行者までの距離と、2つの網膜反射点間の距離との対応関係を予め定めたテーブルデータをメモリ26に記憶しておく。そして、距離検出センサ18により検出された歩行者までの距離に対応する網膜反射点間の距離を前記テーブルデータから求め、これと撮影画像から求めた網膜反射点間の距離とを比較し、その差が許容範囲内であれば人間であると判定し、許容範囲外であれば人間でないと判定する。これにより、歩行者までの距離に応じて適正に人間か否かを判定することができる。   For example, table data in which the correspondence between the distance to the pedestrian and the distance between the two retinal reflection points is predetermined is stored in the memory 26. Then, the distance between the retinal reflection points corresponding to the distance to the pedestrian detected by the distance detection sensor 18 is obtained from the table data, and this is compared with the distance between the retinal reflection points obtained from the photographed image. If the difference is within the allowable range, it is determined that the person is human, and if the difference is outside the allowable range, it is determined that the person is not human. Thereby, it can be determined whether it is a person appropriately according to the distance to a pedestrian.

また、例えば車両30の位置(赤外線カメラ16)の位置と2つの網膜反射点とを結ぶ2つの線が成す上下方向の角度及び横方向の角度を求め、これらの角度に基づいて人間か否かを判断してもよい。   Further, for example, the vertical angle and the horizontal angle formed by two lines connecting the position of the vehicle 30 (infrared camera 16) and the two retinal reflection points are obtained, and whether or not the person is a person based on these angles is obtained. May be judged.

例えば、図6に示すように、赤外線カメラ16の位置と検出した網膜反射点44Aの位置とが結ぶ線50Aと、赤外線カメラ16の位置と網膜反射点44Bの位置とが結ぶ線50Bとが成すおおよその角度θを求める。例えば、撮影画像から求めた画像上の網膜反射点間の距離D1と赤外線カメラ16の撮影範囲(ピントの合う範囲)等に基づいて予め定めた赤外線カメラ16から歩行者までの距離D2とに基づいて角度θを求める。   For example, as shown in FIG. 6, a line 50A connecting the position of the infrared camera 16 and the detected position of the retinal reflection point 44A and a line 50B connecting the position of the infrared camera 16 and the position of the retinal reflection point 44B are formed. Find the approximate angle θ. For example, based on the distance D1 between the retinal reflection points on the image obtained from the photographed image and the distance D2 from the infrared camera 16 to the pedestrian determined in advance based on the photographing range (in-focus range) of the infrared camera 16 and the like. To obtain the angle θ.

そして、上下方向及び横方向についてそれぞれ角度θを求め、求めた各方向の角度θに基づいて人間か否かを判定する。この判定処理は、上記ステップ114で説明した第1の所定距離を第1の所定角度と読み替え、第2の所定距離を第2の所定角度と読み替えた処理とすればよい。   Then, the angle θ is obtained for each of the vertical direction and the horizontal direction, and it is determined whether or not the person is a person based on the obtained angle θ in each direction. This determination process may be a process in which the first predetermined distance described in step 114 is replaced with a first predetermined angle, and the second predetermined distance is replaced with a second predetermined angle.

さらに、例えば上記のようにして求めた角度θと距離検出センサ18により検出された歩行者36までの距離とに基づいて網膜反射点間の実際の距離を求め、この実際の距離に基づいて前述した判定処理により人間か否かを判定するようにしてもよい。   Further, for example, an actual distance between the retinal reflection points is obtained based on the angle θ obtained as described above and the distance to the pedestrian 36 detected by the distance detection sensor 18, and the above-mentioned is based on the actual distance. It may be determined whether or not the person is a human by the determination process.

そして、上記の判定処理により人間と判定した場合には、ステップ116へ移行し、人間でないと判定した場合には、ステップ118へ移行する。   If it is determined that the person is a human by the above determination process, the process proceeds to step 116, and if it is determined that the person is not a human, the process proceeds to step 118.

ステップ116では、所定の対応処理を行う。具体的には、例えば検出した歩行者を強調した画像、例えば歩行者の輪郭を強調した画像等を生成して表示部22に表示したり、前方に歩行者が存在することを示す警告メッセージ等を表示部22に表示したり、歩行者が存在することを警告する警告音や警告メッセージを音声出力部24から出力させたりする処理等である。これにより、車両30のドライバーは、容易に前方に歩行者が存在することを認識することができ、危険を回避することが可能となる。   In step 116, predetermined response processing is performed. Specifically, for example, an image in which the detected pedestrian is emphasized, for example, an image in which the outline of the pedestrian is emphasized is generated and displayed on the display unit 22, or a warning message indicating that a pedestrian is present ahead Is displayed on the display unit 22, or a warning sound or warning message for warning that a pedestrian is present is output from the voice output unit 24. Thereby, the driver of the vehicle 30 can easily recognize that a pedestrian is present ahead, and can avoid danger.

ステップ118では、例えば操作部20のナイトビュースイッチがユーザーによってオフされたか否か、すなわちナイトビューモードの終了が指示されたか否かを判断し、終了が指示された場合には本ルーチンを終了し、終了が指示されていない場合には、ステップ104へ戻って上記と同様の処理を繰り返す。   In step 118, for example, it is determined whether or not the night view switch of the operation unit 20 has been turned off by the user, that is, whether or not the end of the night view mode has been instructed. If termination is not instructed, the process returns to step 104 and the same processing as described above is repeated.

なお、車両30のヘッドランプ32がオンされたときにナイトビューモードが実行されるようにした場合には、ヘッドランプ32がオフされた場合に本ルーチンを終了するようにしてもよい。また、車両30の外部の明るさを検出し、検出した明るさが所定値以下の場合にナイトビューが実行されるようにした場合には、検出した明るさが所定値を越えた場合に本ルーチンを終了するようにしてもよい。   When the night view mode is executed when the headlamp 32 of the vehicle 30 is turned on, this routine may be terminated when the headlamp 32 is turned off. Further, when the brightness of the outside of the vehicle 30 is detected and night view is executed when the detected brightness is equal to or lower than the predetermined value, the main brightness is detected when the detected brightness exceeds the predetermined value. The routine may be terminated.

このように、本実施形態では、赤外線画像に基づいて、人間の目としての網膜反射点を検出することにより人間か否かを判定するように構成したので、精度良く歩行者を検出することができる。   As described above, in this embodiment, since it is configured to determine whether or not a person is a human being by detecting a retinal reflection point as a human eye based on an infrared image, a pedestrian can be detected with high accuracy. it can.

なお、本実施形態では、図3のステップ114において、2つの網膜反射点の位置に基づいて、抽出した歩行者候補の第1の領域が人間であるか否かを判定しているが、変形例として以下のように判定してもよい。   In the present embodiment, in step 114 in FIG. 3, it is determined whether or not the extracted first region of the pedestrian candidate is a human based on the positions of the two retinal reflection points. For example, the determination may be made as follows.

例えば、図7に示すように、抽出した歩行者候補の第1の領域、すなわち歩行者36の長さL2(身長に相当する長さ)を求めると共に、頭部42の上端から網膜反射点44までの長さd4を求め、これらが以下の関係を満たす場合に人間と判断するようにしてもよい。   For example, as shown in FIG. 7, the first region of the extracted pedestrian candidate, that is, the length L2 (length corresponding to the height) of the pedestrian 36 is obtained, and the retinal reflection point 44 from the upper end of the head 42 is obtained. Length d4 may be obtained, and if these satisfy the following relationship, it may be determined that the person is human.

K1×L2≦d4≦K2×L2 ・・・(1)
ここで、K1、K2は定数であるが、頭部42の上端から網膜反射点44までの長さd4は、概ね人間の身長の10〜30%の長さとなる場合が多いことを考慮し、例えばK1は0.1、K2は0.3に設定する。なお、K1、K2の値は、これに限られるものではなく、適切に人間と判定できる値であればよい。
K1 × L2 ≦ d4 ≦ K2 × L2 (1)
Here, K1 and K2 are constants, but considering that the length d4 from the upper end of the head 42 to the retinal reflection point 44 is generally about 10 to 30% of the height of a human being, For example, K1 is set to 0.1 and K2 is set to 0.3. Note that the values of K1 and K2 are not limited to this, and may be values that can be appropriately determined as humans.

また、図7に示すように、歩行者36の体の幅W2(例えば両手間の長さや肩幅の長さ)を求めると共に、一方の網膜反射点44から歩行者36の幅方向の端部までの長さd5を求め、これらが以下の関係を満たす場合に人間と判断するようにしてもよい。   Further, as shown in FIG. 7, the width W2 of the body of the pedestrian 36 (for example, the length between both hands or the shoulder width) is obtained, and from one retina reflection point 44 to the end of the pedestrian 36 in the width direction. The length d5 may be obtained, and if these satisfy the following relationship, it may be determined that the person is human.

K3×W2≦d5≦K4×W2 ・・・(2)
ここで、K3、K4は定数であるが、一方の網膜反射点44から歩行者36の幅方向の端部までの長さd5は、概ね人間の幅の10〜50%の長さとなる場合が多いことを考慮し、例えばK3は0.1、K4は0.5に設定する。なお、K3、K4の値は、これに限られるものではなく、適切に人間と判定できる値であればよい。
K3 × W2 ≦ d5 ≦ K4 × W2 (2)
Here, although K3 and K4 are constants, the length d5 from one retinal reflection point 44 to the end in the width direction of the pedestrian 36 may be approximately 10 to 50% of the human width. For example, K3 is set to 0.1 and K4 is set to 0.5. Note that the values of K3 and K4 are not limited to this, and may be values that can be appropriately determined as humans.

また、図7に示すように、歩行者36の体の幅W2を求めると共に、2つの網膜反射点間の長さd6を求め、これらが以下の関係を満たす場合に人間と判断するようにしてもよい。   In addition, as shown in FIG. 7, the width W2 of the body of the pedestrian 36 is obtained, and the length d6 between the two retinal reflection points is obtained. Also good.

K5×W2≦d6≦K6×W2 ・・・(3)
ここで、K5、K6は定数であるが、3つの網膜反射点間の長さd6は、概ね人間の幅の10〜50%の長さとなる場合が多いことを考慮し、例えばK5は0.1、K6は0.5に設定する。なお、K5、K6の値は、これに限られるものではなく、適切に人間と判定できる値であればよい。
K5 × W2 ≦ d6 ≦ K6 × W2 (3)
Here, K5 and K6 are constants, but considering that the length d6 between the three retinal reflection points is generally about 10 to 50% of the width of a human being, for example, K5 is 0. 1, K6 is set to 0.5. Note that the values of K5 and K6 are not limited to this, and may be values that can be appropriately determined as humans.

本発明に係る歩行者検知装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the pedestrian detection apparatus which concerns on this invention. 車両と歩行者を示すイメージ図である。It is an image figure which shows a vehicle and a pedestrian. 制御部で実行される制御ルーチンのフローチャートである。It is a flowchart of the control routine performed by a control part. (A)は車両から見た前方の実際の画像を示すイメージ図、(B)は(A)の赤外線画像を示すイメージ図である。(A) is an image figure which shows the front actual image seen from the vehicle, (B) is an image figure which shows the infrared image of (A). 網膜反射点の検出方法について説明するための図である。It is a figure for demonstrating the detection method of a retinal reflection point. 網膜反射点の他の検出方法について説明するための図である。It is a figure for demonstrating the other detection method of a retinal reflection point. 網膜反射点の他の検出方法について説明するための図である。It is a figure for demonstrating the other detection method of a retinal reflection point.

符号の説明Explanation of symbols

10 歩行者検知装置
12 制御部(抽出手段、判定手段)
14 赤外線発光部(赤外線発光手段)
16 赤外線カメラ
18 距離検出センサ(距離検出手段)
20 操作部
22 表示部(表示手段)
24 音声出力部
26 メモリ
30 車両
32 ヘッドランプ
36 歩行者
40 赤外線画像
42 頭部
44 網膜反射点
10 pedestrian detection device 12 control unit (extraction means, determination means)
14 Infrared light emitting part (Infrared light emitting means)
16 Infrared camera 18 Distance detection sensor (distance detection means)
20 operation part 22 display part (display means)
24 audio output unit 26 memory 30 vehicle 32 head lamp 36 pedestrian 40 infrared image 42 head 44 retinal reflection point

Claims (7)

赤外線を発光する赤外線発光手段と、
赤外線画像を撮影する赤外線カメラと、
前記赤外線カメラによって撮影された赤外線画像を輝度画像に変換する変換手段と、
前記輝度画像に基づいて、第1の所定値以上の輝度を有する第1の領域を抽出する第1の抽出手段と、
抽出した第1の領域の輝度画像に基づいて、前記第1の所定値よりも大きい第2の所定値以上の輝度を有する隣接した2つの第2の領域を歩行者の網膜反射点の候補として抽出する第2の抽出手段と、
抽出した2つの網膜反射点の候補の位置に基づいて、前記赤外線画像に歩行者が存在するか否かを判定する判定手段と、
を備えた歩行者検知装置。
An infrared light emitting means for emitting infrared light;
An infrared camera for taking infrared images;
Conversion means for converting an infrared image taken by the infrared camera into a luminance image;
First extraction means for extracting a first region having a luminance equal to or higher than a first predetermined value based on the luminance image;
Based on the extracted luminance image of the first region, two adjacent second regions having a luminance equal to or higher than a second predetermined value that is greater than the first predetermined value are used as retinal reflection point candidates for the pedestrian. Second extracting means for extracting;
Determination means for determining whether or not there is a pedestrian in the infrared image based on the positions of the extracted two candidate retinal reflection points;
A pedestrian detection device.
前記判定手段は、前記2つの網膜反射点の候補間の距離に基づいて、歩行者か否かを判定することを特徴とする請求項記載の歩行者検知装置。 It said determination means, based on the distance between the two retinal reflection point candidates, pedestrian detection device according to claim 1, wherein the determining whether the pedestrian. 前記歩行者までの距離を検出する距離検出手段をさらに備え、
前記判定手段は、前記2つの網膜反射点の候補間の距離と前記歩行者までの距離とに基づいて、歩行者か否かを判定することを特徴とする請求項記載の歩行者検知装置。
Further comprising distance detection means for detecting the distance to the pedestrian,
The pedestrian detection device according to claim 2 , wherein the determination unit determines whether or not the user is a pedestrian based on a distance between the candidates for the two retinal reflection points and a distance to the pedestrian. .
前記距離検出手段は、ミリ波レーダであることを特徴とする請求項記載の歩行者検知装置。 The pedestrian detection device according to claim 3 , wherein the distance detection means is a millimeter wave radar. 前記判定手段は、前記2つの網膜反射点の候補の少なくとも一つの候補の位置から前記第1の領域の端部までの距離に基づいて、歩行者か否かを判定することを特徴とする請求項記載の歩行者検知装置。 The determination unit determines whether or not the person is a pedestrian based on a distance from a position of at least one candidate of the two retinal reflection point candidates to an end of the first region. Item 1. A pedestrian detection device according to item 1 . 前記判定手段による判定結果を出力する出力手段をさらに備えたことを特徴とする請求項1乃至請求項の何れか1項に記載の歩行者検知装置。 The pedestrian detection device according to any one of claims 1 to 5 , further comprising output means for outputting a determination result by the determination means. 前記出力手段は、検出した歩行者を強調表示する表示手段であることを特徴とする請求項記載の歩行者検知装置。 The pedestrian detection apparatus according to claim 6 , wherein the output unit is a display unit that highlights the detected pedestrian.
JP2005278785A 2005-09-26 2005-09-26 Pedestrian detection device Expired - Fee Related JP4701961B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005278785A JP4701961B2 (en) 2005-09-26 2005-09-26 Pedestrian detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005278785A JP4701961B2 (en) 2005-09-26 2005-09-26 Pedestrian detection device

Publications (2)

Publication Number Publication Date
JP2007089094A JP2007089094A (en) 2007-04-05
JP4701961B2 true JP4701961B2 (en) 2011-06-15

Family

ID=37975590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005278785A Expired - Fee Related JP4701961B2 (en) 2005-09-26 2005-09-26 Pedestrian detection device

Country Status (1)

Country Link
JP (1) JP4701961B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2037407B1 (en) * 2007-09-13 2014-07-23 Delphi Technologies, Inc. Method for detecting an object
KR101610092B1 (en) * 2013-12-18 2016-04-07 현대자동차 주식회사 Curved display apparatus for vehicle
EP2993645B1 (en) 2014-09-02 2019-05-08 Nintendo Co., Ltd. Image processing program, information processing system, information processing apparatus, and image processing method
JP6386837B2 (en) * 2014-09-02 2018-09-05 任天堂株式会社 Image processing program, information processing system, information processing apparatus, and image processing method
CN112836619A (en) * 2021-01-28 2021-05-25 合肥英睿系统技术有限公司 Embedded vehicle-mounted far infrared pedestrian detection method, system, equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08271222A (en) * 1995-03-29 1996-10-18 Sanyo Electric Co Ltd Device for detecting human head position
JPH1131230A (en) * 1997-07-10 1999-02-02 Mitsubishi Electric Corp Method and device for detecting man based on differential image
JPH11328364A (en) * 1998-05-13 1999-11-30 Nissan Motor Co Ltd Area estimating device and display processor
JP2001339741A (en) * 2000-05-30 2001-12-07 Mixed Reality Systems Laboratory Inc Device and method for detecting pupil position, device and method for detecting viewpoint position, and display system for three-dimensional image
JP2001340300A (en) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc Pupil detecting device and method, fixation point detecting device and method, and three-dimensional image display system
JP2005149515A (en) * 2003-11-19 2005-06-09 Samsung Electronics Co Ltd Apparatus and method for human distinction using infrared light

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08271222A (en) * 1995-03-29 1996-10-18 Sanyo Electric Co Ltd Device for detecting human head position
JPH1131230A (en) * 1997-07-10 1999-02-02 Mitsubishi Electric Corp Method and device for detecting man based on differential image
JPH11328364A (en) * 1998-05-13 1999-11-30 Nissan Motor Co Ltd Area estimating device and display processor
JP2001339741A (en) * 2000-05-30 2001-12-07 Mixed Reality Systems Laboratory Inc Device and method for detecting pupil position, device and method for detecting viewpoint position, and display system for three-dimensional image
JP2001340300A (en) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc Pupil detecting device and method, fixation point detecting device and method, and three-dimensional image display system
JP2005149515A (en) * 2003-11-19 2005-06-09 Samsung Electronics Co Ltd Apparatus and method for human distinction using infrared light

Also Published As

Publication number Publication date
JP2007089094A (en) 2007-04-05

Similar Documents

Publication Publication Date Title
JP4879189B2 (en) Safe driving support device
JP4263737B2 (en) Pedestrian detection device
JP4872245B2 (en) Pedestrian recognition device
US8330816B2 (en) Image processing device
EP2288287B1 (en) Driver imaging apparatus and driver imaging method
JP4277081B2 (en) Driving assistance device
JP6350145B2 (en) Face orientation detection device and vehicle warning system
JP4173896B2 (en) Vehicle periphery monitoring device
JP4943367B2 (en) Vehicle information display device
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
WO2008032220A2 (en) Sight-line end estimation device and driving assist device
JP2015195018A (en) Image processor, image processing method, operation support system, and program
JP2008027309A (en) Collision determination system and collision determination method
JP2007288657A (en) Display apparatus for vehicle, and display method of the display apparatus for vehicle
JP2007323578A (en) Vehicle periphery monitoring device
TWI522257B (en) Vehicle safety system and operating method thereof
JP2012099085A (en) Real-time warning system on windshield glass for vehicle, and operating method thereof
JP4701961B2 (en) Pedestrian detection device
JP2010191793A (en) Alarm display and alarm display method
JP4795281B2 (en) Vehicle safety device
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP4887537B2 (en) Vehicle periphery monitoring device
JP5192007B2 (en) Vehicle periphery monitoring device
JP2011103058A (en) Erroneous recognition prevention device
JP2019188855A (en) Visual confirmation device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110221

LAPS Cancellation because of no payment of annual fees