JP2007279970A - Object detection apparatus - Google Patents

Object detection apparatus Download PDF

Info

Publication number
JP2007279970A
JP2007279970A JP2006104330A JP2006104330A JP2007279970A JP 2007279970 A JP2007279970 A JP 2007279970A JP 2006104330 A JP2006104330 A JP 2006104330A JP 2006104330 A JP2006104330 A JP 2006104330A JP 2007279970 A JP2007279970 A JP 2007279970A
Authority
JP
Japan
Prior art keywords
detection
information
pedestrian
detected
pedestrians
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006104330A
Other languages
Japanese (ja)
Other versions
JP4830594B2 (en
Inventor
Junichi Wakita
淳一 脇田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006104330A priority Critical patent/JP4830594B2/en
Publication of JP2007279970A publication Critical patent/JP2007279970A/en
Application granted granted Critical
Publication of JP4830594B2 publication Critical patent/JP4830594B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection apparatus for detecting objects with high accuracy regardless of the number of objects to be detected. <P>SOLUTION: The object detection apparatus 1 for detecting objects from images picked up by an image pickup means 3 includes a detection criteria setting means 5a for setting detection criteria based on the number of objects to be detected, and an object detecting means 5b for detecting the objects to be detected from the images according to the detection criteria set by the detection criteria setting means 5a. When the number of objects to be detected is large, the detection criteria setting means 5a sets less strict detection criteria than when the number is small. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像画像から物体を検出する物体検出装置に関する。   The present invention relates to an object detection apparatus that detects an object from a captured image.

車両の運転者を支援するために、歩行者などの情報を提供する装置が知られている。特許文献1に示す歩行者検知装置では、撮像手段で撮像した画像から歩行者を検出し、表示装置でその撮像画像に検出した歩行者を強調して表示する。特に、ナイトビューシステムの場合、赤外線カメラで撮像した赤外線画像から歩行者を検出し、表示装置でその検出した歩行者を強調表示することによって、夜間走行時における運転者の肉眼では見えない歩行者の情報も提供する。歩行者の検出方法としては、例えば、撮像画像から所定の大きさの領域を切り出し、その領域の画像と歩行者のテンプレートとをパターンマッチングすることによって歩行者か否かを判定している。この歩行者か否かの判定では、パターンマッチングによるマッチング度(類似度)とパラメータ(閾値)とを比較することによって判定を行っている。
特開2001−28050号公報
In order to assist a driver of a vehicle, an apparatus for providing information such as a pedestrian is known. In the pedestrian detection apparatus shown in Patent Document 1, a pedestrian is detected from an image captured by an imaging unit, and the pedestrian detected in the captured image is emphasized and displayed by a display device. In particular, in the case of a night view system, by detecting a pedestrian from an infrared image captured by an infrared camera and highlighting the detected pedestrian on a display device, the pedestrian is invisible to the naked eye of the driver when driving at night. Information is also provided. As a method for detecting a pedestrian, for example, a region having a predetermined size is cut out from a captured image, and whether or not the user is a pedestrian is determined by pattern matching between the image of the region and the template of the pedestrian. In the determination of whether or not the person is a pedestrian, the determination is performed by comparing the matching degree (similarity) by pattern matching with a parameter (threshold value).
JP 2001-28050 A

従来の歩行者の検出方法の場合、検出に用いるパラメータが歩行者の状況に応じて最適に設定されていないので、誤検出や検出漏れが発生する可能性がある。例えば、検出率の高いパラメータが設定されると、歩行者が全く存在しない状況でも、歩行者が存在すると誤検出する場合がある。この場合、歩行者が存在しないにもかかわらず、表示装置で強調表示されているので、運転者は、何が写っているのか不安を抱きながら、画面を注視し、回避行動を取る。一方、誤検出が発生しないような検出率のパラメータが設定されると、歩行者が多数存在する人ごみの状況において、検出漏れが発生する場合がある。この場合、歩行者が存在するにもかかわらず、表示装置にその歩行者が強調表示されていないので、運転者は、システムへ不信感を抱く。   In the case of the conventional pedestrian detection method, the parameters used for detection are not optimally set according to the situation of the pedestrian, so that erroneous detection or detection omission may occur. For example, when a parameter with a high detection rate is set, it may be erroneously detected that a pedestrian exists even in a situation where no pedestrian exists. In this case, since the pedestrian is not present, it is highlighted on the display device. Therefore, the driver gazes at the screen and takes an avoidance action while anxious about what is reflected. On the other hand, if a detection rate parameter is set such that no false detection occurs, detection omission may occur in a crowded situation where there are many pedestrians. In this case, although the pedestrian is present, the pedestrian is not highlighted on the display device, so the driver feels distrust of the system.

そこで、本発明は、検出対象物体の数に関係なく高精度に物体を検出する物体検出装置を提供することを課題とする。   Therefore, an object of the present invention is to provide an object detection apparatus that detects an object with high accuracy regardless of the number of detection target objects.

本発明に係る物体検出装置は、撮像手段で撮像した撮像画像から物体を検出する物体検出装置であって、検出対象物体の数に基づいて検出基準を設定する検出基準設定手段と、検出基準設定手段で設定した検出基準に基づいて撮像画像から検出対象物体を検出する物体検出手段とを備え、検出基準設定手段は、検出対象物体の数が多い場合には少ない場合に比べて緩和した検出基準を設定することを特徴とする。   An object detection device according to the present invention is an object detection device that detects an object from a captured image captured by an imaging unit, and includes a detection criterion setting unit that sets a detection criterion based on the number of detection target objects, and a detection criterion setting Object detection means for detecting the detection target object from the captured image based on the detection reference set by the means, and the detection reference setting means is a relaxed detection reference compared to the case where the number of detection target objects is large compared to the case where the number is small Is set.

この物体検出装置では、検出基準設定手段により検出対象物体の数に基づいて物体検出に用いる検出基準を設定し、物体検出手段によりその設定した検出基準を用いて撮像画像から物体を検出する。特に、検出基準設定手段では、検出対象物体の数が多い場合には少ない場合に比べて通常より緩和した検出基準を設定する。つまり、通常時には所定の検出基準を設定しておき、検出対象物体の数が少ない場所(特に、検出対象物体が全く居ない場合)での誤検出を抑制するとともに通常の検出率で物体を検出する。所定の検出基準としては、例えば、誤検出と検出漏れを考慮したバランスのとれた値とする。一方、検出対象物体の数が増加すると通常時より緩和した検出基準を設定し、検出率をアップさせ、検出対象物体の数が多い場所での検出漏れを抑制する。このように、この物体検出装置では、検出対象物体の数に関係なく、高精度に物体を検出することができる。ちなみに、検出対象物体の数が多い場合、検出対象物体が撮像画像に占める面積割合が大きくなるので、撮像画像における誤検出の起こる可能性のある面積割合(つまり、検出対象物体が存在しない面積割合)が減少する。そのため、パラメータを緩和することによって誤検出率が増加しても、物体検出装置としての誤検出率は抑制される。   In this object detection device, the detection reference setting means sets a detection reference used for object detection based on the number of detection target objects, and the object detection means detects the object from the captured image using the set detection reference. In particular, the detection criterion setting means sets a detection criterion that is more relaxed than usual when the number of detection target objects is large compared to when the number is small. In other words, a predetermined detection standard is set during normal operation to prevent false detection in places where the number of detection target objects is small (especially when there are no detection target objects at all) and detect an object at a normal detection rate. To do. The predetermined detection standard is, for example, a balanced value considering erroneous detection and detection omission. On the other hand, when the number of detection target objects increases, a detection criterion that is relaxed compared to normal times is set, the detection rate is increased, and detection omissions at places where the number of detection target objects is large are suppressed. As described above, this object detection apparatus can detect an object with high accuracy regardless of the number of detection target objects. By the way, when the number of detection target objects is large, the area ratio of the detection target object to the captured image becomes large. Therefore, the area ratio that may cause a false detection in the captured image (that is, the area ratio where the detection target object does not exist) ) Decreases. Therefore, even if the false detection rate increases by relaxing the parameters, the false detection rate as the object detection device is suppressed.

なお、検出基準を設定する際に用いる検出対象物体の数としては、例えば、過去に同じ場所で検出された検出対象物体の数でもよいし、あるいは、直前にその場所近傍で検出された検出対象物体の数でもよい。過去に同じ場所で検出された検出対象物体の数は、物体検出装置自体による過去の検出結果を利用してもよいし、あるいは、他の検出手段による検出結果でもよい。他の検出手段としては、例えば、人による検出結果や路上に設置された監視装置による検出結果を利用し、その検出結果を物体検出装置に保持させる。   The number of detection target objects used when setting the detection reference may be, for example, the number of detection target objects detected at the same location in the past, or a detection target detected immediately before that location. It may be the number of objects. The number of detection target objects detected in the same place in the past may use a past detection result by the object detection device itself, or may be a detection result by other detection means. As another detection means, for example, a detection result by a person or a detection result by a monitoring device installed on the road is used, and the detection result is held in the object detection device.

本発明の上記物体検出装置では、検出基準設定手段は、検出対象物体の数が多いほど、より緩和した検出基準を設定するようにしてもよい。   In the object detection apparatus of the present invention, the detection reference setting means may set a more relaxed detection reference as the number of detection target objects is larger.

この物体検出装置では、検出基準設定手段により、検出対象物体の数が多いほどより緩和した検出基準を設定する。つまり、検出基準として緩和する段階を複数用意しておき、検出対象物体の数が多くなるほど、緩和度合いを大きくした検出基準を設定する。これによって、物体検出装置では、検出対象物体の数に応じたより適切な検出基準を設定でき、検出対象物体の数が増加した場合の検出漏れを更に抑制することができる。   In this object detection apparatus, the detection reference setting means sets a more relaxed detection reference as the number of detection target objects increases. That is, a plurality of stages to be relaxed are prepared as detection standards, and a detection standard having a greater relaxation degree is set as the number of detection target objects increases. Accordingly, the object detection apparatus can set a more appropriate detection reference according to the number of detection target objects, and can further suppress detection omission when the number of detection target objects increases.

本発明の上記物体検出装置では、少なくとも検出対象物体の数情報と当該検出対象物体を検出した場所情報とを対応付けて保持する検出情報保持手段を備え、検出基準設定手段は、検出情報保持手段で保持している情報を参照し、検出基準を設定するようにしてもよい。   The object detection device of the present invention further includes detection information holding means for holding at least the number information of the detection target objects and the location information where the detection target object is detected, and the detection reference setting means includes the detection information holding means. The detection criterion may be set with reference to the information held in step (b).

この物体検出装置では、検出情報保持手段に過去に検出された検出対象物体の数情報とその検出対象物体を検出した場所情報とを対応付けて保持されている。そして、物体検出装置では、検出基準設定手段により、保持している情報を参照し、現在検出を行っている場所に対応する過去の検出対象物体の数情報により検出基準を設定する。このように、物体検出装置では、過去の検出結果を利用することにより、現在検出を行っている場所での検出対象物体の数を推測し、適切な検出基準を設定することができる。   In this object detection apparatus, the number information of the detection target objects detected in the past and the location information where the detection target object is detected are held in association with each other in the detection information holding means. In the object detection device, the detection reference setting means refers to the held information, and sets the detection reference based on the number information of the past detection target objects corresponding to the place where the current detection is performed. As described above, the object detection apparatus can estimate the number of detection target objects at the place where the current detection is performed by using the past detection result, and set an appropriate detection reference.

なお、検出対象物体の数情報に対応付けて保持する情報としては、検出対象物体の数の増減に最も影響を与える場所情報以外に、曜日、休日/平日、季節、時間帯、天気、気温、シーン(市街地、山間、田園、高速道路など)などの検出対象物体の数に影響を与える様々な情報を付加してもよい。   In addition to the location information that most affects the increase / decrease in the number of detection target objects, the information held in association with the number information of detection target objects includes the day of the week, holidays / weekdays, seasons, time zones, weather, temperature, Various information that affects the number of detection target objects such as scenes (city areas, mountains, countryside, highways, etc.) may be added.

本発明の上記物体検出装置では、物体検出手段は、物体検出を行う際の評価値が検出基準を上回った場合に検出対象物体と判定し、検出基準設定手段は、検出対象物体の数が多い場合には少ない場合に比べて検出基準として小さい値を設定する。   In the object detection apparatus of the present invention, the object detection means determines that the object is a detection target object when the evaluation value at the time of object detection exceeds the detection reference, and the detection reference setting means has a large number of detection target objects. In some cases, a smaller value is set as a detection reference than when the number is small.

この物体検出装置では、物体検出手段により、評価値(例えば、パターンマッチングの場合にはマッチング度)を求め、その求めた評価値が検出基準を上回った場合に検出対象物体と判定する。そして、物体検出装置では、検出基準設定手段により、検出基準を緩和する場合には検出基準として小さい値を設定する。これによって、検出対象物体の数が多い場所では、検出対象物体の数が少ない場所よりも、小さい評価値でも検出対象物体が検出され、検出率がアップする。   In this object detection device, an evaluation value (for example, matching degree in the case of pattern matching) is obtained by the object detection means, and when the obtained evaluation value exceeds a detection criterion, it is determined as a detection target object. In the object detection device, the detection reference setting means sets a small value as the detection reference when the detection reference is relaxed. Thereby, in a place where the number of detection target objects is large, the detection target object is detected even with a smaller evaluation value than in a place where the number of detection target objects is small, and the detection rate is increased.

本発明の上記物体検出装置では、物体検出手段は、物体検出を行う際の評価値が検出基準を下回った場合に検出対象物体と判定し、検出基準設定手段は、検出対象物体の数が多い場合には少ない場合に比べて検出基準として大きい値を設定する。   In the object detection device of the present invention, the object detection means determines that the object is a detection target object when the evaluation value when performing object detection is below the detection reference, and the detection reference setting means has a large number of detection target objects. In some cases, a larger value is set as the detection reference than when the number is small.

この物体検出装置では、物体検出手段により、評価値を求め、その求めた評価値が検出基準を下回った場合に検出対象物体と判定する。そして、物体検出装置では、検出基準設定手段により、検出基準を緩和する場合には検出基準として大きい値を設定する。これによって、検出対象物体の数が多い場所では、検出対象物体の数が少ない場所よりも、大きい評価値でも検出対象物体が検出され、検出率がアップする。   In this object detection apparatus, an evaluation value is obtained by the object detection means, and when the obtained evaluation value falls below a detection criterion, it is determined as a detection target object. In the object detection device, when the detection standard is relaxed, the detection standard setting means sets a large value as the detection standard. Thereby, in a place where the number of detection target objects is large, the detection target object is detected even with a larger evaluation value than in a place where the number of detection target objects is small, and the detection rate is increased.

本発明は、検出対象物体の数を考慮して検出基準を設定することにより、誤検出及び検出漏れを抑制することができ、高精度に物体を検出することができる。   In the present invention, by setting the detection reference in consideration of the number of detection target objects, erroneous detection and detection omission can be suppressed, and an object can be detected with high accuracy.

以下、図面を参照して、本発明に係る物体検出装置の実施の形態を説明する。   Hereinafter, an embodiment of an object detection device according to the present invention will be described with reference to the drawings.

本実施の形態では、本発明に係る物体検出装置を、車両に搭載されるナイトビューシステムに適用する。本実施の形態に係るナイトビューシステムは、夜間走行時の運転者を支援するために、赤外線カメラによる赤外線画像(不可視画像)から歩行者を検出し、車両前方に存在する歩行者情報を提供する。本実施の形態には、歩行者の数情報の取得方法の違いにより2つの形態があり、第1の実施の形態が過去に走行したときの検出結果を利用する形態であり、第2の実施の形態が現在走行中の前フレームでの検出結果を利用する形態である。   In the present embodiment, the object detection device according to the present invention is applied to a night view system mounted on a vehicle. The night view system according to the present embodiment detects a pedestrian from an infrared image (invisible image) obtained by an infrared camera and provides pedestrian information existing in front of the vehicle in order to assist the driver during night driving. . In this embodiment, there are two forms depending on the difference in the method of acquiring the number of pedestrians, and the first embodiment uses a detection result when the past travels. Is a form that uses the detection result in the previous frame that is currently running.

図1を参照して、第1の実施の形態に係るナイトビューシステム1について説明する。図1は、第1の実施の形態に係るナイトビューシステムの構成図である。   With reference to FIG. 1, the night view system 1 which concerns on 1st Embodiment is demonstrated. FIG. 1 is a configuration diagram of a night view system according to the first embodiment.

ナイトビューシステム1は、赤外線画像から歩行者を検出し、検出した歩行者を示す情報を表示する。ナイトビューシステム1では、歩行者が少ない場所での誤検出と歩行者が多い場所での検出漏れを抑制するために、歩行者検出において用いるパラメータ(検出基準)を現在検出を行っている場所の人ごみ状況(歩行者の数)に応じて可変とする。特に、ナイトビューシステム1では、過去に走行したときの歩行者の検出結果を利用して人ごみ情報を蓄積し、その蓄積した人ごみ情報から現在検出を行っている場所の人ごみ状況を推測する。ナイトビューシステム1は、赤外線投光器2、赤外線カメラ3、表示装置4及びECU[Electronic Control Unit]5を備えており、ナビゲーションシステム6を利用する。   The night view system 1 detects a pedestrian from an infrared image and displays information indicating the detected pedestrian. In the night view system 1, in order to suppress false detection in a place with few pedestrians and detection omission in a place with many pedestrians, parameters (detection criteria) used in pedestrian detection are Variable depending on the crowd situation (number of pedestrians). In particular, in the night view system 1, the crowd information is accumulated by using the detection result of the pedestrian when traveling in the past, and the crowd situation of the place where the current detection is performed is estimated from the accumulated crowd information. The night view system 1 includes an infrared projector 2, an infrared camera 3, a display device 4, and an ECU [Electronic Control Unit] 5, and uses a navigation system 6.

赤外線投光器2は、車両の前端に配置され、車両前方に向けて取り付けられる。赤外線投光器2は、車両の前方に赤外線(例えば、近赤外線)を照射する。赤外線投光器2は、ナイトビューシステム1が起動時にONされ、停止時にOFFされる。なお、赤外線が近赤外線の場合、ヘッドライトから照射される光の中に近赤外線も含まれるので、赤外線投光器2を備えない構成としてもよい。   The infrared projector 2 is disposed at the front end of the vehicle and attached toward the front of the vehicle. The infrared projector 2 irradiates the front of the vehicle with infrared rays (for example, near infrared rays). The infrared projector 2 is turned on when the night view system 1 is started and turned off when the night view system 1 is stopped. In addition, when infrared rays are near infrared rays, since the near infrared rays are contained in the light irradiated from a headlight, it is good also as a structure which does not have the infrared projector 2. FIG.

赤外線カメラ3は、車両の前側(例えば、ルームミラーの裏側)に配置され、車両前方に向けて取り付けられる。赤外線カメラ3は、赤外線(赤外線投光器2からの赤外線の反射光など)を取り込み、その赤外線の強弱に応じた濃淡によって赤外線映像を生成する。この赤外線映像は、一定時間(例えば、1/30秒)毎のフレームの赤外線画像からなる。赤外線カメラ3では、一定時間毎に、各フレームの赤外線画像情報を画像信号としてECU5に送信する。   The infrared camera 3 is disposed on the front side of the vehicle (for example, the back side of the rearview mirror) and attached toward the front of the vehicle. The infrared camera 3 takes in infrared rays (such as infrared reflected light from the infrared projector 2), and generates an infrared video image by using light and shade according to the intensity of the infrared rays. This infrared image is composed of an infrared image of a frame every predetermined time (for example, 1/30 second). The infrared camera 3 transmits infrared image information of each frame to the ECU 5 as an image signal at regular time intervals.

表示装置4は、赤外線映像と検出された歩行者情報を運転者に提供する表示手段であり、例えば、ナビゲーションシステム6で用いられる液晶ディスプレイ、ヘッドアップディスプレイである。表示装置4では、ECU5から表示信号を受信し、表示信号に示される画像を表示する。図2には、表示装置4(液晶ディスプレイ)に表示した場合の表示画像の一例を示しており、検出された歩行者が矩形線で囲まれ、強調表示されている。図2(a)は検出漏れがない場合であり、画像内の全ての歩行者が矩形線で囲まれている。一方、図2(b)は検出漏れがある場合であり、画像内の右上方の歩行者が矩形線で囲まれていない。   The display device 4 is a display unit that provides the driver with infrared images and detected pedestrian information, and is, for example, a liquid crystal display or a head-up display used in the navigation system 6. The display device 4 receives a display signal from the ECU 5 and displays an image indicated by the display signal. FIG. 2 shows an example of a display image when displayed on the display device 4 (liquid crystal display), and the detected pedestrian is surrounded by a rectangular line and highlighted. FIG. 2A shows a case where there is no detection omission, and all pedestrians in the image are surrounded by rectangular lines. On the other hand, FIG. 2B shows a case where there is a detection omission, and the upper right pedestrian in the image is not surrounded by a rectangular line.

ナビゲーションシステム6は、自車の現在位置や走行方向の検出及び目的地までの経路案内などを行うシステムである。特に、ナビゲーションシステム6では、現在位置検出部6aで現在位置を検出する毎に、その現在位置情報を現在位置信号としてECU5に送信する。また、ナビゲーションシステム6では、ECU5から地図情報要求信号を受信すると、地図・環境情報データベース6bから現在位置周辺の地図情報や環境情報を読み出し、その読み出した情報を地図情報信号としてECU5に送信する。また、ナビゲーションシステム6では、ECU5から人ごみ情報要求信号を受信すると、人ごみ情報データベース6cから現在位置周辺の人ごみ情報を読み出し、その読み出した人ごみ情報を人ごみ情報信号としてECU5に送信する。さらに、ナビゲーションシステム6では、ECU5から新たに生成された人ごみ情報からなる人ごみ情報蓄積信号を受信すると、その人ごみ情報を人ごみ情報データベース6cに格納する。なお、第1の実施の形態では、人ごみ情報データベース6cが特許請求の範囲に記載する検出情報保持手段に相当する。   The navigation system 6 is a system that performs detection of the current position and traveling direction of the host vehicle, route guidance to a destination, and the like. In particular, in the navigation system 6, every time the current position is detected by the current position detector 6a, the current position information is transmitted to the ECU 5 as a current position signal. When the navigation system 6 receives the map information request signal from the ECU 5, the navigation system 6 reads map information and environment information around the current position from the map / environment information database 6b, and transmits the read information to the ECU 5 as a map information signal. When the navigation system 6 receives a garbage information request signal from the ECU 5, the navigation system 6 reads the garbage information around the current position from the garbage information database 6c, and transmits the read garbage information to the ECU 5 as a garbage information signal. Further, when the navigation system 6 receives a garbage information accumulation signal consisting of newly generated garbage information from the ECU 5, the navigation system 6 stores the garbage information in the garbage information database 6c. In the first embodiment, the garbage information database 6c corresponds to detection information holding means described in the claims.

なお、環境情報は、地図で示される各場所に関する様々な情報であり、例えば、工場地区、商業地区、住宅地区、市街地、山間、田園、高速道路などの場所のシーン情報である。ナビゲーションシステム6が環境情報を保持していない場合、ECU5では地図情報だけを取得する。人ごみ情報データベース6cについては、ナビゲーションシステム6で人ごみ情報を使用しない場合にはECU5に構成されてもよい。また、ECU5から地図情報要求信号や人ごみ情報要求信号を送信することなく、ナビゲーションシステム6が、現在位置情報を送信するときに、現在位置周辺の地図情報や環境情報及び人ごみ情報を自動的に送信するようにしてもよい。   The environmental information is various information regarding each place shown on the map, and is scene information of places such as a factory district, a commercial district, a residential district, an urban area, a mountain, a countryside, and a highway. When the navigation system 6 does not hold environment information, the ECU 5 acquires only map information. The garbage information database 6c may be configured in the ECU 5 when the navigation system 6 does not use the garbage information. Further, when the navigation system 6 transmits the current position information without transmitting the map information request signal or the crowd information request signal from the ECU 5, the map information, the environment information, and the crowd information around the current position are automatically transmitted. You may make it do.

ECU5は、CPU[Central Processing Unit]、ROM[ReadOnly Memory]、RAM[Random Access Memory]などからなり、ROMに保持されるソフトウエアをCPUで実行することによってパラメータ調整部5a、歩行者検出部5b、検出結果解析部5cが構成される。ECU5では、一定時間毎に、赤外線カメラ3から画像信号を受信し、赤外線映像(赤外線画像)から歩行者を検出する。そして、ECU5では、その赤外線映像と歩行者の検出結果を表示装置4に表示させる。特に、ECU5では、ナビゲーションシステム6からの各情報と歩行者の検出結果から人ごみ情報を生成し、ナビゲーションシステム6に人ごみ情報を蓄積させる。そして、ECU5では、蓄積した人ごみ情報から現在位置の人ごみ情報を抽出し、その人ごみ情報に応じて歩行者検出に用いるパラメータを設定する。なお、第1の実施の形態では、パラメータ調整部5aが特許請求の範囲に記載する物体基準設定手段に相当し、歩行者検出部5bが特許請求の範囲に記載する物体検出手段に相当する。   The ECU 5 includes a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like. By executing software held in the ROM by the CPU, the parameter adjustment unit 5a and the pedestrian detection unit 5b. The detection result analysis unit 5c is configured. The ECU 5 receives an image signal from the infrared camera 3 at regular intervals and detects a pedestrian from the infrared video (infrared image). Then, the ECU 5 displays the infrared image and the detection result of the pedestrian on the display device 4. In particular, the ECU 5 generates the garbage information from each information from the navigation system 6 and the detection result of the pedestrian, and causes the navigation system 6 to accumulate the garbage information. Then, the ECU 5 extracts the crowd information at the current position from the accumulated crowd information, and sets parameters used for pedestrian detection according to the crowd information. In the first embodiment, the parameter adjustment unit 5a corresponds to the object reference setting unit described in the claims, and the pedestrian detection unit 5b corresponds to the object detection unit described in the claims.

パラメータ調整部5aでは、ナビゲーションシステム6からの現在位置情報を取得すると、その現在位置の人ごみ情報を要求する人ごみ情報要求信号を送信し、ナビゲーションシステム6から現在位置の人ごみ情報を取得する。そして、パラメータ調整部5aでは、現在位置において過去に検出した歩行者の数が人ごみ判定数以上か否かを判定し、人ごみ判定数未満の場合には通常用パラメータを設定し、人ごみ判定数以上の場合には人ごみ用パラメータを設定する。   When the parameter adjustment unit 5a acquires the current position information from the navigation system 6, the parameter adjustment unit 5a transmits a person information request signal for requesting the person information at the current position, and acquires the person information at the current position from the navigation system 6. Then, the parameter adjustment unit 5a determines whether or not the number of pedestrians detected in the past at the current position is equal to or greater than the number of crowd determinations. If the number is less than the number of crowd determinations, a normal parameter is set and the number of crowd determinations is equal to or greater. In the case of, set the parameters for crowd.

人ごみ判定数は、検出漏れが起こる可能性のある最低限の歩行者の数であり、実験などによって予め設定される。通常用パラメータは、通常時(歩行者の数が少ない時)に歩行者検出で用いるパラメータであり、誤検出及び検出漏れの抑制を考慮したバランス型の検出率となるパラメータである。人ごみ用パラメータは、歩行者の数が多い時(ひいては、検出漏れが起こる可能性がある時)に歩行者検出で用いるパラメータであり、検出率をアップさせるためのパラメータである。したがって、人ごみ用パラメータは、歩行者が検出されやすくなるパラメータであり、通常用パラメータを緩和したパラメータである。各パラメータは、実験などによって予め設定される。   The number of crowd determinations is the minimum number of pedestrians in which a detection failure may occur, and is set in advance by an experiment or the like. The normal parameter is a parameter that is used for pedestrian detection during normal times (when the number of pedestrians is small), and is a parameter that provides a balanced detection rate in consideration of suppression of erroneous detection and detection omission. The crowd parameter is a parameter used for pedestrian detection when the number of pedestrians is large (as a result, there is a possibility that detection failure may occur), and is a parameter for increasing the detection rate. Accordingly, the crowd parameter is a parameter that makes it easy for pedestrians to be detected, and is a parameter that is relaxed from the normal parameter. Each parameter is preset by an experiment or the like.

人ごみ用パラメータについては、1段階でもよいし、あるいは、歩行者の数が増加するほど緩和度合いが大きくなる複数段階のパラメータでもよい。例えば、人ごみ用パラメータとして、歩行者の数の増加に応じて少人数用、中人数用、多人数用の3段階用意し、段階的に緩和してゆく。   The parameter for the crowd may be one level, or may be a parameter having a plurality of levels in which the degree of relaxation increases as the number of pedestrians increases. For example, as the parameters for crowds, three levels are prepared for a small number of people, a medium number of people, and a large number of people according to an increase in the number of pedestrians, and are gradually reduced.

歩行者検出部5bでは、パラメータ調整部5aで設定した通常用パラメータ又は人ごみ用パラメータを用いて、赤外線カメラ3からの赤外線画像から歩行者を検出する。歩行者の検出方法としては、特に限定せず、各種方法が適用可能である。したがって、パラメータも、検出方法によって変わり、パラメータの緩和のさせ方も検出方法によって変わる。   In the pedestrian detection part 5b, a pedestrian is detected from the infrared image from the infrared camera 3 using the normal parameter or the crowd parameter set by the parameter adjustment part 5a. The method for detecting a pedestrian is not particularly limited, and various methods can be applied. Accordingly, the parameters also vary depending on the detection method, and the method of relaxing the parameters also varies depending on the detection method.

検出方法としては、例えば、歩行者のテンプレートを用意し、テンプレートを用いたパターンマッチングによる方法がある。具体的には、赤外線画像から所定の大きさの領域(歩行者候補領域)を順次切り出し、テンプレートの画像と切り出した各歩行者候補領域画像とのマッチング度(評価値)を求め、そのマッチング度が閾値以上の場合にはその歩行者候補が歩行者と判断される。この際、歩行者全体のテンプレートを用意し、1段階のパターンマッチングによって歩行者を検出してもよいし、あるいは、歩行者の頭、足、腕、胴体などの部分的なテンプレートを複数用意し、複数段階のパターンマッチングによって歩行者を検出してもよい。複数段階の場合、各段階において各歩行者候補に対してパターンマッチングをそれぞれ行い、各歩行者候補のマッチング度が閾値以上の場合にだけその歩行者候補が次の段階でのパターンマッチングに移行し、全ての段階でマッチング度が閾値以上となった歩行者候補が歩行者と判断される。このようなパターンマッチングの場合、マッチング度を判定する閾値や段階数がパラメータとなる。パラメータを緩和するためには、閾値の場合には値を小さくするほど緩和となり、段階数の場合には数を少なくするほど緩和となる。   As a detection method, for example, there is a method of preparing a pedestrian template and pattern matching using the template. Specifically, an area of a predetermined size (pedestrian candidate area) is sequentially cut out from the infrared image, a matching degree (evaluation value) between the template image and each cut out pedestrian candidate area image is obtained, and the matching degree If is greater than or equal to the threshold, the pedestrian candidate is determined to be a pedestrian. At this time, a template for the entire pedestrian may be prepared and the pedestrian may be detected by one-step pattern matching, or a plurality of partial templates such as the pedestrian's head, legs, arms, and torso may be prepared. A pedestrian may be detected by pattern matching in a plurality of stages. In the case of multiple stages, pattern matching is performed for each pedestrian candidate in each stage, and the pedestrian candidate moves to pattern matching in the next stage only when the matching degree of each pedestrian candidate is greater than or equal to a threshold value. A pedestrian candidate whose matching degree is equal to or greater than a threshold value at all stages is determined to be a pedestrian. In the case of such pattern matching, the threshold value and the number of steps for determining the matching degree are parameters. In order to relax the parameters, the smaller the value in the case of the threshold, the more relaxed, and the smaller the number in the number of stages, the more relaxed.

検出が終了すると、歩行者検出部5bでは、赤外線画像(白黒の濃淡画像)に検出した歩行者を強調した表示画像を生成し、その表示画像情報を表示信号として表示装置4に送信する。歩行者を強調する表示方法としては、例えば、赤外線画像内の歩行者を矩形線で囲んで表示する(図2参照)。   When the detection is completed, the pedestrian detection unit 5b generates a display image in which the detected pedestrian is emphasized in the infrared image (monochrome grayscale image), and transmits the display image information to the display device 4 as a display signal. As a display method for emphasizing the pedestrian, for example, the pedestrian in the infrared image is displayed surrounded by a rectangular line (see FIG. 2).

検出結果解析部5cでは、現在位置の地図情報を要求する地図情報要求信号を送信し、ナビゲーションシステム6から地図情報や環境情報を取得する。そして、検出結果解析部5cでは、歩行者検出部5bで検出した歩行者の数と現在位置及び現在位置の地図情報や環境情報を対応付けて人ごみ情報を生成する。さらに、検出結果解析部5cでは、その人ごみ情報からなる人ごみ情報蓄積信号をナビゲーションシステム6に送信し、人ごみ情報データベース6cに蓄積させる。   The detection result analysis unit 5 c transmits a map information request signal for requesting map information at the current position, and acquires map information and environment information from the navigation system 6. Then, the detection result analysis unit 5c generates crowd information by associating the number of pedestrians detected by the pedestrian detection unit 5b with map information and environment information of the current position and the current position. Further, the detection result analysis unit 5c transmits a garbage information accumulation signal including the garbage information to the navigation system 6 and accumulates it in the garbage information database 6c.

歩行者の数の増減(人ごみの状況)は場所が大きな要因となるが、時間帯や曜日など様々な要因によって歩行者の数は変化する。そこで、人ごみ情報として歩行者の数に対応付ける情報としては、場所情報(現在位置など)だけでなく、人ごみ状況が変化する要因となる様々な情報を対応付けてもよい。人ごみが変化する要因となる情報としては、例えば、曜日、休日/平日、季節、時間帯、天気、気温がある。このように、場所情報以外の情報が人ごみ情報に付加されている場合、パラメータ調整部5aでは、これら情報も考慮し、パラメータを設定するようにする。例えば、過去の検出においてある場所で晴れの日の平日の朝に歩行者が3人以上存在したのは100%、5人以上存在したのは90%以上のデータが蓄積されている場合、その場所で晴れの日の平日の朝に歩行者が3人以上検出できたときには人ごみ用パラメータを設定する。このように、人ごみ状況が変化する要因も人ごみ情報として付加することにより、人ごみ状況をより高精度かつより詳細に推測することができる。   The increase or decrease in the number of pedestrians (the situation of crowds) is a significant factor in location, but the number of pedestrians varies depending on various factors such as time of day and day of the week. Therefore, as information associated with the number of pedestrians as the crowd information, not only the location information (current position and the like) but also various information that causes the crowd situation to change may be associated. Examples of information that causes changes in crowds include day of the week, holidays / weekdays, seasons, time zones, weather, and temperature. As described above, when information other than the location information is added to the crowd information, the parameter adjustment unit 5a sets the parameters in consideration of the information. For example, in the past detection, if there is 3% or more of pedestrians on a weekday morning on a sunny day in a certain place, if 100% of the pedestrians are present, and if more than 90% of the data is accumulated, When three or more pedestrians are detected on a weekday morning on a sunny day at the place, a parameter for crowding is set. In this way, by adding a factor that changes the crowd situation as the crowd information, it is possible to estimate the crowd situation with higher accuracy and more detail.

また、過去に走行した同一の場所を再度走行した場合、既に蓄積されているその場所についての人ごみ情報に加えて、新たな人ごみ情報も蓄積してゆく。このように、同じ場所について人ごみ情報を蓄積してゆくことにより、その場所についての人ごみ状況をより高精度に推測することが可能となる。   In addition, when traveling again in the same place that has traveled in the past, new garbage information is accumulated in addition to the already accumulated garbage information about the place. Thus, by accumulating the crowd information for the same place, it becomes possible to estimate the crowd situation for the place with higher accuracy.

なお、ECU5では、人ごみ用パラメータを用いて歩行者検出を行っている場合にバックグランドで通常用パラメータを用いて歩行者検出を行い、この2つのパラメータによる検出結果を比較検証するようにしてもよい。この場合、ECU5では、この検証結果から人ごみ用パラメータを用いる必要がないと判断した場合、人ごみ用パラメータから通常用パラメータに切り替える。このような処理を行うのは、人ごみ情報が未だ蓄積されていない段階から早期に人ごみ用パラメータを使用する場合や蓄積している人ごみ情報の信頼性が低い場合に有効である。   Note that the ECU 5 performs pedestrian detection using the normal parameters in the background when pedestrian detection is performed using the crowd parameters, and the detection results of the two parameters are compared and verified. Good. In this case, when the ECU 5 determines that it is not necessary to use the parameter for the crowd from the verification result, the ECU 5 switches the parameter for the crowd to the normal parameter. Such a process is effective when the parameters for the garbage are used at an early stage from the stage where the garbage information is not yet accumulated, or when the reliability of the accumulated garbage information is low.

図1を参照して、ナイトビューシステム1の動作について説明する。特に、ECU5における処理については図3のフローチャートに沿って説明する。図3は、第1の実施の形態に係るナイトビューシステムのECUにおける処理の流れを示すフローチャートである。   The operation of the night view system 1 will be described with reference to FIG. In particular, the processing in the ECU 5 will be described along the flowchart of FIG. FIG. 3 is a flowchart showing a process flow in the ECU of the night view system according to the first embodiment.

赤外線カメラ3では、赤外線を取り入れて赤外線映像化し、一定時間毎に各フレームの赤外線画像情報の画像信号をECU5に送信している。ナビゲーションシステム6では、現在位置を検出し、その現在位置信号をECU5に送信している。   The infrared camera 3 takes infrared rays to form infrared images, and transmits image signals of infrared image information of each frame to the ECU 5 at regular intervals. The navigation system 6 detects the current position and transmits the current position signal to the ECU 5.

ECU5では、一定時間毎に、赤外線カメラ3から画像信号を受信し、赤外線画像を取得する(S1)。また、ECU5では、ナビゲーションシステム6から現在位置信号を受信し、現在位置を取得する(S2)。さらに、ECU5では、ナビゲーションシステム6から人ごみ情報信号を受信し、現在位置周辺の人ごみ情報を取得する(S3)。   The ECU 5 receives an image signal from the infrared camera 3 and acquires an infrared image at regular intervals (S1). Further, the ECU 5 receives the current position signal from the navigation system 6 and acquires the current position (S2). Further, the ECU 5 receives the garbage information signal from the navigation system 6 and acquires the garbage information around the current position (S3).

そして、ECU5では、現在位置とその現在位置おける人ごみ情報(過去に検出された歩行者の数)に基づいて、歩行者検出に用いるパラメータを設定する(S4)。ここでは、過去の検出結果から現在位置が人ごみと推測できる場合には人ごみ用パラメータが設定され、人ごみでないと推測できる場合には通常用パラメータが設定される。   Then, the ECU 5 sets parameters used for pedestrian detection based on the current position and the crowd information (the number of pedestrians detected in the past) at the current position (S4). Here, when the current position can be estimated from the past detection result, the parameter for the crowd is set, and when it is estimated that the current position is not the crowd, the normal parameter is set.

次に、ECU5では、その設定したパラメータを用いて、パターンマッチングなどによって赤外線画像から歩行者を検出する(S5)。ここでは、人ごみ用パラメータが設定されている場合には歩行者の検出率がアップし、通常用パラメータが設定されている場合にはバランス型の検出率により誤検出が抑制される。   Next, the ECU 5 detects a pedestrian from the infrared image by pattern matching or the like using the set parameters (S5). Here, the detection rate of pedestrians increases when the parameter for crowding is set, and the erroneous detection is suppressed by the balance type detection rate when the parameter for normal use is set.

さらに、ECU5では、検出した歩行者の数情報と現在位置などの場所情報とを対応付けた人ごみ情報を生成し、人ごみ情報蓄積信号をナビゲーションシステム6に送信する(S6)。この人ごみ情報蓄積信号を受信すると、ナビゲーションシステム6では、人ごみ情報を人ごみ情報データベース6cに格納する。   Furthermore, the ECU 5 generates the garbage information in which the detected number information of the pedestrians and the location information such as the current position are associated with each other, and transmits a garbage information accumulation signal to the navigation system 6 (S6). When this garbage information storage signal is received, the navigation system 6 stores the garbage information in the garbage information database 6c.

また、ECU5では、赤外線画像に歩行者の検出結果を示す表示画像を生成し、その表示信号を表示装置4に送信する(S7)。この表示信号を受信すると、表示装置4では、赤外線画像に検出した歩行者を強調した画像を表示する。   Moreover, in ECU5, the display image which shows the detection result of a pedestrian in an infrared image is produced | generated, and the display signal is transmitted to the display apparatus 4 (S7). When this display signal is received, the display device 4 displays an image in which the detected pedestrian is emphasized in the infrared image.

このナイトビューシステム1によれば、現在位置における歩行者の数に応じて歩行者検出に用いるパラメータを設定することにより(特に、歩行者の数が多い場所ではパラメータを通常より緩和することにより)、歩行者が多い場所での検出漏れを抑制できるとともに歩行者が少ない場所での誤検出を抑制することができる。その結果、システム全体としての歩行者の検出精度を向上させることができ、運転者に対してより正確な歩行者情報を提供することができる。そのため、運転者の検出漏れや誤検出による不安感を解消することができるとともに、正確な歩行者情報により安全性を向上させることができる。   According to the night view system 1, by setting parameters used for pedestrian detection according to the number of pedestrians at the current position (especially by relaxing the parameters in a place where the number of pedestrians is large). In addition, it is possible to suppress detection omissions in a place where there are many pedestrians and to suppress erroneous detection in places where there are few pedestrians. As a result, the detection accuracy of pedestrians as a whole system can be improved, and more accurate pedestrian information can be provided to the driver. Therefore, it is possible to eliminate the driver's sense of anxiety due to omission of detection or erroneous detection, and it is possible to improve safety by accurate pedestrian information.

さらに、ナイトビューシステム1によれば、歩行者の検出結果とその検出した場所情報などを人ごみ情報として蓄積してゆくことにより、その場所を再度走行するときの人ごみ状況(歩行者の数)を高精度に推測することができ、人ごみ状況に応じたパラメータの設定が可能となる。   Furthermore, according to the night view system 1, the detection result of the pedestrian and the detected location information are accumulated as the crowd information, so that the crowd situation (the number of pedestrians) at the time of traveling the place again can be obtained. It is possible to estimate with high accuracy, and it is possible to set parameters according to the crowd situation.

なお、人ごみ用パラメータを用いた場合、検出率がアップするが、誤検出率もアップする。しかし、人ごみの場合、画像に占める歩行者の面積割合が増加するので、画像に占める誤検出が起こる可能性のある面積割合(つまり、歩行者が存在しない面積割合)が減少する。したがって、ΔERROR(システムとしての誤検出率の変化量)=Δerr(パラメータによって変化する誤検出率の変化量)×ΔS(誤検出の起こる可能性のある面積の変化量)とすると、人ごみ用パラメータを使用した場合にはΔerrが増加するがΔSが減少するので、人ごみ用パラメータを使用した場合でもΔERRORの増加を抑えることができる。   In addition, when the parameter for garbage is used, the detection rate increases, but the false detection rate also increases. However, in the case of crowds, since the area ratio of pedestrians in the image increases, the area ratio in which erroneous detection may occur in the image (that is, the area ratio in which there is no pedestrian) decreases. Therefore, if ΔERROR (the amount of change in the false detection rate as a system) = Δerr (the amount of change in the false detection rate that varies depending on the parameter) × ΔS (the amount of change in the area where erroneous detection may occur) When Δ is used, Δerr increases, but ΔS decreases. Therefore, even when a parameter for garbage is used, an increase in ΔERROR can be suppressed.

ちなみに、人ごみにおいて誤検出が起こったとしても、歩行者が全く存在しない場所で起こる誤検出とは違い、運転者にとってはその煩わしさは格段に違う。そのため、運転者にとっては人ごみにおいては検出漏れが起きないことの方が重要であり、検出漏れを解消することがシステムにとしての価値が高まる。   Incidentally, even if a false detection occurs in a crowd, the annoyance for a driver is significantly different from a false detection that occurs in a place where there are no pedestrians. For this reason, it is more important for the driver that no detection omission occurs in the crowd, and eliminating the omission of detection increases the value of the system.

次に、図4を参照して、第2の実施の形態に係るナイトビューシステム11について説明する。図4は、第2の実施の形態に係るナイトビューシステムの構成図である。なお、ナイトビューシステム11では、第1の実施の形態に係るナイトビューシステム1と同様の構成について同一の符号を付し、その説明を省略する。   Next, the night view system 11 according to the second embodiment will be described with reference to FIG. FIG. 4 is a configuration diagram of the night view system according to the second embodiment. In addition, in the night view system 11, the same code | symbol is attached | subjected about the structure similar to the night view system 1 which concerns on 1st Embodiment, and the description is abbreviate | omitted.

ナイトビューシステム11は、ナイトビューシステム1と同様のシステムであるが、パラメータを設定する際の歩行者の数の取得方法(人ごみ状況の検知方法)が異なる。ナイトビューシステム11では、前フレームの赤外線画像から検出した歩行者の数を保持し、その歩行者の数から現在検出を行っている場所の人ごみ状況を推測する。ナイトビューシステム11は、赤外線投光器2、赤外線カメラ3、表示装置4及びECU15を備えている。   The night view system 11 is the same system as the night view system 1, but the method for obtaining the number of pedestrians when setting the parameters (the method for detecting the crowd situation) is different. In the night view system 11, the number of pedestrians detected from the infrared image of the previous frame is held, and the crowd situation of the place where the current detection is performed is estimated from the number of pedestrians. The night view system 11 includes an infrared projector 2, an infrared camera 3, a display device 4, and an ECU 15.

ECU15は、CPU、ROM、RAMなどからなり、ROMに保持されるソフトウエアをCPUで実行することによってパラメータ調整部15a、歩行者検出部15b、検出結果保持部15cが構成される。ECU15では、第1の実施の形態に係るECU5と同様に、赤外線画像から歩行者を検出し、その赤外線映像と歩行者の検出結果を表示装置4に表示させる。特に、ECU15では、各フレームの赤外線画像で歩行者検出を行う毎に、そのフレームで検出した歩行者の数を保持する。そして、ECU15では、前フレームの保持した歩行者の数に応じて現フレームの歩行者検出に用いるパラメータを設定する。なお、第2の実施の形態では、パラメータ調整部15aが特許請求の範囲に記載する物体基準設定手段に相当し、歩行者検出部15bが特許請求の範囲に記載する物体検出手段に相当する。   The ECU 15 includes a CPU, a ROM, a RAM, and the like, and a parameter adjustment unit 15a, a pedestrian detection unit 15b, and a detection result holding unit 15c are configured by executing software held in the ROM by the CPU. In the ECU 15, a pedestrian is detected from the infrared image, and the infrared image and the detection result of the pedestrian are displayed on the display device 4, similarly to the ECU 5 according to the first embodiment. In particular, the ECU 15 holds the number of pedestrians detected in each frame each time pedestrian detection is performed on the infrared image of each frame. Then, the ECU 15 sets parameters used for pedestrian detection in the current frame according to the number of pedestrians held in the previous frame. In the second embodiment, the parameter adjustment unit 15a corresponds to the object reference setting unit described in the claims, and the pedestrian detection unit 15b corresponds to the object detection unit described in the claims.

パラメータ調整部15aでは、検出結果保持部15cで保持している前フレームにおいて検出された歩行者の数が人ごみ判定数以上か否かを判定し、人ごみ判定数未満の場合には通常用パラメータを設定し、人ごみ判定数以上の場合には人ごみ用パラメータを設定する。赤外線画像のフレーム間は1/30秒程度の非常に短い間隔であり、そのフレーム間間隔で車両が走行できる距離は非常に短い。したがって、前フレームと現フレームとの間では、歩行者の数(人ごみ状況)も殆ど変わらないと推測できる。そこで、前フレームで検出した歩行者の数を用いて、現フレームでの人ごみの状況を推測している。   The parameter adjustment unit 15a determines whether or not the number of pedestrians detected in the previous frame held by the detection result holding unit 15c is equal to or greater than the number of crowd determinations. If the number is greater than the number of people, the parameter for people is set. The interval between the frames of the infrared image is a very short interval of about 1/30 seconds, and the distance that the vehicle can travel at the interval between the frames is very short. Therefore, it can be estimated that the number of pedestrians (the crowd situation) hardly changes between the previous frame and the current frame. In view of this, the number of pedestrians detected in the previous frame is used to estimate the crowd situation in the current frame.

歩行者検出部15bでは、第1の実施の形態に係る歩行者検出部5bと同様の処理を行い、現フレームの赤外線画像が入力される毎に、パラメータ調整部15aで設定した通常用パラメータ又は人ごみ用パラメータを用いてその赤外線画像から歩行者を検出する。   The pedestrian detection unit 15b performs the same processing as the pedestrian detection unit 5b according to the first embodiment, and each time an infrared image of the current frame is input, the normal parameters set by the parameter adjustment unit 15a or A pedestrian is detected from the infrared image using the parameter for crowd.

検出結果保持部15cでは、歩行者検出部15bで歩行者検出を行う毎に、現フレームで検出された歩行者の数を保持する。この保持した歩行者の数が、次フレームでのパラメータの設定の際に利用される。   The detection result holding unit 15c holds the number of pedestrians detected in the current frame every time the pedestrian detection unit 15b performs pedestrian detection. The number of pedestrians held is used when setting parameters in the next frame.

図4を参照して、ナイトビューシステム11の動作について説明する。特に、ECU15における処理については図5のフローチャートに沿って説明する。図5は、第2の実施の形態に係るナイトビューシステムのECUにおける処理の流れを示すフローチャートである。   The operation of the night view system 11 will be described with reference to FIG. In particular, the processing in the ECU 15 will be described along the flowchart of FIG. FIG. 5 is a flowchart showing a process flow in the ECU of the night view system according to the second embodiment.

第1の実施の形態と同様に、赤外線カメラ3では一定時間毎に各フレームの赤外線画像情報の画像信号をECU15に送信しており、ナビゲーションシステム6では現在位置信号をECU15に送信している。   As in the first embodiment, the infrared camera 3 transmits an image signal of infrared image information of each frame to the ECU 15 at regular intervals, and the navigation system 6 transmits a current position signal to the ECU 15.

ECU15では、一定時間毎に、赤外線カメラ3から画像信号を受信し、現フレームの赤外線画像を取得する(S11)。   The ECU 15 receives an image signal from the infrared camera 3 at regular intervals, and acquires an infrared image of the current frame (S11).

ECU15では、保持している前フレームで検出された歩行者の数に基づいて、歩行者検出に用いるパラメータを設定する(S12)。ここでは、直前に検出された歩行者の数から現在位置が人ごみと推測できる場合には人ごみ用パラメータが設定され、人ごみでないと推測できる場合には通常用パラメータが設定される。   The ECU 15 sets parameters used for pedestrian detection based on the number of pedestrians detected in the previous frame held (S12). Here, when the current position can be estimated as crowded from the number of pedestrians detected immediately before, a crowd parameter is set, and when it can be estimated that it is not crowded, a normal parameter is set.

次に、ECU15では、その設定したパラメータを用いて、パターンマッチングなどによって赤外線画像から歩行者を検出する(S13)。そして、ECU15では、その現フレームで検出された歩行者の数を保持する(S14)。さらに、第1の実施の形態と同様に、ECU15では表示信号を表示装置4に送信し(S15)、表示装置4では赤外線画像に検出した歩行者を強調した画像を表示する。   Next, the ECU 15 detects a pedestrian from the infrared image by pattern matching or the like using the set parameters (S13). Then, the ECU 15 holds the number of pedestrians detected in the current frame (S14). Further, as in the first embodiment, the ECU 15 transmits a display signal to the display device 4 (S15), and the display device 4 displays an image that emphasizes the detected pedestrian in the infrared image.

このナイトビューシステム11によれば、ナイトビューシステム1と同様に、歩行者が多い場所での検出漏れを抑制できるとともに歩行者が少ない場所での誤検出を抑制することができ、システム全体としての歩行者の検出精度を向上させることができる。さらに、ナイトビューシステム11によれば、歩行者の検出結果を保持するという非常に簡単な構成により、現フレームの人ごみ状況を高精度に推測することができ、人ごみ状況に応じたパラメータの設定が可能となる。   According to this night view system 11, as with the night view system 1, it is possible to suppress detection omissions in places where there are many pedestrians and to suppress false detections in places where there are few pedestrians. Pedestrian detection accuracy can be improved. Furthermore, according to the night view system 11, it is possible to estimate the crowd situation of the current frame with high accuracy by a very simple configuration of holding the detection result of the pedestrian, and setting of parameters according to the crowd situation is possible. It becomes possible.

以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。   As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.

例えば、本実施の形態では赤外線カメラで撮像した赤外線画像に基づく歩行者検出に適用したが、赤外線以外の不可視カメラで撮像した不可視画像あるいは可視カメラで撮像した可視画像に基づく歩行者検出にも適用可能であり、また、検出対象物体も歩行者以外の様々な物体に適用可能である。また、本実施の形態では車両に搭載されるナイトビューシステムに適用したが、ナイトビューシステム以外の物体検出を行う車載装置にも適用可能であり、あるいは、車載装置に限定されることなく、様々な用途に適用可能である。   For example, in this embodiment, the present invention is applied to pedestrian detection based on an infrared image captured by an infrared camera, but is also applied to pedestrian detection based on an invisible image captured by an invisible camera other than infrared or a visible image captured by a visible camera. The detection target object can also be applied to various objects other than pedestrians. In this embodiment, the present invention is applied to a night view system mounted on a vehicle. However, the present invention can be applied to an in-vehicle device that detects an object other than the night view system, or is not limited to the in-vehicle device. It is applicable to various uses.

また、本実施の形態では歩行者の判定方法として検出候補に対する評価値がパラメータを上回った場合にその検出候補を歩行者と判定する構成としたが、検出候補に対する評価値がパラメータを下回った場合にその検出候補を歩行者と判定する構成としてもよい。この場合、パラメータの値を大きくすることによってパラメータを緩和したことになる。   Further, in this embodiment, when the evaluation value for the detection candidate exceeds the parameter as the determination method for the pedestrian, the detection candidate is determined to be a pedestrian. However, when the evaluation value for the detection candidate falls below the parameter Alternatively, the detection candidate may be determined as a pedestrian. In this case, the parameter is relaxed by increasing the value of the parameter.

また、第1の実施の形態では車両走行中にナイトビューシステム自体で行った歩行者の検出結果に基づく人ごみ情報を人ごみ情報データベースに蓄積する構成としたが、人が行った歩行者の検出結果あるいは路上の周辺監視装置などの他の装置で行った歩行者の検出結果などから人ごみ情報を生成し、この人ごみ情報を人ごみ情報データベースに予め保持させる構成としてもよい。   Moreover, in 1st Embodiment, although it was set as the structure which accumulate | stores the garbage information based on the detection result of the pedestrian performed by the night view system itself during vehicle driving | running | working in a garbage information database, the detection result of the pedestrian performed by the person Or it is good also as a structure which produces | generates garbage information from the detection result of the pedestrian performed with other apparatuses, such as a periphery monitoring apparatus on a road, and hold | maintains this garbage information in a garbage information database beforehand.

また、第2の実施の形態では前フレームの赤外線画像から検出された歩行者数に基づいてパラメータを設定する構成としたが、前フレームだけでなく、前フレームから数フレーム前までの複数フレームでそれぞれ検出された各歩行者数に基づいてパラメータを設定する構成としてもよい。例えば、数フレーム連続して歩行者が人ごみ判定数以上検出された場合に人ごみ用パラメータを設定する。   Further, in the second embodiment, the parameter is set based on the number of pedestrians detected from the infrared image of the previous frame. However, not only the previous frame but also a plurality of frames from the previous frame to several frames before. A parameter may be set based on the number of pedestrians detected. For example, when the number of pedestrians detected is greater than the number of people determined in succession for several frames, the parameter for people is set.

また、第1の実施の形態では過去の人ごみ情報を利用してパラメータを設定し、第2の実施の形態では前フレームで検出された歩行者数を利用してパラメータを設定する構成としたが、過去の人ごみ情報と前フレームで検出された歩行者数を両方利用してパラメータを設定するようにしてもよい。例えば、過去の人ごみ情報で歩行者が検出されていない場合でも、前フレームで歩行者が人ごみ判定数以上検出されたときには、現フレーム以降でも検出される可能性が高いので、人ごみ用パラメータを設定する。また、過去の人ごみ情報で人ごみ判定数以上の歩行者が検出されており、人ごみ用パラメータを設定した場合でも、前フレームで人ごみ判定数以上の歩行者が検出されないときには、現フレーム以降でも検出される可能性が低いので、通常用パラメータに戻す。   In the first embodiment, parameters are set using past crowd information, and in the second embodiment, parameters are set using the number of pedestrians detected in the previous frame. The parameter may be set by using both the past crowd information and the number of pedestrians detected in the previous frame. For example, even if no pedestrians are detected in past crowd information, if more than the number of crowds detected in the previous frame is detected, it is highly likely that they will be detected after the current frame. To do. In addition, if pedestrians more than the number of crowds are detected in the past crowd information and no pedestrians greater than the number of crowds are detected in the previous frame, even if the parameter for crowds is set, it will be detected after the current frame. Because there is a low possibility that

第1の実施の形態に係るナイトビューシステムの構成図である。It is a lineblock diagram of the night view system concerning a 1st embodiment. 本実施の形態に係るナイトビューシステムの表示装置に表示される画像の一例であり、(a)が検出漏れがない場合であり、(b)が検出漏れがある場合である。It is an example of the image displayed on the display apparatus of the night view system which concerns on this Embodiment, (a) is a case where there is no detection failure, and (b) is a case where there is a detection failure. 第1の実施の形態に係るナイトビューシステムのECUにおける処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in ECU of the night view system which concerns on 1st Embodiment. 第2の実施の形態に係るナイトビューシステムの構成図である。It is a block diagram of the night view system which concerns on 2nd Embodiment. 第2の実施の形態に係るナイトビューシステムのECUにおける処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in ECU of the night view system which concerns on 2nd Embodiment.

符号の説明Explanation of symbols

1,11…ナイトビューシステム、2…赤外線投光器、3…赤外線カメラ、4…表示装置、5,15…ECU、5a,15a…パラメータ調整部、5b,15b…歩行者検出部、5c…検出結果解析部、15c…検出結果保持部、6…ナビゲーションシステム、6a…現在位置検出部、6b…地図・環境情報データベース、6c…人ごみ情報データベース
DESCRIPTION OF SYMBOLS 1,11 ... Night view system, 2 ... Infrared projector, 3 ... Infrared camera, 4 ... Display apparatus, 5, 15 ... ECU, 5a, 15a ... Parameter adjustment part, 5b, 15b ... Pedestrian detection part, 5c ... Detection result Analysis unit, 15c ... detection result holding unit, 6 ... navigation system, 6a ... current position detection unit, 6b ... map / environment information database, 6c ... crowd information database

Claims (5)

撮像手段で撮像した撮像画像から物体を検出する物体検出装置であって、
検出対象物体の数に基づいて検出基準を設定する検出基準設定手段と、
前記検出基準設定手段で設定した検出基準に基づいて撮像画像から検出対象物体を検出する物体検出手段と
を備え、
前記検出基準設定手段は、検出対象物体の数が多い場合には少ない場合に比べて緩和した検出基準を設定することを特徴とする物体検出装置。
An object detection device for detecting an object from a captured image captured by an imaging means,
Detection reference setting means for setting a detection reference based on the number of detection target objects;
An object detection unit that detects a detection target object from a captured image based on the detection criterion set by the detection criterion setting unit;
The detection reference setting unit sets a relaxed detection reference when the number of detection target objects is large compared to when the number is small.
前記検出基準設定手段は、検出対象物体の数が多いほど、より緩和した検出基準を設定することを特徴とする請求項1に記載する物体検出装置。   The object detection apparatus according to claim 1, wherein the detection reference setting unit sets a more relaxed detection reference as the number of detection target objects is larger. 少なくとも検出対象物体の数情報と当該検出対象物体を検出した場所情報とを対応付けて保持する検出情報保持手段を備え、
前記検出基準設定手段は、前記検出情報保持手段で保持している情報を参照し、検出基準を設定することを特徴とする請求項1又は請求項2に記載する物体検出装置。
Detection information holding means for holding at least number information of the detection target object and location information where the detection target object is detected in association with each other;
The object detection apparatus according to claim 1, wherein the detection reference setting unit sets a detection reference with reference to information held by the detection information holding unit.
前記物体検出手段は、物体検出を行う際の評価値が検出基準を上回った場合に検出対象物体と判定し、
前記検出基準設定手段は、検出対象物体の数が多い場合には少ない場合に比べて検出基準として小さい値を設定することを特徴とする請求項1〜請求項3のいずれか1項に記載する物体検出装置。
The object detection means determines that the object to be detected is an object to be detected when an evaluation value when performing object detection exceeds a detection criterion;
The detection reference setting means sets a smaller value as a detection reference when the number of detection target objects is large than when it is small. Object detection device.
前記物体検出手段は、物体検出を行う際の評価値が検出基準を下回った場合に検出対象物体と判定し、
前記検出基準設定手段は、検出対象物体の数が多い場合には少ない場合に比べて検出基準として大きい値を設定することを特徴とする請求項1〜請求項3のいずれか1項に記載する物体検出装置。
The object detection means determines that the object to be detected is an object to be detected when an evaluation value when performing object detection is lower than a detection reference;
The detection reference setting unit sets a larger value as a detection reference when the number of detection target objects is large than when the number is small. Object detection device.
JP2006104330A 2006-04-05 2006-04-05 Object detection device Expired - Fee Related JP4830594B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006104330A JP4830594B2 (en) 2006-04-05 2006-04-05 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006104330A JP4830594B2 (en) 2006-04-05 2006-04-05 Object detection device

Publications (2)

Publication Number Publication Date
JP2007279970A true JP2007279970A (en) 2007-10-25
JP4830594B2 JP4830594B2 (en) 2011-12-07

Family

ID=38681367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006104330A Expired - Fee Related JP4830594B2 (en) 2006-04-05 2006-04-05 Object detection device

Country Status (1)

Country Link
JP (1) JP4830594B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012117829A (en) * 2010-11-29 2012-06-21 Denso Corp Prediction device
JP2013174540A (en) * 2012-02-27 2013-09-05 Mitsubishi Electric Corp Route search device
JP2013214230A (en) * 2012-04-03 2013-10-17 Denso It Laboratory Inc Driving support device, driving support method, and computer program
JP5706874B2 (en) * 2010-03-03 2015-04-22 本田技研工業株式会社 Vehicle periphery monitoring device
US9495873B2 (en) 2011-06-09 2016-11-15 Toyota Jidosha Kabushiki Kaisha Other-vehicle detection device and other-vehicle detection method
US9626868B2 (en) 2009-07-10 2017-04-18 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2017146990A (en) * 2017-04-26 2017-08-24 株式会社東芝 Object detection apparatus and detection method of the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02151996A (en) * 1988-12-03 1990-06-11 Toshiba Corp Room entry control system
JPH08188985A (en) * 1994-12-28 1996-07-23 Mitsubishi Paper Mills Ltd Production of matt coatd paper for printing
JP2002218443A (en) * 2000-10-31 2002-08-02 Hitachi Kokusai Electric Inc Intruding object detecting method for automatically determining threshold for intruding object detection and intruding object monitor
JP2003060984A (en) * 2001-08-20 2003-02-28 Mitsubishi Electric Corp Mobile information terminal with camera
JP2006086730A (en) * 2004-09-15 2006-03-30 Sharp Corp Television receiver, information processing apparatus, and mobile phone
JP2006246106A (en) * 2005-03-04 2006-09-14 Mitsubishi Electric Corp Digital broadcasting receiver

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02151996A (en) * 1988-12-03 1990-06-11 Toshiba Corp Room entry control system
JPH08188985A (en) * 1994-12-28 1996-07-23 Mitsubishi Paper Mills Ltd Production of matt coatd paper for printing
JP2002218443A (en) * 2000-10-31 2002-08-02 Hitachi Kokusai Electric Inc Intruding object detecting method for automatically determining threshold for intruding object detection and intruding object monitor
JP2003060984A (en) * 2001-08-20 2003-02-28 Mitsubishi Electric Corp Mobile information terminal with camera
JP2006086730A (en) * 2004-09-15 2006-03-30 Sharp Corp Television receiver, information processing apparatus, and mobile phone
JP2006246106A (en) * 2005-03-04 2006-09-14 Mitsubishi Electric Corp Digital broadcasting receiver

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9626868B2 (en) 2009-07-10 2017-04-18 Toyota Jidosha Kabushiki Kaisha Object detection device
JP5706874B2 (en) * 2010-03-03 2015-04-22 本田技研工業株式会社 Vehicle periphery monitoring device
JP2012117829A (en) * 2010-11-29 2012-06-21 Denso Corp Prediction device
US9245189B2 (en) 2010-11-29 2016-01-26 Denso Corporation Object appearance frequency estimating apparatus
US9495873B2 (en) 2011-06-09 2016-11-15 Toyota Jidosha Kabushiki Kaisha Other-vehicle detection device and other-vehicle detection method
JP2013174540A (en) * 2012-02-27 2013-09-05 Mitsubishi Electric Corp Route search device
JP2013214230A (en) * 2012-04-03 2013-10-17 Denso It Laboratory Inc Driving support device, driving support method, and computer program
JP2017146990A (en) * 2017-04-26 2017-08-24 株式会社東芝 Object detection apparatus and detection method of the same

Also Published As

Publication number Publication date
JP4830594B2 (en) 2011-12-07

Similar Documents

Publication Publication Date Title
JP4830594B2 (en) Object detection device
JP5930067B2 (en) Visibility estimation device and safe driving support system
CN104050620B (en) Body detection device
JP5569365B2 (en) Guide device, guide method, and guide program
KR101032160B1 (en) System and method for road visibility measurement using camera
US20190057604A1 (en) Method, device and system for processing startup of preceding vehicle
US9965690B2 (en) On-vehicle control device
RU2017124586A (en) VEHICLE AND RELATED METHOD FOR PROJECTIVE DISPLAY (OPTIONS)
WO2012004938A1 (en) Device for monitoring vicinity of vehicle
JP2016103249A (en) Driving support device and driving support method
US11810373B2 (en) Cognitive function estimation device, learning device, and cognitive function estimation method
FR2952887A1 (en) CONTROL METHOD AND APPARATUS FOR DETECTING FATIGUE OF A DRIVER
CN103164685B (en) Vehicle lamp detection method and car light detection device
JP5522475B2 (en) Navigation device
KR20120063657A (en) Apparatus for protecting children pedestrian and method for protecting protecting children of the same
JP2017129973A (en) Driving support apparatus and driving support method
JP2020095565A (en) Information processing system, program, and method for processing information
TWI619098B (en) Method and system for estimating parking space quantity by using eTag detector
JP4003569B2 (en) Intersection accident prevention device and program
US11100340B2 (en) Line detector for vehicle and method for detecting line for vehicle
JP2008233960A (en) Information presentation device
JP6087240B2 (en) Vehicle periphery monitoring device
JP5024165B2 (en) Visual object estimation device
WO2020170835A1 (en) Information processing device, information processing method, and information processing program
WO2023112073A1 (en) Reference value creation device, alertness level estimation device, and reference value creation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees