JP2011257984A - Object detection device and program - Google Patents

Object detection device and program Download PDF

Info

Publication number
JP2011257984A
JP2011257984A JP2010131879A JP2010131879A JP2011257984A JP 2011257984 A JP2011257984 A JP 2011257984A JP 2010131879 A JP2010131879 A JP 2010131879A JP 2010131879 A JP2010131879 A JP 2010131879A JP 2011257984 A JP2011257984 A JP 2011257984A
Authority
JP
Japan
Prior art keywords
risk
posture
area
dangerous area
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010131879A
Other languages
Japanese (ja)
Other versions
JP5197679B2 (en
Inventor
Kunihiro Goto
邦博 後藤
Masayoshi Hiratsuka
誠良 平塚
Michihiko Ota
充彦 太田
Arata Takahashi
新 高橋
Hiroyuki Usami
祐之 宇佐美
Daisuke Konaka
大輔 古仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2010131879A priority Critical patent/JP5197679B2/en
Publication of JP2011257984A publication Critical patent/JP2011257984A/en
Application granted granted Critical
Publication of JP5197679B2 publication Critical patent/JP5197679B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect at an early stage and accurately an object with a high risk for a driver.SOLUTION: An object detection device obtains information such as a picked-up image of surroundings of own vehicle and information which indicates a driving condition and a surrounding condition of own vehicle, and deduces a dangerous area where a pedestrian may exist and a risk of the dangerous area on the basis of the obtained information, a risk for each posture on the basis of the relation between the dangerous area and the posture of a hypothetical pedestrian in the dangerous area, and a comprehensive risk (dangerous area risk x posture risk) by multiplying the risk of the dangerous area and the risk per posture. A priority is given to each of the comprehensive risks (dangerous area risk x posture risk) in the order of decreasing comprehensive risk level. The comprehensive risk (dangerous area risk x posture risk) is selected, and a window image is extracted from a search range, which corresponds to the dangerous area of the comprehensive risk (dangerous area risk x posture risk), in the picked-up image, in order of the priority. An identification model corresponding to the posture of the selected comprehensive risk (dangerous area risk x posture risk) is compared with the window image in order to identify whether or not an object is a pedestrian.

Description

本発明は、対象物検出装置及びプログラムに係り、特に、撮像した画像から対象物を検出するための対象物検出装置及びプログラムに関する。   The present invention relates to an object detection device and a program, and more particularly to an object detection device and a program for detecting an object from a captured image.

近年、車載カメラで撮像した車両周辺の映像を画像処理し、歩行者などの対象物を検出してドライバに検出結果を提示する対象物検出装置を搭載する車両が増加している。   2. Description of the Related Art In recent years, an increasing number of vehicles are equipped with an object detection device that performs image processing on an image around a vehicle imaged by an in-vehicle camera, detects an object such as a pedestrian, and presents a detection result to a driver.

例えば、判別対象となり得る物体までの距離ごとに態様の異なる複数のテンプレートを記憶しておき、画像内から判別の対象となる物体を背景差分法あるいは顕著性算出法により検出して、その物体までの距離を検出し、その距離に対応したテンプレートを選択し、判別対象として画像内から検出された物体に対してこのテンプレートあてはめて物体判別を行う物体判別装置が提案されている(特許文献1参照)。   For example, a plurality of templates having different modes are stored for each distance to an object that can be a discrimination target, and the object to be discriminated from the image is detected by the background difference method or the saliency calculation method, and the object is detected. An object discriminating apparatus has been proposed in which a distance corresponding to the distance is detected, a template corresponding to the distance is selected, and this template is applied to an object detected from within an image as a discrimination target (see Patent Document 1). ).

歩行者のように姿勢の多様性が多い対象物に対しては、特許文献1に記載の物体判別装置のように、態様の異なるテンプレートを適用することで、対象物検出の精度を向上させることができる。しかし、テンプレートの種類を豊富にすることで、検出の精度をより向上させることはできるが、テンプレートの数が多くなるほど、すべてのテンプレートを適用して検出することにより処理時間が長時間化してしまう。   For objects with a wide variety of postures such as pedestrians, the accuracy of object detection can be improved by applying templates with different modes as in the object discrimination device described in Patent Document 1. Can do. However, by increasing the number of template types, the accuracy of detection can be further improved, but as the number of templates increases, the processing time increases due to detection by applying all templates. .

そこで、移動方向判断部の物標の移動方向の判断に基づき、歩行者パターン選択部により、歩行者パターン記憶部に予め記憶された移動方向別の歩行者画像から、移動方向判断部により判断された移動方向の移動姿勢の歩行者画像を選択し、認識処理部により、選択された移動方向の歩行者パターンとカメラ画像中の認識対象の物標の画像パターンとを照合して歩行者を認識する画像認識装置が提案されている(例えば、特許文献2参照)。   Therefore, based on the determination of the movement direction of the target by the movement direction determination unit, the pedestrian pattern selection unit determines the movement direction determination unit from the pedestrian images for each movement direction stored in advance in the pedestrian pattern storage unit. A pedestrian image with a moving posture in the moving direction is selected, and the recognition processing unit recognizes the pedestrian by comparing the selected pedestrian pattern in the moving direction with the image pattern of the target to be recognized in the camera image. An image recognition apparatus has been proposed (see, for example, Patent Document 2).

また、基準パターンデータベースに画像の背景ごとに異なる(空用、道路用、道路外用などの)複数の基準パターンを記憶しておき、背景領域分割部により、消失点や車線認識を用いて入力画像の背景を分割し、基準パターン選択部により、判定領域を背景領域のいずれから切り出したかによって、歩行者候補領域検出部で使用する基準パターンを選択する物体候補領域検出装置が提案されている(例えば、特許文献3参照)。   In addition, a plurality of reference patterns (for sky, road, road use, etc.) that are different for each background of the image are stored in the reference pattern database, and the input image using vanishing points and lane recognition by the background region dividing unit. An object candidate region detection device has been proposed in which a reference pattern to be used by a pedestrian candidate region detection unit is selected based on which of the background regions is extracted by the reference pattern selection unit by dividing the background of the pedestrian (for example, And Patent Document 3).

また、画像処理部で、画像メモリから1フレーム単位の撮像画像を読み出し、フレームレートと同期して、記憶部から車速v、操舵角α、傾斜角βを読み出し、画像処理部で、読み出した車速v、操舵角α、傾斜角βに基づいて、LUTを参照して、部分画像を特定するためのパラメータを取得し、特定した部分画像をフレームメモリへ一旦記憶し、歩行者認識処理部で、フレームメモリに記憶された部分画像を読み出し、読み出した部分画像と、標準パターン部から読み出した標準パターンとの類似度を判定する車両周辺認識システムが提案されている(例えば、特許文献4参照)。   Further, the image processing unit reads a captured image in units of one frame from the image memory, reads the vehicle speed v, the steering angle α, and the inclination angle β from the storage unit in synchronization with the frame rate, and reads the vehicle speed read by the image processing unit. Based on v, steering angle α, and inclination angle β, referring to the LUT, the parameter for specifying the partial image is acquired, the specified partial image is temporarily stored in the frame memory, and the pedestrian recognition processing unit There has been proposed a vehicle periphery recognition system that reads a partial image stored in a frame memory and determines the degree of similarity between the read partial image and a standard pattern read from a standard pattern portion (see, for example, Patent Document 4).

特開2007−072665号公報JP 2007-072665 A 特開2009−237897号公報JP 2009-237897 A 特開2007−328630号公報JP 2007-328630 A 特開2006−178652号公報JP 2006-178852 A

しかしながら、特許文献2の画像認識装置では、歩行者の移動方向に基づいて使用する歩行者パターンを選択しているが、例えば、歩行者がこれから道路を横断しようとして静止している場合など、静止している対象物については、移動方向を認識することができないため適用することができない、という問題がある。   However, in the image recognition device of Patent Document 2, the pedestrian pattern to be used is selected based on the moving direction of the pedestrian. However, for example, when the pedestrian is standing still trying to cross the road, There is a problem that the applied object cannot be applied because the moving direction cannot be recognized.

また、特許文献3の物体候補領域検出装置では、道路とそれ以外の領域とで使用するモデルを選択しているが、着目しているのは背景パターンの多様性であって、対象物の姿勢の多様性ではないため、姿勢変化に対する頑強性が低下する可能性がある、という問題がある。また、領域や対象物の姿勢の危険度を考慮していないため、対象物の探索範囲によっては、ドライバにとって危険度の高くない歩行者モデルを使用してしまう可能性がある、という問題がある。   Further, in the object candidate area detection apparatus of Patent Document 3, a model to be used for a road and other areas is selected. However, what is focused on is the diversity of background patterns, and the posture of the object. There is a problem that the robustness to the posture change may be reduced because it is not the diversity of the movement. In addition, since the risk of the area and the posture of the object is not taken into consideration, there is a problem that a pedestrian model that is less dangerous for the driver may be used depending on the search range of the object. .

また、特許文献4の車両周辺認識システムでは、自車速度や操舵角などによって対象物の探索範囲を設定しているが、衝突可能性などの危険度を考慮したものではなく、対象物の探索範囲によっては、ドライバにとって危険度の高くない歩行者モデルを使用してしまう可能性がある、という問題がある。   Moreover, in the vehicle periphery recognition system of Patent Document 4, the search range of the object is set based on the vehicle speed, the steering angle, etc., but this does not consider the risk such as the possibility of collision. Depending on the range, there is a problem that a pedestrian model that is not dangerous for the driver may be used.

本発明は、上述した問題を解決するために成されたものであり、ドライバにとって危険度の高い対象物を早期に精度良く検出することができる対象物検出装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an object detection apparatus and program capable of detecting an object with a high degree of danger for a driver early and accurately. To do.

上記目的を達成するために、本発明の対象物検出装置は、自車両周辺を撮像した撮像画像、自車両の走行状態を示す情報、及び自車両の周辺状況を示す情報を取得する取得手段と、前記取得手段により取得した情報に基づいて、対象物が存在する可能性のある危険領域、及び該危険領域の危険の度合いを示す領域危険度を推定する危険領域推定手段と、前記危険領域と自車両との位置関係と、該危険領域内に存在すると仮定した対象物の姿勢との関係に基づいて、該姿勢毎の危険の度合いを示す姿勢別危険度を推定する姿勢別危険度推定手段と、前記領域危険度及び前記姿勢別危険度に基づいて、前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢毎の総合的な危険度を推定し、該総合的な危険度の高い順に前記危険領域を選択し、選択した危険領域に対応する前記撮像画像上の領域からウインドウ画像を抽出する抽出手段と、前記抽出手段により抽出されたウインドウ画像と、予め対象物を識別するために対象物の姿勢毎に生成された識別モデルから前記選択した危険領域内に存在すると仮定した対象物の姿勢に応じて選択された識別モデルとに基づいて、前記ウインドウ画像が対象物を表す画像か否かを識別する識別手段と、を含んで構成されている。   In order to achieve the above object, the object detection apparatus of the present invention includes an acquisition unit that acquires a captured image obtained by imaging the periphery of the host vehicle, information indicating a traveling state of the host vehicle, and information indicating a surrounding state of the host vehicle. Based on the information acquired by the acquisition means, a dangerous area in which the object may exist, a dangerous area estimation means for estimating a dangerous area indicating the degree of danger in the dangerous area, and the dangerous area Based on the relationship between the positional relationship with the host vehicle and the posture of the object assumed to be in the dangerous area, the posture-specific risk estimation means for estimating the posture-specific risk indicating the degree of danger for each posture. And, based on the area risk level and the posture-specific risk level, estimate a total risk level for each posture of the object that is assumed to exist in the risk area for each risk area, and Select the danger areas in descending order. And extracting means for extracting a window image from the area on the captured image corresponding to the selected dangerous area, the window image extracted by the extracting means, and the posture of the object in order to identify the object in advance. Identification for identifying whether or not the window image is an image representing an object based on an identification model selected according to the posture of the object assumed to exist in the selected dangerous area from the generated identification model And means.

本発明の対象物検出装置によれば、取得手段が、自車両周辺を撮像した撮像画像、自車両の走行状態を示す情報、及び自車両の周辺状況を示す情報を取得し、危険領域推定手段が、取得手段により取得した情報に基づいて、対象物が存在する可能性のある危険領域、及び該危険領域の危険の度合いを示す領域危険度を推定し、また、姿勢別危険度推定手段が、危険領域と自車両との位置関係と、該危険領域内に存在すると仮定した対象物の姿勢との関係に基づいて、該姿勢毎の危険の度合いを示す姿勢別危険度を推定する。そして、抽出手段が、領域危険度及び姿勢別危険度に基づいて、危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢毎の総合的な危険度を推定し、該総合的な危険度の高い順に危険領域を選択し、選択した危険領域に対応する撮像画像上の領域からウインドウ画像を抽出し、識別手段が、抽出手段により抽出されたウインドウ画像と、予め対象物を識別するために対象物の姿勢毎に生成された識別モデルから選択した危険領域内に存在すると仮定した対象物の姿勢に応じて選択された識別モデルとに基づいて、ウインドウ画像が対象物を表す画像か否かを識別する。   According to the object detection device of the present invention, the acquisition unit acquires a captured image obtained by imaging the periphery of the host vehicle, information indicating the traveling state of the host vehicle, and information indicating a surrounding state of the host vehicle, and a dangerous region estimation unit. However, based on the information acquired by the acquisition means, the risk area in which the object may exist and the area risk level indicating the degree of danger in the risk area are estimated, and the posture-specific risk level estimation means Then, based on the relationship between the positional relationship between the dangerous area and the host vehicle and the posture of the object assumed to be in the dangerous area, the risk by posture indicating the degree of danger for each posture is estimated. Then, the extraction means estimates the overall risk level for each posture of the object assumed to exist in the risk area for each risk region based on the area risk level and the posture-specific risk level. A risk area is selected in descending order of the degree of risk, a window image is extracted from an area on the captured image corresponding to the selected risk area, and an identification means identifies a target object in advance from the window image extracted by the extraction means. Whether the window image represents an object based on the identification model selected according to the posture of the target object that is assumed to be in the danger area selected from the identification model generated for each posture of the target object Identify whether or not.

このように、領域毎の危険度及び対象物の姿勢別の危険度に基づいた総合的な危険度が高い順に探索範囲として設定し、姿勢別の識別モデルから適切な識別モデルを選択するため、ドライバにとって危険度の高い対象物を早期に精度良く検出することができる。   Thus, in order to set the search range in descending order of the overall risk based on the risk for each region and the risk for each posture of the object, to select an appropriate identification model from the posture-specific identification model, An object with a high degree of danger for the driver can be detected early and accurately.

また、前記危険領域推定手段は、前記領域危険度が予め定めた領域危険度閾値より小さい危険領域を処理対象から除外するようにすることができる。また、前記姿勢別危険度推定手段は、前記姿勢別危険度が予め定めた姿勢別危険度閾値より小さい姿勢を処理対象から除外するようにすることができる。また、前記抽出手段は、前記総合的な危険度が予め定めた危険度閾値より小さい前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢を処理対象から除外するようにすることができる。また、前記危険領域推定手段は、前記危険領域に対象物が存在すると仮定した場合に、該対象物と自車両との衝突が不可避の領域を前記危険領域から除外するようにすることができる。これにより、計算リソースに制限がある場合でも、検出すべき危険度の高い対象物を優先的に検出することができる。   Further, the dangerous area estimation means may exclude a dangerous area whose area risk is smaller than a predetermined area risk threshold from a processing target. Further, the posture-specific risk estimation means can exclude postures whose posture-specific risks are smaller than a predetermined posture-specific risk threshold from the processing target. Further, the extracting means excludes the posture of the target object that is assumed to exist in the risk area for each risk area whose total risk level is smaller than a predetermined risk level threshold. Can do. Further, when it is assumed that there is an object in the dangerous area, the dangerous area estimating means can exclude an area where a collision between the object and the host vehicle is inevitable from the dangerous area. Thereby, even when there is a limit to the computational resources, it is possible to preferentially detect an object with a high degree of risk to be detected.

また、前記危険領域推定手段は、過去に前記識別手段により対象物を表す画像であると識別された前記ウインドウ画像に対応する危険領域の領域危険度を高くするようにすることができる。また、前記姿勢別危険度推定手段は、過去に前記識別手段により対象物を表す画像であると識別された前記ウインドウ画像に対応する危険領域内に存在すると仮定される対象物の姿勢のうち、該ウインドウ画像が示す対象物の姿勢の姿勢別危険度を高くするようにすることができる。このように識別結果をフィードバックすることにより、領域危険度及び姿勢別危険度の推定精度が向上する。   Further, the dangerous area estimation means can increase the area risk of the dangerous area corresponding to the window image that has been identified as an image representing the object by the identification means in the past. Further, the posture-specific risk estimation means includes the posture of the target object that is assumed to exist in the risk area corresponding to the window image that has been identified as an image representing the target object by the identification unit in the past. It is possible to increase the risk by posture of the posture of the object indicated by the window image. By feeding back the identification result in this way, the estimation accuracy of the region risk and the posture-specific risk is improved.

また、前記対象物が歩行者の場合、前記対象物の姿勢は、前記歩行者の向き、開脚度合い、手と足との関係、静止しているか歩いているか走っているかの状態、及び身長を含むように構成することができる。   In addition, when the object is a pedestrian, the posture of the object includes the orientation of the pedestrian, the degree of open legs, the relationship between hands and feet, the state of standing still, walking or running, and height It can comprise so that it may contain.

また、前記自車両の走行状態を示す情報は、自車両の速度、操舵角、及び姿勢角を含むように構成することができる。   The information indicating the traveling state of the host vehicle can be configured to include a speed, a steering angle, and a posture angle of the host vehicle.

また、前記自車両の周辺状況を示す情報は、自車両の周辺に存在する物体の位置、該物体が移動しているか静止しているかを示す情報、地図情報、及び自車両の周辺の天候の情報を含むように構成することができる。   The information indicating the surrounding situation of the own vehicle includes the position of an object existing around the own vehicle, information indicating whether the object is moving or stationary, map information, and weather around the own vehicle. It can be configured to contain information.

また、本発明の対象物検出プログラムは、コンピュータを、自車両周辺を撮像した撮像画像、自車両の走行状態を示す情報、及び自車両の周辺状況を示す情報を取得する取得手段、前記取得手段により取得した情報に基づいて、対象物が存在する可能性のある危険領域、及び該危険領域の危険の度合いを示す領域危険度を推定する危険領域推定手段、前記危険領域と自車両との位置関係と、該危険領域内に存在すると仮定した対象物の姿勢との関係に基づいて、該姿勢毎の危険の度合いを示す姿勢別危険度を推定する姿勢別危険度推定手段、前記領域危険度及び前記姿勢別危険度に基づいて、前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢毎の総合的な危険度を推定し、該総合的な危険度の高い順に前記危険領域を選択し、選択した危険領域に対応する前記撮像画像上の領域からウインドウ画像を抽出する抽出手段、及び前記抽出手段により抽出されたウインドウ画像と、予め対象物を識別するために対象物の姿勢毎に生成された識別モデルから前記選択した危険領域内に存在すると仮定した対象物の姿勢に応じて選択された識別モデルとに基づいて、前記ウインドウ画像が対象物を表す画像か否かを識別する識別手段として機能させるためのプログラムである。   In addition, the object detection program of the present invention uses a computer to acquire an image obtained by capturing an image of the periphery of the host vehicle, information indicating a traveling state of the host vehicle, and information indicating a surrounding state of the host vehicle, the acquiring unit. Based on the information acquired by the above, a dangerous area in which the object may exist, a dangerous area estimating means for estimating a dangerous area indicating the degree of danger in the dangerous area, and the position of the dangerous area and the host vehicle A posture-specific risk estimation means for estimating a posture-specific risk indicating the degree of danger for each posture based on the relationship between the relationship and the posture of the object assumed to exist in the risk region; Then, based on the risk by posture, the overall risk for each posture of the object assumed to exist in the risk area is estimated for each risk area, and the risk is calculated in descending order of the total risk. Select an area Extraction means for extracting a window image from the area on the captured image corresponding to the selected danger area, and the window image extracted by the extraction means, and generated for each posture of the object in advance to identify the object As an identification means for identifying whether the window image is an image representing an object based on an identification model selected according to the posture of the object assumed to exist in the selected dangerous area from the identified identification model It is a program to make it function.

なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。   The storage medium for storing the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk or an IC card. Furthermore, the program may be downloaded from a server or the like connected to the network.

以上説明したように、本発明によれば、領域毎の危険度及び対象物の姿勢別の危険度に基づいた総合的な危険度が高い順に探索範囲として設定し、姿勢別の識別モデルから適切な識別モデルを選択するため、ドライバにとって危険度の高い対象物を早期に精度良く検出することができる、という効果が得られる。   As described above, according to the present invention, the search range is set in descending order of the overall risk level based on the risk level for each region and the risk level for each posture of the object. Since an easy identification model is selected, it is possible to quickly and accurately detect an object with a high degree of danger for the driver.

本実施の形態に係る対象物検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target object detection apparatus which concerns on this Embodiment. 危険領域マップの一例を示す図である。It is a figure which shows an example of a dangerous area map. (A)姿勢別危険度が低い場合、(B)姿勢別危険度が高い場合について説明するための図である。(A) It is a figure for demonstrating the case where the risk according to posture is low, and (B) the case where the risk according to posture is high. 本実施の形態の対象物検出装置における対象物検出処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the target object detection processing routine in the target object detection apparatus of this Embodiment. 領域危険度、姿勢別危険度、及び総合的な危険度の推定結果の一例を示す図である。It is a figure which shows an example of the estimation result of area | region risk, the risk according to attitude | position, and a comprehensive risk.

以下、図面を参照して本発明の実施の形態を詳細に説明する。本実施の形態では、車両に搭載され、対象物として歩行者を検出する対象物検出装置に本発明を適用した場合について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case will be described in which the present invention is applied to an object detection device that is mounted on a vehicle and detects a pedestrian as an object.

図1に示すように本実施の形態に係る対象物検出装置10は、識別対象領域を含む範囲を撮像する撮像装置12と、自車両の走行状態を検出する走行状態検出部14と、自車両の周辺の状況を検出する周辺状況検出部16と、撮像装置12から出力される撮像画像に基づいて歩行者を検出する対象物検出処理ルーチンを実行するコンピュータ18と、コンピュータ18での処理結果を表示するための表示装置20と、を備えている。   As shown in FIG. 1, the object detection device 10 according to the present embodiment includes an imaging device 12 that captures a range including an identification target region, a traveling state detection unit 14 that detects the traveling state of the host vehicle, and the host vehicle. A surrounding state detection unit 16 that detects a surrounding state of the computer, a computer 18 that executes an object detection processing routine for detecting a pedestrian based on a captured image output from the imaging device 12, and a processing result in the computer 18 And a display device 20 for displaying.

撮像装置12は、識別対象領域を含む範囲を撮像し、画像信号を生成する撮像部(図示省略)と、撮像部で生成されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。   The imaging device 12 captures an area including an identification target region and generates an image signal (not shown), and A / D conversion that converts an analog image signal generated by the imaging unit into a digital signal And an image memory (not shown) for temporarily storing the A / D converted image signal.

走行状態検出部14は、自車両の速度を検出する車速センサ、操舵角を検出する操舵角センサ、及び自車両の姿勢角(ピッチ角、ヨー角、ロール角)を検出するジャイロセンサを含んで構成されている。各センサで検出された検出値は、コンピュータ18へ入力される。   The traveling state detection unit 14 includes a vehicle speed sensor that detects the speed of the host vehicle, a steering angle sensor that detects a steering angle, and a gyro sensor that detects a posture angle (pitch angle, yaw angle, roll angle) of the host vehicle. It is configured. Detection values detected by the sensors are input to the computer 18.

周辺状況検出部16は、自車両の前方に対してレーザを走査しながら照射し、レーザの反射によりレーザが照射された物体の2次元位置を検出するレーザレーダ、GPS衛星からの衛星信号に基づいて、自車両の位置を検出するGPS装置、道路形状(例えば、線形、曲率、交差など)や道路種別(例えば、市街地、高速道路など)を含む地図情報を電子的に保持する地図データベース、並びに晴雨センサ、温度センサ及び湿度センサ等を含んで構成された天候センサを含んで構成されている。各装置及び各センサで検出された検出値は、コンピュータ18へ入力される。   The surrounding state detection unit 16 irradiates the front of the host vehicle while scanning with a laser, and detects a two-dimensional position of an object irradiated with the laser by reflection of the laser, based on satellite signals from GPS satellites. A GPS database that detects the position of the host vehicle, a map database that electronically holds map information including road shapes (eg, linearity, curvature, intersection, etc.) and road types (eg, urban areas, expressways, etc.), and It includes a weather sensor that includes a clear rain sensor, a temperature sensor, a humidity sensor, and the like. Detection values detected by each device and each sensor are input to the computer 18.

コンピュータ18は、対象物検出装置10全体の制御を司るCPU、後述する対象物検出処理ルーチンのプログラム等を記憶した記憶媒体としてのROM、ワークエリアとしてデータを一時格納するRAM、及びこれらを接続するバスを含んで構成されている。このような構成の場合には、各構成要素の機能を実現するためのプログラムをROMやHDD等の記憶媒体に記憶しておき、これをCPUが実行することによって、各機能が実現されるようにする。   The computer 18 is a CPU that controls the entire object detection apparatus 10, a ROM as a storage medium that stores a program for an object detection processing routine, which will be described later, a RAM that temporarily stores data as a work area, and a connection between them. It is configured to include a bus. In the case of such a configuration, a program for realizing the function of each component is stored in a storage medium such as a ROM or HDD, and each function is realized by executing the program by the CPU. To.

このコンピュータ18をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、撮像画像、自車両の走行状態、及び自車両の周辺状況に基づいて、危険領域及びその危険領域の領域危険度を推定する危険領域推定部22と、危険領域内に存在すると仮定した歩行者の姿勢別危険度を推定する姿勢別危険度推定部24と、撮像画像上で歩行者を探索する探索範囲を設定し、探索範囲に領域危険度及び姿勢別危険度に基づく総合的な危険度による優先度を設定する探索範囲設定部26と、優先度順に撮像画像の探索範囲が設定された領域から所定サイズのウインドウ画像を抽出するウインドウ画像抽出部28と、歩行者の姿勢別の識別モデルが記憶された識別モデル記憶部30と、ウインドウ画像抽出部28により抽出されたウインドウ画像と姿勢別の識別モデルとを比較することにより、撮像画像から歩行者を識別する歩行者識別部32と、を含んだ構成で表すことができる。   When the computer 18 is described with function blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. 1, the captured image, the running state of the own vehicle, and the surrounding situation of the own vehicle are shown. A risk region estimation unit 22 that estimates the risk region and the region risk level of the risk region, and a posture-specific risk estimation unit 24 that estimates a pedestrian risk level that is assumed to be in the risk region; A search range setting unit 26 that sets a search range for searching for a pedestrian on the captured image, and sets a priority based on the overall risk based on the area risk and the posture-specific risk, and images in order of priority. A window image extraction unit 28 for extracting a window image of a predetermined size from an area where an image search range is set, and an identification model storage unit 30 in which an identification model for each pedestrian's posture is stored. , By comparing the window image extracting unit by the window image and the orientation was extracted by 28 identification model, a pedestrian identification unit 32 identifies a pedestrian from the captured image can be expressed by the inclusive configure.

危険領域推定部22は、走行状態検出部14及び周辺状況検出部16の各検出値を取得して、図2に示すように、自車両の周辺に存在する物体の位置を検出する。また、撮像画像を画像認識処理した認識結果も合わせて、それらの物体の種別(先行車、対向車、建物、停車車両、ガードレール、縁石、街路樹、電柱、車線、横断歩道等、及び各物体が移動している移動物か静止している静止物か)を判別する。これらの情報を基に、歩行者が存在する可能性のある危険領域を推定する。また、危険領域毎にその領域内における歩行者の存在確率、及びその危険領域内に歩行者が存在すると仮定した場合の数秒後における自車両との衝突の可能性を示す領域危険度を推定する。具体的には、自車両と危険領域との距離、危険領域の位置や、自車両の速度、操舵角、道路形状等に基づいて予測される所定時間後の自車両の位置と危険領域との位置関係、危険領域近傍の物体や危険領域を形成する物体が移動物か静止物か、市街地か高速道路か等の情報に基づいて、危険領域毎に領域危険度を推定する。   The dangerous area estimation unit 22 acquires the detection values of the traveling state detection unit 14 and the surrounding situation detection unit 16, and detects the position of an object existing around the host vehicle as shown in FIG. In addition, together with the recognition results obtained by image recognition processing of captured images, the types of those objects (preceding vehicles, oncoming vehicles, buildings, stopped vehicles, guardrails, curbs, street trees, utility poles, lanes, pedestrian crossings, etc., and each object Whether the moving object is moving or stationary. Based on these pieces of information, a dangerous area where a pedestrian may exist is estimated. Also, for each dangerous area, estimate the pedestrian existence probability in that area, and the area risk indicating the possibility of collision with the host vehicle after a few seconds assuming that there is a pedestrian in that dangerous area. . Specifically, the distance between the own vehicle and the dangerous area, the position of the dangerous area, the speed of the own vehicle, the steering angle, the road shape, etc. The area risk is estimated for each dangerous area based on information such as whether the object in the vicinity of the dangerous area or the object forming the dangerous area is a moving object or a stationary object, an urban area, or an expressway.

例えば、図2に示すように、危険領域としてエリアA〜Fが推定された場合には、自車両前方の領域については、自車両に近いほどその領域内に対象物が存在した場合に衝突の可能性が高くなるため、領域危険度を高くする。特に、エリアAは、自車両の進行方向の車線内であり、領域危険度を高くする。エリアBは、自車両に近い歩道であるが、自車両とエリアBとの間にガードレールが存在しているため、エリアBに歩行者が存在していたとしても衝突の危険性は低いため、領域危険度を低くする。ただし、エリアCのように、ガードレールの切れ目では、この隙間を縫って歩行者が横断する可能性が高いため、領域危険度を高くする。エリアFは、停車車両周辺であるため、停車車両の死角からの飛び出しや停車車両へ乗降する歩行者の存在確率が高くなるため、領域危険度を高くする。また、前フレームでの検出処理で歩行者が検出された位置の近傍領域は、当然歩行者の存在確率が高くなるため、領域危険度を高くする。例えば、図2の破線内に前フレームで左向きの歩行者が検出された場合には、現フレームにおいて、エリアEにおける歩行者の存在確率が高くなるため、エリアEの領域危険度を高くする。   For example, as shown in FIG. 2, when the areas A to F are estimated as the dangerous areas, the area in front of the own vehicle is more likely to collide when an object is present in the area as it is closer to the own vehicle. Since the possibility increases, the area risk is increased. In particular, area A is in the lane in the traveling direction of the host vehicle, and increases the area risk. Area B is a sidewalk close to the host vehicle, but there is a guardrail between the host vehicle and area B, so even if there are pedestrians in area B, the risk of collision is low. Reduce the area risk. However, as in area C, since there is a high possibility that a pedestrian crosses the gap at the guardrail break, the area risk is increased. Since the area F is around the stopped vehicle, the probability of pedestrians jumping out from the blind spot of the stopped vehicle and getting on and off the stopped vehicle is increased, so the area risk is increased. In addition, since the probability of existence of a pedestrian is naturally high in a region near the position where a pedestrian is detected in the detection process in the previous frame, the region risk is increased. For example, when a pedestrian facing left is detected in the previous frame within the broken line in FIG. 2, the pedestrian existence probability in the area E increases in the current frame, and thus the area risk of the area E is increased.

また、危険領域推定部22は、領域危険度が予め定めた領域危険度閾値より小さい場合には、その領域を危険領域から除外する。また、歩行者が存在した場合に、自車両との衝突が不可避の領域を危険領域から除外する。図2のエリアXのように、自車両との距離が極めて近く、この領域に歩行者が存在した場合には、自車両との衝突は不可避となる領域が存在する。本装置の過去の検出結果によって、歩行者が検出されてドライバに警報されるなどした場合には、既に歩行者を回避するなどして、この不可避領域に歩行者が進入しないような進路を取っているはずであり、また、不可避領域に突然歩行者が出現する可能性も極めて低い。すなわち、不可避領域に歩行者が存在した場合には危険性はかなり高いが、この不可避領域は歩行者の存在確率が極めて低いため、歩行者の探索範囲から除外することができる。   Further, when the area risk is smaller than a predetermined area risk threshold, the risk area estimation unit 22 excludes the area from the risk area. In addition, when a pedestrian is present, an area where a collision with the host vehicle is inevitable is excluded from the dangerous area. As in area X in FIG. 2, when the distance from the host vehicle is extremely close and a pedestrian is present in this area, there is a region where a collision with the host vehicle is inevitable. If a pedestrian is detected by the past detection result of this device and the driver is warned, etc., a route is taken so that the pedestrian does not enter this inevitable area by, for example, avoiding the pedestrian already. The possibility that a pedestrian suddenly appears in an inevitable area is extremely low. That is, when there is a pedestrian in the inevitable area, the danger is quite high, but since this inevitable area has a very low probability of pedestrians, it can be excluded from the pedestrian search range.

姿勢別危険度推定部24は、危険領域と自車両との位置関係と、危険領域内に存在すると仮定した歩行者の姿勢との関係に基づいて、その危険領域における姿勢別危険度を推定する。例えば、図3(A)に示すように、自車両の左側の歩道に存在する歩行者の姿勢が後向きであった場合には、この歩行者が道路に対して平行に進んでいることを示しており、自車両との衝突の危険性が低い。一方、同じく自車両の左側の歩道に存在する歩行者であっても、同図(B)に示すように、歩行者の姿勢が右向きであった場合には、この歩行者が自車両前方を横断しようとしている可能性が高く、自車両との衝突の危険性が高まる。このように、自車両と危険領域との位置関係と、歩行者の姿勢との関係によって異なった姿勢別危険度が定まる。なお、本実施の形態では、歩行者の姿勢を、ドライバから見て進行方向左手を向いている左向き、ドライバから見て進行方向右手を向いている右向き、ドライバから見て進行方向を向いている前向き、進行方向の反対方向を向いている後向きとする。   The posture-specific risk estimation unit 24 estimates the posture-specific risk in the dangerous region based on the relationship between the positional relationship between the dangerous region and the host vehicle and the posture of the pedestrian assumed to be in the dangerous region. . For example, as shown in FIG. 3A, when the posture of the pedestrian existing on the left sidewalk of the host vehicle is backward, this indicates that the pedestrian is traveling in parallel to the road. The risk of collision with the vehicle is low. On the other hand, even if a pedestrian is also present on the left sidewalk of the own vehicle, as shown in FIG. The possibility of crossing is high, and the risk of collision with the vehicle increases. In this way, different posture-specific risks are determined depending on the relationship between the positional relationship between the host vehicle and the dangerous area and the posture of the pedestrian. In this embodiment, the posture of the pedestrian is directed leftward facing the left hand in the traveling direction when viewed from the driver, rightward facing the right hand in the traveling direction viewed from the driver, and directed in the traveling direction when viewed from the driver. Forward and backward facing the direction of travel.

例えば、図2のエリアAは、自車両の前方の道路内であるので、どのような姿勢の歩行者が存在しても危険であるが、車道であるこの領域には後向きや前向きの姿勢の歩行者が存在する可能性は低く、この領域を横断する歩行者、すなわち右向きまたは左向きの歩行者の存在確率が高く、また、このような横断歩行者が存在した場合には、自車両との衝突の可能性も高いため、右向きまたは左向き姿勢別危険度を高くする。エリアCは、自車両の左側の領域であるため、これから右へ横断しようとする歩行者が存在した場合には危険性が高くなるため、右向きの姿勢別危険度を高くする。逆に、エリアDは、自車両の右側の領域であるので、左向きの姿勢別危険度を高くする。また、前フレームでの検出処理で歩行者が検出されている場合には、前フレームで検出された姿勢の歩行者が存在する可能性が高いため、前フレームで検出された歩行者の姿勢の姿勢別危険度を高くする。例えば、図2の破線内に前フレームで左向きの歩行者が検出された場合には、現フレームにおいて、エリアEに左向きの歩行者が存在する確率が高くなるため、左向きの姿勢別危険度を高くする。   For example, since the area A in FIG. 2 is in the road ahead of the host vehicle, it is dangerous for pedestrians of any posture, but this area, which is a roadway, has a backward or forward posture. Pedestrians are unlikely to exist, and there is a high probability of pedestrians crossing this area, that is, pedestrians facing right or left, and if such pedestrians exist, Since the possibility of a collision is high, the risk for each right or left posture is increased. Since the area C is an area on the left side of the host vehicle, when there is a pedestrian who is going to cross to the right, the risk increases, so the risk by posture in the right direction is increased. On the contrary, since the area D is an area on the right side of the host vehicle, the degree of risk for each posture in the left direction is increased. In addition, when a pedestrian is detected in the detection process in the previous frame, there is a high possibility that there is a pedestrian in the posture detected in the previous frame. Increase the risk by posture. For example, if a left-handed pedestrian is detected in the previous frame within the broken line in FIG. 2, the probability that a left-handed pedestrian exists in the area E increases in the current frame. Make it high.

また、姿勢別危険度推定部24は、姿勢別危険度が予め定めた姿勢別危険度閾値より小さい姿勢を処理対象から除外する。   In addition, the posture-specific risk estimation unit 24 excludes postures whose posture-specific risks are smaller than a predetermined posture-specific risk threshold from the processing target.

探索範囲設定部26は、危険領域推定部22で推定された領域危険度と、姿勢別危険度推定部24で推定された姿勢別危険度を乗算して、危険領域毎に姿勢別の総合的な危険度を推定する。例えば、領域危険度及び姿勢別危険度をそれぞれ1〜5の5段階で、数字が大きくなるほど危険度が高くなるような危険度で表した場合、図2の例で、エリアCの領域危険度が4、エリアCにおける右向きの姿勢別危険度が5の場合には、総合的な危険度は20となる。総合的な危険度が高い順に優先度を設定し、危険領域に対応する撮像画像上の領域を探索範囲として設定する。同一の危険領域であっても歩行者の姿勢毎に総合的な危険度が異なる場合もあるため、探索範囲として1回設定された領域が、異なる姿勢について再度探索範囲として設定される場合もある。   The search range setting unit 26 multiplies the region risk estimated by the dangerous region estimation unit 22 by the posture-specific risk estimated by the posture-specific risk estimation unit 24 to obtain a comprehensive information for each risk region. The risk level is estimated. For example, when the area risk level and the posture-specific risk level are expressed in 5 levels of 1 to 5, respectively, and the risk level increases as the number increases, the area risk level of the area C in the example of FIG. Is 4 and the risk by posture in the right direction in area C is 5, the overall risk is 20. Priorities are set in descending order of the overall risk level, and an area on the captured image corresponding to the risk area is set as a search range. Even in the same danger area, the overall risk may differ depending on the posture of the pedestrian, so the area set once as the search range may be set as the search range again for a different attitude. .

また、探索範囲設定部26は、総合的な危険度が予め定めた危険度閾値より小さい場合を処理対象から除外する。   In addition, the search range setting unit 26 excludes a case where the overall risk is smaller than a predetermined risk threshold from the processing target.

ウインドウ画像抽出部28は、優先度に従って撮像画像の探索範囲として設定された領域から、予め定められたサイズのウインドウ(探索ウインドウと呼称)を1ステップにつき、予め定められた移動量(探索ステップと呼称)だけ移動させながら画像を切り取る。ここで、切り取った画像をウインドウ画像という。   The window image extraction unit 28 sets a predetermined size of a window (referred to as a search window) from a region set as the search range of the captured image according to the priority for each step. The image is cut out while moving only by the designation. Here, the cut image is referred to as a window image.

識別モデル記憶部30には、予め学習により生成され、歩行者識別部32で歩行者を識別する際に参照される識別モデルが記憶されている。識別モデルは、歩行者の姿勢別(ここでは、左向き、右向き、前向き、後向き)に生成され、記憶される。   The identification model storage unit 30 stores an identification model that is generated by learning in advance and is referred to when the pedestrian identification unit 32 identifies a pedestrian. The identification model is generated and stored for each posture of the pedestrian (here, leftward, rightward, forward, backward).

歩行者識別部32は、優先度に従って選択された探索範囲の歩行者の姿勢に対応する識別モデルを識別モデル記憶部30から読み出し、抽出されたウインドウ画像と比較して、ウインドウ画像が歩行者を示す画像であるか否かを識別する。識別の手法は、テンプレートマッチングやSVM(サポートベクターマシン)等の公知の手法を用いることができる。また、歩行者識別部32は、識別結果を撮像画像に重畳して表示するよう、表示装置20を制御すると共に、次フレームの処理で用いるために識別結果を所定の記憶領域に一旦記憶する。記憶された識別結果は、危険領域推定部22及び姿勢別危険度推定部24にフィードバックされる。   The pedestrian identification unit 32 reads an identification model corresponding to the posture of the pedestrian in the search range selected according to the priority from the identification model storage unit 30, and compares the extracted window image with the window image to identify the pedestrian. It is identified whether or not it is an image to be shown. As the identification method, a known method such as template matching or SVM (support vector machine) can be used. In addition, the pedestrian identification unit 32 controls the display device 20 to display the identification result superimposed on the captured image, and temporarily stores the identification result in a predetermined storage area for use in the processing of the next frame. The stored identification result is fed back to the dangerous area estimation unit 22 and the posture-specific risk estimation unit 24.

次に、図4を参照して、本実施の形態の対象物検出装置10のコンピュータ18で実行される対象物検出処理ルーチンについて説明する。   Next, an object detection processing routine executed by the computer 18 of the object detection device 10 of the present embodiment will be described with reference to FIG.

ステップ100で、撮像装置12で撮像された撮像画像、走行状態検出部14及び周辺状況検出部16で検出された各検出値を取得する。また、所定領域に記憶された前フレームの識別結果を取得する。   In step 100, the captured image captured by the imaging device 12, each detection value detected by the traveling state detection unit 14 and the surrounding state detection unit 16 is acquired. Also, the previous frame identification result stored in the predetermined area is acquired.

次に、ステップ102で、上記ステップ100で取得した撮像画像、各検出値、及び前フレームの識別結果に基づいて、自車両の周辺に存在する物体の位置を検出し、撮像画像を画像認識処理した認識結果も合わせて、それらの物体の種別を判別する。これらの情報を基に、歩行者が存在する可能性のある危険領域を推定して、例えば、図2に示すような危険領域マップを生成する。   Next, in step 102, based on the captured image acquired in step 100, each detected value, and the identification result of the previous frame, the position of an object existing around the host vehicle is detected, and the captured image is subjected to image recognition processing. The types of these objects are discriminated together with the recognized results. Based on these pieces of information, a dangerous area where a pedestrian may exist is estimated, and a dangerous area map as shown in FIG. 2 is generated, for example.

次に、ステップ104で、自車両と危険領域との距離、危険領域の位置や、自車両の速度、操舵角、道路形状等に基づいて予測される所定時間後の自車両の位置と危険領域との位置関係、危険領域近傍の物体や危険領域を形成する物体が移動物か静止物か、市街地か高速道路か等の情報に基づいて、危険領域毎に領域危険度を推定する。例えば、図2のような危険領域マップが生成された場合において、領域危険度を1〜5の5段階で、数字が大きくなるほど危険度が高くなるような値で表した場合には、図5に示すように、エリアAの領域危険度「5」、エリアBの領域危険度「2」、エリアCの領域危険度「4」、・・・エリアFの領域危険度「3」のように推定することができる。   Next, in step 104, the position of the host vehicle and the dangerous region after a predetermined time predicted based on the distance between the host vehicle and the dangerous region, the position of the dangerous region, the speed of the host vehicle, the steering angle, the road shape, etc. The area risk is estimated for each risk area based on information such as whether the object in the vicinity of the danger area or the object forming the danger area is a moving object or a stationary object, an urban area, or an expressway. For example, in the case where the dangerous area map as shown in FIG. 2 is generated, if the area risk level is expressed in five levels 1 to 5 and the risk level increases as the number increases, FIG. As shown, the area risk “5” in area A, the area risk “2” in area B, the area risk “4” in area C,... Can be estimated.

次に、ステップ106で、上記ステップ104で推定した領域危険度が予め定めた領域危険度閾値より小さい場合には、その領域を危険領域から除外する。例えば、図5の例で、領域危険度閾値を「3」とした場合には、領域危険度が「2」のエリアBは危険領域から除外される。また、歩行者が存在した場合に、自車両との衝突が不可避の不可避領域を危険領域から除外する。   Next, in step 106, when the region risk estimated in step 104 is smaller than a predetermined region risk threshold, the region is excluded from the risk region. For example, in the example of FIG. 5, when the area risk threshold is “3”, the area B with the area risk “2” is excluded from the risk area. In addition, when there is a pedestrian, an inevitable area where a collision with the host vehicle is inevitable is excluded from the dangerous area.

次に、ステップ108で、危険領域と自車両との位置関係と、危険領域内に存在すると仮定した歩行者の姿勢との関係に基づいて、その危険領域における姿勢別危険度を推定する。例えば、図2の例で、姿勢別危険度を1〜5の5段階で、数字が大きくなるほど危険度が高くなるような値で表した場合には、図5に示すように、エリアAにおける左向きの姿勢別危険度「5」、右向きの姿勢別危険度「5」、前向きの姿勢別危険度「1」、後向きの姿勢別危険度「1」のように推定することができる。他の危険領域についても、その危険領域との関係で各々姿勢別危険度を推定する。なお、エリアB及びエリアXは既に危険領域から除外されているため、エリアB及びエリアXについての本ステップの処理は行わない。   Next, in step 108, based on the relationship between the positional relationship between the dangerous area and the host vehicle and the posture of the pedestrian assumed to be in the dangerous area, the risk by posture in the dangerous area is estimated. For example, in the example of FIG. 2, when the risk by posture is expressed in five levels of 1 to 5 and the risk increases as the number increases, as shown in FIG. It is possible to estimate such as a left posture-specific risk “5”, a right posture-specific risk “5”, a forward posture-specific risk “1”, and a backward posture-specific risk “1”. As for other dangerous areas, the risk by posture is estimated in relation to the dangerous area. Since area B and area X have already been excluded from the dangerous area, the processing of this step for area B and area X is not performed.

次に、ステップ110で、上記ステップ108で推定した姿勢別危険度が予め定めた姿勢別危険度閾値より小さい姿勢を処理対象から除外する。例えば、図5の例で、姿勢別危険度閾値を「2」とした場合には、姿勢別危険度が「1」のエリアAにおける前向き及び後向きは、処理対象から除外される。   Next, in step 110, postures whose posture-specific risks estimated in step 108 are smaller than a predetermined posture-specific risk threshold are excluded from the processing targets. For example, in the example of FIG. 5, when the posture-specific risk threshold is “2”, the forward and backward directions in the area A with the posture-specific risk “1” are excluded from the processing target.

次に、ステップ112で、上記ステップ104で推定された領域危険度と、上記ステップ108で推定された姿勢別危険度を乗算して、危険領域毎に姿勢毎の総合的な危険度を推定する。なお、既に危険領域から除外されているエリア、及び処理対象から除外されている姿勢については、本ステップの処理は行わない。そして、総合的な危険度が予め定めた危険度閾値より小さい場合は除外して、総合的な危険度が高い順に優先度が高くなるように、危険領域に対応する撮像画像上の領域を探索範囲として設定する。以下、危険領域における姿勢の各々を「危険領域×姿勢(例えば、エリアA×左向き)」と表す。   Next, in step 112, the region risk estimated in step 104 and the posture-specific risk estimated in step 108 are multiplied to estimate a total risk for each posture for each risk region. . Note that the processing in this step is not performed for areas that have already been excluded from the dangerous area and postures that have been excluded from the processing target. Then, an area on the captured image corresponding to the dangerous area is searched so that the priority becomes higher in the order of higher overall risk, excluding the case where the overall risk is smaller than a predetermined risk threshold. Set as a range. Hereinafter, each posture in the dangerous area is represented as “dangerous area × posture (for example, area A × leftward)”.

図5の例では、例えば、エリアA×左向きの総合的な危険度は、エリアAの領域危険度「5」×エリアAにおける左向きの姿勢別危険度「5」=25となる。また、危険度閾値を「8」とした場合には、総合的な危険度が「6」であるエリアF×前向きが処理対象から除外される。その他の危険領域×姿勢に、総合的な危険度が高い順に優先度i(i=1、2、・・・N:Nは処理対象の危険領域×姿勢の総数)を付与する。総合的な危険度が同じ場合には、領域危険度が高い方の優先度を高くしたり、姿勢別危険度が高い方の優先度を高くしたりするなどの条件を定めておき優先度を決定する。ここでは、エリアA×左向きに優先度1、エリアA×右向きに優先度2、エリアC×右向きに優先度3、エリアF×左向きに優先度4、エリアC×前向きに優先度5、・・・のように優先度を付与する。   In the example of FIG. 5, for example, the total risk level of area A × leftward is the area risk level “5” of area A × left-side posture-specific risk level “5” of area A = 25. When the risk threshold is “8”, the area F × forward with the overall risk “6” is excluded from the processing target. Priorities i (i = 1, 2,..., N: N is the risk region to be processed × total number of postures) are assigned to the other dangerous regions × postures in descending order of overall risk. If the overall risk is the same, set a priority such as increasing the priority of the person with higher area risk or increasing the priority of the person with higher risk by posture. decide. Here, area A × priority 1 left, area A × right 2 priority, area C × right 3 priority, area F × left 4 priority, area C × forward 5 priority,...・ Give priority as follows.

次に、ステップ114で、優先度iを表す変数iに1をセットして、次に、ステップ116で、優先度iの危険領域×姿勢を選択する。そして、選択した優先度iの危険領域×姿勢の危険領域に対応する撮像画像上の探索範囲からウインドウ画像を抽出する。危険領域に対応する撮像画像上の探索範囲は、推定された危険領域の大きさ及び位置に基づいて、撮像画像上にその危険領域を対応させた範囲、またはその範囲にマージンを設けた範囲とすることができる。この探索範囲を探索ウインドウで走査しながらウインドウ画像を抽出する。   Next, in step 114, 1 is set to the variable i representing the priority i. Next, in step 116, the danger area x posture of the priority i is selected. Then, a window image is extracted from the search range on the captured image corresponding to the selected risk area of priority i × posture risk area. The search range on the captured image corresponding to the dangerous area is based on the estimated size and position of the dangerous area, the range corresponding to the dangerous area on the captured image, or the range in which the margin is provided. can do. A window image is extracted while scanning the search range with the search window.

次に、ステップ118で、選択した優先度iの危険領域×姿勢の姿勢に対応する識別モデルを識別モデル記憶部30から読み出して、上記ステップ116で抽出されたウインドウ画像と比較して、ウインドウ画像が歩行者を示す画像であるか否かを識別する。例えば、エリアA×左向きについては、左向きの識別モデルが使用される。   Next, in step 118, the identification model corresponding to the selected risk area of the priority i × posture is read from the identification model storage unit 30 and compared with the window image extracted in step 116. Is an image showing a pedestrian. For example, for area A × leftward, a leftward identification model is used.

次に、ステップ120で、上記ステップ118の識別の結果、ウインドウ画像が歩行者を示す画像であると識別されたか否かを判定する。歩行者の場合には、ステップ122へ移行し、歩行者ではない場合には、ステップ122をスキップして、ステップ124へ移行する。   Next, in step 120, it is determined whether or not the window image is identified as an image showing a pedestrian as a result of the identification in step 118. If it is a pedestrian, the process proceeds to step 122. If it is not a pedestrian, step 122 is skipped and the process proceeds to step 124.

ステップ122では、ウインドウ画像の位置、サイズ、及び使用した識別モデルの姿勢を識別結果として所定の記憶領域に記憶する。この識別結果が、次フレームの処理における上記ステップ100で前フレームの識別結果として取得される。また、識別結果に基づいて、撮像画像に対して、検出された歩行者がウインドウで囲まれて表示されるように表示装置20を制御する。この際、歩行者の向きを示す矢印等の表示を合わせて行ってもよい。   In step 122, the position and size of the window image and the orientation of the used identification model are stored in a predetermined storage area as an identification result. This identification result is acquired as the identification result of the previous frame in step 100 in the processing of the next frame. Further, based on the identification result, the display device 20 is controlled so that the detected pedestrian is displayed surrounded by a window with respect to the captured image. At this time, an indication such as an arrow indicating the direction of the pedestrian may be performed together.

ステップ124では、変数iがNになったか否かを判定することにより、全ての危険領域×姿勢を探索範囲として設定して処理したか否かを判定する。i≠Nの場合には、ステップ126へ移行して、変数iを1インクリメントして、ステップ116へ戻り、処理を繰り返す。i=Nとなった場合には、処理を終了する。   In step 124, it is determined whether or not the variable i has been set to N, and it is determined whether or not all the dangerous areas × postures have been set as search ranges. If i ≠ N, the process proceeds to step 126, the variable i is incremented by 1, the process returns to step 116, and the process is repeated. If i = N, the process ends.

以上説明したように、本実施の形態の対象物検出装置によれば、領域危険度及び姿勢別危険度に基づいた総合的な危険度が高い順に探索範囲として設定し、姿勢別の識別モデルから適切な識別モデルを選択するため、ドライバにとって危険度の高い歩行者を早期に精度良く検出することができる。   As described above, according to the object detection device of the present embodiment, the search range is set in descending order of the overall risk based on the region risk and the posture risk, and the posture-specific identification model is used. Since an appropriate identification model is selected, a pedestrian with a high degree of danger for the driver can be detected early and accurately.

また、領域危険度、姿勢別危険度、及び総合的な危険度が各々について定めた閾値より小さい場合、並びに不可避領域を処理対象から除外するため、計算リソースに制限がある場合でも、計算コストを削減して、検出すべき優先度の高い歩行者を早期に精度良く検出することができる。   In addition, even if the area risk, the posture risk, and the overall risk are smaller than the thresholds set for each, and the inevitable area is excluded from the processing target, the calculation cost is reduced even when there are limited calculation resources. This makes it possible to detect pedestrians with high priority to be detected early and accurately.

なお、本実施の形態では、検出する対象物を歩行者とした場合について説明したが、対象物は二輪車等であってもよい。二輪車の場合には、姿勢を、向き、静止しているか走行しているか等とすることができる。   In the present embodiment, a case has been described in which the object to be detected is a pedestrian, but the object may be a two-wheeled vehicle or the like. In the case of a two-wheeled vehicle, the posture can be the orientation, whether it is stationary or traveling, and so on.

また、本実施の形態では、各危険度が閾値より小さいときには処理対象から除外する場合について説明したが、計算リソースに余裕がある場合には、除外することなく推定された全ての危険領域×姿勢について処理するようにしてもよい。また、領域危険度による除外のみ、姿勢別危険度による除外のみ、または総合的な危険度による除外のみを行うようにしてもよい。   Further, in the present embodiment, the case where each risk level is smaller than the threshold value has been described as being excluded from the processing target. However, when there is a margin in the calculation resources, all the risk areas × postures estimated without being excluded You may make it process about. Further, only the exclusion based on the area risk, only the exclusion based on the posture-specific risk, or only the exclusion based on the overall risk may be performed.

また、本実施の形態では、歩行者の姿勢を、左向き、右向き、前向き、後向きとした場合について説明したが、さらに細分化した向きを適用してもよいし、開脚の度合い、手と足との関係、静止しているか歩いているか走っているかの状態、大人か子供か(身長)で細分化してもよい。開脚の度合いや手と足との関係からは、歩行者の動きの大きさを把握できるため、開脚度合いが大きい場合には姿勢別危険度を高くするとよい。また、静止している場合よりも歩いている場合、歩いている場合よりも走っている場合の方が姿勢別危険度を高くするとよい。また、大人よりも子供の方が車両に対する注意力が低い場合が多いため、子供の場合(身長が低い場合)は姿勢別危険度を高くするとよい。   Further, in the present embodiment, the case where the posture of the pedestrian is leftward, rightward, forward, and backward has been described. However, a more detailed direction may be applied, the degree of open legs, the hands and feet. It may be subdivided according to whether it is stationary, walking or running, adult or child (height). Since the magnitude of pedestrian movement can be ascertained from the degree of leg opening and the relationship between hands and feet, the degree of risk for each posture may be increased when the degree of leg opening is large. Also, when walking rather than standing, it is better to increase the risk by posture when running than when walking. In addition, since children often have less attention to vehicles than adults, it is better to increase the risk by posture in the case of children (when the height is low).

また、本実施の形態では、領域危険度と姿勢別危険度とを乗算して総合的な危険度を推定する場合について説明したが、総合的な危険度を、領域危険度と姿勢別危険度との和や平均として推定してもよいし、それぞれに重み付けをして和、積、平均等を取るようにしてもよい。   Further, in the present embodiment, the case has been described in which the overall risk level is estimated by multiplying the area risk level and the posture risk level. However, the overall risk level is determined based on the area risk level and the posture risk level. May be estimated as the sum or average of the above, or each may be weighted to take the sum, product, average, or the like.

10 対象物検出装置
12 撮像装置
14 走行状態検出部
16 周辺状況検出部
18 コンピュータ
20 表示装置
22 危険領域推定部
24 姿勢別危険度推定部
26 探索範囲設定部
28 ウインドウ画像抽出部
30 識別モデル記憶部
32 歩行者識別部
DESCRIPTION OF SYMBOLS 10 Object detection apparatus 12 Imaging device 14 Running state detection part 16 Peripheral condition detection part 18 Computer 20 Display apparatus 22 Risk area estimation part 24 Attitude risk degree estimation part 26 Search range setting part 28 Window image extraction part 30 Identification model memory | storage part 32 Pedestrian identification part

Claims (12)

自車両周辺を撮像した撮像画像、自車両の走行状態を示す情報、及び自車両の周辺状況を示す情報を取得する取得手段と、
前記取得手段により取得した情報に基づいて、対象物が存在する可能性のある危険領域、及び該危険領域の危険の度合いを示す領域危険度を推定する危険領域推定手段と、
前記危険領域と自車両との位置関係と、該危険領域内に存在すると仮定した対象物の姿勢との関係に基づいて、該姿勢毎の危険の度合いを示す姿勢別危険度を推定する姿勢別危険度推定手段と、
前記領域危険度及び前記姿勢別危険度に基づいて、前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢毎の総合的な危険度を推定し、該総合的な危険度の高い順に前記危険領域を選択し、選択した危険領域に対応する前記撮像画像上の領域からウインドウ画像を抽出する抽出手段と、
前記抽出手段により抽出されたウインドウ画像と、予め対象物を識別するために対象物の姿勢毎に生成された識別モデルから前記選択した危険領域内に存在すると仮定した対象物の姿勢に応じて選択された識別モデルとに基づいて、前記ウインドウ画像が対象物を表す画像か否かを識別する識別手段と、
を含む対象物検出装置。
An acquisition means for acquiring a captured image obtained by imaging the periphery of the host vehicle, information indicating a traveling state of the host vehicle, and information indicating a surrounding state of the host vehicle;
Based on the information acquired by the acquisition means, a dangerous area in which there is a possibility that the object exists, and a dangerous area estimation means for estimating an area risk indicating the degree of danger in the dangerous area;
Based on the positional relationship between the dangerous area and the host vehicle and the posture of the object assumed to be in the dangerous area, the posture-specific risk level indicating the degree of danger for each posture is estimated. Risk estimation means;
Based on the risk level of the area and the risk level for each posture, a total risk level is estimated for each posture of the target object that is assumed to be present in the risk area, and Extracting means for selecting the dangerous area in descending order and extracting a window image from an area on the captured image corresponding to the selected dangerous area;
Select according to the posture of the object assumed to exist in the selected dangerous area from the window image extracted by the extraction means and the identification model generated for each posture of the object in advance to identify the object Identification means for identifying whether the window image is an image representing an object based on the identified model;
An object detection apparatus including:
前記危険領域推定手段は、前記領域危険度が予め定めた領域危険度閾値より小さい危険領域を処理対象から除外する請求項1記載の対象物検出装置。   The target object detection apparatus according to claim 1, wherein the dangerous area estimation unit excludes a dangerous area whose area risk is smaller than a predetermined area risk threshold from a processing target. 前記姿勢別危険度推定手段は、前記姿勢別危険度が予め定めた姿勢別危険度閾値より小さい姿勢を処理対象から除外する請求項1または請求項2記載の対象物検出装置。   The target object detection apparatus according to claim 1, wherein the posture-specific risk estimation unit excludes postures whose posture-specific risks are smaller than a predetermined posture-specific risk threshold from processing targets. 前記抽出手段は、前記総合的な危険度が予め定めた危険度閾値より小さい前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢を処理対象から除外する請求項1〜請求項3のいずれか1項記載の対象物検出装置。   The said extraction means excludes the attitude | position of the target object assumed that it exists in this danger area for every said danger area whose said total danger level is smaller than the predetermined risk threshold value from a process target. 4. The object detection device according to any one of items 3. 前記危険領域推定手段は、前記危険領域に対象物が存在すると仮定した場合に、該対象物と自車両との衝突が不可避の領域を前記危険領域から除外する請求項1〜請求項4のいずれか1項記載の対象物検出装置。   The dangerous region estimation means, when assuming that an object is present in the dangerous region, excludes from the dangerous region a region where a collision between the object and the host vehicle is unavoidable. The target object detection apparatus of Claim 1. 前記危険領域推定手段は、過去に前記識別手段により対象物を表す画像であると識別された前記ウインドウ画像に対応する危険領域の領域危険度を高くする請求項1〜請求項5のいずれか1項記載の対象物検出装置。   The risk region estimation unit increases the region risk level of the risk region corresponding to the window image that has been identified as an image representing the object by the identification unit in the past. The target object detection apparatus of description. 前記姿勢別危険度推定手段は、過去に前記識別手段により対象物を表す画像であると識別された前記ウインドウ画像に対応する危険領域内に存在すると仮定される対象物の姿勢のうち、該ウインドウ画像が示す対象物の姿勢の姿勢別危険度を高くする請求項1〜請求項6のいずれか1項記載の対象物検出装置。   The posture-specific risk estimation means includes the window among the postures of the object assumed to exist in the danger area corresponding to the window image that has been identified as an image representing the object by the identification means in the past. The target object detection apparatus according to any one of claims 1 to 6, wherein the risk level according to the posture of the target object indicated by the image is increased. 前記対象物が歩行者の場合、前記対象物の姿勢は、前記歩行者の向き、開脚度合い、手と足との関係、静止しているか歩いているか走っているかの状態、及び身長を含む請求項1〜請求項7のいずれか1項記載の対象物検出装置。   When the object is a pedestrian, the posture of the object includes the orientation of the pedestrian, the degree of open legs, the relationship between hands and feet, the state of standing still, walking or running, and the height. The target object detection apparatus of any one of Claims 1-7. 前記自車両の走行状態を示す情報は、自車両の速度、操舵角、及び姿勢角を含む請求項1〜請求項8のいずれか1項記載の対象物検出装置。   The object detection device according to any one of claims 1 to 8, wherein the information indicating the traveling state of the host vehicle includes a speed, a steering angle, and a posture angle of the host vehicle. 前記自車両の周辺状況を示す情報は、自車両の周辺に存在する物体の位置、該物体が移動しているか静止しているかを示す情報、地図情報、及び自車両の周辺の天候の情報を含む請求項1〜請求項9のいずれか1項記載の対象物検出装置。   The information indicating the situation around the host vehicle includes the position of an object existing around the host vehicle, information indicating whether the object is moving or stationary, map information, and weather information around the host vehicle. The target object detection apparatus of any one of Claims 1-9 containing. コンピュータを、
自車両周辺を撮像した撮像画像、自車両の走行状態を示す情報、及び自車両の周辺状況を示す情報を取得する取得手段、
前記取得手段により取得した情報に基づいて、対象物が存在する可能性のある危険領域、及び該危険領域の危険の度合いを示す領域危険度を推定する危険領域推定手段、
前記危険領域と自車両との位置関係と、該危険領域内に存在すると仮定した対象物の姿勢との関係に基づいて、該姿勢毎の危険の度合いを示す姿勢別危険度を推定する姿勢別危険度推定手段、
前記領域危険度及び前記姿勢別危険度に基づいて、前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢毎の総合的な危険度を推定し、該総合的な危険度の高い順に前記危険領域を選択し、選択した危険領域に対応する前記撮像画像上の領域からウインドウ画像を抽出する抽出手段、及び
前記抽出手段により抽出されたウインドウ画像と、予め対象物を識別するために対象物の姿勢毎に生成された識別モデルから前記選択した危険領域内に存在すると仮定した対象物の姿勢に応じて選択された識別モデルとに基づいて、前記ウインドウ画像が対象物を表す画像か否かを識別する識別手段
として機能させるための対象物検出プログラム。
Computer
An acquisition means for acquiring a captured image obtained by imaging the periphery of the host vehicle, information indicating a traveling state of the host vehicle, and information indicating a surrounding situation of the host vehicle,
Based on the information acquired by the acquisition means, a dangerous area in which the object may exist, and a dangerous area estimation means for estimating an area risk indicating the degree of danger in the dangerous area;
Based on the positional relationship between the dangerous area and the host vehicle and the posture of the object assumed to be in the dangerous area, the posture-specific risk level indicating the degree of danger for each posture is estimated. Risk estimation means,
Based on the risk level of the area and the risk level for each posture, a total risk level is estimated for each posture of the target object that is assumed to be present in the risk area, and In order to identify the target object in advance, selecting the dangerous area in descending order, extracting the window image from the area on the captured image corresponding to the selected dangerous area, and the window image extracted by the extracting means An image in which the window image represents an object based on an identification model selected according to the attitude of the object assumed to exist in the selected dangerous area from the identification model generated for each attitude of the object An object detection program for functioning as an identification means for identifying whether or not.
コンピュータを、請求項1〜請求項10のいずれか1項記載の対象物検出装置を構成する各手段として機能させるための対象物検出プログラム。   An object detection program for causing a computer to function as each means constituting the object detection device according to any one of claims 1 to 10.
JP2010131879A 2010-06-09 2010-06-09 Object detection apparatus and program Expired - Fee Related JP5197679B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010131879A JP5197679B2 (en) 2010-06-09 2010-06-09 Object detection apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010131879A JP5197679B2 (en) 2010-06-09 2010-06-09 Object detection apparatus and program

Publications (2)

Publication Number Publication Date
JP2011257984A true JP2011257984A (en) 2011-12-22
JP5197679B2 JP5197679B2 (en) 2013-05-15

Family

ID=45474097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010131879A Expired - Fee Related JP5197679B2 (en) 2010-06-09 2010-06-09 Object detection apparatus and program

Country Status (1)

Country Link
JP (1) JP5197679B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014050100A (en) * 2012-09-01 2014-03-17 Honda Motor Co Ltd Vehicle periphery-monitoring device
WO2014054171A1 (en) * 2012-10-05 2014-04-10 三菱電機株式会社 In-vehicle information processing device
JP2015138325A (en) * 2014-01-21 2015-07-30 株式会社ニコン Portable electronic device and program
WO2015152304A1 (en) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 Driving assistance device and driving assistance system
JP2015215749A (en) * 2014-05-09 2015-12-03 株式会社デンソー Object detection device for vehicle
JP2015225366A (en) * 2014-05-26 2015-12-14 株式会社リコー Accident prevention system, accident prevention device, and accident prevention method
CN105830131A (en) * 2013-11-04 2016-08-03 雷诺股份公司 Device for detecting the lateral position of a pedestrian relative to the trajectory of the vehicle
JP2017049687A (en) * 2015-08-31 2017-03-09 株式会社東芝 Detection device, detection method, detection program, and information processing system
WO2017130643A1 (en) * 2016-01-29 2017-08-03 日産自動車株式会社 Method for controlling travel of vehicle, and device for controlling travel of vehicle
JP2017162436A (en) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image processing method, image processing apparatus, and program
JPWO2017022475A1 (en) * 2015-07-31 2018-02-08 日立オートモティブシステムズ株式会社 Self-vehicle surroundings information management device
WO2018051810A1 (en) * 2016-09-16 2018-03-22 ソニー株式会社 Image processing device and method, and image processing system
DE102017120350A1 (en) 2016-10-03 2018-04-05 Toyota Jidosha Kabushiki Kaisha VEHICLE DRIVING ASSISTANCE DEVICE
KR20180040209A (en) * 2016-10-12 2018-04-20 현대자동차주식회사 Autonomous driving control apparatus, vehicle having the same and method for controlling the same
JP2019194909A (en) * 2019-07-10 2019-11-07 株式会社東芝 Detection device, detection method and detection program
US10576945B2 (en) 2017-07-13 2020-03-03 Hyundai Motor Company Vehicle and method for controlling the same
CN111401369A (en) * 2020-03-26 2020-07-10 上海眼控科技股份有限公司 Vehicle body danger sign detection method, device, equipment and storage medium
CN111524389A (en) * 2020-04-16 2020-08-11 腾讯科技(深圳)有限公司 Vehicle driving method and device
US10796569B2 (en) 2016-01-26 2020-10-06 Mitsubishi Electric Corporation Vehicle determination apparatus, vehicle determination method, and computer readable medium
JP2021077217A (en) * 2019-11-12 2021-05-20 本田技研工業株式会社 Risk estimation device and vehicle control device
CN113370975A (en) * 2020-03-10 2021-09-10 丰田自动车株式会社 Driving assistance system
CN113870616A (en) * 2020-06-30 2021-12-31 丰田自动车株式会社 Determination device, determination method, and recording medium having program recorded thereon
JP2022161464A (en) * 2021-04-09 2022-10-21 キヤノン株式会社 Driving assistance apparatus, mobile device, driving assistance method, computer program, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112018013472A2 (en) * 2016-01-29 2018-12-04 Nissan Motor Co., Ltd. vehicle displacement control method and vehicle displacement control device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03205999A (en) * 1989-10-20 1991-09-09 Hitachi Ltd Abnormality monitoring device
JPH07306997A (en) * 1994-05-13 1995-11-21 Mazda Motor Corp Estimating device for traveling course of automobile
JP2000123289A (en) * 1998-10-13 2000-04-28 Hitachi Ltd Running environment information collection device and information presentation system
JP2003081039A (en) * 2001-09-12 2003-03-19 Toyota Central Res & Dev Lab Inc Environment risk arithmetic unit
JP2006178652A (en) * 2004-12-21 2006-07-06 Sumitomo Electric Ind Ltd Vehicle environment recognition system and image processor
JP2007251257A (en) * 2006-03-13 2007-09-27 Fujitsu Ten Ltd Image recognition device, vehicle control device, image recognition method, and vehicle control method
JP2009187351A (en) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd Obstacle detecting device and obstacle detecting method
JP2009237897A (en) * 2008-03-27 2009-10-15 Daihatsu Motor Co Ltd Image recognition device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03205999A (en) * 1989-10-20 1991-09-09 Hitachi Ltd Abnormality monitoring device
JPH07306997A (en) * 1994-05-13 1995-11-21 Mazda Motor Corp Estimating device for traveling course of automobile
JP2000123289A (en) * 1998-10-13 2000-04-28 Hitachi Ltd Running environment information collection device and information presentation system
JP2003081039A (en) * 2001-09-12 2003-03-19 Toyota Central Res & Dev Lab Inc Environment risk arithmetic unit
JP2006178652A (en) * 2004-12-21 2006-07-06 Sumitomo Electric Ind Ltd Vehicle environment recognition system and image processor
JP2007251257A (en) * 2006-03-13 2007-09-27 Fujitsu Ten Ltd Image recognition device, vehicle control device, image recognition method, and vehicle control method
JP2009187351A (en) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd Obstacle detecting device and obstacle detecting method
JP2009237897A (en) * 2008-03-27 2009-10-15 Daihatsu Motor Co Ltd Image recognition device

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014050100A (en) * 2012-09-01 2014-03-17 Honda Motor Co Ltd Vehicle periphery-monitoring device
WO2014054171A1 (en) * 2012-10-05 2014-04-10 三菱電機株式会社 In-vehicle information processing device
JP5847320B2 (en) * 2012-10-05 2016-01-20 三菱電機株式会社 In-vehicle information processing equipment
JPWO2014054171A1 (en) * 2012-10-05 2016-08-25 三菱電機株式会社 In-vehicle information processing equipment
CN105830131A (en) * 2013-11-04 2016-08-03 雷诺股份公司 Device for detecting the lateral position of a pedestrian relative to the trajectory of the vehicle
JP2015138325A (en) * 2014-01-21 2015-07-30 株式会社ニコン Portable electronic device and program
JPWO2015152304A1 (en) * 2014-03-31 2017-04-13 エイディシーテクノロジー株式会社 Driving support device and driving support system
WO2015152304A1 (en) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 Driving assistance device and driving assistance system
JP2020095688A (en) * 2014-03-31 2020-06-18 Case特許株式会社 Driving assistance device
JP2015215749A (en) * 2014-05-09 2015-12-03 株式会社デンソー Object detection device for vehicle
JP2015225366A (en) * 2014-05-26 2015-12-14 株式会社リコー Accident prevention system, accident prevention device, and accident prevention method
US10759336B2 (en) 2015-07-31 2020-09-01 Hitachi Automotive Systems, Ltd. Vehicle periphery information management device
US10493907B2 (en) 2015-07-31 2019-12-03 Hitachi Automotive Systems, Ltd. Vehicle periphery information management device
JPWO2017022475A1 (en) * 2015-07-31 2018-02-08 日立オートモティブシステムズ株式会社 Self-vehicle surroundings information management device
JP2017049687A (en) * 2015-08-31 2017-03-09 株式会社東芝 Detection device, detection method, detection program, and information processing system
US10796569B2 (en) 2016-01-26 2020-10-06 Mitsubishi Electric Corporation Vehicle determination apparatus, vehicle determination method, and computer readable medium
JPWO2017130643A1 (en) * 2016-01-29 2018-11-15 日産自動車株式会社 Driving control method for vehicle and driving control device for vehicle
US11124163B2 (en) 2016-01-29 2021-09-21 Nissan Motor Co., Ltd. Method for controlling travel of vehicle, and device for controlling travel of vehicle
WO2017130643A1 (en) * 2016-01-29 2017-08-03 日産自動車株式会社 Method for controlling travel of vehicle, and device for controlling travel of vehicle
JP2017162436A (en) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image processing method, image processing apparatus, and program
US11443520B2 (en) 2016-09-16 2022-09-13 Sony Corporation Image processing apparatus, image processing method, and image processing system
CN109690652A (en) * 2016-09-16 2019-04-26 索尼公司 Image processing equipment and method and image processing system
WO2018051810A1 (en) * 2016-09-16 2018-03-22 ソニー株式会社 Image processing device and method, and image processing system
DE102017120350A1 (en) 2016-10-03 2018-04-05 Toyota Jidosha Kabushiki Kaisha VEHICLE DRIVING ASSISTANCE DEVICE
US10338600B2 (en) 2016-10-12 2019-07-02 Hyundai Motor Company Autonomous driving control apparatus, vehicle having the same, and method for controlling the same
KR20180040209A (en) * 2016-10-12 2018-04-20 현대자동차주식회사 Autonomous driving control apparatus, vehicle having the same and method for controlling the same
KR101851155B1 (en) * 2016-10-12 2018-06-04 현대자동차주식회사 Autonomous driving control apparatus, vehicle having the same and method for controlling the same
US10576945B2 (en) 2017-07-13 2020-03-03 Hyundai Motor Company Vehicle and method for controlling the same
JP2019194909A (en) * 2019-07-10 2019-11-07 株式会社東芝 Detection device, detection method and detection program
CN112849134B (en) * 2019-11-12 2024-02-23 本田技研工业株式会社 Risk estimation device and vehicle control device
JP2021077217A (en) * 2019-11-12 2021-05-20 本田技研工業株式会社 Risk estimation device and vehicle control device
CN112849134A (en) * 2019-11-12 2021-05-28 本田技研工业株式会社 Risk estimation device and vehicle control device
US11794733B2 (en) 2019-11-12 2023-10-24 Honda Motor Co., Ltd. Risk estimation device and vehicle control device
JP7136761B2 (en) 2019-11-12 2022-09-13 本田技研工業株式会社 Risk estimation device and vehicle control device
JP2021142788A (en) * 2020-03-10 2021-09-24 トヨタ自動車株式会社 Operation support system
US11767010B2 (en) 2020-03-10 2023-09-26 Toyota Jidosha Kabushiki Kaisha Driving assist system
CN113370975A (en) * 2020-03-10 2021-09-10 丰田自动车株式会社 Driving assistance system
CN111401369A (en) * 2020-03-26 2020-07-10 上海眼控科技股份有限公司 Vehicle body danger sign detection method, device, equipment and storage medium
CN111524389B (en) * 2020-04-16 2023-11-10 腾讯科技(深圳)有限公司 Vehicle driving method and device
CN111524389A (en) * 2020-04-16 2020-08-11 腾讯科技(深圳)有限公司 Vehicle driving method and device
CN113870616A (en) * 2020-06-30 2021-12-31 丰田自动车株式会社 Determination device, determination method, and recording medium having program recorded thereon
JP2022161464A (en) * 2021-04-09 2022-10-21 キヤノン株式会社 Driving assistance apparatus, mobile device, driving assistance method, computer program, and storage medium

Also Published As

Publication number Publication date
JP5197679B2 (en) 2013-05-15

Similar Documents

Publication Publication Date Title
JP5197679B2 (en) Object detection apparatus and program
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
JP5407898B2 (en) Object detection apparatus and program
JP5904925B2 (en) Vehicle periphery monitoring device
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP5468108B2 (en) Method and system for detecting road terrain for a driver assistance system
JP4203512B2 (en) Vehicle periphery monitoring device
JP5822255B2 (en) Object identification device and program
DE102011078615B4 (en) OBJECT DETECTION DEVICE AND OBJECT DETECTION PROGRAM
JP4173902B2 (en) Vehicle periphery monitoring device
JP5587170B2 (en) Driving support device and program
JP2008021034A (en) Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
WO2008118305A1 (en) Forward looking sensor system
JPWO2015177864A1 (en) Signal recognition device and signal recognition method
WO2018215861A1 (en) System and method for pedestrian detection
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
JP2013003110A (en) Vehicle state detection apparatus
JP4609076B2 (en) Moving object detection apparatus and moving object detection method
JP2012221162A (en) Object detection device and program
JP2010132056A (en) Sensing device, sensing method, and vehicle control device
JP4937844B2 (en) Pedestrian detection device
JP2012203884A (en) Jumping-out pedestrian determining device and program
JP6483360B2 (en) Object recognition device
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees