JP2011257984A - Object detection device and program - Google Patents
Object detection device and program Download PDFInfo
- Publication number
- JP2011257984A JP2011257984A JP2010131879A JP2010131879A JP2011257984A JP 2011257984 A JP2011257984 A JP 2011257984A JP 2010131879 A JP2010131879 A JP 2010131879A JP 2010131879 A JP2010131879 A JP 2010131879A JP 2011257984 A JP2011257984 A JP 2011257984A
- Authority
- JP
- Japan
- Prior art keywords
- risk
- posture
- area
- dangerous area
- host vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、対象物検出装置及びプログラムに係り、特に、撮像した画像から対象物を検出するための対象物検出装置及びプログラムに関する。 The present invention relates to an object detection device and a program, and more particularly to an object detection device and a program for detecting an object from a captured image.
近年、車載カメラで撮像した車両周辺の映像を画像処理し、歩行者などの対象物を検出してドライバに検出結果を提示する対象物検出装置を搭載する車両が増加している。 2. Description of the Related Art In recent years, an increasing number of vehicles are equipped with an object detection device that performs image processing on an image around a vehicle imaged by an in-vehicle camera, detects an object such as a pedestrian, and presents a detection result to a driver.
例えば、判別対象となり得る物体までの距離ごとに態様の異なる複数のテンプレートを記憶しておき、画像内から判別の対象となる物体を背景差分法あるいは顕著性算出法により検出して、その物体までの距離を検出し、その距離に対応したテンプレートを選択し、判別対象として画像内から検出された物体に対してこのテンプレートあてはめて物体判別を行う物体判別装置が提案されている(特許文献1参照)。 For example, a plurality of templates having different modes are stored for each distance to an object that can be a discrimination target, and the object to be discriminated from the image is detected by the background difference method or the saliency calculation method, and the object is detected. An object discriminating apparatus has been proposed in which a distance corresponding to the distance is detected, a template corresponding to the distance is selected, and this template is applied to an object detected from within an image as a discrimination target (see Patent Document 1). ).
歩行者のように姿勢の多様性が多い対象物に対しては、特許文献1に記載の物体判別装置のように、態様の異なるテンプレートを適用することで、対象物検出の精度を向上させることができる。しかし、テンプレートの種類を豊富にすることで、検出の精度をより向上させることはできるが、テンプレートの数が多くなるほど、すべてのテンプレートを適用して検出することにより処理時間が長時間化してしまう。
For objects with a wide variety of postures such as pedestrians, the accuracy of object detection can be improved by applying templates with different modes as in the object discrimination device described in
そこで、移動方向判断部の物標の移動方向の判断に基づき、歩行者パターン選択部により、歩行者パターン記憶部に予め記憶された移動方向別の歩行者画像から、移動方向判断部により判断された移動方向の移動姿勢の歩行者画像を選択し、認識処理部により、選択された移動方向の歩行者パターンとカメラ画像中の認識対象の物標の画像パターンとを照合して歩行者を認識する画像認識装置が提案されている(例えば、特許文献2参照)。 Therefore, based on the determination of the movement direction of the target by the movement direction determination unit, the pedestrian pattern selection unit determines the movement direction determination unit from the pedestrian images for each movement direction stored in advance in the pedestrian pattern storage unit. A pedestrian image with a moving posture in the moving direction is selected, and the recognition processing unit recognizes the pedestrian by comparing the selected pedestrian pattern in the moving direction with the image pattern of the target to be recognized in the camera image. An image recognition apparatus has been proposed (see, for example, Patent Document 2).
また、基準パターンデータベースに画像の背景ごとに異なる(空用、道路用、道路外用などの)複数の基準パターンを記憶しておき、背景領域分割部により、消失点や車線認識を用いて入力画像の背景を分割し、基準パターン選択部により、判定領域を背景領域のいずれから切り出したかによって、歩行者候補領域検出部で使用する基準パターンを選択する物体候補領域検出装置が提案されている(例えば、特許文献3参照)。 In addition, a plurality of reference patterns (for sky, road, road use, etc.) that are different for each background of the image are stored in the reference pattern database, and the input image using vanishing points and lane recognition by the background region dividing unit. An object candidate region detection device has been proposed in which a reference pattern to be used by a pedestrian candidate region detection unit is selected based on which of the background regions is extracted by the reference pattern selection unit by dividing the background of the pedestrian (for example, And Patent Document 3).
また、画像処理部で、画像メモリから1フレーム単位の撮像画像を読み出し、フレームレートと同期して、記憶部から車速v、操舵角α、傾斜角βを読み出し、画像処理部で、読み出した車速v、操舵角α、傾斜角βに基づいて、LUTを参照して、部分画像を特定するためのパラメータを取得し、特定した部分画像をフレームメモリへ一旦記憶し、歩行者認識処理部で、フレームメモリに記憶された部分画像を読み出し、読み出した部分画像と、標準パターン部から読み出した標準パターンとの類似度を判定する車両周辺認識システムが提案されている(例えば、特許文献4参照)。 Further, the image processing unit reads a captured image in units of one frame from the image memory, reads the vehicle speed v, the steering angle α, and the inclination angle β from the storage unit in synchronization with the frame rate, and reads the vehicle speed read by the image processing unit. Based on v, steering angle α, and inclination angle β, referring to the LUT, the parameter for specifying the partial image is acquired, the specified partial image is temporarily stored in the frame memory, and the pedestrian recognition processing unit There has been proposed a vehicle periphery recognition system that reads a partial image stored in a frame memory and determines the degree of similarity between the read partial image and a standard pattern read from a standard pattern portion (see, for example, Patent Document 4).
しかしながら、特許文献2の画像認識装置では、歩行者の移動方向に基づいて使用する歩行者パターンを選択しているが、例えば、歩行者がこれから道路を横断しようとして静止している場合など、静止している対象物については、移動方向を認識することができないため適用することができない、という問題がある。 However, in the image recognition device of Patent Document 2, the pedestrian pattern to be used is selected based on the moving direction of the pedestrian. However, for example, when the pedestrian is standing still trying to cross the road, There is a problem that the applied object cannot be applied because the moving direction cannot be recognized.
また、特許文献3の物体候補領域検出装置では、道路とそれ以外の領域とで使用するモデルを選択しているが、着目しているのは背景パターンの多様性であって、対象物の姿勢の多様性ではないため、姿勢変化に対する頑強性が低下する可能性がある、という問題がある。また、領域や対象物の姿勢の危険度を考慮していないため、対象物の探索範囲によっては、ドライバにとって危険度の高くない歩行者モデルを使用してしまう可能性がある、という問題がある。
Further, in the object candidate area detection apparatus of
また、特許文献4の車両周辺認識システムでは、自車速度や操舵角などによって対象物の探索範囲を設定しているが、衝突可能性などの危険度を考慮したものではなく、対象物の探索範囲によっては、ドライバにとって危険度の高くない歩行者モデルを使用してしまう可能性がある、という問題がある。 Moreover, in the vehicle periphery recognition system of Patent Document 4, the search range of the object is set based on the vehicle speed, the steering angle, etc., but this does not consider the risk such as the possibility of collision. Depending on the range, there is a problem that a pedestrian model that is not dangerous for the driver may be used.
本発明は、上述した問題を解決するために成されたものであり、ドライバにとって危険度の高い対象物を早期に精度良く検出することができる対象物検出装置及びプログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an object detection apparatus and program capable of detecting an object with a high degree of danger for a driver early and accurately. To do.
上記目的を達成するために、本発明の対象物検出装置は、自車両周辺を撮像した撮像画像、自車両の走行状態を示す情報、及び自車両の周辺状況を示す情報を取得する取得手段と、前記取得手段により取得した情報に基づいて、対象物が存在する可能性のある危険領域、及び該危険領域の危険の度合いを示す領域危険度を推定する危険領域推定手段と、前記危険領域と自車両との位置関係と、該危険領域内に存在すると仮定した対象物の姿勢との関係に基づいて、該姿勢毎の危険の度合いを示す姿勢別危険度を推定する姿勢別危険度推定手段と、前記領域危険度及び前記姿勢別危険度に基づいて、前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢毎の総合的な危険度を推定し、該総合的な危険度の高い順に前記危険領域を選択し、選択した危険領域に対応する前記撮像画像上の領域からウインドウ画像を抽出する抽出手段と、前記抽出手段により抽出されたウインドウ画像と、予め対象物を識別するために対象物の姿勢毎に生成された識別モデルから前記選択した危険領域内に存在すると仮定した対象物の姿勢に応じて選択された識別モデルとに基づいて、前記ウインドウ画像が対象物を表す画像か否かを識別する識別手段と、を含んで構成されている。 In order to achieve the above object, the object detection apparatus of the present invention includes an acquisition unit that acquires a captured image obtained by imaging the periphery of the host vehicle, information indicating a traveling state of the host vehicle, and information indicating a surrounding state of the host vehicle. Based on the information acquired by the acquisition means, a dangerous area in which the object may exist, a dangerous area estimation means for estimating a dangerous area indicating the degree of danger in the dangerous area, and the dangerous area Based on the relationship between the positional relationship with the host vehicle and the posture of the object assumed to be in the dangerous area, the posture-specific risk estimation means for estimating the posture-specific risk indicating the degree of danger for each posture. And, based on the area risk level and the posture-specific risk level, estimate a total risk level for each posture of the object that is assumed to exist in the risk area for each risk area, and Select the danger areas in descending order. And extracting means for extracting a window image from the area on the captured image corresponding to the selected dangerous area, the window image extracted by the extracting means, and the posture of the object in order to identify the object in advance. Identification for identifying whether or not the window image is an image representing an object based on an identification model selected according to the posture of the object assumed to exist in the selected dangerous area from the generated identification model And means.
本発明の対象物検出装置によれば、取得手段が、自車両周辺を撮像した撮像画像、自車両の走行状態を示す情報、及び自車両の周辺状況を示す情報を取得し、危険領域推定手段が、取得手段により取得した情報に基づいて、対象物が存在する可能性のある危険領域、及び該危険領域の危険の度合いを示す領域危険度を推定し、また、姿勢別危険度推定手段が、危険領域と自車両との位置関係と、該危険領域内に存在すると仮定した対象物の姿勢との関係に基づいて、該姿勢毎の危険の度合いを示す姿勢別危険度を推定する。そして、抽出手段が、領域危険度及び姿勢別危険度に基づいて、危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢毎の総合的な危険度を推定し、該総合的な危険度の高い順に危険領域を選択し、選択した危険領域に対応する撮像画像上の領域からウインドウ画像を抽出し、識別手段が、抽出手段により抽出されたウインドウ画像と、予め対象物を識別するために対象物の姿勢毎に生成された識別モデルから選択した危険領域内に存在すると仮定した対象物の姿勢に応じて選択された識別モデルとに基づいて、ウインドウ画像が対象物を表す画像か否かを識別する。 According to the object detection device of the present invention, the acquisition unit acquires a captured image obtained by imaging the periphery of the host vehicle, information indicating the traveling state of the host vehicle, and information indicating a surrounding state of the host vehicle, and a dangerous region estimation unit. However, based on the information acquired by the acquisition means, the risk area in which the object may exist and the area risk level indicating the degree of danger in the risk area are estimated, and the posture-specific risk level estimation means Then, based on the relationship between the positional relationship between the dangerous area and the host vehicle and the posture of the object assumed to be in the dangerous area, the risk by posture indicating the degree of danger for each posture is estimated. Then, the extraction means estimates the overall risk level for each posture of the object assumed to exist in the risk area for each risk region based on the area risk level and the posture-specific risk level. A risk area is selected in descending order of the degree of risk, a window image is extracted from an area on the captured image corresponding to the selected risk area, and an identification means identifies a target object in advance from the window image extracted by the extraction means. Whether the window image represents an object based on the identification model selected according to the posture of the target object that is assumed to be in the danger area selected from the identification model generated for each posture of the target object Identify whether or not.
このように、領域毎の危険度及び対象物の姿勢別の危険度に基づいた総合的な危険度が高い順に探索範囲として設定し、姿勢別の識別モデルから適切な識別モデルを選択するため、ドライバにとって危険度の高い対象物を早期に精度良く検出することができる。 Thus, in order to set the search range in descending order of the overall risk based on the risk for each region and the risk for each posture of the object, to select an appropriate identification model from the posture-specific identification model, An object with a high degree of danger for the driver can be detected early and accurately.
また、前記危険領域推定手段は、前記領域危険度が予め定めた領域危険度閾値より小さい危険領域を処理対象から除外するようにすることができる。また、前記姿勢別危険度推定手段は、前記姿勢別危険度が予め定めた姿勢別危険度閾値より小さい姿勢を処理対象から除外するようにすることができる。また、前記抽出手段は、前記総合的な危険度が予め定めた危険度閾値より小さい前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢を処理対象から除外するようにすることができる。また、前記危険領域推定手段は、前記危険領域に対象物が存在すると仮定した場合に、該対象物と自車両との衝突が不可避の領域を前記危険領域から除外するようにすることができる。これにより、計算リソースに制限がある場合でも、検出すべき危険度の高い対象物を優先的に検出することができる。 Further, the dangerous area estimation means may exclude a dangerous area whose area risk is smaller than a predetermined area risk threshold from a processing target. Further, the posture-specific risk estimation means can exclude postures whose posture-specific risks are smaller than a predetermined posture-specific risk threshold from the processing target. Further, the extracting means excludes the posture of the target object that is assumed to exist in the risk area for each risk area whose total risk level is smaller than a predetermined risk level threshold. Can do. Further, when it is assumed that there is an object in the dangerous area, the dangerous area estimating means can exclude an area where a collision between the object and the host vehicle is inevitable from the dangerous area. Thereby, even when there is a limit to the computational resources, it is possible to preferentially detect an object with a high degree of risk to be detected.
また、前記危険領域推定手段は、過去に前記識別手段により対象物を表す画像であると識別された前記ウインドウ画像に対応する危険領域の領域危険度を高くするようにすることができる。また、前記姿勢別危険度推定手段は、過去に前記識別手段により対象物を表す画像であると識別された前記ウインドウ画像に対応する危険領域内に存在すると仮定される対象物の姿勢のうち、該ウインドウ画像が示す対象物の姿勢の姿勢別危険度を高くするようにすることができる。このように識別結果をフィードバックすることにより、領域危険度及び姿勢別危険度の推定精度が向上する。 Further, the dangerous area estimation means can increase the area risk of the dangerous area corresponding to the window image that has been identified as an image representing the object by the identification means in the past. Further, the posture-specific risk estimation means includes the posture of the target object that is assumed to exist in the risk area corresponding to the window image that has been identified as an image representing the target object by the identification unit in the past. It is possible to increase the risk by posture of the posture of the object indicated by the window image. By feeding back the identification result in this way, the estimation accuracy of the region risk and the posture-specific risk is improved.
また、前記対象物が歩行者の場合、前記対象物の姿勢は、前記歩行者の向き、開脚度合い、手と足との関係、静止しているか歩いているか走っているかの状態、及び身長を含むように構成することができる。 In addition, when the object is a pedestrian, the posture of the object includes the orientation of the pedestrian, the degree of open legs, the relationship between hands and feet, the state of standing still, walking or running, and height It can comprise so that it may contain.
また、前記自車両の走行状態を示す情報は、自車両の速度、操舵角、及び姿勢角を含むように構成することができる。 The information indicating the traveling state of the host vehicle can be configured to include a speed, a steering angle, and a posture angle of the host vehicle.
また、前記自車両の周辺状況を示す情報は、自車両の周辺に存在する物体の位置、該物体が移動しているか静止しているかを示す情報、地図情報、及び自車両の周辺の天候の情報を含むように構成することができる。 The information indicating the surrounding situation of the own vehicle includes the position of an object existing around the own vehicle, information indicating whether the object is moving or stationary, map information, and weather around the own vehicle. It can be configured to contain information.
また、本発明の対象物検出プログラムは、コンピュータを、自車両周辺を撮像した撮像画像、自車両の走行状態を示す情報、及び自車両の周辺状況を示す情報を取得する取得手段、前記取得手段により取得した情報に基づいて、対象物が存在する可能性のある危険領域、及び該危険領域の危険の度合いを示す領域危険度を推定する危険領域推定手段、前記危険領域と自車両との位置関係と、該危険領域内に存在すると仮定した対象物の姿勢との関係に基づいて、該姿勢毎の危険の度合いを示す姿勢別危険度を推定する姿勢別危険度推定手段、前記領域危険度及び前記姿勢別危険度に基づいて、前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢毎の総合的な危険度を推定し、該総合的な危険度の高い順に前記危険領域を選択し、選択した危険領域に対応する前記撮像画像上の領域からウインドウ画像を抽出する抽出手段、及び前記抽出手段により抽出されたウインドウ画像と、予め対象物を識別するために対象物の姿勢毎に生成された識別モデルから前記選択した危険領域内に存在すると仮定した対象物の姿勢に応じて選択された識別モデルとに基づいて、前記ウインドウ画像が対象物を表す画像か否かを識別する識別手段として機能させるためのプログラムである。 In addition, the object detection program of the present invention uses a computer to acquire an image obtained by capturing an image of the periphery of the host vehicle, information indicating a traveling state of the host vehicle, and information indicating a surrounding state of the host vehicle, the acquiring unit. Based on the information acquired by the above, a dangerous area in which the object may exist, a dangerous area estimating means for estimating a dangerous area indicating the degree of danger in the dangerous area, and the position of the dangerous area and the host vehicle A posture-specific risk estimation means for estimating a posture-specific risk indicating the degree of danger for each posture based on the relationship between the relationship and the posture of the object assumed to exist in the risk region; Then, based on the risk by posture, the overall risk for each posture of the object assumed to exist in the risk area is estimated for each risk area, and the risk is calculated in descending order of the total risk. Select an area Extraction means for extracting a window image from the area on the captured image corresponding to the selected danger area, and the window image extracted by the extraction means, and generated for each posture of the object in advance to identify the object As an identification means for identifying whether the window image is an image representing an object based on an identification model selected according to the posture of the object assumed to exist in the selected dangerous area from the identified identification model It is a program to make it function.
なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。 The storage medium for storing the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk or an IC card. Furthermore, the program may be downloaded from a server or the like connected to the network.
以上説明したように、本発明によれば、領域毎の危険度及び対象物の姿勢別の危険度に基づいた総合的な危険度が高い順に探索範囲として設定し、姿勢別の識別モデルから適切な識別モデルを選択するため、ドライバにとって危険度の高い対象物を早期に精度良く検出することができる、という効果が得られる。 As described above, according to the present invention, the search range is set in descending order of the overall risk level based on the risk level for each region and the risk level for each posture of the object. Since an easy identification model is selected, it is possible to quickly and accurately detect an object with a high degree of danger for the driver.
以下、図面を参照して本発明の実施の形態を詳細に説明する。本実施の形態では、車両に搭載され、対象物として歩行者を検出する対象物検出装置に本発明を適用した場合について説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case will be described in which the present invention is applied to an object detection device that is mounted on a vehicle and detects a pedestrian as an object.
図1に示すように本実施の形態に係る対象物検出装置10は、識別対象領域を含む範囲を撮像する撮像装置12と、自車両の走行状態を検出する走行状態検出部14と、自車両の周辺の状況を検出する周辺状況検出部16と、撮像装置12から出力される撮像画像に基づいて歩行者を検出する対象物検出処理ルーチンを実行するコンピュータ18と、コンピュータ18での処理結果を表示するための表示装置20と、を備えている。
As shown in FIG. 1, the
撮像装置12は、識別対象領域を含む範囲を撮像し、画像信号を生成する撮像部(図示省略)と、撮像部で生成されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。 The imaging device 12 captures an area including an identification target region and generates an image signal (not shown), and A / D conversion that converts an analog image signal generated by the imaging unit into a digital signal And an image memory (not shown) for temporarily storing the A / D converted image signal.
走行状態検出部14は、自車両の速度を検出する車速センサ、操舵角を検出する操舵角センサ、及び自車両の姿勢角(ピッチ角、ヨー角、ロール角)を検出するジャイロセンサを含んで構成されている。各センサで検出された検出値は、コンピュータ18へ入力される。
The traveling
周辺状況検出部16は、自車両の前方に対してレーザを走査しながら照射し、レーザの反射によりレーザが照射された物体の2次元位置を検出するレーザレーダ、GPS衛星からの衛星信号に基づいて、自車両の位置を検出するGPS装置、道路形状(例えば、線形、曲率、交差など)や道路種別(例えば、市街地、高速道路など)を含む地図情報を電子的に保持する地図データベース、並びに晴雨センサ、温度センサ及び湿度センサ等を含んで構成された天候センサを含んで構成されている。各装置及び各センサで検出された検出値は、コンピュータ18へ入力される。
The surrounding state detection unit 16 irradiates the front of the host vehicle while scanning with a laser, and detects a two-dimensional position of an object irradiated with the laser by reflection of the laser, based on satellite signals from GPS satellites. A GPS database that detects the position of the host vehicle, a map database that electronically holds map information including road shapes (eg, linearity, curvature, intersection, etc.) and road types (eg, urban areas, expressways, etc.), and It includes a weather sensor that includes a clear rain sensor, a temperature sensor, a humidity sensor, and the like. Detection values detected by each device and each sensor are input to the
コンピュータ18は、対象物検出装置10全体の制御を司るCPU、後述する対象物検出処理ルーチンのプログラム等を記憶した記憶媒体としてのROM、ワークエリアとしてデータを一時格納するRAM、及びこれらを接続するバスを含んで構成されている。このような構成の場合には、各構成要素の機能を実現するためのプログラムをROMやHDD等の記憶媒体に記憶しておき、これをCPUが実行することによって、各機能が実現されるようにする。
The
このコンピュータ18をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、撮像画像、自車両の走行状態、及び自車両の周辺状況に基づいて、危険領域及びその危険領域の領域危険度を推定する危険領域推定部22と、危険領域内に存在すると仮定した歩行者の姿勢別危険度を推定する姿勢別危険度推定部24と、撮像画像上で歩行者を探索する探索範囲を設定し、探索範囲に領域危険度及び姿勢別危険度に基づく総合的な危険度による優先度を設定する探索範囲設定部26と、優先度順に撮像画像の探索範囲が設定された領域から所定サイズのウインドウ画像を抽出するウインドウ画像抽出部28と、歩行者の姿勢別の識別モデルが記憶された識別モデル記憶部30と、ウインドウ画像抽出部28により抽出されたウインドウ画像と姿勢別の識別モデルとを比較することにより、撮像画像から歩行者を識別する歩行者識別部32と、を含んだ構成で表すことができる。
When the
危険領域推定部22は、走行状態検出部14及び周辺状況検出部16の各検出値を取得して、図2に示すように、自車両の周辺に存在する物体の位置を検出する。また、撮像画像を画像認識処理した認識結果も合わせて、それらの物体の種別(先行車、対向車、建物、停車車両、ガードレール、縁石、街路樹、電柱、車線、横断歩道等、及び各物体が移動している移動物か静止している静止物か)を判別する。これらの情報を基に、歩行者が存在する可能性のある危険領域を推定する。また、危険領域毎にその領域内における歩行者の存在確率、及びその危険領域内に歩行者が存在すると仮定した場合の数秒後における自車両との衝突の可能性を示す領域危険度を推定する。具体的には、自車両と危険領域との距離、危険領域の位置や、自車両の速度、操舵角、道路形状等に基づいて予測される所定時間後の自車両の位置と危険領域との位置関係、危険領域近傍の物体や危険領域を形成する物体が移動物か静止物か、市街地か高速道路か等の情報に基づいて、危険領域毎に領域危険度を推定する。
The dangerous
例えば、図2に示すように、危険領域としてエリアA〜Fが推定された場合には、自車両前方の領域については、自車両に近いほどその領域内に対象物が存在した場合に衝突の可能性が高くなるため、領域危険度を高くする。特に、エリアAは、自車両の進行方向の車線内であり、領域危険度を高くする。エリアBは、自車両に近い歩道であるが、自車両とエリアBとの間にガードレールが存在しているため、エリアBに歩行者が存在していたとしても衝突の危険性は低いため、領域危険度を低くする。ただし、エリアCのように、ガードレールの切れ目では、この隙間を縫って歩行者が横断する可能性が高いため、領域危険度を高くする。エリアFは、停車車両周辺であるため、停車車両の死角からの飛び出しや停車車両へ乗降する歩行者の存在確率が高くなるため、領域危険度を高くする。また、前フレームでの検出処理で歩行者が検出された位置の近傍領域は、当然歩行者の存在確率が高くなるため、領域危険度を高くする。例えば、図2の破線内に前フレームで左向きの歩行者が検出された場合には、現フレームにおいて、エリアEにおける歩行者の存在確率が高くなるため、エリアEの領域危険度を高くする。 For example, as shown in FIG. 2, when the areas A to F are estimated as the dangerous areas, the area in front of the own vehicle is more likely to collide when an object is present in the area as it is closer to the own vehicle. Since the possibility increases, the area risk is increased. In particular, area A is in the lane in the traveling direction of the host vehicle, and increases the area risk. Area B is a sidewalk close to the host vehicle, but there is a guardrail between the host vehicle and area B, so even if there are pedestrians in area B, the risk of collision is low. Reduce the area risk. However, as in area C, since there is a high possibility that a pedestrian crosses the gap at the guardrail break, the area risk is increased. Since the area F is around the stopped vehicle, the probability of pedestrians jumping out from the blind spot of the stopped vehicle and getting on and off the stopped vehicle is increased, so the area risk is increased. In addition, since the probability of existence of a pedestrian is naturally high in a region near the position where a pedestrian is detected in the detection process in the previous frame, the region risk is increased. For example, when a pedestrian facing left is detected in the previous frame within the broken line in FIG. 2, the pedestrian existence probability in the area E increases in the current frame, and thus the area risk of the area E is increased.
また、危険領域推定部22は、領域危険度が予め定めた領域危険度閾値より小さい場合には、その領域を危険領域から除外する。また、歩行者が存在した場合に、自車両との衝突が不可避の領域を危険領域から除外する。図2のエリアXのように、自車両との距離が極めて近く、この領域に歩行者が存在した場合には、自車両との衝突は不可避となる領域が存在する。本装置の過去の検出結果によって、歩行者が検出されてドライバに警報されるなどした場合には、既に歩行者を回避するなどして、この不可避領域に歩行者が進入しないような進路を取っているはずであり、また、不可避領域に突然歩行者が出現する可能性も極めて低い。すなわち、不可避領域に歩行者が存在した場合には危険性はかなり高いが、この不可避領域は歩行者の存在確率が極めて低いため、歩行者の探索範囲から除外することができる。
Further, when the area risk is smaller than a predetermined area risk threshold, the risk
姿勢別危険度推定部24は、危険領域と自車両との位置関係と、危険領域内に存在すると仮定した歩行者の姿勢との関係に基づいて、その危険領域における姿勢別危険度を推定する。例えば、図3(A)に示すように、自車両の左側の歩道に存在する歩行者の姿勢が後向きであった場合には、この歩行者が道路に対して平行に進んでいることを示しており、自車両との衝突の危険性が低い。一方、同じく自車両の左側の歩道に存在する歩行者であっても、同図(B)に示すように、歩行者の姿勢が右向きであった場合には、この歩行者が自車両前方を横断しようとしている可能性が高く、自車両との衝突の危険性が高まる。このように、自車両と危険領域との位置関係と、歩行者の姿勢との関係によって異なった姿勢別危険度が定まる。なお、本実施の形態では、歩行者の姿勢を、ドライバから見て進行方向左手を向いている左向き、ドライバから見て進行方向右手を向いている右向き、ドライバから見て進行方向を向いている前向き、進行方向の反対方向を向いている後向きとする。
The posture-specific
例えば、図2のエリアAは、自車両の前方の道路内であるので、どのような姿勢の歩行者が存在しても危険であるが、車道であるこの領域には後向きや前向きの姿勢の歩行者が存在する可能性は低く、この領域を横断する歩行者、すなわち右向きまたは左向きの歩行者の存在確率が高く、また、このような横断歩行者が存在した場合には、自車両との衝突の可能性も高いため、右向きまたは左向き姿勢別危険度を高くする。エリアCは、自車両の左側の領域であるため、これから右へ横断しようとする歩行者が存在した場合には危険性が高くなるため、右向きの姿勢別危険度を高くする。逆に、エリアDは、自車両の右側の領域であるので、左向きの姿勢別危険度を高くする。また、前フレームでの検出処理で歩行者が検出されている場合には、前フレームで検出された姿勢の歩行者が存在する可能性が高いため、前フレームで検出された歩行者の姿勢の姿勢別危険度を高くする。例えば、図2の破線内に前フレームで左向きの歩行者が検出された場合には、現フレームにおいて、エリアEに左向きの歩行者が存在する確率が高くなるため、左向きの姿勢別危険度を高くする。 For example, since the area A in FIG. 2 is in the road ahead of the host vehicle, it is dangerous for pedestrians of any posture, but this area, which is a roadway, has a backward or forward posture. Pedestrians are unlikely to exist, and there is a high probability of pedestrians crossing this area, that is, pedestrians facing right or left, and if such pedestrians exist, Since the possibility of a collision is high, the risk for each right or left posture is increased. Since the area C is an area on the left side of the host vehicle, when there is a pedestrian who is going to cross to the right, the risk increases, so the risk by posture in the right direction is increased. On the contrary, since the area D is an area on the right side of the host vehicle, the degree of risk for each posture in the left direction is increased. In addition, when a pedestrian is detected in the detection process in the previous frame, there is a high possibility that there is a pedestrian in the posture detected in the previous frame. Increase the risk by posture. For example, if a left-handed pedestrian is detected in the previous frame within the broken line in FIG. 2, the probability that a left-handed pedestrian exists in the area E increases in the current frame. Make it high.
また、姿勢別危険度推定部24は、姿勢別危険度が予め定めた姿勢別危険度閾値より小さい姿勢を処理対象から除外する。
In addition, the posture-specific
探索範囲設定部26は、危険領域推定部22で推定された領域危険度と、姿勢別危険度推定部24で推定された姿勢別危険度を乗算して、危険領域毎に姿勢別の総合的な危険度を推定する。例えば、領域危険度及び姿勢別危険度をそれぞれ1〜5の5段階で、数字が大きくなるほど危険度が高くなるような危険度で表した場合、図2の例で、エリアCの領域危険度が4、エリアCにおける右向きの姿勢別危険度が5の場合には、総合的な危険度は20となる。総合的な危険度が高い順に優先度を設定し、危険領域に対応する撮像画像上の領域を探索範囲として設定する。同一の危険領域であっても歩行者の姿勢毎に総合的な危険度が異なる場合もあるため、探索範囲として1回設定された領域が、異なる姿勢について再度探索範囲として設定される場合もある。
The search
また、探索範囲設定部26は、総合的な危険度が予め定めた危険度閾値より小さい場合を処理対象から除外する。
In addition, the search
ウインドウ画像抽出部28は、優先度に従って撮像画像の探索範囲として設定された領域から、予め定められたサイズのウインドウ(探索ウインドウと呼称)を1ステップにつき、予め定められた移動量(探索ステップと呼称)だけ移動させながら画像を切り取る。ここで、切り取った画像をウインドウ画像という。
The window
識別モデル記憶部30には、予め学習により生成され、歩行者識別部32で歩行者を識別する際に参照される識別モデルが記憶されている。識別モデルは、歩行者の姿勢別(ここでは、左向き、右向き、前向き、後向き)に生成され、記憶される。
The identification
歩行者識別部32は、優先度に従って選択された探索範囲の歩行者の姿勢に対応する識別モデルを識別モデル記憶部30から読み出し、抽出されたウインドウ画像と比較して、ウインドウ画像が歩行者を示す画像であるか否かを識別する。識別の手法は、テンプレートマッチングやSVM(サポートベクターマシン)等の公知の手法を用いることができる。また、歩行者識別部32は、識別結果を撮像画像に重畳して表示するよう、表示装置20を制御すると共に、次フレームの処理で用いるために識別結果を所定の記憶領域に一旦記憶する。記憶された識別結果は、危険領域推定部22及び姿勢別危険度推定部24にフィードバックされる。
The
次に、図4を参照して、本実施の形態の対象物検出装置10のコンピュータ18で実行される対象物検出処理ルーチンについて説明する。
Next, an object detection processing routine executed by the
ステップ100で、撮像装置12で撮像された撮像画像、走行状態検出部14及び周辺状況検出部16で検出された各検出値を取得する。また、所定領域に記憶された前フレームの識別結果を取得する。
In
次に、ステップ102で、上記ステップ100で取得した撮像画像、各検出値、及び前フレームの識別結果に基づいて、自車両の周辺に存在する物体の位置を検出し、撮像画像を画像認識処理した認識結果も合わせて、それらの物体の種別を判別する。これらの情報を基に、歩行者が存在する可能性のある危険領域を推定して、例えば、図2に示すような危険領域マップを生成する。
Next, in
次に、ステップ104で、自車両と危険領域との距離、危険領域の位置や、自車両の速度、操舵角、道路形状等に基づいて予測される所定時間後の自車両の位置と危険領域との位置関係、危険領域近傍の物体や危険領域を形成する物体が移動物か静止物か、市街地か高速道路か等の情報に基づいて、危険領域毎に領域危険度を推定する。例えば、図2のような危険領域マップが生成された場合において、領域危険度を1〜5の5段階で、数字が大きくなるほど危険度が高くなるような値で表した場合には、図5に示すように、エリアAの領域危険度「5」、エリアBの領域危険度「2」、エリアCの領域危険度「4」、・・・エリアFの領域危険度「3」のように推定することができる。
Next, in
次に、ステップ106で、上記ステップ104で推定した領域危険度が予め定めた領域危険度閾値より小さい場合には、その領域を危険領域から除外する。例えば、図5の例で、領域危険度閾値を「3」とした場合には、領域危険度が「2」のエリアBは危険領域から除外される。また、歩行者が存在した場合に、自車両との衝突が不可避の不可避領域を危険領域から除外する。
Next, in
次に、ステップ108で、危険領域と自車両との位置関係と、危険領域内に存在すると仮定した歩行者の姿勢との関係に基づいて、その危険領域における姿勢別危険度を推定する。例えば、図2の例で、姿勢別危険度を1〜5の5段階で、数字が大きくなるほど危険度が高くなるような値で表した場合には、図5に示すように、エリアAにおける左向きの姿勢別危険度「5」、右向きの姿勢別危険度「5」、前向きの姿勢別危険度「1」、後向きの姿勢別危険度「1」のように推定することができる。他の危険領域についても、その危険領域との関係で各々姿勢別危険度を推定する。なお、エリアB及びエリアXは既に危険領域から除外されているため、エリアB及びエリアXについての本ステップの処理は行わない。
Next, in
次に、ステップ110で、上記ステップ108で推定した姿勢別危険度が予め定めた姿勢別危険度閾値より小さい姿勢を処理対象から除外する。例えば、図5の例で、姿勢別危険度閾値を「2」とした場合には、姿勢別危険度が「1」のエリアAにおける前向き及び後向きは、処理対象から除外される。
Next, in
次に、ステップ112で、上記ステップ104で推定された領域危険度と、上記ステップ108で推定された姿勢別危険度を乗算して、危険領域毎に姿勢毎の総合的な危険度を推定する。なお、既に危険領域から除外されているエリア、及び処理対象から除外されている姿勢については、本ステップの処理は行わない。そして、総合的な危険度が予め定めた危険度閾値より小さい場合は除外して、総合的な危険度が高い順に優先度が高くなるように、危険領域に対応する撮像画像上の領域を探索範囲として設定する。以下、危険領域における姿勢の各々を「危険領域×姿勢(例えば、エリアA×左向き)」と表す。
Next, in
図5の例では、例えば、エリアA×左向きの総合的な危険度は、エリアAの領域危険度「5」×エリアAにおける左向きの姿勢別危険度「5」=25となる。また、危険度閾値を「8」とした場合には、総合的な危険度が「6」であるエリアF×前向きが処理対象から除外される。その他の危険領域×姿勢に、総合的な危険度が高い順に優先度i(i=1、2、・・・N:Nは処理対象の危険領域×姿勢の総数)を付与する。総合的な危険度が同じ場合には、領域危険度が高い方の優先度を高くしたり、姿勢別危険度が高い方の優先度を高くしたりするなどの条件を定めておき優先度を決定する。ここでは、エリアA×左向きに優先度1、エリアA×右向きに優先度2、エリアC×右向きに優先度3、エリアF×左向きに優先度4、エリアC×前向きに優先度5、・・・のように優先度を付与する。
In the example of FIG. 5, for example, the total risk level of area A × leftward is the area risk level “5” of area A × left-side posture-specific risk level “5” of area A = 25. When the risk threshold is “8”, the area F × forward with the overall risk “6” is excluded from the processing target. Priorities i (i = 1, 2,..., N: N is the risk region to be processed × total number of postures) are assigned to the other dangerous regions × postures in descending order of overall risk. If the overall risk is the same, set a priority such as increasing the priority of the person with higher area risk or increasing the priority of the person with higher risk by posture. decide. Here, area A ×
次に、ステップ114で、優先度iを表す変数iに1をセットして、次に、ステップ116で、優先度iの危険領域×姿勢を選択する。そして、選択した優先度iの危険領域×姿勢の危険領域に対応する撮像画像上の探索範囲からウインドウ画像を抽出する。危険領域に対応する撮像画像上の探索範囲は、推定された危険領域の大きさ及び位置に基づいて、撮像画像上にその危険領域を対応させた範囲、またはその範囲にマージンを設けた範囲とすることができる。この探索範囲を探索ウインドウで走査しながらウインドウ画像を抽出する。
Next, in
次に、ステップ118で、選択した優先度iの危険領域×姿勢の姿勢に対応する識別モデルを識別モデル記憶部30から読み出して、上記ステップ116で抽出されたウインドウ画像と比較して、ウインドウ画像が歩行者を示す画像であるか否かを識別する。例えば、エリアA×左向きについては、左向きの識別モデルが使用される。
Next, in
次に、ステップ120で、上記ステップ118の識別の結果、ウインドウ画像が歩行者を示す画像であると識別されたか否かを判定する。歩行者の場合には、ステップ122へ移行し、歩行者ではない場合には、ステップ122をスキップして、ステップ124へ移行する。
Next, in
ステップ122では、ウインドウ画像の位置、サイズ、及び使用した識別モデルの姿勢を識別結果として所定の記憶領域に記憶する。この識別結果が、次フレームの処理における上記ステップ100で前フレームの識別結果として取得される。また、識別結果に基づいて、撮像画像に対して、検出された歩行者がウインドウで囲まれて表示されるように表示装置20を制御する。この際、歩行者の向きを示す矢印等の表示を合わせて行ってもよい。
In
ステップ124では、変数iがNになったか否かを判定することにより、全ての危険領域×姿勢を探索範囲として設定して処理したか否かを判定する。i≠Nの場合には、ステップ126へ移行して、変数iを1インクリメントして、ステップ116へ戻り、処理を繰り返す。i=Nとなった場合には、処理を終了する。
In
以上説明したように、本実施の形態の対象物検出装置によれば、領域危険度及び姿勢別危険度に基づいた総合的な危険度が高い順に探索範囲として設定し、姿勢別の識別モデルから適切な識別モデルを選択するため、ドライバにとって危険度の高い歩行者を早期に精度良く検出することができる。 As described above, according to the object detection device of the present embodiment, the search range is set in descending order of the overall risk based on the region risk and the posture risk, and the posture-specific identification model is used. Since an appropriate identification model is selected, a pedestrian with a high degree of danger for the driver can be detected early and accurately.
また、領域危険度、姿勢別危険度、及び総合的な危険度が各々について定めた閾値より小さい場合、並びに不可避領域を処理対象から除外するため、計算リソースに制限がある場合でも、計算コストを削減して、検出すべき優先度の高い歩行者を早期に精度良く検出することができる。 In addition, even if the area risk, the posture risk, and the overall risk are smaller than the thresholds set for each, and the inevitable area is excluded from the processing target, the calculation cost is reduced even when there are limited calculation resources. This makes it possible to detect pedestrians with high priority to be detected early and accurately.
なお、本実施の形態では、検出する対象物を歩行者とした場合について説明したが、対象物は二輪車等であってもよい。二輪車の場合には、姿勢を、向き、静止しているか走行しているか等とすることができる。 In the present embodiment, a case has been described in which the object to be detected is a pedestrian, but the object may be a two-wheeled vehicle or the like. In the case of a two-wheeled vehicle, the posture can be the orientation, whether it is stationary or traveling, and so on.
また、本実施の形態では、各危険度が閾値より小さいときには処理対象から除外する場合について説明したが、計算リソースに余裕がある場合には、除外することなく推定された全ての危険領域×姿勢について処理するようにしてもよい。また、領域危険度による除外のみ、姿勢別危険度による除外のみ、または総合的な危険度による除外のみを行うようにしてもよい。 Further, in the present embodiment, the case where each risk level is smaller than the threshold value has been described as being excluded from the processing target. However, when there is a margin in the calculation resources, all the risk areas × postures estimated without being excluded You may make it process about. Further, only the exclusion based on the area risk, only the exclusion based on the posture-specific risk, or only the exclusion based on the overall risk may be performed.
また、本実施の形態では、歩行者の姿勢を、左向き、右向き、前向き、後向きとした場合について説明したが、さらに細分化した向きを適用してもよいし、開脚の度合い、手と足との関係、静止しているか歩いているか走っているかの状態、大人か子供か(身長)で細分化してもよい。開脚の度合いや手と足との関係からは、歩行者の動きの大きさを把握できるため、開脚度合いが大きい場合には姿勢別危険度を高くするとよい。また、静止している場合よりも歩いている場合、歩いている場合よりも走っている場合の方が姿勢別危険度を高くするとよい。また、大人よりも子供の方が車両に対する注意力が低い場合が多いため、子供の場合(身長が低い場合)は姿勢別危険度を高くするとよい。 Further, in the present embodiment, the case where the posture of the pedestrian is leftward, rightward, forward, and backward has been described. However, a more detailed direction may be applied, the degree of open legs, the hands and feet. It may be subdivided according to whether it is stationary, walking or running, adult or child (height). Since the magnitude of pedestrian movement can be ascertained from the degree of leg opening and the relationship between hands and feet, the degree of risk for each posture may be increased when the degree of leg opening is large. Also, when walking rather than standing, it is better to increase the risk by posture when running than when walking. In addition, since children often have less attention to vehicles than adults, it is better to increase the risk by posture in the case of children (when the height is low).
また、本実施の形態では、領域危険度と姿勢別危険度とを乗算して総合的な危険度を推定する場合について説明したが、総合的な危険度を、領域危険度と姿勢別危険度との和や平均として推定してもよいし、それぞれに重み付けをして和、積、平均等を取るようにしてもよい。 Further, in the present embodiment, the case has been described in which the overall risk level is estimated by multiplying the area risk level and the posture risk level. However, the overall risk level is determined based on the area risk level and the posture risk level. May be estimated as the sum or average of the above, or each may be weighted to take the sum, product, average, or the like.
10 対象物検出装置
12 撮像装置
14 走行状態検出部
16 周辺状況検出部
18 コンピュータ
20 表示装置
22 危険領域推定部
24 姿勢別危険度推定部
26 探索範囲設定部
28 ウインドウ画像抽出部
30 識別モデル記憶部
32 歩行者識別部
DESCRIPTION OF
Claims (12)
前記取得手段により取得した情報に基づいて、対象物が存在する可能性のある危険領域、及び該危険領域の危険の度合いを示す領域危険度を推定する危険領域推定手段と、
前記危険領域と自車両との位置関係と、該危険領域内に存在すると仮定した対象物の姿勢との関係に基づいて、該姿勢毎の危険の度合いを示す姿勢別危険度を推定する姿勢別危険度推定手段と、
前記領域危険度及び前記姿勢別危険度に基づいて、前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢毎の総合的な危険度を推定し、該総合的な危険度の高い順に前記危険領域を選択し、選択した危険領域に対応する前記撮像画像上の領域からウインドウ画像を抽出する抽出手段と、
前記抽出手段により抽出されたウインドウ画像と、予め対象物を識別するために対象物の姿勢毎に生成された識別モデルから前記選択した危険領域内に存在すると仮定した対象物の姿勢に応じて選択された識別モデルとに基づいて、前記ウインドウ画像が対象物を表す画像か否かを識別する識別手段と、
を含む対象物検出装置。 An acquisition means for acquiring a captured image obtained by imaging the periphery of the host vehicle, information indicating a traveling state of the host vehicle, and information indicating a surrounding state of the host vehicle;
Based on the information acquired by the acquisition means, a dangerous area in which there is a possibility that the object exists, and a dangerous area estimation means for estimating an area risk indicating the degree of danger in the dangerous area;
Based on the positional relationship between the dangerous area and the host vehicle and the posture of the object assumed to be in the dangerous area, the posture-specific risk level indicating the degree of danger for each posture is estimated. Risk estimation means;
Based on the risk level of the area and the risk level for each posture, a total risk level is estimated for each posture of the target object that is assumed to be present in the risk area, and Extracting means for selecting the dangerous area in descending order and extracting a window image from an area on the captured image corresponding to the selected dangerous area;
Select according to the posture of the object assumed to exist in the selected dangerous area from the window image extracted by the extraction means and the identification model generated for each posture of the object in advance to identify the object Identification means for identifying whether the window image is an image representing an object based on the identified model;
An object detection apparatus including:
自車両周辺を撮像した撮像画像、自車両の走行状態を示す情報、及び自車両の周辺状況を示す情報を取得する取得手段、
前記取得手段により取得した情報に基づいて、対象物が存在する可能性のある危険領域、及び該危険領域の危険の度合いを示す領域危険度を推定する危険領域推定手段、
前記危険領域と自車両との位置関係と、該危険領域内に存在すると仮定した対象物の姿勢との関係に基づいて、該姿勢毎の危険の度合いを示す姿勢別危険度を推定する姿勢別危険度推定手段、
前記領域危険度及び前記姿勢別危険度に基づいて、前記危険領域毎に該危険領域内に存在すると仮定した対象物の姿勢毎の総合的な危険度を推定し、該総合的な危険度の高い順に前記危険領域を選択し、選択した危険領域に対応する前記撮像画像上の領域からウインドウ画像を抽出する抽出手段、及び
前記抽出手段により抽出されたウインドウ画像と、予め対象物を識別するために対象物の姿勢毎に生成された識別モデルから前記選択した危険領域内に存在すると仮定した対象物の姿勢に応じて選択された識別モデルとに基づいて、前記ウインドウ画像が対象物を表す画像か否かを識別する識別手段
として機能させるための対象物検出プログラム。 Computer
An acquisition means for acquiring a captured image obtained by imaging the periphery of the host vehicle, information indicating a traveling state of the host vehicle, and information indicating a surrounding situation of the host vehicle,
Based on the information acquired by the acquisition means, a dangerous area in which the object may exist, and a dangerous area estimation means for estimating an area risk indicating the degree of danger in the dangerous area;
Based on the positional relationship between the dangerous area and the host vehicle and the posture of the object assumed to be in the dangerous area, the posture-specific risk level indicating the degree of danger for each posture is estimated. Risk estimation means,
Based on the risk level of the area and the risk level for each posture, a total risk level is estimated for each posture of the target object that is assumed to be present in the risk area, and In order to identify the target object in advance, selecting the dangerous area in descending order, extracting the window image from the area on the captured image corresponding to the selected dangerous area, and the window image extracted by the extracting means An image in which the window image represents an object based on an identification model selected according to the attitude of the object assumed to exist in the selected dangerous area from the identification model generated for each attitude of the object An object detection program for functioning as an identification means for identifying whether or not.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010131879A JP5197679B2 (en) | 2010-06-09 | 2010-06-09 | Object detection apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010131879A JP5197679B2 (en) | 2010-06-09 | 2010-06-09 | Object detection apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011257984A true JP2011257984A (en) | 2011-12-22 |
JP5197679B2 JP5197679B2 (en) | 2013-05-15 |
Family
ID=45474097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010131879A Expired - Fee Related JP5197679B2 (en) | 2010-06-09 | 2010-06-09 | Object detection apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5197679B2 (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014050100A (en) * | 2012-09-01 | 2014-03-17 | Honda Motor Co Ltd | Vehicle periphery-monitoring device |
WO2014054171A1 (en) * | 2012-10-05 | 2014-04-10 | 三菱電機株式会社 | In-vehicle information processing device |
JP2015138325A (en) * | 2014-01-21 | 2015-07-30 | 株式会社ニコン | Portable electronic device and program |
WO2015152304A1 (en) * | 2014-03-31 | 2015-10-08 | エイディシーテクノロジー株式会社 | Driving assistance device and driving assistance system |
JP2015215749A (en) * | 2014-05-09 | 2015-12-03 | 株式会社デンソー | Object detection device for vehicle |
JP2015225366A (en) * | 2014-05-26 | 2015-12-14 | 株式会社リコー | Accident prevention system, accident prevention device, and accident prevention method |
CN105830131A (en) * | 2013-11-04 | 2016-08-03 | 雷诺股份公司 | Device for detecting the lateral position of a pedestrian relative to the trajectory of the vehicle |
JP2017049687A (en) * | 2015-08-31 | 2017-03-09 | 株式会社東芝 | Detection device, detection method, detection program, and information processing system |
WO2017130643A1 (en) * | 2016-01-29 | 2017-08-03 | 日産自動車株式会社 | Method for controlling travel of vehicle, and device for controlling travel of vehicle |
JP2017162436A (en) * | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Image processing method, image processing apparatus, and program |
JPWO2017022475A1 (en) * | 2015-07-31 | 2018-02-08 | 日立オートモティブシステムズ株式会社 | Self-vehicle surroundings information management device |
WO2018051810A1 (en) * | 2016-09-16 | 2018-03-22 | ソニー株式会社 | Image processing device and method, and image processing system |
DE102017120350A1 (en) | 2016-10-03 | 2018-04-05 | Toyota Jidosha Kabushiki Kaisha | VEHICLE DRIVING ASSISTANCE DEVICE |
KR20180040209A (en) * | 2016-10-12 | 2018-04-20 | 현대자동차주식회사 | Autonomous driving control apparatus, vehicle having the same and method for controlling the same |
JP2019194909A (en) * | 2019-07-10 | 2019-11-07 | 株式会社東芝 | Detection device, detection method and detection program |
US10576945B2 (en) | 2017-07-13 | 2020-03-03 | Hyundai Motor Company | Vehicle and method for controlling the same |
CN111401369A (en) * | 2020-03-26 | 2020-07-10 | 上海眼控科技股份有限公司 | Vehicle body danger sign detection method, device, equipment and storage medium |
CN111524389A (en) * | 2020-04-16 | 2020-08-11 | 腾讯科技(深圳)有限公司 | Vehicle driving method and device |
US10796569B2 (en) | 2016-01-26 | 2020-10-06 | Mitsubishi Electric Corporation | Vehicle determination apparatus, vehicle determination method, and computer readable medium |
JP2021077217A (en) * | 2019-11-12 | 2021-05-20 | 本田技研工業株式会社 | Risk estimation device and vehicle control device |
CN113370975A (en) * | 2020-03-10 | 2021-09-10 | 丰田自动车株式会社 | Driving assistance system |
CN113870616A (en) * | 2020-06-30 | 2021-12-31 | 丰田自动车株式会社 | Determination device, determination method, and recording medium having program recorded thereon |
JP2022161464A (en) * | 2021-04-09 | 2022-10-21 | キヤノン株式会社 | Driving assistance apparatus, mobile device, driving assistance method, computer program, and storage medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112018013472A2 (en) * | 2016-01-29 | 2018-12-04 | Nissan Motor Co., Ltd. | vehicle displacement control method and vehicle displacement control device |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03205999A (en) * | 1989-10-20 | 1991-09-09 | Hitachi Ltd | Abnormality monitoring device |
JPH07306997A (en) * | 1994-05-13 | 1995-11-21 | Mazda Motor Corp | Estimating device for traveling course of automobile |
JP2000123289A (en) * | 1998-10-13 | 2000-04-28 | Hitachi Ltd | Running environment information collection device and information presentation system |
JP2003081039A (en) * | 2001-09-12 | 2003-03-19 | Toyota Central Res & Dev Lab Inc | Environment risk arithmetic unit |
JP2006178652A (en) * | 2004-12-21 | 2006-07-06 | Sumitomo Electric Ind Ltd | Vehicle environment recognition system and image processor |
JP2007251257A (en) * | 2006-03-13 | 2007-09-27 | Fujitsu Ten Ltd | Image recognition device, vehicle control device, image recognition method, and vehicle control method |
JP2009187351A (en) * | 2008-02-07 | 2009-08-20 | Fujitsu Ten Ltd | Obstacle detecting device and obstacle detecting method |
JP2009237897A (en) * | 2008-03-27 | 2009-10-15 | Daihatsu Motor Co Ltd | Image recognition device |
-
2010
- 2010-06-09 JP JP2010131879A patent/JP5197679B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03205999A (en) * | 1989-10-20 | 1991-09-09 | Hitachi Ltd | Abnormality monitoring device |
JPH07306997A (en) * | 1994-05-13 | 1995-11-21 | Mazda Motor Corp | Estimating device for traveling course of automobile |
JP2000123289A (en) * | 1998-10-13 | 2000-04-28 | Hitachi Ltd | Running environment information collection device and information presentation system |
JP2003081039A (en) * | 2001-09-12 | 2003-03-19 | Toyota Central Res & Dev Lab Inc | Environment risk arithmetic unit |
JP2006178652A (en) * | 2004-12-21 | 2006-07-06 | Sumitomo Electric Ind Ltd | Vehicle environment recognition system and image processor |
JP2007251257A (en) * | 2006-03-13 | 2007-09-27 | Fujitsu Ten Ltd | Image recognition device, vehicle control device, image recognition method, and vehicle control method |
JP2009187351A (en) * | 2008-02-07 | 2009-08-20 | Fujitsu Ten Ltd | Obstacle detecting device and obstacle detecting method |
JP2009237897A (en) * | 2008-03-27 | 2009-10-15 | Daihatsu Motor Co Ltd | Image recognition device |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014050100A (en) * | 2012-09-01 | 2014-03-17 | Honda Motor Co Ltd | Vehicle periphery-monitoring device |
WO2014054171A1 (en) * | 2012-10-05 | 2014-04-10 | 三菱電機株式会社 | In-vehicle information processing device |
JP5847320B2 (en) * | 2012-10-05 | 2016-01-20 | 三菱電機株式会社 | In-vehicle information processing equipment |
JPWO2014054171A1 (en) * | 2012-10-05 | 2016-08-25 | 三菱電機株式会社 | In-vehicle information processing equipment |
CN105830131A (en) * | 2013-11-04 | 2016-08-03 | 雷诺股份公司 | Device for detecting the lateral position of a pedestrian relative to the trajectory of the vehicle |
JP2015138325A (en) * | 2014-01-21 | 2015-07-30 | 株式会社ニコン | Portable electronic device and program |
JPWO2015152304A1 (en) * | 2014-03-31 | 2017-04-13 | エイディシーテクノロジー株式会社 | Driving support device and driving support system |
WO2015152304A1 (en) * | 2014-03-31 | 2015-10-08 | エイディシーテクノロジー株式会社 | Driving assistance device and driving assistance system |
JP2020095688A (en) * | 2014-03-31 | 2020-06-18 | Case特許株式会社 | Driving assistance device |
JP2015215749A (en) * | 2014-05-09 | 2015-12-03 | 株式会社デンソー | Object detection device for vehicle |
JP2015225366A (en) * | 2014-05-26 | 2015-12-14 | 株式会社リコー | Accident prevention system, accident prevention device, and accident prevention method |
US10759336B2 (en) | 2015-07-31 | 2020-09-01 | Hitachi Automotive Systems, Ltd. | Vehicle periphery information management device |
US10493907B2 (en) | 2015-07-31 | 2019-12-03 | Hitachi Automotive Systems, Ltd. | Vehicle periphery information management device |
JPWO2017022475A1 (en) * | 2015-07-31 | 2018-02-08 | 日立オートモティブシステムズ株式会社 | Self-vehicle surroundings information management device |
JP2017049687A (en) * | 2015-08-31 | 2017-03-09 | 株式会社東芝 | Detection device, detection method, detection program, and information processing system |
US10796569B2 (en) | 2016-01-26 | 2020-10-06 | Mitsubishi Electric Corporation | Vehicle determination apparatus, vehicle determination method, and computer readable medium |
JPWO2017130643A1 (en) * | 2016-01-29 | 2018-11-15 | 日産自動車株式会社 | Driving control method for vehicle and driving control device for vehicle |
US11124163B2 (en) | 2016-01-29 | 2021-09-21 | Nissan Motor Co., Ltd. | Method for controlling travel of vehicle, and device for controlling travel of vehicle |
WO2017130643A1 (en) * | 2016-01-29 | 2017-08-03 | 日産自動車株式会社 | Method for controlling travel of vehicle, and device for controlling travel of vehicle |
JP2017162436A (en) * | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Image processing method, image processing apparatus, and program |
US11443520B2 (en) | 2016-09-16 | 2022-09-13 | Sony Corporation | Image processing apparatus, image processing method, and image processing system |
CN109690652A (en) * | 2016-09-16 | 2019-04-26 | 索尼公司 | Image processing equipment and method and image processing system |
WO2018051810A1 (en) * | 2016-09-16 | 2018-03-22 | ソニー株式会社 | Image processing device and method, and image processing system |
DE102017120350A1 (en) | 2016-10-03 | 2018-04-05 | Toyota Jidosha Kabushiki Kaisha | VEHICLE DRIVING ASSISTANCE DEVICE |
US10338600B2 (en) | 2016-10-12 | 2019-07-02 | Hyundai Motor Company | Autonomous driving control apparatus, vehicle having the same, and method for controlling the same |
KR20180040209A (en) * | 2016-10-12 | 2018-04-20 | 현대자동차주식회사 | Autonomous driving control apparatus, vehicle having the same and method for controlling the same |
KR101851155B1 (en) * | 2016-10-12 | 2018-06-04 | 현대자동차주식회사 | Autonomous driving control apparatus, vehicle having the same and method for controlling the same |
US10576945B2 (en) | 2017-07-13 | 2020-03-03 | Hyundai Motor Company | Vehicle and method for controlling the same |
JP2019194909A (en) * | 2019-07-10 | 2019-11-07 | 株式会社東芝 | Detection device, detection method and detection program |
CN112849134B (en) * | 2019-11-12 | 2024-02-23 | 本田技研工业株式会社 | Risk estimation device and vehicle control device |
JP2021077217A (en) * | 2019-11-12 | 2021-05-20 | 本田技研工業株式会社 | Risk estimation device and vehicle control device |
CN112849134A (en) * | 2019-11-12 | 2021-05-28 | 本田技研工业株式会社 | Risk estimation device and vehicle control device |
US11794733B2 (en) | 2019-11-12 | 2023-10-24 | Honda Motor Co., Ltd. | Risk estimation device and vehicle control device |
JP7136761B2 (en) | 2019-11-12 | 2022-09-13 | 本田技研工業株式会社 | Risk estimation device and vehicle control device |
JP2021142788A (en) * | 2020-03-10 | 2021-09-24 | トヨタ自動車株式会社 | Operation support system |
US11767010B2 (en) | 2020-03-10 | 2023-09-26 | Toyota Jidosha Kabushiki Kaisha | Driving assist system |
CN113370975A (en) * | 2020-03-10 | 2021-09-10 | 丰田自动车株式会社 | Driving assistance system |
CN111401369A (en) * | 2020-03-26 | 2020-07-10 | 上海眼控科技股份有限公司 | Vehicle body danger sign detection method, device, equipment and storage medium |
CN111524389B (en) * | 2020-04-16 | 2023-11-10 | 腾讯科技(深圳)有限公司 | Vehicle driving method and device |
CN111524389A (en) * | 2020-04-16 | 2020-08-11 | 腾讯科技(深圳)有限公司 | Vehicle driving method and device |
CN113870616A (en) * | 2020-06-30 | 2021-12-31 | 丰田自动车株式会社 | Determination device, determination method, and recording medium having program recorded thereon |
JP2022161464A (en) * | 2021-04-09 | 2022-10-21 | キヤノン株式会社 | Driving assistance apparatus, mobile device, driving assistance method, computer program, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5197679B2 (en) | 2013-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5197679B2 (en) | Object detection apparatus and program | |
US8994823B2 (en) | Object detection apparatus and storage medium storing object detection program | |
JP5407898B2 (en) | Object detection apparatus and program | |
JP5904925B2 (en) | Vehicle periphery monitoring device | |
US8810653B2 (en) | Vehicle surroundings monitoring apparatus | |
JP5468108B2 (en) | Method and system for detecting road terrain for a driver assistance system | |
JP4203512B2 (en) | Vehicle periphery monitoring device | |
JP5822255B2 (en) | Object identification device and program | |
DE102011078615B4 (en) | OBJECT DETECTION DEVICE AND OBJECT DETECTION PROGRAM | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP5587170B2 (en) | Driving support device and program | |
JP2008021034A (en) | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller | |
JP2008168811A (en) | Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program | |
WO2008118305A1 (en) | Forward looking sensor system | |
JPWO2015177864A1 (en) | Signal recognition device and signal recognition method | |
WO2018215861A1 (en) | System and method for pedestrian detection | |
US20140002658A1 (en) | Overtaking vehicle warning system and overtaking vehicle warning method | |
JP2013003110A (en) | Vehicle state detection apparatus | |
JP4609076B2 (en) | Moving object detection apparatus and moving object detection method | |
JP2012221162A (en) | Object detection device and program | |
JP2010132056A (en) | Sensing device, sensing method, and vehicle control device | |
JP4937844B2 (en) | Pedestrian detection device | |
JP2012203884A (en) | Jumping-out pedestrian determining device and program | |
JP6483360B2 (en) | Object recognition device | |
Qing et al. | A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130205 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160215 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |