JP2018041396A - Object recognition device, object recognition method, and object recognition program - Google Patents

Object recognition device, object recognition method, and object recognition program Download PDF

Info

Publication number
JP2018041396A
JP2018041396A JP2016176747A JP2016176747A JP2018041396A JP 2018041396 A JP2018041396 A JP 2018041396A JP 2016176747 A JP2016176747 A JP 2016176747A JP 2016176747 A JP2016176747 A JP 2016176747A JP 2018041396 A JP2018041396 A JP 2018041396A
Authority
JP
Japan
Prior art keywords
target
targets
recognition
unit
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016176747A
Other languages
Japanese (ja)
Other versions
JP6354963B2 (en
Inventor
瞬 岩崎
Shun Iwasaki
瞬 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016176747A priority Critical patent/JP6354963B2/en
Publication of JP2018041396A publication Critical patent/JP2018041396A/en
Application granted granted Critical
Publication of JP6354963B2 publication Critical patent/JP6354963B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide one of the objects which is to provide an object recognition device, an object recognition method, and an object recognition program capable of suppressing an excessive exclusion of an area when limiting the area when preferentially performing the process by limiting the area in which the object is presumed to exist.SOLUTION: An object recognition device includes: a detection part for detecting a target of the surrounding area of a vehicle; a recognition part for recognizing an object based on the detected target; and a processing object setting part for excluding targets of the target group from the recognition object when the number of targets of the target group including g one or a plurality of the detected targets along a vehicle travel direction from among the detected targets. The processing object setting part does not exclude the targets of the target group, but defines them as the recognition objects when the number of the targets of the target group is equal to or more than the predetermined number and further when a degree of the fluctuation of the targets of the target group is equal to or less than a threshold value.SELECTED DRAWING: Figure 1

Description

本発明は、物体認識装置、物体認識方法、および物体認識プログラムに関する。   The present invention relates to an object recognition device, an object recognition method, and an object recognition program.

従来、画像処理において、カメラによって撮像された画像から、物体を特定するためにエッジ(特徴箇所)を抽出することが行われている。このような画像処理において、抽出された歩行者が存在する可能性のある候補画像部分の数に基づいて画像から物体認識を行う領域を除くことにより、物体認識に要する時間を短縮する技術が知られている(例えば、特許文献1参照)。   Conventionally, in image processing, an edge (characteristic portion) is extracted from an image captured by a camera in order to specify an object. In such image processing, a technique for shortening the time required for object recognition by excluding the area for object recognition from the image based on the number of candidate image portions where there may be extracted pedestrians is known. (For example, refer to Patent Document 1).

特開2016−12303号公報JP-A-2006-12303

しかしながら、従来の技術では、本来なら認識すべき物体が存在する領域を、画像から一時的に取り除いてしまう場合があった。この結果、物体に対する車両制御が遅れ、商品性が悪化する場合があった。   However, in the conventional technique, there is a case where a region where an object to be recognized originally exists is temporarily removed from an image. As a result, vehicle control over the object is delayed, and merchantability may be deteriorated.

本発明は、このような事情を考慮してなされたものであり、物体が存在するであろう領域に絞って優先的に処理を行うにあたって、領域を絞る際に過剰に領域を除外してしまうことを抑制することができる物体認識装置、物体認識方法、および物体認識プログラムを提供することを目的の一つとする。   The present invention has been made in consideration of such circumstances, and when processing is preferentially focused on a region where an object is likely to exist, the region is excessively excluded when narrowing the region. An object of the present invention is to provide an object recognition device, an object recognition method, and an object recognition program that can suppress this.

請求項1記載の発明は、車両の周辺の物標を検出する検出部と、前記検出部により検出された物標に基づいて物体を認識する認識部と、前記検出部により検出された物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を前記認識部による認識対象から除外する処理対象設定部と、を備え、前記処理対象設定部は、前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、前記認識部による認識対象から除外せずに認識対象とする、物体認識装置である。   The invention according to claim 1 is a detection unit for detecting a target around a vehicle, a recognition unit for recognizing an object based on the target detected by the detection unit, and a target detected by the detection unit. If the number of targets in the target group including one or more targets detected along the traveling direction of the vehicle is a predetermined number or more, the target included in the target group is A processing target setting unit that is excluded from recognition targets by a recognition unit, and the processing target setting unit further includes a target in the target group when the number of targets in the target group is equal to or greater than a predetermined number. When the degree of variation is less than the threshold value, the target recognition device is configured to recognize a target included in the target group without excluding it from the recognition target by the recognition unit.

請求項2記載の発明は、請求項1に記載の物体認識装置において、前記処理対象設定部は、前記物標グループにおける物標のばらつきの度合が閾値以下である場合に、前記物標グループに含まれる物標の位置を前記車両が通過するまでの期間、前記物標グループに含まれる物標を前記認識部による認識対象とし続けるものである。   According to a second aspect of the present invention, in the object recognition device according to the first aspect, the processing target setting unit includes the target group when the degree of variation of the target in the target group is equal to or less than a threshold value. The target included in the target group is continuously recognized as a recognition target by the recognition unit until the vehicle passes through the position of the target included.

請求項3記載の発明は、車両の前方を撮像するカメラと、前記カメラにより撮像された画像から、物体として認識され得る特徴箇所を抽出する抽出部と、前記抽出部により抽出された特徴箇所に基づいて前記画像上で物体を認識する認識部と、前記抽出部により前記画像の奥行き方向に沿って抽出された一または複数の特徴箇所を含む特徴箇所グループにおける特徴箇所の数が所定数以上である場合に、前記特徴箇所グループに含まれる特徴箇所を前記認識部による認識対象から除外する処理対象設定部と、を備え、前記処理対象設定部は、前記特徴箇所グループに含まれる特徴箇所の数が所定数以上である場合に、更に前記特徴箇所グループに含まれる特徴箇所のばらつきの度合が閾値未満である場合、前記特徴箇所グループに含まれる特徴箇所を、前記認識部による認識対象から除外せずに認識対象とする、物体認識装置である。   According to a third aspect of the present invention, there is provided a camera that images the front of a vehicle, an extraction unit that extracts a feature location that can be recognized as an object from an image captured by the camera, and a feature location that is extracted by the extraction unit. A recognition unit for recognizing an object on the basis of the image, and the number of feature locations in the feature location group including one or more feature locations extracted along the depth direction of the image by the extraction unit is a predetermined number or more. A processing target setting unit configured to exclude a feature location included in the feature location group from a recognition target by the recognition unit, and the processing target setting unit includes a number of feature locations included in the feature location group. Is greater than or equal to a predetermined number, and if the degree of variation of the feature locations included in the feature location group is less than a threshold, the features included in the feature location group Location and be recognized without excluding from the recognition target by the recognition unit, a object recognition apparatus.

請求項4記載の発明は、車載コンピュータが、車両の周辺の物標を検出し、前記検出した物標を物体として認識し、前記検出した物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を認識対象から除外し、前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、認識対象から除外せずに認識対象とする、物体認識方法である。   In the invention according to claim 4, the in-vehicle computer detects a target around the vehicle, recognizes the detected target as an object, and detects the detected target along the traveling direction of the vehicle. When the number of targets in the target group including one or a plurality of targets is equal to or greater than a predetermined number, the targets included in the target group are excluded from recognition targets, and the targets in the target group When the number of target objects is greater than or equal to a predetermined number and the degree of variation of the target in the target group is less than a threshold, the target included in the target group is not excluded from the recognition target. This is an object recognition method.

請求項5記載の発明は、車載コンピュータに、車両の周辺の物標を検出させ、前記検出させた物標を物体として認識させ、前記検出させた物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を認識対象から除外させ、前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、認識対象から除外させずに認識対象とさせる、物体認識プログラムである。   The invention according to claim 5 causes the in-vehicle computer to detect a target around the vehicle, recognizes the detected target as an object, and follows the traveling direction of the vehicle among the detected targets. When the number of targets in the target group including one or more targets detected in the above is a predetermined number or more, the target included in the target group is excluded from recognition targets, and the target group When the number of targets is equal to or greater than a predetermined number, and the degree of variation of the targets in the target group is less than a threshold value, the targets included in the target group are not excluded from recognition targets. An object recognition program to be recognized.

請求項1、3、4、5記載の発明によれば、車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、更に物標グループにおける物標のばらつきの度合が閾値未満である場合、物標グループに含まれる物標を、認識部による認識対象から除外せずに認識対象とすることにより、限られた処理時間の中で、物体(例えば歩行者等)が存在するであろう領域に絞って優先的に処理を行うにあたって、領域を絞る際に過剰に領域を除外してしまうことを抑制することができる。   According to the first, third, fourth, and fifth aspects of the invention, when the number of targets in the target group including one or more targets detected along the traveling direction of the vehicle is equal to or greater than a predetermined number. Furthermore, if the degree of target variation in the target group is less than the threshold value, the target process included in the target group is not excluded from the recognition targets, but limited processing is performed. It is possible to suppress excessive exclusion of a region when narrowing down the region when preferentially performing processing while narrowing down to a region where an object (such as a pedestrian) is likely to exist in time. .

請求項2記載の発明によれば、物標グループにおける物標のばらつきの度合が閾値以下である場合に、物標グループに含まれる物標の位置を車両が通過するまでの期間、物標グループに含まれる物標を物体認識時の認識対象とし続けることにより、物体の認識における精度を向上させることができる。   According to the invention described in claim 2, when the degree of variation of the target in the target group is equal to or less than the threshold, the period until the vehicle passes through the position of the target included in the target group, the target group The accuracy of object recognition can be improved by keeping the target included in the object as a recognition target at the time of object recognition.

実施形態における物体認識装置100の構成の一例を示す図である。It is a figure which shows an example of a structure of the object recognition apparatus 100 in embodiment. 制御部110による処理の流れの一例を示すフローチャートである。4 is a flowchart illustrating an example of a flow of processing by a control unit 110. 撮像画像132から候補画像部分134が抽出される様子を模式的に示す図である。It is a figure which shows typically a mode that the candidate image part 134 is extracted from the captured image 132. FIG. 図3に示す撮像画像132から抽出された候補画像部分134の位置がマッピングされた座標系の一例を示す図である。It is a figure which shows an example of the coordinate system by which the position of the candidate image part 134 extracted from the captured image 132 shown in FIG. 3 was mapped. 判定領域RのY軸方向における候補画像部分134の分布の一例を示す図である。6 is a diagram illustrating an example of a distribution of candidate image portions 134 in a Y-axis direction of a determination region R. FIG. 2条の轍の間に存在する歩行者が候補画像部分134として抽出される様子を模式的に示す図である。It is a figure which shows typically a mode that the pedestrian who exists between 2 ridges is extracted as the candidate image part. 図6に示す撮像画像132から抽出された候補画像部分134の位置がマッピングされた座標系の一例を示す図である。It is a figure which shows an example of the coordinate system by which the position of the candidate image part 134 extracted from the captured image 132 shown in FIG. 6 was mapped. 判定領域RのY軸方向における候補画像部分134の分布の他の例を示す図である。12 is a diagram illustrating another example of the distribution of candidate image portions 134 in the Y-axis direction of the determination region R. FIG. 制限時間設定用情報140の一例を示す図である。It is a figure which shows an example of the information 140 for time limit setting. 候補画像部分134の分散に応じて候補画像部分134を処理対象から除外する様子を模式的に示す図である。It is a figure which shows typically a mode that the candidate image part 134 is excluded from a process target according to dispersion | distribution of the candidate image part 134. FIG.

以下、図面を参照し、本発明の物体認識装置、物体認識方法、および物体認識プログラムの実施形態について説明する。   Hereinafter, embodiments of an object recognition device, an object recognition method, and an object recognition program of the present invention will be described with reference to the drawings.

図1は、実施形態における物体認識装置100の構成の一例を示す図である。本実施形態における物体認識装置100は車両(以下、自車両Mと称する)に搭載される。物体認識装置100は、例えば、カメラ102と、制御部110と、記憶部130とを備える。物体認識装置100は、例えば、一以上のプロセッサまたは同等の機能を有するハードウェアにより実現される。物体認識装置100は、CPU(Central Processing Unit)などのプロセッサ、記憶装置、および通信インターフェースが内部バスによって接続されたECU(Electronic Control Unit)、或いはMPU(Micro-Processing Unit)などが組み合わされた構成であってよい。また、物体認識装置100は、複数のコンピュータ装置によって分散化されたものであってもよい。   FIG. 1 is a diagram illustrating an example of a configuration of an object recognition apparatus 100 according to the embodiment. The object recognition apparatus 100 according to the present embodiment is mounted on a vehicle (hereinafter referred to as own vehicle M). The object recognition device 100 includes, for example, a camera 102, a control unit 110, and a storage unit 130. The object recognition apparatus 100 is realized by, for example, one or more processors or hardware having an equivalent function. The object recognition apparatus 100 is configured by combining a processor such as a CPU (Central Processing Unit), a storage device, and an ECU (Electronic Control Unit) in which a communication interface is connected by an internal bus, or an MPU (Micro-Processing Unit). It may be. Further, the object recognition device 100 may be distributed by a plurality of computer devices.

カメラ102は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ102は、例えば、車室内のフロントウインドシールド上部やルームミラー裏面等に設けられる。カメラ102は、例えば、周期的に繰り返し自車両Mの前方を撮像する。カメラ102は、複数のカメラを含むステレオカメラであってもよい。   The camera 102 is a digital camera using a solid-state image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The camera 102 is provided, for example, on the upper part of the front windshield in the passenger compartment or on the rear surface of the room mirror. For example, the camera 102 periodically images the front of the host vehicle M repeatedly. The camera 102 may be a stereo camera including a plurality of cameras.

制御部110は、例えば、画像取得部112と、候補画像部分抽出部114と、距離算出部116と、処理対象設定部118と、候補画像部分判定部120と、歩行者画像識別部122と、歩行者向き判別部124と、回避判定部126と、警報出力部128とを備える。これらの構成要素は、プロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。   For example, the control unit 110 includes an image acquisition unit 112, a candidate image portion extraction unit 114, a distance calculation unit 116, a processing target setting unit 118, a candidate image portion determination unit 120, a pedestrian image identification unit 122, A pedestrian orientation determination unit 124, an avoidance determination unit 126, and an alarm output unit 128 are provided. These components are realized by a processor executing a program (software). Some or all of these components may be realized by hardware such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit), or may be realized by a combination of software and hardware. Also good.

記憶部130は、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等で実現される。プロセッサが実行するプログラムは、予め記憶部130に格納されていてもよいし、車載インターネット設備等を介して外部装置からダウンロードされてもよい。また、プログラムは、そのプログラムを格納した可搬型記憶媒体が図示しないドライブ装置に装着されることで記憶部130にインストールされてもよい。記憶部130には、例えば、撮像画像132や候補画像部分134、簡易マッチングデータ136、歩行者用マッチングデータ138、制限時間設定用情報140などの情報が格納される。   The storage unit 130 is realized by a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), a flash memory, or the like. The program executed by the processor may be stored in advance in the storage unit 130, or may be downloaded from an external device via an in-vehicle Internet facility or the like. Further, the program may be installed in the storage unit 130 by attaching a portable storage medium storing the program to a drive device (not shown). The storage unit 130 stores, for example, information such as the captured image 132, the candidate image portion 134, the simple matching data 136, the pedestrian matching data 138, and the time limit setting information 140.

以下、フローチャートを用いて制御部110が備える各構成について説明する。図2は、制御部110による処理の流れの一例を示すフローチャートである。   Hereinafter, each component with which the control part 110 is provided is demonstrated using a flowchart. FIG. 2 is a flowchart illustrating an example of a processing flow by the control unit 110.

まず、画像取得部112は、カメラ102から画像を取得し(ステップS100)、記憶部130に撮像画像132として記憶させる。カメラ102から取得される画像は、例えば、カラー画像であってもよいし、グレースケールの画像(輝度画像)であってもよい。   First, the image acquisition unit 112 acquires an image from the camera 102 (step S <b> 100) and stores it as a captured image 132 in the storage unit 130. The image acquired from the camera 102 may be, for example, a color image or a gray scale image (luminance image).

なお、画像取得部112は、自車両Mに搭載されたカメラ102から撮像画像132を取得する代わりに、道路脇や道路上方に設置された外部カメラと無線通信することにより、外部カメラにより撮像された画像を撮像画像132として取得してもよい。無線通信は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用することで行われてよい。この場合、特許請求の範囲におけるカメラは、自車両Mに搭載されたカメラ102に加えて(或いは代えて)、道路脇や道路上方に設置された外部カメラを含んでもよい。   The image acquisition unit 112 is captured by the external camera by wirelessly communicating with an external camera installed on the side of the road or above the road instead of acquiring the captured image 132 from the camera 102 mounted on the host vehicle M. The captured image may be acquired as the captured image 132. The wireless communication may be performed by using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or the like. In this case, in addition to (or instead of) the camera 102 mounted on the host vehicle M, the camera in the claims may include an external camera installed on the side of the road or above the road.

次に、候補画像部分抽出部114は、撮像画像132の全部または一部の領域から特徴箇所を抽出し、抽出した特徴箇所と、予め記憶部130に記憶させておいた簡易マッチングデータ136と比較することで、歩行者が存在する可能性のある領域(簡易マッチングデータ136に合致する特徴箇所の集まりを包含する領域)を候補画像部分134として抽出する(ステップS102)。候補画像部分134は、「物標」の一例である。また、カメラ102、画像取得部112および候補画像部分抽出部114は、「検出部」の一例である。   Next, the candidate image part extraction unit 114 extracts feature points from all or a part of the captured image 132, and compares the extracted feature points with the simple matching data 136 stored in the storage unit 130 in advance. Thus, a region where a pedestrian may exist (a region including a collection of feature points matching the simple matching data 136) is extracted as a candidate image portion 134 (step S102). The candidate image portion 134 is an example of a “target”. The camera 102, the image acquisition unit 112, and the candidate image part extraction unit 114 are examples of “detection unit”.

「特徴箇所」とは、エッジすなわち周辺画素との輝度差や色彩パラメータの差が基準よりも大きい特徴点、あるいは、同等の性質を有する画素群である。   The “feature portion” is a feature point having a luminance difference or color parameter difference from an edge, that is, a surrounding pixel, or a pixel group having an equivalent property.

簡易マッチングデータ136は、歩行者用マッチングデータ138よりも緩やかな基準で作成されたデータである。「緩やかな基準」とは、例えば、後述する形状モデルデータが歩行者用マッチングデータ138に含まれる形状モデルデータと比べて少ない特徴箇所で表されていることを意味する。また、「緩やかな基準」は、ステップS102の処理において、「合致する」ことの要求レベルが、後述するステップS124の処理よりも低いことを意味してもよい。例えば、ステップS102の処理は、合致することが要求される形状モデルの数がステップS124よりも低いものであってよい。   The simple matching data 136 is data created based on a gentler standard than the pedestrian matching data 138. “Loose reference” means, for example, that shape model data described later is represented by fewer characteristic portions than the shape model data included in the pedestrian matching data 138. “Loose criteria” may mean that the required level of “match” is lower in the process of step S102 than in the process of step S124 described later. For example, the processing in step S102 may be such that the number of shape models that are required to match is lower than in step S124.

歩行者用マッチングデータ138は、例えば、歩行者の身体の一部(例えば、頭、肩、手、足、目、鼻、口など)または全部の輪郭あるいは稜線などを示す形状モデルデータである。歩行者用マッチングデータ138は、歩行者の身体の複数の箇所(パーツ)に対応する複数の形状モデルデータを含んでよい。これに対し、簡易マッチングデータ136は、歩行者用マッチングデータ138に含まれる形状モデルデータよりも簡易な形状モデルデータであり、比較対象の特徴箇所群と合致すると判定されやすいデータである。   The pedestrian matching data 138 is, for example, shape model data indicating a part of a pedestrian's body (eg, head, shoulders, hands, feet, eyes, nose, mouth, etc.) or the entire outline or ridgeline. The pedestrian matching data 138 may include a plurality of shape model data corresponding to a plurality of parts (parts) of the pedestrian's body. On the other hand, the simple matching data 136 is simpler shape model data than the shape model data included in the pedestrian matching data 138, and is data that is easily determined to match the feature location group to be compared.

候補画像部分抽出部114は、抽出した特徴箇所が、簡易マッチングデータ136に含まれる形状モデルデータと合致する形状を示す領域を、候補画像部分134として抽出し、記憶部130に記憶させる。本処理では、形状の特徴を示す特徴箇所同士を比較するものであるため、歩行者(人間)以外の物体を映した部分が候補画像部分134として抽出される場合がある。   The candidate image portion extraction unit 114 extracts a region where the extracted feature location indicates a shape that matches the shape model data included in the simple matching data 136 as the candidate image portion 134 and causes the storage unit 130 to store the extracted region. In this process, since the feature locations indicating the shape features are compared with each other, a portion showing an object other than a pedestrian (human) may be extracted as the candidate image portion 134.

図3は、撮像画像132から候補画像部分134が抽出される様子を模式的に示す図である。図示の例では、雪道に車輪の轍が2条形成された後に轍の部分だけ雪が融けて2条の轍の間に雪の塊が残り、この雪の塊が候補画像部分134として抽出されてしまっている。   FIG. 3 is a diagram schematically illustrating how the candidate image portion 134 is extracted from the captured image 132. In the illustrated example, after two wheel ridges are formed on the snow road, the snow melts only in the ridge portion, and a snow mass remains between the two ridges, and this snow mass is extracted as a candidate image portion 134. It has been.

距離算出部116は、候補画像部分抽出部114により抽出された各候補画像部分134について、自車両Mからの距離を算出する(ステップS104)。例えば、距離算出部116は、撮像画像132において無限遠点である道路の消失点を導出し、消失点と候補画像部分134との画素間の距離を導出する。そして、距離算出部116は、カメラ102の焦点距離と、消失点および候補画像部分134の画素間の距離とに基づいて無限遠点に対する角度(仰角)を算出し、当該角度とカメラ102が設置された位置の高さとに基づいて、撮像画像132における候補画像部分134の位置に対応した実空間上の位置を求めることで、各候補画像部分134と自車両Mとの画像奥行き方向に関する距離を算出する。   The distance calculation unit 116 calculates the distance from the host vehicle M for each candidate image portion 134 extracted by the candidate image portion extraction unit 114 (step S104). For example, the distance calculation unit 116 derives a vanishing point of a road that is an infinite point in the captured image 132 and derives a distance between pixels of the vanishing point and the candidate image portion 134. Then, the distance calculation unit 116 calculates an angle (elevation angle) with respect to the infinity point based on the focal length of the camera 102 and the distance between the vanishing point and the pixel of the candidate image portion 134, and the angle and the camera 102 are installed. The distance in the image depth direction between each candidate image portion 134 and the host vehicle M is obtained by obtaining a position in the real space corresponding to the position of the candidate image portion 134 in the captured image 132 based on the height of the position thus obtained. calculate.

候補画像部分判定部120は、距離算出部116によって距離が算出された候補画像部分134の位置を、実空間を示す座標系にマッピングする。実空間を示す座標系は、例えば、上方から自車両Mを見た場合の二次元空間で表されてよい。   The candidate image portion determination unit 120 maps the position of the candidate image portion 134 for which the distance is calculated by the distance calculation unit 116 to a coordinate system indicating the real space. The coordinate system indicating the real space may be represented, for example, in a two-dimensional space when the host vehicle M is viewed from above.

図4は、図3に示す撮像画像132から抽出された候補画像部分134の位置がマッピングされた座標系の一例を示す図である。図中X軸は水平方向を表し、Y軸は奥行き方向を表している。また、図中Oは、例えば、自車両Mの前端位置(例えばフロントバンパー等の位置)からの位置を表している。図中Rは、自車両Mが走行する走行車線に対して設定された判定領域を表し、RLA、RLBは、自車両Mの進行方向に対して左側の車線(或いは道路外の領域)に設定された判定領域を表している。また、RRA、RRBは、自車両Mの進行方向に対して右側の車線(或いは道路外の領域)に設定された判定領域を表している。 FIG. 4 is a diagram illustrating an example of a coordinate system in which the position of the candidate image portion 134 extracted from the captured image 132 illustrated in FIG. 3 is mapped. In the figure, the X axis represents the horizontal direction, and the Y axis represents the depth direction. In addition, O in the drawing represents, for example, a position from the front end position of the host vehicle M (for example, a position such as a front bumper). In the figure, R C represents a determination area set for a travel lane in which the host vehicle M travels, and R LA and R LB are left lanes (or areas outside the road) with respect to the traveling direction of the host vehicle M. ) Represents the determination area set in (). R RA and R RB represent determination areas set in the right lane (or the area outside the road) with respect to the traveling direction of the host vehicle M.

例えば、候補画像部分判定部120は、自車両Mから候補画像部分134までの距離をY軸における座標に変換すると共に、撮像画像132における候補画像部分134の水平方向成分の位置をX軸における座標に変換することで、各候補画像部分134の位置をX-Y座標系にマッピングする。   For example, the candidate image portion determination unit 120 converts the distance from the host vehicle M to the candidate image portion 134 into coordinates on the Y axis, and converts the position of the horizontal component of the candidate image portion 134 in the captured image 132 into coordinates on the X axis. To map the position of each candidate image portion 134 to the XY coordinate system.

次に、候補画像部分判定部120は、実空間を示す座標系(X-Y座標系)において、自車両Mの進行方向(Y軸方向)に直交する水平方向(X軸方向)の幅が所定幅の範囲内である判定領域Rを設定する。例えば、候補画像部分判定部120は、図4中のR、RLA、RLB、RRA、RRBなどのように、複数の判定領域Rを設定する。そして、候補画像部分判定部120は、設定した複数の判定領域Rから、着目する一つの判定領域を選択する(ステップS106)。複数の判定領域Rを設定する場合、各判定領域Rの水平方向の所定幅は、同じであってもよいし異なっていてもよい。また、各判定領域Rは、隣り合う判定領域とその一部が重なってもよい。 Next, the candidate image portion determination unit 120 has a width in the horizontal direction (X-axis direction) orthogonal to the traveling direction (Y-axis direction) of the host vehicle M in the coordinate system (XY coordinate system) indicating the real space. A determination region R that is within a predetermined width is set. For example, the candidate image portion determination unit 120 sets a plurality of determination regions R such as R C , R LA , R LB , R RA , R RB in FIG. Then, the candidate image portion determination unit 120 selects one determination region of interest from the set determination regions R (step S106). When a plurality of determination regions R are set, the predetermined width in the horizontal direction of each determination region R may be the same or different. Moreover, each determination area | region R may overlap with the adjacent determination area | region.

次に、候補画像部分判定部120は、マッピングした候補画像部分134のうち、S106において選択した判定領域Rに属する候補画像部分134の数nをカウントする。図4の例において、複数の判定領域Rから判定領域Rが選択されている場合、候補画像部分134aは、判定領域Rに属さない候補画像部分となり、候補画像部分134bは、判定領域Rに属する候補画像部分となる。そして、候補画像部分判定部120は、判定領域Rに属する候補画像部分134(図中134b)の数nが所定数k以上であるか否かを判定する(ステップS108)。判定領域Rに属する候補画像部分は、「物標グループ」または「特徴箇所グループ」の一例である。 Next, the candidate image portion determination unit 120 counts the number n of candidate image portions 134 belonging to the determination region R selected in S106 among the mapped candidate image portions 134. In the example of FIG. 4, when the determination region RC is selected from the plurality of determination regions R, the candidate image portion 134a is a candidate image portion that does not belong to the determination region RC , and the candidate image portion 134b is the determination region R. It becomes a candidate image portion belonging to C. Then, the candidate image portion determination unit 120 determines whether or not the number n of candidate image portions 134 (134b in the figure) belonging to the determination region R is equal to or greater than a predetermined number k (step S108). The candidate image portion belonging to the determination region R is an example of a “target group” or “characteristic location group”.

処理対象設定部118は、候補画像部分判定部120によって判定領域Rに属する候補画像部分134の数nが所定数k未満であると判定された場合、候補画像部分判定部120により選択された判定領域Rに属する全ての候補画像部分134を、後述する歩行者画像識別部122の処理対象に設定する(ステップS110)。   When the candidate image portion determination unit 120 determines that the number n of candidate image portions 134 belonging to the determination region R is less than the predetermined number k, the processing target setting unit 118 determines that the candidate image portion determination unit 120 has selected. All candidate image portions 134 belonging to the region R are set as processing targets of the pedestrian image identification unit 122 described later (step S110).

一方、処理対象設定部118は、候補画像部分判定部120によって判定領域Rに属する候補画像部分134の数nが所定数k以上であると判定された場合、候補画像部分判定部120により選択された判定領域Rに属する候補画像部分134の分散を導出する。候補画像部分134の分散は、「物標のばらつきの度合」または「特徴箇所のばらつきの度合」の一例である。そして、処理対象設定部118は、導出した分散が閾値未満であるか否かを判定する(ステップS112)。   On the other hand, the processing target setting unit 118 is selected by the candidate image portion determination unit 120 when the candidate image portion determination unit 120 determines that the number n of candidate image portions 134 belonging to the determination region R is a predetermined number k or more. The variance of the candidate image portion 134 belonging to the determination region R is derived. The distribution of the candidate image portion 134 is an example of “the degree of variation in the target” or “the degree of variation in the characteristic portion”. Then, the processing target setting unit 118 determines whether or not the derived variance is less than a threshold value (step S112).

図5は、判定領域RのY軸方向における候補画像部分134の分布の一例を示す図である。図中縦軸は候補画像部分134の数(候補数n)を表し、横軸は判定領域RのY軸方向を表している。例えば、2条の轍の間に存在する雪の塊などは車道に沿って遍在しやすいため、図5に示すように、候補画像部分134は、Y軸方向においてある程度分散した状態でマッピングされる傾向がある。この場合、候補画像部分134の分散は大きくなりやすい。すなわち、候補画像部分134の分散が閾値を超えやすくなる。   FIG. 5 is a diagram illustrating an example of the distribution of the candidate image portion 134 in the Y-axis direction of the determination region R. In the drawing, the vertical axis represents the number of candidate image portions 134 (number of candidates n), and the horizontal axis represents the Y-axis direction of the determination region R. For example, since a lump of snow or the like existing between the two fences is likely to be omnipresent along the roadway, as shown in FIG. 5, the candidate image portion 134 is mapped with a certain degree of dispersion in the Y-axis direction. There is a tendency to. In this case, the variance of the candidate image portion 134 tends to increase. That is, the variance of the candidate image portion 134 tends to exceed the threshold value.

処理対象設定部118は、候補画像部分134の分散が閾値以上となる場合、経過時間閾値Tthを所定時間Tに設定する(ステップS114)。経過時間閾値Tthとは、その閾値分の時間が経過するまでの間、後述するS120の処理を禁止するため(移行しないため)の時間である。   The process target setting unit 118 sets the elapsed time threshold Tth to the predetermined time T when the variance of the candidate image portion 134 is equal to or greater than the threshold (step S114). The elapsed time threshold value Tth is a time period for prohibiting (not shifting) the processing of S120 described later until a time corresponding to the threshold value elapses.

一方、2条の轍の間に歩行者がいる場合、撮像画像132において融け残った雪と共に歩行者が候補画像部分134として抽出されることが想定される。図6は、2条の轍の間に存在する歩行者が候補画像部分134として抽出される様子を模式的に示す図である。図6のように、他の物体の特徴箇所と比べて歩行者の特徴箇所は、簡易マッチングデータ136に含まれる形状データとより合致しやすくなるため、歩行者が存在する地点においてより多くの候補画像部分134が抽出される傾向がある。すなわち、候補画像部分134の密度(Y軸方向の所定区間あたりの候補画像部分134の数n)が閾値を超える地点は、歩行者が存在する可能性が高いと評価することができる。   On the other hand, when there is a pedestrian between the two ridges, it is assumed that the pedestrian is extracted as the candidate image portion 134 together with the unmelted snow in the captured image 132. FIG. 6 is a diagram schematically illustrating how a pedestrian existing between two ridges is extracted as a candidate image portion 134. As shown in FIG. 6, the feature location of the pedestrian is more easily matched with the shape data included in the simple matching data 136 than the feature location of the other object, so that more candidates are present at the location where the pedestrian exists. There is a tendency for the image portion 134 to be extracted. That is, a point where the density of candidate image portions 134 (the number n of candidate image portions 134 per predetermined section in the Y-axis direction) exceeds a threshold value can be evaluated as having a high possibility of a pedestrian.

図7は、図6に示す撮像画像132から抽出された候補画像部分134の位置がマッピングされた座標系の一例を示す図である。例えば、撮像画像132において歩行者が存在する地点に対応する座標A付近には、他の座標に比して候補画像部分134が多く抽出される。   FIG. 7 is a diagram illustrating an example of a coordinate system in which the position of the candidate image portion 134 extracted from the captured image 132 illustrated in FIG. 6 is mapped. For example, a large number of candidate image portions 134 are extracted in the vicinity of the coordinate A corresponding to the point where the pedestrian is present in the captured image 132 as compared with other coordinates.

図8は、判定領域RのY軸方向における候補画像部分134の分布の他の例を示す図である。図8に示す分布は、図7においてマッピングされた候補画像部分134に対応する。図示のように、選択した判定領域R内に歩行者が存在する場合、候補画像部分134の数がY軸方向のある地点において突出する傾向があり、候補画像部分134の分散が小さくなりやすい。すなわち、判定領域R内に歩行者が存在する場合、候補画像部分134の分散が閾値未満となりやすい。   FIG. 8 is a diagram illustrating another example of the distribution of the candidate image portion 134 in the Y-axis direction of the determination region R. The distribution shown in FIG. 8 corresponds to the candidate image portion 134 mapped in FIG. As shown in the figure, when a pedestrian exists in the selected determination region R, the number of candidate image portions 134 tends to protrude at a certain point in the Y-axis direction, and the dispersion of the candidate image portions 134 tends to be small. That is, when a pedestrian is present in the determination region R, the variance of the candidate image portion 134 tends to be less than the threshold value.

処理対象設定部118は、S112の処理において、候補画像部分134の分散が閾値未満であると判定した場合、経過時間閾値Tthを、所定時間Tを拡張した時間T+αに設定する(ステップS116)。拡張分の時間αは、経過時間閾値Tthを、候補画像部分134の分散が閾値を超える地点(候補画像部分134が密集している地点)を自車両Mが通過可能な程度の時間に拡張する。拡張分の時間αは、例えば、予め定められた時間であってもよいし、ある基準時間から自車両Mの車速が増加するのに応じて減少し、自車両Mの車速が減少するのに応じて増加するような時間であってもよい。   If the process target setting unit 118 determines in step S112 that the variance of the candidate image portion 134 is less than the threshold, the process target setting unit 118 sets the elapsed time threshold Tth to a time T + α that is an extension of the predetermined time T (step S116). For the extended time α, the elapsed time threshold Tth is extended to a time at which the host vehicle M can pass the point where the variance of the candidate image portion 134 exceeds the threshold (the point where the candidate image portions 134 are densely packed). . The extended time α may be, for example, a predetermined time, or decreases as the vehicle speed of the host vehicle M increases from a certain reference time, and the vehicle speed of the host vehicle M decreases. The time may be increased accordingly.

例えば、候補画像部分134の分散が閾値未満である場合、判定領域R内に歩行者が存在している可能性が高いと判断することができため、後述する歩行者画像識別部122による認識処理によって、候補画像部分134の数nが突出している地点(すなわち歩行者が存在する可能性が高い地点)に歩行者が存在しているか否かが認識されるまでは、判定領域R内の候補画像部分134を処理対象から一律に除外せずに、その地点まで継続して候補画像部分134が歩行者であるのかどうかを認識し続けることが好ましい。従って、所定時間T、あるいは所定時間Tを拡張した時間T+αが経過するまでの間は、判定領域R内の候補画像部分134を処理対象から除外せずに、候補画像部分134が歩行者であるのかどうかを認識し続けることが必要となる。   For example, when the variance of the candidate image portion 134 is less than the threshold value, it can be determined that there is a high possibility that a pedestrian is present in the determination region R. Therefore, a recognition process performed by the pedestrian image identification unit 122 described below. Until it is recognized whether or not there is a pedestrian at a point where the number n of candidate image portions 134 protrudes (that is, a point where there is a high possibility that a pedestrian is present). It is preferable to continue to recognize whether the candidate image portion 134 is a pedestrian without continuing to exclude the image portion 134 from the processing target uniformly. Accordingly, the candidate image portion 134 is a pedestrian without excluding the candidate image portion 134 in the determination region R from the processing target until the predetermined time T or the time T + α obtained by extending the predetermined time T elapses. It is necessary to continue to recognize whether or not.

例えば、処理対象設定部118は、記憶部130に格納された制限時間設定用情報140を参照して、自車両Mの速度Vに応じて経過時間閾値Tthを設定し、時間のカウントを開始する。図9は、制限時間設定用情報140の一例を示す図である。制限時間設定用情報140は、経過時間閾値Tthと自車両Mの速度Vとの関係を示した情報であり、例えば、テーブルやマップ、数式などによって表される。図示のように、経過時間閾値Tthは、自車両Mの速度Vが増加するのに応じて減少する傾向を有している。従って、処理対象設定部118は、自車両Mの速度Vが大きいほど経過時間閾値Tthを短く設定する。   For example, the processing target setting unit 118 refers to the time limit setting information 140 stored in the storage unit 130, sets the elapsed time threshold Tth according to the speed V of the host vehicle M, and starts counting time. . FIG. 9 is a diagram illustrating an example of the time limit setting information 140. The time limit setting information 140 is information indicating the relationship between the elapsed time threshold value Tth and the speed V of the host vehicle M, and is represented by, for example, a table, a map, a mathematical expression, or the like. As illustrated, the elapsed time threshold value Tth has a tendency to decrease as the speed V of the host vehicle M increases. Therefore, the process target setting unit 118 sets the elapsed time threshold Tth to be shorter as the speed V of the host vehicle M is higher.

次に、処理対象設定部118は、経過時間tが、TまたはT+αに設定した経過時間閾値Tth以上となるか否かを判定する(ステップS118)。経過時間tは、例えば、本フローチャートの処理が開始された時刻から現時刻までに経過した時間である。   Next, the processing target setting unit 118 determines whether or not the elapsed time t is equal to or greater than the elapsed time threshold Tth set to T or T + α (step S118). The elapsed time t is, for example, the time elapsed from the time when the processing of this flowchart is started to the current time.

処理対象設定部118は、経過時間tが経過時間閾値Tth以上となる場合、判定領域R内において抽出されている候補画像部分134が、歩行者が存在する領域である可能性が低いと判断して、候補画像部分判定部120により選択された判定領域R内の候補画像部分134を処理対象から除外する(ステップS120)。これによって、候補画像部分判定部120により選択された判定領域Rに含まれる候補画像部分134は、後述する歩行者画像識別部122の処理対象から除外されることになる。なお、処理対象設定部118は、判定領域R内に含まれる全ての候補画像部分134を処理対象から除外してもよいし、一部の候補画像部分134を処理対象から除外してもよい。一部の候補画像部分134は、例えば、判定領域Rにおいて、自車両Mに近い候補画像部分134である。これによって、例えば、除外対象の候補画像部分134であっても、自車両Mからの距離が遠く、処理時間に余裕がある場合には、歩行者画像識別部122の処理対象に含めることができる。   When the elapsed time t is equal to or greater than the elapsed time threshold Tth, the processing target setting unit 118 determines that the candidate image portion 134 extracted in the determination region R is unlikely to be a region where a pedestrian exists. Then, the candidate image portion 134 in the determination region R selected by the candidate image portion determination unit 120 is excluded from the processing target (step S120). As a result, the candidate image portion 134 included in the determination region R selected by the candidate image portion determination unit 120 is excluded from the processing target of the pedestrian image identification unit 122 described later. Note that the processing target setting unit 118 may exclude all candidate image portions 134 included in the determination region R from the processing target, or may exclude some candidate image portions 134 from the processing target. Some candidate image portions 134 are, for example, candidate image portions 134 close to the host vehicle M in the determination region R. Thereby, for example, even if the candidate image portion 134 to be excluded is included in the processing target of the pedestrian image identification unit 122 when the distance from the host vehicle M is long and the processing time is sufficient. .

一方、処理対象設定部118は、経過時間tが経過時間閾値Tth未満となる場合、上述したS110の処理に移り、候補画像部分判定部120により選択された判定領域Rに属する全ての候補画像部分134を、歩行者画像識別部122の処理対象に設定する。これによって、経過時間閾値Tthが経過するまでの間は、判定領域R内の候補画像部分134を処理対象から除外せずに、候補画像部分134が歩行者であるのかどうかを認識し続けることになる。   On the other hand, when the elapsed time t is less than the elapsed time threshold Tth, the processing target setting unit 118 proceeds to the process of S110 described above, and all candidate image parts belonging to the determination region R selected by the candidate image part determination unit 120 134 is set as a processing target of the pedestrian image identification unit 122. Thus, until the elapsed time threshold value Tth elapses, the candidate image portion 134 in the determination region R is not excluded from the processing target, and it is continuously recognized whether the candidate image portion 134 is a pedestrian. Become.

なお、上述した処理において、経過時間閾値Tthとして、所定時間Tと、所定時間Tを拡張した時間T+αとを用いることとしたが、この限りではなく、拡張分の時間+αを用いずに所定時間Tのみを用いることとしても良い。具体的にはS112の処理で候補画像部分134の分散が閾値未満となる場合はS114とS118との処理をスキップしてS120の処理を行い、候補画像部分134の分散が閾値以上となる場合はS116にて経過時間閾値Tthを所定時間Tに設定してS118の処理にて経過時間閾値Tthが経過したかどうかを判定することとしても良い。   In the above-described processing, the predetermined time T and the time T + α obtained by extending the predetermined time T are used as the elapsed time threshold Tth. However, the present invention is not limited to this, and the predetermined time without using the extended time + α. Only T may be used. Specifically, when the variance of the candidate image portion 134 is less than the threshold in the processing of S112, the processing of S114 and S118 is skipped and the processing of S120 is performed, and the variance of the candidate image portion 134 is greater than or equal to the threshold. The elapsed time threshold value Tth may be set to the predetermined time T in S116, and it may be determined whether or not the elapsed time threshold value Tth has elapsed in the process of S118.

次に、処理対象設定部118は、設定した全ての判定領域Rについて、その判定領域Rに属する候補画像部分134を処理対象から除外する、または処理対象とする処理を行ったかどうかを判定する(ステップS122)。処理対象設定部118は、全ての判定領域Rについて、その判定領域Rに属する候補画像部分134を処理対象から除外、または処理対象とする処理を行っていない場合、上述したS106に処理を移し、未だ選択していない判定領域Rを着目する判定領域として選択する。   Next, the processing target setting unit 118 determines whether or not the candidate image portion 134 belonging to the determination region R is excluded from the processing target or the processing target processing has been performed for all the set determination regions R ( Step S122). When the processing target setting unit 118 does not perform processing for excluding or setting candidate image portions 134 belonging to the determination region R as processing targets for all the determination regions R, the processing target setting unit 118 moves the process to S106 described above. A determination area R that has not yet been selected is selected as a determination area of interest.

一方、全ての判定領域Rについて処理が行われた場合、歩行者画像識別部122は、歩行者用マッチングデータ138を用いることで、処理対象設定部118により設定された処理対象の候補画像部分134について、歩行者の画像部分を含むか否かを識別する歩行者識別処理を行う(ステップS124)。歩行者の画像部分とは、その画像部分に含まれる特徴箇所に基づいて推定可能な物体が歩行者を表していると定めることが可能な画像上の領域である。   On the other hand, when the processing is performed for all the determination regions R, the pedestrian image identification unit 122 uses the pedestrian matching data 138 to set the candidate image portion 134 to be processed set by the processing target setting unit 118. , A pedestrian identification process for identifying whether or not the image includes a pedestrian image portion is performed (step S124). The image part of the pedestrian is an area on the image that can be determined that the object that can be estimated based on the characteristic part included in the image part represents the pedestrian.

例えば、歩行者画像識別部122は、処理対象の候補画像部分134から、歩行者用マッチングデータ138に含まれる形状データに合致する特徴箇所を有する候補画像部分134を選択する。すなわち、歩行者画像識別部122は、候補画像部分抽出部114の処理において参照される簡易マッチングデータ136よりも更に詳細な(例えばマッチングをとる特徴箇所の数が数倍多い)歩行者用マッチングデータ138を用いることで、処理対象の候補画像部分134の中から、歩行者の画像部分を含む候補画像部分134を選択する。歩行者画像識別部122および歩行者向き判別部124は、「認識部」の一例である。   For example, the pedestrian image identification unit 122 selects a candidate image portion 134 having a characteristic location that matches the shape data included in the pedestrian matching data 138 from the candidate image portions 134 to be processed. In other words, the pedestrian image identification unit 122 is more detailed than the simple matching data 136 referred to in the processing of the candidate image part extraction unit 114 (for example, the number of feature points to be matched is several times larger). By using 138, the candidate image portion 134 including the pedestrian image portion is selected from the candidate image portions 134 to be processed. The pedestrian image identification unit 122 and the pedestrian orientation determination unit 124 are examples of a “recognition unit”.

歩行者向き判別部124は、歩行者画像識別部122により選択された各候補画像部分134について、歩行者の向きを判別する(ステップS126)。例えば、歩行者向き判別部124は、歩行者の画像部分から、歩行者の姿勢、または頭部や四肢の向きを導出し、その姿勢や身体の部位の向きに基づいて、歩行者の向きを判別する。なお、処理対象の複数の候補画像部分134のうち、歩行者画像識別部122により歩行者の画像部分を含む候補画像部分134が選択されない場合、本フローチャートの処理は終了する。   The pedestrian orientation determination unit 124 determines the pedestrian orientation of each candidate image portion 134 selected by the pedestrian image identification unit 122 (step S126). For example, the pedestrian orientation determination unit 124 derives the pedestrian's posture, or the orientation of the head or limbs from the pedestrian's image portion, and determines the pedestrian's orientation based on the posture or the orientation of the body part. Determine. When the candidate image portion 134 including the pedestrian image portion is not selected by the pedestrian image identification unit 122 among the plurality of candidate image portions 134 to be processed, the processing of this flowchart ends.

回避判定部126は、歩行者向き判別部124により判別された歩行者の向きに応じて、歩行者が回避すべき回避対象物であるか否かを判定する(ステップS128)。例えば、回避判定部126は、歩行者の向きが自車両Mに近づく方向である場合、或いは、自車両Mが走行する走行車線の中央などで歩行者が静止している場合、歩行者を回避対象物と判定する。   The avoidance determination unit 126 determines whether or not the pedestrian is to be avoided according to the direction of the pedestrian determined by the pedestrian direction determination unit 124 (step S128). For example, the avoidance determination unit 126 avoids the pedestrian when the direction of the pedestrian is a direction approaching the own vehicle M or when the pedestrian is stationary in the center of the traveling lane on which the own vehicle M is traveling. Judge as an object.

警報出力部128は、回避判定部126により歩行者が回避対象物であると判定された場合、車内のスピーカや表示装置を用いて、運転者に回避を促す警報を出力する(ステップS130)。これによって、本フローチャートの処理が終了する。   When the avoidance determination unit 126 determines that the pedestrian is an avoidance target, the alarm output unit 128 outputs an alarm that prompts the driver to avoid using the in-vehicle speaker or the display device (step S130). Thereby, the process of this flowchart is complete | finished.

図10は、候補画像部分134の分散に応じて候補画像部分134を処理対象から除外する様子を模式的に示す図である。図中(a)は、候補画像部分134の分散が閾値以上である場面を表しており、(b)は、候補画像部分134の分散が閾値未満である場面を表している。例えば、(a)の場面では、判定領域Rに属する候補画像部分134の数nが所定数k以上であると判定されてから経過時間閾値Tth以上の時間が経過した地点P1以降において、判定領域Rに属する候補画像部分134が処理対象から除外されることになる。この結果、歩行者の認識処理の対象となる候補画像部分134が少なくなるため、歩行者認識に要する時間を短縮することができる。また、(b)の場面では、歩行者が存在する可能性が高い地点Aをある程度通過した地点P2まで歩行者認識を継続するため、自車両Mをより安全に走行させることができる。   FIG. 10 is a diagram schematically illustrating a state in which the candidate image portion 134 is excluded from the processing target according to the distribution of the candidate image portion 134. In the figure, (a) represents a scene where the variance of the candidate image portion 134 is greater than or equal to the threshold, and (b) represents a scene where the variance of the candidate image portion 134 is less than the threshold. For example, in the scene of (a), after the point P1 at which time equal to or greater than the elapsed time threshold Tth has elapsed since it was determined that the number n of candidate image portions 134 belonging to the determination region R is a predetermined number k or more, the determination region The candidate image portion 134 belonging to R is excluded from the processing target. As a result, the number of candidate image portions 134 to be subjected to pedestrian recognition processing is reduced, so that the time required for pedestrian recognition can be shortened. Moreover, in the scene of (b), since pedestrian recognition is continued to the point P2 which passed the point A with a high possibility that a pedestrian exists to some extent, the own vehicle M can be drive | worked more safely.

尚、(a)(b)ではすべての除外領域で地点P1、P2以降を除外としているが、実際は除外領域毎に所定数kを超えてからの経過時間が経過時間閾値Tthを超えたか判定していることから、除外タイミングは各所帯領域毎に異なる。   In (a) and (b), points P1 and P2 and subsequent points are excluded in all excluded areas, but it is actually determined whether the elapsed time after exceeding a predetermined number k for each excluded area exceeds the elapsed time threshold value Tth. Therefore, the exclusion timing is different for each household area.

また、(b)では地点A以降を除外としているが、P1からAまでの領域も除外するようにしても良い。この場合、経過時間閾値Tthを用いた処理ではなく、判定領域Rを距離方向に複数に分割し、候補画像部分134が密集している部分に当たる領域のみ制御対象とするといった制御を行うことになる。尚、この処理はP1からAまでの領域も除外するために用いるに限らず、経過時間閾値Tthを用いた処理に替えて採用可能である。   Further, in (b), the area after the point A is excluded, but the area from P1 to A may also be excluded. In this case, instead of processing using the elapsed time threshold value Tth, control is performed such that the determination region R is divided into a plurality of regions in the distance direction, and only the region corresponding to the portion where the candidate image portions 134 are concentrated is set as a control target. . Note that this processing is not limited to use for excluding the region from P1 to A, but can be used instead of the processing using the elapsed time threshold value Tth.

以上説明した実施形態における物体認識装置100によれば、判定領域Rに属する候補画像部分134の数nが所定数k未満である場合に、判定領域Rに属する候補画像部分134を処理対象とし、判定領域Rに属する候補画像部分134の数nが所定数k以上である場合に、判定領域Rに属する候補画像部分134の分散が閾値以上である場合、判定領域Rに属する候補画像部分134を処理対象から除外し、判定領域Rに属する候補画像部分134の分散が閾値未満である場合、判定領域Rに属する候補画像部分134を処理対象から除外せずに認識対象とすることにより、物体が存在するであろう領域に絞って優先的に処理を行うにあたって、領域を絞る際に過剰に領域を除外してしまうことを抑制することができる。   According to the object recognition device 100 in the embodiment described above, when the number n of candidate image portions 134 belonging to the determination region R is less than a predetermined number k, the candidate image portions 134 belonging to the determination region R are set as processing targets. When the number n of candidate image portions 134 belonging to the determination region R is equal to or greater than a predetermined number k, if the variance of the candidate image portions 134 belonging to the determination region R is equal to or greater than a threshold, the candidate image portions 134 belonging to the determination region R are When the variance of the candidate image portion 134 belonging to the determination region R is excluded from the processing target and the variance of the candidate image portion 134 belonging to the determination region R is less than the threshold value, the candidate image portion 134 belonging to the determination region R is not excluded from the processing target and is set as the recognition target. When processing is preferentially performed by narrowing down a region that will exist, it is possible to suppress excessive exclusion of the region when narrowing down the region.

また、上述した実施形態における物体認識装置100によれば、判定領域Rに属する候補画像部分134の分散が閾値未満である場合に、歩行者が存在する可能性が高い地点を自車両Mが通過するまでの期間、判定領域Rに属する候補画像部分134を処理対象とし続けることにより、物体の認識における精度を向上させることができ、自車両Mをより安全に走行させることができる。   Further, according to the object recognition device 100 in the above-described embodiment, when the variance of the candidate image portion 134 belonging to the determination region R is less than the threshold, the host vehicle M passes through a point where there is a high possibility that a pedestrian exists. By continuing the candidate image portion 134 belonging to the determination region R as a processing target until the period until the determination is made, the accuracy in object recognition can be improved, and the host vehicle M can be driven more safely.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

100…物体認識装置、102…カメラ、110…制御部、112…画像取得部、114…候補画像部分抽出部、116…距離算出部、118…処理対象設定部、120…候補画像部分判定部、122…歩行者画像識別部、124…歩行者向き判別部、126…回避判定部、128…警報出力部、130…記憶部、132…撮像画像、134…候補画像部分、136…簡易マッチングデータ、138…歩行者用マッチングデータ、140…制限時間設定用情報 DESCRIPTION OF SYMBOLS 100 ... Object recognition apparatus, 102 ... Camera, 110 ... Control part, 112 ... Image acquisition part, 114 ... Candidate image part extraction part, 116 ... Distance calculation part, 118 ... Processing target setting part, 120 ... Candidate image part determination part, 122: Pedestrian image identification unit, 124 ... Pedestrian orientation determination unit, 126 ... Avoidance determination unit, 128 ... Alarm output unit, 130 ... Storage unit, 132 ... Captured image, 134 ... Candidate image portion, 136 ... Simple matching data, 138 ... Pedestrian matching data, 140 ... Time limit setting information

Claims (5)

車両の周辺の物標を検出する検出部と、
前記検出部により検出された物標に基づいて物体を認識する認識部と、
前記検出部により検出された物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を前記認識部による認識対象から除外する処理対象設定部と、を備え、
前記処理対象設定部は、
前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、前記認識部による認識対象から除外せずに認識対象とする、
物体認識装置。
A detection unit for detecting a target around the vehicle;
A recognition unit for recognizing an object based on the target detected by the detection unit;
Among the targets detected by the detection unit, when the number of targets in a target group including one or more targets detected along the traveling direction of the vehicle is equal to or greater than a predetermined number, A processing target setting unit that excludes targets included in the target group from recognition targets by the recognition unit,
The processing target setting unit
When the number of targets in the target group is equal to or greater than a predetermined number, and when the degree of variation in the target group is less than a threshold, the target included in the target group is recognized as the recognition target. To be recognized without being excluded from recognition by
Object recognition device.
前記処理対象設定部は、前記物標グループにおける物標のばらつきの度合が閾値以下である場合に、前記物標グループに含まれる物標の位置を前記車両が通過するまでの期間、前記物標グループに含まれる物標を前記認識部による認識対象とし続ける、
請求項1に記載の物体認識装置。
The processing target setting unit includes a period of time until the vehicle passes the position of the target included in the target group when the degree of variation of the target in the target group is a threshold value or less. Continue to include targets included in the group as recognition targets by the recognition unit.
The object recognition apparatus according to claim 1.
車両の前方を撮像するカメラと、
前記カメラにより撮像された画像から、物体として認識され得る特徴箇所を抽出する抽出部と、
前記抽出部により抽出された特徴箇所に基づいて前記画像上で物体を認識する認識部と、
前記抽出部により前記画像の奥行き方向に沿って抽出された一または複数の特徴箇所を含む特徴箇所グループに含まれる特徴箇所の数が所定数以上である場合に、前記特徴箇所グループに含まれる特徴箇所を前記認識部による認識対象から除外する処理対象設定部と、を備え、
前記処理対象設定部は、
前記特徴箇所グループに含まれる特徴箇所の数が所定数以上である場合に、更に前記特徴箇所グループに含まれる特徴箇所のばらつきの度合が閾値未満である場合、前記特徴箇所グループに含まれる特徴箇所を、前記認識部による認識対象から除外せずに認識対象とする、
物体認識装置。
A camera that images the front of the vehicle;
An extraction unit that extracts a feature location that can be recognized as an object from an image captured by the camera;
A recognition unit for recognizing an object on the image based on the feature location extracted by the extraction unit;
Features included in the feature location group when the number of feature locations included in the feature location group including one or more feature locations extracted along the depth direction of the image by the extraction unit is a predetermined number or more. A processing target setting unit that excludes a part from a recognition target by the recognition unit,
The processing target setting unit
When the number of feature locations included in the feature location group is equal to or greater than a predetermined number, and further when the degree of variation of the feature locations included in the feature location group is less than a threshold value, the feature locations included in the feature location group , As a recognition target without excluding from the recognition target by the recognition unit,
Object recognition device.
車載コンピュータが、
車両の周辺の物標を検出し、
前記検出した物標を物体として認識し、
前記検出した物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を認識対象から除外し、
前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、認識対象から除外せずに認識対象とする、
物体認識方法。
In-vehicle computer
Detect targets around the vehicle,
Recognizing the detected target as an object,
Among the detected targets, when the number of targets in the target group including one or more targets detected along the traveling direction of the vehicle is a predetermined number or more, included in the target group Target to be recognized,
When the number of targets in the target group is equal to or greater than a predetermined number, and the degree of variation of the target in the target group is less than a threshold, the targets included in the target group are recognized To be recognized without being excluded from
Object recognition method.
車載コンピュータに、
車両の周辺の物標を検出させ、
前記検出させた物標を物体として認識させ、
前記検出させた物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を認識対象から除外させ、
前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、認識対象から除外させずに認識対象とさせる、
物体認識プログラム。
On-board computer
Detect targets around the vehicle,
Recognizing the detected target as an object,
Among the detected targets, when the number of targets in the target group including one or more targets detected along the traveling direction of the vehicle is a predetermined number or more, the target group Excluding included targets from recognition,
When the number of targets in the target group is equal to or greater than a predetermined number, and the degree of variation of the target in the target group is less than a threshold, the targets included in the target group are recognized Make it a recognition target without excluding it from
Object recognition program.
JP2016176747A 2016-09-09 2016-09-09 Object recognition apparatus, object recognition method, and object recognition program Active JP6354963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016176747A JP6354963B2 (en) 2016-09-09 2016-09-09 Object recognition apparatus, object recognition method, and object recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016176747A JP6354963B2 (en) 2016-09-09 2016-09-09 Object recognition apparatus, object recognition method, and object recognition program

Publications (2)

Publication Number Publication Date
JP2018041396A true JP2018041396A (en) 2018-03-15
JP6354963B2 JP6354963B2 (en) 2018-07-11

Family

ID=61626110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016176747A Active JP6354963B2 (en) 2016-09-09 2016-09-09 Object recognition apparatus, object recognition method, and object recognition program

Country Status (1)

Country Link
JP (1) JP6354963B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115147689A (en) * 2021-03-29 2022-10-04 本田技研工业株式会社 Identification device, vehicle system, identification method, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04137014A (en) * 1990-09-28 1992-05-12 Mazda Motor Corp Traveling path terminal detector for mobile vehicle
JP2010205175A (en) * 2009-03-05 2010-09-16 Nissan Motor Co Ltd Lane recognition device and method
JP2015204017A (en) * 2014-04-15 2015-11-16 日産自動車株式会社 Lane recognition apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04137014A (en) * 1990-09-28 1992-05-12 Mazda Motor Corp Traveling path terminal detector for mobile vehicle
JP2010205175A (en) * 2009-03-05 2010-09-16 Nissan Motor Co Ltd Lane recognition device and method
JP2015204017A (en) * 2014-04-15 2015-11-16 日産自動車株式会社 Lane recognition apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115147689A (en) * 2021-03-29 2022-10-04 本田技研工业株式会社 Identification device, vehicle system, identification method, and storage medium

Also Published As

Publication number Publication date
JP6354963B2 (en) 2018-07-11

Similar Documents

Publication Publication Date Title
JP6163453B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP6819996B2 (en) Traffic signal recognition method and traffic signal recognition device
US9971946B2 (en) Traveling road surface detection device and traveling road surface detection method
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
JP6087858B2 (en) Traveling lane marking recognition device and traveling lane marking recognition program
CN106183979A (en) A kind of method and apparatus vehicle reminded according to spacing
US9508000B2 (en) Object recognition apparatus
JP2015225546A (en) Object detection device, drive support apparatus, object detection method, and object detection program
JP2009053818A (en) Image processor and method thereof
US20150243169A1 (en) Traffic lane situation determining device and method for determining traffic lane situation
JP6483360B2 (en) Object recognition device
JP2009301495A (en) Image processor and image processing method
JP2016018521A (en) Travel zone line recognition device and program
JP6241172B2 (en) Vehicle position estimation device and vehicle position estimation method
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP6354963B2 (en) Object recognition apparatus, object recognition method, and object recognition program
EP3410345A1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
KR101603293B1 (en) Lane recognition method
JP5345999B2 (en) Lane mark recognition device
JP5464073B2 (en) Outside environment recognition device, outside environment recognition method
JP2019109681A (en) Compartment line specification device
JP6287683B2 (en) Road curvature detection device
US20180181821A1 (en) Recognition device
JP6677142B2 (en) Parking frame recognition device
JP6343862B2 (en) Object recognition apparatus, object recognition method, and object recognition program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180529

R150 Certificate of patent or registration of utility model

Ref document number: 6354963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150