JP5617819B2 - Pedestrian recognition device - Google Patents

Pedestrian recognition device Download PDF

Info

Publication number
JP5617819B2
JP5617819B2 JP2011237768A JP2011237768A JP5617819B2 JP 5617819 B2 JP5617819 B2 JP 5617819B2 JP 2011237768 A JP2011237768 A JP 2011237768A JP 2011237768 A JP2011237768 A JP 2011237768A JP 5617819 B2 JP5617819 B2 JP 5617819B2
Authority
JP
Japan
Prior art keywords
pedestrian
contour line
contour
image
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011237768A
Other languages
Japanese (ja)
Other versions
JP2013097459A (en
Inventor
雅成 高木
雅成 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011237768A priority Critical patent/JP5617819B2/en
Publication of JP2013097459A publication Critical patent/JP2013097459A/en
Application granted granted Critical
Publication of JP5617819B2 publication Critical patent/JP5617819B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)

Description

本発明は、歩行者の認識を行う歩行者認識装置に関するものである。   The present invention relates to a pedestrian recognition device that recognizes a pedestrian.

従来、撮像画像中の歩行者の認識を行う技術が知られている。例えば特許文献1及び非特許文献1には、歩行者の全身についての全体識別器と歩行者の頭部や下半身といった部分領域についての複数の部分識別器とを2段階で用いることで、撮像画像中の歩行者を認識する技術が開示されている。また、特許文献1及び非特許文献1には、歩行者に特徴的な、左右の脚部からなる輪郭が逆Vの字形となった歩行パターン(gait pattern)を識別する部分識別器を用いることで、歩行者の認識の精度をより向上させることが提案されている。   Conventionally, a technique for recognizing a pedestrian in a captured image is known. For example, in Patent Document 1 and Non-Patent Document 1, a captured image is obtained by using an overall classifier for the pedestrian's whole body and a plurality of partial classifiers for partial areas such as the pedestrian's head and lower body in two stages. A technique for recognizing a pedestrian inside is disclosed. Patent Document 1 and Non-Patent Document 1 use a partial identifier that identifies a walking pattern (gait pattern) that is characteristic of a pedestrian and has an inverted V-shaped contour composed of left and right legs. Thus, it has been proposed to further improve the accuracy of pedestrian recognition.

特許文献1及び非特許文献1に開示の技術のように、左右の脚部からなる輪郭が逆Vの字形となった歩行パターン(以下、逆Vの字歩行パターン)を認識する部分識別器を用いることで、上半身が画像上で確認できない状況下における歩行者も認識可能になると考えられる。上半身が画像上で確認できない状況としては、例えば障害物によって上半身が隠れている場合や光の加減で上半身が画像に写っていない場合などがある。   As in the techniques disclosed in Patent Document 1 and Non-Patent Document 1, a partial discriminator that recognizes a walking pattern (hereinafter referred to as an inverted V-shaped walking pattern) having an inverted V-shaped contour composed of left and right legs. By using it, it is considered that a pedestrian in a situation where the upper body cannot be confirmed on the image can be recognized. The situation in which the upper body cannot be confirmed on the image includes, for example, the case where the upper body is hidden by an obstacle or the case where the upper body is not shown in the image due to light adjustment.

米国特許出願公開第2007/0230792号明細書US Patent Application Publication No. 2007/0230792

Shashua, A、他2名、“Pedestrian detection for driving assistance systems: single-frame classification and system level performance”、Intelligent Vehicles Symposium, 2004 IEEE、14-17 June 2004、p.1−6Shashua, A and two others, “Pedestrian detection for driving assistance systems: single-frame classification and system level performance”, Intelligent Vehicles Symposium, 2004 IEEE, 14-17 June 2004, p.1-6

しかしながら、特許文献1及び非特許文献1に開示の技術でも、上半身が画像上で確認できない状況下における歩行者の認識の精度を十分に向上させることができないという問題を有していた。詳しくは、以下の通りである。特許文献1及び非特許文献1に開示の技術では、逆Vの字歩行パターンを識別することで、上半身が画像上で確認できない状況下における歩行者の認識を試みているが、撮像画像中において、歩行者の左右の脚部からなる輪郭が逆Vの字形とならない場合も多々存在する。   However, even the techniques disclosed in Patent Literature 1 and Non-Patent Literature 1 have a problem in that the accuracy of pedestrian recognition cannot be sufficiently improved in a situation where the upper body cannot be confirmed on the image. Details are as follows. In the techniques disclosed in Patent Literature 1 and Non-Patent Literature 1, by identifying a reverse V-shaped walking pattern, an attempt is made to recognize a pedestrian in a situation where the upper body cannot be confirmed on the image. There are many cases in which the contour formed by the left and right leg portions of the pedestrian does not have an inverted V shape.

例えば、歩行者の上半身から股下よりも下部の位置までが障害物によって遮られていると、歩行者の左右の脚部からなる輪郭が逆Vの字形とはならない。障害物の例としては、歩行者がさしている傘や歩行者の持っている手荷物、歩行者が着用しているスカート等が考えられる。また、光の加減で歩行者の股下よりも下部の位置しか写っていない場合にも、歩行者の左右の脚部からなる輪郭は逆Vの字形とならない。   For example, when the pedestrian's upper body to the position below the crotch is obstructed by an obstacle, the contour formed by the left and right legs of the pedestrian does not have an inverted V shape. As an example of an obstacle, the umbrella which a pedestrian is pointing to, the baggage which a pedestrian has, the skirt which a pedestrian wears, etc. can be considered. In addition, even when only the position below the pedestrian's inseam is shown due to light adjustment, the contour formed by the left and right leg portions of the pedestrian does not have an inverted V shape.

このように歩行者の左右の脚部からなる輪郭が逆Vの字形とならない場合には、特許文献1及び非特許文献1に開示の技術では部分識別器で識別されず、歩行者を認識できない。よって、歩行者の左右の脚部からなる輪郭が逆Vの字形とならない場合には、上半身が画像上で確認できない状況下における歩行者を認識することができない。   In this way, when the contour formed by the left and right legs of the pedestrian does not have an inverted V shape, the technique disclosed in Patent Literature 1 and Non-Patent Literature 1 is not identified by the partial classifier and cannot recognize the pedestrian. . Therefore, when the contour formed by the left and right legs of the pedestrian does not have an inverted V shape, the pedestrian cannot be recognized in a situation where the upper body cannot be confirmed on the image.

本発明は、上記従来の問題点に鑑みなされたものであって、その目的は、上半身が画像上で確認できない状況下おける歩行者の認識の精度をさらに向上させることを可能にする歩行者認識装置を提供することにある。   The present invention has been made in view of the above-described conventional problems, and the object thereof is pedestrian recognition that makes it possible to further improve the accuracy of pedestrian recognition in situations where the upper body cannot be confirmed on the image. To provide an apparatus.

請求項1の歩行者認識装置では、撮像画像中の右斜めに傾いた第1輪郭線、左斜めに傾いた第2輪郭線、及び当該第1輪郭線の上端と当該第2輪郭線の上端とを結ぶ第3輪郭線からなる台形状の輪郭形状(以下、台形輪郭形状)をもとに、撮像画像から検出した歩行者候補が歩行者であるか否かを判定して歩行者の認識を行う。この台形輪郭形状は、歩行者の上半身から股下よりも下部の位置までが障害物によって遮られている場合や光の加減で歩行者の股下よりも下部の位置しか写っていない場合のように、歩行者の左右の脚部が股下よりも下部の位置からしか写っていない場合に検出される。詳しくは、歩行者の左右の脚部の輪郭線が第1輪郭線及び第2輪郭線として抽出され、光の加減によって生じる明暗の境界や上記障害物の輪郭線が第3輪郭線として抽出される。   In the pedestrian recognition apparatus according to claim 1, the first contour line tilted rightward in the captured image, the second contour line tilted diagonally left, and the upper end of the first contour line and the upper end of the second contour line Pedestrian recognition by determining whether or not a pedestrian candidate detected from a captured image is a pedestrian based on a trapezoidal contour shape (hereinafter referred to as a trapezoidal contour shape) consisting of a third contour line connecting I do. This trapezoidal contour shape, such as when the upper part of the pedestrian to the lower part of the crotch is blocked by an obstacle, or when only the lower part of the pedestrian's inseam is reflected by the light, Detected when the left and right legs of the pedestrian are only visible from a position below the crotch. Specifically, the contour lines of the left and right legs of the pedestrian are extracted as the first contour line and the second contour line, and the light and dark boundary caused by light adjustment and the contour line of the obstacle are extracted as the third contour line. The

よって、この台形輪郭形状をもとにすれば、歩行者の左右の脚部が股下よりも下部の位置からしか写っておらず、撮像画像中において歩行者の左右の脚部からなる輪郭が逆Vの字形とならない場合にも、歩行者候補が歩行者であるか否かを精度良く判定して歩行者の認識を行うことが可能になる。従って、請求項1の構成によれば、撮像画像中における歩行者の左右の脚部からなる輪郭が逆Vの字形とならない場合にも、上半身が画像上で確認できない状況下における歩行者を認識することが可能となる。その結果、上半身が画像上で確認できない状況下おける歩行者の認識の精度をさらに向上させることが可能になる。   Therefore, based on this trapezoidal outline shape, the left and right legs of the pedestrian are only visible from the position below the crotch, and the outline of the left and right legs of the pedestrian is reversed in the captured image. Even when the V shape is not obtained, it is possible to accurately determine whether or not the pedestrian candidate is a pedestrian and recognize the pedestrian. Therefore, according to the configuration of claim 1, even when the contour formed by the left and right legs of the pedestrian in the captured image does not have an inverted V shape, the pedestrian is recognized in a situation where the upper body cannot be confirmed on the image. It becomes possible to do. As a result, it is possible to further improve the accuracy of pedestrian recognition in situations where the upper body cannot be confirmed on the image.

請求項2のように、輪郭形状検出手段で台形輪郭形状の検出を行うことができた各撮像画像をもとに、台形輪郭形状のうちの第1輪郭線の下端と第2輪郭線の下端との間の間隔である下端幅の時間的な変化を示す値を算出する態様としてもよい。これによれば、上記下端幅の時間的な変化を示す値を、歩行者の認識に利用することが可能になる。なお、下端幅の時間的な変化を示す値とは、例えば下端幅の時間あたりの変化量や下端幅の変化の周期の値などである。   The lower end of the first contour line and the lower end of the second contour line in the trapezoidal contour shape based on each captured image in which the trapezoidal contour shape can be detected by the contour shape detecting means as in claim 2. It is good also as a mode which calculates the value which shows the time change of the lower end width | variety which is an space | interval between. According to this, the value indicating the temporal change in the lower end width can be used for pedestrian recognition. The value indicating the temporal change in the lower end width is, for example, the amount of change in the lower end width per time or the value of the period of the lower end width change.

請求項2のようにする場合には、請求項3のように、変化量算出手段で算出した下端幅の時間的な変化を示す値をもとに、歩行者候補が歩行者であることを判定する態様とすることが好ましい。前述したように、歩行者の左右の脚部の輪郭線が第1輪郭線及び第2輪郭線として抽出されるので、歩行者候補が実際に歩行者である場合には、下端幅は歩行者の歩幅に対応し、下端幅の変化は歩行者の歩幅の変化に対応することになる。また、歩行者候補が実際に歩行者である場合に、下端幅の変化が歩行者の変化に対応することから、下端幅の時間的な変化を示す値をもとにして、歩行者候補が歩行者であることを判定することが可能になる。詳しくは、以下の通りである。   In the case of the second aspect, the pedestrian candidate is a pedestrian based on the value indicating the temporal change in the lower end width calculated by the change amount calculating means as in the third aspect. It is preferable that the determination is performed. As described above, since the contour lines of the left and right legs of the pedestrian are extracted as the first contour line and the second contour line, when the pedestrian candidate is actually a pedestrian, the lower end width is the pedestrian. The change in the lower end width corresponds to the change in the pedestrian's stride. In addition, when the pedestrian candidate is actually a pedestrian, since the change in the lower end width corresponds to the change in the pedestrian, the pedestrian candidate is determined based on the value indicating the temporal change in the lower end width. It becomes possible to determine that the person is a pedestrian. Details are as follows.

下端幅の変化がない場合には、歩幅の変化がない歩行者(つまり、停止中の歩行者)であるか非歩行者である可能性が高い。一方、下端幅の変化がある場合には、歩幅の変化がある歩行者(つまり、歩行中や走行中の歩行者)である可能性が高い。よって、下端幅の時間的な変化を示す値から、歩行者候補が歩行者であるか否かをより精度良く判定することが可能になる。従って、請求項3の構成によれば、下端幅の時間的な変化を示す値をもとに、歩行者候補が歩行者であるか否かをより精度良く判定することが可能になる。   When there is no change in the lower end width, there is a high possibility that the pedestrian has no change in the stride (that is, a stopped pedestrian) or a non-pedestrian. On the other hand, when there is a change in the lower end width, there is a high possibility that the pedestrian has a change in the stride (that is, a pedestrian who is walking or running). Therefore, it becomes possible to determine more accurately whether or not the pedestrian candidate is a pedestrian from the value indicating the temporal change in the lower end width. Therefore, according to the structure of Claim 3, it becomes possible to determine more accurately whether a pedestrian candidate is a pedestrian based on the value which shows the temporal change of a lower end width | variety.

請求項3のようにする場合には、請求項4のように、変化量算出手段で算出した下端幅の時間的な変化を示す値をもとに、歩行者の運動状態を推定する態様とすることが好ましい。歩行者候補が実際に歩行者である場合には、下端幅の変化は歩行者の歩幅の変化に対応することになるので、下端幅の時間的な変化を示す値から歩行者の運動状態を推定することができる。例えば、歩幅の時間的な変化が小さい場合は歩行中、大きい場合は走行中、変化がない場合には停止中である可能性が高いので、下端幅の時間的な変化を示す値をもとに、歩行者と判定された対象が歩行中か走行中か停止中かを推定することができる。また、歩行者の運動状態を推定することができるので、ユーザの歩行者の運動状態についての情報を報知したりすることも可能になる。   In the case of the third aspect, as in the fourth aspect, the movement state of the pedestrian is estimated based on the value indicating the temporal change in the lower end width calculated by the change amount calculating unit. It is preferable to do. When the pedestrian candidate is actually a pedestrian, the change in the lower end width corresponds to the change in the pedestrian's stride, so the pedestrian's motion state is determined from the value indicating the temporal change in the lower end width. Can be estimated. For example, it is highly likely that the walking time is small when the stride time change is small, running when the stride is large, and stopping when there is no change. In addition, it can be estimated whether the object determined to be a pedestrian is walking, running, or stopped. Moreover, since the motion state of a pedestrian can be estimated, the information about the motion state of a user's pedestrian can be notified.

請求項5のように、輪郭形状検出手段で台形輪郭形状の検出を行うことができた各撮像画像をもとに、台形輪郭形状のうちの第1輪郭線と第3輪郭線とがなす劣角、及び第2輪郭線と第3輪郭線とがなす劣角のうちの少なくともいずれかの劣角の角度である対象角度の時間的な変化を示す値を算出する態様としてもよい。これによれば、上記対象角度の時間的な変化を示す値を、歩行者の認識に利用することが可能になる。なお、劣角とは、頂点と2辺を共有する角のうち、角度が小さいほうの角を示している。   The inferiority between the first contour line and the third contour line of the trapezoidal contour shape based on each captured image in which the trapezoidal contour shape can be detected by the contour shape detecting means. It is good also as an aspect which calculates the value which shows the time change of the object angle which is an angle of at least any one of the corners and the minor angle which the 2nd outline and the 3rd outline make. According to this, the value indicating the temporal change in the target angle can be used for pedestrian recognition. The minor angle indicates a smaller angle among the angles sharing the two sides with the vertex.

請求項5のようにする場合には、請求項6のように、変化量算出手段で算出した対象角度の時間的な変化を示す値をもとに、歩行者候補が歩行者であることを判定する態様とすることが好ましい。前述したように、歩行者の左右の脚部の輪郭線が第1輪郭線及び第2輪郭線として抽出されるので、歩行者候補が実際に歩行者である場合には、第1輪郭線と第3輪郭線とがなす劣角や第2輪郭線と第3輪角線とがなす劣角の角度(以下、対象角度)は、歩行者の歩幅の変化に応じて変化することになる。具体的には、歩幅が大きくなるほど対象角度も大きくなり、歩幅が小さくなるほど対象角度も小さくなる。また、歩行者候補が実際に歩行者である場合に、対象角度の変化が歩行者の歩幅の変化に対応することから、対象角度の時間的な変化を示す値をもとにして、歩行者候補が歩行者であることを判定することが可能になる。詳しくは、以下の通りである。   In the case of the fifth aspect, the pedestrian candidate is a pedestrian based on the value indicating the temporal change in the target angle calculated by the change amount calculating unit as in the sixth aspect. It is preferable that the determination is performed. As described above, since the contour lines of the left and right legs of the pedestrian are extracted as the first contour line and the second contour line, when the pedestrian candidate is actually a pedestrian, The angle of inferiority formed by the third contour line and the angle of inferiority formed by the second contour line and the third wheel angle line (hereinafter referred to as the target angle) will change according to the change in the pedestrian's stride. Specifically, the target angle increases as the stride increases, and the target angle decreases as the stride decreases. In addition, when the pedestrian candidate is actually a pedestrian, the change in the target angle corresponds to the change in the stride of the pedestrian, so the pedestrian is based on the value indicating the temporal change in the target angle. It becomes possible to determine that the candidate is a pedestrian. Details are as follows.

対象角度の変化がない場合には、歩幅の変化がない歩行者(つまり、停止中の歩行者)であるか非歩行者である可能性が高い。一方、対象角度の変化がある場合には、歩幅の変化がある歩行者(つまり、歩行中や走行中の歩行者)である可能性が高い。よって、対象角度の時間的な変化を示す値から、歩行者候補が歩行者であるか否かをより精度良く判定することが可能になる。従って、請求項6の構成によれば、対象角度の時間的な変化を示す値をもとに、歩行者候補が歩行者であるか否かをより精度良く判定することが可能になる。   When there is no change in the target angle, there is a high possibility that the pedestrian has no change in stride (that is, a pedestrian who is stopped) or a non-pedestrian. On the other hand, when there is a change in the target angle, there is a high possibility that the pedestrian has a change in the stride (that is, a pedestrian who is walking or running). Therefore, it becomes possible to determine more accurately whether or not the pedestrian candidate is a pedestrian from the value indicating the temporal change in the target angle. Therefore, according to the structure of Claim 6, it becomes possible to determine more accurately whether a pedestrian candidate is a pedestrian based on the value which shows the time change of an object angle.

請求項6のようにする場合には、請求項7のように、変化量算出手段で算出した対象角度の時間的な変化を示す値をもとに、歩行者の運動状態を推定する態様とすることが好ましい。歩行者候補が実際に歩行者である場合には、対象角度の変化は歩行者の歩幅の変化に対応することになるので、対象角度の時間的な変化を示す値から歩行者の運動状態を推定することができる。例えば、歩幅の時間的な変化が小さい場合は歩行中、大きい場合は走行中、変化がない場合には停止中である可能性が高いので、対象角度の時間的な変化を示す値をもとに、歩行者と判定された対象が歩行中か走行中か停止中かを推定することができる。また、歩行者の運動状態を推定することができるので、ユーザの歩行者の運動状態についての情報を報知したりすることも可能になる。   In the case of carrying out like Claim 6, the aspect which estimates the movement state of a pedestrian based on the value which shows the time change of the object angle computed by the variation | change_quantity calculation means like Claim 7 It is preferable to do. If the pedestrian candidate is actually a pedestrian, the change in the target angle corresponds to the change in the pedestrian's stride, so the pedestrian's motion state can be determined from the value indicating the temporal change in the target angle. Can be estimated. For example, it is highly likely that the stride is changing when the time change is small, if it is large, running, and if there is no change, it is likely that it is stopping. In addition, it can be estimated whether the object determined to be a pedestrian is walking, running, or stopped. Moreover, since the motion state of a pedestrian can be estimated, the information about the motion state of a user's pedestrian can be notified.

請求項8のように、下端幅算出手段で算出した下端幅が所定の閾値以下でなかった場合に、歩行者候補が歩行者でないと判定する態様とすることが好ましい。下端幅は前述したように歩行者の歩幅に対応するため、下端幅が歩行者の歩幅として大きすぎる値である場合には、歩行者候補が歩行者でない可能性が高い。これに対して、請求項9の構成によれば、下端幅が所定の閾値以下でなかった場合に、歩行者候補が歩行者でないと判定するので、下端幅が歩行者の歩幅として大きすぎる値である場合に、歩行者候補が歩行者でないと判定することが可能になる。よって、請求項8の構成によれば、歩行者候補が歩行者でないことをより精度良く判定することが可能になる。   It is preferable that the pedestrian candidate is determined not to be a pedestrian when the lower end width calculated by the lower end width calculating means is not less than a predetermined threshold. Since the lower end width corresponds to the pedestrian's stride as described above, if the lower end width is a value that is too large as the pedestrian's stride, there is a high possibility that the pedestrian candidate is not a pedestrian. On the other hand, according to the configuration of claim 9, when the lower end width is not equal to or less than the predetermined threshold value, it is determined that the pedestrian candidate is not a pedestrian, so the lower end width is too large as the pedestrian's step length. When it is, it becomes possible to determine that a pedestrian candidate is not a pedestrian. Therefore, according to the structure of Claim 8, it becomes possible to determine more accurately that a pedestrian candidate is not a pedestrian.

請求項9のように、対象角度算出手段で算出した対象角度が所定の閾値以下でなかった場合に、歩行者候補を歩行者でないと判定する態様とすることが好ましい。対象角度の大きさは前述したように歩行者の歩幅に対応するため、歩行者の歩幅としては大きすぎる歩幅の値に対応するほど対象角度が大きすぎる値である場合には、歩行者候補が歩行者でない可能性が高い。これに対して、請求項10の構成によれば、対象角度が所定の閾値以下でなかった場合に、歩行者候補が歩行者でないと判定するので、対象角度が大きすぎる値である場合に、歩行者候補が歩行者でないと判定することが可能になる。よって、請求項9の構成によれば、歩行者候補が歩行者でないことをより精度良く判定することが可能になる。   It is preferable that the pedestrian candidate is determined not to be a pedestrian when the target angle calculated by the target angle calculation means is not less than a predetermined threshold. Since the size of the target angle corresponds to the pedestrian's stride as described above, if the target angle is too large to correspond to the stride value that is too large for the pedestrian's stride, the pedestrian candidate is Most likely not a pedestrian. On the other hand, according to the configuration of claim 10, when the target angle is not equal to or less than the predetermined threshold, it is determined that the pedestrian candidate is not a pedestrian, so when the target angle is too large, It becomes possible to determine that the pedestrian candidate is not a pedestrian. Therefore, according to the structure of Claim 9, it becomes possible to determine more accurately that a pedestrian candidate is not a pedestrian.

請求項10のように、輪郭形状検出手段で検出した台形輪郭形状のうちの第1輪郭線、第2輪郭線、第3輪郭線の各線分同士の長さの比率が所定値以内でなかった場合に、歩行者候補が歩行者でないと判定する態様とすることが好ましい。左右の脚部の可動域や左右の脚部の長さの比率は、人体においてある程度決まっている。よって、歩行者候補が実際に歩行者である場合には、第1輪郭線、第2輪郭線、第3輪郭線の各線分同士の長さの比率は一定の値以下に収まることになる。従って、第1輪郭線、第2輪郭線、第3輪郭線の各線分同士の長さの比率が所定値以内でないことをもとに、歩行者候補が歩行者でないことを精度良く判定することが可能になる。   As in claim 10, the ratio of the lengths of the first contour line, the second contour line, and the third contour line in the trapezoidal contour shape detected by the contour shape detecting means is not within a predetermined value. In this case, it is preferable that the pedestrian candidate is determined not to be a pedestrian. The range of motion of the left and right legs and the ratio of the lengths of the left and right legs are determined to some extent in the human body. Therefore, when the pedestrian candidate is actually a pedestrian, the ratio of the lengths of the first contour line, the second contour line, and the third contour line is within a certain value. Therefore, accurately determining that the pedestrian candidate is not a pedestrian based on the ratio of the lengths of the first contour line, the second contour line, and the third contour line not being within a predetermined value. Is possible.

歩行者認識システム100の概略的な構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a pedestrian recognition system 100. FIG. (a)は自車両を左方向から見た模式図であって、(b)は自車両を上から見た模式図である。(A) is the schematic diagram which looked at the own vehicle from the left direction, (b) is the schematic diagram which looked at the own vehicle from the top. 歩行者認識装置2の動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow of the pedestrian recognition apparatus 2. FIG. (a)は、歩行者候補の画像の一例を示す図であり、(b)は、(a)で示す画像に対してエッジ抽出を行った結果の一例を示す図であり、(c)は、特徴形状の一例を示す図である。(A) is a figure which shows an example of the image of a pedestrian candidate, (b) is a figure which shows an example of the result of having performed edge extraction with respect to the image shown to (a), (c) is It is a figure which shows an example of a feature shape. 特徴形状検出処理のフローの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a feature shape detection process. 時系列処理のフローの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a time series process. ハの字幅及びハの字角度を説明するための模式図である。It is a schematic diagram for demonstrating the cross-section width and the cross-section angle. 歩行者判定処理のフローの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a pedestrian determination process. (a)〜(c)は、歩行者の左右の脚部が股下よりも下部の位置からしか写っていない場合の例を示す模式図である。(A)-(c) is a schematic diagram which shows the example in case a pedestrian's right and left leg part is reflected only from the position below the crotch. (a)及び(b)は、歩行者の左右の脚部が股下よりも下部の位置からしか写っていない場合の例を示す模式図である。(A) And (b) is a schematic diagram which shows the example in case a pedestrian's right and left leg part is reflected only from the position of the lower part rather than a crotch.

以下、本発明の実施形態について図面を用いて説明する。図1は、本発明が適用された歩行者認識システム100の概略的な構成を示すブロック図である。図1に示す歩行者認識システム100は、車両に搭載されるものであり、カメラ1、歩行者認識装置2、ディスプレイ3、スピーカ4、及びインジケータ5を含んでいる。なお、歩行者認識システム100を搭載している車両を以降では自車両と呼ぶ。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a pedestrian recognition system 100 to which the present invention is applied. A pedestrian recognition system 100 shown in FIG. 1 is mounted on a vehicle, and includes a camera 1, a pedestrian recognition device 2, a display 3, a speaker 4, and an indicator 5. Hereinafter, a vehicle equipped with the pedestrian recognition system 100 is referred to as a host vehicle.

カメラ1は、図2(a)および図2(b)に示すように、自車両において例えばルームミラー近傍に取り付けられ、自車両の前方の所定範囲を逐次撮像する。よって、カメラ1が請求項の撮像装置に相当する。なお、カメラ1は例えば33msec〜100msecごとに撮像するものとする。図2(a)は自車両を左方向から見た模式図であって、図2(b)は自車両を上から見た模式図である。他にもカメラ1を車両のフロント等に設ける構成としてもよい。本実施形態では、カメラ1は例えばカラーカメラであるものとして以降の説明を行う。   As shown in FIGS. 2A and 2B, the camera 1 is attached, for example, in the vicinity of a room mirror in the host vehicle, and sequentially captures a predetermined range in front of the host vehicle. Therefore, the camera 1 corresponds to the imaging device of the claims. Note that the camera 1 captures images every 33 msec to 100 msec, for example. FIG. 2A is a schematic diagram of the host vehicle viewed from the left direction, and FIG. 2B is a schematic diagram of the host vehicle viewed from above. In addition, the camera 1 may be provided on the front of the vehicle. In the present embodiment, the following description will be made assuming that the camera 1 is, for example, a color camera.

カメラ1は、レンズ11を含む光学系と撮像素子12とにより構成される。カメラ1では、レンズ11を含む光学系を通して撮像素子12に入力された光学画像情報を撮像画像データ(RGB信号)に変換してカラー画像を得て、そのカラー画像を歩行者認識装置2へ出力する。以降では、このカラー画像を撮像画像と呼ぶものとする。撮像素子12は撮像対象の光学画像を画像データに変換する素子であり、CCD(Charge Coupled Device)等が使用される。また本実施形態では、撮像画像の全てのピクセルは、R値(赤色度合い)、G値(緑色度合い)、B値(青色度合い)の各々が0〜255のディジタル値であるRGB値で表されるものとして説明を行う。   The camera 1 includes an optical system including a lens 11 and an image sensor 12. In the camera 1, optical image information input to the image sensor 12 through an optical system including the lens 11 is converted into captured image data (RGB signals) to obtain a color image, and the color image is output to the pedestrian recognition device 2. To do. Hereinafter, this color image is referred to as a captured image. The imaging element 12 is an element that converts an optical image to be imaged into image data, and a CCD (Charge Coupled Device) or the like is used. In the present embodiment, all pixels of the captured image are represented by RGB values in which each of the R value (red degree), the G value (green degree), and the B value (blue degree) is a digital value of 0 to 255. It will be described as a thing.

なお、本実施形態では、カメラ1が自車両の前方の所定範囲を撮像する構成を示したが、必ずしもこれに限らない。カメラ1は、後方の所定範囲を撮像するなど、前方以外の自車両の周囲を撮像する構成であってもよい。また、本実施形態では、カメラ1がカラーカメラである構成について説明を行う。   In addition, in this embodiment, although the camera 1 showed the structure which images the predetermined range ahead of the own vehicle, it does not necessarily restrict to this. The camera 1 may be configured to capture the surroundings of the host vehicle other than the front, such as capturing a predetermined range in the rear. In the present embodiment, a configuration in which the camera 1 is a color camera will be described.

歩行者認識装置2は、CPU、ROM、RAM、EEPROM等よりなるマイクロコンピュータを主体として構成され、カメラ1から入力される撮像画像データをもとに、ROMに記憶された各種の制御プログラムを実行し、画像認識を行うことで歩行者を認識する処理を実行する。歩行者認識装置2は、図1に示すように機能ブロックとして、画像取得部21、プレ認識22、エッジ画像作成部23、特徴形状検出部24、時系列処理部25、歩行者判定部26、及び報知処理部27を備えている。   The pedestrian recognition device 2 is composed mainly of a microcomputer composed of a CPU, ROM, RAM, EEPROM, etc., and executes various control programs stored in the ROM based on captured image data input from the camera 1. And the process which recognizes a pedestrian by performing image recognition is performed. As shown in FIG. 1, the pedestrian recognition device 2 includes, as functional blocks, an image acquisition unit 21, a pre-recognition 22, an edge image creation unit 23, a feature shape detection unit 24, a time series processing unit 25, a pedestrian determination unit 26, And a notification processing unit 27.

なお、画像認識とは、画像データの画像内容を分析して、その形状を認識する技術のことである。画像認識では、画像データから対象物となる輪郭を抽出し、背景から分離した上で、その対象物が何であるかを分析する。また、歩行者とは、道路の上を車両によらない方法で移動する人のことを意味しており、移動中の人も停止中の人も含むものとする。   Note that image recognition is a technique for recognizing the shape of an image by analyzing the image content of the image data. In image recognition, an outline that is an object is extracted from image data, separated from the background, and then the object is analyzed. A pedestrian means a person who moves on a road by a method that does not depend on a vehicle, and includes both a moving person and a stopped person.

ディスプレイ3は、車載用の小型ディスプレイであり、歩行者認識装置2から出力された画像データを取得し、当該画像データの示す画像を表示する。画像の表示に関しては、例えば車載ナビゲーション装置で利用するディスプレイを用いる構成としてもよいし、車載用のヘッドアップディスプレイを用いる構成としてもよい。   The display 3 is a small vehicle-mounted display, acquires image data output from the pedestrian recognition device 2, and displays an image indicated by the image data. With regard to image display, for example, a configuration using a display used in an in-vehicle navigation device may be used, or an in-vehicle head-up display may be used.

スピーカ4は、車載用の小型スピーカであり、歩行者認識装置2から出力された音声信号を取得し、当該音声信号の示す音声を出力する。音声の出力に関しては、例えば車載ナビゲーション装置で利用するスピーカを用いる構成としてもよいし、車載オーディオのスピーカを用いる構成としてもよい。インジケータ5は、例えばLEDであり、歩行者認識装置2から出力される信号を取得すると点灯する。なお、LEDの点灯の代わりに、LEDを点滅させる構成としてもよい。   The speaker 4 is a small vehicle-mounted speaker, acquires the audio signal output from the pedestrian recognition device 2, and outputs the sound indicated by the audio signal. With regard to audio output, for example, a configuration using a speaker used in an in-vehicle navigation device may be used, or an in-vehicle audio speaker may be used. The indicator 5 is, for example, an LED, and lights up when a signal output from the pedestrian recognition device 2 is acquired. In addition, it is good also as a structure which blinks LED instead of lighting of LED.

続いて、図3を用いて、歩行者認識装置2の動作フローについての説明を行う。図3は、歩行者認識装置2の動作フローを示すフローチャートである。なお、本フローは、カメラ1から撮像画像データが入力されたときに開始される。また、本フローは、例えば歩行者認識装置2の電源がオフになったときや自車両のイグニッション電源がオフになったときに終了するものとする。   Then, the operation | movement flow of the pedestrian recognition apparatus 2 is demonstrated using FIG. FIG. 3 is a flowchart showing an operation flow of the pedestrian recognition device 2. This flow is started when captured image data is input from the camera 1. Moreover, this flow shall be complete | finished, for example, when the power supply of the pedestrian recognition apparatus 2 is turned off, or when the ignition power supply of the own vehicle is turned off.

まず、ステップS1では、カメラ1から入力される撮像画像を画像取得部21が取得し、例えばRAM等の一時保存メモリに格納してステップS2に移る。よって、画像取得部21が請求項の画像取得手段に相当する。   First, in step S1, the image acquisition unit 21 acquires a captured image input from the camera 1, stores it in a temporary storage memory such as a RAM, for example, and proceeds to step S2. Therefore, the image acquisition unit 21 corresponds to the image acquisition unit in the claims.

ステップS2では、プレ認識部22がプレ認識処理を行って、ステップS3に移る。プレ認識処理では、撮像画像中に歩行者が存在するか否かの大まかな識別を行うことで、歩行者候補の検出を行う。プレ認識処理では、歩行者のほとんどを歩行者候補と検出し、明らかに歩行者でない画像を除去するように設定された粗い識別器を用いた公知のパターンマッチングにより、歩行者候補の検出を行うものとする。   In step S2, the pre-recognition unit 22 performs pre-recognition processing, and proceeds to step S3. In the pre-recognition process, pedestrian candidates are detected by roughly identifying whether or not a pedestrian is present in the captured image. In the pre-recognition process, most pedestrians are detected as pedestrian candidates, and pedestrian candidates are detected by known pattern matching using a coarse classifier that is set to remove images that are clearly not pedestrians. Shall.

具体的には、あらゆる姿勢の歩行者の画像例(つまり、正解画像例)と明らかに歩行者でない構造物等の画像例(つまり、非正解画像例)とを歩行者認識装置2のEEPROM等の不揮発性メモリ等に格納しておく。そして、この不揮発性メモリに格納されている非正解画像例に類似している画像は除去する一方、正解画像例に類似している画像を歩行者候補として検出する。なお、パターンマッチングの具体的アルゴリズムは、種々の公知のものを採用できる。例えば予め正解画像例や非正解画像例について機械学習して構築されたパターンを用いて、パターンマッチングする構成としてもよい。また、以降の処理は、歩行者候補を含む適当な矩形領域の画像を撮像画像から抽出して行うものとする。   Specifically, an example of an image of a pedestrian of any posture (that is, an example of a correct image) and an example of an image of a structure or the like that is clearly not a pedestrian (ie, an example of an incorrect image) Stored in a non-volatile memory or the like. Then, an image similar to the non-correct image example stored in the nonvolatile memory is removed, while an image similar to the correct image example is detected as a pedestrian candidate. Various specific algorithms for pattern matching can be employed. For example, the pattern matching may be performed using a pattern constructed by machine learning for a correct image example and a non-correct image example in advance. Further, the subsequent processing is performed by extracting an image of an appropriate rectangular area including the pedestrian candidate from the captured image.

ステップS3では、歩行者候補が検出された場合(ステップS3でYES)には、ステップS4に移る、また、歩行者候補が検出されなかった場合(ステップS3でNO)には、ステップS1に戻ってフローを繰り返す。   In step S3, if a pedestrian candidate is detected (YES in step S3), the process proceeds to step S4. If a pedestrian candidate is not detected (NO in step S3), the process returns to step S1. Repeat the flow.

ステップS4では、エッジ画像作成部23がエッジ画像作成処理を行って、ステップS5に移る。エッジ画像作成処理では、公知のエッジ抽出を歩行者候補の画像(図4(a)参照)に対して行うことで、歩行者候補の画像中のエッジ(つまり、輪郭線)を抽出する(図4(b)参照)。よって、エッジ画像作成部23が請求項の輪郭線抽出手段に相当する。なお、図4(a)は、歩行者候補の画像の一例を示す図であって、図4(b)は、図4(a)で示す画像に対してエッジ抽出を行った結果の一例を示す図である。   In step S4, the edge image creation unit 23 performs edge image creation processing, and proceeds to step S5. In the edge image creation process, a known edge extraction is performed on the pedestrian candidate image (see FIG. 4A) to extract edges (that is, contour lines) in the pedestrian candidate image (see FIG. 4). 4 (b)). Therefore, the edge image creation unit 23 corresponds to a contour line extraction unit. FIG. 4A is a diagram illustrating an example of a pedestrian candidate image, and FIG. 4B is an example of a result of edge extraction performed on the image illustrated in FIG. FIG.

なお、エッジ抽出の他にも、例えば鏡像に変換する鏡像変換やレンズの特性で画像周辺部に生じる歪みを補正する歪み補正等の画像処理も行う構成としてもよい。また、プレ認識処理においてエッジ画像作成処理等の画像処理を行う構成とした場合には、ステップS4でエッジ画像作成処理を行わず、プレ認識処理においてエッジ抽出した結果を利用する構成としてもよい。   In addition to edge extraction, for example, image processing such as mirror image conversion for converting to a mirror image and distortion correction for correcting distortion generated in the peripheral portion of the image due to lens characteristics may be performed. Further, in a case where image processing such as edge image creation processing is performed in the pre-recognition processing, the edge image creation processing may not be performed in step S4, and the result of edge extraction in the pre-recognition processing may be used.

ステップS5では、特徴形状検出部24が特徴形状検出処理を行って、ステップS6に移る。ここで、図5のフローチャートを用いて、特徴形状検出処理の概略について説明を行う。図5は、特徴形状検出処理のフローの一例を示すフローチャートである。   In step S5, the feature shape detection unit 24 performs feature shape detection processing, and proceeds to step S6. Here, the outline of the feature shape detection process will be described with reference to the flowchart of FIG. FIG. 5 is a flowchart illustrating an example of the flow of the feature shape detection process.

まず、ステップS51では、第1特徴エッジ検出処理を行う。第1特徴エッジ検出処理では、エッジ画像作成処理で抽出したエッジから、閾値範囲内の長さである斜め右方向のエッジ(つまり、右斜めに傾いたエッジ)の検出を行う。以下では、閾値範囲内の長さである斜め右方向のエッジを第1特徴エッジと呼ぶ。ここで言うところの閾値とは、任意に設定可能な値であって、例えば撮像画像中の歩行者の脚部の長さを逸脱する程度の長さのエッジを除外するような値を設定する構成とすればよい。   First, in step S51, a first feature edge detection process is performed. In the first feature edge detection process, an edge in the diagonally right direction (that is, an edge tilted diagonally to the right) that is the length within the threshold range is detected from the edge extracted in the edge image creation process. Hereinafter, the diagonally rightward edge having a length within the threshold range is referred to as a first feature edge. The threshold value here is a value that can be arbitrarily set, for example, a value that excludes an edge having a length that deviates from the length of the leg of the pedestrian in the captured image. What is necessary is just composition.

そして、第1特徴エッジが検出できた場合(ステップS51でYES)には、ステップS52に移る。また、第1特徴エッジが検出できなかった場合(ステップS51でNO)には、特徴形状を検出できなかったものとして、ステップS6に移る。なお、第1特徴エッジが請求項の第1輪郭線に相当する。   If the first feature edge can be detected (YES in step S51), the process proceeds to step S52. If the first feature edge cannot be detected (NO in step S51), it is determined that the feature shape has not been detected, and the process proceeds to step S6. The first feature edge corresponds to the first contour line in the claims.

ステップS52では、第2特徴エッジ検出処理を行う。第2特徴エッジ検出処理では、エッジ画像作成処理で抽出したエッジから、閾値範囲内の長さである斜め左方向のエッジ(つまり、左斜めに傾いたエッジ)の検出を行う。以下では、閾値範囲内の長さである斜め左方向のエッジを第2特徴エッジと呼ぶ。ここで言うところの閾値とは、任意に設定可能な値であって、例えば撮像画像中の歩行者の脚部の長さを逸脱する程度の長さのエッジを除外するような値を設定する構成とすればよい。   In step S52, a second feature edge detection process is performed. In the second feature edge detection process, an edge in the diagonally left direction (that is, an edge tilted diagonally to the left) that is the length within the threshold range is detected from the edge extracted in the edge image creation process. Hereinafter, the diagonally left edge that is the length within the threshold range is referred to as a second feature edge. The threshold value here is a value that can be arbitrarily set, for example, a value that excludes an edge having a length that deviates from the length of the leg of the pedestrian in the captured image. What is necessary is just composition.

そして、第2特徴エッジが検出できた場合(ステップS52でYES)には、ステップS53に移る。また、第2特徴エッジが検出できなかった場合(ステップS52でNO)には、特徴形状を検出できなかったものとして、ステップS6に移る。なお、第2特徴エッジが請求項の第2輪郭線に相当する。   If the second feature edge can be detected (YES in step S52), the process proceeds to step S53. If the second feature edge cannot be detected (NO in step S52), it is determined that the feature shape has not been detected, and the process proceeds to step S6. The second feature edge corresponds to the second contour line in the claims.

ステップS53では、第3特徴エッジ検出処理を行う。第3特徴エッジ検出処理では、エッジ画像作成処理で抽出したエッジから、ステップS51で検出した第1特徴エッジの上端部とステップS52で検出した第2特徴エッジの上端部とを結ぶ、閾値範囲内の長さのエッジの検出を行う。以下では、このエッジを第3特徴エッジと呼ぶ。ここで言うところの閾値とは、任意に設定可能な値であって、例えば撮像画像中の歩行者の歩幅程度の長さのエッジを除外するような値を設定する構成とすればよい。   In step S53, a third feature edge detection process is performed. In the third feature edge detection process, within the threshold range connecting the upper end of the first feature edge detected in step S51 and the upper end of the second feature edge detected in step S52 from the edge extracted in the edge image creation process. The edge of the length of is detected. Hereinafter, this edge is referred to as a third feature edge. The threshold here is a value that can be arbitrarily set, and for example, a value that excludes an edge having a length about the pedestrian's step length in the captured image may be set.

そして、第3特徴エッジが検出できた場合(ステップS53でYES)には、ステップS54に移る。また、第3特徴エッジが検出できなかった場合(ステップS53でNO)には、特徴形状を検出できなかったものとして、ステップS6に移る。なお、第3特徴エッジが請求項の第3輪郭線に相当する。   If the third feature edge can be detected (YES in step S53), the process proceeds to step S54. If the third feature edge cannot be detected (NO in step S53), it is determined that the feature shape has not been detected, and the process proceeds to step S6. The third feature edge corresponds to the third contour line in the claims.

ステップS54では、ステップS51で検出した第1特徴エッジ、ステップS52で検出した第2特徴エッジ、ステップS53で検出した第3特徴エッジの各特徴エッジの線分同士の長さの比率が設定閾値範囲内であるか否かを判定する。詳しくは、第1特徴エッジと第2特徴エッジとの比率、第2特徴エッジと第3特徴エッジとの比率、及び第3特徴エッジと第1特徴エッジとの比率の全てが設定閾値範囲内であるか否かを判定する。   In step S54, the ratio between the lengths of the line segments of the first feature edge detected in step S51, the second feature edge detected in step S52, and the third feature edge detected in step S53 is set threshold range. It is determined whether it is in. Specifically, the ratio between the first feature edge and the second feature edge, the ratio between the second feature edge and the third feature edge, and the ratio between the third feature edge and the first feature edge are all within the set threshold range. It is determined whether or not there is.

ここで言うところの設定閾値範囲とは、任意に設定可能な値であって、例えば撮像画像中の実際の歩行者から検出される各特徴エッジの線分同士の比率を逸脱する程度の比率を除外するような値を設定する構成とすればよい。また、設定閾値は、第1特徴エッジと第2特徴エッジとの比率、第2特徴エッジと第3特徴エッジとの比率、第3特徴エッジと第1特徴エッジとの比率のそれぞれについて異なる値を用いる構成としてもよい。   The setting threshold range here is a value that can be arbitrarily set, and for example, a ratio that deviates from the ratio between the line segments of each feature edge detected from an actual pedestrian in the captured image. What is necessary is just to set it as the value which excludes. In addition, the setting threshold value is different for each of the ratio between the first feature edge and the second feature edge, the ratio between the second feature edge and the third feature edge, and the ratio between the third feature edge and the first feature edge. It is good also as a structure to use.

そして、各特徴エッジの線分同士の長さの比率が設定閾値範囲内であると判定した場合(ステップS54でYES)には、特徴形状を検出できたものとして、ステップS55に移る。また、各特徴エッジの線分同士の長さの比率が設定閾値範囲内でないと判定した場合(ステップS54でNO)には、特徴形状を検出できなかったものとして、ステップS6に移る。   If it is determined that the length ratio between the line segments of each feature edge is within the set threshold range (YES in step S54), the process moves to step S55, assuming that the feature shape has been detected. If it is determined that the length ratio between the line segments of each feature edge is not within the set threshold range (NO in step S54), it is determined that the feature shape has not been detected, and the process proceeds to step S6.

ここで、図4(c)を用いて、特徴形状の一例を示す。図4(c)は、特徴形状の一例を示す図である。なお、図4(c)中のAが第1特徴エッジ、Bが第2特徴エッジ、Cが第3特徴エッジを示しており、白丸が各特徴エッジの端部を示している。特徴形状は、ハの字形となった第1特徴エッジ及び第2特徴エッジと、左右方向のエッジである第3特徴エッジとからなる台形状をしている。なお、図4(c)の例では、第3エッジの傾きが殆どないが、特徴形状を構成する第3特徴エッジは、左斜め方向や右斜め方向に傾いていてもよい。よって、特徴形状検出部24が請求項の輪郭形状検出手段に相当する。また、特徴形状は請求項の台形輪郭形状に相当する。   Here, an example of the feature shape is shown using FIG. FIG. 4C is a diagram illustrating an example of a feature shape. In FIG. 4C, A indicates the first feature edge, B indicates the second feature edge, C indicates the third feature edge, and white circles indicate the end portions of the feature edges. The feature shape has a trapezoidal shape composed of a first feature edge and a second feature edge having a C-shape and a third feature edge which is an edge in the left-right direction. In the example of FIG. 4C, there is almost no inclination of the third edge, but the third feature edge constituting the feature shape may be inclined in the left oblique direction or the right oblique direction. Therefore, the feature shape detection unit 24 corresponds to the contour shape detection means in the claims. The characteristic shape corresponds to the trapezoidal outline shape of the claims.

ステップS55では、線分・色情報格納処理を行って、ステップS6に移る。線分・色情報保存処理では、検出した特徴形状のうちの第1特徴エッジ、第2特徴エッジ、及び第3特徴エッジの線分情報を、例えばRAM等の一時保存メモリに格納する。例えば、第1特徴エッジの線分情報としては第1エッジの上端部及び下端部のピクセル座標を格納し、第2特徴エッジの線分情報としては第2エッジの上端部及び下端部のピクセル座標を格納し、第3特徴エッジの線分情報としては第3エッジの左側の端部及び右側の端部のピクセル座標を格納する構成とすればよい。なお、ピクセル座標は左右方向(以下、x軸方向)と上下方向(以下、y軸方向)との2軸で表され、撮像画像の左上の隅のピクセル座標を(0,0)とする。   In step S55, line segment / color information storage processing is performed, and the flow proceeds to step S6. In the line segment / color information storage process, the line segment information of the first feature edge, the second feature edge, and the third feature edge in the detected feature shape is stored in a temporary storage memory such as a RAM. For example, pixel coordinates of the upper end and lower end of the first edge are stored as line segment information of the first feature edge, and pixel coordinates of the upper end and lower end of the second edge are stored as line segment information of the second feature edge. And the pixel coordinates of the left end and the right end of the third edge may be stored as the line segment information of the third feature edge. The pixel coordinates are represented by two axes, the left-right direction (hereinafter, x-axis direction) and the vertical direction (hereinafter, y-axis direction), and the pixel coordinates of the upper left corner of the captured image are (0, 0).

また、線分・色情報保存処理では、第1特徴エッジ、第2特徴エッジ、及び第3特徴エッジの線分付近についての色情報、若しくは第1特徴エッジ、第2特徴エッジ、及び第3特徴エッジの端部付近についての色情報を算出し、例えばRAM等の一時保存メモリに格納する。本実施形態では、第1特徴エッジと第3特徴エッジとが交わる端部(つまり、第1特徴エッジの上端部若しくは第3特徴エッジの左側の端部)の近辺の複数ピクセルのRGB値と、第2特徴エッジと第3特徴エッジとが交わる端部(つまり、第2特徴エッジの上端部若しくは第3特徴エッジの左側の端部)の近辺の複数ピクセルのRGB値との平均値を色情報として算出し、保存するものとする。   In the line segment / color information storage process, the color information about the line segment of the first feature edge, the second feature edge, and the third feature edge, or the first feature edge, the second feature edge, and the third feature. Color information about the edge of the edge is calculated and stored in a temporary storage memory such as a RAM. In the present embodiment, RGB values of a plurality of pixels in the vicinity of an end portion where the first feature edge and the third feature edge intersect (that is, the upper end portion of the first feature edge or the left end portion of the third feature edge), Color information is the average value of the RGB values of a plurality of pixels near the end where the second feature edge and the third feature edge intersect (that is, the upper end of the second feature edge or the left end of the third feature edge). It shall be calculated and saved as

第1特徴エッジと第3特徴エッジとが交わる端部の付近の複数ピクセルは、第1特徴エッジと第3特徴エッジとがなす優角側の数ピクセルであるものとする。また、第2特徴エッジと第3特徴エッジとが交わる端部の付近の複数ピクセルは、第2特徴エッジと第3特徴エッジとがなす優角側の数ピクセルであるものとする。優角とは、頂点と2辺を共有する角のうち、角度が大きいほうの角を示している。また、端部自体のピクセルも含むものとする。   It is assumed that the plurality of pixels near the end where the first feature edge and the third feature edge intersect are several pixels on the dominant angle side formed by the first feature edge and the third feature edge. Further, it is assumed that the plurality of pixels near the end where the second feature edge and the third feature edge intersect are several pixels on the dominant angle side formed by the second feature edge and the third feature edge. The dominant angle indicates the larger angle among the angles sharing the two sides with the vertex. It also includes the pixels of the edge itself.

なお、本実施形態の例では、第1特徴エッジと第3特徴エッジとが交わる端部付近、および第2特徴エッジと第3特徴エッジとが交わる端部付近についての色情報を用いる構成を示したが、必ずしもこれに限らない。例えば、他の端部付近の複数ピクセルのRGB値も含めた平均値を色情報として用いる構成としてもよいし、各特徴エッジの線分付近の複数ピクセルのRGB値の平均値を色情報として用いる構成としてもよい。   In the example of the present embodiment, a configuration using color information about an end portion where the first feature edge and the third feature edge intersect and an end portion where the second feature edge and the third feature edge intersect is shown. However, this is not necessarily the case. For example, an average value including RGB values of a plurality of pixels near the other end may be used as color information, or an average value of RGB values of a plurality of pixels near the line segment of each feature edge is used as the color information. It is good also as a structure.

図3に戻って、ステップS6では、特徴形状検出処理で特徴形状を検出できた場合(ステップS6でYES)には、ステップS7に移る。また、特徴形状検出処理で特徴形状を検出できなかった場合(ステップS6でNO)には、ステップS1に戻ってフローを繰り返す。   Returning to FIG. 3, in step S6, when the feature shape can be detected by the feature shape detection process (YES in step S6), the process proceeds to step S7. If the feature shape cannot be detected by the feature shape detection process (NO in step S6), the process returns to step S1 and the flow is repeated.

ステップS7では、時系列処理部25が時系列処理を行って、ステップS8に移る。ここで、図6のフローチャートを用いて、時系列処理の概略について説明を行う。図6は、時系列処理のフローの一例を示すフローチャートである。   In step S7, the time series processing unit 25 performs time series processing, and proceeds to step S8. Here, an outline of the time series processing will be described with reference to the flowchart of FIG. FIG. 6 is a flowchart illustrating an example of a flow of time series processing.

まず、ステップS71では、第1形状情報格納処理を行って、ステップS72に移る。第1形状情報格納処理では、特徴形状検出処理で検出した特徴形状についての形状情報を算出し、例えばRAM等の一時保存メモリに格納する。形状情報は、特徴形状のハの字幅とハの字角度である。   First, in step S71, a first shape information storage process is performed, and the process proceeds to step S72. In the first shape information storage process, shape information about the feature shape detected in the feature shape detection process is calculated and stored in a temporary storage memory such as a RAM, for example. The shape information is the shape width and the shape angle of the characteristic shape.

ここで、図7を用いてハの字幅とハの字角度についての説明を行う。図7は、ハの字幅及びハの字角度を説明するための模式図である。図7のAが特徴形状のうちの第1特徴エッジを示しており、Bが第2特徴エッジを示しており、Cが第3特徴エッジを示している。また、Dがハの字幅を示しており、Eがハの字角度を示している。   Here, the width of the C and the angle of the C will be described with reference to FIG. FIG. 7 is a schematic diagram for explaining a C-shaped width and a C-shaped angle. FIG. 7A shows the first feature edge of the feature shape, B shows the second feature edge, and C shows the third feature edge. In addition, D indicates a cross-section width, and E indicates a cross-section angle.

ハの字幅は、図7に示すように、特徴形状のうちの第1特徴エッジの下端部と第2特徴エッジの下端部との間隔(つまり、第1特徴エッジの下端部と第2特徴エッジの下端部のx軸方向における間隔)である。例えば、ハの字幅は、第2特徴エッジの下端部のx座標から第1特徴エッジの下端部のx座標を差し引くことで算出する構成とすればよい。なお、ハの字幅が請求項の下端幅に相当し、時系列処理部25が請求項の下端幅算出手段に相当する。   As shown in FIG. 7, the C-shaped width is the distance between the lower end of the first feature edge and the lower end of the second feature edge in the feature shape (that is, the lower end of the first feature edge and the second feature). (Interval in the x-axis direction of the lower end portion of the edge). For example, the C-shaped width may be calculated by subtracting the x coordinate of the lower end portion of the first feature edge from the x coordinate of the lower end portion of the second feature edge. Note that the C-shaped width corresponds to the lower end width of the claims, and the time-series processing unit 25 corresponds to the lower end width calculating means of the claims.

また、ハの字角度は、図7に示すように、特徴形状のうちの第1特徴エッジと第3特徴エッジとがなす劣角、及び第2特徴エッジと第3特徴エッジとがなす劣角の角度である。劣角とは、頂点と2辺を共有する角のうち、角度が小さいほうの角を示している。例えば、ハの字角度は、線分・色情報格納処理で格納した各特徴エッジの線分情報をもとに、第1特徴エッジと第3特徴エッジとがなす劣角、及び第2特徴エッジと第3特徴エッジとがなす劣角を求めることで算出する構成とすればよい。なお、ハの字角度が請求項の対象角度に相当し、時系列処理部25が請求項の対象角度算出手段に相当する。   Further, as shown in FIG. 7, the C-shaped angle is a minor angle formed by the first feature edge and the third feature edge in the feature shape, and a minor angle formed by the second feature edge and the third feature edge. Is the angle. The minor angle indicates the smaller one of the angles sharing the two sides with the vertex. For example, the C-shaped angle is an inferior angle formed by the first feature edge and the third feature edge based on the line segment information of each feature edge stored in the line segment / color information storing process, and the second feature edge And the third feature edge may be calculated by calculating the subordinate angle. The square angle corresponds to the target angle of the claims, and the time-series processing unit 25 corresponds to the target angle calculation means of the claims.

本実施形態では、第1特徴エッジと第3特徴エッジとがなす劣角の角度、及び第2特徴エッジと第3特徴エッジとがなす劣角の角度の両方をハの字角度とする構成を示したが、必ずしもこれに限らない。例えば、上述のいずれか一方のみをハの字角度とする構成としてもよいし、両方の平均値を用いる構成としてもよい。   In the present embodiment, a configuration is adopted in which both the angle of the minor angle formed by the first feature edge and the third feature edge and the angle of the minor angle formed by the second feature edge and the third feature edge are formed into a C-shaped angle. Although shown, it is not necessarily limited to this. For example, it is good also as a structure which makes only one of the above-mentioned a square-shaped angle, and good also as a structure which uses both average values.

ステップS72では、設定フレーム数以上の撮像画像について形状情報が一時保存メモリに格納されているか否かを判定する。なお、設定フレーム数は、任意に設定可能な値であって、ハの字幅やハの字角度の変化の周期を算出することができる程度の値であればよい。そして、設定フレーム数以上の撮像画像について形状情報が格納されていると判定した場合(ステップS72でYES)には、ステップS8に移る。また、設定フレーム数以上の撮像画像について形状情報が格納されていると判定しなかった場合(ステップS72でNO)には、ステップS73に移る。   In step S72, it is determined whether or not shape information is stored in the temporary storage memory for the captured images that are equal to or greater than the set number of frames. Note that the number of set frames is a value that can be arbitrarily set, and may be a value that can calculate the period of change in the C-shaped width or C-shaped angle. If it is determined that shape information is stored for the number of captured images equal to or greater than the set number of frames (YES in step S72), the process proceeds to step S8. If it is not determined that shape information has been stored for the number of captured images equal to or greater than the set number of frames (NO in step S72), the process proceeds to step S73.

ステップS73では、画像取得部21でカメラ1から逐次取得する撮像画像のうち、それまで処理を行っていた撮像画像の次のフレームの撮像画像を取得し、ステップS74に移る。具体的には、後述するステップS74〜ステップS75の処理が行われていない場合には、前述のステップS1で取得した撮像画像の次のフレームの撮像画像を取得する。一方、ステップS73の処理の以前に後述するステップS74〜ステップS75の処理が既に行われている場合には、後述の色類似画像作成処理を行った直近の撮像画像の次のフレームの撮像画像を取得する。   In step S73, the captured image of the next frame of the captured image that has been processed is acquired from the captured images sequentially acquired from the camera 1 by the image acquisition unit 21, and the process proceeds to step S74. Specifically, when processing in steps S74 to S75 described later is not performed, a captured image of the next frame of the captured image acquired in step S1 is acquired. On the other hand, if the processing of steps S74 to S75 described later has already been performed before the processing of step S73, the captured image of the next frame of the latest captured image that has been subjected to the color similar image creation processing described later is obtained. get.

ステップS74では、色類似画像作成処理を行って、ステップS75に移る。色類似画像作成処理では、ステップS73で取得した撮像画像をもとに、線分・色情報格納処理で格納した色情報を基準値として、色類似度を表す画像(以下、色類似画像)を作成する。色類似画像の作成は、撮像画像のうちの歩行者候補が検出された領域に対応する領域(以下、対象領域)について行う。対象領域は、歩行者候補が写っていると推定される領域であって、プレ認識処理で歩行者候補が検出された領域と同じ座標で示される領域(以下、同一領域)を対象領域としてもよい。また、同一領域よりも所定の幅だけ上下左右に広い領域を対象領域としてもよいし、同一領域から上下左右にずれた領域を対象領域としてもよい。   In step S74, a color similar image creation process is performed, and the process proceeds to step S75. In the color-similar image creation process, based on the captured image acquired in step S73, an image representing the color similarity (hereinafter referred to as a color-similar image) using the color information stored in the line segment / color information storage process as a reference value. create. The creation of the color-similar image is performed for a region (hereinafter, a target region) corresponding to a region where a pedestrian candidate is detected in the captured image. The target area is an area where a pedestrian candidate is estimated to be captured, and an area indicated by the same coordinates as the area where the pedestrian candidate is detected in the pre-recognition process (hereinafter, the same area) may be the target area. Good. In addition, a region that is wider in the vertical and horizontal directions by a predetermined width than the same region may be the target region, and a region that is shifted from the same region in the vertical and horizontal directions may be the target region.

色類似画像は、対象領域の各ピクセルについて、各ピクセルのRGB値と基準値としてのRGB値との差分の絶対値を算出し、算出したその絶対値を新たなRGB値とすることで作成する。なお、各ピクセルのRGB値と基準値としてのRGB値との差分の絶対値は、R、G、Bのそれぞれについて算出するものとする。また、色類似画像では、特徴形状に相当する部分は黒く表示され、背景に相当する部分は白く表示されることになる。これは以下の理由による。   A color-similar image is created by calculating the absolute value of the difference between the RGB value of each pixel and the RGB value as the reference value for each pixel in the target area, and using the calculated absolute value as a new RGB value. . Note that the absolute value of the difference between the RGB value of each pixel and the RGB value as the reference value is calculated for each of R, G, and B. In the color similar image, a portion corresponding to the feature shape is displayed in black, and a portion corresponding to the background is displayed in white. This is due to the following reason.

RGB値がR=255、G=255、B=255の場合には白く表示され、RGB値がR=0、G=0、B=0の場合には黒く表示されるため、線分・色情報格納処理で格納した色情報に類似した色の領域は黒く表示され、当該色情報に類似していない色の領域は白く表示される。線分・色情報格納処理で格納した色情報は、特徴形状の近辺の複数ピクセルのRGB値の平均なので、色類似画像においては特徴形状が黒く表示され、特徴形状以外の背景が白く表示されることになる。   When the RGB value is R = 255, G = 255, and B = 255, it is displayed in white, and when the RGB value is R = 0, G = 0, and B = 0, it is displayed in black. A color area similar to the color information stored in the information storage process is displayed in black, and a color area not similar to the color information is displayed in white. Since the color information stored in the line segment / color information storage process is the average of the RGB values of a plurality of pixels in the vicinity of the feature shape, the feature shape is displayed in black in the color similar image, and the background other than the feature shape is displayed in white. It will be.

ステップS75では、第2形状情報格納処理を行って、ステップS72に戻ってフローを繰り返す。第2形状情報格納処理では、色類似画像作成処理で作成した色類似画像から特徴形状に相当する部分における形状情報を算出し、例えばRAM等の一時保存メモリに格納する。なお、色類似画像から特徴形状に相当する部分が検出できなかった場合にフローを終了する構成としてもよい。   In step S75, a second shape information storage process is performed, and the flow returns to step S72 to repeat the flow. In the second shape information storage process, shape information in a portion corresponding to the feature shape is calculated from the color similar image created in the color similar image creation process, and stored in a temporary storage memory such as a RAM. In addition, it is good also as a structure which complete | finishes a flow, when the part corresponded to a feature shape cannot be detected from a color similar image.

色類似画像では、前述したように特徴形状に相当する部分が黒く表示されるため、これを利用して特徴形状を検出し、ハの字幅やハの字角度といった形状情報を算出する。例えば、色類似画像にエッジ抽出を行うことによって特徴形状を検出し、特徴形状の第1特徴エッジ、第2特徴エッジ、第3特徴エッジの端部にあたる場所のピクセル座標を求めることで、このピクセル座標をもとに前述したのと同様にして形状情報を算出する構成としてもよい。   In the color-similar image, since the portion corresponding to the feature shape is displayed in black as described above, the feature shape is detected using this, and shape information such as the C-shape width and the C-shape angle is calculated. For example, a feature shape is detected by performing edge extraction on a color-similar image, and pixel coordinates of locations corresponding to the first feature edge, the second feature edge, and the third feature edge of the feature shape are obtained. The configuration may be such that the shape information is calculated based on the coordinates in the same manner as described above.

図3に戻って、ステップS8では、歩行者判定部26が歩行者判定処理を行って、ステップS9に移る。ここで、図8のフローチャートを用いて、歩行者判定処理の概略について説明を行う。図8は、歩行者判定処理のフローの一例を示すフローチャートである。また、歩行者判定部26は請求項の変化量算出手段に相当する。   Returning to FIG. 3, in step S8, the pedestrian determination unit 26 performs a pedestrian determination process, and proceeds to step S9. Here, an outline of the pedestrian determination process will be described using the flowchart of FIG. FIG. 8 is a flowchart illustrating an example of a flow of pedestrian determination processing. Moreover, the pedestrian determination part 26 is corresponded to the variation | change_quantity calculation means of a claim.

まず、ステップS81では、変化有無判定処理を行って、ステップS82に移る。変化有無判定処理では、時系列処理で設定フレーム数以上の撮像画像について一時保存メモリに格納された複数の形状情報をもとに、特徴形状のハの字幅及びハの字角度の変化(つまり、形状情報の値の変化)があるか否かを判定する。例えば、ある2つの連続するフレーム間でのハの字幅の変化量及びハの字角度の変化量を算出し、この変化量が閾値範囲内であった場合には変化がないと判定し、この変化量が閾値範囲内でなかった場合に変化ありと判定する。なお、この変化量が請求項の下端幅の時間的な変化を示す値、及び対象角度の時間的な変化を示す値に相当する。   First, in step S81, a change presence / absence determination process is performed, and the process proceeds to step S82. In the change presence / absence determination process, changes in the C-shape width and the C-shape angle of the feature shape (that is, the C-shape angle) based on the plurality of shape information stored in the temporary storage memory for the captured images of the set number of frames or more in the time series processing (that is, Whether there is a change in the value of the shape information). For example, the change amount of the C-shaped width and the change amount of the C-shaped angle between two consecutive frames are calculated, and when this change amount is within the threshold range, it is determined that there is no change, When the amount of change is not within the threshold range, it is determined that there is a change. The amount of change corresponds to a value indicating a temporal change in the lower end width of the claims and a value indicating a temporal change in the target angle.

ここで言うところの閾値は、任意に設定可能な値であって、例えば形状情報の算出誤差程度の値を設定する構成とすればよい。なお、閾値はハの字幅とハの字角度とのそれぞれについて別の値が設定される構成としてもよいし、同じ値が設定される構成としてもよい。また、本実施形態では、ある2つの連続するフレーム間でのハの字幅の変化量及びハの字角度の変化量を算出する構成を示したが、必ずしもこれに限らない。例えば、連続するフレーム間以外の2つのフレーム間でのハの字幅の変化量及びハの字角度の変化量を算出する構成としてもよい。また、3つ以上の連続するフレーム間でのハの字幅の変化量の平均値及びハの字角度の変化量の平均値を算出して用いる構成としてもよい。   The threshold value here is a value that can be arbitrarily set, and for example, a value that is about the calculation error of the shape information may be set. The threshold value may be configured such that different values are set for the C-shaped width and the C-shaped angle, or the same value may be set. Further, in the present embodiment, the configuration for calculating the change amount of the C-shaped width and the change amount of the C-shaped angle between two consecutive frames is shown, but the present invention is not necessarily limited thereto. For example, the change amount of the C-shaped width and the change amount of the C-shaped angle between two frames other than between consecutive frames may be calculated. Moreover, it is good also as a structure which calculates and uses the average value of the variation | change_quantity of the C-shaped width | variety between three or more continuous frames, and the average value of the variation | change_quantity of a C-shaped angle.

ステップS82では、ハの字幅やハの字角度の変化があると変化有無判定処理で判定した場合(ステップS82でYES)には、ステップS83に移る。また、ハの字幅やハの字角度の変化がないと変化有無判定処理で判定した場合(ステップS82でNO)には、ステップS87に移る。   In step S82, if it is determined in the change presence / absence determination process that there is a change in the C-shaped width or C-shaped angle (YES in step S82), the process proceeds to step S83. If it is determined in the change presence / absence determination process that there is no change in the C-shaped width or C-shaped angle (NO in step S82), the process proceeds to step S87.

ステップS83では、変化周期算出処理を行って、ステップS84に移る。変化周期算出処理では、時系列処理で設定フレーム数以上の撮像画像について一時保存メモリに格納された複数の形状情報をもとに、ハの字幅及びハの字角度が減少から増大に変化する点(以下、谷の底の点)、並びにハの字幅及びハの字角度が増大から減少に変化する点(山の頂上の点)を時系列に沿って求めることで、ハの字幅及びハの字角度の変化の半周期(1/2周期)の値を算出する。半周期の値は、一時保存メモリに格納されている複数の形状情報分について、上述した谷の底の点から山の頂上の点までの時間間隔、及び山の頂上の点から谷の底の点までの時間間隔の平均をとることで算出する。半周期の値は、ハの字幅及びハの字角度のそれぞれについて算出するものとする。なお、この半周期の値が請求項の下端幅の時間的な変化を示す値、及び対象角度の時間的な変化を示す値に相当する。   In step S83, a change period calculation process is performed, and the process proceeds to step S84. In the change period calculation process, the C-shaped width and the C-shaped angle change from decreasing to increasing based on a plurality of pieces of shape information stored in the temporary storage memory for captured images that are equal to or larger than the set number of frames in the time series processing. By finding the point (the point at the bottom of the valley below) and the point where the C-shaped width and the C-shaped angle change from increasing to decreasing (the point at the top of the mountain) along the time series, And the value of the half cycle (1/2 cycle) of the change in the C-shaped angle is calculated. The value of the half cycle is the time interval from the bottom point of the valley to the top point of the mountain, and the top point of the valley to the bottom of the valley for the plurality of shape information stored in the temporary storage memory. It is calculated by taking the average of the time interval to the point. The half cycle value is calculated for each of the C-shaped width and the C-shaped angle. In addition, the value of this half cycle is equivalent to the value which shows the time change of the lower end width | variety of a claim, and the value which shows the time change of an object angle.

ステップS84では、変化周期算出処理で算出した半周期の値が所定値以上であるか否かを判定する。そして、半周期の値が所定値以上であった場合(ステップS84でYES)には、ステップS86に移る。また、半周期の値が所定値以上でなかった場合(ステップS84でNO)には、ステップS85に移る。   In step S84, it is determined whether or not the half cycle value calculated in the change cycle calculation process is greater than or equal to a predetermined value. If the half cycle value is equal to or greater than the predetermined value (YES in step S84), the process proceeds to step S86. If the half cycle value is not equal to or greater than the predetermined value (NO in step S84), the process proceeds to step S85.

ここで言うところの所定値とは、任意に設定可能な値であって、実際の走行中の歩行者について算出されるハの字幅やハの字角度の半周期の値を設定すればよい。なお、所定値はハの字幅とハの字角度とのそれぞれについて別の値が設定される構成とすればよい。そして、ハの字幅の半周期の値とハの字角度の半周期の値との両方が所定値以上であった場合に、ステップS86に移り、一方でも所定値以上でなかった場合にはステップS85に移る構成とすればよい。   The predetermined value here is a value that can be arbitrarily set, and it is only necessary to set a half-width value of a C-shaped width or a C-shaped angle calculated for a pedestrian who is actually running. . In addition, what is necessary is just to set it as the structure by which a different value is set about each of a predetermined value about a square shape width and a square shape angle. If both the half-width value of the C-shaped width and the half-cycle value of the C-shaped angle are greater than or equal to a predetermined value, the process proceeds to step S86. What is necessary is just to set it as the structure which moves to step S85.

ステップS85では、歩行者候補を歩行者と判定するとともに、その歩行者が歩行中であるものと推定し、ステップS9に移る。ステップS86では、歩行者候補を歩行者と判定するとともに、その歩行者が走行中であるものと推定し、ステップS9に移る。   In step S85, the pedestrian candidate is determined to be a pedestrian, and the pedestrian is estimated to be walking, and the process proceeds to step S9. In step S86, the pedestrian candidate is determined to be a pedestrian, and the pedestrian is estimated to be traveling, and the process proceeds to step S9.

なお、本実施形態では、半周期の値が所定値以上か否かによって、歩行者の運動状態(歩行中か走行中か)を推定する構成を示したが、必ずしもこれに限らない。例えば、半周期の値でなく、1周期や2周期などの他の周期の値を用いる構成としてもよい。また、ハの字幅及びハの字角度の時間あたりの変化量が所定値以上か否かによって、歩行者の運動状態(歩行中か走行中か)を推定する構成としてもよい。   In the present embodiment, the configuration in which the pedestrian's motion state (whether walking or running) is estimated based on whether or not the half-cycle value is equal to or greater than a predetermined value is not necessarily limited thereto. For example, instead of a half cycle value, another cycle value such as one cycle or two cycles may be used. Moreover, it is good also as a structure which estimates the pedestrian's exercise | movement state (it is walking or is drive | working) according to whether the variation | change_quantity per hour of a C-shaped width and a C-shaped angle is more than predetermined value.

また、ステップS87では、形状情報の値が閾値範囲内であるか否かを判定する。例えば、第1形状情報格納処理で一次保存メモリに格納したハの字幅及びハの字角度が閾値範囲内であるか否かを判定する。そして、閾値範囲内であると判定した場合(ステップS87でYES)には、ステップS88に移る。また、閾値範囲内でないと判定した場合(ステップS87でNO)には、ステップS89に移る。   In step S87, it is determined whether or not the value of the shape information is within the threshold range. For example, it is determined whether or not the C-shaped width and the C-shaped angle stored in the primary storage memory in the first shape information storing process are within the threshold range. And when it determines with it being in the threshold value range (it is YES at step S87), it moves to step S88. If it is determined that the value is not within the threshold range (NO in step S87), the process proceeds to step S89.

閾値はハの字幅とハの字角度とのそれぞれについて別の値が設定される構成とすればよい。ハの字幅についての閾値は、任意に設定可能な値であって、例えば撮像画像中の歩行者の歩幅の長さを逸脱する程度に大きい値を設定する構成とすればよい。これによれば、ハの字幅が歩行者の歩幅として大きすぎる値である場合に、歩行者候補を歩行者でないと判定することを可能にできる。また、ハの字角度についての閾値は、任意に設定可能な値であって、例えば撮像画像中の歩行者の歩幅の長さを逸脱する程度に大きい場合のハの字角度の値を設定する構成とすればよい。これによれば、ハの字角度が歩行者のハの字角度として大きすぎる値である場合に、歩行者候補を歩行者でないと判定することを可能にできる。   What is necessary is just to set it as the structure by which a different value is set for each of a threshold value width and a letter-shaped angle. The threshold value for the C-shaped width is a value that can be arbitrarily set, and for example, a value that is large enough to deviate from the length of the pedestrian's step in the captured image may be set. According to this, it is possible to determine that a pedestrian candidate is not a pedestrian when the C-shaped width is too large as the pedestrian's step length. Further, the threshold value for the C-shaped angle is a value that can be arbitrarily set, and for example, sets the value of the C-shaped angle when it is large enough to deviate from the length of the pedestrian's step in the captured image. What is necessary is just composition. According to this, it is possible to determine that a pedestrian candidate is not a pedestrian when the cross-section angle is a value that is too large as the pedestrian's cross-section angle.

ステップS88では、歩行者候補を停止中の歩行者であるものと判定し、ステップS9に移る。ステップS89では、歩行者候補を非歩行者であるものと判定し、ステップS9に移る。   In step S88, it is determined that the pedestrian candidate is a stopped pedestrian, and the process proceeds to step S9. In step S89, it is determined that the pedestrian candidate is a non-pedestrian, and the process proceeds to step S9.

ステップS9では、歩行者判定処理で歩行者候補を歩行者と判定した場合(ステップS9でYES)には、ステップS10に移る。また、歩行者判定処理で歩行者候補を非歩行者と判定した場合(ステップS9でNO)には、ステップS1に戻ってフローを終了する。   In step S9, when the pedestrian candidate is determined to be a pedestrian in the pedestrian determination process (YES in step S9), the process proceeds to step S10. If the pedestrian candidate is determined to be a non-pedestrian in the pedestrian determination process (NO in step S9), the flow returns to step S1 to end the flow.

ステップS10では、報知処理部27が報知処理を行ってフローを終了する。報知処理では、歩行者の存在を自車両の乗員に報知する処理を行う。例えば、歩行者の存在を示すアイコン画像やテキストをディスプレイ3に表示させてもよい。また、ディスプレイ3に撮像画像を表示するとともに、撮像画像中の歩行者を枠で囲ったりするなどの強調表示を行う構成としてもよい。他にも、歩行者の存在を示す音声案内をスピーカ4から出力させてもよいし、歩行者の存在を示すインジケータ5を点灯や点滅させたりしてもよい。   In step S10, the notification processing unit 27 performs notification processing and ends the flow. In the notification process, a process of notifying the occupant of the host vehicle of the presence of a pedestrian is performed. For example, an icon image or text indicating the presence of a pedestrian may be displayed on the display 3. Moreover, it is good also as a structure which performs highlighted display, such as surrounding a pedestrian in a captured image with a frame while displaying a captured image on the display 3. FIG. In addition, voice guidance indicating the presence of a pedestrian may be output from the speaker 4, or an indicator 5 indicating the presence of a pedestrian may be lit or blinked.

さらに、歩行者判定処理で推定した歩行者の運動状態に応じて種々の処理を行う構成としてもよい。例えば、推定した運動状態(つまり、停止中、歩行中、及び走行中)の種類を示すアイコン画像やテキストをディスプレイ3に表示させてもよいし、推定した運動状態を示す音声案内をスピーカ4から出力させてもよいし、推定した運動状態の種類に応じたインジケータ5を点灯や点滅させたりしてもよい。また、ディスプレイ3に撮像画像を表示するとともに、撮像画像中の歩行者を枠で囲ったりするなどの強調表示を、推定した運動状態の種類に応じて変更する構成としてもよい。例えば、走行中、歩行中、停止中の順により強い注意喚起を自車両の乗員に促す強調表示を行う構成としてもよい。   Furthermore, it is good also as a structure which performs a various process according to the motion state of the pedestrian estimated by the pedestrian determination process. For example, an icon image or text indicating the type of the estimated motion state (that is, stopping, walking, and running) may be displayed on the display 3, and voice guidance indicating the estimated motion state is displayed from the speaker 4. It may be output, or the indicator 5 corresponding to the estimated type of exercise state may be turned on or blinked. Moreover, while displaying a captured image on the display 3, it is good also as a structure which changes highlighting, such as surrounding a pedestrian in a captured image with a frame, according to the kind of the estimated exercise state. For example, it is good also as a structure which performs the emphasis display which urges the passenger | crew of the own vehicle to call attention more strongly in order of driving | running | working, walking, and stopping.

なお、1つのフレーム内に歩行者候補が複数検出された場合には、歩行者候補ごとに図3のフローで示す処理を行って、歩行者の認識を行う構成とすればよい。   When a plurality of pedestrian candidates are detected in one frame, the processing shown in the flow of FIG. 3 may be performed for each pedestrian candidate to recognize the pedestrian.

本実施形態の歩行者認識装置2では、前述したようにして、撮像画像中の右斜めに傾いた第1特徴エッジ、左斜めに傾いた第2特徴エッジ、及び第1特徴エッジの上端と第2特徴エッジの上端とを結ぶ第3特徴エッジからなる台形状の特徴形状をもとに、撮像画像から検出した歩行者候補が歩行者であるか否かを判定して歩行者の認識を行う。   In the pedestrian recognition device 2 of the present embodiment, as described above, the first feature edge tilted to the right in the captured image, the second feature edge tilted to the left, and the upper end of the first feature edge and the first feature edge Based on the trapezoidal feature shape consisting of the third feature edge connecting the upper ends of the two feature edges, it is determined whether or not the pedestrian candidate detected from the captured image is a pedestrian and recognizes the pedestrian. .

この特徴形状は、図9(a)〜図9(c)、図10(a)及び図10(b)に示すように、歩行者の上半身から股下よりも下部の位置までが障害物によって遮られている場合や光の加減で歩行者の股下よりも下部の位置しか写っていない場合のように、歩行者の左右の脚部が股下よりも下部の位置からしか写っていない場合に検出される。詳しくは、歩行者の左右の脚部の輪郭線が第1特徴エッジ及び第2特徴エッジとして抽出され、光の加減によって生じる明暗の境界や障害物の輪郭線が第3特徴エッジとして抽出される。   As shown in FIGS. 9 (a) to 9 (c), 10 (a) and 10 (b), this characteristic shape is blocked by an obstacle from the upper body of the pedestrian to the position below the crotch. Detected when the left and right legs of the pedestrian are visible only from the position below the inseam, such as when the subject is in the lower part of the leg and below the inseam due to light adjustment The Specifically, the contour lines of the left and right legs of the pedestrian are extracted as the first feature edge and the second feature edge, and the light / dark boundary and the contour line of the obstacle caused by light adjustment are extracted as the third feature edge. .

なお、図9(a)は傘によって遮られている例であって、図9(b)は、手荷物によって遮られている例であって、図9(c)はガードレールによって遮られている例である。また、図10(a)はスカートによって遮られている例であって、図10(b)は、夜間においてヘッドライトにより歩行者の股下よりも下部の位置だけが照らされている例である。なお、図9(a)〜図9(c)、図10(a)及び図10(b)中のAが第1特徴エッジ、Bが第2特徴エッジ、Cが第3特徴エッジを示している。   9A is an example blocked by an umbrella, FIG. 9B is an example blocked by baggage, and FIG. 9C is an example blocked by a guardrail. It is. FIG. 10A is an example where the skirt blocks the skirt, and FIG. 10B is an example where only the position below the pedestrian's inseam is illuminated by the headlight at night. 9A to 9C, 10A, and 10B, A represents the first feature edge, B represents the second feature edge, and C represents the third feature edge. Yes.

よって、特徴形状をもとにすれば、歩行者の左右の脚部が股下よりも下部の位置からしか写っておらず、撮像画像中において歩行者の左右の脚部からなる輪郭が逆Vの字形とならない場合にも、歩行者候補が歩行者であるか否かを精度良く判定して歩行者の認識を行うことができる。従って、本実施形態の構成によれば、撮像画像中における歩行者の左右の脚部からなる輪郭が逆Vの字形とならない場合にも、上半身が画像上で確認できない状況下における歩行者を認識することができる。その結果、上半身が画像上で確認できない状況下おける歩行者の認識の精度をさらに向上させることができる。   Therefore, based on the feature shape, the left and right legs of the pedestrian are only seen from the position below the crotch, and the contours of the left and right legs of the pedestrian in the captured image are inverted V. Even when the character does not have a letter shape, it is possible to accurately determine whether or not the pedestrian candidate is a pedestrian and recognize the pedestrian. Therefore, according to the configuration of the present embodiment, the pedestrian is recognized in a situation in which the upper body cannot be confirmed on the image even when the contour formed by the left and right legs of the pedestrian in the captured image does not have an inverted V shape. can do. As a result, it is possible to further improve the accuracy of pedestrian recognition in situations where the upper body cannot be confirmed on the image.

撮像画像中の歩行者候補において前述のハの字幅やハの字角度の変化がない場合には、歩行者候補が運動していないと考えられるので、歩行者候補は停止中の歩行者であるか構造物等の非歩行者である可能性が高い。一方、ハの字幅やハの字角度の変化がある場合には、歩行者候補が運動していると考えられるので、歩行中や走行中の歩行者である可能性が高い。本実施形態の構成によれば、ハの字幅やハの字角度の変化があると判定した場合に、歩行者候補が歩行者であると判定する。よって、ハの字幅やハの字角度の変化の有無をもとに、歩行者候補が歩行者であることをさらに精度良く判定することができる。   If there is no change in the above-mentioned c-shaped width or c-shaped angle in the pedestrian candidate in the captured image, it is considered that the pedestrian candidate is not moving, so the pedestrian candidate is a stopped pedestrian There is a high possibility of being a non-pedestrian such as a structure. On the other hand, when there is a change in the C-shaped width or the C-shaped angle, it is considered that the pedestrian candidate is exercising, so there is a high possibility that the pedestrian is walking or running. According to the configuration of the present embodiment, when it is determined that there is a change in the C-shaped width or the C-shaped angle, it is determined that the pedestrian candidate is a pedestrian. Therefore, it can be determined more accurately that the pedestrian candidate is a pedestrian based on the presence or absence of changes in the C-shaped width or the C-shaped angle.

また、本実施形態の構成によれば、撮像画像中の歩行者候補におけるハの字幅やハの字角度の変化の半周期の値といった時間的な変化を示す値をもとに、歩行者と判定された対象が歩行中か走行中か停止中かといった運動状態を推定することができる。また、歩行者の運動状態を推定することができるので、ユーザの歩行者の運動状態についての情報を報知することも可能になる。   Further, according to the configuration of the present embodiment, a pedestrian is based on a value indicating a temporal change, such as a half-width value of a C-shaped width or a C-shaped angle change in a pedestrian candidate in a captured image. It is possible to estimate an exercise state such as whether the object determined to be walking, running, or stopped. Moreover, since the motion state of a pedestrian can be estimated, it is also possible to notify information about the motion state of the user's pedestrian.

さらに、本実施形態の構成によれば、特徴形状検出処理において検出した各特徴エッジの線分同士の比率が、撮像画像中の実際の歩行者から検出される各特徴エッジの線分同士の比率を逸脱する程度の比率を除外するような設定閾値範囲を超える場合に、特徴形状を検出できなかったものとして、歩行者候補を歩行者と判定しないことになる。よって、各特徴エッジの線分同士の比率が設定閾値範囲内でないことをもとに、歩行者でない歩行者候補を精度良く判定することが可能になる。   Furthermore, according to the configuration of the present embodiment, the ratio between the line segments of each feature edge detected in the feature shape detection process is the ratio between the line segments of each feature edge detected from the actual pedestrian in the captured image. If a set threshold range that excludes a ratio that deviates from the above is exceeded, the pedestrian candidate is not determined to be a pedestrian as a feature shape cannot be detected. Therefore, it becomes possible to accurately determine pedestrian candidates that are not pedestrians based on the fact that the ratio between the line segments of each feature edge is not within the set threshold range.

また、本実施形態の構成によれば、ある撮像画像から特徴形状を検出した場合に、その撮像画像に続くフレームの撮像画像については、線分・色情報格納処理で格納した色情報を基準値として色類似画像を作成することで特徴形状を検出する。よって、一旦撮像画像から特徴形状を検出した後は、続くフレームの撮像画像についてプレ認識処理や特徴形状検出処理を毎回行わなくてもよくなり、歩行者認識装置2の処理負荷を低減することができる。   Further, according to the configuration of the present embodiment, when a feature shape is detected from a certain captured image, the color information stored in the line segment / color information storage process is used as the reference value for the captured image of the frame following the captured image. The feature shape is detected by creating a color-similar image. Therefore, once the feature shape is detected from the captured image, it is not necessary to perform pre-recognition processing and feature shape detection processing for the captured image of the subsequent frame every time, and the processing load on the pedestrian recognition device 2 can be reduced. it can.

本実施形態では、ある撮像画像から特徴形状を検出した場合に、その撮像画像に続くフレームの撮像画像については、線分・色情報格納処理で格納した色情報を基準値として色類似画像を作成することで特徴形状を検出する構成を示したが、必ずしもこれに限らない。例えば、ある撮像画像から特徴形状を検出した場合に、その撮像画像に続くフレームの撮像画像についても、プレ認識処理、エッジ画像作成処理、及び特徴形状検出処理を毎回行うことで特徴形状を検出する構成としてもよい。   In this embodiment, when a feature shape is detected from a certain captured image, a color-similar image is created using the color information stored in the line segment / color information storage processing as a reference value for the captured image of the frame following the captured image. However, the present invention is not limited to this. For example, when a feature shape is detected from a certain captured image, the feature shape is detected by performing pre-recognition processing, edge image creation processing, and feature shape detection processing each time for a captured image of a frame following the captured image. It is good also as a structure.

本実施形態では、プレ認識処理を行う構成を示したが、必ずしもこれに限らない。例えば、プレ認識処理を行わずに撮像画像全体に対してエッジ画像作成処理を行い、特徴形状を検出する構成としてもよい。なお、この場合には、特徴形状が検出された領域を含む所定の範囲の領域を歩行者候補の画像の領域として扱う構成とすればよい。   In the present embodiment, the configuration for performing the pre-recognition process is shown, but the present invention is not necessarily limited thereto. For example, a configuration may be adopted in which edge image creation processing is performed on the entire captured image without performing pre-recognition processing to detect a feature shape. In this case, a configuration may be adopted in which a region in a predetermined range including a region where the feature shape is detected is handled as a region of a pedestrian candidate image.

本実施形態では、ハの字幅とハの字角度との両方を用いる構成を示したが、必ずしもこれに限らない。例えば、ハの字幅とハの字角度とのうちの一方のみを用いる構成としてもよい。   In the present embodiment, the configuration using both the C-shaped width and the C-shaped angle is shown, but the present invention is not necessarily limited thereto. For example, only one of the C-shaped width and the C-shaped angle may be used.

本実施形態では、歩行者の運動状態も推定する構成を示したが、必ずしもこれに限らない。例えば、運動状態の推定を行わず、撮像画像中の歩行者候補において前述のハの字幅やハの字角度の変化がある場合に、歩行者候補を歩行者と判定する構成としてもよい。また、この場合、ハの字幅やハの字角度の変化がなく、且つ、ハの字幅やハの字角度が閾値範囲内である場合に歩行者候補を歩行者であると判定する一方、ハの字幅やハの字角度が閾値範囲内でないときに歩行者候補を非歩行者であると判定する構成とすればよい。   In this embodiment, although the structure which estimates the pedestrian's motion state was shown, it does not necessarily restrict to this. For example, it is good also as a structure which determines a pedestrian candidate as a pedestrian, when there is a change of the above-mentioned C-shaped width | variety or C-shaped angle in the pedestrian candidate in a captured image, without estimating a motion state. In this case, when there is no change in the C-shaped width or C-shaped angle and the C-shaped width or C-shaped angle is within the threshold range, the pedestrian candidate is determined to be a pedestrian. The pedestrian candidate may be determined to be a non-pedestrian when the C-shaped width or the C-shaped angle is not within the threshold range.

また、歩行者認識装置2は、撮像画像中における歩行者の左右の脚部からなる輪郭が逆Vの字形となるパターンを識別する識別器等の、特徴形状以外のパターンを識別する識別器も組み合わせる構成とすることが好ましい。これによれば、特徴形状が検出されない歩行者の画像についても歩行者として認識することが可能になり、歩行者の認識性能がさらに向上する。   In addition, the pedestrian recognition device 2 includes an identifier for identifying a pattern other than a feature shape, such as an identifier for identifying a pattern in which the contour of the left and right legs of the pedestrian in the captured image is an inverted V shape. It is preferable to use a combined configuration. According to this, it becomes possible to recognize a pedestrian image in which a feature shape is not detected as a pedestrian, and the recognition performance of the pedestrian is further improved.

さらに、本実施形態では、色の表現法としてRGBカラーモデルを用いる場合の例を示したが、必ずしもこれに限らず、RGBカラーモデル以外の色の表現法を用いる場合にも本発明を適用する構成としてもよい。また、本実施形態では、カメラ1としてカラーカメラを用いる場合を例に挙げて説明を行ったが、カメラ1としてモノクロカメラや赤外線カメラ等の他の種類のカメラを用いる構成としてもよい。   Further, in the present embodiment, an example in which the RGB color model is used as the color expression method has been described. However, the present invention is not limited to this, and the present invention is also applied to a case where a color expression method other than the RGB color model is used. It is good also as a structure. Further, in the present embodiment, the case where a color camera is used as the camera 1 has been described as an example. However, another type of camera such as a monochrome camera or an infrared camera may be used as the camera 1.

なお、本発明は、上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the technical means disclosed in different embodiments can be appropriately combined. Such embodiments are also included in the technical scope of the present invention.

1 カメラ(撮像装置)、2 歩行者認識装置、3 ディスプレイ、4 スピーカ、5 インジケータ、11 レンズ、12 撮像素子、21 画像取得部(画像取得手段)、22 プレ認識部、23 エッジ画像作成部(輪郭線抽出手段)、24 特徴形状検出部(輪郭形状検出手段)、25 時系列処理部(下端幅算出手段、対象角度算出手段)、26 歩行者判定部(変化量算出手段)、27 報知処理部、100 歩行者認識システム DESCRIPTION OF SYMBOLS 1 Camera (imaging device), 2 Pedestrian recognition device, 3 Display, 4 Speaker, 5 Indicator, 11 Lens, 12 Image sensor, 21 Image acquisition part (image acquisition means), 22 Pre-recognition part, 23 Edge image creation part ( (Contour line extraction means), 24 feature shape detection section (contour shape detection means), 25 time series processing section (lower end width calculation means, target angle calculation means), 26 pedestrian determination section (change amount calculation means), 27 notification processing , 100 Pedestrian recognition system

Claims (10)

車両に搭載される撮像装置で前記車両の周辺を撮像した撮像画像から、画像認識によって歩行者候補を検出して歩行者の認識を行う歩行者認識装置であって、
前記撮像装置で撮像された撮像画像を取得する画像取得手段と、
前記画像取得手段で取得した撮像画像から、画像中の輪郭線を抽出する輪郭線抽出手段と、
前記輪郭線抽出手段で抽出した輪郭線をもとに、右斜めに傾いた輪郭線である第1輪郭線、左斜めに傾いた輪郭線である第2輪郭線、及び当該第1輪郭線の上端と当該第2輪郭線の上端とを結ぶ輪郭線である第3輪郭線からなる台形状の輪郭形状である台形輪郭形状の検出を行う輪郭形状検出手段と、
前記輪郭形状検出手段で前記台形輪郭形状の検出を行うことができた場合に、この台形輪郭形状をもとに、前記撮像画像中の歩行者候補が歩行者であるか否かを判定して歩行者の認識を行うことを特徴とする歩行者認識装置。
A pedestrian recognition device that recognizes a pedestrian by detecting a pedestrian candidate by image recognition from a captured image obtained by imaging the periphery of the vehicle with an imaging device mounted on a vehicle,
Image acquisition means for acquiring a captured image captured by the imaging device;
Contour extraction means for extracting a contour line in the image from the captured image acquired by the image acquisition means;
Based on the contour line extracted by the contour line extraction means, a first contour line that is a slanted right contour line, a second contour line that is a slanted left contour line, and the first contour line A contour shape detecting means for detecting a trapezoidal contour shape which is a trapezoidal contour shape composed of a third contour line which is a contour line connecting the upper end and the upper end of the second contour line;
When the trapezoidal contour shape can be detected by the contour shape detecting means, based on the trapezoidal contour shape, it is determined whether or not the pedestrian candidate in the captured image is a pedestrian. A pedestrian recognition apparatus characterized by recognizing a pedestrian.
請求項1において、
前記画像取得手段は、前記撮像装置で撮像された撮像画像を逐次取得するものであって、
前記輪郭形状検出手段で検出した前記台形輪郭形状から、当該台形輪郭形状のうちの前記第1輪郭線の下端と前記第2輪郭線の下端との間隔である下端幅を算出する下端幅算出手段と、
前記画像取得手段で逐次取得した撮像画像のうち、前記輪郭形状検出手段で前記台形輪郭形状の検出を行うことができた各撮像画像について前記下端幅算出手段で算出した下端幅をもとに、前記下端幅の時間的な変化を示す値を算出する変化量算出手段とを備えることを特徴とする歩行者認識装置。
In claim 1,
The image acquisition means sequentially acquires captured images captured by the imaging device,
From the trapezoidal contour shape detected by the contour shape detection unit, a lower end width calculation unit that calculates a lower end width that is an interval between the lower end of the first contour line and the lower end of the second contour line in the trapezoidal contour shape. When,
Based on the lower end width calculated by the lower end width calculating unit for each captured image that was able to detect the trapezoidal outline shape by the contour shape detecting unit among the captured images sequentially acquired by the image acquiring unit, A pedestrian recognition device comprising: a change amount calculating means for calculating a value indicating a temporal change in the lower end width.
請求項2において、
前記変化量算出手段で算出した前記下端幅の時間的な変化を示す値をもとに、前記歩行者候補が歩行者であることを判定することを特徴とする歩行者認識装置。
In claim 2,
A pedestrian recognition apparatus, wherein the pedestrian candidate is determined to be a pedestrian based on a value indicating a temporal change in the lower end width calculated by the change amount calculation means.
請求項3において、
前記変化量算出手段で算出した前記下端幅の時間的な変化を示す値をもとに、前記歩行者の運動状態を推定することを特徴とする歩行者認識装置。
In claim 3,
A pedestrian recognition apparatus characterized by estimating a motion state of the pedestrian based on a value indicating a temporal change in the lower end width calculated by the change amount calculation means.
請求項1において、
前記画像取得手段は、前記撮像装置で撮像された撮像画像を逐次取得するものであって、
前記輪郭形状検出手段で検出した前記台形輪郭形状から、当該台形輪郭形状のうちの前記第1輪郭線と前記第3輪郭線とがなす劣角、及び前記第2輪郭線と前記第3輪郭線とがなす劣角のうちの少なくともいずれかの劣角の角度である対象角度を算出する対象角度算出手段と、
前記画像取得手段で逐次取得した撮像画像のうち、前記輪郭形状検出手段で前記台形輪郭形状の検出を行うことができた各撮像画像について前記対象角度算出手段で算出した対象角度をもとに、前記対象角度の時間的な変化を示す値を算出する変化量算出手段とを備えることを特徴とする歩行者認識装置。
In claim 1,
The image acquisition means sequentially acquires captured images captured by the imaging device,
An inferior angle formed by the first contour line and the third contour line of the trapezoidal contour shape from the trapezoidal contour shape detected by the contour shape detecting means, and the second contour line and the third contour line. A target angle calculation means for calculating a target angle that is an angle of at least one of the minor angles formed by
Based on the target angle calculated by the target angle calculation unit for each captured image that was able to detect the trapezoidal contour shape by the contour shape detection unit among the captured images sequentially acquired by the image acquisition unit, A pedestrian recognition apparatus comprising: a change amount calculation unit that calculates a value indicating a temporal change in the target angle.
請求項5において、
前記変化量算出手段で算出した前記対象角度の時間的な変化を示す値をもとに、前記歩行者候補が歩行者であることを判定することを特徴とする歩行者認識装置。
In claim 5,
A pedestrian recognition apparatus, wherein the pedestrian candidate is determined to be a pedestrian based on a value indicating a temporal change in the target angle calculated by the change amount calculation means.
請求項6において、
前記変化量算出手段で算出した前記対象角度の時間的な変化を示す値をもとに、前記歩行者の運動状態を推定することを特徴とする歩行者認識装置。
In claim 6,
The pedestrian recognition apparatus characterized by estimating the movement state of the said pedestrian based on the value which shows the temporal change of the said target angle computed by the said variation | change_quantity calculation means.
請求項2〜4のいずれか1項において、
前記下端幅算出手段で算出した下端幅が所定の閾値以下でなかった場合に、前記歩行者候補が歩行者でないと判定することを特徴とする歩行者認識装置。
In any one of Claims 2-4,
The pedestrian recognition apparatus characterized by determining that the pedestrian candidate is not a pedestrian when the lower end width calculated by the lower end width calculating means is not less than a predetermined threshold.
請求項5〜7のいずれか1項において、
前記対象角度算出手段で算出した対象角度が所定の閾値以下でなかった場合に、前記歩行者候補が歩行者でないと判定することを特徴とする歩行者認識装置。
In any one of Claims 5-7,
The pedestrian recognition apparatus characterized by determining that the pedestrian candidate is not a pedestrian when the target angle calculated by the target angle calculation means is not less than a predetermined threshold.
請求項1〜9のいずれか1項において、
前記輪郭形状検出手段で検出した前記台形輪郭形状のうちの前記第1輪郭線、前記第2輪郭線、前記第3輪郭線の各線分同士の長さの比率が所定の閾値以内でなかった場合に、前記歩行者候補が歩行者でないと判定することを特徴とする歩行者認識装置。
In any one of Claims 1-9,
When the ratio of the lengths of the first contour line, the second contour line, and the third contour line in the trapezoidal contour shape detected by the contour shape detecting means is not within a predetermined threshold. And determining that the pedestrian candidate is not a pedestrian.
JP2011237768A 2011-10-28 2011-10-28 Pedestrian recognition device Expired - Fee Related JP5617819B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011237768A JP5617819B2 (en) 2011-10-28 2011-10-28 Pedestrian recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011237768A JP5617819B2 (en) 2011-10-28 2011-10-28 Pedestrian recognition device

Publications (2)

Publication Number Publication Date
JP2013097459A JP2013097459A (en) 2013-05-20
JP5617819B2 true JP5617819B2 (en) 2014-11-05

Family

ID=48619367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011237768A Expired - Fee Related JP5617819B2 (en) 2011-10-28 2011-10-28 Pedestrian recognition device

Country Status (1)

Country Link
JP (1) JP5617819B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015152304A1 (en) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 Driving assistance device and driving assistance system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249444A (en) * 1995-03-09 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> Method for detecting object attribute
JP2000207568A (en) * 1999-01-20 2000-07-28 Nippon Telegr & Teleph Corp <Ntt> Attitude measuring instrument and recording medium recording attitude measuring program
JP4536674B2 (en) * 2006-03-27 2010-09-01 本田技研工業株式会社 Pedestrian recognition device
US8229164B2 (en) * 2006-07-10 2012-07-24 Synthesis Corporation Pedestrian tracking method and pedestrian tracking device
JP2008288684A (en) * 2007-05-15 2008-11-27 Toyota Central R&D Labs Inc Person detection device and program
JP2009140023A (en) * 2007-12-03 2009-06-25 Mazda Motor Corp Vehicle obstacle detection unit
JP2010015472A (en) * 2008-07-07 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> Pedestrian sex determination device, pedestrian sex determination method, pedestrian sex determination program, and recording medium therefor
JP2010066810A (en) * 2008-09-08 2010-03-25 Mazda Motor Corp Pedestrian detecting apparatus for vehicle
JP2010165003A (en) * 2009-01-13 2010-07-29 Toyota Central R&D Labs Inc Pedestrian recognition support device and pedestrian recognition support method
JP5478928B2 (en) * 2009-03-31 2014-04-23 綜合警備保障株式会社 Person identification device, person identification method, and person identification program
JP5289290B2 (en) * 2009-11-27 2013-09-11 セコム株式会社 Posture estimation device

Also Published As

Publication number Publication date
JP2013097459A (en) 2013-05-20

Similar Documents

Publication Publication Date Title
JP4203512B2 (en) Vehicle periphery monitoring device
KR101517181B1 (en) System and method for warning lane departure
US9659497B2 (en) Lane departure warning system and lane departure warning method
JP5774770B2 (en) Vehicle periphery monitoring device
JP3934119B2 (en) Vehicle periphery monitoring device
JP5127182B2 (en) Object detection device
KR102099265B1 (en) System and method for pedestrian-vehicle collision warning based on pedestrian state
JP4482599B2 (en) Vehicle periphery monitoring device
JP5904925B2 (en) Vehicle periphery monitoring device
JP2015165376A (en) Apparatus and method for recognizing lane
US9160986B2 (en) Device for monitoring surroundings of a vehicle
JP4644273B2 (en) Vehicle periphery monitoring device
US10521679B2 (en) Human detection device, human detection system, human detection method, and human detection program
JP6572696B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
TW201520907A (en) Vision-based cyclist and pedestrian detection system and the methods
Taubel et al. A lane departure warning system based on the integration of the optical flow and Hough transform methods
KR20140104516A (en) Lane detection method and apparatus
JP5617819B2 (en) Pedestrian recognition device
US10019635B2 (en) Vehicle-mounted recognition device
JP5642785B2 (en) Vehicle periphery monitoring device
JP5785515B2 (en) Pedestrian detection device and method, and vehicle collision determination device
JP5559121B2 (en) Object type determination device
JP5802183B2 (en) Vehicle periphery monitoring device
JP2019191691A (en) Image processing apparatus, mobile apparatus and method, and program
JP5724473B2 (en) Vehicular image recognition apparatus, vehicular image recognition method, program, and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140901

R151 Written notification of patent or utility model registration

Ref document number: 5617819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees