JP2008021034A - Image recognition device, image recognition method, pedestrian recognition device and vehicle controller - Google Patents
Image recognition device, image recognition method, pedestrian recognition device and vehicle controller Download PDFInfo
- Publication number
- JP2008021034A JP2008021034A JP2006190864A JP2006190864A JP2008021034A JP 2008021034 A JP2008021034 A JP 2008021034A JP 2006190864 A JP2006190864 A JP 2006190864A JP 2006190864 A JP2006190864 A JP 2006190864A JP 2008021034 A JP2008021034 A JP 2008021034A
- Authority
- JP
- Japan
- Prior art keywords
- determination
- predetermined
- candidate
- discrimination
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、単眼カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体を判別する画像認識装置などに関する。 The present invention relates to an image recognition device that discriminates an object that is a candidate for discrimination when an object that is a candidate for discrimination is detected from an image captured by a monocular camera.
従来より、車両走行の障害となる物体との衝突を回避すること等を目的として、車載のカメラで撮像された画像内から検出された物体(例えば、歩行者)を判別する技術が提案されている。例えば、特許文献1では、所定のカメラ(例えば、可視光カメラ)で撮像された画像から判別対象となる物体を検出し、その物体に対して歩行者の輪郭パターンを用いたニューラルネットワークの物体判別手法を適用して、検出された物体が歩行者であるか等を判別する技術が開示されている。 Conventionally, a technique for discriminating an object (for example, a pedestrian) detected from an image picked up by an in-vehicle camera has been proposed for the purpose of avoiding a collision with an object that obstructs vehicle travel. Yes. For example, in Patent Document 1, an object to be discriminated is detected from an image captured by a predetermined camera (for example, a visible light camera), and an object discrimination of a neural network using a pedestrian contour pattern for the object is performed. A technique for discriminating whether or not a detected object is a pedestrian by applying a technique is disclosed.
ところで、上記した従来の技術は、画像から検出された物体の判別精度が低下する場合が考えられるという問題点があった。すなわち、上記した従来の技術は、画像から検出された物体に対して歩行者の輪郭パターンを用いたニューラルネットワークの物体判別手法を適用して、検出された物体が歩行者であるか等を判別するので、歩行者の輪郭と類似した形状の物体(例えば、歩行者の形状に類似した樹木など)を歩行者と判別する恐れがあり、物体の判別精度が低下する場合が考えられるという問題点があった。 By the way, the above-described conventional technique has a problem in that the accuracy of discriminating an object detected from an image may be reduced. That is, the above-described conventional technique applies a neural network object discrimination method using a pedestrian contour pattern to an object detected from an image to determine whether the detected object is a pedestrian or the like. Therefore, there is a possibility that an object with a shape similar to the contour of the pedestrian (for example, a tree similar to the shape of the pedestrian) may be identified as a pedestrian, and the object identification accuracy may be reduced. was there.
そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、画像から検出された物体の判別精度を向上させることが可能な画像認識装置、画像認識方法、歩行者認識装置および車両制御装置を提供することを目的とする。 Therefore, the present invention has been made to solve the above-described problems of the prior art, and an image recognition device, an image recognition method, and pedestrian recognition that can improve the discrimination accuracy of an object detected from an image. An object is to provide a device and a vehicle control device.
上述した課題を解決し、目的を達成するため、請求項1に係る発明は、カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別する物体判別手段を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the invention according to claim 1 is directed to an object that is a candidate for determination when an object that is a candidate for determination is detected from an image captured by a camera. Object determination means for determining a predetermined part constituting the predetermined object to be determined, and determining that the predetermined object is a predetermined object when a determination value obtained as a result exceeds a predetermined threshold It is provided with.
また、請求項2に係る発明は、上記の発明において、前記物体判別手段は、前記画像から検出された判別の候補となる物体について、当該判別の対象となる所定の物体を構成する複数の所定の部位に関する判定をそれぞれ行って、その結果得られる各判別値を加算した合計値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする。 According to a second aspect of the present invention, in the above invention, the object discriminating unit includes a plurality of predetermined objects constituting a predetermined object to be discriminated for an object that is a discrimination candidate detected from the image. It is characterized in that if the total value obtained by adding the respective discriminant values obtained as a result exceeds a predetermined threshold, it is determined that the object is the predetermined object.
また、請求項3に係る発明は、上記の発明において、前記物体判別手段は、前記各判別値のいずれかに重み付けを行った上で、当該各判別値を加算した合計値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする。 According to a third aspect of the present invention, in the above invention, the object discriminating unit weights one of the discriminant values and then adds the discriminant values to obtain a predetermined threshold value. If it exceeds, it is determined that the object is the predetermined object.
また、請求項4に係る発明は、上記の発明において、前記物体判別手段は、複数の連続画像から検出された判別の候補となる同一物体について前記所定の部位の動作に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする。 According to a fourth aspect of the present invention, in the above invention, the object discriminating unit performs a determination on the operation of the predetermined part for the same object that is a candidate for discrimination detected from a plurality of continuous images. When the discriminant value obtained as a result exceeds a predetermined threshold, it is discriminated that the object is the predetermined object.
また、請求項5に係る発明は、上記の発明において、前記画像から検出された判別の候補となる物体について、当該判別の対象となる所定の物体である可能性を判別する可能性判別手段をさらに備え、前記物体判別手段は、前記可能性判別手段により前記判別の候補となる物体が前記所定の物体の可能性があると判別された場合には、当該判別の候補となる物体について、当該所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする。 According to a fifth aspect of the present invention, in the above invention, there is provided a possibility determining means for determining a possibility that the object as a determination candidate detected from the image is a predetermined object to be determined. The object discriminating unit further includes the object discriminating unit, when the possibility discriminating unit discriminates that the object that is the candidate for discrimination is the predetermined object, It is characterized in that a determination relating to a predetermined part constituting a predetermined object is performed, and when the determination value obtained as a result exceeds a predetermined threshold, it is determined that the object is the predetermined object.
また、請求項6に係る発明は、上記の発明において、前記可能性判別手段は、前記判別の候補として前記画像から検出された物体の当該画像上の位置に応じた前記所定の部位に関する判定を行って、前記所定の物体の可能性がある物体を判別することを特徴とする。 According to a sixth aspect of the present invention, in the above invention, the possibility determining means determines the predetermined part according to a position on the image of an object detected from the image as the determination candidate. And determining an object that may be the predetermined object.
また、請求項7に係る発明は、上記の発明において、前記物体判別手段は、所定の条件に応じた閾値を用いて、前記判別の候補となる物体を前記所定の物体であると判別することを特徴とする。 In the invention according to claim 7, in the above invention, the object discriminating unit discriminates an object that is a candidate for discrimination as the predetermined object by using a threshold value according to a predetermined condition. It is characterized by.
また、請求項8に係る発明は、上記の発明において、前記物体判別手段は、所定の環境条件に応じた前記所定の部位に関する判定を行って、前記判別の候補となる物体を前記所定の物体であると判別することを特徴とする。 According to an eighth aspect of the present invention, in the above invention, the object determination unit performs a determination on the predetermined part according to a predetermined environmental condition, and determines an object that is a candidate for the determination as the predetermined object. It is characterized by distinguishing.
また、請求項9に係る発明は、上記の発明において、前記物体判別手段は、前記判別の候補として前記画像から検出された物体の当該画像上の位置に応じて、当該判別の候補となる物体を前記所定の物体であると判別するか否かを決定することを特徴とする。 According to a ninth aspect of the present invention, in the above invention, the object determination unit is an object that is a candidate for determination according to a position on the image of an object detected from the image as the determination candidate. Is determined as to whether or not it is the predetermined object.
また、請求項10に係る発明は、上記の発明において、前記物体判別手段により、前記画像から検出された判別の候補となる物体が、当該判別の対象となる所定の物体であると判別された場合に、当該画像から当該所定の物体が路上に侵入しようとしているか否かを判定する侵入判定手段をさらに備えたことを特徴とする。 According to a tenth aspect of the present invention, in the above invention, the object determination unit determines that an object that is a candidate for determination detected from the image is a predetermined object to be determined. In this case, the image processing apparatus further includes an intrusion determination unit that determines whether or not the predetermined object is about to enter the road from the image.
また、請求項11に係る発明は、上記の発明において、前記物体判定手段は、複数の連続画像から検出された判別の候補となる同一物体について、それぞれ別個の前記所定の部位に関する判定を行って、その結果得られる判別値がそれぞれ所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする。 According to an eleventh aspect of the present invention, in the above invention, the object determination unit performs a determination on the predetermined part that is different from each other for the same object that is a candidate for determination detected from a plurality of continuous images. When the discriminant value obtained as a result exceeds a predetermined threshold value, it is determined that the object is the predetermined object.
また、請求項12に係る発明は、上記の発明において、カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別する物体判別工程を含んだことを特徴とする。
In the invention according to
また、請求項13に係る発明は、上記の発明において、カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる歩行者を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には歩行者であると判別する物体判別手段を備えたことを特徴とする。
In the invention according to
また、請求項14に係る発明は、カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別する物体判別手段による判別結果に応じて、警告の報知および/または車両の制御を行う制御手段を備えたことを特徴とする。 According to the fourteenth aspect of the present invention, when an object that is a candidate for determination is detected from an image captured by a camera, a predetermined object that is a target of the determination is configured for the object that is a candidate for determination. When the determination regarding the predetermined part to be performed is performed and the determination value obtained as a result exceeds a predetermined threshold, the warning notification and And / or a control means for controlling the vehicle.
請求項1または12の発明によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体を構成する所定の部位(例えば、判別の対象が歩行者であれば、頭、胴体あるいは手足など)に関する判定(例えば、ニューラルネットワーク手法やパターンマッチング手法による判定)を行って、その結果得られる判別値(例えば、出力値)が所定の閾値を超えている場合(すなわち、検出された物体の中に歩行者の頭らしきものが存在する可能性が高い場合)には所定の物体であると判別するので、例えば、頭、胴体あるいは手足などの歩行者の部位に関する判定を行うことにより、歩行者の全体形状と類似した形状を持つ物体(例えば、歩行者の形状に類似した樹木など)を歩行者と誤って判別する恐れがなく、画像から検出された物体の判別精度を向上させることが可能である。 According to the first or twelfth aspect of the present invention, with respect to an object that is a candidate for determination detected from an image, a predetermined part that constitutes a predetermined object that is a target of determination (for example, if the target of determination is a pedestrian) (For example, a determination by a neural network method or a pattern matching method) and a discriminant value (for example, an output value) obtained as a result exceeds a predetermined threshold (ie, If the detected object is likely to have a pedestrian's head), it is determined that the object is a predetermined object. For example, determination regarding the pedestrian's part such as the head, torso or limbs By doing this, there is no fear that an object having a shape similar to the overall shape of the pedestrian (for example, a tree similar to the shape of the pedestrian) will be erroneously identified as a pedestrian. To improve the determination accuracy of the detected object from are possible.
また、請求項2の発明によれば、画像から検出された判別の候補となる物体について、例えば、判別の対象となる所定の物体を構成する複数の所定の部位(例えば、判別の対象が歩行者であれば、頭、胴体および手足など)に関する判定をそれぞれ行って、その結果得られる各判別値を加算した合計値が所定の閾値を超えている場合(すなわち、検出された物体の中に歩行者の頭、胴体および手足などが存在する可能性が高い場合)には歩行者であると判別するので、例えば、頭、胴体や手足などの歩行者の各部位に関する判定をそれぞれ行うことにより、画像から検出された物体を歩行者であるか否かを総合的に判別することができ、画像から検出された物体の判別精度をさらに向上させることが可能である。 According to the second aspect of the present invention, for example, a plurality of predetermined parts constituting a predetermined object to be determined (for example, a determination target is a walking object) If it is a person who has made a judgment on the head, torso, limbs, etc., and the sum of the discriminant values obtained as a result exceeds a predetermined threshold value (that is, in the detected object) Pedestrian's head, torso and limbs are highly likely to be present), it is determined that the person is a pedestrian. Thus, it is possible to comprehensively determine whether or not the object detected from the image is a pedestrian, and it is possible to further improve the determination accuracy of the object detected from the image.
また、請求項3の発明によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体を構成する複数の所定の部位に関する判定をそれぞれ行って、その結果得られる各判別値のいずれかに重み付け(例えば、距離が近い場合には、十分な情報が得られ個人差の少ない頭に関する判定の結果得られた出力値を2倍にする等)を行った上で、各判別値を加算した合計値が所定の閾値を超えている場合には所定の物体であると判別するので、画像から検出された物体の判別精度を簡易な操作で向上させることが可能である。 According to the third aspect of the present invention, the determination as to a plurality of predetermined parts constituting the predetermined object to be determined is performed for each object that is a determination candidate detected from the image, and the result is obtained. Each of the discriminant values is weighted (for example, when the distance is short, sufficient information is obtained and the output value obtained as a result of the judgment on the head with little individual difference is doubled, etc.) Therefore, when the total value obtained by adding the respective discrimination values exceeds a predetermined threshold value, it is determined that the object is a predetermined object, so that the determination accuracy of the object detected from the image can be improved with a simple operation. It is.
また、請求項4の発明によれば、複数の連続画像(例えば、現画像およびそれ以降に入力される数フレームの画像)から検出された判別の候補となる同一物体について、判別の対象となる所定の物体を構成する複数の所定の部位の動作に関する判定(例えば、判別の対象が歩行者であれば、前振りの手および後ろ振りの手に関する判定)をそれぞれ行って、その結果得られる判別値がそれぞれ所定の閾値を超えている場合(すなわち、検出された画像の中に前振りの手および後ろ振りの手が存在する可能性が高い場合)には所定の物体であると判別するので、例えば、画像から検出された物体を歩行者であるか否かを動作という要素を加味して判別することができ、画像から検出された物体の判別精度をさらに向上させることが可能である。 According to the invention of claim 4, the same object that is a candidate for discrimination detected from a plurality of continuous images (for example, the current image and images of several frames input thereafter) is a discrimination target. Discriminations obtained as a result of performing determinations regarding the motion of a plurality of predetermined parts constituting a predetermined object (for example, if the determination target is a pedestrian, determination regarding forward and backward swinging hands), respectively. If each value exceeds a predetermined threshold (that is, if there is a high possibility that a forward hand and a backward hand are present in the detected image), it is determined that the object is a predetermined object. For example, whether or not an object detected from an image is a pedestrian can be determined in consideration of an element of motion, and the determination accuracy of an object detected from an image can be further improved.
また、請求項5の発明によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体(例えば、歩行者)である可能性を判別(例えば、所定の部位に関する判定を行って、その結果得られる判別値が、簡易な判別のために予め低く設定された所定の閾値を超えているか否かで歩行者である可能性を判別)した後に、所定の物体の可能性があると判別された物体について、所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値(例えば、詳細な判別のために予め高く設定された閾値)を超えている場合には所定の物体であると判別するので、例えば、画像から検出された物体が判別の対象となる歩行者の可能性がある物体をあらかじめ判別した後に、例えば、頭、胴体や手足などの歩行者の部位に関する判定を行って、歩行者であるか否かを詳細に判別することにより、詳細な判別処理を無駄に実行することを防止することが可能である。 According to the invention of claim 5, it is determined whether an object that is a candidate for determination detected from an image is a predetermined object (for example, a pedestrian) to be determined (for example, a predetermined part). After determining the possibility of being a pedestrian based on whether or not the discriminant value obtained as a result exceeds a predetermined threshold set in advance for simple discrimination. For an object that has been determined to be possible, a determination is made regarding a predetermined part that constitutes the predetermined object, and the determination value obtained as a result is set to a predetermined threshold (for example, high for detailed determination in advance). If it is determined that the object is a predetermined object, for example, after the object detected from the image is determined in advance as an object of pedestrian as a determination target, Head, torso and It performs determination as to the site of pedestrians and feet, by determining whether or not the pedestrian in detail, it is possible to prevent wasteful perform a detailed discrimination process.
また、請求項6の発明によれば、判別の候補として画像から検出された物体の画像上の位置に応じた所定の物体(例えば、歩行者)の所定の部位に関する判定を行って、その結果得られる判別値が、例えば、簡易な判別のために予め低く設定された所定の閾値を超えている場合には、所定の物体の可能性がある物体として判別するので、候補物体が歩行者である可能性があるか否か判別するための判別パターンを使い分ける(例えば、画像上の位置から把握される検出された候補物体と車両との距離が近い場合には歩行者の頭のパターンを用い、候補物体までの距離が遠い場合には歩行者の全身パターンを用いる)ことができ、候補物体が歩行者である可能性があるか否か精度よく判別することができる結果、歩行者であるか否かを判別する処理を効率的に実行することが可能である。 According to the sixth aspect of the present invention, the determination on the predetermined part of the predetermined object (for example, a pedestrian) according to the position on the image of the object detected from the image as the determination candidate is performed, and the result For example, if the obtained discriminant value exceeds a predetermined threshold set in advance for simple discrimination, it is discriminated as an object that may be a predetermined object, so the candidate object is a pedestrian. Use different discrimination patterns to determine whether there is a possibility (for example, use the pedestrian's head pattern when the distance between the detected candidate object grasped from the position on the image and the vehicle is short) If the distance to the candidate object is far, the whole body pattern of the pedestrian is used), and it is possible to accurately determine whether the candidate object may be a pedestrian. Whether or not It is possible to perform a physical efficiently.
また、請求項7の発明によれば、所定の条件に応じて閾値を変更するので、例えば、走行場所、走行速度や物体の検出位置などの条件に応じて閾値を変更することができる結果、画像から検出された物体の判別精度をさらに向上させることが可能である。 Further, according to the invention of claim 7, since the threshold value is changed according to a predetermined condition, for example, the threshold value can be changed according to conditions such as a travel location, a travel speed, and an object detection position. It is possible to further improve the discrimination accuracy of the object detected from the image.
また、請求項8の発明によれば、所定の環境条件に応じて判別の対象となる所定の物体を構成する所定の部位に関する判定を実行するので、例えば、歩行者の服装の違いや時間帯における周囲の明るさなど、気温、天候や時間帯などの環境条件に応じた判定を実行することができる結果、画像から検出された物体の判別精度をさらに向上させることが可能である。 Further, according to the invention of claim 8, since the determination regarding the predetermined part constituting the predetermined object to be determined is performed according to the predetermined environmental condition, for example, the difference in pedestrian clothes and the time zone As a result of performing determination according to environmental conditions such as ambient brightness, temperature, weather, and time zone, it is possible to further improve the discrimination accuracy of an object detected from an image.
また、請求項9の発明によれば、判別の候補として画像から検出された物体の画像上の位置に応じて、判別の対象となる所定の物体を構成する所定の部位に関する判定を実行するか否かを決定するので、例えば、道路内で物体が検出された場合には詳細な判別処理を実行し、道路外で物体が検出された場合には詳細な判別処理を実行しないようにすることができ、詳細な判別処理を無駄に実行することを防止することが可能である。 According to the ninth aspect of the present invention, whether or not to execute a determination on a predetermined part constituting a predetermined object to be determined according to a position on the image of an object detected from the image as a determination candidate. For example, when an object is detected on the road, a detailed determination process is executed, and when an object is detected outside the road, a detailed determination process is not executed. It is possible to prevent the detailed determination processing from being performed wastefully.
また、請求項10の発明によれば、画像から検出された判別の候補となる物体が、判別の対象となる所定の物体であると判別された場合に、例えば、現画像における歩行者の位置が次画像において路上に接近している場合や歩行者が道路へ向いている場合など、画像から所定の物体が路上に侵入しようとしているか否かを判定するので、画像から検出された物体を所定の物体であると判別するだけでなく、路上に侵入しようとしているか否かまで判定することが可能である。
According to the invention of
また、請求項11の発明によれば、複数の連続画像から検出された判別の候補となる同一物体について、それぞれ別個の前記所定の部位に関する判定を行って(例えば、現画像において頭に関する判定を行った場合には、次画像において手足に関する判定を行う)、その結果得られる判別値がそれぞれ所定の閾値を超えている場合には当該所定の物体であると判別するので、例えば、画像内に歩行者が鮮明に撮像されていない場合であっても、画像から検出された物体の判別精度を向上させることが可能である。 According to the eleventh aspect of the present invention, for the same object that is a candidate for discrimination detected from a plurality of continuous images, the determination regarding the predetermined part is performed separately (for example, determination regarding the head in the current image). When the determination is made, the determination regarding the limb is performed in the next image), and when the determination value obtained as a result exceeds a predetermined threshold value, it is determined that the object is the predetermined object. Even when a pedestrian is not clearly imaged, it is possible to improve the discrimination accuracy of an object detected from an image.
また、請求項13の発明によれば、画像から検出された判別の候補となる物体について、判別の対象となる歩行者を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には歩行者であると判別するので、頭、胴体あるいは手足などの歩行者の部位に関する判定を行うことにより、歩行者の全体形状と類似した形状を持つ物体(例えば、歩行者の形状に類似した樹木など)を歩行者と誤って判別する恐れがなく、画像から検出された物体を歩行者であるか否か判別する判別精度を向上させることが可能である。
According to the invention of
また、請求項14の発明によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には所定の物体であると判別し、その判別結果に応じて、警告の報知および/または車両の制御を行うので、画像から検出された物体を歩行者であるか否か精度よく判別することができる結果、警告の報知や車両の制御を効率的に行うことが可能である。 According to the fourteenth aspect of the present invention, the determination value obtained as a result of performing the determination on the predetermined part constituting the predetermined object to be determined with respect to the object as the determination candidate detected from the image. Is determined to be a predetermined object when it exceeds a predetermined threshold value, and warning notification and / or vehicle control is performed according to the determination result. As a result of accurately determining whether or not there is a warning, it is possible to efficiently perform warning notification and vehicle control.
以下に添付図面を参照して、本発明に係る画像認識装置、画像認識方法、歩行者認識装置および車両制御装置の実施例を詳細に説明する。なお、以下では、本発明に係る画像認識装置および車両制御装置を搭載した車両を実施例1として説明した後に、本発明に含まれる他の実施例を説明する。 Exemplary embodiments of an image recognition device, an image recognition method, a pedestrian recognition device, and a vehicle control device according to the present invention will be described below in detail with reference to the accompanying drawings. In the following, a vehicle equipped with an image recognition device and a vehicle control device according to the present invention will be described as a first embodiment, and then another embodiment included in the present invention will be described.
以下の実施例1では、本発明の実施例1に係る概要および特徴、実施例1の構成および処理の流れを順に説明し、最後に実施例1による効果を説明する。 In the following first embodiment, the outline and features according to the first embodiment of the present invention, the configuration of the first embodiment, and the flow of processing will be described in order, and finally the effects of the first embodiment will be described.
[概要および特徴(実施例1)]
まず最初に、図1を用いて、実施例1の概要および特徴を説明する。図1は、実施例1の概要および特徴を説明するための図である。
[Outline and Features (Example 1)]
First, the outline and features of the first embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining the outline and features of the first embodiment.
同図に示すように、実施例1は、車載のカメラ(例えば、単眼カメラやステレオカメラなど)で撮像された画像から判別の候補となる物体が検出された場合に、判別の候補となる物体を判別するとともに所定の制御(報知制御や車両走行制御)を行うことを概要とするが、画像から検出された物体の判別精度を向上させる点に主たる特徴がある。なお、ここでは物体の判別の効率化を図るため、画像上の道路内に存在する物体のみを判別対象とする。 As shown in the figure, in the first embodiment, an object that becomes a candidate for discrimination is detected when an object that becomes a candidate for discrimination is detected from an image captured by a vehicle-mounted camera (for example, a monocular camera or a stereo camera). The outline of performing the predetermined control (notification control and vehicle travel control) is the main feature in that the accuracy of determining the object detected from the image is improved. Here, in order to improve the efficiency of object discrimination, only objects existing in the road on the image are set as discrimination targets.
この主たる特徴について具体的に説明すると、例えば、単眼カメラにより撮像された画像が1フレーム入力されると、その入力画像から判別の候補となる候補物体を、例えば、顕著性算出法により検出する(図1の(1)参照)。ここで、顕著性算出法とは、学習プロセスによって予め生成して記憶している学習基底に基づいて、入力画像に顕著な特徴(例えば、道路や建物などの車両周囲の環境として一般的な背景以外)が検出されるか否かによって物体を検出する物体検出手法をいう。 Specifically, for example, when one frame of an image captured by a monocular camera is input, a candidate object that is a candidate for determination is detected from the input image by, for example, a saliency calculation method ( (See (1) in FIG. 1). Here, the saliency calculation method is based on a learning base that is generated and stored in advance by a learning process, and features that are prominent in the input image (for example, a general background as an environment around a vehicle such as a road or a building). An object detection method for detecting an object depending on whether or not is detected.
そして、入力画像から判別の候補となる候補物体を検出した場合には、ニューラルネットワーク手法を用いた大まかな判別(すなわち、検出された物体が判別の対象となる歩行者の可能性があるか否か判別)を行う(図1の(2)参照)。ここで、ニューラルネットワーク手法とは、判別の対象となる物体(例えば、歩行者などの人間)について学習させた学習モデルを生成して記憶し、その学習モデルに未知の画像の画素値を入力した場合に出力される出力値に応じて物体の判別を行う手法である。 When a candidate object that is a candidate for discrimination is detected from the input image, a rough discrimination using a neural network technique (that is, whether the detected object is a possibility of a pedestrian to be determined) (See (2) in FIG. 1). Here, the neural network method is to generate and store a learning model learned about an object to be discriminated (for example, a human such as a pedestrian), and input a pixel value of an unknown image to the learning model. This is a technique for discriminating an object according to an output value output in a case.
具体的には、例えば、図2に例示するように、判別の候補として検出された候補物体の輪郭の大きさおよび形状と、歩行者の全身のパターンの大きさおよび形状とを比較して、その一致度を示す判定出力値(例えば、A)が、所定の判別閾値(例えば、I)を超えている場合(例えば、A≧Iである場合)には、検出された候補物体を判別の対象となる歩行者の可能性があると判別する。すなわち、検出された物体について予め大まかな判別を行って、判別の対象となる歩行者の可能性を判別することにより、詳細な判別処理を無駄に実行することを防止する趣旨である。 Specifically, for example, as illustrated in FIG. 2, the size and shape of the contour of the candidate object detected as a candidate for discrimination are compared with the size and shape of the pattern of the pedestrian's whole body. When the determination output value (for example, A) indicating the degree of coincidence exceeds a predetermined determination threshold value (for example, I) (for example, when A ≧ I), the detected candidate object is determined. It is determined that there is a possibility of a target pedestrian. That is, it is intended to prevent the detailed determination processing from being performed wastefully by making a rough determination on the detected object in advance and determining the possibility of a pedestrian to be determined.
大まかな判別の結果、入力画像から検出された物体について歩行者の可能性があると判別した場合には、続いて、ニューラルネットワーク手法を用いた詳細な判別(すなわち、検出された物体が判別の対象である歩行者であるか否か判別)を行う(図1の(3)参照)。 As a result of rough discrimination, if it is determined that there is a possibility of a pedestrian with respect to an object detected from the input image, then detailed discrimination using the neural network technique (that is, the detected object is It is determined whether or not the subject is a pedestrian (see (3) in FIG. 1).
具体的には、例えば、図3に例示するように、大まかな判別により歩行者の可能性があると判別された物体の大きさおよび形状と、歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかのパターン(例えば、頭)とを比較して、その一致度を示す判定出力値(例えば、B)が、所定の判別閾値(例えば、G)を超えている場合には歩行者であると判別する。 Specifically, for example, as illustrated in FIG. 3, the size and shape of an object determined to be a pedestrian by rough determination, and a predetermined part (for example, a head) , Torso, limbs, etc.) (for example, the head) and the determination output value (for example, B) indicating the degree of coincidence exceeds a predetermined determination threshold (for example, G) In this case, it is determined that the person is a pedestrian.
続いて、候補物体の判別結果等に応じて、警告の報知や車両の制御を行う(図1の(4)参照)。具体的には、候補物体を歩行者であると判別した場合に、例えば、画像上の位置から歩行者までの距離を算出して、歩行者との衝突危険度を判定し、この判定結果に応じて警告の報知や車両の制御を行う。なお、歩行者までの距離は、車載のレーダ(例えば、ミリ波レーダ、光レーダなど)によって取得するようにしてもよい。 Subsequently, warning notification and vehicle control are performed according to the determination result of the candidate object (see (4) in FIG. 1). Specifically, when it is determined that the candidate object is a pedestrian, for example, the distance from the position on the image to the pedestrian is calculated, the collision risk with the pedestrian is determined, and the determination result is In response, warning notification and vehicle control are performed. The distance to the pedestrian may be acquired by an on-vehicle radar (for example, millimeter wave radar, optical radar, etc.).
このようなことから、上述した主たる特徴の如く、頭、胴体あるいは手足などの歩行者の部位に関する判定を行うことにより、歩行者の全体形状と類似した形状を持つ物体(例えば、歩行者の形状に類似した樹木など)を歩行者と誤って判別する恐れがなく、画像から検出された物体の判別精度を向上させることが可能であり、画像から検出された物体を歩行者であるか否か精度よく判別することができる結果、警告の報知や車両の制御を効率的に行うことが可能である。 For this reason, an object having a shape similar to the overall shape of a pedestrian (for example, the shape of a pedestrian, for example, by performing a determination on a pedestrian's part such as the head, torso, or limbs as described above. It is possible to improve the discrimination accuracy of the object detected from the image and whether the object detected from the image is a pedestrian or not. As a result of being able to discriminate with high accuracy, it is possible to perform warning notification and vehicle control efficiently.
[実施例1の構成]
次に、図4を用いて、実施例1に係る画像認識装置および車両制御装置の構成を説明する。図4は、実施例1に係る画像認識装置および車両制御装置の構成を示すブロック図である。同図に示すように、この車両は、車両制御装置10、撮像装置(単眼カメラ)11、ナビ部12、レーダ部13、車内通知部14および画像認識装置20を搭載している。また、車両制御装置10は、報知制御部15および車両制御部16から構成され、画像認識装置20は、前処理部21、記憶部22および制御部(マイコン)23から構成される。
[Configuration of Example 1]
Next, the configuration of the image recognition device and the vehicle control device according to the first embodiment will be described with reference to FIG. FIG. 4 is a block diagram illustrating configurations of the image recognition device and the vehicle control device according to the first embodiment. As shown in the figure, the vehicle includes a
このうち、ナビ部12は、GPS(Global Positioning System)人工衛星と通信を行って、特定した自動車の位置と地図データとから走行経路の設定および誘導を行う手段である。また、ナビ部12は、自動車の位置情報や道路形状、路幅、傾斜など車両運転操作に有用な各種の情報を、後述する車内通知部14を介して運転者に供給する。
Among them, the
レーダ部13は、レーダ(例えば、76.5GHzのミリ波レーダや光レーダなど)を照射して、前方の車両や障害物(例えば、歩行者)との距離や速度、方向などを測定する手段である。例えば、このレーダ部13は、車両前方に位置する歩行者の存在を検知すると、歩行者の足元(接地面)を自動的に認識して、その接地面から車両までの距離をレーダによって取得(測定)した後、衝突危険度判定部23cにその距離情報(車両から歩行者までの距離)を出力する。
The
車内通知部14は、ナビ部12や後述する報知制御部15からの情報を通知する手段であり、モニタやスピーカなどで構成される。例えば、この車内通知部14は、報知制御部15からの指令を受け付けて、歩行者の存在を示す画像をモニタに出力して運転者の注意を促したり、メッセージやアラーム音をスピーカから流すことにより運転者に対して警告を行ったりする。
The in-
車両制御装置10の報知制御部15は、後に詳述する衝突危険度判定部23cからの指令を受け付けて、報知制御を行う処理部である。例えば、この報知制御部15は、衝突危険度判定部23cから運転者への注意や警告指令を受け付けた場合には、車内通知部14に対して歩行者の存在を示す画像やアラーム音によって、運転者への注意や警告を行うように指令を出力する。なお、衝突危険度判定部23cにおいて衝突危険度のみを判定するような構成とした場合には、報知制御部15は、衝突危険度判定部23cから受け付けた衝突危険度に応じて、報知制御の内容を自ら判断して実行するようにしてもよく、あるいは、画像認識装置20において、衝突危険度判定部23cを設けない構成とする場合には、報知制御部15が自ら衝突危険度を判定して報知制御を実行するようにしてもよい。
The
車両制御装置10の車両制御部16は、衝突危険度判定部23cからの指令を受け付けて、車両の制御(車両走行制御)を行う処理部である。例えば、車両制御部16は、衝突危険度判定部23cからブレーキ制御指令を受け付けた場合には、ブレーキ制御を実行して速度減速を行う。また、衝突危険度判定部23cからハンドル制御指令を受け付けた場合には、車両制御部16は、ハンドル制御を実行して衝突回避を行う。なお、衝突危険度判定部23cにおいて衝突危険度のみを判定するような構成とした場合には、車両制御部16は、衝突危険度判定部23cから受け付けた衝突危険度に応じて、車両走行制御の内容を自ら判断して実行するようにしてもよく、あるいは、画像認識装置20において、衝突危険度判定部23cを設けない構成とする場合には、車両制御部16が自ら衝突危険度を判定して車両走行制御を実行するようにしてもよい。
The
また、画像認識装置20の前処理部21は、撮像装置11によって撮像された画像に前処理を行う処理部であり、フィルタ部21aと輪郭抽出部21bとから構成される。このうち、フィルタ部21aは、画像内に映し出された物体の輪郭を強調するための前処理(例えば、シャープネス、コントラスト調整、彩度調整)を行う手段である。また、輪郭抽出部21bは、フィルタ部21aによって施されたフィルタリングに基づいて、画像内の物体の輪郭を抽出する手段である。
The preprocessing
画像認識装置20の記憶部22は、制御部23による各種処理に必要なデータおよびプログラムを格納する格納手段(記憶手段)である。そして、特に本発明に密接に関連するものとしては、学習基底記憶部22a、学習モデル記憶部22bおよび衝突危険度判定テーブル22cを備える。
The
このうち、学習基底記憶部22aは、後に詳述する物体検出部23aによる物体検出処理に必要な学習基底を記憶する記憶手段である。学習基底の生成について具体的に説明すると、まず、判別の対象となる物体(例えば、歩行者)が存在しない同一のオブジェクト(道路等を含む背景)を車両走行中に撮影した複数の学習用画像を入力して学習領域を切り出す(例えば、20×20ピクセル)。続いて、この切り出した学習領域をN次元のベクトル(Nは画素値であり、例えば、20×20ピクセルであれば400次元)として扱い、このN次元ベクトルからなる学習領域内について主成分分析を行って、特徴ベクトル(N次元ベクトルの主成分)を抽出する。そして、入力される全ての学習画像に対して特徴ベクトルの抽出を行って、同一のオブジェクトに対して共通する特徴ベクトル成分から学習基底を生成して記憶する。
Among these, the learning
学習モデル記憶部22bは、後に詳述する物体判別部23bによる物体判別処理に必要な学習モデルを記憶する記憶手段である。具体的には、判別の対象となる物体である歩行者についてのパターン(歩行者の全身のパターンや歩行者を構成する各部位である頭、手足、胴体などのパターン)を様々な条件(例えば、車両からの距離、服装の変化が考えられる天候や歩行者が見えにくくなる時間帯等)に応じて予め学習して記憶する。
The learning
衝突危険度判定テーブル22cは、後に詳述する衝突危険度判定部23cによる衝突危険度判定処理に必要な判定テーブルを記憶する記憶手段である。具体的には、図5に例示するように、画像から検出され判別の候補となる物体(候補物体)が「歩行者でない」場合には、その候補物体までの距離にかかわらず(つまり「ALL」)、危険度「0」、車両制御/報知制御「なし」とし、一方、候補物体が「歩行者である」場合には、その候補物体までの距離「30m以上」で、危険度「レベル1」、車両制御/報知制御「歩行者の存在を示す画像を出力」、距離「10〜30m」で、危険度「レベル2」、車両制御/報知制御「ブレーキ制御による速度減速」、距離「10m未満」で、危険度「レベル3」、車両制御/報知制御「ハンドル制御による衝突回避」とするように規定して構成される。
The collision risk determination table 22c is a storage unit that stores a determination table necessary for the collision risk determination process by the collision
なお、上記に示した衝突危険度判定テーブル22cの構成はあくまで一例であり、例えば、候補物体が歩行者でない場合であっても、危険度の設定や車両制御あるいは報知制御を行うようにしてもよいし、候補物体までの距離の設定を車両の走行速度に対応させて自動的に更新(例えば、車両の速度が速い場合には衝突を回避できるように設定距離を長めに自動更新)するようにしてもよいし、車両制御あるいは報知制御の内容として別のもの(例えば、危険度レベルが高い場合には車両制御として「プリクラッシュ」や危険度レベルが中程度の場合には報知制御として「音声による警告」など)規定して採用するようにしてもよい。 Note that the configuration of the collision risk determination table 22c described above is merely an example. For example, even when the candidate object is not a pedestrian, risk setting, vehicle control, or notification control may be performed. It is good to update the distance to the candidate object automatically according to the traveling speed of the vehicle (for example, when the speed of the vehicle is high, the setting distance is automatically updated to be longer so that a collision can be avoided). Alternatively, the contents of the vehicle control or notification control may be different (for example, “pre-crash” as vehicle control when the risk level is high, or “notice control” when the risk level is medium. You may make it employ | adopt by prescribing | regulating.
画像処理装置20の制御部(マイコン)23は、所定の制御プログラム、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する処理部である。そして、特に本発明に密接に関連するものとしては、物体検出部23aと、物体判別部23bと、衝突危険度判定部23cとを備える。
The control unit (microcomputer) 23 of the
このうち、物体検出部23aは、入力画像内から判別の候補となる候補物体を顕著性算出法によって検出する処理部である。具体的には、この物体検出部23aは、学習基底記憶部22aから学習基底を読み出し、撮像装置11から現在入力されている入力画像と比較して、入力画像内に学習基底には見られない顕著な特徴(例えば、特異なベクトル)が現れている場合には、判別の候補となる候補物体が存在するものとしてその領域を画像内から検出する。なお、物体検出部23aは、顕著性算出法によって入力画像内から判別の候補となる物体を検出する場合に限られるものではなく、例えば、背景差分法による画像処理やエッジ抽出処理などによって検出するようにしてもよい。なお、物体検出部23aは、前処理部21から入力される所定の画像フレーム(例えば、1フレームや数フレーム)ごとに候補物体の検出処理を行う。
Among these, the
物体判別部23bは、物体検出部23aによって入力画像から検出された判別の候補となる候補物体が歩行者であるか否かニューラルネットワーク手法によって詳細に判別する処理部である。
The
具体的には、まず、この物体判別部23bは、撮像装置11から現在入力されている入力画像内の候補物体の輪郭および大きさと、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかのパターンの大きさおよび形状とを比較する判定(部位判定)を行って、その一致度(一致度合い)を示す判定出力値を求める。
Specifically, first, the
そして、この物体判別部23bは、判定出力値が所定の判別閾値(例えば、完全一致を100%として70%)を超えていれば、候補物体が歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかであることから、候補物体を歩行者であると判別し、その判別結果(例えば、「歩行者である」という判別結果)を衝突危険度判定部23cへ出力する。
Then, if the determination output value exceeds a predetermined determination threshold value (for example, 70% with 100% being a perfect match), the
また、この物体判別部23bは、物体検出部23aにより検出された候補物体について、例えば、歩行者の全身のパターンの大きさおよび形状と、候補物体の輪郭の大きさおよび形状とを比較する判定(全身判定)を行って大まかに判別することにより、候補物体が歩行者である可能性があるか否か判別し、候補物体が歩行者である可能性がある場合には、さらに部位判定を行って詳細に判別するようにしてもよい。物体検出部23aにより検出された候補物体が複数ある場合には、歩行者であるか否か判別することにより、詳細に判別する対象が絞り込まれる。
Further, the
具体的には、この物体判別部23bは、学習モデル記憶部22bに記憶しておいた歩行者の全身のパターンの大きさおよび形状と、候補物体の輪郭の大きさおよび形状とを比較して、その一致度を示す判定出力値が所定の判別閾値以上であれば(例えば、100%を完全一致として30%以上であれば)、候補物体が歩行者である可能性があるものと判別して、続いて、候補物体が歩行者であるか否か最終的な結論を得るため、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)の各パターンとの一致度合いに関する部位判定を行って詳細に判別する。
Specifically, the
全身のパターンのみとの比較から候補物体の判別を行うとすると、その候補物体が実際には歩行者であったとしても、候補物体が歩行者であるか否か判別するための判別閾値を高く設定した場合には、入力画像から少しあいまいな状態(形状)で検出された候補物体について「歩行者ではない」とする判別漏れが出る恐れがあり、また、判別閾値を下げると歩行者の形状に類似した樹木などの物体を歩行者と判別してしまう恐れがある。一方、歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかのパターンのみとの比較から候補物体の判別を行うとすると、例えば、頭の形状に類似した物体を歩行者の頭と判別してしまう恐れがあり、また、入力画像から検出された候補物体が複数ある場合に、それらの全てに関し、歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかのパターンについて判別処理の行うのでは効率が悪い。すなわち、大まかな判別により候補物体が歩行者であるか否かの判定を行った後、歩行者である可能性のある候補物体について詳細な判別を行う趣旨は、このような事態を鑑みたものである。なお、部位判定で候補物体の絞込みを行った後、全身判定を行うようにしてもよい。 If a candidate object is determined based on a comparison with only the whole body pattern, even if the candidate object is actually a pedestrian, the determination threshold for determining whether the candidate object is a pedestrian is increased. If it is set, there is a risk that the candidate object detected in a slightly ambiguous state (shape) from the input image may be “not a pedestrian”, and if the discrimination threshold is lowered, the shape of the pedestrian There is a risk of discriminating objects such as trees similar to pedestrians. On the other hand, if a candidate object is determined based on a comparison with only one of predetermined patterns (eg, head, torso, limbs, etc.) constituting a pedestrian, for example, an object similar to the shape of the head is walked. When there are a plurality of candidate objects detected from the input image, a predetermined part constituting the pedestrian (for example, head, torso, limbs, etc.) It is inefficient to perform the discrimination processing for any of the patterns. In other words, the purpose of performing detailed determination on a candidate object that may be a pedestrian after determining whether the candidate object is a pedestrian through rough determination is based on such a situation. It is. Note that whole body determination may be performed after narrowing down candidate objects in the region determination.
また、物体判別部23bにおいて実行される物体判別処理は、入力画像から検出された判別の候補となる候補物体をニューラルネットワーク手法によって判別する場合に限られるものではなく、歩行者についてのパターン(例えば、頭、胴体、手足などの歩行者を構成する所定の部位や全身などのテンプレート)を用いたパターンマッチング手法によって物体判別を実行する場合についても同様に適用できる。
In addition, the object discrimination processing executed in the
衝突危険度判定部23cは、物体判別部23bによる判別結果等に基づいて、入力画像から検出された物体との衝突危険度を判定し、車両制御や報知制御の指令を出力する処理部である。具体的には、衝突危険度判定部23cは、物体判別部23bから判別結果を受け付けると、衝突危険度判定テーブル22cから衝突危険度判定テーブル(図5参照)を読み出す。そして、衝突危険度判定部23cは、物体判別部23bから受け付けた判別結果、および画像上の位置から把握される歩行者までの距離(画像の上部に位置する場合は遠く、画像の下部に位置する場合は近い)もしくはレーダ部13から受け付けた距離に応じて衝突危険度を判定し、所定の危険度であると判定した場合には、車両制御部16に車両制御の指令を出力し、あるいは、報知制御部15に報知制御の指令を出力する。
The collision
すなわち、例を挙げて説明すると、衝突危険度判定部23cは、物体判別部23bから「歩行者である」との判別結果を受け付けた場合以外には、衝突の危険度はないもの(危険度「レベル0」)と判定して特に車両制御や報知制御の指令を出力しない。一方、衝突危険度判定部23cは、物体判別部23bから「歩行者である」との判別結果を受け付けた場合には、画像上の位置から把握される歩行者までの距離に応じて、例えば、歩行者までの距離が遠い場合(例えば、30m以上である場合)には、衝突の危険度は低いもの(危険度「レベル1」)と判定して歩行者の存在を示す画像などによって運転者への注意や警告を行うように報知制御部15に対して指令を出力し、また、歩行者までの距離が中程度に近い場合(例えば、10m以上30m未満である場合)には、衝突の危険度は中程度(レベル2)と判定してブレーキ制御による速度減速を行うように車両制御部16に対して指令を出力し、さらに、歩行者までの距離が極めて近い場合(例えば、10m未満である場合)には、衝突の危険度は高いもの(レベル3)と判定してハンドル制御による衝突回避を行うように車両制御部16に対して指令を出力する。なお、歩行者までの距離は、レーダ部13(例えば、ミリ波レーダ、光レーダなど)から取得した距離情報に基づいて把握するようにしてもよい。
That is to say, with an example, the collision
また、衝突危険度判定部23cは、衝突危険度の判定のみを行って、衝突危険度の判定結果を報知制御部15や車両制御部16へ出力するようにしてもよい。この場合、報知制御部15や車両制御部16は、衝突危険度判定部23cから受け付けた衝突危険度に応じて、報知制御の内容や車両制御の内容を各々が判断して実行する。
Further, the collision
[画像認識装置および車両制御装置による処理(実施例1)]
次に、図6を用いて、実施例1に係る画像制御装置のマイコン(制御部)および車両制御装置による処理を説明する。図6は、実施例1に係る画像制御装置のマイコン(制御部)および車両制御装置による処理の流れを示すフローチャートである。なお、以下に説明する車両制御装置による処理は、画像が1フレーム入力されるたびに繰り返し実行される。
[Processing by Image Recognition Device and Vehicle Control Device (Example 1)]
Next, processing by the microcomputer (control unit) and the vehicle control device of the image control device according to the first embodiment will be described with reference to FIG. FIG. 6 is a flowchart illustrating a flow of processing by the microcomputer (control unit) and the vehicle control device of the image control device according to the first embodiment. The process performed by the vehicle control device described below is repeatedly executed every time one frame of an image is input.
同図に示すように、画像が1フレーム入力されると(ステップS601肯定)、前処理部21は入力画像に前処理を行う(ステップS602)。次に、物体検出部23aは、入力画像内から判別の候補となる候補物体を顕著性算出法によって検出する(ステップS603)。
As shown in the figure, when one frame of an image is input (Yes at step S601), the preprocessing
具体的には、この物体検出部23aは、学習基底記憶部22aから学習基底を読み出し、撮像装置11から現在入力されている入力画像と比較して、入力画像内に学習基底には見られない顕著な特徴(例えば、特異なベクトル)が現れている場合には、判別の候補となる候補物体が存在するものとしてその領域を画像内から検出する。
Specifically, the
そして、物体判別部23bは、物体検出部23aによって入力画像から検出された判別の候補となる候補物体の大きさおよび形状と、歩行者の全身のパターンの大きさおよび形状との一致度合いに関する判定(全身判定)を行って大まかに判別することにより、候補物体が歩行者である可能性があるか否か判別を行う(ステップS604)。
Then, the
具体的には、物体判別部23bは、学習モデル記憶部22bに記憶しておいた歩行者の全身のパターンの大きさおよび形状と、候補物体の輪郭の大きさおよび形状とを比較して、その一致度を示す判定出力値が所定の判別閾値以上であれば(例えば、100%を完全一致として30%以上であれば)、候補物体が歩行者である可能性があるものと判別する。
Specifically, the
その結果、候補物体について歩行者の可能性があるものと判別した場合には(ステップS604肯定)、物体判別部23bは、候補物体が歩行者であるか否か最終的な結論を得るため、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)の各パターンとの一致度合いに関する部位判定を行って詳細に判別する(ステップS605)。一方、候補物体を歩行者の可能性があるものと判別しなかった場合には(ステップS604否定)、物体判別部23bは、次フレームの画像の入力を待機する。
As a result, when it is determined that the candidate object has a possibility of a pedestrian (Yes in step S604), the
具体的には、この物体判別部23bは、候補物体の輪郭について、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)の各パターンと略一致する部分があるか否かサーチを行い、略一致するパターンがある場合には、候補物体の輪郭の大きさおよび形状と、略一致したパターンの大きさおよび形状とを比較して、その一致度を示す判定出力値を求め、判定出力値が所定の判別閾値(例えば、完全一致を100%として70%)を超えていれば、候補物体が歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかであることから、候補物体を歩行者であると判別する。
Specifically, the
詳細に判別した結果、候補物体を歩行者であると判別した場合には(ステップS605肯定)、物体判別部23bは、その判別結果(例えば、「歩行者である」という判別結果)を衝突危険度判定部23cへ出力する(ステップS606)。一方、候補物体を歩行者であると判別しなかった場合には(ステップS605否定)、物体判別部23bは、判別結果の出力は行わず、次フレームの画像の入力を待機する。
If it is determined in detail that the candidate object is determined to be a pedestrian (Yes at step S605), the
続いて、衝突危険度判定部23cは、物体判別部23bから受け付けた判別結果等に基づいて、入力画像から検出された候補物体との衝突危険度を判定し(ステップS607)、車両制御や報知制御の指令を出力する。具体的には、衝突危険度判定部23cは、物体判別部23bから判別結果を受け付けると、衝突危険度判定テーブル22cから衝突危険度判定テーブル(図5参照)を読み出して、物体判別部23bから受け付けた判別結果、および画像上の位置から把握される歩行者までの距離(画像の上部に位置する場合は遠く、画像の下部に位置する場合は近い)に応じて衝突危険度を判定し、車両制御部16に車両制御の指令を出力し、あるいは、報知制御部15に報知制御の指令を出力する。
Subsequently, the collision
すなわち、例を挙げて説明すると、衝突危険度判定部23cは、物体判別部23bから「歩行者である」との判別結果を受け付けた場合以外には、衝突の危険度はないもの(レベル0)と判定して特に車両制御や報知制御の指令を出力しない。一方、衝突危険度判定部23cは、物体判別部23bから「歩行者である」との判別結果を受け付けた場合には、画像上の位置から把握される歩行者までの距離に応じて、例えば、歩行者までの距離が遠い場合(例えば、30m以上である場合)には、衝突の危険度は低いもの(危険度「レベル1」)と判定して歩行者の存在を示す画像などによって運転者への注意や警告を行うように報知制御部15に対して指令を出力し、また、歩行者までの距離が中程度に近い場合(例えば、10m以上30m未満である場合)には、衝突の危険度は中程度(危険度「レベル2」)と判定してブレーキ制御による速度減速を行うように車両制御部16に対して指令を出力し、さらに、歩行者までの距離が極めて近い場合(例えば、10m未満である場合)には、衝突の危険度は高いもの(危険度「レベル3」)と判定してハンドル制御による衝突回避を行うように車両制御部16に対して指令を出力する。
That is, to explain with an example, the collision
そして、衝突危険度判定部23cから車両制御の指令を受け付けた車両制御部16、あるいは報知制御の指令を受け付けた報知制御部15は、それぞれ車両の制御(車両走行制御)あるいは警告の報知を行う(ステップS608)。なお、衝突危険度判定部23cにおいて衝突危険度のみを判定するような構成とした場合には、報知制御部15は、衝突危険度判定部23cから受け付けた衝突危険度に応じて、報知制御の内容を自ら判断して実行するようにしてもよく、あるいは、報知制御部15が自ら衝突危険度を判定して報知制御を実行するようにしてもよい。同様に、車両制御部16は、衝突危険度判定部23cから受け付けた衝突危険度に応じて、車両走行制御の内容を自ら判断して実行するようにしてもよく、あるいは、車両制御部16が自ら衝突危険度を判定して車両走行制御を実行するようにしてもよい。
Then, the
[実施例1の効果]
上述してきたように、実施例1によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体を構成する所定の部位(例えば、判別の対象が歩行者であれば、頭、胴体あるいは手足など)に関する判定(例えば、ニューラルネットワーク手法やパターンマッチング手法による判定)を行って、その結果得られる判別値(例えば、出力値)が所定の閾値を超えている場合(すなわち、検出された物体の中に歩行者の頭らしきものが存在する可能性が高い場合)には所定の物体であると判別するので、例えば、頭、胴体あるいは手足などの歩行者の部位に関する判定を行うことにより、歩行者の全体形状と類似した形状を持つ物体(例えば、歩行者の形状に類似した樹木など)を歩行者と誤って判別する恐れがなく、画像から検出された物体の判別精度を向上させることが可能である。
[Effect of Example 1]
As described above, according to the first embodiment, with respect to an object that is a candidate for discrimination detected from an image, a predetermined part constituting a predetermined object that is a discrimination target (for example, a discrimination target is a pedestrian). If there is a decision on the head, torso, limbs, etc. (for example, a decision by a neural network method or pattern matching method), and the resulting discriminant value (for example, output value) exceeds a predetermined threshold Since it is determined that the object is a predetermined object (that is, when there is a high possibility that a detected object is likely to be a pedestrian's head), for example, a pedestrian part such as a head, a torso or a limb By making a determination on the object, there is no risk that an object having a shape similar to the overall shape of the pedestrian (for example, a tree similar to the shape of the pedestrian) will be mistakenly identified as a pedestrian. It is possible to improve the determination accuracy of the detected object from an image.
また、実施例1によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体(例えば、歩行者)である可能性を判別(例えば、所定の部位に関する判定を行って、その結果得られる判別値が、簡易な判別のために予め低く設定された所定の閾値を超えているか否かで歩行者である可能性を判別)した後に、所定の物体の可能性があると判別された物体について、所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値(例えば、詳細な判別のために予め高く設定された閾値)を超えている場合には所定の物体であると判別するので、例えば、画像から検出された物体が判別の対象となる歩行者の可能性がある物体をあらかじめ判別した後に、例えば、頭、胴体や手足などの歩行者の部位に関する判定を行って、歩行者であるか否かを詳細に判別することにより、詳細な判別処理を無駄に実行することを防止することが可能である。 Further, according to the first embodiment, an object that is a candidate for discrimination detected from an image is discriminated as to whether or not it is a predetermined object (for example, a pedestrian) to be determined (for example, determination regarding a predetermined part). To determine whether or not the object is a pedestrian based on whether or not the discriminant value obtained as a result exceeds a predetermined threshold set in advance for simple discrimination. A determination is made regarding a predetermined part that constitutes a predetermined object for an object that has been determined to have a characteristic, and a determination value obtained as a result is a predetermined threshold (for example, a threshold that is set high in advance for detailed determination) ), It is determined that the object is a predetermined object. For example, after the object detected from the image is previously determined as an object that may be a pedestrian to be determined, Torso and limbs It performs determination as to the site of the pedestrian, by determining whether or not the pedestrian in detail, it is possible to prevent wasteful perform a detailed discrimination process.
また、実施例1によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には所定の物体であると判別し、その判別結果に応じて、警告の報知および/または車両の制御を行うので、画像から検出された物体を歩行者であるか否か精度よく判別することができる結果、警告の報知や車両の制御を効率的に行うことが可能である。 Further, according to the first embodiment, a determination regarding a predetermined part that constitutes a predetermined object to be determined is performed on an object that is a determination candidate detected from an image, and a determination value obtained as a result is predetermined. If the threshold is exceeded, it is determined that the object is a predetermined object, and a warning is issued and / or the vehicle is controlled according to the determination result, so whether the object detected from the image is a pedestrian As a result, it is possible to efficiently perform warning notification and vehicle control.
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では本発明に含まれる他の実施例を説明する。 Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above. Therefore, another embodiment included in the present invention will be described below.
(1)大まかな判別後、複数部位で詳細な判別
上記の実施例1では、大まかな判別により歩行者の可能性があると判別された候補物体について、歩行者を構成する所定の部位(例えば、頭)に関する判定を行って、その物体が歩行者であるか詳細に判別する場合を説明したが、本発明はこれに限定されるものではなく、歩行者を構成する複数の所定の部位(例えば、頭、手足、胴体)に関する判定をそれぞれ行って、歩行者であるか詳細に判別するようにしてもよい。
(1) After a rough discrimination, a detailed discrimination is made at a plurality of parts. In the first embodiment, a predetermined part (for example, a pedestrian) (for example, a candidate object that is determined to be a pedestrian by a rough discrimination) However, the present invention is not limited to this, and a plurality of predetermined parts constituting the pedestrian ( For example, it may be determined in detail whether the person is a pedestrian by performing determinations on the head, limbs, and torso.
具体的には、物体判別部23bは、例えば、図7に例示するように、学習モデル記憶部22bに記憶しておいた歩行者の全身パターンを用いた大まかな判別により、歩行者の可能性があると判別された候補物体の輪郭および大きさと、学習モデル記憶部22bに記憶しておいた歩行者を構成する複数の所定の部位(例えば、頭、手足、胴体)の全てのパターンの大きさおよび形状とを比較と比較する判定をそれぞれ行って、その結果得られる各判定出力値(例えば、頭についてC、胴体についてD、手についてE、足についてF)を加算した合計値が、所定の判別閾値(例えば、H)を超えている場合には歩行者であると判別する。
Specifically, for example, as illustrated in FIG. 7, the
また、この物体判別部23bは、候補物体の輪郭について、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)の各パターンと略一致する部分があるか否かサーチを行い、略一致するパターンがある場合には、候補物体の輪郭の大きさおよび形状と、略一致したパターンの大きさおよび形状とを比較して、その一致度を示す判定出力値を求めて、その判定出力値が所定の判別閾値を超えていれば歩行者であると判別するようにしてもよい。
Further, the
これにより、例えば、頭、胴体や手足などの歩行者の各部位に関する判定をそれぞれ行うことにより、画像から検出された物体を歩行者であるか否かを総合的に判別することができるとともに、判別処理を効率的に行うことができ、画像から検出された物体の判別精度をさらに向上させることが可能である。 Thereby, for example, it is possible to comprehensively determine whether or not the object detected from the image is a pedestrian, by making a determination on each part of the pedestrian such as the head, torso and limbs, The discrimination process can be performed efficiently, and the discrimination accuracy of the object detected from the image can be further improved.
(2)大まかな判別を行わずに詳細な判別
上記の実施例1では、歩行者の全身パターンなどを用いて歩行者の可能性がある候補物体を大まかに判別して絞り込んだ後に、絞り込んだ候補物体が歩行者であるか否か判別する場合を説明したが、本発明はこれに限定されるものではなく、入力画像から検出された判別の候補となる候補物体の輪郭および形状と、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のパターンの大きさおよび形状とを比較する判定(部位判定)を行って、その一致度(一致度合い)を示す判定出力値を求め、歩行者の可能性がある候補物体を大まかに判別して絞り込むことなく、はじめから歩行者であるか否か判別するようにしてもよい。
(2) Detailed Discrimination Without Rough Discrimination In the above-described first embodiment, candidate objects that may be pedestrians are roughly discriminated using the pedestrian's whole body pattern, etc., and then narrowed down. Although the case where it is determined whether or not the candidate object is a pedestrian has been described, the present invention is not limited to this, and the contour and shape of the candidate object that is a candidate for determination detected from the input image, and learning A determination (part determination) is performed by comparing the size and shape of a pattern of a predetermined part (eg, head, torso, limbs, etc.) constituting the pedestrian stored in the
これにより、例えば、頭、胴体あるいは手足などの歩行者の部位に関する判定を行うことにより、歩行者の全体形状と類似した形状を持つ物体(例えば、歩行者の形状に類似した樹木など)を歩行者と誤って判別する恐れがなく、画像から検出された物体の判別を迅速に得ることが可能である。 This makes it possible to walk on an object having a shape similar to the overall shape of the pedestrian (for example, a tree similar to the shape of the pedestrian) by making a determination on the pedestrian's part, such as the head, torso or limbs. Therefore, it is possible to quickly determine the object detected from the image.
(3)画像上の位置に応じた部位を用いて大まかに判別
上記の実施例1では、歩行者の全身パターンなどを用いて大まかな判別をおこなうことにより、検出した候補物体が歩行者の可能性である可能があるか判定する(絞り込む)場合を説明したが、本発明はこれに限定されるものではなく、候補物体が検出された画像上の位置(車両からの距離)に応じて、候補物体の輪郭および大きさと、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかのパターンの大きさおよび形状とを比較する判定(部位判定)を行って、その一致度(一致度合い)を示す判定出力値を求め、その判定出力値が所定の判別閾値を越えているか否かを判定することにより、歩行者の可能性があるか否か判別するようにしてもよい。
(3) Rough discrimination using a part corresponding to the position on the image In the first embodiment, the detected candidate object can be a pedestrian by making a rough discrimination using the pedestrian's whole body pattern or the like. However, the present invention is not limited to this, and depending on the position (distance from the vehicle) on the image where the candidate object is detected, The contour and size of the candidate object are compared with the size and shape of any pattern of a predetermined part (for example, head, torso, limb, etc.) constituting the pedestrian stored in the learning
具体的には、この車両制御装置は、例えば、図8に例示するように、判別の候補として検出された物体と車両との距離(画像の上部に位置する場合は遠く、画像の下部に位置する場合は近い)を画像上の位置から把握し、その把握した距離に応じて、例えば、近距離であれば頭のパターン大きさおよび形状と候補物体の輪郭および大きさとを比較する判定を行い、遠距離であれば全身パターンの大きさおよび形状と候補物体の輪郭および大きさとを比較する判定を行って、その結果得られる各判定出力値が、所定の判別閾値を超えている場合には、歩行者の頭らしきもの、あるいは、歩行者の頭らしきものが存在する可能性が高いものとして、候補物体を歩行者の可能性があるものと判別する。 Specifically, for example, as illustrated in FIG. 8, the vehicle control device is configured such that the distance between the object detected as a discrimination candidate and the vehicle (distant when the image is located at the upper part of the image and located at the lower part of the image). Is determined from the position on the image, and for example, if the distance is close, the head pattern size and shape are compared with the contour and size of the candidate object. If the distance is a long distance, the size and shape of the whole body pattern is compared with the contour and size of the candidate object, and when each of the resulting determination output values exceeds a predetermined threshold, The candidate object is determined to be a pedestrian as a pedestrian's head or a pedestrian's head.
なお、候補物体が歩行者である可能性があるか否か判別する大まかな判別と、歩行者であるか否か判別する詳細な判別とでは、判別に用いる歩行者を構成する所定の部位(例えば、頭)のパターンが同じであっても、判別閾値が異なるため同様の処理ではない。 The rough determination for determining whether or not the candidate object may be a pedestrian and the detailed determination for determining whether or not the candidate object is a pedestrian include a predetermined part ( For example, even if the head) pattern is the same, the same processing is not performed because the discrimination threshold value is different.
これにより、候補物体までの距離に応じて、候補物体が歩行者である可能性があるか否か判別するための判別パターンを使い分ける(例えば、画像上の位置から把握される検出された候補物体と車両との距離が近い場合には歩行者の頭のパターンを用い、候補物体までの距離が遠い場合には歩行者の全身パターンを用いる)ことができ、候補物体が歩行者である可能性があるか否か精度よく判別することができる結果、歩行者であるか否かを判別する処理を効率的に実行することが可能である。 Thus, depending on the distance to the candidate object, different determination patterns are used for determining whether the candidate object may be a pedestrian (for example, the detected candidate object grasped from the position on the image) If the distance between the vehicle and the vehicle is short, the pedestrian's head pattern can be used, and if the distance to the candidate object is far, the pedestrian's whole body pattern can be used), and the candidate object may be a pedestrian As a result of accurately determining whether or not there is a pedestrian, it is possible to efficiently execute the process of determining whether or not the user is a pedestrian.
(4)判定出力値への重み付け、多数決等を行って詳細な判別
また、上記の実施例1において、歩行者を構成する複数の所定の部位に関する判定の結果出力される各判定出力値に重み付けを行って(例えば、距離が近い場合には、十分な情報が得られ個人差の少ない頭パターンを用いた判定の結果得られる判定出力値を2倍にする等)、判別の候補として入力画像から検出された候補物体について、歩行者であるか否か詳細に判別するようにしてもよい。また、判定結果を、例えば、歩行者と判定すれば○、歩行者と判定しなければ×等で出力して、その判定結果の多数決によって、判別の候補として入力画像から検出された物体について、歩行者であるか否か詳細に判別するようにしてもよい。
(4) Detailed determination by weighting the decision output value, majority decision, etc. In addition, in the first embodiment, each decision output value output as a result of the determination on a plurality of predetermined parts constituting the pedestrian is weighted. (For example, when the distance is close, sufficient information is obtained and a determination output value obtained as a result of determination using a head pattern with a small individual difference is doubled, etc.) Whether the candidate object is detected as a pedestrian or not may be determined in detail. In addition, for example, if the determination result is determined as a pedestrian, ○, if not determined as a pedestrian, is output as x, etc., and the object detected from the input image as a determination candidate by the majority of the determination result, You may make it discriminate | determine in detail whether it is a pedestrian.
このようなことから、画像から検出された物体の判別精度を簡易な操作で向上させることが可能である。 For this reason, it is possible to improve the discrimination accuracy of the object detected from the image with a simple operation.
(5)動作の要素を加味して判別
また、上記の実施例1において、複数の連続画像(例えば、現画像およびそれ以降に入力される数フレームの画像)から検出された判別の候補となる同一候補物体について、候補物体の輪郭および大きさと、判別の対象となる歩行者を構成する、例えば、前振りの手のパターンの形状および大きさと、後ろ振りの手のパターンの形状および大きさとの比較を行って、その結果得られる判定出力値がそれぞれ所定の判別閾値を超えている場合には所定の物体であると判別するようにしてもよい。
(5) Discrimination taking into account elements of operation In addition, in the first embodiment, the discriminant is a candidate for discrimination detected from a plurality of continuous images (for example, the current image and images of several frames input thereafter). For the same candidate object, the contour and size of the candidate object, and the pedestrian to be determined, for example, the shape and size of the forward hand pattern and the shape and size of the backward hand pattern A comparison may be made, and if the determination output value obtained as a result exceeds a predetermined determination threshold value, it may be determined that the object is a predetermined object.
このようなことから、例えば、画像から検出された物体を歩行者であるか否かを動作という要素を加味して判別することができ、画像から検出された物体の判別精度をさらに向上させることが可能である。 For this reason, for example, it is possible to determine whether an object detected from an image is a pedestrian by taking into account an element of motion, and further improve the accuracy of determining the object detected from the image Is possible.
(6)所定の条件に応じて閾値の変更
また、上記の実施例1において、物体の判別に用いられる判別閾値を、走行場所(繁華街や郊外)、走行速度や物体の検出位置(道路の内外)などの条件に応じて変更するようにしてもよい。例えば、走行場所が繁華街である場合や車両の走行速度が速い場合には判別閾値を低く変更し、これとは反対に、走行場所が郊外である場合や車両の走行速度が遅い場合には判別閾値を高く変更する。
(6) Change of threshold value according to predetermined conditions In the first embodiment, the determination threshold value used for determining the object is set as the travel location (the downtown area or the suburbs), the travel speed and the object detection position (the road position). You may make it change according to conditions, such as inside and outside. For example, if the travel location is a busy street or the vehicle travel speed is high, the determination threshold is changed to a low value.On the other hand, if the travel location is a suburb or the vehicle travel speed is slow, Change the discrimination threshold value higher.
このようなことから、所定の条件に応じて閾値を変更することができる結果、画像から検出された物体の判別精度をさらに向上させることが可能である。 As a result, the threshold value can be changed according to a predetermined condition, and as a result, the discrimination accuracy of the object detected from the image can be further improved.
(7)所定の環境条件に応じた判別の実施
また、上記の実施例1において、例えば、歩行者の服装の違いや時間帯における周囲の明るさなど、気温、天候や時間帯などの条件に応じて学習させた学習モデルを予め用意し、気温、天候や時間帯などの環境条件に応じて最適な学習モデル用いて、物体判別部23bに物体判別処理を実行させるようにしてもよい。
(7) Discrimination according to predetermined environmental conditions In the first embodiment, for example, conditions such as temperature, weather, and time zone such as a difference in clothes of pedestrians and ambient brightness in a time zone. A learning model learned in accordance with this may be prepared in advance, and the
このようなことから、気温、天候や時間帯などの環境条件に応じた判定を実行することができる結果、画像から検出された物体の判別精度をさらに向上させることが可能である。 For this reason, the determination according to the environmental conditions such as the temperature, the weather, and the time zone can be executed. As a result, it is possible to further improve the determination accuracy of the object detected from the image.
(8)物体検出位置に応じて詳細な判定を実施するか否かを決定
また、上記の実施例1において、判別の候補として画像から検出された候補物体の画像上の位置(例えば、道路の内外)に応じて、候補物体が歩行者をであるか否か判別する詳細な判別処理を実行するか否かを決定するようにしてもよい。例えば、道路内で物体が検出された場合には詳細な判別処理を実行し、道路外で物体が検出された場合には詳細な判別処理を実行しないようにする。
(8) Determining whether or not to perform detailed determination according to the object detection position In the first embodiment, the position of the candidate object detected from the image as a determination candidate (for example, the road Whether or not to execute a detailed determination process for determining whether or not the candidate object is a pedestrian may be determined according to whether the candidate object is a pedestrian or not. For example, detailed discrimination processing is executed when an object is detected on the road, and detailed discrimination processing is not executed when an object is detected outside the road.
このようなことから、詳細な判別処理を無駄に実行することを防止することが可能である。 For this reason, it is possible to prevent the detailed determination process from being performed wastefully.
(9)侵入の判定
また、上記の実施例1において、画像から検出された判別の候補となる候補物体が歩行者であると判別された場合に、画像から歩行者が路上に侵入しようとしているか否かを判定するようにしてもよい。例えば、図9に示すように、現画像における歩行者の位置が次画像において路上に接近している場合には、歩行者が路上に侵入しようとしているものと判定する。
(9) Determination of intrusion In addition, in the first embodiment, when it is determined that a candidate object that is a candidate for determination detected from the image is a pedestrian, is the pedestrian trying to enter the road from the image? It may be determined whether or not. For example, as shown in FIG. 9, when the position of the pedestrian in the current image is approaching the road in the next image, it is determined that the pedestrian is about to enter the road.
このようなことから、画像から検出された候補物体を歩行者と判別するだけでなく、路上に侵入しようとしているか否かまで判定することが可能である。 For this reason, it is possible not only to discriminate the candidate object detected from the image as a pedestrian but also to determine whether or not it is about to enter the road.
(10)大まかな判別後に入力された画像で詳細な判別を実施
上記の実施例1では、入力画像内から検出された判別の候補となる候補物体について、1フレームの入力画像内で歩行者であるか否か判別する場合を説明したが、本発明はこれに限定されるものではなく、例えば、複数の連続画像(例えば、現画像および次に入力される次画像)から検出された判別の候補となる同一候補物体について、それぞれ別個の歩行者を構成する所定の部位に関する判定を行って(例えば、現画像において頭に関する判定を行った場合には、次画像において手足に関する判定を行う)、歩行者であるか否かを判別するようにしてもよい。
(10) Detailed Discrimination is Performed with Image Input After Rough Discrimination In the first embodiment, candidate objects that are candidates for discrimination detected from within the input image are pedestrians within the input image of one frame. Although the case where it is determined whether or not there has been described, the present invention is not limited to this. For example, the determination of a detection detected from a plurality of continuous images (for example, the current image and the next image to be input next). For the same candidate object as a candidate, make a determination on a predetermined part constituting each separate pedestrian (for example, if a determination is made regarding the head in the current image, a determination is made regarding the limb in the next image) You may make it discriminate | determine whether it is a pedestrian.
具体的には、図10に例示するように、現に入力されている現画像から判別の候補となる物体を検出した場合には(図5の(1)参照)、物体判別部23bは、候補物体の輪郭および大きさと、歩行者を構成する、例えば、頭のパターンの大きさおよび形状とを比較する判定(部位判定)を行って、歩行者であるか否か詳細に判別する。
Specifically, as illustrated in FIG. 10, when an object that is a candidate for discrimination is detected from the current input image (see (1) in FIG. 5), the
さらに、物体判別部23bは、現画像の次に入力される次画像において、先ほどまで入力されていた現画像の物体検出位置付近に候補物体を新たに検出した場合には(図5の(3)参照)、新たに検出した候補物体の輪郭および大きさと、歩行者を構成する、例えば、現画像で用いたのとは別の手足等のパターンの大きさおよび形状とを比較する判定(部位判定)を行って、歩行者であるか否か詳細に判別する(図5の(4)参照)。その結果、現画像および次画像の双方において歩行者であると判別された場合には、画像から検出された物体を歩行者であると判別する。
Further, when the
このようなことから、複数の画像においてそれぞれ行者の別個の歩部位に関する判定を行って歩行者であるか否かを判別する結果、画像から検出された物体の判別精度をさらに向上させることが可能である。 As a result, it is possible to further improve the discrimination accuracy of the object detected from the image as a result of judging whether or not the pedestrian is a pedestrian by making a judgment on each pedestrian's separate walking parts in a plurality of images. It is.
(11)装置構成等
また、図2に示した車両制御装置10および画像認識装置20の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、車両制御装置10および画像認識装置20の分散・統合の具体的形態は図示のものに限られず、例えば、報知制御部15および車両制御部16を統合し、物体判別部23bを大まかな判別処理を行う機能と詳細な判別処理を行う機能に分散するなど、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、車両制御装置10および画像認識装置20にて行なわれる各処理機能(車両制御装置10の車両制御機能や画像認識装置20の物体検出機能および歩行者判別機能)は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(11) Device Configuration The components of the
なお、本実施例で説明した各処理方法(図6参照)は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Each processing method described in the present embodiment (see FIG. 6) can be realized by executing a prepared program on a computer such as a personal computer or a workstation. This program can be distributed via a network such as the Internet. The program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read from the recording medium by the computer.
以上のように、本発明に係る画像認識装置、画像認識方法、歩行者認識装置および車両制御装置は、カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体を判別する場合に有用であり、特に、画像から検出された物体の判別精度を向上させることに適する。 As described above, the image recognition device, the image recognition method, the pedestrian recognition device, and the vehicle control device according to the present invention perform the determination when an object that is a determination candidate is detected from an image captured by the camera. This is useful when discriminating an object as a candidate, and is particularly suitable for improving the discrimination accuracy of an object detected from an image.
10 車両制御装置
11 撮像装置
12 ナビ部
13 レーダ部
14 車内通知部
15 報知制御部
16 車両制御部
17 ブレーキ
18 ハンドル
20 画像認識装置
21 前処理部
21a フィルタ部
21b 輪郭抽出部
22 記憶部
22a 学習規定記憶部
22b 学習モデル記憶部
22c 衝突危険度判定テーブル
23 制御部
23a 物体検出部
23b 物体判別部
23c 衝突危険度判定部
DESCRIPTION OF
Claims (14)
前記物体判別手段は、前記可能性判別手段により前記判別の候補となる物体が前記所定の物体の可能性があると判別された場合には、当該判別の候補となる物体について、当該所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とすることを特徴とする請求項1に記載の画像認識装置。 The object that is a candidate for determination detected from the image further includes a possibility determination unit that determines a possibility that the object is a predetermined object to be determined.
The object determining means, when the possibility determining means determines that the object that is a candidate for determination is a possibility of the predetermined object, for the object that is a candidate for determination A determination is made regarding a predetermined part constituting the object, and when the determination value obtained as a result exceeds a predetermined threshold, it is determined that the object is the predetermined object. The image recognition apparatus according to 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006190864A JP2008021034A (en) | 2006-07-11 | 2006-07-11 | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006190864A JP2008021034A (en) | 2006-07-11 | 2006-07-11 | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008021034A true JP2008021034A (en) | 2008-01-31 |
Family
ID=39076924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006190864A Pending JP2008021034A (en) | 2006-07-11 | 2006-07-11 | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008021034A (en) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009026223A (en) * | 2007-07-23 | 2009-02-05 | Toyota Central R&D Labs Inc | Object detector and program |
WO2009130828A1 (en) * | 2008-04-24 | 2009-10-29 | 本田技研工業株式会社 | Vehicle periphery monitoring apparatus |
JP2010066815A (en) * | 2008-09-08 | 2010-03-25 | Denso Corp | Person detecting device, person detecting program, operation controller, and collision mitigation device |
JP2010128919A (en) * | 2008-11-28 | 2010-06-10 | Hitachi Automotive Systems Ltd | Object detection apparatus |
JP2011090450A (en) * | 2009-10-21 | 2011-05-06 | Toyota Motor Corp | Object detector |
JP2011248640A (en) * | 2010-05-27 | 2011-12-08 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2012053663A (en) * | 2010-09-01 | 2012-03-15 | Honda Motor Co Ltd | Object kind determination device |
WO2012066751A1 (en) * | 2010-11-16 | 2012-05-24 | 本田技研工業株式会社 | Peripheral monitoring device for vehicle |
WO2013021823A1 (en) | 2011-08-05 | 2013-02-14 | 株式会社メガチップス | Image recognition apparatus |
WO2013035445A1 (en) | 2011-09-09 | 2013-03-14 | 株式会社メガチップス | Object detection device |
DE102013203300A1 (en) | 2012-02-27 | 2013-08-29 | Denso Corporation | Image processing apparatus for use in vehicle control system for detecting pedestrian captured by camera, has object region estimating unit estimating object region in which object is present on basis of partial regions |
JP2014032542A (en) * | 2012-08-03 | 2014-02-20 | Denso Corp | Image processor and, vehicle control system using image processor |
JP2016110578A (en) * | 2014-12-10 | 2016-06-20 | 株式会社リコー | Image recognition system, server device, and image recognition method |
US9477882B2 (en) | 2014-03-13 | 2016-10-25 | Megachips Corporation | Object detection apparatus |
CN106803083A (en) * | 2017-02-04 | 2017-06-06 | 北京旷视科技有限公司 | The method and device of pedestrian detection |
GB2548200A (en) * | 2016-01-15 | 2017-09-13 | Ford Global Tech Llc | Pedestrian detection with saliency maps |
WO2018105171A1 (en) | 2016-12-06 | 2018-06-14 | コニカミノルタ株式会社 | Image recognition system and image recognition method |
JP2019036240A (en) * | 2017-08-21 | 2019-03-07 | 株式会社Ihi | Object detection device |
CN109814552A (en) * | 2018-12-28 | 2019-05-28 | 百度在线网络技术(北京)有限公司 | Vehicular control unit, the Vehicular automatic driving method and device based on FPGA |
JP2019139479A (en) * | 2018-02-09 | 2019-08-22 | Kddi株式会社 | Program, device, and method for estimating context using a plurality of recognition engines |
JP2019211943A (en) * | 2018-06-04 | 2019-12-12 | アルパイン株式会社 | Image processing device, and image processing method |
US10525900B2 (en) | 2014-06-03 | 2020-01-07 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device |
JP2020024669A (en) * | 2018-08-07 | 2020-02-13 | キヤノン株式会社 | Detection device and control method thereof |
JP2021089684A (en) * | 2019-12-05 | 2021-06-10 | ネットスマイル株式会社 | Video signal processing system and video signal processing method |
JPWO2021111544A1 (en) * | 2019-12-04 | 2021-06-10 | ||
US11113566B2 (en) | 2018-09-21 | 2021-09-07 | Toyota Jidosha Kabushiki Kaisha | Image processing system, method, and apparatus specifying an object included in a captured image outside a vehicle |
US11897518B2 (en) | 2017-03-01 | 2024-02-13 | Mobileye Vision Technologies Ltd. | Systems and methods for navigating with sensing uncertainty |
JP7528650B2 (en) | 2020-09-02 | 2024-08-06 | 株式会社Jvcケンウッド | OBJECT RECOGNITION CONTROL DEVICE AND OBJECT RECOGNITION METHOD |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001160146A (en) * | 1999-12-01 | 2001-06-12 | Matsushita Electric Ind Co Ltd | Method and device for recognizing image |
JP2002312769A (en) * | 2001-04-16 | 2002-10-25 | Matsushita Electric Ind Co Ltd | Monitoring device and parameter setting method therefor |
JP2003006642A (en) * | 2001-06-22 | 2003-01-10 | Toshihiko Shimizu | Image processor utilizing thermal image |
-
2006
- 2006-07-11 JP JP2006190864A patent/JP2008021034A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001160146A (en) * | 1999-12-01 | 2001-06-12 | Matsushita Electric Ind Co Ltd | Method and device for recognizing image |
JP2002312769A (en) * | 2001-04-16 | 2002-10-25 | Matsushita Electric Ind Co Ltd | Monitoring device and parameter setting method therefor |
JP2003006642A (en) * | 2001-06-22 | 2003-01-10 | Toshihiko Shimizu | Image processor utilizing thermal image |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009026223A (en) * | 2007-07-23 | 2009-02-05 | Toyota Central R&D Labs Inc | Object detector and program |
US8284253B2 (en) | 2008-04-24 | 2012-10-09 | Honda Motor Co., Ltd. | Vehicle periphery monitoring apparatus |
WO2009130828A1 (en) * | 2008-04-24 | 2009-10-29 | 本田技研工業株式会社 | Vehicle periphery monitoring apparatus |
CN102016954A (en) * | 2008-04-24 | 2011-04-13 | 本田技研工业株式会社 | Vehicle periphery monitoring apparatus |
CN102016954B (en) * | 2008-04-24 | 2017-06-23 | 本田技研工业株式会社 | Vehicle periphery monitoring device |
JP2010066815A (en) * | 2008-09-08 | 2010-03-25 | Denso Corp | Person detecting device, person detecting program, operation controller, and collision mitigation device |
JP4683096B2 (en) * | 2008-09-08 | 2011-05-11 | 株式会社デンソー | Person detection device, person detection program, operation control device, and collision mitigation device |
JP2010128919A (en) * | 2008-11-28 | 2010-06-10 | Hitachi Automotive Systems Ltd | Object detection apparatus |
JP2011090450A (en) * | 2009-10-21 | 2011-05-06 | Toyota Motor Corp | Object detector |
JP2011248640A (en) * | 2010-05-27 | 2011-12-08 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2012053663A (en) * | 2010-09-01 | 2012-03-15 | Honda Motor Co Ltd | Object kind determination device |
WO2012066751A1 (en) * | 2010-11-16 | 2012-05-24 | 本田技研工業株式会社 | Peripheral monitoring device for vehicle |
JPWO2012066751A1 (en) * | 2010-11-16 | 2014-05-12 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
US9160986B2 (en) | 2010-11-16 | 2015-10-13 | Honda Motor Co., Ltd. | Device for monitoring surroundings of a vehicle |
JP5530530B2 (en) * | 2010-11-16 | 2014-06-25 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
US9361534B2 (en) | 2011-08-05 | 2016-06-07 | Megachips Corporation | Image recognition apparatus using neural network processing |
WO2013021823A1 (en) | 2011-08-05 | 2013-02-14 | 株式会社メガチップス | Image recognition apparatus |
US9373027B2 (en) | 2011-09-09 | 2016-06-21 | Megachips Corporation | Object detection device |
WO2013035445A1 (en) | 2011-09-09 | 2013-03-14 | 株式会社メガチップス | Object detection device |
DE102013203300A1 (en) | 2012-02-27 | 2013-08-29 | Denso Corporation | Image processing apparatus for use in vehicle control system for detecting pedestrian captured by camera, has object region estimating unit estimating object region in which object is present on basis of partial regions |
JP2014032542A (en) * | 2012-08-03 | 2014-02-20 | Denso Corp | Image processor and, vehicle control system using image processor |
US9477882B2 (en) | 2014-03-13 | 2016-10-25 | Megachips Corporation | Object detection apparatus |
US10525900B2 (en) | 2014-06-03 | 2020-01-07 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device |
JP2016110578A (en) * | 2014-12-10 | 2016-06-20 | 株式会社リコー | Image recognition system, server device, and image recognition method |
GB2548200A (en) * | 2016-01-15 | 2017-09-13 | Ford Global Tech Llc | Pedestrian detection with saliency maps |
WO2018105171A1 (en) | 2016-12-06 | 2018-06-14 | コニカミノルタ株式会社 | Image recognition system and image recognition method |
US10846538B2 (en) | 2016-12-06 | 2020-11-24 | Konica Minolta, Inc. | Image recognition system and image recognition method to estimate occurrence of an event |
CN106803083A (en) * | 2017-02-04 | 2017-06-06 | 北京旷视科技有限公司 | The method and device of pedestrian detection |
JP7540827B2 (en) | 2017-03-01 | 2024-08-27 | モービルアイ ビジョン テクノロジーズ リミテッド | SYSTEM AND METHOD FOR NAVIGATING WHILE SENSING UNCERTAINTY - Patent application |
US11897518B2 (en) | 2017-03-01 | 2024-02-13 | Mobileye Vision Technologies Ltd. | Systems and methods for navigating with sensing uncertainty |
JP2019036240A (en) * | 2017-08-21 | 2019-03-07 | 株式会社Ihi | Object detection device |
JP2019139479A (en) * | 2018-02-09 | 2019-08-22 | Kddi株式会社 | Program, device, and method for estimating context using a plurality of recognition engines |
JP7021008B2 (en) | 2018-06-04 | 2022-02-16 | アルパイン株式会社 | Image processing device and image processing method |
JP2019211943A (en) * | 2018-06-04 | 2019-12-12 | アルパイン株式会社 | Image processing device, and image processing method |
JP7378223B2 (en) | 2018-08-07 | 2023-11-13 | キヤノン株式会社 | Detection device and its control method |
JP2020024669A (en) * | 2018-08-07 | 2020-02-13 | キヤノン株式会社 | Detection device and control method thereof |
US11113566B2 (en) | 2018-09-21 | 2021-09-07 | Toyota Jidosha Kabushiki Kaisha | Image processing system, method, and apparatus specifying an object included in a captured image outside a vehicle |
JP2021529388A (en) * | 2018-12-28 | 2021-10-28 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | In-vehicle control unit, FPGA-based vehicle automatic driving method and equipment |
JP7416731B2 (en) | 2018-12-28 | 2024-01-17 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | In-vehicle control unit, FPGA-based vehicle automatic driving method and device |
CN109814552B (en) * | 2018-12-28 | 2024-05-24 | 阿波罗智能技术(北京)有限公司 | Vehicle-mounted control unit, and automatic vehicle driving method and device based on FPGA |
US12022237B2 (en) | 2018-12-28 | 2024-06-25 | Apollo Intelligent Driving Technology (Beijing) Co., Ltd. | Vehicle-mounted control unit, and method and apparatus for FPGA based automatic driving of vehicle |
CN109814552A (en) * | 2018-12-28 | 2019-05-28 | 百度在线网络技术(北京)有限公司 | Vehicular control unit, the Vehicular automatic driving method and device based on FPGA |
WO2021111544A1 (en) * | 2019-12-04 | 2021-06-10 | 三菱電機株式会社 | Driving assist device and driving assist method |
JPWO2021111544A1 (en) * | 2019-12-04 | 2021-06-10 | ||
CN114746924A (en) * | 2019-12-04 | 2022-07-12 | 三菱电机株式会社 | Driving support device and driving support method |
JP2021089684A (en) * | 2019-12-05 | 2021-06-10 | ネットスマイル株式会社 | Video signal processing system and video signal processing method |
JP7528650B2 (en) | 2020-09-02 | 2024-08-06 | 株式会社Jvcケンウッド | OBJECT RECOGNITION CONTROL DEVICE AND OBJECT RECOGNITION METHOD |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008021034A (en) | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller | |
JP2007148835A (en) | Object distinction device, notification controller, object distinction method and object distinction program | |
US8184159B2 (en) | Forward looking sensor system | |
JP2008021035A (en) | Image recognition device, image recognition method, and vehicle control device | |
US7031496B2 (en) | Method and apparatus for object recognition using a plurality of cameras and databases | |
JP4708124B2 (en) | Image processing device | |
JP5197679B2 (en) | Object detection apparatus and program | |
US20210089794A1 (en) | Vehicle system and method for detecting objects and object distance | |
CN107179767B (en) | Driving control device, driving control method, and non-transitory recording medium | |
US8994823B2 (en) | Object detection apparatus and storage medium storing object detection program | |
JP7135665B2 (en) | VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM | |
JP2008034981A (en) | Image recognition device and method, pedestrian recognition device and vehicle controller | |
JP2007072665A (en) | Object discrimination device, object discrimination method and object discrimination program | |
JP2007188417A (en) | Image recognition device, image recognition method, and image recognition program | |
JP2007328630A (en) | Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device | |
Garcia et al. | PHD filter for vehicle tracking based on a monocular camera | |
US9607230B2 (en) | Mobile object control apparatus and target object detecting apparatus | |
JP2005196590A (en) | Pedestrian extractor | |
JP2009070344A (en) | Image recognition device, image recognition method, and electronic control device | |
JP2009237897A (en) | Image recognition device | |
JP5593217B2 (en) | Vehicle external recognition device and vehicle system using the same | |
JP2008310440A (en) | Pedestrian detection device | |
JP2007064894A (en) | Object detector, object detecting method, and object detection program | |
JP2007058751A (en) | Apparatus, method, and program for discriminating object | |
JP2010282388A (en) | Vehicular pedestrian detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100622 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101019 |