JP2008021034A - Image recognition device, image recognition method, pedestrian recognition device and vehicle controller - Google Patents

Image recognition device, image recognition method, pedestrian recognition device and vehicle controller Download PDF

Info

Publication number
JP2008021034A
JP2008021034A JP2006190864A JP2006190864A JP2008021034A JP 2008021034 A JP2008021034 A JP 2008021034A JP 2006190864 A JP2006190864 A JP 2006190864A JP 2006190864 A JP2006190864 A JP 2006190864A JP 2008021034 A JP2008021034 A JP 2008021034A
Authority
JP
Japan
Prior art keywords
determination
predetermined
candidate
discrimination
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006190864A
Other languages
Japanese (ja)
Inventor
Hiroaki Sano
裕明 佐野
Katsumi Sakata
克己 阪田
Yoshikazu Hashimoto
欣和 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2006190864A priority Critical patent/JP2008021034A/en
Publication of JP2008021034A publication Critical patent/JP2008021034A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the discrimination precision of an object detected from an image. <P>SOLUTION: When a candidate object as the candidate of discrimination is detected from an input image, rough discrimination using a neural network method (that is, the discrimination of whether or not there is possibility that the detected object is a pedestrian as the object of discrimination) is performed. When there is possibility that the object detected from the input image is a pedestrian as the result of rough discrimination, detail discrimination using the neural network method (that is, the discrimination of whether or not the detected object is a pedestrian as the object of discrimination) is performed. Then, the notification of warning or the control of a vehicle is performed according to the detail discrimination result (for example, the discrimination result showing that the detected object is a pedestrian) or the like. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、単眼カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体を判別する画像認識装置などに関する。   The present invention relates to an image recognition device that discriminates an object that is a candidate for discrimination when an object that is a candidate for discrimination is detected from an image captured by a monocular camera.

従来より、車両走行の障害となる物体との衝突を回避すること等を目的として、車載のカメラで撮像された画像内から検出された物体(例えば、歩行者)を判別する技術が提案されている。例えば、特許文献1では、所定のカメラ(例えば、可視光カメラ)で撮像された画像から判別対象となる物体を検出し、その物体に対して歩行者の輪郭パターンを用いたニューラルネットワークの物体判別手法を適用して、検出された物体が歩行者であるか等を判別する技術が開示されている。   Conventionally, a technique for discriminating an object (for example, a pedestrian) detected from an image picked up by an in-vehicle camera has been proposed for the purpose of avoiding a collision with an object that obstructs vehicle travel. Yes. For example, in Patent Document 1, an object to be discriminated is detected from an image captured by a predetermined camera (for example, a visible light camera), and an object discrimination of a neural network using a pedestrian contour pattern for the object is performed. A technique for discriminating whether or not a detected object is a pedestrian by applying a technique is disclosed.

特開2004−145660号公報JP 2004-145660 A

ところで、上記した従来の技術は、画像から検出された物体の判別精度が低下する場合が考えられるという問題点があった。すなわち、上記した従来の技術は、画像から検出された物体に対して歩行者の輪郭パターンを用いたニューラルネットワークの物体判別手法を適用して、検出された物体が歩行者であるか等を判別するので、歩行者の輪郭と類似した形状の物体(例えば、歩行者の形状に類似した樹木など)を歩行者と判別する恐れがあり、物体の判別精度が低下する場合が考えられるという問題点があった。   By the way, the above-described conventional technique has a problem in that the accuracy of discriminating an object detected from an image may be reduced. That is, the above-described conventional technique applies a neural network object discrimination method using a pedestrian contour pattern to an object detected from an image to determine whether the detected object is a pedestrian or the like. Therefore, there is a possibility that an object with a shape similar to the contour of the pedestrian (for example, a tree similar to the shape of the pedestrian) may be identified as a pedestrian, and the object identification accuracy may be reduced. was there.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、画像から検出された物体の判別精度を向上させることが可能な画像認識装置、画像認識方法、歩行者認識装置および車両制御装置を提供することを目的とする。   Therefore, the present invention has been made to solve the above-described problems of the prior art, and an image recognition device, an image recognition method, and pedestrian recognition that can improve the discrimination accuracy of an object detected from an image. An object is to provide a device and a vehicle control device.

上述した課題を解決し、目的を達成するため、請求項1に係る発明は、カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別する物体判別手段を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the invention according to claim 1 is directed to an object that is a candidate for determination when an object that is a candidate for determination is detected from an image captured by a camera. Object determination means for determining a predetermined part constituting the predetermined object to be determined, and determining that the predetermined object is a predetermined object when a determination value obtained as a result exceeds a predetermined threshold It is provided with.

また、請求項2に係る発明は、上記の発明において、前記物体判別手段は、前記画像から検出された判別の候補となる物体について、当該判別の対象となる所定の物体を構成する複数の所定の部位に関する判定をそれぞれ行って、その結果得られる各判別値を加算した合計値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする。   According to a second aspect of the present invention, in the above invention, the object discriminating unit includes a plurality of predetermined objects constituting a predetermined object to be discriminated for an object that is a discrimination candidate detected from the image. It is characterized in that if the total value obtained by adding the respective discriminant values obtained as a result exceeds a predetermined threshold, it is determined that the object is the predetermined object.

また、請求項3に係る発明は、上記の発明において、前記物体判別手段は、前記各判別値のいずれかに重み付けを行った上で、当該各判別値を加算した合計値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする。   According to a third aspect of the present invention, in the above invention, the object discriminating unit weights one of the discriminant values and then adds the discriminant values to obtain a predetermined threshold value. If it exceeds, it is determined that the object is the predetermined object.

また、請求項4に係る発明は、上記の発明において、前記物体判別手段は、複数の連続画像から検出された判別の候補となる同一物体について前記所定の部位の動作に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする。   According to a fourth aspect of the present invention, in the above invention, the object discriminating unit performs a determination on the operation of the predetermined part for the same object that is a candidate for discrimination detected from a plurality of continuous images. When the discriminant value obtained as a result exceeds a predetermined threshold, it is discriminated that the object is the predetermined object.

また、請求項5に係る発明は、上記の発明において、前記画像から検出された判別の候補となる物体について、当該判別の対象となる所定の物体である可能性を判別する可能性判別手段をさらに備え、前記物体判別手段は、前記可能性判別手段により前記判別の候補となる物体が前記所定の物体の可能性があると判別された場合には、当該判別の候補となる物体について、当該所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする。   According to a fifth aspect of the present invention, in the above invention, there is provided a possibility determining means for determining a possibility that the object as a determination candidate detected from the image is a predetermined object to be determined. The object discriminating unit further includes the object discriminating unit, when the possibility discriminating unit discriminates that the object that is the candidate for discrimination is the predetermined object, It is characterized in that a determination relating to a predetermined part constituting a predetermined object is performed, and when the determination value obtained as a result exceeds a predetermined threshold, it is determined that the object is the predetermined object.

また、請求項6に係る発明は、上記の発明において、前記可能性判別手段は、前記判別の候補として前記画像から検出された物体の当該画像上の位置に応じた前記所定の部位に関する判定を行って、前記所定の物体の可能性がある物体を判別することを特徴とする。   According to a sixth aspect of the present invention, in the above invention, the possibility determining means determines the predetermined part according to a position on the image of an object detected from the image as the determination candidate. And determining an object that may be the predetermined object.

また、請求項7に係る発明は、上記の発明において、前記物体判別手段は、所定の条件に応じた閾値を用いて、前記判別の候補となる物体を前記所定の物体であると判別することを特徴とする。   In the invention according to claim 7, in the above invention, the object discriminating unit discriminates an object that is a candidate for discrimination as the predetermined object by using a threshold value according to a predetermined condition. It is characterized by.

また、請求項8に係る発明は、上記の発明において、前記物体判別手段は、所定の環境条件に応じた前記所定の部位に関する判定を行って、前記判別の候補となる物体を前記所定の物体であると判別することを特徴とする。   According to an eighth aspect of the present invention, in the above invention, the object determination unit performs a determination on the predetermined part according to a predetermined environmental condition, and determines an object that is a candidate for the determination as the predetermined object. It is characterized by distinguishing.

また、請求項9に係る発明は、上記の発明において、前記物体判別手段は、前記判別の候補として前記画像から検出された物体の当該画像上の位置に応じて、当該判別の候補となる物体を前記所定の物体であると判別するか否かを決定することを特徴とする。   According to a ninth aspect of the present invention, in the above invention, the object determination unit is an object that is a candidate for determination according to a position on the image of an object detected from the image as the determination candidate. Is determined as to whether or not it is the predetermined object.

また、請求項10に係る発明は、上記の発明において、前記物体判別手段により、前記画像から検出された判別の候補となる物体が、当該判別の対象となる所定の物体であると判別された場合に、当該画像から当該所定の物体が路上に侵入しようとしているか否かを判定する侵入判定手段をさらに備えたことを特徴とする。   According to a tenth aspect of the present invention, in the above invention, the object determination unit determines that an object that is a candidate for determination detected from the image is a predetermined object to be determined. In this case, the image processing apparatus further includes an intrusion determination unit that determines whether or not the predetermined object is about to enter the road from the image.

また、請求項11に係る発明は、上記の発明において、前記物体判定手段は、複数の連続画像から検出された判別の候補となる同一物体について、それぞれ別個の前記所定の部位に関する判定を行って、その結果得られる判別値がそれぞれ所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする。   According to an eleventh aspect of the present invention, in the above invention, the object determination unit performs a determination on the predetermined part that is different from each other for the same object that is a candidate for determination detected from a plurality of continuous images. When the discriminant value obtained as a result exceeds a predetermined threshold value, it is determined that the object is the predetermined object.

また、請求項12に係る発明は、上記の発明において、カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別する物体判別工程を含んだことを特徴とする。   In the invention according to claim 12, in the above invention, when an object that is a candidate for determination is detected from an image captured by a camera, the object that is a candidate for determination is the target of the determination. It includes an object determination step of determining a predetermined part constituting a predetermined object, and determining that the predetermined object is a predetermined object when a determination value obtained as a result exceeds a predetermined threshold value. And

また、請求項13に係る発明は、上記の発明において、カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる歩行者を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には歩行者であると判別する物体判別手段を備えたことを特徴とする。   In the invention according to claim 13, in the above-described invention, when an object that is a candidate for determination is detected from an image captured by a camera, the object that is a candidate for determination is a target of the determination. An object discriminating unit is provided that performs a judgment on a predetermined part constituting the pedestrian and discriminates that the user is a pedestrian when a discrimination value obtained as a result exceeds a predetermined threshold.

また、請求項14に係る発明は、カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別する物体判別手段による判別結果に応じて、警告の報知および/または車両の制御を行う制御手段を備えたことを特徴とする。   According to the fourteenth aspect of the present invention, when an object that is a candidate for determination is detected from an image captured by a camera, a predetermined object that is a target of the determination is configured for the object that is a candidate for determination. When the determination regarding the predetermined part to be performed is performed and the determination value obtained as a result exceeds a predetermined threshold, the warning notification and And / or a control means for controlling the vehicle.

請求項1または12の発明によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体を構成する所定の部位(例えば、判別の対象が歩行者であれば、頭、胴体あるいは手足など)に関する判定(例えば、ニューラルネットワーク手法やパターンマッチング手法による判定)を行って、その結果得られる判別値(例えば、出力値)が所定の閾値を超えている場合(すなわち、検出された物体の中に歩行者の頭らしきものが存在する可能性が高い場合)には所定の物体であると判別するので、例えば、頭、胴体あるいは手足などの歩行者の部位に関する判定を行うことにより、歩行者の全体形状と類似した形状を持つ物体(例えば、歩行者の形状に類似した樹木など)を歩行者と誤って判別する恐れがなく、画像から検出された物体の判別精度を向上させることが可能である。   According to the first or twelfth aspect of the present invention, with respect to an object that is a candidate for determination detected from an image, a predetermined part that constitutes a predetermined object that is a target of determination (for example, if the target of determination is a pedestrian) (For example, a determination by a neural network method or a pattern matching method) and a discriminant value (for example, an output value) obtained as a result exceeds a predetermined threshold (ie, If the detected object is likely to have a pedestrian's head), it is determined that the object is a predetermined object. For example, determination regarding the pedestrian's part such as the head, torso or limbs By doing this, there is no fear that an object having a shape similar to the overall shape of the pedestrian (for example, a tree similar to the shape of the pedestrian) will be erroneously identified as a pedestrian. To improve the determination accuracy of the detected object from are possible.

また、請求項2の発明によれば、画像から検出された判別の候補となる物体について、例えば、判別の対象となる所定の物体を構成する複数の所定の部位(例えば、判別の対象が歩行者であれば、頭、胴体および手足など)に関する判定をそれぞれ行って、その結果得られる各判別値を加算した合計値が所定の閾値を超えている場合(すなわち、検出された物体の中に歩行者の頭、胴体および手足などが存在する可能性が高い場合)には歩行者であると判別するので、例えば、頭、胴体や手足などの歩行者の各部位に関する判定をそれぞれ行うことにより、画像から検出された物体を歩行者であるか否かを総合的に判別することができ、画像から検出された物体の判別精度をさらに向上させることが可能である。   According to the second aspect of the present invention, for example, a plurality of predetermined parts constituting a predetermined object to be determined (for example, a determination target is a walking object) If it is a person who has made a judgment on the head, torso, limbs, etc., and the sum of the discriminant values obtained as a result exceeds a predetermined threshold value (that is, in the detected object) Pedestrian's head, torso and limbs are highly likely to be present), it is determined that the person is a pedestrian. Thus, it is possible to comprehensively determine whether or not the object detected from the image is a pedestrian, and it is possible to further improve the determination accuracy of the object detected from the image.

また、請求項3の発明によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体を構成する複数の所定の部位に関する判定をそれぞれ行って、その結果得られる各判別値のいずれかに重み付け(例えば、距離が近い場合には、十分な情報が得られ個人差の少ない頭に関する判定の結果得られた出力値を2倍にする等)を行った上で、各判別値を加算した合計値が所定の閾値を超えている場合には所定の物体であると判別するので、画像から検出された物体の判別精度を簡易な操作で向上させることが可能である。   According to the third aspect of the present invention, the determination as to a plurality of predetermined parts constituting the predetermined object to be determined is performed for each object that is a determination candidate detected from the image, and the result is obtained. Each of the discriminant values is weighted (for example, when the distance is short, sufficient information is obtained and the output value obtained as a result of the judgment on the head with little individual difference is doubled, etc.) Therefore, when the total value obtained by adding the respective discrimination values exceeds a predetermined threshold value, it is determined that the object is a predetermined object, so that the determination accuracy of the object detected from the image can be improved with a simple operation. It is.

また、請求項4の発明によれば、複数の連続画像(例えば、現画像およびそれ以降に入力される数フレームの画像)から検出された判別の候補となる同一物体について、判別の対象となる所定の物体を構成する複数の所定の部位の動作に関する判定(例えば、判別の対象が歩行者であれば、前振りの手および後ろ振りの手に関する判定)をそれぞれ行って、その結果得られる判別値がそれぞれ所定の閾値を超えている場合(すなわち、検出された画像の中に前振りの手および後ろ振りの手が存在する可能性が高い場合)には所定の物体であると判別するので、例えば、画像から検出された物体を歩行者であるか否かを動作という要素を加味して判別することができ、画像から検出された物体の判別精度をさらに向上させることが可能である。   According to the invention of claim 4, the same object that is a candidate for discrimination detected from a plurality of continuous images (for example, the current image and images of several frames input thereafter) is a discrimination target. Discriminations obtained as a result of performing determinations regarding the motion of a plurality of predetermined parts constituting a predetermined object (for example, if the determination target is a pedestrian, determination regarding forward and backward swinging hands), respectively. If each value exceeds a predetermined threshold (that is, if there is a high possibility that a forward hand and a backward hand are present in the detected image), it is determined that the object is a predetermined object. For example, whether or not an object detected from an image is a pedestrian can be determined in consideration of an element of motion, and the determination accuracy of an object detected from an image can be further improved.

また、請求項5の発明によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体(例えば、歩行者)である可能性を判別(例えば、所定の部位に関する判定を行って、その結果得られる判別値が、簡易な判別のために予め低く設定された所定の閾値を超えているか否かで歩行者である可能性を判別)した後に、所定の物体の可能性があると判別された物体について、所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値(例えば、詳細な判別のために予め高く設定された閾値)を超えている場合には所定の物体であると判別するので、例えば、画像から検出された物体が判別の対象となる歩行者の可能性がある物体をあらかじめ判別した後に、例えば、頭、胴体や手足などの歩行者の部位に関する判定を行って、歩行者であるか否かを詳細に判別することにより、詳細な判別処理を無駄に実行することを防止することが可能である。   According to the invention of claim 5, it is determined whether an object that is a candidate for determination detected from an image is a predetermined object (for example, a pedestrian) to be determined (for example, a predetermined part). After determining the possibility of being a pedestrian based on whether or not the discriminant value obtained as a result exceeds a predetermined threshold set in advance for simple discrimination. For an object that has been determined to be possible, a determination is made regarding a predetermined part that constitutes the predetermined object, and the determination value obtained as a result is set to a predetermined threshold (for example, high for detailed determination in advance). If it is determined that the object is a predetermined object, for example, after the object detected from the image is determined in advance as an object of pedestrian as a determination target, Head, torso and It performs determination as to the site of pedestrians and feet, by determining whether or not the pedestrian in detail, it is possible to prevent wasteful perform a detailed discrimination process.

また、請求項6の発明によれば、判別の候補として画像から検出された物体の画像上の位置に応じた所定の物体(例えば、歩行者)の所定の部位に関する判定を行って、その結果得られる判別値が、例えば、簡易な判別のために予め低く設定された所定の閾値を超えている場合には、所定の物体の可能性がある物体として判別するので、候補物体が歩行者である可能性があるか否か判別するための判別パターンを使い分ける(例えば、画像上の位置から把握される検出された候補物体と車両との距離が近い場合には歩行者の頭のパターンを用い、候補物体までの距離が遠い場合には歩行者の全身パターンを用いる)ことができ、候補物体が歩行者である可能性があるか否か精度よく判別することができる結果、歩行者であるか否かを判別する処理を効率的に実行することが可能である。   According to the sixth aspect of the present invention, the determination on the predetermined part of the predetermined object (for example, a pedestrian) according to the position on the image of the object detected from the image as the determination candidate is performed, and the result For example, if the obtained discriminant value exceeds a predetermined threshold set in advance for simple discrimination, it is discriminated as an object that may be a predetermined object, so the candidate object is a pedestrian. Use different discrimination patterns to determine whether there is a possibility (for example, use the pedestrian's head pattern when the distance between the detected candidate object grasped from the position on the image and the vehicle is short) If the distance to the candidate object is far, the whole body pattern of the pedestrian is used), and it is possible to accurately determine whether the candidate object may be a pedestrian. Whether or not It is possible to perform a physical efficiently.

また、請求項7の発明によれば、所定の条件に応じて閾値を変更するので、例えば、走行場所、走行速度や物体の検出位置などの条件に応じて閾値を変更することができる結果、画像から検出された物体の判別精度をさらに向上させることが可能である。   Further, according to the invention of claim 7, since the threshold value is changed according to a predetermined condition, for example, the threshold value can be changed according to conditions such as a travel location, a travel speed, and an object detection position. It is possible to further improve the discrimination accuracy of the object detected from the image.

また、請求項8の発明によれば、所定の環境条件に応じて判別の対象となる所定の物体を構成する所定の部位に関する判定を実行するので、例えば、歩行者の服装の違いや時間帯における周囲の明るさなど、気温、天候や時間帯などの環境条件に応じた判定を実行することができる結果、画像から検出された物体の判別精度をさらに向上させることが可能である。   Further, according to the invention of claim 8, since the determination regarding the predetermined part constituting the predetermined object to be determined is performed according to the predetermined environmental condition, for example, the difference in pedestrian clothes and the time zone As a result of performing determination according to environmental conditions such as ambient brightness, temperature, weather, and time zone, it is possible to further improve the discrimination accuracy of an object detected from an image.

また、請求項9の発明によれば、判別の候補として画像から検出された物体の画像上の位置に応じて、判別の対象となる所定の物体を構成する所定の部位に関する判定を実行するか否かを決定するので、例えば、道路内で物体が検出された場合には詳細な判別処理を実行し、道路外で物体が検出された場合には詳細な判別処理を実行しないようにすることができ、詳細な判別処理を無駄に実行することを防止することが可能である。   According to the ninth aspect of the present invention, whether or not to execute a determination on a predetermined part constituting a predetermined object to be determined according to a position on the image of an object detected from the image as a determination candidate. For example, when an object is detected on the road, a detailed determination process is executed, and when an object is detected outside the road, a detailed determination process is not executed. It is possible to prevent the detailed determination processing from being performed wastefully.

また、請求項10の発明によれば、画像から検出された判別の候補となる物体が、判別の対象となる所定の物体であると判別された場合に、例えば、現画像における歩行者の位置が次画像において路上に接近している場合や歩行者が道路へ向いている場合など、画像から所定の物体が路上に侵入しようとしているか否かを判定するので、画像から検出された物体を所定の物体であると判別するだけでなく、路上に侵入しようとしているか否かまで判定することが可能である。   According to the invention of claim 10, when it is determined that an object that is a candidate for determination detected from an image is a predetermined object to be determined, for example, the position of a pedestrian in the current image When the next image is approaching the road or when a pedestrian is facing the road, it is determined from the image whether or not a predetermined object is about to enter the road. It is possible to determine whether or not the object is going to enter the road.

また、請求項11の発明によれば、複数の連続画像から検出された判別の候補となる同一物体について、それぞれ別個の前記所定の部位に関する判定を行って(例えば、現画像において頭に関する判定を行った場合には、次画像において手足に関する判定を行う)、その結果得られる判別値がそれぞれ所定の閾値を超えている場合には当該所定の物体であると判別するので、例えば、画像内に歩行者が鮮明に撮像されていない場合であっても、画像から検出された物体の判別精度を向上させることが可能である。   According to the eleventh aspect of the present invention, for the same object that is a candidate for discrimination detected from a plurality of continuous images, the determination regarding the predetermined part is performed separately (for example, determination regarding the head in the current image). When the determination is made, the determination regarding the limb is performed in the next image), and when the determination value obtained as a result exceeds a predetermined threshold value, it is determined that the object is the predetermined object. Even when a pedestrian is not clearly imaged, it is possible to improve the discrimination accuracy of an object detected from an image.

また、請求項13の発明によれば、画像から検出された判別の候補となる物体について、判別の対象となる歩行者を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には歩行者であると判別するので、頭、胴体あるいは手足などの歩行者の部位に関する判定を行うことにより、歩行者の全体形状と類似した形状を持つ物体(例えば、歩行者の形状に類似した樹木など)を歩行者と誤って判別する恐れがなく、画像から検出された物体を歩行者であるか否か判別する判別精度を向上させることが可能である。   According to the invention of claim 13, a determination regarding a predetermined part constituting a pedestrian to be determined is performed on an object that is a determination candidate detected from an image, and a determination value obtained as a result is obtained. Since it is determined that the person is a pedestrian when the predetermined threshold value is exceeded, an object having a shape similar to the overall shape of the pedestrian ( For example, it is possible to improve discrimination accuracy for discriminating whether or not an object detected from an image is a pedestrian, without erroneously discriminating a pedestrian tree or the like. .

また、請求項14の発明によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には所定の物体であると判別し、その判別結果に応じて、警告の報知および/または車両の制御を行うので、画像から検出された物体を歩行者であるか否か精度よく判別することができる結果、警告の報知や車両の制御を効率的に行うことが可能である。   According to the fourteenth aspect of the present invention, the determination value obtained as a result of performing the determination on the predetermined part constituting the predetermined object to be determined with respect to the object as the determination candidate detected from the image. Is determined to be a predetermined object when it exceeds a predetermined threshold value, and warning notification and / or vehicle control is performed according to the determination result. As a result of accurately determining whether or not there is a warning, it is possible to efficiently perform warning notification and vehicle control.

以下に添付図面を参照して、本発明に係る画像認識装置、画像認識方法、歩行者認識装置および車両制御装置の実施例を詳細に説明する。なお、以下では、本発明に係る画像認識装置および車両制御装置を搭載した車両を実施例1として説明した後に、本発明に含まれる他の実施例を説明する。   Exemplary embodiments of an image recognition device, an image recognition method, a pedestrian recognition device, and a vehicle control device according to the present invention will be described below in detail with reference to the accompanying drawings. In the following, a vehicle equipped with an image recognition device and a vehicle control device according to the present invention will be described as a first embodiment, and then another embodiment included in the present invention will be described.

以下の実施例1では、本発明の実施例1に係る概要および特徴、実施例1の構成および処理の流れを順に説明し、最後に実施例1による効果を説明する。   In the following first embodiment, the outline and features according to the first embodiment of the present invention, the configuration of the first embodiment, and the flow of processing will be described in order, and finally the effects of the first embodiment will be described.

[概要および特徴(実施例1)]
まず最初に、図1を用いて、実施例1の概要および特徴を説明する。図1は、実施例1の概要および特徴を説明するための図である。
[Outline and Features (Example 1)]
First, the outline and features of the first embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining the outline and features of the first embodiment.

同図に示すように、実施例1は、車載のカメラ(例えば、単眼カメラやステレオカメラなど)で撮像された画像から判別の候補となる物体が検出された場合に、判別の候補となる物体を判別するとともに所定の制御(報知制御や車両走行制御)を行うことを概要とするが、画像から検出された物体の判別精度を向上させる点に主たる特徴がある。なお、ここでは物体の判別の効率化を図るため、画像上の道路内に存在する物体のみを判別対象とする。   As shown in the figure, in the first embodiment, an object that becomes a candidate for discrimination is detected when an object that becomes a candidate for discrimination is detected from an image captured by a vehicle-mounted camera (for example, a monocular camera or a stereo camera). The outline of performing the predetermined control (notification control and vehicle travel control) is the main feature in that the accuracy of determining the object detected from the image is improved. Here, in order to improve the efficiency of object discrimination, only objects existing in the road on the image are set as discrimination targets.

この主たる特徴について具体的に説明すると、例えば、単眼カメラにより撮像された画像が1フレーム入力されると、その入力画像から判別の候補となる候補物体を、例えば、顕著性算出法により検出する(図1の(1)参照)。ここで、顕著性算出法とは、学習プロセスによって予め生成して記憶している学習基底に基づいて、入力画像に顕著な特徴(例えば、道路や建物などの車両周囲の環境として一般的な背景以外)が検出されるか否かによって物体を検出する物体検出手法をいう。   Specifically, for example, when one frame of an image captured by a monocular camera is input, a candidate object that is a candidate for determination is detected from the input image by, for example, a saliency calculation method ( (See (1) in FIG. 1). Here, the saliency calculation method is based on a learning base that is generated and stored in advance by a learning process, and features that are prominent in the input image (for example, a general background as an environment around a vehicle such as a road or a building). An object detection method for detecting an object depending on whether or not is detected.

そして、入力画像から判別の候補となる候補物体を検出した場合には、ニューラルネットワーク手法を用いた大まかな判別(すなわち、検出された物体が判別の対象となる歩行者の可能性があるか否か判別)を行う(図1の(2)参照)。ここで、ニューラルネットワーク手法とは、判別の対象となる物体(例えば、歩行者などの人間)について学習させた学習モデルを生成して記憶し、その学習モデルに未知の画像の画素値を入力した場合に出力される出力値に応じて物体の判別を行う手法である。   When a candidate object that is a candidate for discrimination is detected from the input image, a rough discrimination using a neural network technique (that is, whether the detected object is a possibility of a pedestrian to be determined) (See (2) in FIG. 1). Here, the neural network method is to generate and store a learning model learned about an object to be discriminated (for example, a human such as a pedestrian), and input a pixel value of an unknown image to the learning model. This is a technique for discriminating an object according to an output value output in a case.

具体的には、例えば、図2に例示するように、判別の候補として検出された候補物体の輪郭の大きさおよび形状と、歩行者の全身のパターンの大きさおよび形状とを比較して、その一致度を示す判定出力値(例えば、A)が、所定の判別閾値(例えば、I)を超えている場合(例えば、A≧Iである場合)には、検出された候補物体を判別の対象となる歩行者の可能性があると判別する。すなわち、検出された物体について予め大まかな判別を行って、判別の対象となる歩行者の可能性を判別することにより、詳細な判別処理を無駄に実行することを防止する趣旨である。   Specifically, for example, as illustrated in FIG. 2, the size and shape of the contour of the candidate object detected as a candidate for discrimination are compared with the size and shape of the pattern of the pedestrian's whole body. When the determination output value (for example, A) indicating the degree of coincidence exceeds a predetermined determination threshold value (for example, I) (for example, when A ≧ I), the detected candidate object is determined. It is determined that there is a possibility of a target pedestrian. That is, it is intended to prevent the detailed determination processing from being performed wastefully by making a rough determination on the detected object in advance and determining the possibility of a pedestrian to be determined.

大まかな判別の結果、入力画像から検出された物体について歩行者の可能性があると判別した場合には、続いて、ニューラルネットワーク手法を用いた詳細な判別(すなわち、検出された物体が判別の対象である歩行者であるか否か判別)を行う(図1の(3)参照)。   As a result of rough discrimination, if it is determined that there is a possibility of a pedestrian with respect to an object detected from the input image, then detailed discrimination using the neural network technique (that is, the detected object is It is determined whether or not the subject is a pedestrian (see (3) in FIG. 1).

具体的には、例えば、図3に例示するように、大まかな判別により歩行者の可能性があると判別された物体の大きさおよび形状と、歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかのパターン(例えば、頭)とを比較して、その一致度を示す判定出力値(例えば、B)が、所定の判別閾値(例えば、G)を超えている場合には歩行者であると判別する。   Specifically, for example, as illustrated in FIG. 3, the size and shape of an object determined to be a pedestrian by rough determination, and a predetermined part (for example, a head) , Torso, limbs, etc.) (for example, the head) and the determination output value (for example, B) indicating the degree of coincidence exceeds a predetermined determination threshold (for example, G) In this case, it is determined that the person is a pedestrian.

続いて、候補物体の判別結果等に応じて、警告の報知や車両の制御を行う(図1の(4)参照)。具体的には、候補物体を歩行者であると判別した場合に、例えば、画像上の位置から歩行者までの距離を算出して、歩行者との衝突危険度を判定し、この判定結果に応じて警告の報知や車両の制御を行う。なお、歩行者までの距離は、車載のレーダ(例えば、ミリ波レーダ、光レーダなど)によって取得するようにしてもよい。   Subsequently, warning notification and vehicle control are performed according to the determination result of the candidate object (see (4) in FIG. 1). Specifically, when it is determined that the candidate object is a pedestrian, for example, the distance from the position on the image to the pedestrian is calculated, the collision risk with the pedestrian is determined, and the determination result is In response, warning notification and vehicle control are performed. The distance to the pedestrian may be acquired by an on-vehicle radar (for example, millimeter wave radar, optical radar, etc.).

このようなことから、上述した主たる特徴の如く、頭、胴体あるいは手足などの歩行者の部位に関する判定を行うことにより、歩行者の全体形状と類似した形状を持つ物体(例えば、歩行者の形状に類似した樹木など)を歩行者と誤って判別する恐れがなく、画像から検出された物体の判別精度を向上させることが可能であり、画像から検出された物体を歩行者であるか否か精度よく判別することができる結果、警告の報知や車両の制御を効率的に行うことが可能である。   For this reason, an object having a shape similar to the overall shape of a pedestrian (for example, the shape of a pedestrian, for example, by performing a determination on a pedestrian's part such as the head, torso, or limbs as described above. It is possible to improve the discrimination accuracy of the object detected from the image and whether the object detected from the image is a pedestrian or not. As a result of being able to discriminate with high accuracy, it is possible to perform warning notification and vehicle control efficiently.

[実施例1の構成]
次に、図4を用いて、実施例1に係る画像認識装置および車両制御装置の構成を説明する。図4は、実施例1に係る画像認識装置および車両制御装置の構成を示すブロック図である。同図に示すように、この車両は、車両制御装置10、撮像装置(単眼カメラ)11、ナビ部12、レーダ部13、車内通知部14および画像認識装置20を搭載している。また、車両制御装置10は、報知制御部15および車両制御部16から構成され、画像認識装置20は、前処理部21、記憶部22および制御部(マイコン)23から構成される。
[Configuration of Example 1]
Next, the configuration of the image recognition device and the vehicle control device according to the first embodiment will be described with reference to FIG. FIG. 4 is a block diagram illustrating configurations of the image recognition device and the vehicle control device according to the first embodiment. As shown in the figure, the vehicle includes a vehicle control device 10, an imaging device (monocular camera) 11, a navigation unit 12, a radar unit 13, an in-vehicle notification unit 14, and an image recognition device 20. The vehicle control device 10 includes a notification control unit 15 and a vehicle control unit 16, and the image recognition device 20 includes a preprocessing unit 21, a storage unit 22, and a control unit (microcomputer) 23.

このうち、ナビ部12は、GPS(Global Positioning System)人工衛星と通信を行って、特定した自動車の位置と地図データとから走行経路の設定および誘導を行う手段である。また、ナビ部12は、自動車の位置情報や道路形状、路幅、傾斜など車両運転操作に有用な各種の情報を、後述する車内通知部14を介して運転者に供給する。   Among them, the navigation unit 12 is a means for setting and guiding a travel route from the specified vehicle position and map data by communicating with a GPS (Global Positioning System) artificial satellite. The navigation unit 12 supplies various information useful for vehicle driving operations such as vehicle position information, road shape, road width, and inclination to the driver via an in-vehicle notification unit 14 described later.

レーダ部13は、レーダ(例えば、76.5GHzのミリ波レーダや光レーダなど)を照射して、前方の車両や障害物(例えば、歩行者)との距離や速度、方向などを測定する手段である。例えば、このレーダ部13は、車両前方に位置する歩行者の存在を検知すると、歩行者の足元(接地面)を自動的に認識して、その接地面から車両までの距離をレーダによって取得(測定)した後、衝突危険度判定部23cにその距離情報(車両から歩行者までの距離)を出力する。   The radar unit 13 irradiates a radar (for example, a 76.5 GHz millimeter wave radar or an optical radar), and measures a distance, speed, direction, and the like with a vehicle or an obstacle (for example, a pedestrian) ahead. It is. For example, when the radar unit 13 detects the presence of a pedestrian located in front of the vehicle, the radar unit 13 automatically recognizes the pedestrian's feet (ground plane) and acquires the distance from the ground plane to the vehicle by the radar ( After the measurement), the distance information (distance from the vehicle to the pedestrian) is output to the collision risk determination unit 23c.

車内通知部14は、ナビ部12や後述する報知制御部15からの情報を通知する手段であり、モニタやスピーカなどで構成される。例えば、この車内通知部14は、報知制御部15からの指令を受け付けて、歩行者の存在を示す画像をモニタに出力して運転者の注意を促したり、メッセージやアラーム音をスピーカから流すことにより運転者に対して警告を行ったりする。   The in-vehicle notification unit 14 is means for notifying information from the navigation unit 12 or a notification control unit 15 described later, and includes a monitor, a speaker, and the like. For example, the in-vehicle notification unit 14 receives a command from the notification control unit 15 and outputs an image indicating the presence of a pedestrian to the monitor to alert the driver or to send a message or an alarm sound from a speaker. To warn the driver.

車両制御装置10の報知制御部15は、後に詳述する衝突危険度判定部23cからの指令を受け付けて、報知制御を行う処理部である。例えば、この報知制御部15は、衝突危険度判定部23cから運転者への注意や警告指令を受け付けた場合には、車内通知部14に対して歩行者の存在を示す画像やアラーム音によって、運転者への注意や警告を行うように指令を出力する。なお、衝突危険度判定部23cにおいて衝突危険度のみを判定するような構成とした場合には、報知制御部15は、衝突危険度判定部23cから受け付けた衝突危険度に応じて、報知制御の内容を自ら判断して実行するようにしてもよく、あるいは、画像認識装置20において、衝突危険度判定部23cを設けない構成とする場合には、報知制御部15が自ら衝突危険度を判定して報知制御を実行するようにしてもよい。   The notification control unit 15 of the vehicle control device 10 is a processing unit that receives a command from a collision risk determination unit 23c, which will be described in detail later, and performs notification control. For example, when the notification control unit 15 receives a driver's attention or warning command from the collision risk determination unit 23c, the notification control unit 15 uses an image or an alarm sound indicating the presence of a pedestrian to the in-vehicle notification unit 14, A command is output so that the driver is warned and warned. When the collision risk determination unit 23c is configured to determine only the collision risk, the notification control unit 15 performs notification control according to the collision risk received from the collision risk determination unit 23c. The content may be determined and executed by itself, or when the image recognition apparatus 20 is configured not to include the collision risk determination unit 23c, the notification control unit 15 determines the collision risk by itself. The notification control may be executed.

車両制御装置10の車両制御部16は、衝突危険度判定部23cからの指令を受け付けて、車両の制御(車両走行制御)を行う処理部である。例えば、車両制御部16は、衝突危険度判定部23cからブレーキ制御指令を受け付けた場合には、ブレーキ制御を実行して速度減速を行う。また、衝突危険度判定部23cからハンドル制御指令を受け付けた場合には、車両制御部16は、ハンドル制御を実行して衝突回避を行う。なお、衝突危険度判定部23cにおいて衝突危険度のみを判定するような構成とした場合には、車両制御部16は、衝突危険度判定部23cから受け付けた衝突危険度に応じて、車両走行制御の内容を自ら判断して実行するようにしてもよく、あるいは、画像認識装置20において、衝突危険度判定部23cを設けない構成とする場合には、車両制御部16が自ら衝突危険度を判定して車両走行制御を実行するようにしてもよい。   The vehicle control unit 16 of the vehicle control device 10 is a processing unit that receives a command from the collision risk determination unit 23c and performs vehicle control (vehicle travel control). For example, when the vehicle control unit 16 receives a brake control command from the collision risk determination unit 23c, the vehicle control unit 16 executes brake control to perform speed reduction. When a steering wheel control command is received from the collision risk determination unit 23c, the vehicle control unit 16 performs steering wheel control to avoid collision. When the collision risk determination unit 23c is configured to determine only the collision risk, the vehicle control unit 16 controls the vehicle travel according to the collision risk received from the collision risk determination unit 23c. If the image recognition apparatus 20 is configured not to include the collision risk determination unit 23c, the vehicle control unit 16 determines the collision risk by itself. Then, the vehicle travel control may be executed.

また、画像認識装置20の前処理部21は、撮像装置11によって撮像された画像に前処理を行う処理部であり、フィルタ部21aと輪郭抽出部21bとから構成される。このうち、フィルタ部21aは、画像内に映し出された物体の輪郭を強調するための前処理(例えば、シャープネス、コントラスト調整、彩度調整)を行う手段である。また、輪郭抽出部21bは、フィルタ部21aによって施されたフィルタリングに基づいて、画像内の物体の輪郭を抽出する手段である。   The preprocessing unit 21 of the image recognition device 20 is a processing unit that performs preprocessing on an image captured by the imaging device 11, and includes a filter unit 21a and a contour extraction unit 21b. Among these, the filter unit 21a is a means for performing preprocessing (for example, sharpness, contrast adjustment, and saturation adjustment) for enhancing the contour of an object projected in an image. The contour extracting unit 21b is means for extracting the contour of an object in the image based on the filtering performed by the filter unit 21a.

画像認識装置20の記憶部22は、制御部23による各種処理に必要なデータおよびプログラムを格納する格納手段(記憶手段)である。そして、特に本発明に密接に関連するものとしては、学習基底記憶部22a、学習モデル記憶部22bおよび衝突危険度判定テーブル22cを備える。   The storage unit 22 of the image recognition apparatus 20 is a storage unit (storage unit) that stores data and programs necessary for various processes performed by the control unit 23. In particular, as closely related to the present invention, a learning base storage unit 22a, a learning model storage unit 22b, and a collision risk determination table 22c are provided.

このうち、学習基底記憶部22aは、後に詳述する物体検出部23aによる物体検出処理に必要な学習基底を記憶する記憶手段である。学習基底の生成について具体的に説明すると、まず、判別の対象となる物体(例えば、歩行者)が存在しない同一のオブジェクト(道路等を含む背景)を車両走行中に撮影した複数の学習用画像を入力して学習領域を切り出す(例えば、20×20ピクセル)。続いて、この切り出した学習領域をN次元のベクトル(Nは画素値であり、例えば、20×20ピクセルであれば400次元)として扱い、このN次元ベクトルからなる学習領域内について主成分分析を行って、特徴ベクトル(N次元ベクトルの主成分)を抽出する。そして、入力される全ての学習画像に対して特徴ベクトルの抽出を行って、同一のオブジェクトに対して共通する特徴ベクトル成分から学習基底を生成して記憶する。   Among these, the learning base storage unit 22a is a storage unit that stores a learning base necessary for object detection processing by the object detection unit 23a described in detail later. The generation of the learning base will be specifically described. First, a plurality of learning images obtained by shooting the same object (background including roads and the like) in which there is no object (for example, a pedestrian) to be discriminated. Is input to cut out the learning area (for example, 20 × 20 pixels). Subsequently, this cut-out learning area is treated as an N-dimensional vector (N is a pixel value, for example, 400 dimensions if 20 × 20 pixels), and a principal component analysis is performed on the learning area consisting of the N-dimensional vector. Then, a feature vector (a principal component of an N-dimensional vector) is extracted. Then, feature vectors are extracted from all input learning images, and learning bases are generated and stored from feature vector components common to the same object.

学習モデル記憶部22bは、後に詳述する物体判別部23bによる物体判別処理に必要な学習モデルを記憶する記憶手段である。具体的には、判別の対象となる物体である歩行者についてのパターン(歩行者の全身のパターンや歩行者を構成する各部位である頭、手足、胴体などのパターン)を様々な条件(例えば、車両からの距離、服装の変化が考えられる天候や歩行者が見えにくくなる時間帯等)に応じて予め学習して記憶する。   The learning model storage unit 22b is a storage unit that stores a learning model necessary for object discrimination processing by the object discrimination unit 23b described in detail later. Specifically, patterns for pedestrians that are objects to be discriminated (patterns of the pedestrian's whole body and patterns of heads, limbs, and torso that are each part of the pedestrian) are set under various conditions (for example, , Learning in advance according to the distance from the vehicle, the weather in which clothing changes are considered, and the time zone when pedestrians are difficult to see).

衝突危険度判定テーブル22cは、後に詳述する衝突危険度判定部23cによる衝突危険度判定処理に必要な判定テーブルを記憶する記憶手段である。具体的には、図5に例示するように、画像から検出され判別の候補となる物体(候補物体)が「歩行者でない」場合には、その候補物体までの距離にかかわらず(つまり「ALL」)、危険度「0」、車両制御/報知制御「なし」とし、一方、候補物体が「歩行者である」場合には、その候補物体までの距離「30m以上」で、危険度「レベル1」、車両制御/報知制御「歩行者の存在を示す画像を出力」、距離「10〜30m」で、危険度「レベル2」、車両制御/報知制御「ブレーキ制御による速度減速」、距離「10m未満」で、危険度「レベル3」、車両制御/報知制御「ハンドル制御による衝突回避」とするように規定して構成される。   The collision risk determination table 22c is a storage unit that stores a determination table necessary for the collision risk determination process by the collision risk determination unit 23c described in detail later. Specifically, as illustrated in FIG. 5, when an object (candidate object) that is detected from an image and is a candidate for determination is “not a pedestrian”, regardless of the distance to the candidate object (that is, “ALL”). )), The risk level is “0”, the vehicle control / notification control is “none”. On the other hand, if the candidate object is “pedestrian”, the distance to the candidate object is “30 m or more” and the risk level is “level”. 1 ”, vehicle control / informing control“ output image indicating presence of pedestrian ”, distance“ 10-30 m ”, risk“ level 2 ”, vehicle control / informing control“ speed deceleration by brake control ”, distance“ “Less than 10 m”, the risk level is “level 3”, and the vehicle control / notification control is “prevented from collision by steering wheel control”.

なお、上記に示した衝突危険度判定テーブル22cの構成はあくまで一例であり、例えば、候補物体が歩行者でない場合であっても、危険度の設定や車両制御あるいは報知制御を行うようにしてもよいし、候補物体までの距離の設定を車両の走行速度に対応させて自動的に更新(例えば、車両の速度が速い場合には衝突を回避できるように設定距離を長めに自動更新)するようにしてもよいし、車両制御あるいは報知制御の内容として別のもの(例えば、危険度レベルが高い場合には車両制御として「プリクラッシュ」や危険度レベルが中程度の場合には報知制御として「音声による警告」など)規定して採用するようにしてもよい。   Note that the configuration of the collision risk determination table 22c described above is merely an example. For example, even when the candidate object is not a pedestrian, risk setting, vehicle control, or notification control may be performed. It is good to update the distance to the candidate object automatically according to the traveling speed of the vehicle (for example, when the speed of the vehicle is high, the setting distance is automatically updated to be longer so that a collision can be avoided). Alternatively, the contents of the vehicle control or notification control may be different (for example, “pre-crash” as vehicle control when the risk level is high, or “notice control” when the risk level is medium. You may make it employ | adopt by prescribing | regulating.

画像処理装置20の制御部(マイコン)23は、所定の制御プログラム、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する処理部である。そして、特に本発明に密接に関連するものとしては、物体検出部23aと、物体判別部23bと、衝突危険度判定部23cとを備える。   The control unit (microcomputer) 23 of the image processing apparatus 20 has an internal memory for storing predetermined control programs, programs defining various processing procedures, and necessary data, and processes for executing various processes using these programs. Part. In particular, an object detection unit 23a, an object determination unit 23b, and a collision risk determination unit 23c are closely related to the present invention.

このうち、物体検出部23aは、入力画像内から判別の候補となる候補物体を顕著性算出法によって検出する処理部である。具体的には、この物体検出部23aは、学習基底記憶部22aから学習基底を読み出し、撮像装置11から現在入力されている入力画像と比較して、入力画像内に学習基底には見られない顕著な特徴(例えば、特異なベクトル)が現れている場合には、判別の候補となる候補物体が存在するものとしてその領域を画像内から検出する。なお、物体検出部23aは、顕著性算出法によって入力画像内から判別の候補となる物体を検出する場合に限られるものではなく、例えば、背景差分法による画像処理やエッジ抽出処理などによって検出するようにしてもよい。なお、物体検出部23aは、前処理部21から入力される所定の画像フレーム(例えば、1フレームや数フレーム)ごとに候補物体の検出処理を行う。   Among these, the object detection unit 23a is a processing unit that detects candidate objects that are candidates for discrimination from the input image by the saliency calculation method. Specifically, the object detection unit 23a reads the learning base from the learning base storage unit 22a and is not seen in the learning base in the input image as compared with the input image currently input from the imaging device 11. When a prominent feature (for example, a peculiar vector) appears, the region is detected from the image as a candidate object that is a candidate for discrimination. Note that the object detection unit 23a is not limited to detecting an object that is a candidate for discrimination from the input image by the saliency calculation method. For example, the object detection unit 23a is detected by image processing or edge extraction processing by the background difference method. You may do it. The object detection unit 23a performs a candidate object detection process for each predetermined image frame (for example, one frame or several frames) input from the preprocessing unit 21.

物体判別部23bは、物体検出部23aによって入力画像から検出された判別の候補となる候補物体が歩行者であるか否かニューラルネットワーク手法によって詳細に判別する処理部である。   The object discriminating unit 23b is a processing unit that discriminates in detail by a neural network method whether or not a candidate object that is a discrimination candidate detected from the input image by the object detection unit 23a is a pedestrian.

具体的には、まず、この物体判別部23bは、撮像装置11から現在入力されている入力画像内の候補物体の輪郭および大きさと、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかのパターンの大きさおよび形状とを比較する判定(部位判定)を行って、その一致度(一致度合い)を示す判定出力値を求める。   Specifically, first, the object determination unit 23b configures the pedestrian stored in the learning model storage unit 22b and the contours and sizes of candidate objects in the input image currently input from the imaging device 11. A determination (region determination) is performed by comparing the size and shape of any pattern of a predetermined region (eg, head, torso, limbs, etc.), and a determination output value indicating the degree of coincidence (degree of coincidence) is obtained. Ask.

そして、この物体判別部23bは、判定出力値が所定の判別閾値(例えば、完全一致を100%として70%)を超えていれば、候補物体が歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかであることから、候補物体を歩行者であると判別し、その判別結果(例えば、「歩行者である」という判別結果)を衝突危険度判定部23cへ出力する。   Then, if the determination output value exceeds a predetermined determination threshold value (for example, 70% with 100% being a perfect match), the object determination unit 23b determines a predetermined part (for example, the head) that the candidate object constitutes the pedestrian. , Body, limb, etc.), the candidate object is determined to be a pedestrian, and the determination result (for example, the determination result of “being a pedestrian”) is output to the collision risk determination unit 23c. To do.

また、この物体判別部23bは、物体検出部23aにより検出された候補物体について、例えば、歩行者の全身のパターンの大きさおよび形状と、候補物体の輪郭の大きさおよび形状とを比較する判定(全身判定)を行って大まかに判別することにより、候補物体が歩行者である可能性があるか否か判別し、候補物体が歩行者である可能性がある場合には、さらに部位判定を行って詳細に判別するようにしてもよい。物体検出部23aにより検出された候補物体が複数ある場合には、歩行者であるか否か判別することにより、詳細に判別する対象が絞り込まれる。   Further, the object determination unit 23b determines, for example, the size and shape of the pattern of the pedestrian's whole body and the size and shape of the contour of the candidate object for the candidate object detected by the object detection unit 23a. (Whole body determination) is performed to roughly determine whether the candidate object is likely to be a pedestrian, and if the candidate object is likely to be a pedestrian, further region determination is performed. You may make it discriminate | determine in detail. When there are a plurality of candidate objects detected by the object detection unit 23a, the object to be determined in detail is narrowed down by determining whether or not the object is a pedestrian.

具体的には、この物体判別部23bは、学習モデル記憶部22bに記憶しておいた歩行者の全身のパターンの大きさおよび形状と、候補物体の輪郭の大きさおよび形状とを比較して、その一致度を示す判定出力値が所定の判別閾値以上であれば(例えば、100%を完全一致として30%以上であれば)、候補物体が歩行者である可能性があるものと判別して、続いて、候補物体が歩行者であるか否か最終的な結論を得るため、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)の各パターンとの一致度合いに関する部位判定を行って詳細に判別する。   Specifically, the object determination unit 23b compares the size and shape of the pedestrian's whole body pattern stored in the learning model storage unit 22b with the size and shape of the contour of the candidate object. If the determination output value indicating the degree of coincidence is equal to or greater than a predetermined determination threshold (for example, if 100% is 30% or more with complete coincidence), it is determined that the candidate object may be a pedestrian. Subsequently, in order to obtain a final conclusion as to whether or not the candidate object is a pedestrian, a predetermined part constituting the pedestrian stored in the learning model storage unit 22b (for example, head, torso, limbs) Etc.) is determined in detail by performing part determination on the degree of matching with each pattern.

全身のパターンのみとの比較から候補物体の判別を行うとすると、その候補物体が実際には歩行者であったとしても、候補物体が歩行者であるか否か判別するための判別閾値を高く設定した場合には、入力画像から少しあいまいな状態(形状)で検出された候補物体について「歩行者ではない」とする判別漏れが出る恐れがあり、また、判別閾値を下げると歩行者の形状に類似した樹木などの物体を歩行者と判別してしまう恐れがある。一方、歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかのパターンのみとの比較から候補物体の判別を行うとすると、例えば、頭の形状に類似した物体を歩行者の頭と判別してしまう恐れがあり、また、入力画像から検出された候補物体が複数ある場合に、それらの全てに関し、歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかのパターンについて判別処理の行うのでは効率が悪い。すなわち、大まかな判別により候補物体が歩行者であるか否かの判定を行った後、歩行者である可能性のある候補物体について詳細な判別を行う趣旨は、このような事態を鑑みたものである。なお、部位判定で候補物体の絞込みを行った後、全身判定を行うようにしてもよい。   If a candidate object is determined based on a comparison with only the whole body pattern, even if the candidate object is actually a pedestrian, the determination threshold for determining whether the candidate object is a pedestrian is increased. If it is set, there is a risk that the candidate object detected in a slightly ambiguous state (shape) from the input image may be “not a pedestrian”, and if the discrimination threshold is lowered, the shape of the pedestrian There is a risk of discriminating objects such as trees similar to pedestrians. On the other hand, if a candidate object is determined based on a comparison with only one of predetermined patterns (eg, head, torso, limbs, etc.) constituting a pedestrian, for example, an object similar to the shape of the head is walked. When there are a plurality of candidate objects detected from the input image, a predetermined part constituting the pedestrian (for example, head, torso, limbs, etc.) It is inefficient to perform the discrimination processing for any of the patterns. In other words, the purpose of performing detailed determination on a candidate object that may be a pedestrian after determining whether the candidate object is a pedestrian through rough determination is based on such a situation. It is. Note that whole body determination may be performed after narrowing down candidate objects in the region determination.

また、物体判別部23bにおいて実行される物体判別処理は、入力画像から検出された判別の候補となる候補物体をニューラルネットワーク手法によって判別する場合に限られるものではなく、歩行者についてのパターン(例えば、頭、胴体、手足などの歩行者を構成する所定の部位や全身などのテンプレート)を用いたパターンマッチング手法によって物体判別を実行する場合についても同様に適用できる。   In addition, the object discrimination processing executed in the object discrimination unit 23b is not limited to the case where a candidate object that is a discrimination candidate detected from the input image is discriminated by a neural network method, but a pattern (for example, a pedestrian) The present invention can be similarly applied to a case where object discrimination is performed by a pattern matching method using a template such as a predetermined part or a whole body constituting a pedestrian such as a head, a torso, and a limb.

衝突危険度判定部23cは、物体判別部23bによる判別結果等に基づいて、入力画像から検出された物体との衝突危険度を判定し、車両制御や報知制御の指令を出力する処理部である。具体的には、衝突危険度判定部23cは、物体判別部23bから判別結果を受け付けると、衝突危険度判定テーブル22cから衝突危険度判定テーブル(図5参照)を読み出す。そして、衝突危険度判定部23cは、物体判別部23bから受け付けた判別結果、および画像上の位置から把握される歩行者までの距離(画像の上部に位置する場合は遠く、画像の下部に位置する場合は近い)もしくはレーダ部13から受け付けた距離に応じて衝突危険度を判定し、所定の危険度であると判定した場合には、車両制御部16に車両制御の指令を出力し、あるいは、報知制御部15に報知制御の指令を出力する。   The collision risk determination unit 23c is a processing unit that determines the collision risk with the object detected from the input image based on the determination result by the object determination unit 23b, and outputs a command for vehicle control or notification control. . Specifically, upon receiving the determination result from the object determination unit 23b, the collision risk determination unit 23c reads the collision risk determination table (see FIG. 5) from the collision risk determination table 22c. Then, the collision risk determination unit 23c determines the determination result received from the object determination unit 23b and the distance to the pedestrian ascertained from the position on the image (if it is located at the upper part of the image, it is located at the lower part of the image. If the collision risk is determined according to the distance received from the radar unit 13 or the predetermined distance, the vehicle control command is output to the vehicle control unit 16 or Then, a notification control command is output to the notification control unit 15.

すなわち、例を挙げて説明すると、衝突危険度判定部23cは、物体判別部23bから「歩行者である」との判別結果を受け付けた場合以外には、衝突の危険度はないもの(危険度「レベル0」)と判定して特に車両制御や報知制御の指令を出力しない。一方、衝突危険度判定部23cは、物体判別部23bから「歩行者である」との判別結果を受け付けた場合には、画像上の位置から把握される歩行者までの距離に応じて、例えば、歩行者までの距離が遠い場合(例えば、30m以上である場合)には、衝突の危険度は低いもの(危険度「レベル1」)と判定して歩行者の存在を示す画像などによって運転者への注意や警告を行うように報知制御部15に対して指令を出力し、また、歩行者までの距離が中程度に近い場合(例えば、10m以上30m未満である場合)には、衝突の危険度は中程度(レベル2)と判定してブレーキ制御による速度減速を行うように車両制御部16に対して指令を出力し、さらに、歩行者までの距離が極めて近い場合(例えば、10m未満である場合)には、衝突の危険度は高いもの(レベル3)と判定してハンドル制御による衝突回避を行うように車両制御部16に対して指令を出力する。なお、歩行者までの距離は、レーダ部13(例えば、ミリ波レーダ、光レーダなど)から取得した距離情報に基づいて把握するようにしてもよい。   That is to say, with an example, the collision risk determination unit 23c has no collision risk (risk level) except when the determination result “is a pedestrian” is received from the object determination unit 23b. “Level 0”) is determined, and no vehicle control or notification control command is output. On the other hand, when the collision risk degree determination unit 23c receives the determination result “is a pedestrian” from the object determination unit 23b, the collision risk determination unit 23c, for example, according to the distance from the position on the image to the pedestrian, for example, When the distance to the pedestrian is long (for example, 30 m or more), it is determined that the risk of collision is low (risk level “level 1”) and driving based on an image showing the presence of the pedestrian A command is output to the notification control unit 15 so as to give a warning or warning to a person, and when the distance to the pedestrian is close to a medium level (for example, 10 m or more and less than 30 m), a collision occurs. Is determined to be moderate (level 2), a command is output to the vehicle control unit 16 to perform speed reduction by brake control, and the distance to the pedestrian is extremely close (for example, 10 m) Less than Risk of outputting a command to the vehicle control unit 16 so as to determine high and (Level 3) performs collision avoidance by steering wheel control. In addition, you may make it grasp | ascertain the distance to a pedestrian based on the distance information acquired from the radar part 13 (for example, a millimeter wave radar, an optical radar, etc.).

また、衝突危険度判定部23cは、衝突危険度の判定のみを行って、衝突危険度の判定結果を報知制御部15や車両制御部16へ出力するようにしてもよい。この場合、報知制御部15や車両制御部16は、衝突危険度判定部23cから受け付けた衝突危険度に応じて、報知制御の内容や車両制御の内容を各々が判断して実行する。   Further, the collision risk determination unit 23c may perform only the collision risk determination and output the collision risk determination result to the notification control unit 15 or the vehicle control unit 16. In this case, the notification control unit 15 and the vehicle control unit 16 each determine and execute the content of the notification control and the content of the vehicle control according to the collision risk received from the collision risk determination unit 23c.

[画像認識装置および車両制御装置による処理(実施例1)]
次に、図6を用いて、実施例1に係る画像制御装置のマイコン(制御部)および車両制御装置による処理を説明する。図6は、実施例1に係る画像制御装置のマイコン(制御部)および車両制御装置による処理の流れを示すフローチャートである。なお、以下に説明する車両制御装置による処理は、画像が1フレーム入力されるたびに繰り返し実行される。
[Processing by Image Recognition Device and Vehicle Control Device (Example 1)]
Next, processing by the microcomputer (control unit) and the vehicle control device of the image control device according to the first embodiment will be described with reference to FIG. FIG. 6 is a flowchart illustrating a flow of processing by the microcomputer (control unit) and the vehicle control device of the image control device according to the first embodiment. The process performed by the vehicle control device described below is repeatedly executed every time one frame of an image is input.

同図に示すように、画像が1フレーム入力されると(ステップS601肯定)、前処理部21は入力画像に前処理を行う(ステップS602)。次に、物体検出部23aは、入力画像内から判別の候補となる候補物体を顕著性算出法によって検出する(ステップS603)。   As shown in the figure, when one frame of an image is input (Yes at step S601), the preprocessing unit 21 performs preprocessing on the input image (step S602). Next, the object detection unit 23a detects candidate objects that are candidates for discrimination from the input image by the saliency calculation method (step S603).

具体的には、この物体検出部23aは、学習基底記憶部22aから学習基底を読み出し、撮像装置11から現在入力されている入力画像と比較して、入力画像内に学習基底には見られない顕著な特徴(例えば、特異なベクトル)が現れている場合には、判別の候補となる候補物体が存在するものとしてその領域を画像内から検出する。   Specifically, the object detection unit 23a reads the learning base from the learning base storage unit 22a and is not seen in the learning base in the input image as compared with the input image currently input from the imaging device 11. When a prominent feature (for example, a peculiar vector) appears, the region is detected from the image as a candidate object that is a candidate for discrimination.

そして、物体判別部23bは、物体検出部23aによって入力画像から検出された判別の候補となる候補物体の大きさおよび形状と、歩行者の全身のパターンの大きさおよび形状との一致度合いに関する判定(全身判定)を行って大まかに判別することにより、候補物体が歩行者である可能性があるか否か判別を行う(ステップS604)。   Then, the object determination unit 23b determines the degree of coincidence between the size and shape of the candidate object that is a determination candidate detected from the input image by the object detection unit 23a and the size and shape of the pattern of the pedestrian's whole body. By performing (whole body determination) and roughly determining, it is determined whether or not there is a possibility that the candidate object is a pedestrian (step S604).

具体的には、物体判別部23bは、学習モデル記憶部22bに記憶しておいた歩行者の全身のパターンの大きさおよび形状と、候補物体の輪郭の大きさおよび形状とを比較して、その一致度を示す判定出力値が所定の判別閾値以上であれば(例えば、100%を完全一致として30%以上であれば)、候補物体が歩行者である可能性があるものと判別する。   Specifically, the object determination unit 23b compares the size and shape of the pedestrian's whole body pattern stored in the learning model storage unit 22b with the size and shape of the contour of the candidate object, If the determination output value indicating the degree of coincidence is equal to or greater than a predetermined determination threshold (for example, if 100% is 30% or more with complete coincidence), it is determined that the candidate object may be a pedestrian.

その結果、候補物体について歩行者の可能性があるものと判別した場合には(ステップS604肯定)、物体判別部23bは、候補物体が歩行者であるか否か最終的な結論を得るため、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)の各パターンとの一致度合いに関する部位判定を行って詳細に判別する(ステップS605)。一方、候補物体を歩行者の可能性があるものと判別しなかった場合には(ステップS604否定)、物体判別部23bは、次フレームの画像の入力を待機する。   As a result, when it is determined that the candidate object has a possibility of a pedestrian (Yes in step S604), the object determination unit 23b obtains a final conclusion as to whether or not the candidate object is a pedestrian. A part determination regarding the degree of coincidence with each pattern of a predetermined part (for example, head, torso, limbs, etc.) constituting the pedestrian stored in the learning model storage unit 22b is performed to determine in detail (step S605). . On the other hand, when the candidate object is not determined to be a pedestrian (No in step S604), the object determination unit 23b waits for input of an image of the next frame.

具体的には、この物体判別部23bは、候補物体の輪郭について、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)の各パターンと略一致する部分があるか否かサーチを行い、略一致するパターンがある場合には、候補物体の輪郭の大きさおよび形状と、略一致したパターンの大きさおよび形状とを比較して、その一致度を示す判定出力値を求め、判定出力値が所定の判別閾値(例えば、完全一致を100%として70%)を超えていれば、候補物体が歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかであることから、候補物体を歩行者であると判別する。   Specifically, the object discriminating unit 23b uses the patterns of predetermined parts (for example, the head, the torso, and the limbs) constituting the pedestrian stored in the learning model storage unit 22b for the contours of the candidate objects. And if there is a pattern that roughly matches, compare the size and shape of the contour of the candidate object with the size and shape of the pattern that approximately matches, A determination output value indicating the degree of coincidence is obtained, and if the determination output value exceeds a predetermined determination threshold (for example, 70% with 100% being the complete match), the candidate object is a predetermined portion (for example, a pedestrian) The candidate object is determined to be a pedestrian.

詳細に判別した結果、候補物体を歩行者であると判別した場合には(ステップS605肯定)、物体判別部23bは、その判別結果(例えば、「歩行者である」という判別結果)を衝突危険度判定部23cへ出力する(ステップS606)。一方、候補物体を歩行者であると判別しなかった場合には(ステップS605否定)、物体判別部23bは、判別結果の出力は行わず、次フレームの画像の入力を待機する。   If it is determined in detail that the candidate object is determined to be a pedestrian (Yes at step S605), the object determination unit 23b uses the determination result (for example, a determination result of “being a pedestrian”) as a collision risk. It outputs to the degree determination part 23c (step S606). On the other hand, if the candidate object is not determined to be a pedestrian (No at step S605), the object determination unit 23b does not output the determination result and waits for the input of the next frame image.

続いて、衝突危険度判定部23cは、物体判別部23bから受け付けた判別結果等に基づいて、入力画像から検出された候補物体との衝突危険度を判定し(ステップS607)、車両制御や報知制御の指令を出力する。具体的には、衝突危険度判定部23cは、物体判別部23bから判別結果を受け付けると、衝突危険度判定テーブル22cから衝突危険度判定テーブル(図5参照)を読み出して、物体判別部23bから受け付けた判別結果、および画像上の位置から把握される歩行者までの距離(画像の上部に位置する場合は遠く、画像の下部に位置する場合は近い)に応じて衝突危険度を判定し、車両制御部16に車両制御の指令を出力し、あるいは、報知制御部15に報知制御の指令を出力する。   Subsequently, the collision risk determination unit 23c determines the collision risk with the candidate object detected from the input image based on the determination result received from the object determination unit 23b (step S607), and performs vehicle control and notification. Outputs a control command. Specifically, when the collision risk determination unit 23c receives the determination result from the object determination unit 23b, the collision risk determination unit 23c reads the collision risk determination table (see FIG. 5) from the collision risk determination table 22c, and receives the determination result from the object determination unit 23b. Determine the collision risk according to the received determination result and the distance to the pedestrian grasped from the position on the image (distant if it is located at the top of the image, close if it is located at the bottom of the image), A vehicle control command is output to the vehicle control unit 16, or a notification control command is output to the notification control unit 15.

すなわち、例を挙げて説明すると、衝突危険度判定部23cは、物体判別部23bから「歩行者である」との判別結果を受け付けた場合以外には、衝突の危険度はないもの(レベル0)と判定して特に車両制御や報知制御の指令を出力しない。一方、衝突危険度判定部23cは、物体判別部23bから「歩行者である」との判別結果を受け付けた場合には、画像上の位置から把握される歩行者までの距離に応じて、例えば、歩行者までの距離が遠い場合(例えば、30m以上である場合)には、衝突の危険度は低いもの(危険度「レベル1」)と判定して歩行者の存在を示す画像などによって運転者への注意や警告を行うように報知制御部15に対して指令を出力し、また、歩行者までの距離が中程度に近い場合(例えば、10m以上30m未満である場合)には、衝突の危険度は中程度(危険度「レベル2」)と判定してブレーキ制御による速度減速を行うように車両制御部16に対して指令を出力し、さらに、歩行者までの距離が極めて近い場合(例えば、10m未満である場合)には、衝突の危険度は高いもの(危険度「レベル3」)と判定してハンドル制御による衝突回避を行うように車両制御部16に対して指令を出力する。   That is, to explain with an example, the collision risk determination unit 23c has no collision risk (level 0) except when the determination result “is a pedestrian” is received from the object determination unit 23b. In particular, the vehicle control and notification control commands are not output. On the other hand, when the collision risk degree determination unit 23c receives the determination result “is a pedestrian” from the object determination unit 23b, the collision risk determination unit 23c, for example, according to the distance from the position on the image to the pedestrian, for example, When the distance to the pedestrian is long (for example, 30 m or more), it is determined that the risk of collision is low (risk level “level 1”) and driving based on an image showing the presence of the pedestrian A command is output to the notification control unit 15 so as to give a warning or warning to a person, and when the distance to the pedestrian is close to a medium level (for example, 10 m or more and less than 30 m), a collision occurs. When the risk level of the vehicle is determined to be medium (risk level “level 2”), a command is output to the vehicle control unit 16 to reduce the speed by brake control, and the distance to the pedestrian is extremely close (For example, when it is less than 10m , The risk of collision and outputs a command to the vehicle control unit 16 to perform collision avoidance by steering wheel control is determined high and (risk "level 3").

そして、衝突危険度判定部23cから車両制御の指令を受け付けた車両制御部16、あるいは報知制御の指令を受け付けた報知制御部15は、それぞれ車両の制御(車両走行制御)あるいは警告の報知を行う(ステップS608)。なお、衝突危険度判定部23cにおいて衝突危険度のみを判定するような構成とした場合には、報知制御部15は、衝突危険度判定部23cから受け付けた衝突危険度に応じて、報知制御の内容を自ら判断して実行するようにしてもよく、あるいは、報知制御部15が自ら衝突危険度を判定して報知制御を実行するようにしてもよい。同様に、車両制御部16は、衝突危険度判定部23cから受け付けた衝突危険度に応じて、車両走行制御の内容を自ら判断して実行するようにしてもよく、あるいは、車両制御部16が自ら衝突危険度を判定して車両走行制御を実行するようにしてもよい。   Then, the vehicle control unit 16 that has received a vehicle control command from the collision risk determination unit 23c, or the notification control unit 15 that has received a notification control command performs vehicle control (vehicle travel control) or warning notification, respectively. (Step S608). When the collision risk determination unit 23c is configured to determine only the collision risk, the notification control unit 15 performs notification control according to the collision risk received from the collision risk determination unit 23c. The content may be determined and executed by itself, or the notification control unit 15 may determine the collision risk by itself and execute the notification control. Similarly, the vehicle control unit 16 may determine and execute the content of the vehicle travel control by itself according to the collision risk received from the collision risk determination unit 23c, or the vehicle control unit 16 may You may make it determine vehicle collision risk and perform vehicle travel control.

[実施例1の効果]
上述してきたように、実施例1によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体を構成する所定の部位(例えば、判別の対象が歩行者であれば、頭、胴体あるいは手足など)に関する判定(例えば、ニューラルネットワーク手法やパターンマッチング手法による判定)を行って、その結果得られる判別値(例えば、出力値)が所定の閾値を超えている場合(すなわち、検出された物体の中に歩行者の頭らしきものが存在する可能性が高い場合)には所定の物体であると判別するので、例えば、頭、胴体あるいは手足などの歩行者の部位に関する判定を行うことにより、歩行者の全体形状と類似した形状を持つ物体(例えば、歩行者の形状に類似した樹木など)を歩行者と誤って判別する恐れがなく、画像から検出された物体の判別精度を向上させることが可能である。
[Effect of Example 1]
As described above, according to the first embodiment, with respect to an object that is a candidate for discrimination detected from an image, a predetermined part constituting a predetermined object that is a discrimination target (for example, a discrimination target is a pedestrian). If there is a decision on the head, torso, limbs, etc. (for example, a decision by a neural network method or pattern matching method), and the resulting discriminant value (for example, output value) exceeds a predetermined threshold Since it is determined that the object is a predetermined object (that is, when there is a high possibility that a detected object is likely to be a pedestrian's head), for example, a pedestrian part such as a head, a torso or a limb By making a determination on the object, there is no risk that an object having a shape similar to the overall shape of the pedestrian (for example, a tree similar to the shape of the pedestrian) will be mistakenly identified as a pedestrian. It is possible to improve the determination accuracy of the detected object from an image.

また、実施例1によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体(例えば、歩行者)である可能性を判別(例えば、所定の部位に関する判定を行って、その結果得られる判別値が、簡易な判別のために予め低く設定された所定の閾値を超えているか否かで歩行者である可能性を判別)した後に、所定の物体の可能性があると判別された物体について、所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値(例えば、詳細な判別のために予め高く設定された閾値)を超えている場合には所定の物体であると判別するので、例えば、画像から検出された物体が判別の対象となる歩行者の可能性がある物体をあらかじめ判別した後に、例えば、頭、胴体や手足などの歩行者の部位に関する判定を行って、歩行者であるか否かを詳細に判別することにより、詳細な判別処理を無駄に実行することを防止することが可能である。   Further, according to the first embodiment, an object that is a candidate for discrimination detected from an image is discriminated as to whether or not it is a predetermined object (for example, a pedestrian) to be determined (for example, determination regarding a predetermined part). To determine whether or not the object is a pedestrian based on whether or not the discriminant value obtained as a result exceeds a predetermined threshold set in advance for simple discrimination. A determination is made regarding a predetermined part that constitutes a predetermined object for an object that has been determined to have a characteristic, and a determination value obtained as a result is a predetermined threshold (for example, a threshold that is set high in advance for detailed determination) ), It is determined that the object is a predetermined object. For example, after the object detected from the image is previously determined as an object that may be a pedestrian to be determined, Torso and limbs It performs determination as to the site of the pedestrian, by determining whether or not the pedestrian in detail, it is possible to prevent wasteful perform a detailed discrimination process.

また、実施例1によれば、画像から検出された判別の候補となる物体について、判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には所定の物体であると判別し、その判別結果に応じて、警告の報知および/または車両の制御を行うので、画像から検出された物体を歩行者であるか否か精度よく判別することができる結果、警告の報知や車両の制御を効率的に行うことが可能である。   Further, according to the first embodiment, a determination regarding a predetermined part that constitutes a predetermined object to be determined is performed on an object that is a determination candidate detected from an image, and a determination value obtained as a result is predetermined. If the threshold is exceeded, it is determined that the object is a predetermined object, and a warning is issued and / or the vehicle is controlled according to the determination result, so whether the object detected from the image is a pedestrian As a result, it is possible to efficiently perform warning notification and vehicle control.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では本発明に含まれる他の実施例を説明する。   Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above. Therefore, another embodiment included in the present invention will be described below.

(1)大まかな判別後、複数部位で詳細な判別
上記の実施例1では、大まかな判別により歩行者の可能性があると判別された候補物体について、歩行者を構成する所定の部位(例えば、頭)に関する判定を行って、その物体が歩行者であるか詳細に判別する場合を説明したが、本発明はこれに限定されるものではなく、歩行者を構成する複数の所定の部位(例えば、頭、手足、胴体)に関する判定をそれぞれ行って、歩行者であるか詳細に判別するようにしてもよい。
(1) After a rough discrimination, a detailed discrimination is made at a plurality of parts. In the first embodiment, a predetermined part (for example, a pedestrian) (for example, a candidate object that is determined to be a pedestrian by a rough discrimination) However, the present invention is not limited to this, and a plurality of predetermined parts constituting the pedestrian ( For example, it may be determined in detail whether the person is a pedestrian by performing determinations on the head, limbs, and torso.

具体的には、物体判別部23bは、例えば、図7に例示するように、学習モデル記憶部22bに記憶しておいた歩行者の全身パターンを用いた大まかな判別により、歩行者の可能性があると判別された候補物体の輪郭および大きさと、学習モデル記憶部22bに記憶しておいた歩行者を構成する複数の所定の部位(例えば、頭、手足、胴体)の全てのパターンの大きさおよび形状とを比較と比較する判定をそれぞれ行って、その結果得られる各判定出力値(例えば、頭についてC、胴体についてD、手についてE、足についてF)を加算した合計値が、所定の判別閾値(例えば、H)を超えている場合には歩行者であると判別する。   Specifically, for example, as illustrated in FIG. 7, the object determination unit 23b may determine the possibility of a pedestrian by performing rough determination using a pedestrian's whole body pattern stored in the learning model storage unit 22b. The contours and sizes of candidate objects determined to be present, and the sizes of all patterns of a plurality of predetermined parts (for example, the head, limbs, and torso) constituting the pedestrian stored in the learning model storage unit 22b The total value obtained by adding the respective determination output values (for example, C for the head, D for the torso, E for the hand, and F for the foot) obtained by performing the determination of comparing the height and the shape with the comparison is predetermined. If it exceeds the determination threshold value (for example, H), it is determined that the person is a pedestrian.

また、この物体判別部23bは、候補物体の輪郭について、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)の各パターンと略一致する部分があるか否かサーチを行い、略一致するパターンがある場合には、候補物体の輪郭の大きさおよび形状と、略一致したパターンの大きさおよび形状とを比較して、その一致度を示す判定出力値を求めて、その判定出力値が所定の判別閾値を超えていれば歩行者であると判別するようにしてもよい。   Further, the object discriminating unit 23b substantially matches the patterns of predetermined parts (for example, the head, the torso, the limbs, etc.) constituting the pedestrian stored in the learning model storage unit 22b with respect to the contour of the candidate object. If there is a pattern that almost matches, the size and shape of the contour of the candidate object are compared with the size and shape of the pattern that matches, and the degree of match A determination output value indicating the pedestrian may be determined if the determination output value exceeds a predetermined determination threshold value.

これにより、例えば、頭、胴体や手足などの歩行者の各部位に関する判定をそれぞれ行うことにより、画像から検出された物体を歩行者であるか否かを総合的に判別することができるとともに、判別処理を効率的に行うことができ、画像から検出された物体の判別精度をさらに向上させることが可能である。   Thereby, for example, it is possible to comprehensively determine whether or not the object detected from the image is a pedestrian, by making a determination on each part of the pedestrian such as the head, torso and limbs, The discrimination process can be performed efficiently, and the discrimination accuracy of the object detected from the image can be further improved.

(2)大まかな判別を行わずに詳細な判別
上記の実施例1では、歩行者の全身パターンなどを用いて歩行者の可能性がある候補物体を大まかに判別して絞り込んだ後に、絞り込んだ候補物体が歩行者であるか否か判別する場合を説明したが、本発明はこれに限定されるものではなく、入力画像から検出された判別の候補となる候補物体の輪郭および形状と、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のパターンの大きさおよび形状とを比較する判定(部位判定)を行って、その一致度(一致度合い)を示す判定出力値を求め、歩行者の可能性がある候補物体を大まかに判別して絞り込むことなく、はじめから歩行者であるか否か判別するようにしてもよい。
(2) Detailed Discrimination Without Rough Discrimination In the above-described first embodiment, candidate objects that may be pedestrians are roughly discriminated using the pedestrian's whole body pattern, etc., and then narrowed down. Although the case where it is determined whether or not the candidate object is a pedestrian has been described, the present invention is not limited to this, and the contour and shape of the candidate object that is a candidate for determination detected from the input image, and learning A determination (part determination) is performed by comparing the size and shape of a pattern of a predetermined part (eg, head, torso, limbs, etc.) constituting the pedestrian stored in the model storage unit 22b. A determination output value indicating a degree (a degree of coincidence) may be obtained, and it may be determined whether or not the person is a pedestrian from the beginning without roughly determining and narrowing down candidate objects that may be pedestrians.

これにより、例えば、頭、胴体あるいは手足などの歩行者の部位に関する判定を行うことにより、歩行者の全体形状と類似した形状を持つ物体(例えば、歩行者の形状に類似した樹木など)を歩行者と誤って判別する恐れがなく、画像から検出された物体の判別を迅速に得ることが可能である。   This makes it possible to walk on an object having a shape similar to the overall shape of the pedestrian (for example, a tree similar to the shape of the pedestrian) by making a determination on the pedestrian's part, such as the head, torso or limbs. Therefore, it is possible to quickly determine the object detected from the image.

(3)画像上の位置に応じた部位を用いて大まかに判別
上記の実施例1では、歩行者の全身パターンなどを用いて大まかな判別をおこなうことにより、検出した候補物体が歩行者の可能性である可能があるか判定する(絞り込む)場合を説明したが、本発明はこれに限定されるものではなく、候補物体が検出された画像上の位置(車両からの距離)に応じて、候補物体の輪郭および大きさと、学習モデル記憶部22bに記憶しておいた歩行者を構成する所定の部位(例えば、頭、胴体、手足など)のいずれかのパターンの大きさおよび形状とを比較する判定(部位判定)を行って、その一致度(一致度合い)を示す判定出力値を求め、その判定出力値が所定の判別閾値を越えているか否かを判定することにより、歩行者の可能性があるか否か判別するようにしてもよい。
(3) Rough discrimination using a part corresponding to the position on the image In the first embodiment, the detected candidate object can be a pedestrian by making a rough discrimination using the pedestrian's whole body pattern or the like. However, the present invention is not limited to this, and depending on the position (distance from the vehicle) on the image where the candidate object is detected, The contour and size of the candidate object are compared with the size and shape of any pattern of a predetermined part (for example, head, torso, limb, etc.) constituting the pedestrian stored in the learning model storage unit 22b. A determination output value indicating the degree of coincidence (coincidence degree) is obtained, and it is possible for a pedestrian to determine whether or not the determination output value exceeds a predetermined discrimination threshold. Whether there is sex You may make it discriminate | determine.

具体的には、この車両制御装置は、例えば、図8に例示するように、判別の候補として検出された物体と車両との距離(画像の上部に位置する場合は遠く、画像の下部に位置する場合は近い)を画像上の位置から把握し、その把握した距離に応じて、例えば、近距離であれば頭のパターン大きさおよび形状と候補物体の輪郭および大きさとを比較する判定を行い、遠距離であれば全身パターンの大きさおよび形状と候補物体の輪郭および大きさとを比較する判定を行って、その結果得られる各判定出力値が、所定の判別閾値を超えている場合には、歩行者の頭らしきもの、あるいは、歩行者の頭らしきものが存在する可能性が高いものとして、候補物体を歩行者の可能性があるものと判別する。   Specifically, for example, as illustrated in FIG. 8, the vehicle control device is configured such that the distance between the object detected as a discrimination candidate and the vehicle (distant when the image is located at the upper part of the image and located at the lower part of the image). Is determined from the position on the image, and for example, if the distance is close, the head pattern size and shape are compared with the contour and size of the candidate object. If the distance is a long distance, the size and shape of the whole body pattern is compared with the contour and size of the candidate object, and when each of the resulting determination output values exceeds a predetermined threshold, The candidate object is determined to be a pedestrian as a pedestrian's head or a pedestrian's head.

なお、候補物体が歩行者である可能性があるか否か判別する大まかな判別と、歩行者であるか否か判別する詳細な判別とでは、判別に用いる歩行者を構成する所定の部位(例えば、頭)のパターンが同じであっても、判別閾値が異なるため同様の処理ではない。   The rough determination for determining whether or not the candidate object may be a pedestrian and the detailed determination for determining whether or not the candidate object is a pedestrian include a predetermined part ( For example, even if the head) pattern is the same, the same processing is not performed because the discrimination threshold value is different.

これにより、候補物体までの距離に応じて、候補物体が歩行者である可能性があるか否か判別するための判別パターンを使い分ける(例えば、画像上の位置から把握される検出された候補物体と車両との距離が近い場合には歩行者の頭のパターンを用い、候補物体までの距離が遠い場合には歩行者の全身パターンを用いる)ことができ、候補物体が歩行者である可能性があるか否か精度よく判別することができる結果、歩行者であるか否かを判別する処理を効率的に実行することが可能である。   Thus, depending on the distance to the candidate object, different determination patterns are used for determining whether the candidate object may be a pedestrian (for example, the detected candidate object grasped from the position on the image) If the distance between the vehicle and the vehicle is short, the pedestrian's head pattern can be used, and if the distance to the candidate object is far, the pedestrian's whole body pattern can be used), and the candidate object may be a pedestrian As a result of accurately determining whether or not there is a pedestrian, it is possible to efficiently execute the process of determining whether or not the user is a pedestrian.

(4)判定出力値への重み付け、多数決等を行って詳細な判別
また、上記の実施例1において、歩行者を構成する複数の所定の部位に関する判定の結果出力される各判定出力値に重み付けを行って(例えば、距離が近い場合には、十分な情報が得られ個人差の少ない頭パターンを用いた判定の結果得られる判定出力値を2倍にする等)、判別の候補として入力画像から検出された候補物体について、歩行者であるか否か詳細に判別するようにしてもよい。また、判定結果を、例えば、歩行者と判定すれば○、歩行者と判定しなければ×等で出力して、その判定結果の多数決によって、判別の候補として入力画像から検出された物体について、歩行者であるか否か詳細に判別するようにしてもよい。
(4) Detailed determination by weighting the decision output value, majority decision, etc. In addition, in the first embodiment, each decision output value output as a result of the determination on a plurality of predetermined parts constituting the pedestrian is weighted. (For example, when the distance is close, sufficient information is obtained and a determination output value obtained as a result of determination using a head pattern with a small individual difference is doubled, etc.) Whether the candidate object is detected as a pedestrian or not may be determined in detail. In addition, for example, if the determination result is determined as a pedestrian, ○, if not determined as a pedestrian, is output as x, etc., and the object detected from the input image as a determination candidate by the majority of the determination result, You may make it discriminate | determine in detail whether it is a pedestrian.

このようなことから、画像から検出された物体の判別精度を簡易な操作で向上させることが可能である。   For this reason, it is possible to improve the discrimination accuracy of the object detected from the image with a simple operation.

(5)動作の要素を加味して判別
また、上記の実施例1において、複数の連続画像(例えば、現画像およびそれ以降に入力される数フレームの画像)から検出された判別の候補となる同一候補物体について、候補物体の輪郭および大きさと、判別の対象となる歩行者を構成する、例えば、前振りの手のパターンの形状および大きさと、後ろ振りの手のパターンの形状および大きさとの比較を行って、その結果得られる判定出力値がそれぞれ所定の判別閾値を超えている場合には所定の物体であると判別するようにしてもよい。
(5) Discrimination taking into account elements of operation In addition, in the first embodiment, the discriminant is a candidate for discrimination detected from a plurality of continuous images (for example, the current image and images of several frames input thereafter). For the same candidate object, the contour and size of the candidate object, and the pedestrian to be determined, for example, the shape and size of the forward hand pattern and the shape and size of the backward hand pattern A comparison may be made, and if the determination output value obtained as a result exceeds a predetermined determination threshold value, it may be determined that the object is a predetermined object.

このようなことから、例えば、画像から検出された物体を歩行者であるか否かを動作という要素を加味して判別することができ、画像から検出された物体の判別精度をさらに向上させることが可能である。   For this reason, for example, it is possible to determine whether an object detected from an image is a pedestrian by taking into account an element of motion, and further improve the accuracy of determining the object detected from the image Is possible.

(6)所定の条件に応じて閾値の変更
また、上記の実施例1において、物体の判別に用いられる判別閾値を、走行場所(繁華街や郊外)、走行速度や物体の検出位置(道路の内外)などの条件に応じて変更するようにしてもよい。例えば、走行場所が繁華街である場合や車両の走行速度が速い場合には判別閾値を低く変更し、これとは反対に、走行場所が郊外である場合や車両の走行速度が遅い場合には判別閾値を高く変更する。
(6) Change of threshold value according to predetermined conditions In the first embodiment, the determination threshold value used for determining the object is set as the travel location (the downtown area or the suburbs), the travel speed and the object detection position (the road position). You may make it change according to conditions, such as inside and outside. For example, if the travel location is a busy street or the vehicle travel speed is high, the determination threshold is changed to a low value.On the other hand, if the travel location is a suburb or the vehicle travel speed is slow, Change the discrimination threshold value higher.

このようなことから、所定の条件に応じて閾値を変更することができる結果、画像から検出された物体の判別精度をさらに向上させることが可能である。   As a result, the threshold value can be changed according to a predetermined condition, and as a result, the discrimination accuracy of the object detected from the image can be further improved.

(7)所定の環境条件に応じた判別の実施
また、上記の実施例1において、例えば、歩行者の服装の違いや時間帯における周囲の明るさなど、気温、天候や時間帯などの条件に応じて学習させた学習モデルを予め用意し、気温、天候や時間帯などの環境条件に応じて最適な学習モデル用いて、物体判別部23bに物体判別処理を実行させるようにしてもよい。
(7) Discrimination according to predetermined environmental conditions In the first embodiment, for example, conditions such as temperature, weather, and time zone such as a difference in clothes of pedestrians and ambient brightness in a time zone. A learning model learned in accordance with this may be prepared in advance, and the object determination unit 23b may execute the object determination process using an optimal learning model according to environmental conditions such as temperature, weather, and time zone.

このようなことから、気温、天候や時間帯などの環境条件に応じた判定を実行することができる結果、画像から検出された物体の判別精度をさらに向上させることが可能である。   For this reason, the determination according to the environmental conditions such as the temperature, the weather, and the time zone can be executed. As a result, it is possible to further improve the determination accuracy of the object detected from the image.

(8)物体検出位置に応じて詳細な判定を実施するか否かを決定
また、上記の実施例1において、判別の候補として画像から検出された候補物体の画像上の位置(例えば、道路の内外)に応じて、候補物体が歩行者をであるか否か判別する詳細な判別処理を実行するか否かを決定するようにしてもよい。例えば、道路内で物体が検出された場合には詳細な判別処理を実行し、道路外で物体が検出された場合には詳細な判別処理を実行しないようにする。
(8) Determining whether or not to perform detailed determination according to the object detection position In the first embodiment, the position of the candidate object detected from the image as a determination candidate (for example, the road Whether or not to execute a detailed determination process for determining whether or not the candidate object is a pedestrian may be determined according to whether the candidate object is a pedestrian or not. For example, detailed discrimination processing is executed when an object is detected on the road, and detailed discrimination processing is not executed when an object is detected outside the road.

このようなことから、詳細な判別処理を無駄に実行することを防止することが可能である。   For this reason, it is possible to prevent the detailed determination process from being performed wastefully.

(9)侵入の判定
また、上記の実施例1において、画像から検出された判別の候補となる候補物体が歩行者であると判別された場合に、画像から歩行者が路上に侵入しようとしているか否かを判定するようにしてもよい。例えば、図9に示すように、現画像における歩行者の位置が次画像において路上に接近している場合には、歩行者が路上に侵入しようとしているものと判定する。
(9) Determination of intrusion In addition, in the first embodiment, when it is determined that a candidate object that is a candidate for determination detected from the image is a pedestrian, is the pedestrian trying to enter the road from the image? It may be determined whether or not. For example, as shown in FIG. 9, when the position of the pedestrian in the current image is approaching the road in the next image, it is determined that the pedestrian is about to enter the road.

このようなことから、画像から検出された候補物体を歩行者と判別するだけでなく、路上に侵入しようとしているか否かまで判定することが可能である。   For this reason, it is possible not only to discriminate the candidate object detected from the image as a pedestrian but also to determine whether or not it is about to enter the road.

(10)大まかな判別後に入力された画像で詳細な判別を実施
上記の実施例1では、入力画像内から検出された判別の候補となる候補物体について、1フレームの入力画像内で歩行者であるか否か判別する場合を説明したが、本発明はこれに限定されるものではなく、例えば、複数の連続画像(例えば、現画像および次に入力される次画像)から検出された判別の候補となる同一候補物体について、それぞれ別個の歩行者を構成する所定の部位に関する判定を行って(例えば、現画像において頭に関する判定を行った場合には、次画像において手足に関する判定を行う)、歩行者であるか否かを判別するようにしてもよい。
(10) Detailed Discrimination is Performed with Image Input After Rough Discrimination In the first embodiment, candidate objects that are candidates for discrimination detected from within the input image are pedestrians within the input image of one frame. Although the case where it is determined whether or not there has been described, the present invention is not limited to this. For example, the determination of a detection detected from a plurality of continuous images (for example, the current image and the next image to be input next). For the same candidate object as a candidate, make a determination on a predetermined part constituting each separate pedestrian (for example, if a determination is made regarding the head in the current image, a determination is made regarding the limb in the next image) You may make it discriminate | determine whether it is a pedestrian.

具体的には、図10に例示するように、現に入力されている現画像から判別の候補となる物体を検出した場合には(図5の(1)参照)、物体判別部23bは、候補物体の輪郭および大きさと、歩行者を構成する、例えば、頭のパターンの大きさおよび形状とを比較する判定(部位判定)を行って、歩行者であるか否か詳細に判別する。   Specifically, as illustrated in FIG. 10, when an object that is a candidate for discrimination is detected from the current input image (see (1) in FIG. 5), the object discriminating unit 23b A determination (part determination) that compares the contour and size of the object with the size and shape of the pattern of the head that constitutes the pedestrian, for example, is performed to determine in detail whether or not the user is a pedestrian.

さらに、物体判別部23bは、現画像の次に入力される次画像において、先ほどまで入力されていた現画像の物体検出位置付近に候補物体を新たに検出した場合には(図5の(3)参照)、新たに検出した候補物体の輪郭および大きさと、歩行者を構成する、例えば、現画像で用いたのとは別の手足等のパターンの大きさおよび形状とを比較する判定(部位判定)を行って、歩行者であるか否か詳細に判別する(図5の(4)参照)。その結果、現画像および次画像の双方において歩行者であると判別された場合には、画像から検出された物体を歩行者であると判別する。   Further, when the object determination unit 23b newly detects a candidate object in the vicinity of the object detection position of the current image that has been input up to the next image input next to the current image ((3 in FIG. 5). )), And a determination (part) that compares the contour and size of the newly detected candidate object with the size and shape of a pattern such as a limb that constitutes the pedestrian, for example, different from that used in the current image It is determined in detail whether or not it is a pedestrian (see (4) in FIG. 5). As a result, when it is determined that the person is a pedestrian in both the current image and the next image, the object detected from the image is determined to be a pedestrian.

このようなことから、複数の画像においてそれぞれ行者の別個の歩部位に関する判定を行って歩行者であるか否かを判別する結果、画像から検出された物体の判別精度をさらに向上させることが可能である。   As a result, it is possible to further improve the discrimination accuracy of the object detected from the image as a result of judging whether or not the pedestrian is a pedestrian by making a judgment on each pedestrian's separate walking parts in a plurality of images. It is.

(11)装置構成等
また、図2に示した車両制御装置10および画像認識装置20の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、車両制御装置10および画像認識装置20の分散・統合の具体的形態は図示のものに限られず、例えば、報知制御部15および車両制御部16を統合し、物体判別部23bを大まかな判別処理を行う機能と詳細な判別処理を行う機能に分散するなど、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、車両制御装置10および画像認識装置20にて行なわれる各処理機能(車両制御装置10の車両制御機能や画像認識装置20の物体検出機能および歩行者判別機能)は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(11) Device Configuration The components of the vehicle control device 10 and the image recognition device 20 shown in FIG. 2 are functionally conceptual and need not be physically configured as illustrated. . That is, the specific form of dispersion / integration of the vehicle control device 10 and the image recognition device 20 is not limited to the illustrated one. For example, the notification control unit 15 and the vehicle control unit 16 are integrated, and the object determination unit 23b is roughly determined. Disperse all or part of the functions, such as processing functions and detailed discrimination processing functions, functionally or physically in arbitrary units according to various loads and usage conditions. Can be configured. Furthermore, the processing functions performed by the vehicle control device 10 and the image recognition device 20 (the vehicle control function of the vehicle control device 10, the object detection function and the pedestrian discrimination function of the image recognition device 20) are all or any one of them. The unit may be realized by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic.

なお、本実施例で説明した各処理方法(図6参照)は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。   Each processing method described in the present embodiment (see FIG. 6) can be realized by executing a prepared program on a computer such as a personal computer or a workstation. This program can be distributed via a network such as the Internet. The program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read from the recording medium by the computer.

以上のように、本発明に係る画像認識装置、画像認識方法、歩行者認識装置および車両制御装置は、カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体を判別する場合に有用であり、特に、画像から検出された物体の判別精度を向上させることに適する。   As described above, the image recognition device, the image recognition method, the pedestrian recognition device, and the vehicle control device according to the present invention perform the determination when an object that is a determination candidate is detected from an image captured by the camera. This is useful when discriminating an object as a candidate, and is particularly suitable for improving the discrimination accuracy of an object detected from an image.

実施例1の概要および特徴を説明するための図である。FIG. 3 is a diagram for explaining an overview and features of the first embodiment. 実施例1の概要および特徴を説明するための図である。FIG. 3 is a diagram for explaining an overview and features of the first embodiment. 実施例1の概要および特徴を説明するための図である。FIG. 3 is a diagram for explaining an overview and features of the first embodiment. 実施例1に係る画像認識装置および車両制御装置の構成を示すブロック図である。1 is a block diagram illustrating configurations of an image recognition device and a vehicle control device according to a first embodiment. 衝突危険度判定テーブルの構成例を示す図である。It is a figure which shows the structural example of a collision risk determination table. 実施例1に係る画像認識装置および車両制御装置の処理の流れを示すフローチャートである。4 is a flowchart illustrating a flow of processing of the image recognition device and the vehicle control device according to the first embodiment. 実施例2に係る歩行者部位判定の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the pedestrian site | part determination which concerns on Example 2. FIG. 実施例2に係る歩行者判別の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the pedestrian discrimination | determination based on Example 2. FIG. 実施例2に係る歩行者判別の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the pedestrian discrimination | determination based on Example 2. FIG. 実施例2に係る歩行者全身判定の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the pedestrian whole body determination which concerns on Example 2. FIG.

符号の説明Explanation of symbols

10 車両制御装置
11 撮像装置
12 ナビ部
13 レーダ部
14 車内通知部
15 報知制御部
16 車両制御部
17 ブレーキ
18 ハンドル
20 画像認識装置
21 前処理部
21a フィルタ部
21b 輪郭抽出部
22 記憶部
22a 学習規定記憶部
22b 学習モデル記憶部
22c 衝突危険度判定テーブル
23 制御部
23a 物体検出部
23b 物体判別部
23c 衝突危険度判定部
DESCRIPTION OF SYMBOLS 10 Vehicle control apparatus 11 Imaging device 12 Navigation part 13 Radar part 14 In-vehicle notification part 15 Notification control part 16 Vehicle control part 17 Brake 18 Handle 20 Image recognition apparatus 21 Pre-processing part 21a Filter part 21b Contour extraction part 22 Storage part 22a Learning rule Storage unit 22b Learning model storage unit 22c Collision risk determination table 23 Control unit 23a Object detection unit 23b Object determination unit 23c Collision risk determination unit

Claims (14)

カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別する物体判別手段を備えたことを特徴とする画像認識装置。   When an object that is a candidate for determination is detected from an image captured by the camera, for the object that is a candidate for determination, a determination is made regarding a predetermined part that constitutes the predetermined object that is the target of determination, An image recognition apparatus comprising: an object discriminating unit that discriminates a predetermined object when a discrimination value obtained as a result exceeds a predetermined threshold value. 前記物体判別手段は、前記画像から検出された判別の候補となる物体について、当該判別の対象となる所定の物体を構成する複数の所定の部位に関する判定をそれぞれ行って、その結果得られる各判別値を加算した合計値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする請求項1に記載の画像認識装置。   The object discriminating unit performs a judgment on a plurality of predetermined parts constituting a predetermined object to be discriminated for an object that is a discrimination candidate detected from the image, and each discrimination obtained as a result thereof The image recognition apparatus according to claim 1, wherein when the total value obtained by adding the values exceeds a predetermined threshold value, the image recognition apparatus determines that the object is the predetermined object. 前記物体判別手段は、前記各判別値のいずれかに重み付けを行った上で、当該各判別値を加算した合計値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする請求項2に記載の画像認識装置。   The object discriminating unit weights one of the discriminant values, and discriminates that the object is the predetermined object when a total value obtained by adding the discriminant values exceeds a predetermined threshold value. The image recognition apparatus according to claim 2. 前記物体判別手段は、複数の連続画像から検出された判別の候補となる同一物体について前記所定の部位の動作に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする請求項1に記載の画像認識装置。   The object discriminating unit performs a judgment on the operation of the predetermined part for the same object that is a candidate for discrimination detected from a plurality of continuous images, and a discrimination value obtained as a result exceeds a predetermined threshold value. The image recognition apparatus according to claim 1, wherein the image recognition apparatus determines that the object is the predetermined object. 前記画像から検出された判別の候補となる物体について、当該判別の対象となる所定の物体である可能性を判別する可能性判別手段をさらに備え、
前記物体判別手段は、前記可能性判別手段により前記判別の候補となる物体が前記所定の物体の可能性があると判別された場合には、当該判別の候補となる物体について、当該所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とすることを特徴とする請求項1に記載の画像認識装置。
The object that is a candidate for determination detected from the image further includes a possibility determination unit that determines a possibility that the object is a predetermined object to be determined.
The object determining means, when the possibility determining means determines that the object that is a candidate for determination is a possibility of the predetermined object, for the object that is a candidate for determination A determination is made regarding a predetermined part constituting the object, and when the determination value obtained as a result exceeds a predetermined threshold, it is determined that the object is the predetermined object. The image recognition apparatus according to 1.
前記可能性判別手段は、前記判別の候補として前記画像から検出された物体の当該画像上の位置に応じた前記所定の部位に関する判定を行って、前記所定の物体の可能性がある物体を判別することを特徴とする請求項5に記載の画像認識装置。   The possibility determining means determines an object that may be the predetermined object by performing a determination on the predetermined part according to a position on the image of an object detected from the image as a candidate for the determination. The image recognition apparatus according to claim 5, wherein: 前記物体判別手段は、所定の条件に応じた閾値を用いて、前記判別の候補となる物体を前記所定の物体であると判別することを特徴とする請求項1〜5のいずれか一つに記載の画像認識装置。   The said object discrimination | determination means discriminate | determines that the said object used as the candidate for a discrimination | determination is the said predetermined object using the threshold value according to predetermined conditions. The image recognition apparatus described. 前記物体判別手段は、所定の環境条件に応じた前記所定の部位に関する判定を行って、前記判別の候補となる物体を前記所定の物体であると判別することを特徴とする請求項1〜5のいずれか一つに記載の画像認識装置。   The object discriminating unit performs a judgment on the predetermined part according to a predetermined environmental condition, and discriminates an object that is a candidate for the discrimination as the predetermined object. The image recognition apparatus as described in any one of. 前記物体判別手段は、前記判別の候補として前記画像から検出された物体の当該画像上の位置に応じて、当該判別の候補となる物体を前記所定の物体であると判別するか否かを決定することを特徴とする請求項1〜5のいずれか一つに記載の画像認識装置。   The object discriminating unit determines whether or not to discriminate an object that is a candidate for discrimination as the predetermined object according to a position on the image of an object detected from the image as the discrimination candidate. The image recognition apparatus according to claim 1, wherein the image recognition apparatus is an image recognition apparatus. 前記物体判別手段により、前記画像から検出された判別の候補となる物体が、当該判別の対象となる所定の物体であると判別された場合に、当該画像から当該所定の物体が路上に侵入しようとしているか否かを判定する侵入判定手段をさらに備えたことを特徴とする請求項1〜5のいずれか一つに記載の画像認識装置。   When the object discriminating unit discriminates that an object that is a candidate for discrimination detected from the image is a predetermined object to be discriminated, the predetermined object will enter the road from the image. The image recognition apparatus according to claim 1, further comprising an intrusion determination unit that determines whether or not 前記物体判定手段は、複数の連続画像から検出された判別の候補となる同一物体について、それぞれ別個の前記所定の部位に関する判定を行って、その結果得られる判別値がそれぞれ所定の閾値を超えている場合には当該所定の物体であると判別することを特徴とする請求項1に記載の画像認識装置。   The object determination means performs a determination regarding the predetermined part separately for the same object that is a candidate for determination detected from a plurality of continuous images, and a determination value obtained as a result exceeds a predetermined threshold value. The image recognition apparatus according to claim 1, wherein the image recognition apparatus determines that the object is the predetermined object. カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別する物体判別工程を含んだことを特徴とする画像認識方法。   When an object that is a candidate for determination is detected from an image captured by the camera, for the object that is a candidate for determination, a determination is made regarding a predetermined part that constitutes the predetermined object that is the target of determination, An image recognition method, comprising: an object discrimination step of discriminating that a given object is a predetermined object when a discrimination value obtained as a result exceeds a predetermined threshold. カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる歩行者を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には歩行者であると判別する物体判別手段を備えたことを特徴とする歩行者認識装置。   When an object that is a candidate for discrimination is detected from an image captured by a camera, the object that is a candidate for discrimination is determined for a predetermined part that constitutes a pedestrian that is the target of the discrimination. A pedestrian recognition apparatus comprising object discrimination means for discriminating that a person is a pedestrian when a discrimination value obtained as a result exceeds a predetermined threshold. カメラで撮像された画像から判別の候補となる物体が検出された場合に、当該判別の候補となる物体について、当該判別の対象となる所定の物体を構成する所定の部位に関する判定を行って、その結果得られる判別値が所定の閾値を超えている場合には当該所定の物体であると判別する物体判別手段による判別結果に応じて、警告の報知および/または車両の制御を行う制御手段を備えたことを特徴とする車両制御装置。   When an object that is a candidate for determination is detected from an image captured by the camera, for the object that is a candidate for determination, a determination is made regarding a predetermined part that constitutes the predetermined object that is the target of determination, Control means for notifying a warning and / or controlling the vehicle according to the result of discrimination by the object discriminating means for discriminating that it is the predetermined object when the discriminant value obtained as a result exceeds a predetermined threshold value. A vehicle control device comprising the vehicle control device.
JP2006190864A 2006-07-11 2006-07-11 Image recognition device, image recognition method, pedestrian recognition device and vehicle controller Pending JP2008021034A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006190864A JP2008021034A (en) 2006-07-11 2006-07-11 Image recognition device, image recognition method, pedestrian recognition device and vehicle controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006190864A JP2008021034A (en) 2006-07-11 2006-07-11 Image recognition device, image recognition method, pedestrian recognition device and vehicle controller

Publications (1)

Publication Number Publication Date
JP2008021034A true JP2008021034A (en) 2008-01-31

Family

ID=39076924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006190864A Pending JP2008021034A (en) 2006-07-11 2006-07-11 Image recognition device, image recognition method, pedestrian recognition device and vehicle controller

Country Status (1)

Country Link
JP (1) JP2008021034A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026223A (en) * 2007-07-23 2009-02-05 Toyota Central R&D Labs Inc Object detector and program
WO2009130828A1 (en) * 2008-04-24 2009-10-29 本田技研工業株式会社 Vehicle periphery monitoring apparatus
JP2010066815A (en) * 2008-09-08 2010-03-25 Denso Corp Person detecting device, person detecting program, operation controller, and collision mitigation device
JP2010128919A (en) * 2008-11-28 2010-06-10 Hitachi Automotive Systems Ltd Object detection apparatus
JP2011090450A (en) * 2009-10-21 2011-05-06 Toyota Motor Corp Object detector
JP2011248640A (en) * 2010-05-27 2011-12-08 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2012053663A (en) * 2010-09-01 2012-03-15 Honda Motor Co Ltd Object kind determination device
WO2012066751A1 (en) * 2010-11-16 2012-05-24 本田技研工業株式会社 Peripheral monitoring device for vehicle
WO2013021823A1 (en) 2011-08-05 2013-02-14 株式会社メガチップス Image recognition apparatus
WO2013035445A1 (en) 2011-09-09 2013-03-14 株式会社メガチップス Object detection device
DE102013203300A1 (en) 2012-02-27 2013-08-29 Denso Corporation Image processing apparatus for use in vehicle control system for detecting pedestrian captured by camera, has object region estimating unit estimating object region in which object is present on basis of partial regions
JP2014032542A (en) * 2012-08-03 2014-02-20 Denso Corp Image processor and, vehicle control system using image processor
JP2016110578A (en) * 2014-12-10 2016-06-20 株式会社リコー Image recognition system, server device, and image recognition method
US9477882B2 (en) 2014-03-13 2016-10-25 Megachips Corporation Object detection apparatus
CN106803083A (en) * 2017-02-04 2017-06-06 北京旷视科技有限公司 The method and device of pedestrian detection
GB2548200A (en) * 2016-01-15 2017-09-13 Ford Global Tech Llc Pedestrian detection with saliency maps
WO2018105171A1 (en) 2016-12-06 2018-06-14 コニカミノルタ株式会社 Image recognition system and image recognition method
JP2019036240A (en) * 2017-08-21 2019-03-07 株式会社Ihi Object detection device
CN109814552A (en) * 2018-12-28 2019-05-28 百度在线网络技术(北京)有限公司 Vehicular control unit, the Vehicular automatic driving method and device based on FPGA
JP2019139479A (en) * 2018-02-09 2019-08-22 Kddi株式会社 Program, device, and method for estimating context using a plurality of recognition engines
JP2019211943A (en) * 2018-06-04 2019-12-12 アルパイン株式会社 Image processing device, and image processing method
US10525900B2 (en) 2014-06-03 2020-01-07 Honda Motor Co., Ltd. Vehicle periphery monitoring device
JP2020024669A (en) * 2018-08-07 2020-02-13 キヤノン株式会社 Detection device and control method thereof
JP2021089684A (en) * 2019-12-05 2021-06-10 ネットスマイル株式会社 Video signal processing system and video signal processing method
JPWO2021111544A1 (en) * 2019-12-04 2021-06-10
US11113566B2 (en) 2018-09-21 2021-09-07 Toyota Jidosha Kabushiki Kaisha Image processing system, method, and apparatus specifying an object included in a captured image outside a vehicle
US11897518B2 (en) 2017-03-01 2024-02-13 Mobileye Vision Technologies Ltd. Systems and methods for navigating with sensing uncertainty
JP7528650B2 (en) 2020-09-02 2024-08-06 株式会社Jvcケンウッド OBJECT RECOGNITION CONTROL DEVICE AND OBJECT RECOGNITION METHOD

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160146A (en) * 1999-12-01 2001-06-12 Matsushita Electric Ind Co Ltd Method and device for recognizing image
JP2002312769A (en) * 2001-04-16 2002-10-25 Matsushita Electric Ind Co Ltd Monitoring device and parameter setting method therefor
JP2003006642A (en) * 2001-06-22 2003-01-10 Toshihiko Shimizu Image processor utilizing thermal image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160146A (en) * 1999-12-01 2001-06-12 Matsushita Electric Ind Co Ltd Method and device for recognizing image
JP2002312769A (en) * 2001-04-16 2002-10-25 Matsushita Electric Ind Co Ltd Monitoring device and parameter setting method therefor
JP2003006642A (en) * 2001-06-22 2003-01-10 Toshihiko Shimizu Image processor utilizing thermal image

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026223A (en) * 2007-07-23 2009-02-05 Toyota Central R&D Labs Inc Object detector and program
US8284253B2 (en) 2008-04-24 2012-10-09 Honda Motor Co., Ltd. Vehicle periphery monitoring apparatus
WO2009130828A1 (en) * 2008-04-24 2009-10-29 本田技研工業株式会社 Vehicle periphery monitoring apparatus
CN102016954A (en) * 2008-04-24 2011-04-13 本田技研工业株式会社 Vehicle periphery monitoring apparatus
CN102016954B (en) * 2008-04-24 2017-06-23 本田技研工业株式会社 Vehicle periphery monitoring device
JP2010066815A (en) * 2008-09-08 2010-03-25 Denso Corp Person detecting device, person detecting program, operation controller, and collision mitigation device
JP4683096B2 (en) * 2008-09-08 2011-05-11 株式会社デンソー Person detection device, person detection program, operation control device, and collision mitigation device
JP2010128919A (en) * 2008-11-28 2010-06-10 Hitachi Automotive Systems Ltd Object detection apparatus
JP2011090450A (en) * 2009-10-21 2011-05-06 Toyota Motor Corp Object detector
JP2011248640A (en) * 2010-05-27 2011-12-08 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2012053663A (en) * 2010-09-01 2012-03-15 Honda Motor Co Ltd Object kind determination device
WO2012066751A1 (en) * 2010-11-16 2012-05-24 本田技研工業株式会社 Peripheral monitoring device for vehicle
JPWO2012066751A1 (en) * 2010-11-16 2014-05-12 本田技研工業株式会社 Vehicle periphery monitoring device
US9160986B2 (en) 2010-11-16 2015-10-13 Honda Motor Co., Ltd. Device for monitoring surroundings of a vehicle
JP5530530B2 (en) * 2010-11-16 2014-06-25 本田技研工業株式会社 Vehicle periphery monitoring device
US9361534B2 (en) 2011-08-05 2016-06-07 Megachips Corporation Image recognition apparatus using neural network processing
WO2013021823A1 (en) 2011-08-05 2013-02-14 株式会社メガチップス Image recognition apparatus
US9373027B2 (en) 2011-09-09 2016-06-21 Megachips Corporation Object detection device
WO2013035445A1 (en) 2011-09-09 2013-03-14 株式会社メガチップス Object detection device
DE102013203300A1 (en) 2012-02-27 2013-08-29 Denso Corporation Image processing apparatus for use in vehicle control system for detecting pedestrian captured by camera, has object region estimating unit estimating object region in which object is present on basis of partial regions
JP2014032542A (en) * 2012-08-03 2014-02-20 Denso Corp Image processor and, vehicle control system using image processor
US9477882B2 (en) 2014-03-13 2016-10-25 Megachips Corporation Object detection apparatus
US10525900B2 (en) 2014-06-03 2020-01-07 Honda Motor Co., Ltd. Vehicle periphery monitoring device
JP2016110578A (en) * 2014-12-10 2016-06-20 株式会社リコー Image recognition system, server device, and image recognition method
GB2548200A (en) * 2016-01-15 2017-09-13 Ford Global Tech Llc Pedestrian detection with saliency maps
WO2018105171A1 (en) 2016-12-06 2018-06-14 コニカミノルタ株式会社 Image recognition system and image recognition method
US10846538B2 (en) 2016-12-06 2020-11-24 Konica Minolta, Inc. Image recognition system and image recognition method to estimate occurrence of an event
CN106803083A (en) * 2017-02-04 2017-06-06 北京旷视科技有限公司 The method and device of pedestrian detection
JP7540827B2 (en) 2017-03-01 2024-08-27 モービルアイ ビジョン テクノロジーズ リミテッド SYSTEM AND METHOD FOR NAVIGATING WHILE SENSING UNCERTAINTY - Patent application
US11897518B2 (en) 2017-03-01 2024-02-13 Mobileye Vision Technologies Ltd. Systems and methods for navigating with sensing uncertainty
JP2019036240A (en) * 2017-08-21 2019-03-07 株式会社Ihi Object detection device
JP2019139479A (en) * 2018-02-09 2019-08-22 Kddi株式会社 Program, device, and method for estimating context using a plurality of recognition engines
JP7021008B2 (en) 2018-06-04 2022-02-16 アルパイン株式会社 Image processing device and image processing method
JP2019211943A (en) * 2018-06-04 2019-12-12 アルパイン株式会社 Image processing device, and image processing method
JP7378223B2 (en) 2018-08-07 2023-11-13 キヤノン株式会社 Detection device and its control method
JP2020024669A (en) * 2018-08-07 2020-02-13 キヤノン株式会社 Detection device and control method thereof
US11113566B2 (en) 2018-09-21 2021-09-07 Toyota Jidosha Kabushiki Kaisha Image processing system, method, and apparatus specifying an object included in a captured image outside a vehicle
JP2021529388A (en) * 2018-12-28 2021-10-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド In-vehicle control unit, FPGA-based vehicle automatic driving method and equipment
JP7416731B2 (en) 2018-12-28 2024-01-17 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド In-vehicle control unit, FPGA-based vehicle automatic driving method and device
CN109814552B (en) * 2018-12-28 2024-05-24 阿波罗智能技术(北京)有限公司 Vehicle-mounted control unit, and automatic vehicle driving method and device based on FPGA
US12022237B2 (en) 2018-12-28 2024-06-25 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Vehicle-mounted control unit, and method and apparatus for FPGA based automatic driving of vehicle
CN109814552A (en) * 2018-12-28 2019-05-28 百度在线网络技术(北京)有限公司 Vehicular control unit, the Vehicular automatic driving method and device based on FPGA
WO2021111544A1 (en) * 2019-12-04 2021-06-10 三菱電機株式会社 Driving assist device and driving assist method
JPWO2021111544A1 (en) * 2019-12-04 2021-06-10
CN114746924A (en) * 2019-12-04 2022-07-12 三菱电机株式会社 Driving support device and driving support method
JP2021089684A (en) * 2019-12-05 2021-06-10 ネットスマイル株式会社 Video signal processing system and video signal processing method
JP7528650B2 (en) 2020-09-02 2024-08-06 株式会社Jvcケンウッド OBJECT RECOGNITION CONTROL DEVICE AND OBJECT RECOGNITION METHOD

Similar Documents

Publication Publication Date Title
JP2008021034A (en) Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
JP2007148835A (en) Object distinction device, notification controller, object distinction method and object distinction program
US8184159B2 (en) Forward looking sensor system
JP2008021035A (en) Image recognition device, image recognition method, and vehicle control device
US7031496B2 (en) Method and apparatus for object recognition using a plurality of cameras and databases
JP4708124B2 (en) Image processing device
JP5197679B2 (en) Object detection apparatus and program
US20210089794A1 (en) Vehicle system and method for detecting objects and object distance
CN107179767B (en) Driving control device, driving control method, and non-transitory recording medium
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
JP7135665B2 (en) VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM
JP2008034981A (en) Image recognition device and method, pedestrian recognition device and vehicle controller
JP2007072665A (en) Object discrimination device, object discrimination method and object discrimination program
JP2007188417A (en) Image recognition device, image recognition method, and image recognition program
JP2007328630A (en) Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device
Garcia et al. PHD filter for vehicle tracking based on a monocular camera
US9607230B2 (en) Mobile object control apparatus and target object detecting apparatus
JP2005196590A (en) Pedestrian extractor
JP2009070344A (en) Image recognition device, image recognition method, and electronic control device
JP2009237897A (en) Image recognition device
JP5593217B2 (en) Vehicle external recognition device and vehicle system using the same
JP2008310440A (en) Pedestrian detection device
JP2007064894A (en) Object detector, object detecting method, and object detection program
JP2007058751A (en) Apparatus, method, and program for discriminating object
JP2010282388A (en) Vehicular pedestrian detection device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101019