JP2018206373A - Method and device for classifying targets for vehicle - Google Patents

Method and device for classifying targets for vehicle Download PDF

Info

Publication number
JP2018206373A
JP2018206373A JP2018094211A JP2018094211A JP2018206373A JP 2018206373 A JP2018206373 A JP 2018206373A JP 2018094211 A JP2018094211 A JP 2018094211A JP 2018094211 A JP2018094211 A JP 2018094211A JP 2018206373 A JP2018206373 A JP 2018206373A
Authority
JP
Japan
Prior art keywords
unique
classifier
camera image
vehicle
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018094211A
Other languages
Japanese (ja)
Other versions
JP7185419B2 (en
Inventor
シュルツ,ウド
Schulz Udo
シュミット,フローリアン
Schmitt Florian
シュヴァルツェンベルク,グレゴア
Schwarzenberg Gregor
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2018206373A publication Critical patent/JP2018206373A/en
Application granted granted Critical
Publication of JP7185419B2 publication Critical patent/JP7185419B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

To propose a method for classifying targets (110) for a vehicle (100).SOLUTION: The method includes at least one classification step, an extraction step, and a creation step. The classification step classifies a target (110) from a camera image (115), using an attribute sorter (120). The extraction step extracts at least one unique target feature allocated to the target (110) from the camera image (115). The creation step creates a unique sorter (130), using the unique target feature.SELECTED DRAWING: Figure 1

Description

本提案は、独立請求項の前提部に記載した方法または装置に関する。この提案の対象はコンピュータプログラムでもある。   The proposal relates to a method or device as described in the preamble of the independent claims. The subject of this proposal is also a computer program.

カメラシステムを用いた対象物の識別は、多くの分野でますます重要性を増している。特に自動車環境において、対象物例えば歩行者を識別するための機能を有するカメラシステムが、自動走行までの多様なアシスト機能のためにしばしばどうしても必要とされる。この場合、相応の対象物識別装置が、識別された対象物をトレーニングされた属性分類器を用いて対象物型式に割り当てる。   Object identification using camera systems is becoming increasingly important in many fields. Especially in an automobile environment, a camera system having a function for identifying an object such as a pedestrian is often required for various assist functions up to automatic driving. In this case, a corresponding object identification device assigns the identified object to the object type using the trained attribute classifier.

以上のような背景から、ここに紹介された提案では、車両のための対象物を分類するための方法、さらにこの方法を使用する装置、並びに最後に主請求項に記載した相応のコンピュータプログラムが紹介される。従属請求項に記載した手段によって、独立請求項に記載した装置の好適な実施態様および改良が可能である。   Against this background, the proposal introduced here includes a method for classifying objects for vehicles, a device using this method, and finally a corresponding computer program as described in the main claim. Introduced. By means of the dependent claims, preferred embodiments and improvements of the device described in the independent claims are possible.

紹介された提案によって得ることができる利点は、公知の属性分類器に追加して、ここに紹介された固有分類器を作成することによって、対象物の識別の反応時間並びに対象物の対象物追跡時のロバスト性が改善される、という点にある。   The advantages that can be obtained with the proposed proposals are the addition of known attribute classifiers, and the creation of the unique classifiers introduced here, so that the object identification reaction time as well as the object tracking of the objects. The robustness of time is improved.

車両のための対象物を分類するための方法が提案される。この方法は、少なくとも1つの分類するステップと抽出するステップと作成するステップとを有している。分類するステップで、属性分類器を使用してカメラ画像から1つの対象物が分類される。抽出するステップで、対象物に割り当てられた少なくとも1つの固有の対象物特徴がカメラ画像から抽出される。作成するステップで、固有の対象物特徴を使用して固有分類器が作成される。   A method for classifying objects for vehicles is proposed. The method includes at least one classifying step, extracting step and creating step. In the classifying step, one object is classified from the camera image using an attribute classifier. In the extracting step, at least one unique object feature assigned to the object is extracted from the camera image. In the creating step, a unique classifier is created using the unique object features.

この方法は、例えばソフトウエアまたはハードウエアでまたはソフトウエアとハードウエアとから成る混合形式で、例えばコントロールユニット内に実装されてよい。例えばこの方法は、車両カメラのための対象物識別装置内に実装されてよい。   This method may be implemented, for example, in the control unit, for example in software or hardware or in a mixed format consisting of software and hardware. For example, the method may be implemented in an object identification device for a vehicle camera.

ここに紹介された方法によって、カメラ画像で検出された対象物は、もはや属性分類器だけによってではなく、追加的に新たに作成された固有分類器によっても分類され得る。これによって、対象物のより迅速な分類が可能であり、また今日まで知られていないかまたは識別が困難である対象物の分類も可能である。   With the method introduced here, the objects detected in the camera image can no longer be classified not only by the attribute classifier but also by the newly created unique classifier. This allows for a faster classification of objects and also classification of objects that have not been known to date or are difficult to identify.

固有識別機を使用するためにおよび/または更新するために、分類するステップで、別の対象物が別のカメラ画像から属性分類器および固有分類器を使用して分類され、抽出するステップで、別の対象物に割り当てられた少なくとも1つの別の固有の対象物特徴が別のカメラ画像から抽出され、作成するステップで、固有分類器が別の固有の対象物特徴を使用して適合され得る。   In the classifying step for using and / or updating the unique classifier, another object is classified and extracted from another camera image using an attribute classifier and a unique classifier, At least one other unique object feature assigned to another object may be extracted from another camera image and created in which the unique classifier may be adapted using the other unique object feature .

抽出するステップで、属性的に分類された対象物の少なくとも1つの色および/または構造および/または形を表す例えば1つの対象物特徴がカメラ画像から抽出される。このような形式の対象物特徴は、属性分類器によって考慮されない。何故ならば、このような形式の対象物特徴は、一般的に1つの対象物型式のすべての対象物例に当てはまらないが、具体的な使用例では例えば識別された対象物の信頼できる対象物追跡に用いることができるからである。   In the extracting step, for example, one object feature representing at least one color and / or structure and / or shape of the attribute-classified object is extracted from the camera image. This type of object feature is not considered by the attribute classifier. This is because an object feature of this type generally does not apply to all object examples of one object type, but in a specific use case, for example, a reliable object of an identified object. This is because it can be used for tracking.

作成するステップで、固有分類器が環状記憶装置にメモリされてよい。   In the creating step, the unique classifier may be stored in a circular storage device.

カメラ画像を提供するために、この方法は算出するステップを有しており、この算出するステップで、カメラ画像は周辺検出装置を使用して算出される。周辺検出装置は、カメラ例えば車両カメラおよび/またはレーダ装置であってよいか、または少なくともこれらを有していてよい。   In order to provide a camera image, the method includes a calculating step, in which the camera image is calculated using a peripheral detection device. The surrounding detection device may be a camera, for example a vehicle camera and / or a radar device, or may at least have these.

属性分類器を適合または更新もできるようにするために、この方法は、好適な実施例によれば、メモリするステップを有していてよく、このメモリするステップで、分類するステップで対象物の分類に関する分類精度が閾値を下回ると、カメラ画像がメモリされる。メモリするステップは、抽出するステップの前に実施されてよく、この場合、例えば不正確であると評価された、属性的に検出された対象物の少なくとも1つの対象物特徴がカメラ画像上に配置されると、分類精度は閾値を下回る。   In order to be able to adapt or update the attribute classifier, the method may, according to a preferred embodiment, comprise a step of memorizing, in which the step of classifying the object in the classifying step. When the classification accuracy for classification falls below the threshold, the camera image is stored. The step of memorizing may be performed before the step of extracting, in which case at least one object feature of an attribute-detected object, eg evaluated as inaccurate, is placed on the camera image. If done, the classification accuracy is below the threshold.

対象物識別装置の属性分類器の新たなトレーニングを可能にするために、メモリするステップで、カメラ画像は対象物識別装置の外部に配置されたトレーニング装置に送信されてよい。   In order to allow new training of the attribute classifier of the object identification device, the camera image may be transmitted to a training device located outside the object identification device in the memory step.

ここに紹介された提案は、さらに、ここに紹介された方法の変化例のステップを相応の装置で実施、制御若しくは実行するために構成された装置を提供する。この提案の、このような装置の形の変化実施例よっても、提案に基づく課題を、迅速かつ効果的に解決することができる。この装置は、対象物識別装置の一部であってよい。   The proposals introduced here further provide a device configured to carry out, control or execute the steps of the method variant introduced here with corresponding devices. According to this proposed example of a change in the shape of the apparatus, the problem based on the proposal can be solved quickly and effectively. This device may be part of an object identification device.

このために、この装置は、信号またはデータを処理するための少なくとも1つの演算装置と、信号またはデータをメモリするための少なくとも1つの記憶装置と、センサのセンサ信号を読み取るためのまたはデータ若しくは制御信号をアクチュエータにアウトプットするためのセンサまたはアクチュエータへの少なくとも1つのインターフェースおよび/または通信プロトコル内に埋め込まれたデータを読み取りまたはアウトプットするための少なくとも1つの通信インターフェースとを有している。演算装置は、例えば信号プロセッサ、マイクロコントローラ等であってよく、この場合、記憶装置は、フラッシュメモリー、EPROMまたは磁気記憶装置であってよい。通信インターフェースは、データをワイヤレスでおよび/または有線誘導で読み取るかまたはアウトプットするために、構成されていてよく、この場合、有線誘導されたデータを読み取るかまたはアウトプットすることができる通信インターフェースは、データを例えば相応のデータ伝送線路から電気式または光学式に読み取るかまたは相応のデータ伝送線路にアウトプットすることができる。   For this purpose, the device comprises at least one computing device for processing signals or data, at least one storage device for storing signals or data, and for reading sensor signals of sensors or data or control At least one interface to the sensor or actuator to output signals to the actuator and / or at least one communication interface to read or output data embedded within the communication protocol. The arithmetic device may be, for example, a signal processor, a microcontroller, etc. In this case, the storage device may be a flash memory, an EPROM or a magnetic storage device. The communication interface may be configured to read or output data wirelessly and / or with wired guidance, in which case the communication interface capable of reading or outputting wired-directed data is The data can be read, for example, electrically or optically from a corresponding data transmission line or output to a corresponding data transmission line.

装置とは、ここでは、センサ信号を処理しそれに基づいて制御信号および/またはデータ信号をアウトプットする電気機器であると解釈されてよい。この装置は、ハードウエア式および/またはソフトウエア式に構成され得るインターフェースを有していてよい。ハードウエア式の構成において、インターフェースは、例えば装置の様々な機能を含有するいわゆるシステムASICの一部であってよい。しかしながら、インターフェースは専用の集積回路であるか、または少なくとも部分的に離散素子より成っていてもよい。ソフトウエア式の構成において、インターフェースは、例えばマイクロコントローラ上で別のソフトウエアモジュールの隣に設けられたソフトウエアモジュールであってよい。   A device may here be interpreted as an electrical device that processes sensor signals and outputs control signals and / or data signals based thereon. The device may have an interface that can be configured in hardware and / or software. In a hardware-based configuration, the interface may be part of a so-called system ASIC that contains the various functions of the device, for example. However, the interface may be a dedicated integrated circuit or at least partially made up of discrete elements. In a software-based configuration, the interface may be a software module provided next to another software module on the microcontroller, for example.

好適な実施態様によれば、この装置によって対象物の分類の制御が行われる。このために、この装置は、例えば分類信号、抽出信号および作成信号等のセンサ信号へアクセスすることができる。制御は、例えば属性分類器を使用してカメラ画像で識別された対象物の属性的な分類を実施するために構成された属性分類装置、対象物に割り当てられた少なくとも1つの固有の対象物特徴をカメラ画像から抽出するために構成された抽出装置、少なくとも、固有の対象物特徴を使用して固有の分類器を作成するために構成された固有分類装置等のアクチュエータを介して行われる。   According to a preferred embodiment, the device controls the classification of the object. To this end, the device can access sensor signals such as classification signals, extraction signals and creation signals. The control includes, for example, an attribute classifier configured to perform an attribute classification of the object identified in the camera image using an attribute classifier, at least one unique object feature assigned to the object Through an actuator, such as an extractor configured to extract the image from the camera image, at least a unique classifier configured to create a unique classifier using unique object features.

機械読み取り可能な担体または記憶媒体、例えば半導体記憶装置、ハードディスクまたは光学式記憶装置にメモリ可能であって、特にプログラム製品またはプログラムがコンピュータまたは装置で実行されると、前記実施例のいずれか1つによる方法のステップを実施、実行および/または制御するために使用されるプログラムコードを有するコンピュータプログラムまたはコンピュータプログラム製品も有利である。   Any one of the preceding embodiments can be stored on a machine-readable carrier or storage medium, such as a semiconductor storage device, a hard disk, or an optical storage device, particularly when the program product or program is executed on a computer or device. Also advantageous is a computer program or computer program product having program code used to implement, execute and / or control the steps of the method.

対象物を分類するための、1実施例による装置を備えた車両の概略図である。1 is a schematic view of a vehicle equipped with a device according to one embodiment for classifying objects. FIG. 車両のための対象物を分類するための、1実施例による装置の概略図である。1 is a schematic diagram of an apparatus according to one embodiment for classifying objects for a vehicle. FIG. 車両のための対象物を分類するための、1実施例による方法のフローチャートである。2 is a flowchart of a method according to one embodiment for classifying objects for a vehicle. 車両のための対象物を分類するための、1実施例による方法のフローチャートである。2 is a flowchart of a method according to one embodiment for classifying objects for a vehicle.

ここに紹介された提案の複数の実施例が図面に示されていて、以下に詳しく説明されている。   Several embodiments of the proposal introduced here are shown in the drawings and are described in detail below.

ここに提案された好適な実施例の以下の説明中、様々な図面に示された、類似の作用を有する構成要素のために、同じまたは類似の符号が使用されており、この場合、これらの構成要素の繰り返しの説明は省かれる。   In the following description of the preferred embodiment proposed here, the same or similar reference numerals are used for components having similar action, which are shown in the various drawings, in which case these A repeated description of the components is omitted.

図1は、対象物110を分類するための、1実施例による装置105を備えた車両100の概略図を示す。   FIG. 1 shows a schematic diagram of a vehicle 100 with an apparatus 105 according to one embodiment for classifying objects 110.

この装置105は、この実施例ではオプション的に別の車両として処理された対象物110を分類するために構成されている。このために、装置105は、カメラ画像115から得られた対象物110を属性分類器120を用いて分類するために構成されている。カメラ画像115は、この実施例によれば車両100の周辺検出装置125によって読み取られ、提供される。さらに、装置105は、対象物110に割り当てられた、少なくとも1つの固有の対象物特徴をカメラ画像115から抽出するために構成されている。さらにこの装置105は、固有の対象物特徴を用いて固有分類器130を作成するために、そして対象物110を分類するために構成されている。   The device 105 is configured to classify an object 110 that is optionally treated as a separate vehicle in this embodiment. For this purpose, the device 105 is configured to classify the object 110 obtained from the camera image 115 using the attribute classifier 120. According to this embodiment, the camera image 115 is read and provided by the periphery detection device 125 of the vehicle 100. Further, the device 105 is configured to extract from the camera image 115 at least one unique object feature assigned to the object 110. Further, the apparatus 105 is configured to create a unique classifier 130 using unique object features and to classify the object 110.

以下に記載された、装置105の特徴はオプション的である。   The features of the device 105 described below are optional.

1実施例によれば、装置105は、カメラ画像115から、属性的に分類された対象物の少なくとも1つの色および/または構造および/または形を表す対象物特徴を抽出するために構成されている。さらに、装置105は、この実施例に従って作成された固有分類器130を環状記憶装置にメモリする。   According to one embodiment, the device 105 is configured to extract from the camera image 115 an object feature that represents at least one color and / or structure and / or shape of an attribute-classified object. Yes. In addition, the device 105 stores the unique classifier 130 created according to this embodiment in a circular storage device.

さらに、装置105は、属性分類器120による分類時に対象物110の分類に関連した分類精度が閾値を下回ると、カメラ画像115をメモリするように構成されている。このために装置105は、カメラ画像115を、装置105の外部および/または装置105を有する対象物識別装置の外部に配置されたトレーニング装置132に送信するように構成されている。   Furthermore, the device 105 is configured to store the camera image 115 when the classification accuracy associated with the classification of the object 110 falls below a threshold during classification by the attribute classifier 120. For this purpose, the device 105 is configured to transmit the camera image 115 to a training device 132 arranged outside the device 105 and / or outside the object identification device having the device 105.

さらに、装置105は、装置105によって分類された対象物135を、車両100のドライブアシストシステム140のために提供するかまたはドライブアシストシステム140に送信するように構成されている。   Further, the device 105 is configured to provide or transmit the object 135 classified by the device 105 to the drive assist system 140 of the vehicle 100.

この実施例によれば、装置105は、属性分類器120および固有分類器130を使用して別のカメラ画像150から別の対象物145を分類し、この別の対象物145に割り当てられた別の固有の対象物特徴を別のカメラ画像150から抽出し、別の固有の対象物特徴を使用して固有分類器130を適合させるために構成されている。   According to this embodiment, the device 105 uses the attribute classifier 120 and the unique classifier 130 to classify another object 145 from another camera image 150 and to assign another object 145 assigned to this other object 145. Specific object features are extracted from another camera image 150 and are configured to adapt the unique classifier 130 using the other unique object features.

図2は、車両のための対象物を分類するための、1実施例による装置105の概略図を示す。この場合、これは図1に記載された装置105であってよい。図2には、属性分類器120および固有分類器130の使用例が示されている。   FIG. 2 shows a schematic diagram of an apparatus 105 according to one embodiment for classifying objects for a vehicle. In this case, this may be the device 105 described in FIG. FIG. 2 shows a usage example of the attribute classifier 120 and the unique classifier 130.

属性分類器120は、多数の対象物例205を用いて予めオフライントレーニングで学習されている少なくとも1つの学習された車両モデル200を表すかまたは含有している。道路交通で使用される際にカメラ画像115および/または別のカメラ画像に、典型的でないかまたはオフライントレーニングのトレーニング時間の際にまだ知られていなかった対象物若しくは車両である対象物110,145が表示されると、この対象物110,145は属性分類器120だけによって不正確におよび/またはゆっくりと識別される。ここで紹介された装置105は、対象物110,145の主要な特徴を固有の対象物特徴210の形で抽出し、それによって固有分類器130を算出するか、または固有分類器130を適合させる。固有分類器130は、この実施例によれば、記憶装置にメモリされ、この場合、記憶装置内の各メモリ書き込み215のために追加的なアプリケーション220が実行される。   The attribute classifier 120 represents or contains at least one learned vehicle model 200 that has been previously learned in offline training using a number of example objects 205. Object 110, 145, which is an object or vehicle that is atypical or not yet known during the training time of offline training in camera image 115 and / or another camera image when used in road traffic Is displayed, the objects 110 and 145 are identified incorrectly and / or slowly by the attribute classifier 120 alone. The apparatus 105 introduced here extracts the main features of the objects 110, 145 in the form of unique object features 210, thereby calculating the unique classifier 130 or adapting the unique classifier 130. . The unique classifier 130, according to this embodiment, is stored in a storage device, in which case an additional application 220 is executed for each memory write 215 in the storage device.

言い換えれば、ここで紹介された装置105は、カメラシステムの対象物検出のためにまたはカメラシステムのために、分類器120,130のオンライン学習を可能にする。このために、装置105は選択的な実施例によれば、少なくとも1つのカメラシステムを有する周辺検出装置125の内側または外側に支持されている。   In other words, the apparatus 105 introduced here enables on-line learning of the classifiers 120, 130 for object detection of the camera system or for the camera system. For this purpose, the device 105 is, according to an alternative embodiment, supported on the inside or outside of the periphery detection device 125 having at least one camera system.

この場合、この装置105の課題は、例えば対象物110,145を識別するために車両内に組み込まれているカメラシステムで、対象物検出のための、例えば不確実なおよび/または不鮮明な対象物識別のための分類器120,130のオンラインアップデートを、トラッキング、時間の経過に伴う妥当化等による「確実に」実施された対象物分類に従って実施することである。これについては図4も参照されたい。   In this case, the problem with this device 105 is, for example, an uncertain and / or unclear object for object detection, for example in a camera system incorporated in the vehicle to identify the object 110,145. The online update of the classifiers 120 and 130 for identification is performed in accordance with the object classification performed “reliably” by tracking, validation over time, etc. See also FIG. 4 for this.

公知のシステムとは異なり、ここに紹介された装置105は、好適な形式で、数値の下回った対象物例205も良好に識別することができる。さらに、今日のシステムにおけるトレーニングされた属性分類器120は、すべての状況において世界的に通用する適切な対象物識別を保証するために、所定の対象物型式の識別のために属性的に設計されている。このような属性的な識別のために、一般的にすべての対象物例205に当てはまる相応の特徴が用いられ、つまり、色や明確な構造等の固有の特徴、例えばナンバープレートは、この場合、識別用の特徴として拒絶される。その結果、一方では一般的にやや長時間の対象物識別が行われることになる。何故ならば、分類器検出は低い誤差率を得るために立証を介して妥当化される必要があるからである。他方では、例えば特に少量生産車両若しくは新世代車両等の数値の下回った対象物例205は、特に検出しにくい。不正確な対象物検出、しかしながらトラッキング/妥当化によって時間的に遅れて行われた対象物の分類は、今日のシステムでは評価または適合を生ぜしめるのではなく、この対象物の検出の不十分さが持続的に残存する。しかしながら、ここに紹介された分類器120,130のオンライントレーニングによって、品質レベル若しくは識別率が改善される。   Unlike known systems, the apparatus 105 introduced here can also better identify example objects 205 below numerical values in a suitable format. In addition, the trained attribute classifier 120 in today's systems is attributed for identification of a given object type to ensure proper object identification that is globally accepted in all situations. ing. For such attribute identification, corresponding features that are generally applicable to all example objects 205 are used, i.e. unique features such as color and distinct structure, such as license plates, in this case, Rejected as an identifying feature. As a result, on the other hand, object identification is generally performed for a relatively long time. This is because classifier detection needs to be validated through validation to obtain a low error rate. On the other hand, for example, the target object 205 that is below a numerical value such as a small-volume production vehicle or a new generation vehicle is particularly difficult to detect. Inaccurate object detection, however, the classification of objects that are delayed in time by tracking / validation does not give rise to evaluations or fits in today's systems, but inadequate detection of this object. Remains persistently. However, the online training of the classifiers 120, 130 introduced here improves the quality level or the identification rate.

このために好適には、装置105内に別の分類器、つまり固有分類器130が、既に存在する属性分類器120に並列に実装されている。属性分類器120は、新規の/非典型的な対象物形態の識別および反応時間に関連した前記条件下で、所望の対象物型式の本質的にすべての形態を識別する。この属性分類器120によって検出され、時間的な妥当化(トラッキング)および立証を介して分類された対象物のために、固有の特徴、例えばこの対象物のための色および構造が、ビデオ画像であってよいカメラ画像115から抽出され、別の固有分類器130の作成/適合のために使用され得る。これによって、一方では、例えば雨の時のウインドウワイパによる画像妨害または対象物の部分遮蔽においても安定した対象物追跡が可能である。他方では、例えば別の車両によって完全に遮蔽された後で、またはカーブの後を先頭で走る際に、対象物をより迅速に検出しかつ分類することができる。従って、すべての可能な対象物形態の一般的な識別を妨げるという理由により属性分類器120のために使用できない特徴を、固有分類器130のために使用することができる。   For this purpose, another classifier, i.e. a unique classifier 130, is preferably implemented in parallel in the already existing attribute classifier 120 in the device 105. The attribute classifier 120 identifies essentially all forms of the desired object type under the conditions associated with the identification of new / atypical object forms and reaction times. For objects detected by this attribute classifier 120 and classified via temporal validation (tracking) and verification, unique features such as color and structure for this object are displayed in the video image. It can be extracted from a possible camera image 115 and used to create / adapt another unique classifier 130. Thereby, on the other hand, stable object tracking is possible even in the case of image obstruction by a window wiper during rain or partial occlusion of an object. On the other hand, objects can be detected and classified more quickly, for example after being completely occluded by another vehicle or running at the head after a curve. Thus, features that cannot be used for the attribute classifier 120 because they prevent general identification of all possible object forms can be used for the unique classifier 130.

しかしながら、属性分類器120にトレーニングのための特徴として例えば色が提供されても、データ例、ここでは対象物例205に青の車両が存在しなければ、青の車両はもはや識別されない。   However, even if the attribute classifier 120 is provided with, for example, a color as a training feature, if there is no blue vehicle in the example data, here the example object 205, the blue vehicle is no longer identified.

車両の局所的な近傍で、属性分類器120に並列してこのような固有分類器130を加えることによって、例えば識別の反応時間および対象物追跡のロバスト性に関連した前記利点がもたらされる。   By adding such a unique classifier 130 in parallel with the attribute classifier 120 in the local vicinity of the vehicle, the advantages associated with, for example, the reaction time of identification and the robustness of object tracking are provided.

この場合、属性分類器120を介して行われる基本的な対象物検出は、製品発送の時点で対象物識別の品質に課される要求を確実に満たすために、さらに必要である。   In this case, the basic object detection performed via the attribute classifier 120 is further necessary to ensure that the requirements imposed on the quality of object identification at the time of product shipment are met.

オンライントレーニング段階で、固有分類器130の入力が属性分類器120の入力に接続され、固有分類器130の出力が、立証、妥当化および積分の出力に接続される。これについては、図4も参照されたい。固有分類器130のための初期データとして、当該の対象物がビデオで識別されたカメラ画像115,145の画像範囲から、独特な特徴が抽出される。この固有の対象物特徴210は、この対象物形態を、高さ、幅、構造情報並びに色等の形で精確に記述し、もっぱらこの対象物を精確に識別するために設計されている。   In the online training phase, the input of the unique classifier 130 is connected to the input of the attribute classifier 120, and the output of the unique classifier 130 is connected to the output of validation, validation and integration. See also FIG. 4 for this. As initial data for the unique classifier 130, a unique feature is extracted from the image range of the camera images 115, 145 in which the object is identified by video. This unique object feature 210 is designed to accurately describe the object form in the form of height, width, structural information, color, etc., and exclusively identify this object accurately.

この実施例によれば、固有分類器130は、複数の対象物形態を分類するように設計されている。代替的に、この固有分類器130の、走行状況に応じて満たされる複数の事例が、所定の数まで存在してよい。この場合、この分類器130の管理は環状記憶装置を介して実現され、この環状記憶装置では、新たな対象物形態がメモリされるべき場合に、最も古い書き込みが拒否される。   According to this embodiment, the unique classifier 130 is designed to classify a plurality of object forms. Alternatively, there may be a predetermined number of a plurality of cases of the unique classifier 130 that are satisfied according to the driving situation. In this case, the management of the classifier 130 is realized via an annular storage device, in which the oldest writing is rejected when a new object form is to be stored.

既に図1に記載されているように、装置105によってさらに、属性分類器120のオプション的な補正が可能である。この場合、提供された対象物形態への適合に追加して、それぞれの対象物形態の識別時間およびロバスト性に関連した属性分類器120の評価が実行され得る。属性分類器120によってゆっくりと若しくは不確実に識別された、例えば図4に詳しく記載された時間的な立証または固有運動識別等の選択的な識別方法によって前もって分類されているそれぞれの対象物110,145のために、カメラ画像115の相応の画像データが別個の記憶装置にファイルされる。この別個の記憶装置は、図1ではトレーニング装置若しくはトレーニング装置の部分として示されており、この別個の記憶装置は選択的な実施例では装置105の部分であってもよい。属性分類器120の最新のバージョンによって不十分に識別されるかまたは識別されている、対象物形態のデータ例は、属性分類器120の新たなトレーニングのために使用するために、オンライン接続および/または工場毎に中央でファイルされてよい。   As already described in FIG. 1, the device 105 further allows an optional correction of the attribute classifier 120. In this case, in addition to the adaptation to the provided object form, an evaluation of the attribute classifier 120 relating to the identification time and robustness of the respective object form may be performed. Each object 110, which has been slowly or uncertainly identified by the attribute classifier 120 and has been previously classified by a selective identification method, such as temporal verification or eigenmotion identification as detailed in FIG. For 145, the corresponding image data of the camera image 115 is filed in a separate storage device. This separate storage device is shown in FIG. 1 as a training device or part of a training device, which may be part of the device 105 in alternative embodiments. Example object form data that has been poorly identified or identified by the latest version of the attribute classifier 120 is available for online connection and / or use for new training of the attribute classifier 120. Or it may be filed centrally for each factory.

図3は、1実施例による車両のための対象物を分類するための方法300のフローチャートを示す。この場合、これは、前述の図面に記載した装置のうちの1つによって実行可能な方法300であってよい。   FIG. 3 shows a flowchart of a method 300 for classifying objects for a vehicle according to one embodiment. In this case, this may be a method 300 that can be performed by one of the devices described in the preceding figures.

この方法300は、分類するステップ305、抽出するステップ310および作成するステップ315を含有している。分類するステップ305で、対象物は属性分類器を使用してカメラ画像から分類される。抽出するステップ310で、対象物に割り当てられた少なくとも1つの固有の対象物特徴がカメラ画像から抽出される。作成するステップ315で、固有の対象物特徴を使用して固有分類器が作成される。   The method 300 includes a classification step 305, an extraction step 310, and a creation step 315. In a classifying step 305, the object is classified from the camera image using an attribute classifier. In an extracting step 310, at least one unique object feature assigned to the object is extracted from the camera image. In a creating step 315, a unique classifier is created using the unique object features.

方法300の以下の実施例はオプション的である。   The following embodiments of method 300 are optional.

分類するステップ305で、選択的な実施例に従って追加的にまたは選択的に、別の対象物が、別のカメラ画像から属性分類器および固有分類器を使用して分類され、この場合、抽出するステップ310で、別の対象物に割り当てられた少なくとも1つの別の固有の対象物特徴が別のカメラ画像から抽出され、作成するステップ315で、固有分類器が別の固有の対象物特徴を使用して適合される。   In step 305 of classifying, additionally or selectively according to alternative embodiments, another object is classified from another camera image using an attribute classifier and a unique classifier, in this case extracting. In step 310, at least one other unique object feature assigned to another object is extracted and created from another camera image, and in step 315, the unique classifier uses another unique object feature. To be adapted.

抽出するステップ310で、この実施例に従ってカメラ画像から、属性的に分類された対象物の少なくとも1つの色および/または構造および/または形状を表す対象物特徴が抽出される。   In an extracting step 310, object features representing at least one color and / or structure and / or shape of the attribute-classified object are extracted from the camera image according to this embodiment.

作成するステップ315で、固有分類器が環状記憶装置にメモリされる。   In step 315 of creating, the unique classifier is stored in the annular storage.

さらに、この実施例によれば方法300がオプション的に、算出するステップ320およびメモリするステップ325を有している。   Further, according to this embodiment, the method 300 optionally includes a step 320 for calculating and a step 325 for storing.

算出するステップ320で、カメラ画像は周辺検出装置を使用して算出される。   In the calculating step 320, the camera image is calculated using the periphery detection device.

メモリするステップ325で、分類するステップ305において対象物の分類に関する分類精度が閾値を下回ると、カメラ画像がメモリされる。この実施例によれば、メモリするステップ325で、カメラ画像が対象物識別装置の外部に配置されたトレーニング装置に送信される。   In the memory step 325, when the classification accuracy related to the classification of the object falls below the threshold value in the classification step 305, the camera image is stored. According to this embodiment, in step 325 of storing, the camera image is transmitted to a training device arranged outside the object identification device.

ここに紹介された方法ステップは繰り返されてよく、また前記連続とは別の連続で実施されてよい。   The method steps introduced herein may be repeated and may be performed in a sequence different from the sequence.

図4は、1実施例による対象物を分類するための方法300のフローチャートを示す。これは、追加的なステップを有する図3に記載された方法300であってよい。   FIG. 4 shows a flowchart of a method 300 for classifying objects according to one embodiment. This may be the method 300 described in FIG. 3 with additional steps.

この方法300は、この実施例によれば広範囲にわたる対象物検出を可能にし、このために、検出するブロック400および立証するブロック405を有している。検出するブロック400はいわゆる外観に基づく方法410を有しており、この方法410は、生成するステップ415、組み合わせるステップ420および、図3に既述した分類するステップ305を有している。検出するブロック400は、選択的な実施例によれば追加的に、仮説発生のためのいわゆる不一致に基づく方法425および/またはいわゆる運動に基づく方法430を有している。   The method 300, according to this embodiment, allows a wide range of object detection and for this purpose has a block 400 to detect and a block 405 to verify. The detecting block 400 has a so-called appearance-based method 410 which comprises a generating step 415, a combining step 420 and a classification step 305 as already described in FIG. The detecting block 400 additionally comprises a so-called discrepancy-based method 425 and / or a so-called motion-based method 430 for hypothesis generation according to alternative embodiments.

立証するブロック405は、妥当化するステップ435および時間積分するステップ440を有している。   The verifying block 405 has a validation step 435 and a time integration step 440.

作成するステップ315は、検出するステップ400と立証するブロック405との間に配置されている。立証するブロック405と作成するステップ315との間で、方法300はさらに、別の立証するステップ445を有している。   The creating step 315 is located between the detecting step 400 and the verifying block 405. Between the verifying block 405 and the creating step 315, the method 300 further includes another verifying step 445.

検出するブロック400で、識別可能な対象物を記述する特徴の安定したグループが検索される。外観に基づく方法410で、ここでは車両である対象物型式の特性がトレーニングデータセットに基づいて検出される。この実施例によれば、外観に基づく方法410で車両の特徴がガボールフィルタ“Gabor−Filter”によってフィルタリングされ、属性分類器がサポートベクトルマシン“Support Vector Machine”によって分類される。この場合、生成するステップ415で、特性的な特徴、ここではハール特徴“Haar−Merkmale”がトレーニング画像から生成される。組み合わせるステップ420において、特徴の収集がデータバンク内で対象物型式の全記述に組み合わせられる。特徴ベクトルを明確に1つの対象物型式に割り当てることができるようにするために、分類するステップ305で、この実施例によればアダブーストアルゴリズム“AdaBoost−Algorithmus”である属性分類器が時間をかけてトレーニングされ、および/または特徴の確率分布がモデル形成される。   At block 400 to detect, a stable group of features describing the identifiable object is searched. In an appearance-based method 410, a characteristic of an object type, here a vehicle, is detected based on a training data set. According to this embodiment, vehicle features are filtered by a Gabor filter “Gabor-Filter” in an appearance-based method 410 and an attribute classifier is classified by a support vector machine “Support Vector Machine”. In this case, in a generating step 415, a characteristic feature, here a Haar feature “Haar-Merkmale”, is generated from the training image. In the combining step 420, the feature collection is combined with the full description of the object type in the data bank. In order to allow a feature vector to be clearly assigned to one object type, in step 305 the attribute classifier, which is the AdaBoost algorithm “AdaBoost-Algorithmus” according to this embodiment, takes time. Trained and / or a probability distribution of features is modeled.

立証するブロック405で、検出するブロック400から得られた、間違ったおよび/または不正確な対象物仮説が妥当化され、時間積分によって改善される。このために、妥当化するステップ435で、パラメータ化されたモデルおよび/またはテンプレートが画像データと比較され、この実施例によれば車両のための3D格子型モデルが作成され、この3D格子型モデルを画像平面に投影することによって輪郭パターンが生ぜしめられる。このパターンは、場面のセグメント状に分割されたグレースケール画像で検索される。追加的にまたは選択的に少なくとも1つのナンバープレート、光および/または窓ガラスが使用される。時間積分するステップ440で、時間積分が実施される。この場合、生きていない物理的対象物と主体とが識別される。生きていない物理的対象物は、この場合、物理法則に基づく外挿によって叙述を用いて識別され、主体は、意図、行動および/または代替行動の確認によって識別される。従って、例えば歩行者、自転車に乗っている人、乗用車、トラック等が識別される。さらに、時間積分するステップ440で、対象物仮説の運動モデルが適合され、行動モデルの情報集群が実施され、かつ/または周辺モデルとの調整が実施され、この場合、例えば推測された走行車線延在形状と車両運動との妥当化が実施され、例えば対象物の垂線の足と道路ジオメトリとの妥当化が実施される。   At verify block 405, the wrong and / or incorrect object hypothesis obtained from detect block 400 is validated and improved by time integration. For this purpose, in a validation step 435, the parameterized model and / or template is compared with the image data, and according to this embodiment a 3D grid model for the vehicle is created, which 3D grid model. Is projected onto the image plane to produce a contour pattern. This pattern is searched for in a grayscale image divided into scene segments. In addition or alternatively, at least one license plate, light and / or window glass is used. At time integration step 440, time integration is performed. In this case, physical objects and subjects that are not alive are identified. Non-living physical objects are in this case identified using a narrative by extrapolation based on physical laws, and the subject is identified by confirmation of intention, behavior and / or alternative behavior. Thus, for example, pedestrians, bicycle riders, passenger cars, trucks, etc. are identified. Further, in a time integration step 440, the motion model of the object hypothesis is adapted, an information collection of behavior models is implemented, and / or adjustments with surrounding models are performed, for example, inferred travel lane lengthening. The validation of the existing shape and the vehicle motion is performed, for example, the validation of the vertical foot of the object and the road geometry.

作成するステップ315と別の立証するステップ445および/または立証するブロック405との間に、トレーニングするステップ450が配置されており、このトレーニングするステップ450で、トレーニングが実施される。さらに、作成するステップ315と立証するブロック405との間で妥当性問い合わせ455が実施される。   Between the creating step 315 and another verifying step 445 and / or verifying block 405, a training step 450 is arranged, in which the training is performed. In addition, a validity query 455 is performed between the creating step 315 and the verifying block 405.

1実施例が、第1の特徴と第2の特徴との間の「および/または」接続を有している場合、これは、この実施例が、1実施形態に従って第1の特徴も第2の特徴も有しており、また別の実施形態に従って第1の特徴だけまたは第2の特徴だけを有している、と読み取られるべきである。   If an example has an “and / or” connection between a first feature and a second feature, this means that this example is a second feature according to one embodiment. And should be read as having only the first feature or only the second feature according to another embodiment.

100 車両
105 装置
110 対象物
115 カメラ画像
120 属性分類器
125 周辺検出装置
130 固有分類器
132 トレーニング装置
135 対象物
140 ドライブアシストシステム
145 別の対象物
150 別のカメラ画像
200 車両モデル
205 対象物例
210 対象物特徴
215 メモリ書き込み
220 アプリケーション
300 方法
305 分類するステップ
310 抽出するステップ
315 作成するステップ
320 算出するステップ
325 メモリするステップ
400 検出するブロック
405 立証するブロック
410 外観に基づく方法
415 生成するステップ
420 組み合わせるステップ
425 不一致に基づく方法
430 運動に基づく方法
435 妥当化するステップ
440 時間積分するステップ
445 別の立証するステップ
450 トレーニングするステップ
455 妥当性問い合わせ
DESCRIPTION OF SYMBOLS 100 Vehicle 105 Device 110 Object 115 Camera image 120 Attribute classifier 125 Perimeter detection device 130 Eigen classifier 132 Training device 135 Object 140 Drive assist system 145 Another object 150 Another camera image 200 Vehicle model 205 Object example 210 Object Feature 215 Write Memory 220 Application 300 Method 305 Classify Step 310 Extract Step 315 Create Step 320 Calculate Step 325 Memory Step 400 Detect Block 405 Verify Block 410 Appearance-Based Method 415 Generate Step 420 Combine Step 425 Disagreement based method 430 Motion based method 435 Validating step 440 Time integrating step 445 Another verification step 450 Training step 455 Validation

Claims (10)

車両(100)のための、対象物(110)を分類するための方法(300)であって、この方法(300)は少なくとも、
属性分類器(120)を使用してカメラ画像(115)から対象物(110)を分類するステップ(305)と、
前記カメラ画像(115)から、前記対象物(110)に割り当てられた少なくとも1つの固有の対象物特徴(210)を抽出するステップ(310)と、
前記固有の対象物特徴(210)を使用して固有分類器(130)を作成するステップ(315)と、
を有している、車両(100)のための、対象物(110)を分類するための方法(300)。
A method (300) for classifying an object (110) for a vehicle (100), the method (300) comprising at least:
Classifying an object (110) from a camera image (115) using an attribute classifier (120) (305);
Extracting from the camera image (115) at least one unique object feature (210) assigned to the object (110);
Creating (315) a unique classifier (130) using the unique object features (210);
A method (300) for classifying an object (110) for a vehicle (100) having:
前記分類するステップ(305)で、前記属性分類器(120)および前記固有分類器(130)を使用して別のカメラ画像(150)から別の対象物(145)を分類し、前記抽出するステップ(310)で、前記別の対象物(145)に割り当てられた少なくとも1つの別の固有の対象物特徴(210)を前記別のカメラ画像(150)から抽出し、前記作成するステップ(315)で、前記固有分類器(130)を前記別の固有の対象物特徴(210)を使用して適合させる、請求項1記載の方法(300)。   In the classification step (305), another object (145) is classified and extracted from another camera image (150) using the attribute classifier (120) and the unique classifier (130). In step (310), at least one other unique object feature (210) assigned to said another object (145) is extracted from said another camera image (150) and created (315) The method (300) of claim 1, wherein the unique classifier (130) is adapted using the other unique object feature (210). 前記抽出するステップ(310)で、前記カメラ画像(115)から、属性的に分類された前記対象物(110)の少なくとも1つの色および/または構造および/または形状を表す、1つの対象物特徴(210)を抽出する、請求項1または2記載の方法(300)。   One object feature representing at least one color and / or structure and / or shape of the object (110) categorized from the camera image (115) in the extracting step (310) The method (300) of claim 1 or 2, wherein (210) is extracted. 前記作成するステップ(315)で、前記固有分類器(130)を環状記憶装置にメモリする、請求項1から3のいずれか1項記載の方法(300)。   The method (300) according to any one of the preceding claims, wherein in the creating step (315), the unique classifier (130) is stored in a circular storage device. 周辺検出装置(125)を使用して前記カメラ画像(115)を算出するステップ(320)を有している、請求項1から4のいずれか1項記載の方法(300)。   The method (300) according to any of the preceding claims, comprising the step (320) of calculating the camera image (115) using a peripheral detection device (125). 前記分類するステップ(305)で、前記対象物(110)の分類に関する分類精度が閾値を下回ると、前記カメラ画像(115)をメモリするステップ(325)を有している、請求項1から5のいずれか1項記載の方法(300)。   6. The method of claim 1, further comprising a step (325) of storing the camera image (115) when the classification accuracy regarding the classification of the object (110) falls below a threshold value in the classification step (305). The method (300) of any one of the above. 前記メモリするステップ(325)で、対象物識別装置の外部に配置されたトレーニング装置(132)に前記カメラ画像(115)を送信する、請求項6記載の方法(300)。   The method (300) of claim 6, wherein the memory step (325) transmits the camera image (115) to a training device (132) located outside the object identification device. 請求項1から7のいずれか1項記載の前記方法(300)のステップを、相応のユニットで実行および/または制御するために設計された装置(105)。   An apparatus (105) designed for performing and / or controlling the steps of the method (300) according to any one of claims 1 to 7 in corresponding units. 請求項1から7までのいずれか1項記載の方法(300)を実行するために設計されたコンピュータプログラム。   Computer program designed to carry out the method (300) according to any one of claims 1 to 7. 請求項9記載のコンピュータプログラムがメモリされている、機械読み取り可能な記憶媒体。   A machine-readable storage medium in which the computer program according to claim 9 is stored.
JP2018094211A 2017-06-06 2018-05-16 Method and device for classifying objects for vehicles Active JP7185419B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017209496.6 2017-06-06
DE102017209496.6A DE102017209496B4 (en) 2017-06-06 2017-06-06 Method and device for classifying an object for a vehicle

Publications (2)

Publication Number Publication Date
JP2018206373A true JP2018206373A (en) 2018-12-27
JP7185419B2 JP7185419B2 (en) 2022-12-07

Family

ID=64279014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018094211A Active JP7185419B2 (en) 2017-06-06 2018-05-16 Method and device for classifying objects for vehicles

Country Status (4)

Country Link
US (1) US10885382B2 (en)
JP (1) JP7185419B2 (en)
CN (1) CN109002830B (en)
DE (1) DE102017209496B4 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022519594A (en) * 2019-02-04 2022-03-24 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Devices and methods for improving robustness against hostile samples

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11263549B2 (en) * 2018-03-22 2022-03-01 Here Global B.V. Method, apparatus, and system for in-vehicle data selection for feature detection model creation and maintenance
CN113264037A (en) * 2021-06-18 2021-08-17 安徽江淮汽车集团股份有限公司 Obstacle recognition method applied to automatic parking
AT525406A1 (en) * 2021-08-31 2023-03-15 Tom Robotics Gmbh CLASSIFICATION METHOD FOR CLASSIFYING OBJECTS
DE102022131850A1 (en) 2022-12-01 2024-06-06 Valeo Schalter Und Sensoren Gmbh Method for checking an object classification for a motor vehicle carried out by means of an artificial neural network

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005285014A (en) * 2004-03-30 2005-10-13 Fujitsu Ltd Vehicle identification program, method, and apparatus
JP2006515699A (en) * 2003-07-25 2006-06-01 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Device for classifying at least one object around a vehicle
EP2575077A2 (en) * 2011-09-29 2013-04-03 Ricoh Company, Ltd. Road sign detecting method and road sign detecting apparatus
US20140267793A1 (en) * 2013-03-15 2014-09-18 Delphi Display Systems, Inc. System and method for vehicle recognition in a dynamic setting
JP2016072964A (en) * 2014-09-30 2016-05-09 キヤノン株式会社 System and method for subject re-identification
US20160366364A1 (en) * 2014-03-19 2016-12-15 Conti Temic Microelectronic Gmbh Method for Saving Image Data of a Camera in an Accident Data Recorder of a Vehicle

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
US7565139B2 (en) * 2004-02-20 2009-07-21 Google Inc. Image-based search engine for mobile phones with camera
CN101964059B (en) * 2009-07-24 2013-09-11 富士通株式会社 Method for constructing cascade classifier, method and device for recognizing object
EP2323069A2 (en) * 2009-11-17 2011-05-18 Samsung Electronics Co., Ltd. Method, device and system for content based image categorization field
US9183447B1 (en) * 2011-06-09 2015-11-10 Mobileye Vision Technologies Ltd. Object detection using candidate object alignment
US9349055B1 (en) * 2013-06-26 2016-05-24 Google Inc. Real-time image-based vehicle detection based on a multi-stage classification
DE102013020435A1 (en) * 2013-12-06 2014-06-18 Daimler Ag Method for recognizing objects e.g. lorry, in vehicle environment, involves performing rough categorization of objects based on volume and parameters, and performing fine categorization of objects based on to be fine-categorized object
US9449258B1 (en) * 2015-07-02 2016-09-20 Agt International Gmbh Multi-camera vehicle identification system
CN105787437B (en) * 2016-02-03 2017-04-05 东南大学 A kind of vehicle brand kind identification method based on cascade integrated classifier
CN106446949B (en) * 2016-09-26 2019-05-21 成都通甲优博科技有限责任公司 A kind of vehicle model recognition methods and device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006515699A (en) * 2003-07-25 2006-06-01 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Device for classifying at least one object around a vehicle
JP2005285014A (en) * 2004-03-30 2005-10-13 Fujitsu Ltd Vehicle identification program, method, and apparatus
EP2575077A2 (en) * 2011-09-29 2013-04-03 Ricoh Company, Ltd. Road sign detecting method and road sign detecting apparatus
US20140267793A1 (en) * 2013-03-15 2014-09-18 Delphi Display Systems, Inc. System and method for vehicle recognition in a dynamic setting
US20160366364A1 (en) * 2014-03-19 2016-12-15 Conti Temic Microelectronic Gmbh Method for Saving Image Data of a Camera in an Accident Data Recorder of a Vehicle
JP2016072964A (en) * 2014-09-30 2016-05-09 キヤノン株式会社 System and method for subject re-identification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鷲見 和彦: "イメージセンサとモニタリング", 電気学会研究会資料, JPN6019043446, 24 November 2000 (2000-11-24), JP, pages 39 - 44, ISSN: 0004914383 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022519594A (en) * 2019-02-04 2022-03-24 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Devices and methods for improving robustness against hostile samples
JP7264412B2 (en) 2019-02-04 2023-04-25 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Device and method for improving robustness against adversarial samples

Also Published As

Publication number Publication date
DE102017209496A1 (en) 2018-12-06
US20180349744A1 (en) 2018-12-06
CN109002830B (en) 2024-04-30
DE102017209496B4 (en) 2020-10-01
JP7185419B2 (en) 2022-12-07
US10885382B2 (en) 2021-01-05
CN109002830A (en) 2018-12-14

Similar Documents

Publication Publication Date Title
JP2018206373A (en) Method and device for classifying targets for vehicle
US11604964B2 (en) Recognizer, object recognition method, learning apparatus, and learning method for domain adaptation
US10373024B2 (en) Image processing device, object detection device, image processing method
Prioletti et al. Part-based pedestrian detection and feature-based tracking for driver assistance: real-time, robust algorithms, and evaluation
JP6062791B2 (en) License plate character segmentation using likelihood maximization
US9418303B2 (en) Method for traffic sign recognition
CN110785719A (en) Method and system for instant object tagging via cross temporal verification in autonomous vehicles
US20170270368A1 (en) Method for detecting a soiling of an optical component of a driving environment sensor used to capture a field surrounding a vehicle; method for automatically training a classifier; and a detection system
CN110869936A (en) Method and system for distributed learning and adaptation in autonomous vehicles
KR101935010B1 (en) Apparatus and method for recognizing license plate of car based on image
CN110753953A (en) Method and system for object-centric stereo vision in autonomous vehicles via cross-modality verification
CN110765807A (en) Driving behavior analysis method, driving behavior processing method, driving behavior analysis device, driving behavior processing device and storage medium
CN112883991A (en) Object classification method, object classification circuit and motor vehicle
KR102545109B1 (en) Apparatus and method for removing false target in vehicle and vehicle including the same
CN111417960A (en) Information processing apparatus, information processing method, and program
CN114820644A (en) Method and apparatus for classifying pixels of an image
US20220266854A1 (en) Method for Operating a Driver Assistance System of a Vehicle and Driver Assistance System for a Vehicle
WO2023029468A1 (en) Vehicle driving prompt
JP7081404B2 (en) License plate identification device, license plate identification method and program
TWI709917B (en) Assistant driving device, method, and storage medium
KR20210079180A (en) Method and apparatus for recognizinf vehicle license plate
KR102594384B1 (en) Image recognition learning apparatus of autonomous vehicle using error data insertion and image recognition learning method using the same
US11912297B2 (en) Driving assistance device and driving assist method
WO2023170912A1 (en) Information processing device, generation method, information processing method, and computer-readable medium
CN112513879B (en) Vehicle attitude identification method and related equipment

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221125

R150 Certificate of patent or registration of utility model

Ref document number: 7185419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150