JP2018206373A - Method and device for classifying targets for vehicle - Google Patents
Method and device for classifying targets for vehicle Download PDFInfo
- Publication number
- JP2018206373A JP2018206373A JP2018094211A JP2018094211A JP2018206373A JP 2018206373 A JP2018206373 A JP 2018206373A JP 2018094211 A JP2018094211 A JP 2018094211A JP 2018094211 A JP2018094211 A JP 2018094211A JP 2018206373 A JP2018206373 A JP 2018206373A
- Authority
- JP
- Japan
- Prior art keywords
- unique
- classifier
- camera image
- vehicle
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 claims description 20
- 238000003860 storage Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 abstract description 4
- 239000000284 extract Substances 0.000 abstract description 3
- 238000010200 validation analysis Methods 0.000 description 11
- 230000010354 integration Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000035484 reaction time Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/87—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本提案は、独立請求項の前提部に記載した方法または装置に関する。この提案の対象はコンピュータプログラムでもある。 The proposal relates to a method or device as described in the preamble of the independent claims. The subject of this proposal is also a computer program.
カメラシステムを用いた対象物の識別は、多くの分野でますます重要性を増している。特に自動車環境において、対象物例えば歩行者を識別するための機能を有するカメラシステムが、自動走行までの多様なアシスト機能のためにしばしばどうしても必要とされる。この場合、相応の対象物識別装置が、識別された対象物をトレーニングされた属性分類器を用いて対象物型式に割り当てる。 Object identification using camera systems is becoming increasingly important in many fields. Especially in an automobile environment, a camera system having a function for identifying an object such as a pedestrian is often required for various assist functions up to automatic driving. In this case, a corresponding object identification device assigns the identified object to the object type using the trained attribute classifier.
以上のような背景から、ここに紹介された提案では、車両のための対象物を分類するための方法、さらにこの方法を使用する装置、並びに最後に主請求項に記載した相応のコンピュータプログラムが紹介される。従属請求項に記載した手段によって、独立請求項に記載した装置の好適な実施態様および改良が可能である。 Against this background, the proposal introduced here includes a method for classifying objects for vehicles, a device using this method, and finally a corresponding computer program as described in the main claim. Introduced. By means of the dependent claims, preferred embodiments and improvements of the device described in the independent claims are possible.
紹介された提案によって得ることができる利点は、公知の属性分類器に追加して、ここに紹介された固有分類器を作成することによって、対象物の識別の反応時間並びに対象物の対象物追跡時のロバスト性が改善される、という点にある。 The advantages that can be obtained with the proposed proposals are the addition of known attribute classifiers, and the creation of the unique classifiers introduced here, so that the object identification reaction time as well as the object tracking of the objects. The robustness of time is improved.
車両のための対象物を分類するための方法が提案される。この方法は、少なくとも1つの分類するステップと抽出するステップと作成するステップとを有している。分類するステップで、属性分類器を使用してカメラ画像から1つの対象物が分類される。抽出するステップで、対象物に割り当てられた少なくとも1つの固有の対象物特徴がカメラ画像から抽出される。作成するステップで、固有の対象物特徴を使用して固有分類器が作成される。 A method for classifying objects for vehicles is proposed. The method includes at least one classifying step, extracting step and creating step. In the classifying step, one object is classified from the camera image using an attribute classifier. In the extracting step, at least one unique object feature assigned to the object is extracted from the camera image. In the creating step, a unique classifier is created using the unique object features.
この方法は、例えばソフトウエアまたはハードウエアでまたはソフトウエアとハードウエアとから成る混合形式で、例えばコントロールユニット内に実装されてよい。例えばこの方法は、車両カメラのための対象物識別装置内に実装されてよい。 This method may be implemented, for example, in the control unit, for example in software or hardware or in a mixed format consisting of software and hardware. For example, the method may be implemented in an object identification device for a vehicle camera.
ここに紹介された方法によって、カメラ画像で検出された対象物は、もはや属性分類器だけによってではなく、追加的に新たに作成された固有分類器によっても分類され得る。これによって、対象物のより迅速な分類が可能であり、また今日まで知られていないかまたは識別が困難である対象物の分類も可能である。 With the method introduced here, the objects detected in the camera image can no longer be classified not only by the attribute classifier but also by the newly created unique classifier. This allows for a faster classification of objects and also classification of objects that have not been known to date or are difficult to identify.
固有識別機を使用するためにおよび/または更新するために、分類するステップで、別の対象物が別のカメラ画像から属性分類器および固有分類器を使用して分類され、抽出するステップで、別の対象物に割り当てられた少なくとも1つの別の固有の対象物特徴が別のカメラ画像から抽出され、作成するステップで、固有分類器が別の固有の対象物特徴を使用して適合され得る。 In the classifying step for using and / or updating the unique classifier, another object is classified and extracted from another camera image using an attribute classifier and a unique classifier, At least one other unique object feature assigned to another object may be extracted from another camera image and created in which the unique classifier may be adapted using the other unique object feature .
抽出するステップで、属性的に分類された対象物の少なくとも1つの色および/または構造および/または形を表す例えば1つの対象物特徴がカメラ画像から抽出される。このような形式の対象物特徴は、属性分類器によって考慮されない。何故ならば、このような形式の対象物特徴は、一般的に1つの対象物型式のすべての対象物例に当てはまらないが、具体的な使用例では例えば識別された対象物の信頼できる対象物追跡に用いることができるからである。 In the extracting step, for example, one object feature representing at least one color and / or structure and / or shape of the attribute-classified object is extracted from the camera image. This type of object feature is not considered by the attribute classifier. This is because an object feature of this type generally does not apply to all object examples of one object type, but in a specific use case, for example, a reliable object of an identified object. This is because it can be used for tracking.
作成するステップで、固有分類器が環状記憶装置にメモリされてよい。 In the creating step, the unique classifier may be stored in a circular storage device.
カメラ画像を提供するために、この方法は算出するステップを有しており、この算出するステップで、カメラ画像は周辺検出装置を使用して算出される。周辺検出装置は、カメラ例えば車両カメラおよび/またはレーダ装置であってよいか、または少なくともこれらを有していてよい。 In order to provide a camera image, the method includes a calculating step, in which the camera image is calculated using a peripheral detection device. The surrounding detection device may be a camera, for example a vehicle camera and / or a radar device, or may at least have these.
属性分類器を適合または更新もできるようにするために、この方法は、好適な実施例によれば、メモリするステップを有していてよく、このメモリするステップで、分類するステップで対象物の分類に関する分類精度が閾値を下回ると、カメラ画像がメモリされる。メモリするステップは、抽出するステップの前に実施されてよく、この場合、例えば不正確であると評価された、属性的に検出された対象物の少なくとも1つの対象物特徴がカメラ画像上に配置されると、分類精度は閾値を下回る。 In order to be able to adapt or update the attribute classifier, the method may, according to a preferred embodiment, comprise a step of memorizing, in which the step of classifying the object in the classifying step. When the classification accuracy for classification falls below the threshold, the camera image is stored. The step of memorizing may be performed before the step of extracting, in which case at least one object feature of an attribute-detected object, eg evaluated as inaccurate, is placed on the camera image. If done, the classification accuracy is below the threshold.
対象物識別装置の属性分類器の新たなトレーニングを可能にするために、メモリするステップで、カメラ画像は対象物識別装置の外部に配置されたトレーニング装置に送信されてよい。 In order to allow new training of the attribute classifier of the object identification device, the camera image may be transmitted to a training device located outside the object identification device in the memory step.
ここに紹介された提案は、さらに、ここに紹介された方法の変化例のステップを相応の装置で実施、制御若しくは実行するために構成された装置を提供する。この提案の、このような装置の形の変化実施例よっても、提案に基づく課題を、迅速かつ効果的に解決することができる。この装置は、対象物識別装置の一部であってよい。 The proposals introduced here further provide a device configured to carry out, control or execute the steps of the method variant introduced here with corresponding devices. According to this proposed example of a change in the shape of the apparatus, the problem based on the proposal can be solved quickly and effectively. This device may be part of an object identification device.
このために、この装置は、信号またはデータを処理するための少なくとも1つの演算装置と、信号またはデータをメモリするための少なくとも1つの記憶装置と、センサのセンサ信号を読み取るためのまたはデータ若しくは制御信号をアクチュエータにアウトプットするためのセンサまたはアクチュエータへの少なくとも1つのインターフェースおよび/または通信プロトコル内に埋め込まれたデータを読み取りまたはアウトプットするための少なくとも1つの通信インターフェースとを有している。演算装置は、例えば信号プロセッサ、マイクロコントローラ等であってよく、この場合、記憶装置は、フラッシュメモリー、EPROMまたは磁気記憶装置であってよい。通信インターフェースは、データをワイヤレスでおよび/または有線誘導で読み取るかまたはアウトプットするために、構成されていてよく、この場合、有線誘導されたデータを読み取るかまたはアウトプットすることができる通信インターフェースは、データを例えば相応のデータ伝送線路から電気式または光学式に読み取るかまたは相応のデータ伝送線路にアウトプットすることができる。 For this purpose, the device comprises at least one computing device for processing signals or data, at least one storage device for storing signals or data, and for reading sensor signals of sensors or data or control At least one interface to the sensor or actuator to output signals to the actuator and / or at least one communication interface to read or output data embedded within the communication protocol. The arithmetic device may be, for example, a signal processor, a microcontroller, etc. In this case, the storage device may be a flash memory, an EPROM or a magnetic storage device. The communication interface may be configured to read or output data wirelessly and / or with wired guidance, in which case the communication interface capable of reading or outputting wired-directed data is The data can be read, for example, electrically or optically from a corresponding data transmission line or output to a corresponding data transmission line.
装置とは、ここでは、センサ信号を処理しそれに基づいて制御信号および/またはデータ信号をアウトプットする電気機器であると解釈されてよい。この装置は、ハードウエア式および/またはソフトウエア式に構成され得るインターフェースを有していてよい。ハードウエア式の構成において、インターフェースは、例えば装置の様々な機能を含有するいわゆるシステムASICの一部であってよい。しかしながら、インターフェースは専用の集積回路であるか、または少なくとも部分的に離散素子より成っていてもよい。ソフトウエア式の構成において、インターフェースは、例えばマイクロコントローラ上で別のソフトウエアモジュールの隣に設けられたソフトウエアモジュールであってよい。 A device may here be interpreted as an electrical device that processes sensor signals and outputs control signals and / or data signals based thereon. The device may have an interface that can be configured in hardware and / or software. In a hardware-based configuration, the interface may be part of a so-called system ASIC that contains the various functions of the device, for example. However, the interface may be a dedicated integrated circuit or at least partially made up of discrete elements. In a software-based configuration, the interface may be a software module provided next to another software module on the microcontroller, for example.
好適な実施態様によれば、この装置によって対象物の分類の制御が行われる。このために、この装置は、例えば分類信号、抽出信号および作成信号等のセンサ信号へアクセスすることができる。制御は、例えば属性分類器を使用してカメラ画像で識別された対象物の属性的な分類を実施するために構成された属性分類装置、対象物に割り当てられた少なくとも1つの固有の対象物特徴をカメラ画像から抽出するために構成された抽出装置、少なくとも、固有の対象物特徴を使用して固有の分類器を作成するために構成された固有分類装置等のアクチュエータを介して行われる。 According to a preferred embodiment, the device controls the classification of the object. To this end, the device can access sensor signals such as classification signals, extraction signals and creation signals. The control includes, for example, an attribute classifier configured to perform an attribute classification of the object identified in the camera image using an attribute classifier, at least one unique object feature assigned to the object Through an actuator, such as an extractor configured to extract the image from the camera image, at least a unique classifier configured to create a unique classifier using unique object features.
機械読み取り可能な担体または記憶媒体、例えば半導体記憶装置、ハードディスクまたは光学式記憶装置にメモリ可能であって、特にプログラム製品またはプログラムがコンピュータまたは装置で実行されると、前記実施例のいずれか1つによる方法のステップを実施、実行および/または制御するために使用されるプログラムコードを有するコンピュータプログラムまたはコンピュータプログラム製品も有利である。 Any one of the preceding embodiments can be stored on a machine-readable carrier or storage medium, such as a semiconductor storage device, a hard disk, or an optical storage device, particularly when the program product or program is executed on a computer or device. Also advantageous is a computer program or computer program product having program code used to implement, execute and / or control the steps of the method.
ここに紹介された提案の複数の実施例が図面に示されていて、以下に詳しく説明されている。 Several embodiments of the proposal introduced here are shown in the drawings and are described in detail below.
ここに提案された好適な実施例の以下の説明中、様々な図面に示された、類似の作用を有する構成要素のために、同じまたは類似の符号が使用されており、この場合、これらの構成要素の繰り返しの説明は省かれる。 In the following description of the preferred embodiment proposed here, the same or similar reference numerals are used for components having similar action, which are shown in the various drawings, in which case these A repeated description of the components is omitted.
図1は、対象物110を分類するための、1実施例による装置105を備えた車両100の概略図を示す。
FIG. 1 shows a schematic diagram of a
この装置105は、この実施例ではオプション的に別の車両として処理された対象物110を分類するために構成されている。このために、装置105は、カメラ画像115から得られた対象物110を属性分類器120を用いて分類するために構成されている。カメラ画像115は、この実施例によれば車両100の周辺検出装置125によって読み取られ、提供される。さらに、装置105は、対象物110に割り当てられた、少なくとも1つの固有の対象物特徴をカメラ画像115から抽出するために構成されている。さらにこの装置105は、固有の対象物特徴を用いて固有分類器130を作成するために、そして対象物110を分類するために構成されている。
The
以下に記載された、装置105の特徴はオプション的である。
The features of the
1実施例によれば、装置105は、カメラ画像115から、属性的に分類された対象物の少なくとも1つの色および/または構造および/または形を表す対象物特徴を抽出するために構成されている。さらに、装置105は、この実施例に従って作成された固有分類器130を環状記憶装置にメモリする。
According to one embodiment, the
さらに、装置105は、属性分類器120による分類時に対象物110の分類に関連した分類精度が閾値を下回ると、カメラ画像115をメモリするように構成されている。このために装置105は、カメラ画像115を、装置105の外部および/または装置105を有する対象物識別装置の外部に配置されたトレーニング装置132に送信するように構成されている。
Furthermore, the
さらに、装置105は、装置105によって分類された対象物135を、車両100のドライブアシストシステム140のために提供するかまたはドライブアシストシステム140に送信するように構成されている。
Further, the
この実施例によれば、装置105は、属性分類器120および固有分類器130を使用して別のカメラ画像150から別の対象物145を分類し、この別の対象物145に割り当てられた別の固有の対象物特徴を別のカメラ画像150から抽出し、別の固有の対象物特徴を使用して固有分類器130を適合させるために構成されている。
According to this embodiment, the
図2は、車両のための対象物を分類するための、1実施例による装置105の概略図を示す。この場合、これは図1に記載された装置105であってよい。図2には、属性分類器120および固有分類器130の使用例が示されている。
FIG. 2 shows a schematic diagram of an
属性分類器120は、多数の対象物例205を用いて予めオフライントレーニングで学習されている少なくとも1つの学習された車両モデル200を表すかまたは含有している。道路交通で使用される際にカメラ画像115および/または別のカメラ画像に、典型的でないかまたはオフライントレーニングのトレーニング時間の際にまだ知られていなかった対象物若しくは車両である対象物110,145が表示されると、この対象物110,145は属性分類器120だけによって不正確におよび/またはゆっくりと識別される。ここで紹介された装置105は、対象物110,145の主要な特徴を固有の対象物特徴210の形で抽出し、それによって固有分類器130を算出するか、または固有分類器130を適合させる。固有分類器130は、この実施例によれば、記憶装置にメモリされ、この場合、記憶装置内の各メモリ書き込み215のために追加的なアプリケーション220が実行される。
The
言い換えれば、ここで紹介された装置105は、カメラシステムの対象物検出のためにまたはカメラシステムのために、分類器120,130のオンライン学習を可能にする。このために、装置105は選択的な実施例によれば、少なくとも1つのカメラシステムを有する周辺検出装置125の内側または外側に支持されている。
In other words, the
この場合、この装置105の課題は、例えば対象物110,145を識別するために車両内に組み込まれているカメラシステムで、対象物検出のための、例えば不確実なおよび/または不鮮明な対象物識別のための分類器120,130のオンラインアップデートを、トラッキング、時間の経過に伴う妥当化等による「確実に」実施された対象物分類に従って実施することである。これについては図4も参照されたい。
In this case, the problem with this
公知のシステムとは異なり、ここに紹介された装置105は、好適な形式で、数値の下回った対象物例205も良好に識別することができる。さらに、今日のシステムにおけるトレーニングされた属性分類器120は、すべての状況において世界的に通用する適切な対象物識別を保証するために、所定の対象物型式の識別のために属性的に設計されている。このような属性的な識別のために、一般的にすべての対象物例205に当てはまる相応の特徴が用いられ、つまり、色や明確な構造等の固有の特徴、例えばナンバープレートは、この場合、識別用の特徴として拒絶される。その結果、一方では一般的にやや長時間の対象物識別が行われることになる。何故ならば、分類器検出は低い誤差率を得るために立証を介して妥当化される必要があるからである。他方では、例えば特に少量生産車両若しくは新世代車両等の数値の下回った対象物例205は、特に検出しにくい。不正確な対象物検出、しかしながらトラッキング/妥当化によって時間的に遅れて行われた対象物の分類は、今日のシステムでは評価または適合を生ぜしめるのではなく、この対象物の検出の不十分さが持続的に残存する。しかしながら、ここに紹介された分類器120,130のオンライントレーニングによって、品質レベル若しくは識別率が改善される。
Unlike known systems, the
このために好適には、装置105内に別の分類器、つまり固有分類器130が、既に存在する属性分類器120に並列に実装されている。属性分類器120は、新規の/非典型的な対象物形態の識別および反応時間に関連した前記条件下で、所望の対象物型式の本質的にすべての形態を識別する。この属性分類器120によって検出され、時間的な妥当化(トラッキング)および立証を介して分類された対象物のために、固有の特徴、例えばこの対象物のための色および構造が、ビデオ画像であってよいカメラ画像115から抽出され、別の固有分類器130の作成/適合のために使用され得る。これによって、一方では、例えば雨の時のウインドウワイパによる画像妨害または対象物の部分遮蔽においても安定した対象物追跡が可能である。他方では、例えば別の車両によって完全に遮蔽された後で、またはカーブの後を先頭で走る際に、対象物をより迅速に検出しかつ分類することができる。従って、すべての可能な対象物形態の一般的な識別を妨げるという理由により属性分類器120のために使用できない特徴を、固有分類器130のために使用することができる。
For this purpose, another classifier, i.e. a
しかしながら、属性分類器120にトレーニングのための特徴として例えば色が提供されても、データ例、ここでは対象物例205に青の車両が存在しなければ、青の車両はもはや識別されない。
However, even if the
車両の局所的な近傍で、属性分類器120に並列してこのような固有分類器130を加えることによって、例えば識別の反応時間および対象物追跡のロバスト性に関連した前記利点がもたらされる。
By adding such a
この場合、属性分類器120を介して行われる基本的な対象物検出は、製品発送の時点で対象物識別の品質に課される要求を確実に満たすために、さらに必要である。
In this case, the basic object detection performed via the
オンライントレーニング段階で、固有分類器130の入力が属性分類器120の入力に接続され、固有分類器130の出力が、立証、妥当化および積分の出力に接続される。これについては、図4も参照されたい。固有分類器130のための初期データとして、当該の対象物がビデオで識別されたカメラ画像115,145の画像範囲から、独特な特徴が抽出される。この固有の対象物特徴210は、この対象物形態を、高さ、幅、構造情報並びに色等の形で精確に記述し、もっぱらこの対象物を精確に識別するために設計されている。
In the online training phase, the input of the
この実施例によれば、固有分類器130は、複数の対象物形態を分類するように設計されている。代替的に、この固有分類器130の、走行状況に応じて満たされる複数の事例が、所定の数まで存在してよい。この場合、この分類器130の管理は環状記憶装置を介して実現され、この環状記憶装置では、新たな対象物形態がメモリされるべき場合に、最も古い書き込みが拒否される。
According to this embodiment, the
既に図1に記載されているように、装置105によってさらに、属性分類器120のオプション的な補正が可能である。この場合、提供された対象物形態への適合に追加して、それぞれの対象物形態の識別時間およびロバスト性に関連した属性分類器120の評価が実行され得る。属性分類器120によってゆっくりと若しくは不確実に識別された、例えば図4に詳しく記載された時間的な立証または固有運動識別等の選択的な識別方法によって前もって分類されているそれぞれの対象物110,145のために、カメラ画像115の相応の画像データが別個の記憶装置にファイルされる。この別個の記憶装置は、図1ではトレーニング装置若しくはトレーニング装置の部分として示されており、この別個の記憶装置は選択的な実施例では装置105の部分であってもよい。属性分類器120の最新のバージョンによって不十分に識別されるかまたは識別されている、対象物形態のデータ例は、属性分類器120の新たなトレーニングのために使用するために、オンライン接続および/または工場毎に中央でファイルされてよい。
As already described in FIG. 1, the
図3は、1実施例による車両のための対象物を分類するための方法300のフローチャートを示す。この場合、これは、前述の図面に記載した装置のうちの1つによって実行可能な方法300であってよい。
FIG. 3 shows a flowchart of a
この方法300は、分類するステップ305、抽出するステップ310および作成するステップ315を含有している。分類するステップ305で、対象物は属性分類器を使用してカメラ画像から分類される。抽出するステップ310で、対象物に割り当てられた少なくとも1つの固有の対象物特徴がカメラ画像から抽出される。作成するステップ315で、固有の対象物特徴を使用して固有分類器が作成される。
The
方法300の以下の実施例はオプション的である。
The following embodiments of
分類するステップ305で、選択的な実施例に従って追加的にまたは選択的に、別の対象物が、別のカメラ画像から属性分類器および固有分類器を使用して分類され、この場合、抽出するステップ310で、別の対象物に割り当てられた少なくとも1つの別の固有の対象物特徴が別のカメラ画像から抽出され、作成するステップ315で、固有分類器が別の固有の対象物特徴を使用して適合される。
In
抽出するステップ310で、この実施例に従ってカメラ画像から、属性的に分類された対象物の少なくとも1つの色および/または構造および/または形状を表す対象物特徴が抽出される。
In an extracting
作成するステップ315で、固有分類器が環状記憶装置にメモリされる。
In
さらに、この実施例によれば方法300がオプション的に、算出するステップ320およびメモリするステップ325を有している。
Further, according to this embodiment, the
算出するステップ320で、カメラ画像は周辺検出装置を使用して算出される。
In the calculating
メモリするステップ325で、分類するステップ305において対象物の分類に関する分類精度が閾値を下回ると、カメラ画像がメモリされる。この実施例によれば、メモリするステップ325で、カメラ画像が対象物識別装置の外部に配置されたトレーニング装置に送信される。
In the
ここに紹介された方法ステップは繰り返されてよく、また前記連続とは別の連続で実施されてよい。 The method steps introduced herein may be repeated and may be performed in a sequence different from the sequence.
図4は、1実施例による対象物を分類するための方法300のフローチャートを示す。これは、追加的なステップを有する図3に記載された方法300であってよい。
FIG. 4 shows a flowchart of a
この方法300は、この実施例によれば広範囲にわたる対象物検出を可能にし、このために、検出するブロック400および立証するブロック405を有している。検出するブロック400はいわゆる外観に基づく方法410を有しており、この方法410は、生成するステップ415、組み合わせるステップ420および、図3に既述した分類するステップ305を有している。検出するブロック400は、選択的な実施例によれば追加的に、仮説発生のためのいわゆる不一致に基づく方法425および/またはいわゆる運動に基づく方法430を有している。
The
立証するブロック405は、妥当化するステップ435および時間積分するステップ440を有している。
The verifying
作成するステップ315は、検出するステップ400と立証するブロック405との間に配置されている。立証するブロック405と作成するステップ315との間で、方法300はさらに、別の立証するステップ445を有している。
The creating
検出するブロック400で、識別可能な対象物を記述する特徴の安定したグループが検索される。外観に基づく方法410で、ここでは車両である対象物型式の特性がトレーニングデータセットに基づいて検出される。この実施例によれば、外観に基づく方法410で車両の特徴がガボールフィルタ“Gabor−Filter”によってフィルタリングされ、属性分類器がサポートベクトルマシン“Support Vector Machine”によって分類される。この場合、生成するステップ415で、特性的な特徴、ここではハール特徴“Haar−Merkmale”がトレーニング画像から生成される。組み合わせるステップ420において、特徴の収集がデータバンク内で対象物型式の全記述に組み合わせられる。特徴ベクトルを明確に1つの対象物型式に割り当てることができるようにするために、分類するステップ305で、この実施例によればアダブーストアルゴリズム“AdaBoost−Algorithmus”である属性分類器が時間をかけてトレーニングされ、および/または特徴の確率分布がモデル形成される。
At
立証するブロック405で、検出するブロック400から得られた、間違ったおよび/または不正確な対象物仮説が妥当化され、時間積分によって改善される。このために、妥当化するステップ435で、パラメータ化されたモデルおよび/またはテンプレートが画像データと比較され、この実施例によれば車両のための3D格子型モデルが作成され、この3D格子型モデルを画像平面に投影することによって輪郭パターンが生ぜしめられる。このパターンは、場面のセグメント状に分割されたグレースケール画像で検索される。追加的にまたは選択的に少なくとも1つのナンバープレート、光および/または窓ガラスが使用される。時間積分するステップ440で、時間積分が実施される。この場合、生きていない物理的対象物と主体とが識別される。生きていない物理的対象物は、この場合、物理法則に基づく外挿によって叙述を用いて識別され、主体は、意図、行動および/または代替行動の確認によって識別される。従って、例えば歩行者、自転車に乗っている人、乗用車、トラック等が識別される。さらに、時間積分するステップ440で、対象物仮説の運動モデルが適合され、行動モデルの情報集群が実施され、かつ/または周辺モデルとの調整が実施され、この場合、例えば推測された走行車線延在形状と車両運動との妥当化が実施され、例えば対象物の垂線の足と道路ジオメトリとの妥当化が実施される。
At verify
作成するステップ315と別の立証するステップ445および/または立証するブロック405との間に、トレーニングするステップ450が配置されており、このトレーニングするステップ450で、トレーニングが実施される。さらに、作成するステップ315と立証するブロック405との間で妥当性問い合わせ455が実施される。
Between the creating
1実施例が、第1の特徴と第2の特徴との間の「および/または」接続を有している場合、これは、この実施例が、1実施形態に従って第1の特徴も第2の特徴も有しており、また別の実施形態に従って第1の特徴だけまたは第2の特徴だけを有している、と読み取られるべきである。 If an example has an “and / or” connection between a first feature and a second feature, this means that this example is a second feature according to one embodiment. And should be read as having only the first feature or only the second feature according to another embodiment.
100 車両
105 装置
110 対象物
115 カメラ画像
120 属性分類器
125 周辺検出装置
130 固有分類器
132 トレーニング装置
135 対象物
140 ドライブアシストシステム
145 別の対象物
150 別のカメラ画像
200 車両モデル
205 対象物例
210 対象物特徴
215 メモリ書き込み
220 アプリケーション
300 方法
305 分類するステップ
310 抽出するステップ
315 作成するステップ
320 算出するステップ
325 メモリするステップ
400 検出するブロック
405 立証するブロック
410 外観に基づく方法
415 生成するステップ
420 組み合わせるステップ
425 不一致に基づく方法
430 運動に基づく方法
435 妥当化するステップ
440 時間積分するステップ
445 別の立証するステップ
450 トレーニングするステップ
455 妥当性問い合わせ
DESCRIPTION OF
Claims (10)
属性分類器(120)を使用してカメラ画像(115)から対象物(110)を分類するステップ(305)と、
前記カメラ画像(115)から、前記対象物(110)に割り当てられた少なくとも1つの固有の対象物特徴(210)を抽出するステップ(310)と、
前記固有の対象物特徴(210)を使用して固有分類器(130)を作成するステップ(315)と、
を有している、車両(100)のための、対象物(110)を分類するための方法(300)。 A method (300) for classifying an object (110) for a vehicle (100), the method (300) comprising at least:
Classifying an object (110) from a camera image (115) using an attribute classifier (120) (305);
Extracting from the camera image (115) at least one unique object feature (210) assigned to the object (110);
Creating (315) a unique classifier (130) using the unique object features (210);
A method (300) for classifying an object (110) for a vehicle (100) having:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017209496.6 | 2017-06-06 | ||
DE102017209496.6A DE102017209496B4 (en) | 2017-06-06 | 2017-06-06 | Method and device for classifying an object for a vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018206373A true JP2018206373A (en) | 2018-12-27 |
JP7185419B2 JP7185419B2 (en) | 2022-12-07 |
Family
ID=64279014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018094211A Active JP7185419B2 (en) | 2017-06-06 | 2018-05-16 | Method and device for classifying objects for vehicles |
Country Status (4)
Country | Link |
---|---|
US (1) | US10885382B2 (en) |
JP (1) | JP7185419B2 (en) |
CN (1) | CN109002830B (en) |
DE (1) | DE102017209496B4 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022519594A (en) * | 2019-02-04 | 2022-03-24 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Devices and methods for improving robustness against hostile samples |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11263549B2 (en) * | 2018-03-22 | 2022-03-01 | Here Global B.V. | Method, apparatus, and system for in-vehicle data selection for feature detection model creation and maintenance |
CN113264037A (en) * | 2021-06-18 | 2021-08-17 | 安徽江淮汽车集团股份有限公司 | Obstacle recognition method applied to automatic parking |
AT525406A1 (en) * | 2021-08-31 | 2023-03-15 | Tom Robotics Gmbh | CLASSIFICATION METHOD FOR CLASSIFYING OBJECTS |
DE102022131850A1 (en) | 2022-12-01 | 2024-06-06 | Valeo Schalter Und Sensoren Gmbh | Method for checking an object classification for a motor vehicle carried out by means of an artificial neural network |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005285014A (en) * | 2004-03-30 | 2005-10-13 | Fujitsu Ltd | Vehicle identification program, method, and apparatus |
JP2006515699A (en) * | 2003-07-25 | 2006-06-01 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Device for classifying at least one object around a vehicle |
EP2575077A2 (en) * | 2011-09-29 | 2013-04-03 | Ricoh Company, Ltd. | Road sign detecting method and road sign detecting apparatus |
US20140267793A1 (en) * | 2013-03-15 | 2014-09-18 | Delphi Display Systems, Inc. | System and method for vehicle recognition in a dynamic setting |
JP2016072964A (en) * | 2014-09-30 | 2016-05-09 | キヤノン株式会社 | System and method for subject re-identification |
US20160366364A1 (en) * | 2014-03-19 | 2016-12-15 | Conti Temic Microelectronic Gmbh | Method for Saving Image Data of a Camera in an Accident Data Recorder of a Vehicle |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7764808B2 (en) * | 2003-03-24 | 2010-07-27 | Siemens Corporation | System and method for vehicle detection and tracking |
US7565139B2 (en) * | 2004-02-20 | 2009-07-21 | Google Inc. | Image-based search engine for mobile phones with camera |
CN101964059B (en) * | 2009-07-24 | 2013-09-11 | 富士通株式会社 | Method for constructing cascade classifier, method and device for recognizing object |
EP2323069A2 (en) * | 2009-11-17 | 2011-05-18 | Samsung Electronics Co., Ltd. | Method, device and system for content based image categorization field |
US9183447B1 (en) * | 2011-06-09 | 2015-11-10 | Mobileye Vision Technologies Ltd. | Object detection using candidate object alignment |
US9349055B1 (en) * | 2013-06-26 | 2016-05-24 | Google Inc. | Real-time image-based vehicle detection based on a multi-stage classification |
DE102013020435A1 (en) * | 2013-12-06 | 2014-06-18 | Daimler Ag | Method for recognizing objects e.g. lorry, in vehicle environment, involves performing rough categorization of objects based on volume and parameters, and performing fine categorization of objects based on to be fine-categorized object |
US9449258B1 (en) * | 2015-07-02 | 2016-09-20 | Agt International Gmbh | Multi-camera vehicle identification system |
CN105787437B (en) * | 2016-02-03 | 2017-04-05 | 东南大学 | A kind of vehicle brand kind identification method based on cascade integrated classifier |
CN106446949B (en) * | 2016-09-26 | 2019-05-21 | 成都通甲优博科技有限责任公司 | A kind of vehicle model recognition methods and device |
-
2017
- 2017-06-06 DE DE102017209496.6A patent/DE102017209496B4/en active Active
-
2018
- 2018-05-16 JP JP2018094211A patent/JP7185419B2/en active Active
- 2018-05-25 US US15/990,101 patent/US10885382B2/en active Active
- 2018-06-06 CN CN201810575757.1A patent/CN109002830B/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006515699A (en) * | 2003-07-25 | 2006-06-01 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Device for classifying at least one object around a vehicle |
JP2005285014A (en) * | 2004-03-30 | 2005-10-13 | Fujitsu Ltd | Vehicle identification program, method, and apparatus |
EP2575077A2 (en) * | 2011-09-29 | 2013-04-03 | Ricoh Company, Ltd. | Road sign detecting method and road sign detecting apparatus |
US20140267793A1 (en) * | 2013-03-15 | 2014-09-18 | Delphi Display Systems, Inc. | System and method for vehicle recognition in a dynamic setting |
US20160366364A1 (en) * | 2014-03-19 | 2016-12-15 | Conti Temic Microelectronic Gmbh | Method for Saving Image Data of a Camera in an Accident Data Recorder of a Vehicle |
JP2016072964A (en) * | 2014-09-30 | 2016-05-09 | キヤノン株式会社 | System and method for subject re-identification |
Non-Patent Citations (1)
Title |
---|
鷲見 和彦: "イメージセンサとモニタリング", 電気学会研究会資料, JPN6019043446, 24 November 2000 (2000-11-24), JP, pages 39 - 44, ISSN: 0004914383 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022519594A (en) * | 2019-02-04 | 2022-03-24 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Devices and methods for improving robustness against hostile samples |
JP7264412B2 (en) | 2019-02-04 | 2023-04-25 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Device and method for improving robustness against adversarial samples |
Also Published As
Publication number | Publication date |
---|---|
DE102017209496A1 (en) | 2018-12-06 |
US20180349744A1 (en) | 2018-12-06 |
CN109002830B (en) | 2024-04-30 |
DE102017209496B4 (en) | 2020-10-01 |
JP7185419B2 (en) | 2022-12-07 |
US10885382B2 (en) | 2021-01-05 |
CN109002830A (en) | 2018-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018206373A (en) | Method and device for classifying targets for vehicle | |
US11604964B2 (en) | Recognizer, object recognition method, learning apparatus, and learning method for domain adaptation | |
US10373024B2 (en) | Image processing device, object detection device, image processing method | |
Prioletti et al. | Part-based pedestrian detection and feature-based tracking for driver assistance: real-time, robust algorithms, and evaluation | |
JP6062791B2 (en) | License plate character segmentation using likelihood maximization | |
US9418303B2 (en) | Method for traffic sign recognition | |
CN110785719A (en) | Method and system for instant object tagging via cross temporal verification in autonomous vehicles | |
US20170270368A1 (en) | Method for detecting a soiling of an optical component of a driving environment sensor used to capture a field surrounding a vehicle; method for automatically training a classifier; and a detection system | |
CN110869936A (en) | Method and system for distributed learning and adaptation in autonomous vehicles | |
KR101935010B1 (en) | Apparatus and method for recognizing license plate of car based on image | |
CN110753953A (en) | Method and system for object-centric stereo vision in autonomous vehicles via cross-modality verification | |
CN110765807A (en) | Driving behavior analysis method, driving behavior processing method, driving behavior analysis device, driving behavior processing device and storage medium | |
CN112883991A (en) | Object classification method, object classification circuit and motor vehicle | |
KR102545109B1 (en) | Apparatus and method for removing false target in vehicle and vehicle including the same | |
CN111417960A (en) | Information processing apparatus, information processing method, and program | |
CN114820644A (en) | Method and apparatus for classifying pixels of an image | |
US20220266854A1 (en) | Method for Operating a Driver Assistance System of a Vehicle and Driver Assistance System for a Vehicle | |
WO2023029468A1 (en) | Vehicle driving prompt | |
JP7081404B2 (en) | License plate identification device, license plate identification method and program | |
TWI709917B (en) | Assistant driving device, method, and storage medium | |
KR20210079180A (en) | Method and apparatus for recognizinf vehicle license plate | |
KR102594384B1 (en) | Image recognition learning apparatus of autonomous vehicle using error data insertion and image recognition learning method using the same | |
US11912297B2 (en) | Driving assistance device and driving assist method | |
WO2023170912A1 (en) | Information processing device, generation method, information processing method, and computer-readable medium | |
CN112513879B (en) | Vehicle attitude identification method and related equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200615 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7185419 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |