JP2022501756A - 車両特徴の取得方法及び装置 - Google Patents

車両特徴の取得方法及び装置 Download PDF

Info

Publication number
JP2022501756A
JP2022501756A JP2021542238A JP2021542238A JP2022501756A JP 2022501756 A JP2022501756 A JP 2022501756A JP 2021542238 A JP2021542238 A JP 2021542238A JP 2021542238 A JP2021542238 A JP 2021542238A JP 2022501756 A JP2022501756 A JP 2022501756A
Authority
JP
Japan
Prior art keywords
vehicle
image
area
region
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021542238A
Other languages
English (en)
Other versions
JP7190583B2 (ja
Inventor
歓 田
駿 胡
帥 程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neusoft Reach Automotive Technology Shenyang Co Ltd
Original Assignee
Neusoft Reach Automotive Technology Shenyang Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neusoft Reach Automotive Technology Shenyang Co Ltd filed Critical Neusoft Reach Automotive Technology Shenyang Co Ltd
Publication of JP2022501756A publication Critical patent/JP2022501756A/ja
Application granted granted Critical
Publication of JP7190583B2 publication Critical patent/JP7190583B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本発明の実施例は、車両特徴の取得方法及び装置を開示する。車両が含まれる処理対象画像を取得し、処理対象画像を認識することで、車両の特徴要素を取得し、特徴要素は車両の側面要素及び車端部の要素であってもよく、車端部は車頭又は車尾であってもよく、車両の側面要素と車端部の要素との、処理対象画像における位置に基づき、車両の側面領域及び車端部の領域を確定でき、さらに、側面領域に基づき側面の領域特徴を取得し、車端部の領域に基づき車端部の領域特徴を取得できる。従って、本出願の実施において、まず、処理対象画像における車両に対して領域を区画し、そして、区画により得られた領域から領域特徴を取得し、従来技術において、処理対象画像における車両の平面領域のみを確定することに比べて、より適切な車両特徴を取得できる。【選択図】図2

Description

関連出願
本出願は、2018年09月27日にて中国特許庁に提出され、出願番号が201811132325.X号であり、出願の名称が「車両特徴の取得方法及び装置」である中国特許出願の優先権を主張して、その全ての内容は本出願に援用される。
本発明は、自動車分野に関し、特に車両特徴の取得方法及び装置に関する。
従来技術において、ターゲット画像を分析し認識することで、ターゲット画像におけるターゲット対象を取得し、ターゲット対象の特徴を取得し、これによって、ターゲット対象の特徴に基づき後続の分析を行うことができる。例えば、ターゲット画像における道路上の車両、建物及び歩行者などのターゲット対象を認識することで、これらのターゲット対象の色、形状、サイズ及び位置などの特徴を取得し、これらの特徴に基づき道路状況を確定できる。
一般的に、ターゲット画像におけるターゲット対象は、平面領域として体現され、ターゲット画像における車両及び歩行者は、それぞれ矩形枠内の領域として体現され、当該領域のサイズがターゲット対象のサイズに関連付けられ、ターゲット画像の撮影パラメータにも関連付けられ、当該領域における画素点の色がターゲット対象の色に関連付けられる。
ただし、実際の応用において、車両の、ターゲット画像における平面領域のみを確定することは、一般的に完全ではない。
上記の技術問題を解决するために、本出願の実施例は、車両特徴の取得方法及び装置を提供し、処理対象画像における車両に対して領域を区画し、区画により得られた領域から領域特徴を取得するため、適切な車両特徴を取得できる。
本出願の実施例は車両特徴の取得方法を提供し、前記方法は、
車両が含まれる処理対象画像を取得するステップと、
前記処理対象画像を認識することで、前記車両の特徴要素を取得するステップであって、前記特徴要素が側面要素及び車端部の要素を含み、前記車端部が車頭又は車尾であるステップと、
前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両の側面領域と車端部の領域とを確定するステップと、
前記側面領域に基づき側面の領域特徴を取得し、前記車端部の領域に基づき車端部の領域特徴を取得するステップとを含む。
好ましくは、前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両の側面領域と車端部の領域とを確定する前記ステップは、
前記処理対象画像から、前記車両が所在する車両領域を確定するステップと、
前記側面要素に近接する車端部の要素と、前記車端部の要素に近接する側面要素との前記処理対象画像における位置に基づき、前記側面領域と前記車端部の領域との境目を確定するステップと、
前記境目、及び前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両領域から、前記側面領域及び前記車端部の領域を確定するステップとを含む。
好ましくは、前記方法はさらに、
前記車端部の領域特徴、前記側面の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と、前記車両を撮影することで、前記処理対象画像を取得するための画像撮影装置との相対位置を確定するステップを含む。
好ましくは、前記車端部の領域特徴、前記側面の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と画像撮影装置との相対位置を確定する前記ステップは、
前記車端部の領域及び前記側面領域における、前記画像撮影装置に向かう領域をターゲット領域に確定するステップと、
前記ターゲット領域の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像撮影装置との相対位置を確定するステップとを含む。
好ましくは、前記車端部の領域特徴、前記側面の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像取得装置との相対位置を確定する前記ステップは、
前記車端部の領域と前記側面領域との境目、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像撮影装置との相対位置を確定するステップを含む。
好ましくは、前記側面の領域特徴は、前記側面領域の頂点、前記側面領域の中心点又は前記側面領域の辺の中間点の前記処理対象画像における位置を含み、前記車端部の領域特徴は、前記車端部の領域の頂点、前記車端部の領域の中心点又は前記車端部の領域の辺の中間点の前記処理対象画像における位置を含む。
好ましくは、前記処理対象画像を認識することで、前記車両の特徴要素を取得する前記ステップは、
前記処理対象画像で認識することで、前記車両が所在する車両領域を確定するステップと、
前記処理対象画像から前記車両領域により形成された車両画像を切り取るステップと、
前記車両画像を認識することで、前記車両の特徴要素を確定するステップとを含む。
好ましくは、前記車頭の要素はフロントランプ、フロントウィンドウ、バンパ及びフロントナンバープレートのうちの1つまたは複数を含み、前記車尾の要素はリアランプ、リアウインドウ及びリアナンバープレートのうちの1つまたは複数を含み、前記側面要素は車輪、サイドウィンドウ、バックミラー及びドアのうちの1つまたは複数を含む。
本出願の実施例は車両特徴の取得装置を提供し、前記装置は、
車両が含まれる処理対象画像を取得するための画像取得ユニットと、
前記処理対象画像を認識することで、前記車両の特徴要素を取得するための画像認識ユニットあって、前記特徴要素は側面要素及び車端部の要素を含み、前記車端部は車頭又は車尾である画像認識ユニットと、
前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両の側面領域と車端部の領域とを確定するための領域確定ユニットと、
前記側面領域に基づき側面の領域特徴を取得し、前記車端部の領域に基づき車端部の領域特徴を取得するための特徴取得ユニットとを含む。
好ましくは、前記領域確定ユニットは、
前記処理対象画像から、前記車両が所在する車両領域を確定するための車両領域確定ユニットと、
前記側面要素に近接する車端部の要素と、前記車端部の要素に近接する側面要素との前記処理対象画像での位置に基づき、前記側面領域と前記車端部の領域との境目を確定するための境目確定ユニットと、
前記境目、及び前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両領域から、前記側面領域及び前記車端部の領域を確定するための領域確定サブユニットとを含む。
好ましくは、前記装置はさらに、
前記車端部の領域特徴、前記側面の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と、前記車両を撮影することで、前記処理対象画像を取得するための画像撮影装置との相対位置を確定するための相対位置確定ユニットを含む。
好ましくは、前記相対位置確定ユニットは、
前記車端部の領域及び前記側面領域における、画像撮影装置に向かう領域をターゲット領域に確定するためのターゲット領域確定ユニットと、
前記ターゲット領域の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像撮影装置との相対位置を確定するための相対位置確定サブユニットとを含む。
好ましくは、前記相対位置確定ユニットは具体的には、
前記車端部の領域と前記側面領域との境目、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像撮影装置との相対位置を確定する。
好ましくは、前記側面の領域特徴は、前記側面領域の頂点、前記側面領域の中心点又は前記側面領域の辺の中間点の前記処理対象画像における位置を含み、前記車端部の領域特徴は、前記車端部の領域の頂点、前記車端部の領域の中心点又は前記車端部の領域の辺の中間点の前記処理対象画像における位置を含む。
好ましくは、前記画像認識ユニットは、
前記処理対象画像で認識することで、前記車両が所在する車両領域を確定するための車両領域認識ユニットと、
前記処理対象画像から前記車両領域により形成された車両画像を切り取るための車両画像取得ユニットと、
前記車両画像を認識することで、前記車両での特徴要素を確定するための特徴要素認識ユニットとを含む。
好ましくは、前記車頭の要素はフロントランプ、フロントウィンドウ、バンパ及びフロントナンバープレートのうちの1つまたは複数を含み、前記車尾の要素はリアランプ、リアウインドウ及びリアナンバープレートのうちの1つまたは複数を含み、前記側面要素は車輪、サイドウィンドウ、バックミラー及びドアのうちの1つまたは複数を含む。
本出願の実施例において、車両が含まれる処理対象画像を取得し、処理対象画像を認識することで、車両での特徴要素を取得し、特徴要素は車両の側面要素及び車端部の要素であってもよく、車端部は車頭又は車尾であってもよく、車両の側面要素と車端部の要素との、処理対象画像における位置に基づき、車両の側面領域及び車端部の領域を確定でき、さらに、側面領域に基づき側面の領域特徴を取得し、車端部の領域に基づき車端部の領域特徴を取得できる。従って、本出願の実施において、まず、処理対象画像における車両に対して領域を区画し、そして、区画により得られた領域から領域特徴を取得し、従来技術において、車両の、処理対象画像での平面領域のみを確定することに比べて、より適切な車両特徴を取得できる。
本発明の実施例の技術案をより明らかに説明するために、以下は実施例の説明に必要な図面を簡単に紹介し、明らかに、以下の説明の図面は本出願に記載のいくつかの実施例に過ぎず、当業者にとって、これらの図面に基づいて他の図面を取得できる。
従来技術においてターゲット画像により特徴を取得する概略図である。 本出願の実施例が提供する車両特徴の取得方法のフローチャートである。 本出願の実施例が提供する特徴要素認識過程の概略図である。 本出願の実施例が提供する領域確定過程の概略図である。 本出願の実施例が提供する車両特徴の取得装置の構成ブロック図である。
発明者は研究により、従来技術において、ターゲット画像を分析し認識することで、ターゲット画像におけるターゲット対象を取得し、ターゲット対象の特徴を取得し、これによって、ターゲット対象の特徴に基づき後続の分析を行うことができることを見つけた。例えば、ターゲット画像における道路上の車両、建物及び歩行者などのターゲット対象を認識することで、これらのターゲット対象の色、形状、サイズ及び位置などの特徴を取得し、これらの特徴に基づき道路状況を確定できる。
一般的に、ターゲット画像におけるターゲット対象は、平面領域として体現され、図1は従来技術においてターゲット画像により特徴を取得する概略図であり、ターゲット画像 における車両及び歩行者は、それぞれ矩形枠内の領域として体現される。車両を例として、車両領域のサイズが車両のサイズに関連付けられ、車両の撮影パラメータにも関連付けられ、車両領域における画素点の色が車両の色に関連付けられる。
ただし、実際の応用において、車両の、ターゲット画像における平面領域のみを確定することは、一般的に完全ではない。なぜならば、実際の操作において、車両は一定の三次元特徴を有するが、平面領域は、車両の配置形状及び画像撮影装置との距離などのような車両の三次元特徴をよく体現できないからである。
例えば、車両の車頭、車尾又は側面はいずれも画像撮影装置に真向かいしていない場合、車両の、ターゲット画像における平面領域により車両と画像撮影装置との距離を算出すれば、一般的に正確ではなく、ここで、画像撮影装置は車両を撮影することでターゲット画像を取得するための装置である。図1は、従来技術において、ターゲット画像により特徴を取得する概略図であり、ターゲット画像において、左下隅にある車両と画像撮影装置との距離が近いのは左側車尾であり、車両の画像における領域中心に基づき、車両と画像撮影装置との距離を算出すれば、算出された距離は、車両内部と画像撮影装置との距離であり、そのため、算出された距離は、車両と画像撮影装置との実際距離より大きく、算出された結果に基づき運転支援を行うと、ひどい結果を招致する恐れがある。
これに基づき、本発明の実施例において、車両が含まれる処理対象画像を取得し、処理対象画像を認識することで、車両における特徴要素を取得し、特徴要素は車両の側面要素及び車端部の要素であってもよく、車端部は車頭又は車尾であってもよく、車両の側面要素と車端部の要素との、処理対象画像における位置に基づき、車両の側面領域及び車端部の領域を確定でき、さらに、側面領域に基づき側面の領域特徴を取得し、車端部の領域に基づき車端部の領域特徴を取得できる。従って、本出願の実施例において、まず、処理対象画像における車両に対して領域を区画し、そして、区画により得られた領域から領域特徴を取得し、従来技術において、車両の処理対象画像における位置のみを確定することに比べて、より適切な車両特徴を取得できる。
以下は、図面を結合し、実施例により本発明の実施例における車両特徴の取得方法の具体的な実現形態を詳細に説明する。
図2は、本出願の実施例が提供する車両特徴の取得方法のフローチャートであり、当該方法は以下のステップを含む。
S101:処理対象画像を取得する。
本出願の実施例において、ターゲット画像を処理対象画像とする。なお、処理対象画像は、車両が含まれる画像であり、画像撮影装置により撮影を行うことができ、画像撮影装置はカメラ、ビデオカメラ、ウェブカメラなどであってもよい。
処理対象画像には、車両のみが含まれてもよいし、車両以外の他のターゲット対象が含まれてもよく、処理対象画像には1つの車両が含まれてもよいし、複数の車両が含まれてもよい。
S102:処理対象画像を認識することで、車両の特徴要素を取得する。
本出願の実施例において、車両の特徴要素は、側面要素及び車端部の要素であってもよく、車端部は車頭又は車尾であってもよい。車頭の要素は車頭位置を補助認識するための要素であってもよく、例えばフロントランプ、フロントウィンドウ、バンパ及びフロントナンバープレートなどのうちの1つまたは複数を含み、車尾の要素は車尾位置を補助認識するための要素であってもよく、例えばリアランプ、リアウインドウ及びリアナンバープレートなどのうちの1つまたは複数を含み、側面要素は側面位置を補助認識するための要素であってもよく、例えば車輪、サイドウィンドウ、バックミラー及びドアなどのうちの1つまたは複数を含む。
処理対象画像を認識することで、車両の特徴要素を取得するステップは、具体的には、処理対象画像を分割し、処理対象画像における各画素点のカテゴリラベルを取得し、処理対象画像の分割画像において、同一の特徴要素の画素点のカテゴリラベルが同様であり、カテゴリラベルに基づき車両の特徴要素を取得する。処理対象画像を分割することは、事前訓練により得られた深層学習ニューラルネットワークにより行われてもよく、具体的には、赤い楕円形の領域をランプ領域として認識し、四角形の大面積の灰色領域を車窓領域として認識し、白い放射線状を有する円形の領域を車輪として認識する。
分割後の画像を便利に処理するために、処理対象画像を分割した後、異なるカテゴリラベルに対して異なる色をプリセットし、分割画像を形成することができ、例えば、ランプ領域のカテゴリラベルに対応する色は赤、車窓領域のカテゴリラベルに対応する色は青などであってもよい。
処理対象画像に車両以外の他のターゲット対象が含まれる場合、画像分割の正確性を向上させるために、処理対象画像において特徴要素に対する認識を、処理対象画像を認識することで、車両が所在する車両領域を確定するステップ、及び処理対象画像から車両領域を切り取り、ターゲット画像を形成し、ターゲット画像を認識することで、車両領域における特徴要素を確定するステップという2つのステップに分けることができる。
具体的には、事前訓練により得られた第1深層学習ニューラルネットワークにより処理対象画像を認識することで、第1分割画像を取得し、第1分割画像における各画素点はカテゴリラベルを有し、同じターゲット対象の画素点のカテゴリラベルは同様であり、これによってカテゴリラベルに基づき処理対象画像における車両領域を認識する。事前訓練による得られた第2深層学習ニューラルネットワークによりターゲット画像を認識し、第2分割画像を取得し、第2分割画像における各画素点はカテゴリラベルを有し、同一特徴要素のカテゴリラベルは同様であり、カテゴリラベルに基づき車両領域における特徴要素を認識できる。
例えば、図3は、本出願が提供する特徴要素認識過程の概略図であり、図3(a)は例示的な処理対象画像であり、第1深層学習ニューラルネットワークにより処理対象画像を分割し、図3(b)に示す第1分割画像を取得し、なお、矩形枠における領域は車両が所在する車両領域である。第1分割画像における矩形枠領域を拡大し、図3(c)に示す車両分割画像を取得し、車両分割画像に基づき、処理対象画像を切り取り、図3(d)に示す車両画像を取得する。第2深層学習ニューラルネットワークにより車両画像を分割し、図3(e)に示す第2分割画像を取得し、なお、2つの円形領域は車両のランプであり、1つの矩形領域は車両の車窓であり、無論、本出願の実施例において、さらにタイヤ又はバックミラーなどの他の要素を認識できる。
S103:側面要素と車端部の要素との処理対象画像における位置に基づき、車両の側面領域及び車端部の領域を確定する。
本出願の実施例において、処理対象画像における車両は少なくとも側面要素及び車端部の要素を含み、直接的に側面要素及び車端部の要素に基づき、車両の側面領域及び車端部の領域を確定できる。
例えば、図3(e)に示す第2分割画像を参照し、車尾の要素は例えばリアランプ、リアウインドウなどであり、側面要素は例えば車輪、バックミラーなどであり、側面要素における車輪は後側車輪であると確定でき、これによって、処理対象画像における車尾の領域は車両が所在する矩形領域を含み、側面領域は車尾の領域の左縁及び後縁であると確定できる。
本出願の実施例において、車両の側面領域及び車端部の領域を確定する前に、まず、車両が所在する車両領域、及び側面領域と車端部の領域との境目を確定し、境目に基づき、車両領域から側面領域及び車端部の領域を確定してもよい。
具体的には、側面要素に近接する車端部の要素と、車端部の要素に近接する側面要素との処理対象画像における位置に基づき、側面領域と車端部の領域との境目を確定できる。例えば、図4は、本出願の実施例が提供する領域確定過程の概略図であり、図4(a)に示す処理対象画像を参照して、画像分割により図4(b)に示す車両領域(灰色矩形枠)を取得し、処理対象画像に対して画像分割を行うことで、図4(c)に示す特徴要素を取得して、右側にある2つの楕円領域(黒い線からなる楕円領域)はランプであり、右側にある四辺形領域(黒い線からなる四辺形領域)はフロントウィンドウであり、左側にある2つの楕円領域(白い細線からなる楕円領域)は車輪であり、不規則な形状の領域(白い細線からなる不規則な領域)はサイドウィンドウである。
分析から分かるように、車端部は車頭であり、車頭の要素に近接する側面要素は処理対象画像における右車輪、及び処理対象画像におけるサイドウィンドウの右縁であり、側面要素に近接する車頭の要素はフロントウィンドウの左縁、及び車頭の左側ランプであるから、処理対象画像における右側車輪、サイドウィンドウの右側縁、フロントウィンドウの左側縁及び車頭の左側ランプに基づき、車頭の領域と側面領域との境目を確定できる。
無論、車頭の領域と側面領域との境目の確定方式は複数あり、例えばフロントウィンドウの左縁及びサイドウィンドウの右縁に基づき確定してもよいし、右車輪の右縁及び左側ランプの左縁に基づき確定してもよい。境目は垂直であってもよいし、傾斜であってもよい。本出願の実施例において、例示として、車頭の領域と側面領域との境目として、右車輪の右縁を通過する垂直の直線を作り出し、図4(d)に示す灰色線を参照すればよい。
側面領域と車端部の領域との境目を確定した後、確定した境目、及び側面要素と車端部の要素との処理対象画像における位置に基づき、車両領域から側面領域及び車端部の領域を確定する。なお、側面領域及び車端部の領域は境目の両側にあり、側面領域及び車端部の領域は矩形領域であってもよいし、平行四辺形領域であってもよく、さらに、領域を表現できる他の形状であってもよい。
境目の確定方式から類推して、車両領域における側面領域及び車端部の領域の確定方式も複数あり、例えば右車輪の右縁を通過する垂直直線を車頭の領域と側面領域との境目とすれば、図4(e)を参照し、車輪と地面との接触点を通過する水平線を車頭の領域の下縁とし、境目を車頭の領域の左縁とし、ルーフが所在する水平線を車頭の領域の上縁とし、車両領域の右縁を車頭の領域の右縁とし、4本の縁線は車頭の領域を形成し(右側にある白い粗線からなる矩形枠)、同じように、境目を側面領域の右縁とし、車両領域の左縁を側面領域の左縁とし、車輪と地面との2つの接触点の接続線の方向を側面領域の上縁と下縁との方向とし、上縁の右端点が車頭の領域の左上端点(即ち、ルーフが所在する水平線と境目との交差点)と重なり、下縁の右端点が車頭の領域の左下端点(即ち、車輪と地面との接触点)と重なり、4本の縁線は側面領域を形成する(左側にある白い粗線からなる平行四辺形枠)。
データを便利に記憶するために、側面領域と車端部の領域とは、6つの頂点の処理対象画像における座標で示し、境目の確定方式は複数あるから、側面領域と車端部の領域との確定方式も複数あってもよく、そのため、複数組の頂点座標値を取得でき、複数組の頂点座標値に対して加重平均を行うことで、側面領域と車端部の領域を示すための加重頂点座標値を取得し、側面領域と車端部の領域との正確性を向上させる。
S104:側面領域に基づき側面の領域特徴を取得し、車端部の領域に基づき車端部の領域特徴を取得する。
本出願の実施例において、側面の領域特徴は、側面領域の頂点、側面領域の中心点または側面領域の辺の中間点などの特徴点の、処理対象画像における位置であってもよく、車端部の領域特徴は車端部の領域の頂点、車端部の領域の中心点または車端部の領域の辺の中間点などの特徴点の、処理対象画像における位置を含み、例えば、車頭の領域特徴は車頭の領域の頂点、車頭の領域の中心点または車頭の領域の辺の中間点などの特徴点の、処理対象画像における位置であってもよい。なお、処理対象画像における特徴点の位置は、処理対象画像における特徴点の座標で示す。
側面の領域特徴及び車端部の領域特徴を取得した後、側面領域の頂点及び車端部の領域特徴の頂点に基づき、車両の3次元特徴領域を取得でき、車両の3次元特徴領域は車頭の領域、車尾の領域、両辺の側面領域、ルーフ領域、車両底部領域を含む。
本出願の実施例が提供する車両特徴の取得方法において、まず、車両が含まれる処理対象画像を取得し、処理対象画像を認識することで、車両の特徴要素を取得し、特徴要素は車両の側面要素及び車端部の要素であってもよく、車端部は車頭又は車尾であってもよく、そして、車両の側面要素と車端部の要素との、処理対象画像における位置に基づき、車両の側面領域及び車端部の領域を確定でき、さらに、側面領域に基づき側面の領域特徴を取得し、車端部の領域に基づき車端部の領域特徴を取得する。従って、まず、処理対象画像における車両に対して領域を区画し、そして、区画により得られた領域から領域特徴を取得し、従来技術において、処理対象画像における車両の位置のみを確定することに比べて、より適切な車両特徴を取得できる。
実際の操作において、車両特徴により相応的に分析することで、関連結果を得るために、車両特徴を取得し、例示として、本出願の実施例は車端部の領域特徴及び側面の領域特徴を取得した後、車端部の領域特徴、側面の領域特徴、及び処理対象画像の撮影パラメータに基づき、車両と画像撮影装置との相対位置を確定することができる。
画像撮影装置は車両を撮影することで、処理対象画像を取得するための装置であり、処理対象画像の撮影パラメータは、画像撮影装置が車両に対して撮影する際の焦点距離、広角、位置、回転角などのパラメータを指す。光学イメージング原理に基づき、処理対象画像における特徴点の位置、及び処理対象画像の撮影パラメータに基づき、特徴点と画像撮影装置との相対位置を確定し、処理対象画像における車端部の領域特徴及び側面の領域特徴は、車両の三次元特徴を適切に反映できるから、これに基づき、車両と画像撮影装置との相対位置を取得できる。
可能な実現形態として、車端部の領域特徴、側面の領域特徴、及び処理対象画像の撮影パラメータに基づき、車両と画像撮影装置との相対位置を確定することは、具体的には、車端部の領域及び側面領域における、画像撮影装置に向かう領域をターゲット領域に確定し、ターゲット領域の領域特徴、及び処理対象画像の撮影パラメータに基づき、車両と画像撮影装置との相対位置を確定する。
具体的には、車端部の領域と側面領域との面積及び/又は形状に基づき、画像撮影装置に向かうターゲット領域を確定し、例えば、面積が大きい領域を画像撮影装置に向かうターゲット領域として確定するか、または矩形形状の領域を、画像撮影装置に向かうターゲット領域として確定する。
図4(e)を参照し、車頭の領域の面積が側面領域の面積より大きいと、車頭の領域が画像撮影装置に向かうと見なすことができるため、車頭の領域がターゲット領域であると確定できる。車頭の領域の形状が矩形であり、側面領域の形状が平行四辺形であると、車頭の領域が画像撮影装置に向かうと見なすことができるため、車頭の領域がターゲット領域であると確定できる。
ターゲット領域の領域特徴は、ターゲット領域の頂点、ターゲット領域の中心点またはターゲット領域の辺の中間点などの特徴点の、処理対象画像における位置であってもよく、ターゲット領域の領域特徴及び処理対象画像の撮影パラメータに基づき、これらの特徴点と画像撮影装置との相対位置を確定でき、これに基づき、車両と画像撮影装置との相対位置を取得できる。
図4(e)に示す車両を例として、ターゲット領域は車頭の領域であり、この際、処理対象画像における車頭の領域の中心点の位置、及び処理対象画像の撮影パラメータに基づき、車頭の領域の中心点と画像撮影装置との相対位置を確定できる。
他の可能な実現形態として、車端部の領域特徴、側面の領域特徴、及び処理対象画像の撮影パラメータに基づき、車両と画像撮影装置との相対位置を確定することは、具体的には、車端部の領域と側面領域との境目、及び処理対象画像の撮影パラメータに基づき、車両と画像撮影装置との相対位置を確定する。
具体的には、境目の中間点を確定し、境目の中間点及び処理対象画像の撮影パラメータに基づき、車両と画像撮影装置との相対位置を確定できる。なぜならば、車端部の領域と側面領域との境目は、一般的に画像撮影装置に最も近いから、得られた車両と画像撮影装置との相対位置は比較的に正確である。
本出願の実施例が提供する車両特徴の取得方法に基づき、本出願の実施例はさらに車両特徴の取得装置を提供し、図5は、本出願の実施例が提供する車両特徴の取得装置の構成ブロック図であり、当該装置は、
車両が含まれる処理対象画像を取得するための画像取得ユニット110と、
前記処理対象画像を認識することで、前記車両の特徴要素を取得するための画像認識ユニット120であって、前記特徴要素が側面要素及び車端部の要素を含み、前記車端部が車頭又は車尾である画像認識ユニット120と、
前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両の側面領域と車端部の領域とを確定するための領域確定ユニット130と、
前記側面領域に基づき前記側面の領域特徴を取得し、前記車端部の領域に基づき前記車端部の領域特徴を取得するための特徴取得ユニット140とを含む。
好ましくは、前記領域確定ユニットは、
前記処理対象画像から、前記車両が所在する車両領域を確定するための車両領域確定ユニットと、
前記側面要素に近接する車端部の要素と、前記車端部の要素に近接する側面要素との前記処理対象画像における位置に基づき、側面領域と車端部の領域との境目を確定するための境目確定ユニットと、
前記境目、及び前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両領域から側面領域及び車端部の領域を確定するための領域確定サブユニットとを含む。
好ましくは、前記装置はさらに、
前記車端部の領域特徴、前記側面の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と画像撮影装置との相対位置を確定するための相対位置確定ユニットを含む。
好ましくは、前記相対位置確定ユニットは、
前記車端部の領域及び前記側面領域における、前記車両を撮影することで処理対象画像を取得するための画像撮影装置に向かう領域をターゲット領域に確定するためのターゲット領域確定ユニットと、
ターゲット領域の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像撮影装置との相対位置を確定するための相対位置確定サブユニットとを含む。
好ましくは、前記相対位置確定ユニットは具体的には、
前記車端部の領域と前記側面領域との境目、及び前記処理対象画像の撮影パラメータに基づき、前記車両と画像撮影装置との相対位置を確定する。
好ましくは、前記側面の領域特徴は、前記側面領域の頂点、前記側面領域の中心点又は前記側面領域の辺の中間点の、前記処理対象画像における位置を含み、前記車端部の領域特徴は、前記車端部の領域の頂点、前記車端部の領域の中心点又は前記車端部の領域の辺の中間点の、前記処理対象画像における位置を含む。
好ましくは、前記画像認識ユニットは、
前記処理対象画像で認識することで、前記車両が所在する車両領域を確定するための車両領域認識ユニットと、
前記処理対象画像から前記車両領域により形成された車両画像を切り取るための車両画像取得ユニットと、
前記車両画像を認識することで、前記車両での特徴要素を確定するための特徴要素認識ユニットとを含む。
好ましくは、前記車頭の要素はフロントランプ、フロントウィンドウ、バンパ及びフロントナンバープレートのうちの1つまたは複数を含み、前記車尾の要素はリアランプ、リアウインドウ及びリアナンバープレートのうちの1つまたは複数を含み、前記側面要素は車輪、サイドウィンドウ、バックミラー及びドアのうちの1つまたは複数を含む。
本出願の実施例が提供する車両特徴の取得装置において、まず、車両が含まれる処理対象画像を取得し、処理対象画像を認識することで、車両の特徴要素を取得し、特徴要素は車両の側面要素及び車端部の要素であってもよく、車端部は車頭又は車尾であってもよく、そして、車両の側面要素と車端部の要素との、処理対象画像における位置に基づき、車両の側面領域及び車端部の領域を確定でき、さらに、側面領域に基づき側面の領域特徴を取得し、車端部の領域に基づき車端部の領域特徴を取得する。従って、まず、処理対象画像における車両に対して領域を区画し、そして、区画により得られた領域から領域特徴を取得し、従来技術において、処理対象画像における車両の位置のみを確定することに比べて、より適切な車両特徴を取得できる。
本発明の実施例に言及された「第1……」などの名称における「第1」は、順序の第1ではなく、ただ名称を標識するためのものである。当該規則は同じように「第2」などにも適用される。
以上の実施形態に対する説明から分かるように、上記の実施例方法の全て又は一部のステップは、ソフトウェアと汎用ハードウェアプラットフォームとの組み合わせという方式で実現できる。このような理解に基づき、本発明の技術案はソフトウェア製品という形態で体現され、当該コンピュータソフトウェア製品は、読み取り専用メモリ(英語:read−only memory、ROM)/RAM、磁気ディスク、光ディスクなどの記憶媒体に記憶され、1台のコンピュータ機器(パーソナルコンピュータ、サーバー、またはルータなどのようなネットワーク通信機器であってもよい)に本発明の各実施例または実施例のある部分に記載の方法を実行させるための若干の命令を含む。
本明細書の各実施例に対して漸進方式で説明し、各実施例の間の同様または類似の部分について、互いに参照すればよく、各実施例は主に他の実施例との相違点を説明する。特に、方法実施例及び機器実施例にとって、基本的にシステム実施例に類似するから、その説明が簡単であり、関連するところは、システム実施例の一部の説明を参照すればよい。以上に記載の機器及びシステムの実施例は、ただ例示的なものにすぎず、分離部材として説明されたモジュールは、物理的に分離されたものでも、分離されていないものであってもよい。モジュールとして表示された部材は、物理的なモジュールであっても、そうでなくてもよい。即ち、一つの箇所に配置されてもよく、複数のネットワークユニットに分布されもよい。実際の必要に応じてその中の一部又は全部のモジュールを選択して本実例案の目的を実現できる。当業者は進歩性に値する労働を払わず、理解、且つ実施することができる。
以上は本発明の好適な実施形態であり、本発明の保護範囲を限定しない。当業者にとって、本発明から逸脱しない前提で、若干の改善及び修飾を行ってもよく、これらの改善及び修飾も本発明の保護範囲に該当する。

Claims (16)

  1. 車両特徴の取得方法であって、
    車両が含まれる処理対象画像を取得するステップと、
    前記処理対象画像を認識することで、前記車両の特徴要素を取得するステップであって、前記特徴要素は側面要素及び車端部の要素を含み、前記車端部は車頭又は車尾であるステップと、
    前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両の側面領域と車端部の領域とを確定するステップと、
    前記側面領域に基づき側面の領域特徴を取得し、前記車端部の領域に基づき車端部の領域特徴を取得するステップと、を含むことを特徴とする方法。
  2. 前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両の側面領域と車端部の領域とを確定する前記ステップは、
    前記処理対象画像から、前記車両が所在する車両領域を確定するステップと、
    前記側面要素に近接する車端部の要素と、前記車端部の要素に近接する側面要素との前記処理対象画像における位置に基づき、前記側面領域と前記車端部の領域との境目を確定するステップと、
    前記境目、及び前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両領域から、前記側面領域及び前記車端部の領域を確定するステップと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記方法はさらに、
    前記車端部の領域特徴、前記側面の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と、前記車両を撮影することで前記処理対象画像を取得するための画像撮影装置との相対位置を確定するステップを含むことを特徴とする請求項1に記載の方法。
  4. 前記車端部の領域特徴、前記側面の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と画像撮影装置との相対位置を確定する前記ステップは、
    前記車端部の領域及び前記側面領域における、前記画像撮影装置に向かう領域をターゲット領域に確定するステップと、
    前記ターゲット領域の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像撮影装置との相対位置を確定するステップとを含むことを特徴とする請求項3に記載の方法。
  5. 前記車端部の領域特徴、前記側面の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像取得装置との相対位置を確定する前記ステップは、
    前記車端部の領域と前記側面領域との境目、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像撮影装置との相対位置を確定するステップを含むことを特徴とする請求項3に記載の方法。
  6. 前記側面の領域特徴は、前記側面領域の頂点、前記側面領域の中心点又は前記側面領域の辺の中間点の前記処理対象画像における位置を含み、前記車端部の領域特徴は、前記車端部の領域の頂点、前記車端部の領域の中心点又は前記車端部の領域の辺の中間点の前記処理対象画像における位置を含むことを特徴とする請求項1〜5のいずれか1項に記載の方法。
  7. 前記処理対象画像を認識することで、前記車両の特徴要素を取得する前記ステップは、
    前記処理対象画像で認識することで、前記車両が所在する車両領域を確定するステップと、
    前記処理対象画像から前記車両領域により形成された車両画像を切り取るステップと、
    前記車両画像を認識することで、前記車両の特徴要素を確定するステップとを含むことを特徴とする請求項1〜5のいずれか1項に記載の方法。
  8. 前記車頭の要素は、フロントランプ、フロントウィンドウ、バンパ及びフロントナンバープレートのうちの1つまたは複数を含み、前記車尾の要素は、リアランプ、リアウインドウ及びリアナンバープレートのうちの1つまたは複数を含み、前記側面要素は、車輪、サイドウィンドウ、バックミラー及びドアのうちの1つまたは複数を含むことを特徴とする請求項1〜5のいずれか1項に記載の方法。
  9. 車両特徴の取得装置であって、
    車両が含まれる処理対象画像を取得するための画像取得ユニットと、
    前記処理対象画像を認識することで、前記車両の特徴要素を取得するための画像認識ユニットあって、前記特徴要素は側面要素及び車端部の要素を含み、前記車端部は車頭又は車尾である、画像認識ユニットと、
    前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両の側面領域と車端部の領域とを確定するための領域確定ユニットと、
    前記側面領域に基づき側面の領域特徴を取得し、前記車端部の領域に基づき車端部の領域特徴を取得するための特徴取得ユニットとを含むことを特徴とする装置。
  10. 前記領域確定ユニットは、
    前記処理対象画像から、前記車両が所在する車両領域を確定するための車両領域確定ユニットと、
    前記側面要素に近接する車端部の要素と、前記車端部の要素に近接する側面要素との前記処理対象画像における位置に基づき、前記側面領域と前記車端部の領域との境目を確定するための境目確定ユニットと、
    前記境目、及び前記側面要素と前記車端部の要素との前記処理対象画像における位置に基づき、前記車両領域から、前記側面領域及び前記車端部の領域を確定するための領域確定サブユニットとを含むことを特徴とする請求項9に記載の装置。
  11. 前記装置はさらに、
    前記車端部の領域特徴、前記側面の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と、前記車両を撮影することで前記処理対象画像を取得するための画像撮影装置との相対位置を確定するための相対位置確定ユニットを含むことを特徴とする請求項9に記載の装置。
  12. 前記相対位置確定ユニットは、
    前記車端部の領域及び前記側面領域における、前記画像撮影装置に向かう領域をターゲット領域に確定するためのターゲット領域確定ユニットと、
    前記ターゲット領域の領域特徴、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像撮影装置との相対位置を確定するための相対位置確定サブユニットとを含むことを特徴とする請求項11に記載の装置。
  13. 前記相対位置確定ユニットは具体的には、
    前記車端部の領域と前記側面領域との境目、及び前記処理対象画像の撮影パラメータに基づき、前記車両と前記画像撮影装置との相対位置を確定することを特徴とする請求項11に記載の装置。
  14. 前記側面の領域特徴は、前記側面領域の頂点、前記側面領域の中心点又は前記側面領域の辺の中間点の前記処理対象画像における位置を含み、前記車端部の領域特徴は、前記車端部の領域の頂点、前記車端部の領域の中心点又は前記車端部の領域の辺の中間点の前記処理対象画像における位置を含むことを特徴とする請求項9〜13のいずれか1項に記載の装置。
  15. 前記画像認識ユニットは、
    前記処理対象画像で認識することで、前記車両が所在する車両領域を確定するための車両領域認識ユニットと、
    前記処理対象画像から前記車両領域により形成された車両画像を切り取るための車両画像取得ユニットと、
    前記車両画像を認識することで、前記車両の特徴要素を確定するための特徴要素認識ユニットとを含むことを特徴とする請求項9〜13のいずれか1項に記載の装置。
  16. 前記車頭の要素は、フロントランプ、フロントウィンドウ、バンパ及びフロントナンバープレートのうちの1つまたは複数を含み、前記車尾の要素は、リアランプ、リアウインドウ及びリアナンバープレートのうちの1つまたは複数を含み、前記側面要素は、車輪、サイドウィンドウ、バックミラー及びドアのうちの1つまたは複数を含むことを特徴とする請求項9〜13のいずれか1項に記載の装置。
JP2021542238A 2018-09-27 2019-04-26 車両特徴の取得方法及び装置 Active JP7190583B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811132325.X 2018-09-27
CN201811132325.XA CN109389064B (zh) 2018-09-27 2018-09-27 一种车辆特征获取方法及装置
PCT/CN2019/084537 WO2020062856A1 (zh) 2018-09-27 2019-04-26 一种车辆特征获取方法及装置

Publications (2)

Publication Number Publication Date
JP2022501756A true JP2022501756A (ja) 2022-01-06
JP7190583B2 JP7190583B2 (ja) 2022-12-15

Family

ID=65418211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021542238A Active JP7190583B2 (ja) 2018-09-27 2019-04-26 車両特徴の取得方法及び装置

Country Status (5)

Country Link
US (1) US12002269B2 (ja)
EP (1) EP3859593A4 (ja)
JP (1) JP7190583B2 (ja)
CN (1) CN109389064B (ja)
WO (1) WO2020062856A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389064B (zh) 2018-09-27 2021-02-23 东软睿驰汽车技术(沈阳)有限公司 一种车辆特征获取方法及装置
CN110059566A (zh) * 2019-03-20 2019-07-26 东软睿驰汽车技术(沈阳)有限公司 一种图像识别方法及装置
CN110084230B (zh) * 2019-04-11 2021-05-28 北京百度网讯科技有限公司 基于图像的车身方向检测方法和装置
CN110765929A (zh) * 2019-10-21 2020-02-07 东软睿驰汽车技术(沈阳)有限公司 一种车辆障碍物检测方法及装置
CN110796078A (zh) * 2019-10-29 2020-02-14 上海眼控科技股份有限公司 车辆的灯光检测方法、装置、电子设备及可读存储介质
CN110765961A (zh) * 2019-10-29 2020-02-07 上海眼控科技股份有限公司 车辆制动状态判断方法、装置、计算机设备和存储介质
CN111556362A (zh) * 2020-03-19 2020-08-18 上海万面智能科技有限公司 一种车身广告植入方法、装置、电子设备及存储介质
CN111461027A (zh) * 2020-04-02 2020-07-28 北京爱笔科技有限公司 一种车辆检测方法及装置、车牌识别方法及装置
CN111461026B (zh) * 2020-04-02 2024-03-12 北京爱笔科技有限公司 车辆姿态识别方法、停车场内车辆状态的检测方法及装置
CN111476169B (zh) * 2020-04-08 2023-11-07 智慧互通科技股份有限公司 一种基于视频帧的复杂场景路侧停车行为识别方法
KR20220037531A (ko) * 2020-09-17 2022-03-25 현대자동차주식회사 차량 및 그 제어방법
CN113436257B (zh) * 2021-06-09 2023-02-10 同济大学 一种基于道路几何信息的车辆位置实时检测方法
CN114323583B (zh) * 2021-12-21 2024-06-04 广汽本田汽车有限公司 一种车辆灯光检测方法、装置、设备及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055597A (ja) * 2016-09-30 2018-04-05 株式会社東芝 車種判別装置および車種判別方法
CN108241822A (zh) * 2016-12-23 2018-07-03 杭州海康威视数字技术股份有限公司 一种车辆类型的识别方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021379B (zh) 2014-06-09 2017-04-19 北京航空航天大学 一种车辆辅助驾驶中车辆间距的计算方法
US10576974B2 (en) 2015-06-29 2020-03-03 The Regents Of The University Of California Multiple-parts based vehicle detection integrated with lane detection for improved computational efficiency and robustness
CN106023220B (zh) * 2016-05-26 2018-10-19 史方 一种基于深度学习的车辆外观部件图像分割方法
KR20180061695A (ko) 2016-11-30 2018-06-08 주식회사 만도 휠 검출을 통한 차량 옆면 인식 방법 및 장치
CN107256633B (zh) 2017-05-09 2020-03-31 西安理工大学 一种基于单目摄像头三维估计的车型分类方法
CN108170708B (zh) * 2017-11-23 2021-03-30 杭州大搜车汽车服务有限公司 一种车辆实体识别方法、电子设备、存储介质、系统
CN108388871B (zh) 2018-02-28 2021-05-18 中国计量大学 一种基于车身回归的车辆检测方法
CN108364010B (zh) * 2018-03-08 2022-03-22 广东工业大学 一种车牌识别方法、装置、设备及计算机可读存储介质
CN108491782B (zh) 2018-03-16 2020-09-08 重庆大学 一种基于行车图像采集的车辆识别方法
CN108509907B (zh) * 2018-03-30 2022-03-15 北京市商汤科技开发有限公司 车灯检测方法、实现智能驾驶的方法、装置、介质及设备
US10176405B1 (en) * 2018-06-18 2019-01-08 Inception Institute Of Artificial Intelligence Vehicle re-identification techniques using neural networks for image analysis, viewpoint-aware pattern recognition, and generation of multi- view vehicle representations
US20200020117A1 (en) * 2018-07-16 2020-01-16 Ford Global Technologies, Llc Pose estimation
CN109389064B (zh) * 2018-09-27 2021-02-23 东软睿驰汽车技术(沈阳)有限公司 一种车辆特征获取方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055597A (ja) * 2016-09-30 2018-04-05 株式会社東芝 車種判別装置および車種判別方法
CN108241822A (zh) * 2016-12-23 2018-07-03 杭州海康威视数字技术股份有限公司 一种车辆类型的识别方法及装置

Also Published As

Publication number Publication date
EP3859593A1 (en) 2021-08-04
CN109389064A (zh) 2019-02-26
CN109389064B (zh) 2021-02-23
US12002269B2 (en) 2024-06-04
EP3859593A4 (en) 2022-06-29
JP7190583B2 (ja) 2022-12-15
WO2020062856A1 (zh) 2020-04-02
US20220004784A1 (en) 2022-01-06

Similar Documents

Publication Publication Date Title
JP2022501756A (ja) 車両特徴の取得方法及び装置
EP3566903B1 (en) Method and apparatus for vehicle position detection
US10713507B2 (en) Object detecting apparatus, object detecting method, and computer program product
CN107577988B (zh) 实现侧方车辆定位的方法、装置及存储介质、程序产品
US10860870B2 (en) Object detecting apparatus, object detecting method, and computer program product
US11688183B2 (en) System and method of determining a curve
US10896310B2 (en) Image processing device, image processing system, and image processing method
EP3296923B1 (en) A method of detecting an overtaking vehicle, related processing system, overtaking vehicle detection system and vehicle
JP7301138B2 (ja) ポットホール検出システム
Gavrila et al. Real time vision for intelligent vehicles
JP2020080550A (ja) 車載カメラ・システム、並びに画像処理装置及び画像処理方法
CN112639821A (zh) 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆
KR102089343B1 (ko) 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법
CN108491782A (zh) 一种基于行车图像采集的车辆识别方法
CN113256739B (zh) 车载bsd摄像头的自标定方法、设备和存储介质
CN110008891B (zh) 一种行人检测定位方法、装置、车载计算设备及存储介质
CN109895697B (zh) 一种行车辅助提示系统及方法
WO2022062377A1 (zh) 一种相机的标定方法、标定装置及电子设备
CN113838060A (zh) 用于自主车辆的感知系统
CN109703556B (zh) 驾驶辅助方法及设备
US20240103525A1 (en) Vehicle and control method thereof
US11461922B2 (en) Depth estimation in images obtained from an autonomous vehicle camera
KR102039814B1 (ko) 측후방 차량 검출 방법 및 그 장치
KR20230128202A (ko) 차량 영상 처리 장치 및 그 방법
CN116824536A (zh) 一种基于车载环视的障碍物识别方法、装置及设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221205

R150 Certificate of patent or registration of utility model

Ref document number: 7190583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150