JP2022043238A - 車両駐車検出方法、システム、電子機器及び記憶媒体 - Google Patents

車両駐車検出方法、システム、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP2022043238A
JP2022043238A JP2021212251A JP2021212251A JP2022043238A JP 2022043238 A JP2022043238 A JP 2022043238A JP 2021212251 A JP2021212251 A JP 2021212251A JP 2021212251 A JP2021212251 A JP 2021212251A JP 2022043238 A JP2022043238 A JP 2022043238A
Authority
JP
Japan
Prior art keywords
distance
vehicle
feature information
carburetion
parking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021212251A
Other languages
English (en)
Inventor
シュツィ リュウ,
Xiuzhi Liu
シャオロン ワン,
Xiaolong Wang
シェンツァオ タオ,
Shengzhao Tao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2022043238A publication Critical patent/JP2022043238A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Figure 2022043238000001
【課題】車両駐車の自動定量測定を実現し、人的資源を節約し、車両駐車検出の効率を向上させる車両駐車検出方法を提供する。
【解決手段】第1距離センサによって車両とサイト内の参照オブジェクトとの間の第1横方向距離を取得し、第2距離センサによって前記車両と前記参照オブジェクトとの間の第2横方向距離を取得し、第1カメラによって収集された第1シナリオ画像を取得し、前記第1シナリオ画像に基づいて第1縦方向距離を取得し、前記第1縦方向距離とは、前記車両の第1マークラインと前記サイトの第1駐車ラインとの間の距離を指し、前記第1横方向距離、前記第2横方向距離及び前記第1縦方向距離に基づいて、前記車両が前記サイト内のターゲット位置に駐車されているか否かを決定する。
【選択図】図1

Description

本出願は、人工知能技術の分野における深層学習、自動運転技術の分野に関し、特に車両駐車検出方法、システム、記憶媒体、電子機器及びコンピュータプログラムに関する。
自動運転、運転免許試験などのシナリオでは、いずれも車両の駐車結果を検出する必要があり、通常の検出方案は手動測定またはセンサによって、車両が駐車スペースの境界内にあるか否かを検出することである。
従来技術では、手動測定を使用することは、人的資源に対する需要が高く、検出効率が低い。センサを使用して車両が駐車スペースの境界内にあるか否かを検出することは、車両に対して定性的な駐車検出のみを実行でき、車両に対して定量的な駐車検出を実行することはできない。
本出願は、車両駐車検出のための方法、システム、機器及び記憶媒体を提供する。
本出願の第1態様によれば、車両駐車検出方法を提供し、第1距離センサによって前記車両とサイト内の参照オブジェクトとの間の第1横方向距離を取得するステップと、第2距離センサによって前記車両と前記参照オブジェクトとの間の第2横方向距離を取得するステップと、第1カメラによって収集された第1シナリオ画像を取得し、前記第1シナリオ画像に基づいて第1縦方向距離を取得するステップであって、前記第1縦方向距離とは、前記車両の第1マークラインと前記サイトの第1駐車ラインとの間の距離を指すステップと、前記第1横方向距離、前記第2横方向距離及び前記第1縦方向距離に基づいて、前記車両が前記サイト内のターゲット位置に駐車されているか否かを決定するステップと、を含む。
本出願の第2態様によれば、車両駐車検出システムを提供し、第1距離センサによって前記車両とサイト内の参照オブジェクトとの間の第1横方向距離を取得し、第2距離センサによって前記車両と前記参照オブジェクトとの間の第2横方向距離を取得するための横方向測距モジュールと、第1カメラによって収集された第1シナリオ画像を取得し、前記第1シナリオ画像に基づいて第1縦方向距離を取得するための第1縦方向測距モジュールであって、前記第1縦方向距離とは、前記車両の第1マークラインと前記サイトの第1駐車ラインとの間の距離を指す第1縦方向測距モジュールと、前記横方向測距モジュールから送信された第1横方向距離及び第2横方向距離を受信し、前記縦方向測距モジュールから送信された第1縦方向距離を受信し、前記第1横方向距離、前記第2横方向距離及び前記第1縦方向距離に基づいて、前記車両が前記サイト内のターゲット位置に駐車されているか否かを決定するための制御モジュールと、を備える。
本出願の第3態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、該少なくとも1つのプロセッサと通信可能に接続されるメモリと、を備え、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが本出願の一態様に記載の車両駐車検出方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
本出願の第4態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令が、コンピュータに本出願の一態様に記載の車両駐車検出方法を実行させる。
本出願の第5態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサによって実行される場合、第1態様に記載の車両駐車検出方法を実現する。
本出願の技術案によれば、車両駐車の自動定量測定を実現し、人的資源を節約し、車両駐車検出の効率を向上させる。
なお、この部分に記載されている内容は、本出願の実施例の肝心または重要な特徴を特定することを意図しておらず、本出願の範囲を限定することも意図していない。本出願の他の特徴は、以下の説明を通して容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本出願を限定するものではない。
本出願の一実施例に係る車両駐車検出方法のフローチャートである。 本出願の第2実施例に係る車両駐車検出方法のフローチャートである。 本出願のいくつかの実施例に係る車両駐車検出方法のフローチャートである。 本出願の第3実施例に係る車両駐車検出方法のフローチャートである。 本出願の一実施例に係る車両駐車検出方法の準備段階の概略図である。 本出願の一実施例に係る車両駐車検出方法の測定段階の概略図である。 本出願の第4実施例に係る車両駐車検出方法のフローチャートである。 本出願のいくつかの実施例において横方向距離をリアルタイムで監視するフローチャートである。 本出願の一実施例に係る車両駐車検出システムの構造ブロック図である。 本出願の別の実施例に係る車両駐車検出システムの構造ブロック図である。 本出願の別の実施例に係る車両駐車検出システムの構造ブロック図である。 本出願の別の実施例に係る車両駐車検出システムの構造ブロック図である。 本出願の別の実施例に係る車両駐車検出システムの構造ブロック図である。 本出願の別の実施例に係る車両駐車検出システムの構造ブロック図である。 本出願の別の実施例に係る車両駐車検出システムの構造ブロック図である。 本出願の実施例に係る車両駐車検出方法を実現するための電子機器のブロック図である。
以下、図面と組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項を含んでおり、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確及び簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
本出願は、車両駐車検出方法を提供し、本方法の車両駐車検出技術案は自動的かつ定量的に車両駐車を検出でき、人的資源を節約し、車両駐車検出の効率を向上させる。図1は本出願の一実施例に係る車両駐車検出方法のフローチャートである。なお、本出願の実施例に係る車両駐車検出方法は、本出願の実施例の電子機器に適用できる。図1に示すように、当該車両駐車検出方法は、以下のステップ101~104を含むことができる。
ステップ101において、第1距離センサによって車両とサイト内の参照オブジェクトとの間の第1横方向距離を取得する。
なお、車両駐車を検出する場合、データ測定が必要であり、検出の指標は横方向距離と縦方向距離との両方を含むことができる。ここで、横方向は車両の長手方向にほぼ垂直な方向であってもよく、縦方向は車両の長手方向にほぼ平行な方向であってもよい。
本出願のいくつかの実施例では、横方向距離は車両とサイト内の参照オブジェクトとの間の距離であってもよい。サイト内の参照オブジェクトは様々な種類があり、具体的なアプリケーションシナリオに応じて選択されてもよく、本実施例では限定されず、例えば、路肩、サイトの傍の車両などである。
サイト内の参照オブジェクトと車両の距離は第1距離センサによって測定して取得されることができ、異なるコスト予算とアプリケーションシナリオに基づいて、異なる第1距離センサを選択でき、本出願では限定されず、例えば、レーザー距離計、温度補償付き超音波センサ、及び以上の2種類のセンサの改善である。ここで、温度補償付き超音波センサの測定範囲が1つの面であり、参照オブジェクトに対する要件を低減させ、外部温度に基づいて測定データを修正して、測定データをより確実にすることができる。
なお、当該第1距離センサの固定位置は、異なる車両、環境に応じて調整されてもよく、本実施例では限定されず、当該固定位置は、ホイールハブ上、車体上、参照オブジェクト上のいずれか1つを含むが、これらに限定されない。
なお、本出願のいくつかの実施例では、第1横方向距離の取得方法は複数あって、以下の方法1及び方法2を含むが、これらに限定されない。
方法1において、第1センサによって取得されたデータは、第1横方向距離である。
方法2において、第1距離センサによって車両と参照オブジェクトとの間の距離に対して複数回サンプリングして、複数回のサンプリング値を取得し、複数回のサンプリング値のうちの最大値と最小値をフィルタリングし、フィルタリングされた残りのサンプリング値を計算し、取得された計算結果を前記第1横方向距離とする。
当該処理方法は、ハードウェアパルス干渉によって生成された不合理なデータをフィルタリングして、テストのデータをより正確で確実にする。選択的に、第1距離センサは連続して10回サンプリングし、バブルソートアルゴリズムによって10回サンプリングした結果を大きさ順にソートして、最大値と最小値を1つ除去し、残りの8つのパンプリングデータに対して算術平均値を取り、当該平均値は今回測定された第1横方向距離である。
ステップ102において、第2距離センサによって車両と参照オブジェクトとの間の第2横方向距離を取得する。
なお、第1横方向距離だけでは、現在車両が横方向距離において要件を満すか否かが判断できない。他の位置に位置した車両と参照オブジェクトとの間の距離を取得する必要があり、当該距離は第2横方向距離と呼ばれてもよく、第2距離センサによって第2横方向距離を取得することができる。
本出願のいくつかの実施例では、第1距離センサと同様に、アプリケーションシナリオによって、第2距離センサの種類、固定位置及び参照オブジェクトの種類は異なる選択肢があることができ、本実施例は限定しない。第1横方向距離と同様に、第2横方向距離は第2距離センサによって直接サンプリングして取得されてもよく、第2距離センサによって複数回サンプリングして、複数回のサンプリングデータを処理して取得されてもよい。
ステップ103において、第1カメラによって収集された第1シナリオ画像を取得し、第1シナリオ画像に基づいて第1縦方向距離を取得し、第1縦方向距離とは、車両の第1マークラインとサイトの第1駐車ラインとの間の距離を指す。
本出願のいくつかの実施例では、車両上とサイト上にマークすることができる。車両上のマークは第1マークラインと呼ばれてもよく、サイト上のマークは第1駐車ラインと呼ばれてもよい。なお、第1マークラインは車両の実際の縦方向位置をマークするものであり、第1駐車ラインは車両のターゲット縦方向位置をマークするものである。第1縦方向距離は車両の実際の縦方向位置とターゲット縦方向位置との間の距離、すなわち第1マークラインと第1駐車ラインとの間の距離である。なお、第1マークラインと第1駐車ラインの様式は同じであってもよいし、異なってもよい。第1マークラインと第1駐車ラインの様式が異なる場合、具体的なアプリケーションシナリオによって異なる様式を選択でき、本実施例では限定されず、例えば、色が異なる、形が異なることのうちの1つまたは複数である。
第1マークラインと第1駐車ラインについては、第1カメラによって画像収集して、第1シナリオ画像を取得できる。本実施例は前記第1カメラの固定位置に対して限定せず、車両、場所等の状況に応じて選択でき、例えば、車両に固定され、サイトに固定される。
画像処理技術により、第1シナリオ画像から第1マークライン及び第1駐車ラインを抽出することができる。カメラ測距技術により、第1マークラインと第1駐車ラインの縦方向の距離を取得でき、当該距離は第1縦方向距離である。前記カメラ測距技術は異なるシナリオに応じて選択されることができ、本実施例では限定されず、例えば、単眼測距技術、双眼測距技術のうちのいずれかである。
ステップ104において、第1横方向距離、第2横方向距離及び第1縦方向距離に基づいて、車両がサイト内のターゲット位置に駐車されているか否かを決定する。
なお、上記ステップにより、第1横方向距離、第2横方向距離及び第1縦方向距離がすでに取得されており、上記パラメータに基づいて、車両のサイト内の参照オブジェクトに対する位置を決定することができる。これによって車両がサイト内のターゲット位置に駐車されているか否かを決定する。
本出願のいくつかの実施例では、横方向距離閾値と縦方向距離閾値という2つの閾値をそれぞれ予め設定することができる。この2つの閾値の大きさは、車両の大きさ及び駐車精度の異なる要件に応じて調整されてもよく、第1横方向距離及び第2横方向距離が横方向距離閾値を満たし、かつ第1縦方向距離が第1縦方向閾値を満たす場合、車両がサイト内のターゲット位置に駐車されていると考えられることができる。第1横方向距離、第2横方向距離、及び第1縦方向距離のうちのいずれかが対応する閾値を満たさない場合、車両がサイト内のターゲット位置に駐車されていないと考えられることができる。
なお、本出願の実施例に係る車両検出方法は、異なるシナリオに適用でき、以下の3つのシナリオを含むが、これらに限定されない。
シナリオ1において、自動運転車両の駐車性能の検出。
シナリオ2において、手動駐車の場合、車両駐車結果の検出。
シナリオ3において、車両の駐車位置が障害者の乗車条件を満たすか否かを判断する。
本出願の実施例に係る車両駐車検出方法によれば、距離センサにより、第1横方向距離及び第2横方向距離を取得する。カメラにより、第1マークライン及び第1駐車ラインを介して、第1縦方向距離を取得する。第1横方向距離、第2横方向距離及び第1縦方向距離に基づいて、前記車両がターゲット位置にあるか否かを決定することができる。
本方法は、車両がターゲット位置にあるか否かという問題を、上記3つの指標に対する判断に簡略化し、第1縦方向距離の測定という問題を、第1マークラインと駐車ラインとの間の距離の測定に簡略化する。検出精度を強化するとともに、測定データの数を簡略化し、データの測定の難しさを低減し、自動定量標準化の測定を実現している。また、手動で測定する必要がなく、人的資源を節約するとともに、車両駐車検出の効率を向上させる。
本出願の第2実施例では、第1実施例を基に、第1縦方向距離を取得する時、第1キャブレーション方形図を介して第1縦方向距離を決定することができる。図1の車両駐車検出方法に基づいて実施例2で当該方法を具体的に説明できる。図2によって具体的に説明でき、図2は、本出願の第2実施例に係る車両駐車検出方法のフローチャートであり、図2に示すように、図1のステップ103は、ステップ201~205であってもよい。
ステップ201において、第1カメラによって収集された第1シナリオ画像を取得し、第1シナリオ画像に対して特徴抽出して、第1シナリオ画像の第1特徴情報を取得する。
本出願のいくつかの実施例では、当該第1カメラは単眼カメラであってもよい、当該カメラによって取得された画像は第1シナリオ画像である。なお、アプリケーションシナリオによって、異なる深層学習モデルを予め設定でき、当該深層学習モデルは、畳み込みニューラルネットワーク、領域ベースの完全畳み込みネットワークのいずれかを含むが、これらに限定されない。異なる外部環境に基づいて、第1カメラによって画像を取得し、取得された画像を使用して当該予め設定されたモデルをトレーニングすることができる。
なお、車両駐車はアウトドアシナリオで発生することが多く、異なる外部環境で取得された画像を使用して予め設定されたモデルをトレーニングすることにより、当該モデルが異なる照明、天気条件で第1マークライン、第1駐車ライン及び第1キャブレーション方形図を認識させることができる。
トレーニングされた予め設定されたモデルを使用して第1シナリオ画像に対して特徴抽出して、第1シナリオ画像に対応する第1特徴情報を取得することができる。
ステップ202において、第1特徴情報に第1マークライン、第1駐車ライン及び第1キャブレーション方形図にそれぞれ対応する特徴が含まれるか否かを検出する。
第1縦方向距離は、第1マークライン、第1駐車ライン及び第1キャブレーション方形図に基づいて取得され、第1シナリオ画像には第1マークライン、第1駐車ライン及び第1キャブレーション方形図が含まれる必要がある。本出願のいくつかの実施例では、第1特徴情報に第1マークライン、第1駐車ライン及び第1キャブレーション方形図にそれぞれ対応する特徴が含まれるか否かを検出することにより、第1シナリオ画像に第1マークライン、第1駐車ライン及び第1キャブレーション方形図が含まれるか否かを決定することができる。
本出願のいくつかの実施例では、第1特徴情報に第1マークラインの特徴、第1駐車ラインの特徴、及び第1キャブレーション方形図の特徴のうちの少なくともいずれか1つが含まれない場合、当該車両がサイト内のターゲット位置に駐車されていないと決定する。いくつかの場合では、車両がターゲット位置に駐車され、第1特徴の情報が依然として完全ではない場合、当該車両駐車システムをデバッグする必要がある。
ステップ203において、第1特徴情報に第1マークライン、第1駐車ライン及び第1キャブレーション方形図にそれぞれ対応する特徴が含まれることに応答して、第1特徴情報に基づいて第1キャブレーション方形図の辺長ピクセル数を取得する。
本出願のいくつかの実施例では、第1特徴情報に第1マークライン、第1駐車ライン及び第1キャブレーション方形図にそれぞれ対応する特徴が含まれる場合、第1特徴情報における第1キャブレーション方形図に対応する特徴に基づいて、第1シナリオ画像における第1キャブレーション方形図の位置を取得し、これによって第1シナリオ画像における第1キャブレーション方形図の辺長ピクセル数を取得することができる。
ステップ204において、第1特徴情報に基づいて、第1マークラインと第1駐車ラインとの間の垂直ピクセル数を取得する。
本出願のいくつかの実施例では、第1特徴情報における第1マークライン及び第1駐車ラインに対応する特徴に基づいて、第1シナリオ画像における第1マークライン及び第1駐車ラインの位置を取得し、これによって第1シナリオ画像における第1マークラインと第1駐車ラインとの間の垂直ピクセル数を取得することができる。
ステップ205において、第1キャブレーション方形図の辺長の予め設定された長さ、第1キャブレーション方形図の辺長ピクセル数及び垂直ピクセル数に基づいて、第1縦方向距離を取得し、ここで、第1縦方向距離とは、車両の第1マークラインとサイトの第1駐車ラインとの間の距離を指す。
なお、本出願のいくつかの実施例では、第1マークラインとサイトの第1駐車ラインとの間の縦方向距離は第1縦方向距離と呼ばれてもよく、当該第1縦方向距離はDと表されてもよい。また、第1キャブレーション方形図の辺長の予め設定された長さはLと表されてもよく、ステップ203によって得られた第1キャブレーション方形図の辺長ピクセル数はBと表されてもよく、ステップ204によって得られた垂直ピクセル数はCと表されてもよい。第1縦方向距離Dに対しては、D/C=L/Bであり、当該式によって第1縦方向距離Dを算出することができる。
本出願のいくつかの実施例では、車両駐車検出のフローは図3に示され、図3は、本出願のいくつかの実施例に係る車両駐車検出方法のフローチャートである。
図3において、横方向距離センサは、第1距離センサと第2距離センサとを含み、縦方向距離センサは、第1カメラを含む。上位機から起動命令を送信して、横方向距離センサと縦方向距離センサを起動させる。
なお、横方向距離センサに対して、横方向距離センサの起動に失敗した場合、上位機が「横方向センサの起動に失敗した」と印刷し、横方向距離センサの起動に成功するまで、上位機が起動命令を再送信する。横方向距離センサの起動に成功する場合、第1距離センサと第2距離センサが距離を測定し、マイクロコントローラがデータ処理を行う。処理されたデータが出力され、上位機が当該データを受信する。
縦方向距離センサに対して、縦方向距離センサの起動に失敗した場合、上位機が「縦方向センサの起動に失敗した」と印刷し、縦方向距離センサの起動に成功するまで、上位機が起動命令を再送信する。縦方向距離センサの起動に成功する場合、シナリオグラフを取得し、画像を事前にデータベースでトレーニングされたニューラルネットワークモデルに入力し、縦方向データを取得する。当該データが出力され、上位機が当該データを受信する。
上位機に対して、横方向データと縦方向データを受信し、当該データをインターフェースに表示し、上位機はデータが合格するか否かを判断する。データが合格する場合、上位機は、「当該組のデータはテストに合格する」と印刷する。データが合格しない場合、上位機は、「当該組のデータはテストに合格しない」と印刷する。データ及びそれに対応する結果は表に保存されることができる。
ここで、上記上位機は本出願の実施例においてデータ処理する電子機器であってもよい。
本出願の実施例に係る車両駐車検出方法によれば、第1シナリオ画像から第1マークライン、第1駐車ライン及び第1キャブレーション方形図を抽出する。第1キャブレーション方形図により、第1シナリオ画像のピクセル数と実際のシナリオの距離との関係を取得する。これによって第1シナリオ画像における第1マークラインと第1駐車ラインとの距離に基づいて、第1縦方向距離を取得する。本方法は、コストが低く、既知のデータと1つのカメラで取得されたデータとによって第1縦方向距離を取得することができ、且つ検出速度が速く、効率が高い。
本出願の第3実施例では、上記実施例を基に、より正確な車両の縦方向距離を取得するために、サイト内に第2キャブレーション方形図を設置し、第2カメラを使用して第2縦方向距離を取得することができる。ステップ401~403をさらに含むことができる。
図4を通じて具体的に説明でき、図4は、本出願の第3実施例に係る車両駐車検出方法のフローチャートであり、以下のステップ401~403を含む。
ステップ401において、第2カメラによって収集された第2シナリオ画像を取得する。
本出願のいくつかの実施例では、当該第2カメラは単眼カメラであってもよく、当該カメラによって取得された画像は第2シナリオ画像である。
ステップ402において、第2シナリオ画像に基づいて第2縦方向距離を取得し、ここで、第2縦方向距離とは、車両の第2マークラインとサイトの第2駐車ラインとの間の距離を指す。
本出願のいくつかの実施例では、第1マークライン及び第1駐車ラインに加えて、車両に第2マークラインをマークし、サイトに第2駐車ラインをマークすることができる。同様に、第2マークラインは車両の実際の縦方向位置をマークするものであり、第2駐車ラインは車両のターゲット縦方向の位置をマークするものである。なお、第1マークラインが第1駐車ラインに対応し、第2マークラインが第2駐車ラインに対応する。
画像処理技術により、第2シナリオ画像から第2マークライン及び第2駐車ラインを抽出することができる。カメラ測距技術により、第2マークラインと第2駐車ラインとの縦方向の距離を取得でき、当該距離は第2縦方向距離である。前記カメラ測距技術は異なるシナリオに応じて選択されることができ、本実施例では限定されず、例えば、単眼測距技術、双眼測距技術のうちのいずれかである。
本出願のいくつかの実施例では、第2シナリオ画像に基づいて第2縦方向距離を取得するステップは以下のステップ1~5を含むことができる。
ステップ1において、第2シナリオ画像に対して特徴抽出し、第2シナリオ画像の第2特徴情報を取得する。
本出願のいくつかの実施例では、アプリケーションシナリオによって、異なる深層学習モデルを予め設定することができ、畳み込みニューラルネットワーク、領域ベースの完全畳み込みネットワークのうちのいずれかを含むが、これらに限定されない。異なる外部環境に基づいて、第2カメラによって画像を取得し、取得された画像を使用して当該予め設定されたモデルをトレーニングすることができる。
なお、第2マークラインと第1マークラインの様式が同じであり、第2駐車ラインと第2マークラインの様式が同じである場合、当該第2特徴情報を抽出するモデルと第1特徴情報を抽出するモデルは同じモデルであってもよい。
トレーニングされた予め設定されたモデルを使用して第2シナリオ画像に対して特徴抽出し、第2シナリオ画像に対応する第2特徴情報を取得することができる。
ステップ2において、第2特徴情報に第2マークライン、第2駐車ライン及び第2キャブレーション方形図にそれぞれ対応する特徴が含まれるか否かを検出する。
第2縦方向距離は第2マークライン、第2駐車ライン及び第2キャブレーション方形図に基づいて取得され、第2シナリオ画像には第2マークライン、第2駐車ライン及び第2キャブレーション方形図が含まれる必要がある。本出願のいくつかの実施例では、第2特徴情報に第2マークライン、第2駐車ライン及び第2キャブレーション方形図にそれぞれ対応する特徴が含まれるか否かを検出することにより、第2シナリオ画像に第2マークライン、第2駐車ライン及び第2キャブレーション方形図が含まれるか否かを決定することができる。
ステップ3において、第2特徴情報に第2マークライン、第2駐車ライン及び第2キャブレーション方形図にそれぞれ対応する特徴が含まれることに応答して、第2特徴情報に基づいて第2キャブレーション方形図の辺長ピクセル数を取得する。
本出願のいくつかの実施例では、第2特徴情報に第2マークライン、第2駐車ライン及び第2キャブレーション方形図にそれぞれ対応する特徴が含まれる場合、第2特徴情報における第2キャブレーション方形図に対応する特徴に基づいて、第2シナリオ画像における第2キャブレーション方形図の位置を取得し、これによって第2シナリオ画像における第2キャブレーション方形図の辺長ピクセル数を取得することができる。
ステップ4において、第2特徴情報に基づいて、第2マークラインと第2駐車ラインとの間の垂直ピクセル数を取得する。
本出願のいくつかの実施例では、第2特徴情報における第2マークライン及び第2駐車ラインに対応する特徴に基づいて、第2シナリオ画像における第2マークライン及び第2駐車ラインの位置を取得し、これによって第2シナリオ画像における第2マークラインと第2駐車ラインとの間の垂直ピクセル数を取得することができる。
ステップ5において、第2キャブレーション方形図の辺長の予め設定された長さ、第2キャブレーション方形図の辺長ピクセル数及び垂直ピクセル数に基づいて、第2縦方向距離を取得する。
なお、本出願のいくつかの実施例では、第2マークラインとサイトの第2駐車ラインとの間の縦方向距離は第2縦方向距離と呼ばれてもよく、当該第2縦方向距離はDと表されてもよい。また、第2キャブレーション方形図の辺長の予め設定された長さはL’と表されてもよく、ステップ3によって得られた第2キャブレーション方形図の辺長ピクセル数はB’と表示されてもよく、ステップ4によって得られた垂直ピクセル数はC’と表示されてもよい。第2縦方向距離Dに対しては、D/C’=L’/B’である。
ステップ403において、第1横方向距離、第2横方向距離、第1縦方向距離及び第2縦方向距離に基づいて、車両がサイト内のターゲット位置に駐車されているか否かを決定する。
なお、上記ステップにより、第1横方向距離、第2横方向距離、第1縦方向距離及び第2横方向距離がすでに取得されており、上記パラメータに基づいて、車両のサイト内の参照オブジェクトに対する位置を決定することができる。これによって車両がサイト内のターゲット位置に駐車されているか否かを決定する。
本出願のいくつかの実施例では、車両駐車検出方法の準備段階は、図5aに示され、図5aは、本出願の一実施例に係る車両駐車検出方法の準備段階の概略図である。
図5aでは、第1カメラ(図示せず)と第2カメラ(図示せず)が車両に固定されており、車両のフロントドアと車両のバックドアにはそれぞれ紫色の第1マークライン501と第2マークライン502が貼られており、サイト内の対応する位置にはそれぞれ青色の第1駐車ライン503と第2駐車ライン504が貼られており、サイト内にはオレンジ色の第1キャブレーション方形図505と第2キャブレーション方形図506がさらに貼られている。ここで、これらのマークされた位置は既知であり、第1キャブレーション方形図505、及び第2キャブレーション方形図506は第1駐車ライン503と第2駐車ライン504との間の位置に貼られている。また、第1マークライン501が第1駐車ライン503に対応し、第2マークライン502が第2駐車ライン504に対応する。なお、第1カメラによって収集された第1シナリオ画像は、破線枠509に示す範囲を含むことができ、図5aに示すように、破線枠509は、第1マークライン501、第1駐車ライン503及び第1キャブレーション方形図505を含む。第2カメラによって収集された第2シナリオ画像は、破線枠510に示す範囲を含むことができ、図5aに示すように、破線枠510は、第2マークライン502、第2駐車ライン504及び第2キャブレーション方形図506を含む。
図5aでは、第1距離センサ(図示せず)と第2距離センサ(図示せず)がさらに含まれ、当該センサは超音波センサであってもよく、それぞれ車両のフロントハブ507とバックハブ508に固定されている。
本出願のいくつかの実施例では、車両駐車検出方法の測定段階は、図5bに示され、図5bは本出願の一実施例に係る車両駐車検出方法の測定段階の概略図である。
図5bでは、第1カメラを使用して第1シナリオ画像を収集し、第2カメラを使用して第2シナリオ画像を収集し、第1シナリオ画像及び第2シナリオ画像に対して処理することができ、当該画像を処理することによって第1縦方向距離D及び第2縦方向距離Dを取得でき、当該第1縦方向距離及び第2縦方向距離が上位機に伝送される。
図5bでは、また第1距離センサを使用してフロントハブと参照オブジェクト511との間の第1横方向距離Dを取得し、第2距離センサを使用してバックハブと参照オブジェクト511との間の第2横方向距離Dを取得することもできる。当該データはシングルチップマイクロコンピュータによって処理され、2.4G無線通信で伝送されて、上位機に送信されることができる。
本出願のいくつかの実施例では、駐車検出レポートを生成することもでき、当該レポートはステップ1及びステップ2によって生成されることができる、
ステップ1において、車両の駐車検出結果を取得する。
なお、横方向距離と縦方向距離が同時に要件を満たす場合、駐車検査結果は車両がターゲット位置に駐車されていることである。横方向距離および/または縦方向距離が要件を満たさない場合、駐車検査結果は車両がターゲット位置に駐車されていないことである。駐車検出結果を取得する方法は様々であり、本実施例では限定されず、例えば、有線伝送で取得し、無線伝送で取得する。
図5bでは、上位機を使用して2.4G無線通信伝送により車両の駐車検出結果を取得し、当該結果を表示させることができる。
ステップ2において、第1横方向距離、第2横方向距離、第1縦方向距離及び前記駐車検出結果に基づいて、駐車検出レポートを生成する。
本出願のいくつかの実施例では、第1横方向距離、第2横方向距離、第1縦方向距離及びそれに対応する駐車検出結果に基づいて、駐車検出レポートを生成することができる。
図5bでは、データ及び対応する駐車検出結果を表の指定された位置に保存し、当該表に基づいて駐車検出レポートを生成することができる。当該レポートにより、当該車両の駐車の包括的なパフォーマンスを直感的かつ定量的に分析することができる。
本出願のいくつかの実施例では、車両が無人運転システムを備える場合、当該駐車検出レポートに基づいて、無人運転システムの性能を分析し、対応するデバッグを行い、対応する反復テストを行うことができる。
本出願の実施例に係る車両駐車検出方法によれば、取得されたデータは、第1横方向距離、第2横方向距離、及び第1縦方向距離に加えて、第2縦方向距離もあり、より正確な車両の駐車位置を検出することができる。
本出願の第4実施例では、上記実施例を基に、車両駐車中の安全を保障するために、第1距離センサ及び第2距離センサを使用して横方向距離の変化状況をリアルタイムで監視することもできる。当該技術的手段をより明確に説明するために、上記各実施例の車両駐車検出方法に基づいて、実施例4で当該技術手段を具体的に説明することができる。本出願のいくつかの実施例では、ステップ601~603をさらに含む。
図6に示すように、図6は、本出願の第4実施例に係る車両駐車検出方法のフローチャートであり、具体的には以下のステップ601~603を含む。
ステップ601において、車両がサイトに進入中に、第1距離センサ及び第2距離センサによって車両と参照オブジェクトとの間の横方向距離をリアルタイムで検出する。
なお、車両が最終的にサイトの参照オブジェクトの傍に駐車され、自動運転システムのデバッグにまだ成功しない場合、または運転手が操作にミスするなどの場合、車両の横方向の距離が小さすぎ、車両が参照オブジェクトと衝突する可能性がある。
本出願のいくつかの実施例では、車両がサイトに進入中に、第1距離センサ及び第2距離センサを使用して車両と参照オブジェクトとの間の横方向距離をリアルタイムで検出することができる。
ステップ602において、車両と参照オブジェクトとの間の横方向距離と、第1距離センサ及び第2距離センサによって検出された距離のリアルタイムの変化状況とに基づいて、車両が衝突するか否かを予測する。
なお、本出願のいくつかの実施例では、閾値を予め設定してもよく、横方向距離、第1距離センサによってリアルタイムで検出された距離、及び第2距離センサによってリアルタイムで検出された距離のうちのいずれかが当該閾値未満である場合、車両が参照オブジェクトと衝突すると予測することができる。
ステップ603において、車両が衝突するという予測に応答して、衝突防止警報リマインダーを行う。
本出願のいくつかの実施例では、車両が衝突すると予測される場合、衝突防止警報リマインダーが出され、異なるアプリケーションシナリオでは、異なる衝突防止警報リマインダー方式があってもよく、本実施例では限定されず、以下の方法1~2を含むが、これらに限定されない、
方法1において、ビープ音を鳴らして運転手に車両を乗っ取るが、または運転に注意を払うように促す。
方法2において、車両ブレーキシステムを接続し、車両を直接ブレーキをかける。
本出願のいくつかの実施例では、第1距離センサ及び第2距離センサを使用して横方向距離の変化状況をリアルタイムで監視するフローチャートは、図7に示され、図7は、本出願のいくつかの実施例において横方向距離をリアルタイムで監視するフローチャートである。
図7では、横方向距離センサは、第1距離センサと第2距離センサとを備える。なお、上位機が衝突防止命令を送信して、横方向距離センサを起動し、横方向距離センサの起動に失敗した場合、上位機が「横方向センサの起動に失敗した」と印刷し、横方向距離センサの起動に成功するまで、上位機が衝突防止命令を再送信する。横方向距離センサの起動に成功する場合、第1距離センサ及び第2距離センサが距離を測定し、マイクロコントローラがデータ処理する。処理されたデータが出力され、上位機が引き続きデータ処理し、横方向距離が近すぎるか否かを判断する。距離が近すぎる場合、警報リマインダーを出す。距離が近すぎない場合、上位機がリアルタイムの距離を印刷し、上位機が衝突防止命令を再送信して、横方向距離のリアルタイム監視を行う。
本出願の実施例に係る車両駐車検出方法によれば、第1距離センサ及び第2距離センサを使用して車両と参照オブジェクトとの間の距離を監視することにより、衝突の発生を防止し、検出中の安全を保障する。
本出願の実施例によれば、本出願は車両駐車検出システムを提案する。
図8は、本出願の一実施例に係る車両駐車検出システムの構造ブロック図である。図8に示すように、当該車両駐車検出システム800は、横方向測距モジュール810、第1縦方向測距モジュール820、及び制御モジュール830を備えることができる。
横方向測距モジュール810は、第1距離センサによって前記車両とサイト内の参照オブジェクトとの間の第1横方向距離を取得し、第2距離センサによって前記車両と前記参照オブジェクトとの間の第2横方向距離を取得する。
本出願のいくつかの実施例では、第1距離センサおよび/または第2距離センサの内部構造は、超音波感知ユニット、STM(STMicroelectronics)32マイクロコントロールユニット、2.4G(GigaHertz)無線伝送ユニット、電気量表示ユニット、5V(Volt)バッテリーユニット、防水金属スイッチユニット、防水充電ヘッドユニット、上部シェル、及び下部シェルを備えることができる。上部シェルには2つの円孔と溝とがあり。超音波感知ユニットは2つのプローブと回路基板を備える。超音波感知ユニットは、センサ全体の先端に配置され、超音波感知ユニットの2つのプローブが上部シェルの2つの円孔に入れられ、超音波感知ユニットの回路基板の一部が下部シェルの溝内に配置され、ねじ穴で固定されている。5Vバッテリーユニットは下部シェル内に配置され、両面強力接着剤で下部シェル表面に接着され、5Vバッテリーユニットの上にSTM32マイクロコントロールユニットが配置され、STM32マイクロコントロールユニットはデータ処理と信号制御し、熱収縮ゴムで下部シェルに固定されている。電気量表示ユニットは、5Vバッテリーユニットの電気量を表示し、下部シェルの側壁の溝に配置され、2.4G無線伝送ユニットは超音波感知ユニットの回路基板の後方に配置され、上位機の信号を受信し、超音波感知ユニットのデータを送信し、下部シェルの両側の後方にはそれぞれ防水キャップを備えた防水充電ヘッドユニット及び防水金属スイッチユニットである。
第1縦方向測距モジュール820は、第1カメラによって収集された第1シナリオ画像を取得し、前記第1シナリオ画像に基づいて第1縦方向距離を取得し、ここで、前記第1縦方向距離とは、前記車両の第1マークラインと前記サイトの第1駐車ラインとの間の距離を指す。
制御モジュール830は、前記横方向測距モジュールから送信された第1横方向距離及び第2横方向距離を受信し、前記縦方向測距モジュールから送信された第1縦方向距離を受信し、前記第1横方向距離、前記第2横方向距離及び前記第1縦方向距離に基づいて、前記車両が前記サイト内のターゲット位置に駐車されているか否かを決定する。
本出願のいくつかの実施例では、図9に示すように、図9は、本出願の別の実施例に係る車両駐車検出システムの構造ブロック図であり、当該車両駐車検出システム900において、第1縦方向測距モジュール920は、第1抽出ユニット921、第1検出ユニット922、第1ピクセル取得ユニット923、及び第1距離取得ユニット924を備える。
第1抽出ユニット921は、前記第1シナリオ画像に対して特徴抽出し、前記第1シナリオ画像の第1特徴情報を取得する。
第1検出ユニット922は、前記第1特徴情報に第1マークライン、第1駐車ライン及び第1キャブレーション方形図にそれぞれ対応する特徴が含まれるか否かを検出する。
第1ピクセル取得ユニット923は、前記第1特徴情報に前記第1マークライン、前記第1駐車ライン及び前記第1キャブレーション方形図にそれぞれ対応する特徴が含まれることに応答して、前記第1特徴情報に基づいて前記第1キャブレーション方形図の辺長ピクセル数を取得し、前記第1特徴情報に基づいて、前記第1マークラインと前記第1駐車ラインとの間の垂直ピクセル数を取得する。
第1距離取得ユニット924は、前記第1キャブレーション方形図の辺長の予め設定された長さ、前記第1キャブレーション方形図の辺長ピクセル数及び前記垂直ピクセル数に基づいて、前記第1縦方向距離を取得する。
ここで、図9における910、930と図8における810、830は同じ機能と構造を有する。
本出願のいくつかの実施例では、図10に示すように、図10は、本出願の別の実施例に係る車両駐車検出システムの構造ブロック図であり、当該車両駐車検出システム1000において、第1縦方向測距モジュール1020は、判断ユニット1025をさらに備える。
判断ユニット1025は、前記第1特徴情報に前記第1マークラインの特徴が含まれず、および/または、前記第1特徴情報に前記第1駐車ラインの特徴が含まれず、および/または、前記第1特徴情報に前記第1キャブレーション方形図の特徴が含まれない場合、前記車両が前記サイト内のターゲット位置に駐車されていないと決定する。
ここで、図10における1010、1030と図9における910、930は同じ機能と構造を有し、図10における1021~1024と図9における921~924は同じ機能と構造を有する。
本出願のいくつかの実施例では、図11に示すように、図11は、本出願の別の実施例に係る車両駐車検出システムの構造ブロック図であり、当該車両駐車検出システム1100には、第2縦方向測距モジュール1140をさらに備える。
第2縦方向測距モジュール1140は、第2カメラによって収集された第2シナリオ画像を取得し、前記第2シナリオ画像に基づいて第2縦方向距離を取得し、ここで、前記第2縦方向距離とは、前記車両の第2マークラインと前記サイトの第2駐車ラインとの間の距離を指す。
図11における1110~1030と図10における1010~1030は同じ機能と構造を有する。
本出願のいくつかの実施例では、図12に示すように、図12は、本出願の別の実施例に係る車両駐車検出システムの構造ブロック図であり、当該車両駐車検出システム1200において、第2縦方向測距モジュール1240は、第2抽出ユニット1241、第2検出ユニット1242、第2ピクセル取得ユニット1243、及び第2距離取得ユニット1244を備える。
第2抽出ユニット1241は、前記第2シナリオ画像に対して特徴抽出し、前記第2シナリオ画像の第2特徴情報を取得する。
第2検出ユニット1242は、前記第2特徴情報に第2マークライン、第2駐車ライン及び第2キャブレーション方形図にそれぞれ対応する特徴が含まれるか否かを検出する。
第2ピクセル取得ユニット1243は、前記第2特徴情報に前記第2マークライン、前記第2駐車ライン及び前記第2キャブレーション方形図にそれぞれ対応する特徴が含まれることに応答して、前記第2特徴情報に基づいて前記第2キャブレーション方形図の辺長ピクセル数を取得し、前記第2特徴情報に基づいて、前記第2マークラインと前記第2駐車ラインとの間の垂直ピクセル数を取得する。
第2距離取得ユニット1244は、前記第2キャブレーション方形図の辺長の予め設定された長さ、前記第2キャブレーション方形図の辺長ピクセル数及び前記垂直ピクセル数に基づいて、前記第2縦方向距離を取得する。
図12における1210~1230と図11における1110~1130は同じ機能と構造を有する。
本出願のいくつかの実施例では、図13に示すように、図13は、本出願の別の実施例に係る車両駐車検出システムの構造ブロック図であり、当該車両駐車検出システム1300には、検出モジュール1350、予測モジュール1360、及び警報モジュール1370をさらに備える。
検出モジュール1350は、前記車両が前記サイトに進入中に、前記第1距離センサ及び前記第2距離センサによって前記車両と前記参照オブジェクトとの間の横方向距離をリアルタイムで検出する。
予測モジュール1360は、前記車両と前記参照オブジェクトとの間の横方向距離と、前記第1距離センサ及び前記第2距離センサによって検出された距離のリアルタイムの変化状況に基づいて、前記車両が衝突するか否かを予測する。
警報モジュール1370は、前記車両が衝突するという予測に応答して、衝突防止警報リマインダーを行う。
図13における1310~1340と図12における1210~1240は同じ機能と構造を有する。
本出願のいくつかの実施例では、図14に示すように、図14は、本出願の別の実施例に係る車両駐車検出システムの構造ブロック図であり、当該車両駐車検出システム1400には、取得モジュール1480、及びレポートモジュール1490をさらに備える。
取得モジュール1480は、前記車両の駐車検出結果を取得する。
レポートモジュール1490は、前記第1横方向距離、前記第2横方向距離、前記第1縦方向距離及び前記駐車検出結果に基づいて、駐車検出レポートを生成する。
図14における1410~1470と図13における1310~1370は同じ機能と構造を有する。
上記実施例のシステムについて、各モジュールが操作を実行する具体的な方式は、当該方法に関する実施例において詳細に説明されるため、ここでは詳細に説明しない。
本出願の実施例によれば、本出願は、電子機器、及び読み取り可能な記憶媒体をさらに提供する。
本出願の実施例によれば、本出願は、コンピュータプログラムをさらに提供し、前記コンピュータプログラムはプロセッサによって実行される場合、本出願によって提供される車両駐車検出方法を実現する。
図15は、本出願の実施例を実行するための例示的な電子機器1500の概略ブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の同様のコンピューティングデバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は、単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
図15に示すように、電子機器1500は、読み取り専用メモリ(ROM)1502に記憶されるコンピュータプログラムまたはメモリ1508からランダムアクセスメモリ(RAM)1503にロードされたコンピュータプログラムに応じて、様々な適切な動作および処理を実行する計算ユニット1501を備える。RAM1503には、機器1500の動作に必要な各種プログラムやデータも記憶されてもよい。計算ユニット1501、ROM1502、およびRAM1503は、バス1504を介して互いに接続されておる。入力/出力(I/O)インターフェース1505もパス1504に接続されている。
機器1500における複数のコンポーネントはI/Oインターフェース1505に接続され、キーボード、マウスなどの入力ユニット1506、各タイプのディスプレイ、スピーカなどの出力ユニット1507、磁気ディスク、光ディスクなどの記憶ユニット1508、およびネットワークカード、モデム、無線通信トランシーバなどの通信ユニット1509を備える。通信ユニット1509は、機器1500が、インターネットなどのコンピュータネットワークおよび/または様々な電気通信ネットワークを介して他のデバイスと情報/データを交換することを可能にする。
計算ユニット1501は、処理および計算能力を有する様々な汎用および/または専用の処理コンポーネントであってもよい。計算ユニット1501のいくつかの例としては、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、様々な専用の人工知能(AI)計算チップ、各種の機械学習モデルアルゴリズムを実行する計算ユニット、デジタル信号プロセッサ(DSP)、および任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを備えるが、これらに限定されない。計算ユニット1501は、上記の各方法および処理、例えば車両駐車検出方法を実行する。例えば、いくつかの実施例では、車両駐車検出方法は、記憶ユニット1508などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現されてもよい。いくつかの実施例では、コンピュータプログラムの一部または全部は、ROM1502および/または通信ユニット1509を介して機器1500にロードおよび/またはインストールされてもよい。コンピュータプログラムがRAM1503にロードされ、計算ユニット1501によって実行される場合、上記の車両駐車検出方法の1つまたは複数のステップが実行されてもよい。代替的に、他の実施例では、計算ユニット1501は車両駐車検出方法を実行するように、他の任意の適切な形態(例えば、ファームウェアを介する)によって構成されてもよい。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックス・プログラマブル・ロジック・デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを備えるプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に送信することができる。
本出願の方法を実行するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで記述することができる。これらのプログラムコードは、プロセッサ又はコントローラによって実行されると、フローチャート及び/又はブロック図に規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよい。プログラムコードは、完全に機械上で実行され、部分的に機械上で実行され、スタンドアロンソフトウェアパッケージとして、部分的に機械上で実行され、かつ部分的にリモート機械上で実行され、又は完全にリモート機械又はサーバ上で実行されてもよい。
本出願のコンテキストでは、機械読み取り可能な媒体は、命令実行システム、装置、またはデバイスによって使用されるか、又は命令実行システム、装置、またはデバイスと組み合わせて使用されるプログラムを含むか、又は記憶することができる有形媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又はデバイス、または上記内容のいずれかの適切な組み合わせを含むことができるが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶機器、磁気記憶機器、または上記内容のいずれかの適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを備えるコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを備えるコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを備えるコンピューティングシステム(例えば、グラフィカルユーザインターフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインターフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションできる)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを備えるコンピューティングシステムで実行することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークを含む。
コンピュータシステムは、クライアントとサーバを備えることができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバはクラウドサーバであっても良く、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおける1つのホスト製品であり、従来の物理ホストとVPSサービス(“Virtual Private Server”,または“VPS”と省略する)に存在する管理の難しさが大きく、業務拡張性の弱いという欠陥を解決する。サーバは分散型システムのサーバであってもよく、またはブロックチェーンと組み合わせたサーバであってもよい。
本出願の実施例に係る車両駐車検出方法によれば、距離センサにより、第1横方向距離及び第2横方向距離を取得する。カメラにより、第1マークライン及び第1駐車ラインを介して、第1縦方向距離を取得する。第1横方向距離、第2横方向距離及び第1縦方向距離に基づいて、前記車両がターゲット位置にあるか否かを決定することができる。
本方法は、車両がターゲット位置にあるか否かという問題を、上記3つの指標に対する判断に簡略化し、第1縦方向距離の測定という問題を、第1マークラインと駐車ラインとの間の距離の測定に簡略化する。検出精度を強化するとともに、測定データの数を簡略化し、データの測定の難しさを低減し、自動定量標準化の測定を実現する。また、手動で測定する必要がなく、人的資源を節約するとともに、車両駐車検出の効率を向上させる。
第1シナリオ画像から第1マークライン、第1駐車ライン及び第1キャブレーション方形図を抽出する。第1キャブレーション方形図により、第1シナリオ画像のピクセル数と実際のシナリオの距離との関係を取得する。これによって第1シナリオ画像における第1マークラインと第1駐車ラインとの距離に基づいて、第1縦方向距離を取得する。本方法は、コストが低く、既知のデータ及び1つのカメラで取得されたデータによって第1縦方向距離を取得でき、検出速度が速く、効率が高い。
取得されたデータは、第1横方向距離、第2横方向距離、及び第1縦方向距離に加えて、第2縦方向距離もあり、より正確な車両の駐車位置を検出することができる。
本出願の実施例に係る車両駐車検出方法によれば、第1距離センサ及び第2距離センサを使用して車両と参照オブジェクトとの間の距離を監視することにより、衝突の発生を防止し、検出中の安全を保障する。
なお、上記に示される様々な形態のフローを使用して、ステップを並べ替え、追加し、又は削除することができる。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術的解決手段が所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者は、設計要件と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができると理解すべきである。任意の本出願の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (19)

  1. 第1距離センサによって車両とサイト内の参照オブジェクトとの間の第1横方向距離を取得するステップと、
    第2距離センサによって前記車両と前記参照オブジェクトとの間の第2横方向距離を取得するステップと、
    第1カメラによって収集された第1シナリオ画像を取得し、前記第1シナリオ画像に基づいて第1縦方向距離を取得するステップであって、前記第1縦方向距離とは、前記車両の第1マークラインと前記サイトの第1駐車ラインとの間の距離を指すステップと、
    前記第1横方向距離、前記第2横方向距離及び前記第1縦方向距離に基づいて、前記車両が前記サイト内のターゲット位置に駐車されているか否かを決定するステップと、
    を含む車両駐車検出方法。
  2. 前記サイト内には第1キャブレーション方形図が設けられ、
    前記第1シナリオ画像に基づいて第1縦方向距離を取得するステップが、
    前記第1シナリオ画像に対して特徴抽出し、前記第1シナリオ画像の第1特徴情報を取得するステップと、
    前記第1特徴情報に前記第1マークライン、前記第1駐車ライン及び前記第1キャブレーション方形図にそれぞれ対応する特徴が含まれるか否かを検出するステップと、
    前記第1特徴情報に前記第1マークライン、前記第1駐車ライン及び前記第1キャブレーション方形図にそれぞれ対応する特徴が含まれることに応答して、前記第1特徴情報に基づいて前記第1キャブレーション方形図の辺長ピクセル数を取得するステップと、
    前記第1特徴情報に基づいて、前記第1マークラインと前記第1駐車ラインとの間の垂直ピクセル数を取得するステップと、
    前記第1キャブレーション方形図の辺長の予め設定された長さ、前記第1キャブレーション方形図の辺長ピクセル数及び前記垂直ピクセル数に基づいて、前記第1縦方向距離を取得するステップと、
    を含む請求項1に記載の方法。
  3. 前記第1特徴情報に前記第1マークラインの特徴が含まれず、および/または、前記第1特徴情報に前記第1駐車ラインの特徴が含まれず、および/または、前記第1特徴情報に前記第1キャブレーション方形図の特徴が含まれない場合、前記車両が前記サイト内のターゲット位置に駐車されていないと決定するステップを含む請求項2に記載の方法。
  4. 第2カメラによって収集された第2シナリオ画像を取得し、前記第2シナリオ画像に基づいて第2縦方向距離を取得するステップであって、前記第2縦方向距離とは、前記車両の第2マークラインと前記サイトの第2駐車ラインとの間の距離を指すステップを含み、
    前記第1横方向距離、前記第2横方向距離及び前記第1縦方向距離に基づいて、前記車両が前記サイト内のターゲット位置に駐車されているか否かを決定するステップが、
    前記第1横方向距離、前記第2横方向距離、前記第1縦方向距離及び前記第2縦方向距離に基づいて、前記車両が前記サイト内のターゲット位置に駐車されているか否かを決定するステップを含む請求項1から3のいずれか一項に記載の方法。
  5. 前記サイト内には第2キャブレーション方形図が設けられ、
    前記第2シナリオ画像に基づいて第2縦方向距離を取得するステップが、
    前記第2シナリオ画像に対して特徴抽出し、前記第2シナリオ画像の第2特徴情報を取得するステップと、
    前記第2特徴情報に前記第2マークライン、前記第2駐車ライン及び前記第2キャブレーション方形図にそれぞれ対応する特徴が含まれるか否かを検出するステップと、
    前記第2特徴情報に前記第2マークライン、前記第2駐車ライン及び前記第2キャブレーション方形図にそれぞれ対応する特徴が含まれることに応答して、前記第2特徴情報に基づいて前記第2キャブレーション方形図の辺長ピクセル数を取得するステップと、
    前記第2特徴情報に基づいて、前記第2マークラインと前記第2駐車ラインとの間の垂直ピクセル数を取得するステップと、
    前記第2キャブレーション方形図の辺長の予め設定された長さ、前記第2キャブレーション方形図の辺長ピクセル数及び前記垂直ピクセル数に基づいて、前記第2縦方向距離を取得するステップと、
    を含む請求項4に記載の方法。
  6. 前記車両が前記サイトに進入中に、前記第1距離センサ及び前記第2距離センサによって前記車両と前記参照オブジェクトとの間の横方向距離をリアルタイムで検出するステップと、
    前記車両と前記参照オブジェクトとの間の横方向距離と、前記第1距離センサ及び前記第2距離センサによって検出された距離のリアルタイムの変化状況とに基づいて、前記車両が衝突するか否かを予測するステップと、
    前記車両が衝突するという予測に応答して、衝突防止警報リマインダーを行うステップと、
    を含む請求項1に記載の方法。
  7. 前記第1距離センサによって前記車両とサイト内の参照オブジェクトとの間の第1横方向距離を取得するステップが、
    前記第1距離センサによって前記車両と前記参照オブジェクトとの間の距離に対して複数回サンプリングし、複数回のサンプリング値を取得するステップと、
    前記複数回のサンプリング値のうちの最大値と最小値をフィルタリングし、フィルタリングされた残りのサンプリング値を計算して、取得された計算結果を前記第1横方向距離とするステップと、
    を含む請求項1に記載の方法。
  8. 前記車両の駐車検出結果を取得するステップと、
    前記第1横方向距離、前記第2横方向距離、前記第1縦方向距離及び前記駐車検出結果に基づいて、駐車検出レポートを生成するステップと、
    を含む請求項1に記載の方法。
  9. 第1距離センサによって車両とサイト内の参照オブジェクトとの間の第1横方向距離を取得し、第2距離センサによって前記車両と前記参照オブジェクトとの間の第2横方向距離を取得するための横方向測距モジュールと、
    第1カメラによって収集された第1シナリオ画像を取得し、前記第1シナリオ画像に基づいて第1縦方向距離を取得するための第1縦方向測距モジュールであって、前記第1縦方向距離とは、前記車両の第1マークラインと前記サイトの第1駐車ラインとの間の距離を指す第1縦方向測距モジュールと、
    前記横方向測距モジュールから送信された第1横方向距離及び第2横方向距離を受信し、前記縦方向測距モジュールから送信された第1縦方向距離を受信し、前記第1横方向距離、前記第2横方向距離及び前記第1縦方向距離に基づいて、前記車両が前記サイト内のターゲット位置に駐車されているか否かを決定するための制御モジュールと、
    を備える車両駐車検出システム。
  10. 前記第1縦方向測距モジュールが、
    前記第1シナリオ画像に対して特徴抽出し、前記第1シナリオ画像の第1特徴情報を取得するための第1抽出ユニットと、
    前記第1特徴情報に前記第1マークライン、前記第1駐車ライン及び前記第1キャブレーション方形図にそれぞれ対応する特徴が含まれるか否かを検出するための第1検出ユニットと、
    前記第1特徴情報に前記第1マークライン、前記第1駐車ライン及び前記第1キャブレーション方形図にそれぞれ対応する特徴が含まれることに応答して、前記第1特徴情報に基づいて前記第1キャブレーション方形図の辺長ピクセル数を取得し、前記第1特徴情報に基づいて、前記第1マークラインと前記第1駐車ラインとの間の垂直ピクセル数を取得するための第1ピクセル取得ユニットと、
    前記第1キャブレーション方形図の辺長の予め設定された長さ、前記第1キャブレーション方形図の辺長ピクセル数及び前記垂直ピクセル数に基づいて、前記第1縦方向距離を取得するための第1距離取得ユニットと、
    を備える請求項9に記載のシステム。
  11. 前記第1特徴情報に前記第1マークラインの特徴が含まれず、および/または、前記第1特徴情報に前記第1駐車ラインの特徴が含まれず、および/または、前記第1特徴情報に前記第1キャブレーション方形図の特徴が含まれない場合、前記車両が前記サイト内のターゲット位置に駐車されていないと決定するための判断ユニットを備える請求項10に記載のシステム。
  12. 第2カメラによって収集された第2シナリオ画像を取得し、前記第2シナリオ画像に基づいて第2縦方向距離を取得するための第2縦方向測距モジュールであって、前記第2縦方向距離とは、前記車両の第2マークラインと前記サイトの第2駐車ラインとの間の距離を指す第2縦方向測距モジュールを備え、
    前記制御モジュールが、前記第1横方向距離、前記第2横方向距離、前記第1縦方向距離及び前記第2縦方向距離に基づいて、前記車両が前記サイト内のターゲット位置に駐車されているか否かを決定する請求項9から11のいずれか一項に記載のシステム。
  13. 前記第2測距モジュールが、
    前記第2シナリオ画像に対して特徴抽出し、前記第2シナリオ画像の第2特徴情報を取得するための第2抽出ユニットと、
    前記第2特徴情報に前記第2マークライン、前記第2駐車ライン及び前記第2キャブレーション方形図にそれぞれ対応する特徴が含まれるか否かを検出するための第2検出ユニットと、
    前記第2特徴情報に前記第2マークライン、前記第2駐車ライン及び前記第2キャブレーション方形図にそれぞれ対応する特徴が含まれることに応答して、前記第2特徴情報に基づいて前記第2キャブレーション方形図の辺長ピクセル数を取得し、前記第2特徴情報に基づいて、前記第2マークラインと前記第2駐車ラインとの間の垂直ピクセル数を取得するための第2ピクセル取得ユニットと、
    前記第2キャブレーション方形図の辺長の予め設定された長さ、前記第2キャブレーション方形図の辺長ピクセル数及び前記垂直ピクセル数に基づいて、前記第2縦方向距離を取得するための第2距離取得ユニットと、
    を備える請求項12に記載のシステム。
  14. 前記車両が前記サイトに進入中に、前記第1距離センサ及び前記第2距離センサによって前記車両と前記参照オブジェクトとの間の横方向距離をリアルタイムで検出するための検出モジュールと、
    前記車両と前記参照オブジェクトとの間の横方向距離と、前記第1距離センサ及び前記第2距離センサによって検出された距離のリアルタイムの変化状況とに基づいて、前記車両が衝突するか否かを予測するための予測モジュールと、
    前記車両が衝突するという予測に応答して、衝突防止警報リマインダーを行うための警報モジュールと、
    を備える請求項9に記載のシステム。
  15. 前記横方向測距モジュールが、
    前記第1距離センサによって前記車両と前記参照オブジェクトとの間の距離に対して複数回サンプリングし、複数回のサンプリング値を取得し、
    前記複数回のサンプリング値のうちの最大値と最小値をフィルタリングし、フィルタリングされた残りのサンプリング値を計算し、取得された計算結果を前記第1横方向距離とする請求項9に記載のシステム。
  16. 前記車両の駐車検出結果を取得するための取得モジュールと、
    前記第1横方向距離、前記第2横方向距離、前記第1縦方向距離及び前記駐車検出結果に基づいて、駐車検出レポートを生成するためのレポートモジュールと、
    を備える請求項9に記載のシステム。
  17. 少なくとも1つのプロセッサと、
    該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
    を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から8のいずれか一項に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。
  18. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が、コンピュータに請求項1から8のいずれか一項に記載の方法を実行させる、非一時的なコンピュータ読み取り可能な記憶媒体。
  19. プロセッサによって実行される場合、請求項1から8のいずれか一項に記載の方法を実現するコンピュータプログラム。
JP2021212251A 2021-03-25 2021-12-27 車両駐車検出方法、システム、電子機器及び記憶媒体 Pending JP2022043238A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110322295.4A CN113012441B (zh) 2021-03-25 2021-03-25 车辆停车检测方法、系统、电子设备以及存储介质
CN202110322295.4 2021-03-25

Publications (1)

Publication Number Publication Date
JP2022043238A true JP2022043238A (ja) 2022-03-15

Family

ID=76407361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021212251A Pending JP2022043238A (ja) 2021-03-25 2021-12-27 車両駐車検出方法、システム、電子機器及び記憶媒体

Country Status (5)

Country Link
US (1) US20220019818A1 (ja)
EP (1) EP3923184A3 (ja)
JP (1) JP2022043238A (ja)
KR (1) KR20210151718A (ja)
CN (1) CN113012441B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114347847B (zh) * 2022-03-18 2022-07-08 蔚来汽车科技(安徽)有限公司 用于协助泊车的方法、控制装置、存储介质和换电站
CN115471787B (zh) * 2022-08-09 2023-06-06 东莞先知大数据有限公司 一种工地物体堆放检测方法、装置及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001114049A (ja) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd 車載駐車支援装置
JP2006192987A (ja) * 2005-01-12 2006-07-27 Clarion Co Ltd 駐車技術評価システム
JP2012159469A (ja) * 2011-02-02 2012-08-23 Toyota Motor Corp 車両用画像認識装置
JP2014008957A (ja) * 2012-06-29 2014-01-20 Hyundai Motor Company Co Ltd 衝突防止システム及び方法
US20200130677A1 (en) * 2018-10-30 2020-04-30 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for determining automatic parking effect, device and storage medium
WO2020129516A1 (ja) * 2018-12-21 2020-06-25 日立オートモティブシステムズ株式会社 車両制御装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288799A (ja) * 2001-03-28 2002-10-04 Seiko Epson Corp 駐車状態確認システム
JP4241026B2 (ja) * 2002-12-24 2009-03-18 横河電機株式会社 フィルタ
KR101051390B1 (ko) * 2009-08-31 2011-07-22 주식회사 이미지넥스트 감시카메라의 객체 정보 추정장치 및 방법
KR102399655B1 (ko) * 2015-11-03 2022-05-19 엘지이노텍 주식회사 차량용 카메라의 시야각 조절 및 거리 표시 방법
CN110264500A (zh) * 2016-06-27 2019-09-20 御眼视觉技术有限公司 基于检测到的停放车辆特性控制主车辆
US10996338B2 (en) * 2017-09-12 2021-05-04 Toyota Research Institute, Inc. Systems and methods for detection by autonomous vehicles
KR102088611B1 (ko) * 2017-12-29 2020-03-12 윤태건 차량용 주차제어장치 및 그 장치의 구동방법
US11136022B2 (en) * 2018-05-29 2021-10-05 Hitachi Automotive Systems, Ltd. Road marker detection method
CN109598972B (zh) * 2018-11-23 2021-11-19 中汽研(天津)汽车工程研究院有限公司 一种基于视觉的自动泊车停车位检测与测距系统
CN109934140B (zh) * 2019-03-01 2022-12-02 武汉光庭科技有限公司 基于检测地面横向标线的自动倒车辅助停车方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001114049A (ja) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd 車載駐車支援装置
JP2006192987A (ja) * 2005-01-12 2006-07-27 Clarion Co Ltd 駐車技術評価システム
JP2012159469A (ja) * 2011-02-02 2012-08-23 Toyota Motor Corp 車両用画像認識装置
JP2014008957A (ja) * 2012-06-29 2014-01-20 Hyundai Motor Company Co Ltd 衝突防止システム及び方法
US20200130677A1 (en) * 2018-10-30 2020-04-30 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for determining automatic parking effect, device and storage medium
WO2020129516A1 (ja) * 2018-12-21 2020-06-25 日立オートモティブシステムズ株式会社 車両制御装置

Also Published As

Publication number Publication date
CN113012441B (zh) 2023-01-13
CN113012441A (zh) 2021-06-22
EP3923184A2 (en) 2021-12-15
EP3923184A3 (en) 2022-05-18
KR20210151718A (ko) 2021-12-14
US20220019818A1 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
CN109145680B (zh) 一种获取障碍物信息的方法、装置、设备和计算机存储介质
CN109492507B (zh) 红绿灯状态的识别方法及装置、计算机设备及可读介质
JP2022043238A (ja) 車両駐車検出方法、システム、電子機器及び記憶媒体
CN109255341B (zh) 障碍物感知错误数据的提取方法、装置、设备及介质
CN106815574B (zh) 建立检测模型、检测接打手机行为的方法和装置
CN113205037B (zh) 事件检测的方法、装置、电子设备以及可读存储介质
CN111126153B (zh) 基于深度学习的安全监测方法、系统、服务器及存储介质
CN113378741B (zh) 一种基于多源传感器的飞机牵引车辅助感知方法及其系统
CN109115242B (zh) 一种导航评估方法、装置、终端、服务器及存储介质
CN109094574B (zh) 一种基于台架的无人车驾驶状态测量控制系统
CN113326786A (zh) 数据处理方法、装置、设备、车辆和存储介质
CN112764013A (zh) 自动驾驶车辆感知系统测试方法、装置、设备及存储介质
CN114194180A (zh) 一种辅助泊车信息的确定方法、装置、设备及介质
CN115346171A (zh) 一种输电线路监控方法、装置、设备及存储介质
CN113361420A (zh) 基于机器人的矿井火灾监测方法、装置、设备及存储介质
CN116957344B (zh) 自动紧急制动系统的安全性评价方法、装置、设备及介质
CN114238790A (zh) 用于确定最大感知范围的方法、装置、设备以及存储介质
CN117351462A (zh) 施工作业检测模型训练方法、装置、设备及存储介质
CN111222477B (zh) 一种基于视觉的双手离开方向盘检测方法及装置
US11211070B2 (en) Method, device and system for detecting working state of tower controller
CN106679630B (zh) 一种接触网定位器坡度检测系统
WO2018053834A1 (zh) 一种成对车道线的高效检测方法和装置
Fengjing et al. Airport runway extraction method in aviation reconnaissance image
CN113806361B (zh) 电子监控设备与道路的关联方法、装置及存储介质
CN114911813B (zh) 车载感知模型的更新方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230808