JP7228559B2 - 位置決め要素検出方法、位置決め要素検出装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム - Google Patents
位置決め要素検出方法、位置決め要素検出装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7228559B2 JP7228559B2 JP2020215097A JP2020215097A JP7228559B2 JP 7228559 B2 JP7228559 B2 JP 7228559B2 JP 2020215097 A JP2020215097 A JP 2020215097A JP 2020215097 A JP2020215097 A JP 2020215097A JP 7228559 B2 JP7228559 B2 JP 7228559B2
- Authority
- JP
- Japan
- Prior art keywords
- positioning element
- detection
- parking space
- surround
- composite image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 190
- 238000003860 storage Methods 0.000 title claims description 16
- 238000004590 computer program Methods 0.000 title claims description 9
- 239000002131 composite material Substances 0.000 claims description 65
- 238000003062 neural network model Methods 0.000 claims description 35
- 230000004927 fusion Effects 0.000 claims description 22
- 230000011218 segmentation Effects 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 19
- 238000001914 filtration Methods 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 description 14
- 230000004048 modification Effects 0.000 description 14
- 230000009286 beneficial effect Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0011—Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0052—Filtering, filters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/06—Automatic manoeuvring for parking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
1つ目の方法は視覚SLAM方案であり、すなわちカメラ画像に基づいて環境の感知作業を完成させ、従来の画像アルゴリズムによって画像におけるキーポイントを抽出し、複数フレームの画像におけるキーポイントのマッチング関係を用いて自身の位置決め情報を算出する。しかしながら、この方法は、照明が十分で環境テクスチャ特徴が明らかである静的シーンにのみ適用でき、かつ従来の視覚特徴の検出の堅牢性が低く、安定した高精度の検出結果を得ることは難しくなり、
2つ目の方法においては、手動でカスタマイズされた位置決め標識を識別する方法であり、すなわちカメラ画像における特定の標識を検出するにより、カメラに対応する位置決め標識の正確な3次元位置及び方向などを素早く算出することができる。この方法でのアルゴリズムレベルの実現は比較的簡単であるが、多くの特定の標識をカスタマイズして、大量にシーンに配置する必要があり、かつ後期のメンテナンスコストも高く、あらゆるシーンで使用できる量産方案として使用できない。
本出願の第5態様において、コンピュータ上で動作しているときに、上記の位置決め要素検出方法を前記コンピュータに実行させるコンピュータプログラムをさらに提供する。
図4に示すように、位置決め要素検出装置400は、具体的には、車両の周囲のサラウンドビュー合成画像を取得する画像取得モジュール401と、サラウンドビュー合成画像を検出し、車両の周囲の地面に存在する少なくとも1つの位置決め要素及びサラウンドビュー合成画像の各画素点が属する語意タイプを決定する位置決め要素検出モジュール402と、語意タイプを用いて少なくとも1つの位置決め要素をマッチング融合し、位置決め要素の検出結果を取得するマッチング融合モジュール403とを備える。
Claims (17)
- コンピュータにより実行される位置決め要素検出方法であって、
車両の周囲のサラウンドビュー合成画像を取得するステップと、
前記サラウンドビュー合成画像を検出し、前記車両の周囲の地面に存在する少なくとも1つの位置決め要素及び前記サラウンドビュー合成画像の各画素点が属する語意タイプを決定するステップと、
前記語意タイプを用いて少なくとも1つの前記位置決め要素をマッチング融合し、前記位置決め要素の検出結果を取得するステップとを含み、
前記サラウンドビュー合成画像を検出し、前記車両の周囲の地面に存在する少なくとも1つの前記位置決め要素及び前記サラウンドビュー合成画像の各前記画素点が属する前記語意タイプを決定するステップが、
予めトレーニングされたディープニューラルネットワークモデルを用いて前記サラウンドビュー合成画像を検出し、前記サラウンドビュー合成画像の各前記画素点に対して語意分割を行い、前記車両の周囲の地面に存在する少なくとも1つの前記位置決め要素の情報、及び前記サラウンドビュー合成画像の各前記画素点が属する前記語意タイプを決定するステップを含み、
前記位置決め要素の情報が、少なくとも、前記位置決め要素のタイプ及び位置情報と、前記位置決め要素のキーポイントのタイプ及び位置情報と、を含む位置決め要素検出方法。 - 前記位置決め要素は、駐車スペース、駐車スペース番号、車線、地面矢印、減速帯及び歩道のうちの少なくとも1つを含む請求項1に記載の位置決め要素検出方法。
- 前記語意タイプを用いて少なくとも1つの前記位置決め要素をマッチング融合するステップは、
前記キーポイントの位置情報および前記サラウンドビュー合成画像の各前記画素点の画素位置と組み合わせて、同じ位置の前記キーポイントのタイプおよび前記画素点の前記語意タイプをマッチングするステップと、
マッチング結果及び予め設定された融合ポリシーに基づいて、各前記位置決め要素の前記キーポイントの位置情報を校正するステップとを含む請求項1に記載の位置決め要素検出方法。 - 前記ディープニューラルネットワークモデルは、位置決め要素検出分岐と、キーポイント検出分岐とを含み、ここで、前記位置決め要素検出分岐は、前記位置決め要素に対して目標分類及び前記キーポイントの位置復帰を行うことに用いられ、前記キーポイント検出分岐は、前記キーポイントの検出を行うことに用いられ、
相応に、前記位置決め要素のキーポイントの位置情報は、位置復帰して取得された前記キーポイントと前記キーポイントを検出して取得されたキーポイントとを融合するにより決定される請求項1に記載の位置決め要素検出方法。 - 前記位置決め要素の検出結果を取得するステップの前に、
前記位置決め要素のタイプが駐車スペース番号である場合に、前記ディープニューラルネットワークモデルから駐車スペース番号検出フレームを抽出するステップと、
前記駐車スペース番号検出フレームが属する駐車スペースにおける前記駐車スペース番号に近い2つの前記駐車スペースの角点を結ぶ線と前記サラウンドビュー合成画像の画像座標系の横軸との間の夾角を算出するステップと、
前記駐車スペース番号検出フレームの中心点及び前記夾角に基づいて、回転した後の対応する前記駐車スペース番号が前記画像座標系において水平になるように、前記ディープニューラルネットワークモデルにおける前記駐車スペース番号検出フレームに対応する前記駐車スペース番号の特徴図を回転させるステップと、
文字分類子を用いて回転した後の前記駐車スペース番号の特徴図に対して駐車スペース番号識別を行うステップとをさらに含む請求項1に記載の位置決め要素検出方法。 - 前記ディープニューラルネットワークモデルを用いて前記サラウンドビュー合成画像に存在する反射領域を検出するステップと、
相応に、前記位置決め要素の検出結果を取得する前に、前記反射領域の検出結果と組み合わせて、位置情報が前記反射領域にある位置決め要素をフィルタリングするステップとをさらに含む請求項1に記載の方法。 - 前記車両の周囲の前記サラウンドビュー合成画像を取得する前記ステップは、
前記車両の周囲に位置する魚眼カメラが収集した画像をそれぞれ取得するステップと、
前記画像を合成して、前記サラウンドビュー合成画像を取得するステップとを含む請求項1に記載の位置決め要素検出方法。 - 車両の周囲のサラウンドビュー合成画像を取得する画像取得モジュールと、
前記サラウンドビュー合成画像を検出し、前記車両の周囲の地面に存在する少なくとも1つの位置決め要素及び前記サラウンドビュー合成画像の各画素点が属する語意タイプを決定する位置決め要素検出モジュールと、
前記語意タイプを用いて少なくとも1つの前記位置決め要素をマッチング融合し、前記位置決め要素の検出結果を取得するマッチング融合モジュールとを備え、
前記位置決め要素検出モジュールが、
予めトレーニングされたディープニューラルネットワークモデルを用いて前記サラウンドビュー合成画像を検出し、前記サラウンドビュー合成画像の各前記画素点に対して語意分割を行い、前記車両の周囲の地面に存在する少なくとも1つの前記位置決め要素の情報、及び前記サラウンドビュー合成画像の各前記画素点が属する前記語意タイプを決定することに用いられ、
前記位置決め要素の情報が、少なくとも、前記位置決め要素のタイプ及び位置情報と、前記位置決め要素のキーポイントのタイプ及び位置情報と、を含む位置決め要素検出装置。 - 前記位置決め要素は、駐車スペース、駐車スペース番号、車線、地面矢印、減速帯及び歩道のうちの少なくとも1つを含む請求項8に記載の位置決め要素検出装置。
- 前記マッチング融合モジュールは、
前記キーポイントの位置情報および前記サラウンドビュー合成画像の各前記画素点の画素位置と組み合わせて、同じ位置の前記キーポイントのタイプおよび前記画素点の前記語意タイプをマッチングするマッチングユニットと、
マッチング結果及び予め設定された融合ポリシーに基づいて、各前記位置決め要素の前記キーポイントの位置情報を校正する校正ユニットとを備える請求項8に記載の位置決め要素検出装置。 - 前記ディープニューラルネットワークモデルは、位置決め要素検出分岐と、キーポイント検出分岐とを含み、ここで、前記位置決め要素検出分岐は、前記位置決め要素に対して目標分類及び前記キーポイントの位置復帰を行うことに用いられ、前記キーポイント検出分岐は、前記キーポイントの検出を行うことに用いられ、
相応に、前記位置決め要素の前記キーポイントの位置情報は、位置復帰して取得された前記キーポイントと前記キーポイントを検出して取得されたキーポイントとを融合するにより決定される請求項8に記載の位置決め要素検出装置。 - 駐車スペース番号検出モジュールをさらに備え、
該モジュールは、具体的には、前記マッチング融合モジュールが前記位置決め要素の検出結果を取得する前に、
前記位置決め要素のタイプが駐車スペース番号である場合に、前記ディープニューラルネットワークモデルから駐車スペース番号検出フレームを抽出し、
前記駐車スペース番号検出フレームが属する駐車スペースにおける前記駐車スペース番号に近い2つの前記駐車スペースの角点を結ぶ線と前記サラウンドビュー合成画像の画像座標系の横軸との間の夾角を算出し、
前記駐車スペース番号検出フレームの中心点及び前記夾角に基づいて、回転した後の対応する前記駐車スペース番号が前記画像座標系において水平になるように、前記ディープニューラルネットワークモデルにおける前記駐車スペース番号検出フレームに対応する前記駐車スペース番号の特徴図を回転させ、
文字分類子を用いて回転した後の前記駐車スペース番号の特徴図に対して駐車スペース番号識別を行うという操作を実行することに用いられる請求項8に記載の位置決め要素検出装置。 - 前記位置決め要素検出モジュールが、前記ディープニューラルネットワークモデルを用いて前記サラウンドビュー合成画像に存在する反射領域を検出することに用いられ、
相応に、前記位置決め要素の検出結果を取得する前に、前記反射領域の検出結果と組み合わせて、位置情報が前記反射領域にある位置決め要素をフィルタリングする位置決め要素フィルタリングモジュールをさらに備える請求項8に記載の位置決め要素検出装置。 - 前記画像取得モジュールは、
前記車両の周囲に位置する魚眼カメラが収集した画像をそれぞれ取得する画像取得ユニットと、
前記画像を合成して、前記サラウンドビュー合成画像を取得する画像合成ユニットとを備える請求項8に記載の位置決め要素検出装置。 - 電子機器であって、
前記電子機器の周囲に位置して画像を収集するための魚眼カメラと、
少なくとも1つのプロセッサと、
少なくとも1つの前記プロセッサと通信可能に接続されるメモリとを備え、
前記メモリには、少なくとも1つの前記プロセッサによって実行可能な命令が記憶されており、前記命令は、少なくとも1つの前記プロセッサによって実行される場合、少なくとも1つの前記プロセッサが請求項1から請求項7のいずれかに記載の位置決め要素検出方法を実行する電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1から請求項7のいずれかに記載の位置決め要素検出方法を実行させることに用いられる非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータ上で動作しているときに、請求項1から請求項7のいずれかに記載の位置決め要素検出方法を前記コンピュータに実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010072016.9A CN111274974B (zh) | 2020-01-21 | 2020-01-21 | 定位元素检测方法、装置、设备和介质 |
CN202010072016.9 | 2020-01-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021117988A JP2021117988A (ja) | 2021-08-10 |
JP7228559B2 true JP7228559B2 (ja) | 2023-02-24 |
Family
ID=71001255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020215097A Active JP7228559B2 (ja) | 2020-01-21 | 2020-12-24 | 位置決め要素検出方法、位置決め要素検出装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11335101B2 (ja) |
EP (1) | EP3855351B1 (ja) |
JP (1) | JP7228559B2 (ja) |
KR (1) | KR102436300B1 (ja) |
CN (1) | CN111274974B (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112150550B (zh) * | 2020-09-23 | 2021-07-27 | 华人运通(上海)自动驾驶科技有限公司 | 一种融合定位方法及装置 |
CN112464934A (zh) * | 2020-12-08 | 2021-03-09 | 广州小鹏自动驾驶科技有限公司 | 一种车位号检测方法、装置和设备 |
CN113177502B (zh) * | 2021-05-13 | 2024-02-02 | 北京罗克维尔斯科技有限公司 | 环视障碍物检测方法、装置、介质、车载系统以及车辆 |
CN113276845A (zh) * | 2021-07-02 | 2021-08-20 | 上海追势科技有限公司 | 一种带有显示增强功能的自动泊车方法 |
CN113674199A (zh) * | 2021-07-06 | 2021-11-19 | 浙江大华技术股份有限公司 | 停车位检测方法、电子设备及存储介质 |
CN113781300B (zh) * | 2021-08-17 | 2023-10-13 | 东风汽车集团股份有限公司 | 一种用于远距离自主泊车的车辆视觉定位方法 |
CN113762272B (zh) * | 2021-09-10 | 2024-06-14 | 北京精英路通科技有限公司 | 道路信息的确定方法、装置和电子设备 |
CN114022501A (zh) * | 2021-10-28 | 2022-02-08 | 武汉中海庭数据技术有限公司 | 箭头角点自动化检测方法、系统、电子设备及存储介质 |
CN114111815B (zh) * | 2021-11-01 | 2023-02-03 | 广州小鹏自动驾驶科技有限公司 | 一种地图数据的处理方法和装置 |
CN114530056B (zh) * | 2022-02-15 | 2023-05-02 | 超级视线科技有限公司 | 一种基于定位信息和图像信息的停车管理方法及系统 |
KR20240020543A (ko) * | 2022-08-08 | 2024-02-15 | 현대자동차주식회사 | 차량의 카메라 캘리브레이션 장치 및 방법 |
CN115497099B (zh) * | 2022-09-23 | 2023-04-18 | 神州数码系统集成服务有限公司 | 一种基于圆周扫描式的单一字符图像匹配识别方法 |
CN115294204B (zh) * | 2022-10-10 | 2023-03-17 | 浙江光珀智能科技有限公司 | 一种户外目标定位方法及系统 |
CN116402314A (zh) * | 2023-05-31 | 2023-07-07 | 北京拓普丰联信息科技股份有限公司 | 一种信息提示方法、装置、设备和介质 |
CN117131150B (zh) * | 2023-10-26 | 2023-12-26 | 毫末智行科技有限公司 | 电子地图的生成方法、装置、车辆和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089505A1 (en) | 2016-09-23 | 2018-03-29 | Samsung Electronics Co., Ltd. | System and method for deep network fusion for fast and robust object detection |
JP2019096132A (ja) | 2017-11-24 | 2019-06-20 | トヨタ自動車株式会社 | 物体認識装置 |
US20190325580A1 (en) | 2019-06-26 | 2019-10-24 | Intel Corporation | Surround camera system with seamless stitching for arbitrary viewpoint selection |
JP2019207541A (ja) | 2018-05-29 | 2019-12-05 | 株式会社日立製作所 | 画像処理装置及びその方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01113665A (ja) * | 1987-10-27 | 1989-05-02 | Fuji Heavy Ind Ltd | スリップ検出装置 |
US10244098B2 (en) * | 2015-01-27 | 2019-03-26 | Prasad Muthukumar | Autonomous mobility, orientation and rotation providing mechanism for mobile devices [AMORPM] |
JP7213809B2 (ja) * | 2016-12-09 | 2023-01-27 | トムトム グローバル コンテント ベスローテン フエンノートシャップ | ビデオベースの位置決め及びマッピングの方法及びシステム |
CN108090455B (zh) * | 2017-12-27 | 2023-08-22 | 北京纵目安驰智能科技有限公司 | 基于级联机制的车位线顶点定位方法、系统、终端及介质 |
US10650531B2 (en) * | 2018-03-16 | 2020-05-12 | Honda Motor Co., Ltd. | Lidar noise removal using image pixel clusterings |
KR102006291B1 (ko) | 2018-03-27 | 2019-08-01 | 한화시스템(주) | 전자 장치의 이동체 포즈 추정 방법 |
US11100366B2 (en) * | 2018-04-26 | 2021-08-24 | Volvo Car Corporation | Methods and systems for semi-automated image segmentation and annotation |
CN108764137A (zh) * | 2018-05-29 | 2018-11-06 | 福州大学 | 基于语义分割的车辆行驶车道定位方法 |
CN110617821B (zh) * | 2018-06-19 | 2021-11-02 | 北京嘀嘀无限科技发展有限公司 | 定位方法、装置及存储介质 |
CN109141444B (zh) * | 2018-08-28 | 2019-12-06 | 北京三快在线科技有限公司 | 定位方法、装置、存储介质及移动设备 |
CN110136049B (zh) * | 2018-10-30 | 2023-07-11 | 北京魔门塔科技有限公司 | 一种基于环视图像与轮速计融合的定位方法及车载终端 |
CN109374008A (zh) * | 2018-11-21 | 2019-02-22 | 深动科技(北京)有限公司 | 一种基于三目摄像头的图像采集系统及方法 |
CN110210280B (zh) * | 2019-03-01 | 2024-04-19 | 北京纵目安驰智能科技有限公司 | 一种超视距感知方法、系统、终端和存储介质 |
US11092456B2 (en) * | 2019-03-08 | 2021-08-17 | Aptiv Technologies Limited | Object location indicator system and method |
CN109945858B (zh) * | 2019-03-20 | 2021-04-13 | 浙江零跑科技有限公司 | 用于低速泊车驾驶场景的多传感融合定位方法 |
CN109949609B (zh) * | 2019-04-30 | 2020-11-13 | 广州小鹏汽车科技有限公司 | 一种车辆的定位修正方法及系统、车辆 |
CN110163176B (zh) * | 2019-05-28 | 2021-06-18 | 北京百度网讯科技有限公司 | 车道线变化位置识别方法、装置、设备和介质 |
CN110595459B (zh) * | 2019-09-18 | 2021-08-17 | 百度在线网络技术(北京)有限公司 | 车辆定位方法、装置、设备和介质 |
US11789155B2 (en) * | 2019-12-23 | 2023-10-17 | Zoox, Inc. | Pedestrian object detection training |
CN111274343B (zh) * | 2020-01-20 | 2023-11-24 | 阿波罗智能技术(北京)有限公司 | 一种车辆定位方法、装置、电子设备及存储介质 |
-
2020
- 2020-01-21 CN CN202010072016.9A patent/CN111274974B/zh active Active
- 2020-10-21 US US17/076,324 patent/US11335101B2/en active Active
- 2020-12-17 EP EP20214915.9A patent/EP3855351B1/en active Active
- 2020-12-24 JP JP2020215097A patent/JP7228559B2/ja active Active
-
2021
- 2021-01-18 KR KR1020210006649A patent/KR102436300B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089505A1 (en) | 2016-09-23 | 2018-03-29 | Samsung Electronics Co., Ltd. | System and method for deep network fusion for fast and robust object detection |
JP2019096132A (ja) | 2017-11-24 | 2019-06-20 | トヨタ自動車株式会社 | 物体認識装置 |
JP2019207541A (ja) | 2018-05-29 | 2019-12-05 | 株式会社日立製作所 | 画像処理装置及びその方法 |
US20190325580A1 (en) | 2019-06-26 | 2019-10-24 | Intel Corporation | Surround camera system with seamless stitching for arbitrary viewpoint selection |
Non-Patent Citations (2)
Title |
---|
Alexander Kirillov et al.,"Panoptic Segmentation",2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2019年06月15日,pp.9396-9405 |
Liuyuan Deng et al.,"Restricted Deformable Convolution based Road Scene Semantic Segmentation Using Surround View Cameras",arXiv,米国,Cornell University,2019年09月16日,pp.1-13,https://arxiv.org/abs/1801.00708 |
Also Published As
Publication number | Publication date |
---|---|
JP2021117988A (ja) | 2021-08-10 |
CN111274974A (zh) | 2020-06-12 |
US11335101B2 (en) | 2022-05-17 |
CN111274974B (zh) | 2023-09-01 |
KR20210094476A (ko) | 2021-07-29 |
US20210224562A1 (en) | 2021-07-22 |
EP3855351A1 (en) | 2021-07-28 |
KR102436300B1 (ko) | 2022-08-25 |
EP3855351B1 (en) | 2023-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7228559B2 (ja) | 位置決め要素検出方法、位置決め要素検出装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム | |
US11586218B2 (en) | Method and apparatus for positioning vehicle, electronic device and storage medium | |
KR102581429B1 (ko) | 장애물을 탐지하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN109887003B (zh) | 一种用于进行三维跟踪初始化的方法与设备 | |
Zollmann et al. | Augmented reality for construction site monitoring and documentation | |
CN110322500A (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
CN111220154A (zh) | 车辆定位方法、装置、设备和介质 | |
CN108304075B (zh) | 一种在增强现实设备进行人机交互的方法与设备 | |
CN107292965A (zh) | 一种基于深度图像数据流的虚实遮挡处理方法 | |
JP7422105B2 (ja) | 路側計算装置に用いる障害物3次元位置の取得方法、装置、電子デバイス、コンピュータ可読記憶媒体、及びコンピュータプログラム | |
CN111324945B (zh) | 传感器方案确定方法、装置、设备及存储介质 | |
CN109191554B (zh) | 一种超分辨图像重建方法、装置、终端和存储介质 | |
CN111612852A (zh) | 用于验证相机参数的方法和装置 | |
JP7337121B2 (ja) | 環状交差点のナビゲーション方法、装置、デバイス及び記憶媒体 | |
EP2851868A1 (en) | 3D Reconstruction | |
US20210374977A1 (en) | Method for indoor localization and electronic device | |
CN110260857A (zh) | 视觉地图的校准方法、装置及存储介质 | |
CN112348886A (zh) | 视觉定位方法、终端和服务器 | |
CN110349212A (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
Höllerer et al. | “Anywhere augmentation”: Towards mobile augmented reality in unprepared environments | |
CN114782646A (zh) | 房屋模型的建模方法、装置、电子设备和可读存储介质 | |
CN113256724B (zh) | 一种手柄inside-out视觉6自由度定位方法及系统 | |
CN113011298B (zh) | 截断物体样本生成、目标检测方法、路侧设备和云控平台 | |
Wakai et al. | Rethinking generic camera models for deep single image camera calibration to recover rotation and fisheye distortion | |
CN111260722B (zh) | 车辆定位方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201224 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211029 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7228559 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |