JP2024507891A - 情報処理方法および関連デバイス - Google Patents
情報処理方法および関連デバイス Download PDFInfo
- Publication number
- JP2024507891A JP2024507891A JP2023550693A JP2023550693A JP2024507891A JP 2024507891 A JP2024507891 A JP 2024507891A JP 2023550693 A JP2023550693 A JP 2023550693A JP 2023550693 A JP2023550693 A JP 2023550693A JP 2024507891 A JP2024507891 A JP 2024507891A
- Authority
- JP
- Japan
- Prior art keywords
- information
- target
- contact
- sequence
- formation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 70
- 230000010365 information processing Effects 0.000 title claims abstract description 69
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 377
- 238000001514 detection method Methods 0.000 claims abstract description 341
- 238000000034 method Methods 0.000 claims abstract description 84
- 230000004927 fusion Effects 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims description 207
- 238000004422 calculation algorithm Methods 0.000 claims description 52
- 238000013507 mapping Methods 0.000 claims description 48
- 238000012986 modification Methods 0.000 claims description 8
- 230000004048 modification Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 4
- 238000005755 formation reaction Methods 0.000 description 291
- 238000010586 diagram Methods 0.000 description 32
- 230000033001 locomotion Effects 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 10
- 238000005192 partition Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012550 audit Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/91—Radar or analogous systems specially adapted for specific applications for traffic control
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4026—Antenna boresight
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Electromagnetism (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
- Position Input By Displaying (AREA)
Abstract
検出情報の融合効率を向上させる情報処理方法および関連デバイスが提供される。方法は、複数のセンサから複数の検出情報を取得することであって、検出情報は、同じ標的オブジェクトについて異なるセンサからの検出情報を含む、取得することと、複数の検出情報に基づいて対応するフォーメーション情報を取得することと、複数のフォーメーション情報に基づいて標的フォーメーション情報を決定することであって、標的フォーメーション情報は、同じ標的オブジェクトセットについて異なるセンサによって検出される検出情報を示す、決定することと、標的オブジェクトセットにおける各標的オブジェクトのフォーメーション位置情報に基づいて複数のフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合させることと、を含む。
Description
(関連出願の参照)
この出願は、2021年2月27日に出願された「情報処理方法および関連デバイス」という名称の中国特許出願第202110221913.6号の優先権を主張し、その全体が参照により本明細書に組み込まれる。
この出願は、2021年2月27日に出願された「情報処理方法および関連デバイス」という名称の中国特許出願第202110221913.6号の優先権を主張し、その全体が参照により本明細書に組み込まれる。
(技術分野)
この出願の実施形態は、データ処理の分野に関し、特に、情報処理方法および関連デバイスに関する。
この出願の実施形態は、データ処理の分野に関し、特に、情報処理方法および関連デバイスに関する。
同じ標的オブジェクトについて,異なるタイプのセンサによって検出できる特徴情報は異なる。例えば、カメラは標的オブジェクトの出現特徴を検出し、レーダは、標的オブジェクトの移動速度および距離を検出する。同じ標的オブジェクトについて、標的オブジェクトのより多くの特徴情報を得るためには、異なるセンサの検出結果を組み合わせて、標的オブジェクトの融合した検出情報を得る必要がある。
異なるタイプのセンサの検出結果の融合を実現するためには、異なるセンサの空間および時間がアライメント(整列)させられる必要がある。空間アライメント手順は、次の通りである。すなわち、センサによって検出することができるピクチャを得て、実空間における較正点を決定し、実空間における較正点の位置を、較正点がピクチャに表示される位置に関連付ける。以上の動作を複数の較正点に対して実行して、実空間と各センサによって検出されたピクチャとのマッピング関係を確立する。すなわち、センサで検出されるピクチャ間のマッピング関係が確立される。次に、異なるセンサの時間がアライメントされる。同じ瞬間に、オブジェクト情報がセンサによって検出されるピクチャ中のある地点で検出され、オブジェクト情報が他のセンサによって検出されるピクチャ中にありかつその地点に対応する地点で検出されるとき、2つの情報は、同じオブジェクトの情報であると決定されることがある。従って、オブジェクトについての異なるセンサからの検出結果は、オブジェクトの融合検出情報として互いに組み合わされることがある。
この方法は手動較正を通じて実現される必要があり、情報融合の効率は低い。
この出願の実施形態は、異なるセンサによって検出される検出情報の融合を実現して、検出情報の融合の効率を向上させる、情報処理方法を提供する。
この出願の実施形態の第1の態様が、情報処理方法を提供する。方法は、監視システム内の処理デバイスに適用され、検出システムは、複数のセンサをさらに含む。複数のセンサの各々によって取得される検出情報は、同じ複数の標的オブジェクトの検出情報が含む。方法は、以下を含む。
処理デバイスは、複数のセンサから複数の検出情報を取得する。複数の検出情報は、複数のセンサと1対1で対応し、複数の検出情報の各々は、検出情報に対応するセンサによって検出される。処理デバイスは、複数の検出情報に基づいて、複数の対応するフォーメーション情報を決定する。複数のフォーメーション情報は、複数の検出情報と1対1で対応する。各フォーメーション情報は、対応するセンサによって検出されるオブジェクト間の位置関係を記述するために使用され、オブジェクトは、前述の標的オブジェクトを含む。処理デバイスは、複数のフォーメーション情報に基づいて標的フォーメーション情報を決定する。標的フォーメーション情報と複数のフォーメーション情報との間の一致度は、予め設定された閾値よりも大きい。標的フォーメーション情報は、前述の複数の標的ブジェクト間の位置関係を記述するために使用され、標的フォーメーション情報は、標的ブジェクトのフォーメーション位置情報を含む。処理デバイスは、標的オブジェクトの任意の1つの標的オブジェクトのフォーメーション位置情報に基づいて、複数のフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合させる。
この出願のこの実施形態において、センサによって検出されるオブジェクトのフォーメーション情報は、異なるセンサからの検出情報に基づいて別々に決定される。標的フォーメーション情報は標的フォーメーション情報と各フォーメーション情報との一致度に基づいて決定されるので、標的オブジェクトが決定される。標的フォーメーション情報は、異なるセンサによって検出されかつ類似の特徴を有するフォーメーション情報であり、異なるセンサによって検出されかつ同じ標的オブジェクトのものである情報を反映するので、標的フォーメーション情報に反映される、任意のオブジェクトのものでありかつ異なるセンサによって取得される検出結果の間の対応は、標的フォーメーション情報に基づいて決定されることがある。同じ標的オブジェクトのものでありかつ異なるセンサによって取得される検出結果は、前記対応に基づいて融合されることがある。手動較正方法と比較して、この出願のこの実施形態において使用される方法は、フォーメーション情報に基づいて融合検出情報を取得し、融合検出情報を取得する効率を大幅に向上させる。
加えて、情報収集の観点において、この出願のこの実施形態における方法は、測定フィールドのいずれをも占有することなく、異なるセンサからの検出情報のみを必要とする。従って、検出情報の融合の適用性が拡大される。
第1の態様に関して、この出願のこの実施形態の第1の態様の第1の実装において、検出情報は、位置特徴セットを含むことがある。位置特徴セットは、複数の位置特徴を含むことがあり、位置特徴は、対応するセンサによって検出されるオブジェクトとオブジェクトの周囲のオブジェクトとの間の位置関係を示す。
この出願のこの実施形態において、検出情報は、位置特徴セットを含む。位置特徴セットは、センサによって検出されるオブジェクト間の位置関係を正確に反映することがある、すなわち、オブジェクト間の位置関係に基づいてフォーメーション情報を正確に決定することがある。従って、同じ標的オブジェクトについて、異なるセンサからの検出情報は正確に融合される。
第1の態様の第1の実装を参照すると、この出願のこの実施形態の第1の態様の第2の実装において、処理デバイスが複数の検出情報に基づいて複数の対応するフォーメーション情報を決定することは、具体的には、処理デバイスが、複数の位置特徴セットに基づいて、複数の対応する線接触情報を取得することを含む。複数の線接触情報の各々は、対応するセンサにより検出されるオブジェクトが基準線に接触する情報を記述するために使用され、前述の複数の線接触情報は、前述の複数の位置特徴セットと1対1で対応する。処理デバイスは、前述の複数の線接触情報に基づいて、複数の対応するフォーメーション情報を別々に決定する。前述の複数の線接触情報は、前述の複数のフォーメーション情報と1対1で対応する。
この出願のこの実施形態において、線接触情報は、位置特徴セットに基づいて取得される。何故ならば、線接触情報は、オブジェクトが基準線に接触する情報であるからである。接触時間、接触間隔、接触位置のような、特定の値または特定の位置特徴を含むデータが、オブジェクトが基準線に接触するときに取得されることがある。従って、複数の接触時間点を含む数字シーケンス(数列)、複数の接触間隔を含む数字シーケンス、または複数の接触位置を含む分布関係のような、線接触データのセットが、複数の標的オブジェクトが線に接触する特定の値または特定の位置特徴に基づいて取得されることがある。前述の線接触データのセットは、特定の値または位置特徴を有するので、如何なる他のデータ処理も伴わずに、操作が直接実行されることがある。従って、その一致度が予め設定された閾値を満たす標的フォーメーション情報が迅速に決定されることがある。
第1の態様の第2の実装を参照すると、この出願のこの実施形態の第1の態様の第3の実装において、標的フォーメーション情報は、接触区画シーケンスに基づいて決定されてよく、具体的には、以下を含む。
線接触情報は、対応するセンサによって検出されるオブジェクトが基準線に接触する時系列情報および接触点区画情報を含む。接触点区画情報は、基準線上にありかつオブジェクトが基準線に接触する接触点の区画情報を示す。フォーメーション情報は、接触区画シーケンスを含み、接触区画シーケンスは、対応するセンサによって検出されるオブジェクトが基準線に接触する区画位置の間の時系列関係を示す。
処理デバイスが複数のフォーメーション情報に基づいて標的フォーメーション情報を決定することは、具体的には、以下を含む。すなわち、処理デバイスは、複数の接触区画シーケンスの第1の部分列を取得し、第1の部分列を標的フォーメーション情報として使用し、その場合、第1の部分列と複数の接触区画シーケンスとの間の一致度は、第1の閾値よりも大きい。
処理デバイスが標的オブジェクトの前述のフォーメーション位置情報に基づいて前述の複数のフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合させることは、具体的には、以下を含む。すなわち、処理デバイスは、第1の部分列内にありかつ各標的オブジェクトに対応する接触点区画情報に基づいて、複数の接触区画シーケンス内にありかつ同じ標的オブジェクトに対応する検出情報を融合させる。
この出願のこの実施形態において、時系列情報は、異なる標的オブジェクトが基準線に接触する時系列を示し、接触点区画情報は、異なる標的オブジェクトが基準線に接触する左右関係を示す。複数の標的オブジェクトが基準線に接触する位置の関係は、時系列を示す時系列情報および左右関係を示す接触点区画情報を使用することによって、接触区画シーケンスに反映される。時系列情報および接触点区画情報は、両方とも特定の値であるので、接触区画シーケンスは、標的オブジェクトの間の位置関係を反映する値のセットである。対応する接触区画シーケンスが、異なるセンサからの検出情報に基づいて取得される。複数の取得される接触区画シーケンスは、複数の値セットである。値セットの間の一致度が予め設定された閾値を満たすことを決定するために、それは対応する値の間の比較のみを必要とし、複雑な演算を伴わない。従って、標的フォーメーション情報を決定するためにマッチングを行うことの効率が向上する。
第1の態様の第3の実装を参照すると、この出願のこの実施形態の第1の態様の第4の実装では、最長共通部分列(longest common sequence,LCS)アルゴリズムを使用して、異なるセンサからの検出情報内にある複数の接触区画シーケンスに基づいて、各接触区画シーケンスとの一致度が第1の閾値よりも大きい第1の部分列を決定してよい。この出願のこの実施形態では、LCSアルゴリズムを使用することによって複数の接触区画シーケンスの全ての共通シーケンスを取得して、複数の接触区画シーケンスにおける同じ位置特徴のマッチングを実施してよい。最長共通部分列は、LCSアルゴリズムを使用することによって計算されるので、LCSアルゴリズムを使用することによって決定される前述の第1の部分列は、前述の複数の接触区画シーケンスとの一致度が第1の閾値よりも大きい部分列内の最長部分列を含むことがある。
この出願のこの実施形態では、複数の接触区画シーケンスの全ての共通シーケンスを、LCSアルゴリズムを使用することによって決定して、マッチングを通じて、接触区画シーケンスのものでありかつ同じ位置特徴を有する全てのセグメントを取得してよい。複数のセグメントが共通シーケンスであり、幾つかの非共通シーケンスが共通シーケンスに含まれるならば、共通シーケンスに含まれる非共通シーケンスが特定される。非共通シーケンスは、異なるセンサにおける異なる位置関係を反映する。この場合には、センサの誤検出または検出漏れの故に、非共通シーケンスが共通シーケンスに含まれると考えられてよい。従って、フォールトトレランスが、非共通シーケンスに対して実行される、すなわち、非共通シーケンスは、検出情報の融合を実現するために、異なるセンサによって検出される標的オブジェクトに対応することが可能にされる。
この出願のこの実施形態において、LCSアルゴリズムを使用することによって決定される第1の部分列は、前述の複数の接触区画シーケンスとの一致度が第1の閾値よりも大きい部分列内の最長部分列を含むことがある。標的ブジェクト間の位置関係は、時折、類似する。従って、決定される部分列のより長い長さは、類似の位置関係を有する可能性がより低いことを示し、その結果、不測の事態がより容易に回避されることがある。最長部分列は、LCSアルゴリズムを使用することによって決定されるので、同じ標的オブジェクトセットの標的フォーメーション情報が正確に決定されることがある。例えば、2つの標的ブジェクト間の位置関係は、時折、類似することがある。しかしながら、10個の標的オブジェクトの位置関係が高い一致度を有するように標準が改良されるならば、10個の標的オブジェクトが類似の位置関係を有する可能性は、2個の標的オブジェクトが類似の位置関係を有する可能性よりも大幅により低い。従って、LCSアルゴリズムを使用することによって10個の標的オブジェクトの第1の部分列が決定されるならば、10個の標的オブジェクトが異なるセンサによって取得される検出結果に対応する同じ10個の標的オブジェクトである可能性はより高く、不一致の可能性は低減される。
第1の態様の第2の実装を参照すると、この出願のこの実施形態の第1の態様の第5の実装において、標的フォーメーション情報は、接触位置シーケンスに基づいて決定されてよく、具体的には、以下を含む。
線接触情報は、対応するセンサによって検出されるオブジェクトが基準線に接触する時系列情報および接触点位置情報を含む。接触点位置情報は、基準線上にありかつオブジェクトが基準線に接触する接触点の位置情報を示し、標的オブジェクトの間の左右の位置関係を反映する。フォーメーション情報は、接触位置シーケンスを含み、接触位置シーケンスは、対応するセンサによって検出されるオブジェクトが基準線に接触する位置の間の時系列関係を示す。
処理デバイスが複数のフォーメーション情報に基づいて標的フォーメーション情報を決定することは、具体的には、以下を含む。すなわち、処理デバイスは、複数の接触位置シーケンスの第3の部分列を取得し、第3の部分列を標的フォーメーション情報として使用し、その場合、第3の部分列と複数の接触位置シーケンスとの間の一致度は、第3の閾値よりも大きい。
処理デバイスが、標的オブジェクトの前述のフォーメーション位置情報に基づいて、前述の複数のフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合させることは、具体的には、以下を含む。すなわち、処理デバイスは、第3の部分列内にありかつ各標的オブジェクトに対応する接触点位置情報に基づいて、複数の接触位置シーケンス内にありかつ同じ標的オブジェクトに対応する検出情報を融合させる。
この出願のこの実施形態において、接触点位置情報は、異なる標的ブジェクトが基準線に接触する左右関係を示し、連続した値またはデータであることがある。従って、連続する値またはデータに基づいて、標的オブジェクトのフォーメーション情報は、別の非標的オブジェクトのフォーメーション情報からより正確に区別されることがある。従って、同じ標的オブジェクトの検出情報は、より正確に融合されることがある。
加えて、標的ブジェクト間の運動傾向が、連続する値またはデータに基づいて分析または計算されることがある。運動傾向に加えて、他の情報、例えば、標的ブジェクトの移動軌跡がさらに計算されることがある。これは本明細書において限定されない。
第1の態様の第2の実装を参照すると、この出願のこの実施形態の第1の態様の第6の実装において、標的フォーメーション情報は、接触間隔シーケンスに基づいて決定されることがあり、具体的には、以下を含む。
線接触情報は、対応するセンサによって検出されるオブジェクトが基準線に接触する時系列情報および接触時間間隔情報を含む。接触時間間隔情報は、オブジェクトが基準線に接触する時間間隔を示す。フォーメーション情報は、接触間隔シーケンスを含み、接触間隔シーケンスは、対応するセンサによって検出されるオブジェクトが基準線に接触する時間間隔の分布を示す。
処理デバイスが複数のフォーメーション情報に基づいて標的フォーメーション情報を決定することは、具体的には、以下を含む。すなわち、処理デバイスは、複数の接触間隔シーケンスの第2の部分列を取得し、第2の部分列を標的フォーメーション情報として使用し、その場合、第2の部分列と複数の接触間隔シーケンスとの間の一致度は、第2の閾値よりも大きい。
処理デバイスが、標的オブジェクトのフォーメーション位置情報に基づいて、少なくとも2つのフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合させることは、以下を含む。すなわち、処理デバイスは、第2の部分列ないにありかつ各標的オブジェクトに対応する接触時間分布情報に基づいて少なくとも2つの接触間隔シーケンス内にありかつ同じ標的オブジェクトに対応する検出情報を融合させる。
この出願のこの実施形態において、時系列情報は、異なる標的オブジェクトが基準線に接触する時系列を示し、接触時間間隔情報は、異なる標的オブジェクトが基準線に接触する時間間隔を示す。複数の標的オブジェクトが基準線に接触する位置の関係は、時系列を示す時系列情報および時間間隔を示す接触時間間隔情報を使用することによって接触時間間隔シーケンスに反映される。時系列情報および接触時間間隔情報は、両方とも特定の値であるので、接触時間間隔シーケンスは、標的オブジェクトの間の位置関係を反映する値のセットである。対応する接触間隔シーケンスは、異なるセンサからの検出情報に基づいて取得される。複数の取得される接触間隔シーケンスは、複数の値セットである。値セットの間の一致度が予め設定された閾値を満たすことを決定するためには、対応する値の間の比較のみを必要とし、複雑な演算はない。従って、標的フォーメーション情報を決定するためにマッチングを行うことの効率が向上する。
第1の態様の第6の実装を参照すると、この出願のこの実施形態の第1の態様の第7の実装では、LCSアルゴリズムを使用して、異なるセンサからの検出情報内にある複数の接触間隔シーケンスに基づいて、各接触間隔シーケンスとの一致度が第2の閾値よりも大きい第2の部分列を決定してよい。この出願のこの実施形態では、LCSアルゴリズムを使用することによって複数の接触間隔シーケンスの全ての共通シーケンスを取得して、複数の接触間隔シーケンスにおける同じ位置特徴のマッチングを実施してよい。最長共通部分列は、LCSアルゴリズムを使用することによって計算されるので、LCSアルゴリズムを使用することによって決定される前述の第2の部分列は、前述の複数の接触間隔シーケンスとの一致度が第2の閾値よりも大きい部分列中の最長部分列を含むことがある。
この出願のこの実施形態において、LCSアルゴリズムを使用することによって複数の接触間隔シーケンスの全ての共通シーケンスを決定して、マッチングを通じて、接触間隔シーケンス内にありかつ同じ位置特徴を有する全てのセグメントを取得してよい。複数のセグメントが共通シーケンスであり、幾つかの非共通シーケンスが共通シーケンスに含まれるならば、共通シーケンスに含まれる非共通シーケンスが特定されることがある。非共通シーケンスは、異なるセンサにおける異なる位置関係を反映する。この場合、センサの誤検出または検出漏れの故に、非共通シーケンスが共通シーケンスに含まれると考えられてよい。従って、フォールトトレランスが非共通シーケンスに対して行われる、すなわち、非共通シーケンスは、検出情報の融合を実現するために、異なるセンサによって検出される標的オブジェクトに対応することが可能にされる。
この出願のこの実施形態において、LCSアルゴリズムを使用することによって決定される第2の部分列は、複数の接触間隔シーケンスとの一致度が第2の閾値よりも大きい部分列内の最長部分列を含むことがある。標的ブジェクトが基準線に接触する時間間隔は、時折、類似することがある。従って、決定された部分列のより長い長さは、類似の時間間隔を有する可能性がより低いことを示し、その結果、不測の事態がより容易に回避されることがある。最長部分列はLCSアルゴリズムを使用することによって決定されるので、同じ標的オブジェクトセットの標的フォーメーション情報が正確に決定されることがある。例えば、2つの標的ブジェクトが基準線に接触する時間間隔は、時折、類似することがある。しかしながら、10個の標的オブジェクトの時間間隔が高い一致度を有するように標準が改良されるならば、10個の標的オブジェクトが類似の時間間隔で基準線に接触する可能性は、2個の標的オブジェクトが類似の時間間隔で基準線に接触する可能性よりも大幅により低い。従って、LCSアルゴリズムを使用することによって10個の標的オブジェクトの第2の部分列が決定されるならば、10個の標的オブジェクトが異なるセンサによって取得される検出結果に対応する10個の標的オブジェクトと同じである可能性はより高く、不一致の可能性は低減される。
第1の態様の第2の実装を参照すると、この出願のこの実施形態の第1の態様の第8の実装において、標的フォーメーション情報は、接触区画シーケンスおよび接触間隔シーケンスに基づいて決定されてよく、具体的には、以下を含む。
線接触情報は、対応するセンサによって検出されるオブジェクトが基準線に接触する時系列情報、接触点区画情報、および接触時間間隔情報を含む。接触点区画情報は、基準線上にありかつオブジェクトが基準線に接触する接触点の区画情報を示す。接触時間間隔情報は、オブジェクトが基準線に接触する時間間隔を示す。フォーメーション情報は、接触区画シーケンスおよび接触間隔シーケンスを含み、その場合、接触区画シーケンスは、対応するセンサによって検出されるオブジェクトが基準線に接触する区画位置の間の時系列関係を示し、接触間隔シーケンスは、対応するセンサによって検出されるオブジェクトが基準線に接触する時間間隔の分布を示す。
処理デバイスが複数のフォーメーション情報に基づいて標的フォーメーション情報を決定することは、具体的には、以下を含むことがある。
処理デバイスは、少なくとも2つの接触区画シーケンスの第1の部分列を取得し、その場合、第1の部分列と複数の接触区画シーケンスとの間の一致度は、第1の閾値よりも大きい。処理デバイスは、少なくとも2つの接触間隔シーケンスの第2の部分列を取得し、その場合、第2の部分列と複数の接触間隔シーケンスとの間の一致度は、第2の閾値よりも大きい。処理デバイスは、第1のオブジェクトセットおよび第2のオブジェクトセットの交差を決定し、交差を標的オブジェクトセットとして使用し、その場合、第1のオブジェクトセットは、第1の部分列に対応するオブジェクトのセットであり、第2のオブジェクトセットは、第2の部分列に対応するオブジェクトのセットである。処理デバイスは、標的ブジェクトセットの接触区画シーケンスおよび接触間隔シーケンスを標的フォーメーション情報として使用する。
この出願のこの実施形態において、第1のオブジェクトセットおよび第2のオブジェクトセットの交差は、第1の部分列に対応する第1のオブジェクトセットおよび第2の部分列に対応する第2オブジェクトセットに基づいて決定され、交差は、標的オブジェクトセットとして使用される。交差内のオブジェクトは、第1の部分列に対応する、すなわち、類似の接触区画情報は、異なるセンサからの検出情報に基づいて取得されることがある。加えて、交差内のオブジェクトは、第2の部分列に対応する、すなわち、類似の接触時間間隔情報は、異なるセンサからの検出情報に基づいて存在する。オブジェクト間の位置関係を示す複数の類似情報が複数のセンサからの検出情報に基づいて取得されることがあるならば、検出情報に対応するオブジェクトセットが同じオブジェクトセットである可能性は、オブジェクト間の位置関係を示す1つだけの類似情報が取得されることがあるときよりも高い。従って、複数の部分列に対応するオブジェクトの交差をフィルタリングして、標的オブジェクトのフォーメーション情報を別の非標的オブジェクトのフォーメーション情報から正確に区別する。従って、同じ標的オブジェクトの検出情報が、より正確に融合される。
この出願のこの実施形態では、第1の部分列に対応するオブジェクトおよび第2の部分列に対応するオブジェクトの交差に加えて、他の部分列に対応するオブジェクトとの交差、例えば、第1の部分列に対応するオブジェクトおよび第3の部分列に対応するオブジェクトの交差、第2の部分列に対応するオブジェクトおよび第3の部分列に対応するオブジェクトの交差、または別の部分列に対応するオブジェクトおよび第1~第3の部分列のうちのいずれか1つに対応するオブジェクトとの間の交差が使用されてもよい。他の部分列は、オブジェクト間の位置関係、例えば、オブジェクト間の距離または方向を示すためにも使用される。これは本明細書において限定されない。異なる部分列に対応するオブジェクトの交差が取得されるので、適切な部分列が、操作のために柔軟に選択されることがあり、それによって、解決策の実行可能性および柔軟性が改良される。
この出願のこの実施形態では、2つの部分列に対応するオブジェクトの交差に加えて、より多くの部分列に対応するオブジェクトの交差が取得されることがある。例えば、第1の部分列、第2の部分列、および第3の部分列に対応するオブジェクトの交差が取得される。より多量の部分列が使用されるとき、それは、オブジェクト間の位置関係を示すより多くのタイプの類似情報が複数のセンサからの検出情報に基づいて取得されることがあり、検出情報に対応するオブジェクトセットが同じオブジェクトセットである可能性がより高いことを示す。従って、スクリーニングが、複数の部分列に対応するオブジェクトの交差に対して行われるので、標的オブジェクトのフォーメーション情報は、別の非標的オブジェクトのフォーメーション情報からより正確に区別されることがある。従って、同じ標的オブジェクトの検出情報は、より正確に融合される。
第1の態様の第1の実装を参照すると、この出願のこの実施形態の第1の態様の第9の実装において、標的フォーメーション情報は、標的グループ分布グラフに基づいて決定されることがあり、具体的には、以下を含む。
フォーメーション情報は、標的グループ分布グラフを含み、標的グループ分布グラフは、オブジェクト間の位置関係を示す。
処理デバイスが複数の検出情報に基づいて複数の対応するフォーメーション情報を決定することは、具体的には、以下を含むことがある。すなわち、処理デバイスは、複数の位置特徴セットに基づいて複数の対応する初期標的グループ分布グラフを取得し、その場合、初期標的グループ分布グラフは、対応するセンサによって検出されるオブジェクト間の位置関係を示す。処理デバイスは、ビューポート変更アルゴリズムを使用することによって複数の初期標的グループ分布グラフの標準ビューポートグラフを取得し、複数の標準ビューポートグラフを複数の対応する標的グループ分布グラフとして使用し、その場合、標的グループ分布グラフのフォーメーション位置情報は、標的オブジェクトの標的オブジェクト分布情報を含み、標的オブジェクト分布情報は、対応するセンサで検出されるオブジェクトにおける標的オブジェクトの位置を示す。
処理デバイスが、少なくとも2つのフォーメーション情報に基づいて、標的フォーメーション情報を決定することは、具体的には、以下を含む。すなわち、処理デバイスは、複数の標的グループ分布グラフの画像特徴セットを取得し、画像特徴セットを標的フォーメーション情報として使用し、その場合、画像特徴セットと複数の標的グループ分布グラフとの間の一致度は、第3の閾値よりも大きい。
処理デバイスが、標的オブジェクトのフォーメーション位置情報に基づいて、複数のフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合させることは、具体的には、以下を含む。すなわち、処理デバイスは、画像特徴セット内にありかつ各標的オブジェクトに対応する標的オブジェクト分布情報に基づいて、複数の標的グループ分布グラフ内にありかつ同じ標的オブジェクトに対応する検出情報を融合させる。
この出願のこの実施形態において、複数の対応する初期標的グループ分布グラフは、異なるセンサからの検出情報に基づいて取得され、複数の対応する標的グループ分布グラフは、ビューポート変更アルゴリズムを使用することによって取得される。次に、複数の標的グループ分布グラフの画像特徴セットが取得され、画像特徴セットは、標的フォーメーション情報として使用される。画像特徴セットと複数の標的グループ分布グラフとの間の一致度が予め設定された閾値よりも大きい画像特徴セットは、複数のセンサからの複数の標的グループ分布グラフに基づいて決定される。画像特徴は、ピクチャ内に表示されるオブジェクト間の位置関係を直感的に反映することがある。従って、画像特徴セットは、複数の標的グループ分布グラフに基づいて決定されるので、類似の位置関係を示す検出結果が、直感的に反映されることがある。すなわち、同じ標的グループ内にありかつ異なるセンサによって取得される検出結果が、マッチングを通じて決定されることがある。このようにして、検出情報は、正確に融合される。
第1の態様の第9の実装を参照すると、この出願のこの実施形態の第1の態様の第10の実装において、画像特徴セットは、基準線に基づいて取得されることがあり、具体的には、以下を含む。
処理デバイスは、複数の位置特徴セットに基づいて、位置特徴セットに対応する標的オブジェクトの複数の線接触情報を取得することがあり、その場合、複数の線接触情報の各々は、対応するセンサによって検出されるオブジェクトが基準線に接触する情報を記述するために使用され、複数の線接触情報は、複数の位置特徴セットと1対1で対応する。
処理デバイスが、複数の位置特徴セットに基づいて、複数の対応する初期標的グループ分布グラフを取得することは、具体的には、以下を含む。すなわち、処理デバイスは、複数の線接触情報に基づいて、対応する複数の初期標的グループ分布グラフを取得し、その場合、複数の初期標的グループ分布グラフ中のオブジェクトは、同じ線接触情報を有する。
この出願のこの実施形態では、近い時点で取得される画像間の類似度が高い。従って、同じ時点を指定されないならば、マッチングが異なるセンサからの初期標的オブジェクト分布グラフに対して行われると、近い時点で取得される初期標的グループ分布グラフに起因して、干渉が導入される。その結果、マッチングが分布グラフのマッチングに対して行われるときにエラーが発生し、画像特徴セットが取得されるときにエラーが発生する。結果的に、異なる瞬間に取得される検出情報が融合されて、検出情報の融合にエラーが生じさせる。このエラーは、線接触情報を使用することによって回避されることができる。具体的には、複数の初期標的グループ分布グラフは、線接触情報を使用することによって決定される。複数の初期標的グループ分布グラフは、同じ線接触情報を有する。これは、複数の初期標的グループ分布グラフが同じ時点で取得されることを示し、融合のための検出情報が同じ時点で取得されることを保証することがあり、それによって、検出情報の融合精度を向上させる。
第1の態様のいずれか1つ、および第1の態様の第1の実装~第10の実装を参照すると、この出願のこの実施形態の第1の態様の第11の実装において、異なるセンサの空間座標系間のマッピングが実装されることがあり、具体的には、以下を含む。
複数のセンサが、第1センサと、第2センサとを含み、その場合、第1センサに対応する空間座標系が標準座標系であり、第2センサに対応する空間座標系が標的座標系である。方法は、さらに、以下を含む。
処理デバイスは、融合検出情報に基づいて、複数の標準点情報と複数の標的点情報との間のマッピング関係を決定する。融合検出情報は、複数のフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合させることによって取得され、標準点情報は、標的オブジェクトセット内にありかつ標準座標系内にあるオブジェクトの位置情報を示し、標的点情報は、標的オブジェクトセット内にありかつ標的座標系内にあるオブジェクトの位置情報を示し、複数の標的点情報は、複数の標的点情報と1対1で対応する。処理デバイスは、標準点情報と標的点情報との間のマッピング関係に基づいて、標準座標系と標的座標系との間のマッピング関係を決定する。
この出願のこの実施形態において、複数の標準点情報と複数の標的点情報との間のマッピング関係は、融合検出情報に基づいて決定され、標準座標系と標的座標系との間のマッピング関係は、複数の標準点情報と複数の標的点情報との間のマッピング関係に基づいて決定される。この出願のこの実施形態における方法によれば、異なるセンサからの検出情報を取得し得るならば、異なるセンサの座標系間のマッピングが実施されることがある。標的フォーメーション情報を決定すること、点情報に対してマッピングを行うことなどの後続のステップは、手動較正およびマッピングなしに、処理デバイスによって実施されることがある。処理デバイスは、標的フォーメーション情報に対してマッチングを行うので、デバイスによる正確な操作が、点情報マッピングの精度を向上させる。加えて、異なるセンサからの検出情報を取得し得るならば、検出情報および座標系間のマッピングの融合が行われることがある。これは、手動較正によって引き起こされるシナリオ制限を回避し、検出情報の融合の精度と普遍性を確保する。
第1の態様のうちのいずれか、および第1の態様の第1の実装~第11の実装を参照すると、この出願のこの実施形態の第12の実装において、異なるセンサの時間軸が、さらにアライメント(整列)されることがある。具体的には、方法は、以下をさらに含むことがある。
処理デバイスは、複数のフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報の融合結果に基づいて、複数のセンサの時間軸間の時間差を計算する。
この出願のこの実施形態において、複数のセンサの時間軸間の時間差は、同じ標的オブジェクトの検出情報の融合結果に基づいて計算されるので、異なるセンサの時間軸は、時間差に基づいてアライメントされることがある。この出願のこの実施形態において提供される時間軸アライメント方法は、異なるセンサからの検出情報を取得し得るならば実施されることがある。複数のセンサは、同じ時刻同期システム内にある必要はない。これは異なるセンサの時間軸アライメントの適用シナリオを拡張し、情報融合の適用範囲も拡張する。
第1の実装のいずれか1つ、または第1の態様の第1の実装~第12の実装を参照すると、この出願のこの実施形態の第1の態様の第13の実装では、エラー補正またはスクリーニングがセンサに対してさらに行うことがある。具体的には、複数のセンサは、標準センサと、検出対象センサとを含み、方法は、以下をさらに含むことがある。
処理デバイスは、標的フォーメーション情報内にありかつ標準センサに対応する標準フォーメーション情報を取得する。処理デバイスは、標的フォーメーション情報内にありかつ検出対象センサに対応する検出対象フォーメーション情報を取得する。処理デバイスは、検出対象フォーメーション情報と標準フォーメーション情報との間の差を決定する。処理デバイスは、前述の差および標準フォーメーション情報に基づいてエラーパラメータを取得し、その場合、エラーパラメータは、検出対象フォーメーション情報のエラーを示し、あるいは検出対象センサの性能パラメータを示す。
この出願のこの実施形態において、標準センサは、検出のための標準として使用され、エラーパラメータは、検出対象フォーメーション情報と標準フォーメーション情報との間の差に基づいて取得される。エラーパラメータが検出対象フォーメーション情報のエラーを示すとき、検出対象フォーメーション情報内にありかつエラーパラメータに対応する情報は、エラーパラメータおよび標準フォーメーション情報に基づいて補正されてよい。エラーパラメータが検出対象センサの性能パラメータを示すとき、検出対象センサの誤検出率のような性能パラメータが決定されてよい。従って、検出対象センサについてデータ分析を実行して、センサを選択する。
この出願の第2の態様が、処理デバイスを提供する。処理デバイスは、検出システム内に配置される。検出システムは、少なくとも2つのセンサをさらに含む。少なくとも2つのセンサによって取得される検出情報は、少なくとも2つの同じ標的オブジェクトについて少なくとも2つのセンサから別々に検出情報を含む。処理デバイスは、プロセッサと、送受信機(トランシーバ)とを含む。
送受信機は、少なくとも2つのセンサから少なくとも2つの検出情報を取得するように構成され、その場合、少なくとも2つのセンサは、少なくとも2つの検出情報と1対1で対応する。
プロセッサは、少なくとも2つの検出情報に基づいて少なくとも2つの対応するフォーメーション情報を決定するように構成され、各フォーメーション情報は、対応するセンサによって検出されるオブジェクト間の位置関係を記述するために使用され、オブジェクトは、標的オブジェクトを含み、少なくとも2つのフォーメーション情報に基づいて標的フォーメーション情報を決定するように構成され、標的フォーメーション情報と少なくとも2つのフォーメーション情報の各々との間の一致度は、予め設定された閾値よりも大きく、標的フォーメーション情報は、少なくとも2つの標的オブジェクト間の位置関係を記述するために使用され、標的フォーメーション情報は、標的オブジェクトのフォーメーション位置情報を含み、標的オブジェクトの任意の1つの標的オブジェクトのフォーメーション位置情報に基づいて、少なくとも2つのフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合させる構成される。
処理デバイスは、前述の第1の態様による方法を実行するように構成される。
第2の態様の有益な効果については、第1の態様を参照のこと。詳細はここでは再度記載されない。
この出願のこの実施形態の第3の態様が、処理デバイスを提供する。処理デバイスは、プロセッサと、プロセッサに結合されるメモリとを含む。メモリは、実行可能命令を格納し、実行可能命令は、プロセッサに命令して第1の態様に従った方法を実行させるために使用される。
処理デバイス。
処理デバイス。
この出願のこの実施形態の第4の態様が、コンピュータ読取可能記憶媒体を提供する。コンピュータ読取可能記憶媒体は、プログラムを格納し、コンピュータがプログラムを実行するときに、第1の態様に従った方法が実行される。
この出願のこの実施形態の第5の態様が、コンピュータプログラム製品を提供する。コンピュータプログラム製品がコンピュータ上で実行されるとき、コンピュータは、第1の態様による方法を実行する。
この出願の実施形態が、異なるセンサによって検出される検出情報を融合させ、検出情報の融合効率を向上させる、情報処理方法および関連デバイスを提供する。
センサは、オブジェクトを検出することができる。同じオブジェクトについて、異なるセンサが、検出を通じて異なる検出情報を得ることがある。例えば、カメラが、オブジェクトの形状およびテクスチャのような外観特徴を検出することがあり、レーダが、オブジェクトの位置および速度のような運動情報を検出することがある。同じオブジェクトに関する複数のタイプの情報を得るためには、異なるセンサからの検出情報を融合させる必要がある。
検出情報の融合を実現するためには、異なるセンサの時間軸および空間座標系がアライメントされる必要がある。時間軸のアライメントは、センサが同じ時刻同期システム内にあることを必要とする。図1aは、複数のセンサの時間軸のアライメントの概略図である。時刻同期システムにおける時刻同期デバイスは、タイムスタンプを生成し、タイムスタンプを時刻同期システムにおける複数のセンサに送信する。時刻同期システムにおける複数のセンサは、同じタイムスタンプに基づいて検出されるので、時間軸のアライメントが実現されることがある。
時刻同期デバイスのタイムスタンプは、時刻同期システムにおいてのみ送信されることがあり、時刻同期システム外のセンサは、タイムスタンプを受信できないため、時間軸のアライメントは、同じ時刻同期システムにおいてのみ実現されることがある。この要因は、検出情報の融合の適用シナリオを制限する。
加えて、空間座標系のアライメントは、空間較正を通じて実施される必要がある。図1bは、複数のセンサの空間座標系のアライメントの概略図である。空間較正のためには、実空間内の較正点が決定される必要がある。異なるセンサによって検出されたピクチャ中の較正点の位置は、手動で較正される。例えば、較正点4が、センサAによって検出されたピクチャ内で較正され、対応する較正点4’が、センサBによって検出されたピクチャ内で較正される。次に、異なるセンサによって検出されたピクチャ内の同じ較正点の位置間のマッピング関係が、手動で決定される。マッピング関係の精度を保証するためには、空間座標系の完全なマッピングを実施するために、複数の較正点が較正される必要がある。
空間較正は、手動で実施される必要があり、人間が主観的に知覚するマッピング関係は、実際のマッピング関係とは異なることがあるので、実際のマッピング関係は、事実上は反映されないことがある。シリンダでは、互いに異なる較正点を見出すことができない。異なるピクチャで較正された較正点、例えば、図1bに示す較正点4および較正点4’は、実際には同じ点を反映することができず、較正エラー(較正誤差)を生む。シリンダ以外に、球のような別個の点を持たない任意の他のオブジェクトは、前述の較正エラーを生じやすい。従って、手動で較正されたマッピング関係は、正確でないことがある。空間較正が不正確であるときには、複数のセンサからの検出情報を融合する手順において、実際には1つの標的オブジェクトが、異なる標的オブジェクトとして決定されることがあり、あるいは、異なる標的オブジェクトが、1つの標的オブジェクトとして決定されることがある。このようにして、融合を通じて得られる情報は、不正確なデータである。
この出願のこの実施形態において、空間較正は、図1bに示すように、2つのカメラによって検出されたピクチャに対して実行される。空間較正は、複数のタイプのセンサに対して実行されることもある。例えば、較正が、カメラによって検出されたピクチャおよびレーダによって検出されたピクチャに対して実行される。異なるタイプのセンサによって検出されたピクチャに対する較正については、上述したように、較正点も、正しく較正されないことがある。詳細はここに記載されない。
加えて、手動較正の効率は低い。空間較正では、手動較正が、複数の較正点で行われる必要があり、較正手順では、検出される領域が利用可能でない。これは、実際の動作を制限する。例えば、空間較正が、車両レーンに対して実行される必要があるならば、車両レーンは、手動較正中に半日または1日利用不能である。一般に,車両レーンスケジューリングでは、車両レーンがそのような長い時間にわたって占有されることは許容されない。この場合、検出情報の空間較正および融合を実施することができない。
結論として、異なるセンサの時間軸のアライメントは、現在、時刻同期システムによって制限されており、センサが同じ時刻同期システム内にないときには実施できない。現在、異なるセンサの空間座標系のアライメントは、手動較正の低効率および低精度によって制限されている。その結果、エラー(誤差)が検出情報の融合に生じ、融合が実施されるシナリオが限定される。
上記不利点に基づいて、この出願の実施形態が情報処理方法を提供する。検出情報が複数のセンサから得られるので、検出情報を用いることによって表示されたオブジェクトのフォーメーション情報(形成情報)が得られる。類似した特徴を有する標的フォーメーション情報に対してマッチングを行って、標的フォーメーション情報が、同じオブジェクトセットの検出情報であって、異なるセンサによって得られる検出情報であると決定する。従って、異なるセンサからの検出情報が融合される。
この出願のこの実施形態による方法は、実際には、同じ標的ブジェクトが異なるセンサによって検出されたピクチャにおいて手動で決定されるデバイス上でのプロセスの再現である。各センサは、複数の時点に対応する複数のピクチャを有し、各ピクチャ内に反映された標的オブジェクトの量および状態のような情報は、必ずしも同じではない。大量の情報を扱うとき,人間の目は、ピクチャ内の全ての詳細を直接キャプチャすることができず、全体的に異なるピクチャから同じ標的オブジェクトセットのピクチャを先ず識別することができるだけである。同じ標的オブジェクトセットについて、複数のピクチャが、異なるピクチャから決定される。この手順を標的ブジェクトセットのマッチングとも呼ぶ。
人間の目を通じて標的オブジェクトセットに対してマッチングを行うためには、抽象的な手順が必要とされる。ピクチャ中の標的オブジェクト間の位置関係のみが抽出され、ピクチャ中の他の詳細は省略される。従って、標的オブジェクトのフォーメーション情報は、ピクチャから抽出される。
フォーメーション情報をより明確に抽出する手順を記載するために、以下は、図2を参照した記述を提供する。図2は、この出願の一実施形態による標的ブジェクトのマッチングの概略図である。図2に示すように、カメラによって検出されるピクチャ、すなわち、検出情報Aでは、5台の自動車が、数字「9」に類似する形状を形成する。レーダによって検出されるピクチャ、すなわち、検出情報Bにおいては、5つの標的オブジェクトも、「9」に類似する形状を形成する。この場合には、2つのピクチャにおいて、5つの標的オブジェクトのそれぞれのセットは、類似した位置特徴を有する、すなわち、類似したフォーメーション情報を有すると考えられてよい。2つのピクチャは、異なるセンサによって検出されたピクチャ中の同じ標的オブジェクトセットを反映していると考えられてよい。
標的ブジェクトセットは、マッチングを通じて得られる。次に、異なるセンサによって検出されたピクチャにおいて、標的オブジェクトセットにおける単一の標的オブジェクトの位置に基づいて、同じ単一の標的オブジェクトが決定されてよい。
図2に示すように、センサAによって検出された検出情報Aにおいて、フォーメーション「9」の底にある標的オブジェクトが、標的オブジェクトAである。この場合、センサBによって検出される検出情報Bにおいて、フォーメーション「9」の底にある標的オブジェクトA’および標的オブジェクトAは、同じ標的オブジェクトであると考えられてよい。
例えば、センサAは、カメラであってよく、センサBは、レーダであってよい。前述の組み合わせに加えて、センサAおよびセンサBは、別の組み合わせであってよい。例えば、センサAは、レーダであり、センサBは、ETCセンサであり、あるいは、センサAおよびセンサBは、同じタイプのセンサ、例えば、レーダまたはカメラである。これは本明細書において限定されない。
この出願のこの実施形態では、センサの量が制限されない。センサAおよびセンサBに加えて、より多くの検出情報を得るために、より多くのセンサが使用されてよく、検出情報中の同じ標的オブジェクトが分析される。これは本明細書において限定されない。
前述は、人間が異なるセンサで検出されたピクチャにおいて同じ標的オブジェクトのピクチャをどのように決定するかを記載する。本発明のこの実施形態における解決策は、上述の着想をデバイスに適用することに関する。具体的には、本発明のこの実施形態における解決策は、主に以下のステップを含む。すなわち、1:異なるセンサから複数の検出情報を取得する。2:複数の検出情報に基づいて対応するフォーメーション情報を決定する。3:複数のフォーメーション情報に基づいて、類似した特徴を有する標的フォーメーション情報を決定する。4:標的フォーメーション情報中の標的オブジェクトのフォーメーション位置情報に基づいて、異なるセンサからの同じ標的オブジェクトの検出情報を融合する。
図3aは、この出願の一実施形態による情報処理方法のシステムの概略図である。図3aに示すように、システムは、検出システムであり、システムは、処理デバイスと、複数のセンサとを含む。センサAおよびセンサBが、一例として使用される。センサAは、検出された検出情報Aを処理デバイスに送信し、センサBは、検出された検出情報Bを処理デバイスに送信する。処理デバイスは、検出情報Aおよび検出情報Bに基づいて、標的オブジェクトの融合情報を得る。
この出願における検出システム内のデバイスは、固定接続状態を有してよく、あるいは固定接続状態を有しなくてよいことが留意されるべきである。データ伝送は、データ複製などの形態で実施される。センサおよび処理デバイスは、センサからの検出情報が処理デバイスに送信されることがあるならば、検出システムと呼ばれることがある。これは本明細書において限定されない。例えば、センサAおよびセンサBは、検出情報を別々に取得し、次に、所定時間期間内に検出情報Aおよび検出情報Bを処理デバイスにコピーすることがある。処理デバイスは、検出情報Aおよび検出情報Bを処理する。このモードは、オフライン処理と呼ばれることもある。
2つのセンサのみが図において一例として使用されていることが留意されるべきである。これは、この出願のこの実施形態および検出システムにおけるセンサの量に対する制限を構成しない。
図3bは、この出願の一実施形態による情報処理方法の適用シナリオの概略図である。図3(b)に示すように、この出願のこの実施形態による情報処理方法は、主にマルチセンサシステムにおける情報融合のために使用される。マルチセンサシステムは、複数のセンサから検出情報を受信し、複数のセンサからの検出情報を融合することがある。検出情報は、自動料金収受システム(ETC)センサを使用することによって取得されるナンバープレート、取引情報などであってよい。マルチセンサシステムは、ETCセンサからの上述の情報に加えて、カメラからのナンバープレートおよび車両モデル情報、ならびにレーダからの距離および速度情報のような、他のセンサからの他の検出情報をさらに取得することがある。これは本明細書において限定されない。
検出情報の融合は、この出願のこの実施形態による情報処理方法を用いて実現される。融合結果は、取引料金監査、現場外過負荷管理、および高速道路上の安全監視のような、複数のシナリオに適用されてよい。前述の高速道路シナリオに加えて、融合結果は、他のシナリオ、例えば、ホログラフィック交差点、車両合流警告、市街地交差点での歩行者警告、または閉鎖道路での侵入検出または自動駐車にさらに適用されてよい。これは本明細書において限定されない。
1.この出願の一実施形態による情報処理方法
次に、図3aに示す検出システムに基づいて、以下は、図4を参照してこの出願のこの実施形態に示す情報処理方法の各ステップを詳細に記載する。図4は、この出願の一実施形態による情報処理方法の概略フローチャートである。この方法は、以下のステップを含む。
401:センサAから検出情報Aを取得する。
任意に、センサAによって取得される検出情報Aは、位置特徴セットを含むことがある。位置特徴セットは、複数の位置特徴を含み、位置特徴は、センサAによって検出されたオブジェクトとオブジェクトの周囲のオブジェクトとの間の位置関係を示す。例えば、センサAがカメラであるとき、検出情報は、画素を含むピクチャであり、位置特徴は、画素間の距離であることがある。位置特徴は、画素間の左右関係または前後関係のような、画素間距離以外の他の形態で表わされることもある。これは本明細書において限定されない。
この出願のこの実施形態において、センサAは、カメラ以外の別のタイプのセンサ、例えば、レーダまたは自動料金収受(ETC)システムセンサであってよい。これは本明細書において限定されない。異なるタイプのセンサが、対応する位置特徴を提供する。例えば、レーダによって検出された位置特徴は、オブジェクト間の距離、オブジェクト間の方向などとして表わされることがある。ETCセンサによって検出された位置特徴は、車両の車線情報、時系列(時間シーケンス)(time sequence)関係などとして表されることがある。これは本明細書において限定されない。
402:センサBから検出情報Bを取得する。
任意に、センサBによって取得された検出情報Bは、位置特徴セットを含むこともある。センサB、検出情報B、および位置特徴の記述について、ステップ401におけるセンサA、検出情報A、および位置特徴の記述を参照のこと。詳細はここでは再度記載されない。
この出願のこの実施形態において、センサAおよびセンサBは、同じタイプのセンサであってよく、あるいは異なるタイプのセンサであってよいことが留意されるべきである。例えば、センサAおよびセンサBは、異なる角度にあるカメラであってよく、あるいは異なるレーダであってよい。代替的に、センサAは、カメラまたはレーダであってよく、センサBは、ETCセンサであってよい。これは本明細書において限定されない。
この出願のこの実施形態におけるセンサの量は、2個に限定されず、センサの量は、2以上の任意の整数であってよいことが留意されるべきである。これは本明細書において限定されない。センサAおよびセンサBは、監視システムにおけるセンサの一例として使用される。検出システムがより多くのセンサを含むならば、これらのセンサの記述については、ステップ401におけるセンサAの説明およびステップ402におけるセンサBの記述を参照のこと。詳細はここでは再度記載されない。複数のセンサのタイプは、限定されない。センサは、同じタイプのセンサであってよく、あるいは異なるタイプのセンサであってよい。これは本明細書において限定されない。
403:検出情報Aに基づいてフォーメーション情報A(formation information)を決定する。
検出情報Aを取得した後に、処理デバイスは、検出情報Aに基づいてフォーメーション情報Aを決定してよく、フォーメーション情報Aは、センサAによって検出されたオブジェクト間の位置関係を示す。
任意に、検出情報Aが位置特徴セットを含むならば、処理デバイスは、位置特徴セットに基づいてフォーメーション情報Aを決定してよい。具体的には、位置特徴セットに基づいてフォーメーション情報Aを得るための複数の方法あり、取得されるフォーメーション情報Aは異なる。フォーメーション情報Aを得るための異なる方法をより明確に記載するために、これらの方法は、以下の実施形態においてカテゴリ別に記載される。具体的な手順については、図7~図17に示す実施形態を参照のこと。詳細はここでは再度記載されない。
404:検出情報Bに基づいてフォーメーション情報Bを決定する。
検出情報Bを取得した後に、処理デバイスは、検出情報Bに基づいてフォーメーション情報Bを決定してよく、フォーメーション情報Bは、センサBによって検出されたオブジェクト間の位置関係を示す。具体的には、オブジェクト間の位置関係は、オブジェクト間の左右位置関係またはオブジェクト間の前後位置関係のうち少なくとも1つを含んでよい。
任意に、検出情報Bが位置特徴セットを含むならば、処理デバイスは、位置特徴セットに基づいてフォーメーション情報Bを決定してよい。具体的には、フォーメーション情報は、線描画方法または画像特徴マッチング方法のような方法を用いて決定されてよい。フォーメーション情報Bを取得する手順については、ステップ403においてフォーメーション情報Aを取得する手順を参照のこと。詳細はここでは再度記載されない。
この出願のこの実施形態において、ステップ401とステップ402との間に必要なシーケンスはない。具体的には、ステップ401は、ステップ402の前または後に実行されてよく、あるいは、ステップ401およびステップ402は、同時に実行されてよい。これは本明細書において限定されない。ステップ403とステップ404との間に必要なシーケンスはない。具体的には、ステップ403は、ステップ404の前または後に実行されてよく、あるいは、ステップ403およびステップ404は、同時に実行されてよく、ただし、ステップ403がステップ401の後に実行され、ステップ404がステップ402の後に実行される。これは本明細書において限定されない。
この出願のこの実施形態では、検出情報がより多くのセンサからの得られるならば、対応するフォーメーション情報も、取得された検出情報に基づいて決定される必要がある。対応フォーメーション情報を決定する手順については、ステップ403およびステップ404の記述を参照のこと。詳細はここでは再度記載されない。
405:フォーメーション情報Aおよびフォーメーション情報Bに基づいて標的フォーメーション情報を決定する。
フォーメーション情報Aおよびフォーメーション情報Bが取得された後に、標的フォーメーション情報が、フォーメーション情報Aおよびフォーメーション情報Bに基づいて決定されてよい。標的フォーメーション情報とフォーメーション情報Aとの間の一致度(matching degree)および標的フォーメーション情報とフォーメーション情報Bとの間の一致度は、両方とも予め設定された閾値よりも大きい。標的フォーメーション情報は、フォーメーション情報Aおよびフォーメーション情報Bにあり、かつ同じ標的ブジェクトセットに関する、フォーメーション情報を表す。
この出願のこの実施形態において、フォーメーション情報は、複数の形態で表されてよく、一致度を決定する標準(standards)は厳密に同じでない。異なるフォーメーション情報の取得手順および処理方法をより明確に記載するために、詳細な説明が、図7~図17の実施形態を参照して引き続き提供される。詳細はここでは再度記載されない。
406:標的フォーメーション情報における標的オブジェクトのフォーメーション位置情報に基づいて、同じ標的オブジェクトについてのセンサAおよびセンサBからの検出情報を融合する。
フォーメーション情報は、標的ブジェクトのフォーメーション位置情報を含み、標的ブジェクトセットにおける標的ブジェクトの特定の位置を示す。従って、同じ標的オブジェクトに対応しかつ異なるセンサからの検出情報内にある標的が、標的オブジェクトのフォーメーション位置情報に基づいて決定されることがあり、複数の対応する標的の検出情報は、融合される。
この出願のこの実施形態において、センサによって検出されたオブジェクトのフォーメーション情報は、異なるセンサからの検出情報に基づいて別々に決定される。標的フォーメーション情報は、標的フォーメーション情報と各フォーメーション情報との間の一致度に基づいて決定されるので、標的オブジェクトは決定される。標的フォーメーション情報は、異なるセンサによって検出されかつ類似の特徴を有するフォーメーション情報であり、異なるセンサによって検出されかつ同じ標的オブジェクトのものである情報を反映するので、任意のオブジェクトのものでありかつ異なるセンサによって得られる検出結果の間の、標的フォーメーション情報内に反映される対応が、標的フォーメーション情報に基づいて決定されることがある。同じオブジェクトのものでありかつ異なるセンサによって得られる検出結果は、その対応に基づいて融合されてよい。この出願のこの実施形態において使用される方法は、手動較正方法と比較して、フォーメーション情報に基づいて融合検出情報を取得し、融合検出情報を取得する効率を大幅に向上させる。
加えて、情報収集に関して、この出願のこの実施形態における方法は、測定されるフィールドを占有することなく、異なるセンサからの検出情報のみを必要とする。従って、検出情報の融合の適用性が拡大される。
任意に、ステップ403およびステップ404において、対応するフォーメーション情報は、位置特徴セットに基づいて決定されてよい。ステップ405において、標的フォーメーション情報は、複数のフォーメーション情報に基づいて決定される必要がある。この出願のこの実施形態において、位置特徴セットは、異なる形態を有し、フォーメーション情報を決定する多くの方法があり、主に線描画方法および画像特徴マッチング方法を含む。以下は、カテゴリ別に方法を記載する。
この出願のこの実施形態において、フォーメーション情報は、3つのタイプの情報、すなわち、1:オブジェクト間の水平方向の相対位置関係、例えば、オブジェクト間の左右の位置関係または左右の距離、2:オブジェクト間の垂直方向の相対位置関係、例えば、オブジェクト間の前後の位置関係または前後の距離、3:オブジェクトの特徴、長さ、幅、高さ、および形状を含むことがある。
図5は、この出願の一実施形態による情報処理方法の特徴の概略図である。図5に示すように、フォーメーション情報は、車両間の前後距離および左右距離を含むことがあり、各車両の情報、例えば、所領モデルおよびナンバープレート番号のような情報を含むことがある。これは本明細書において限定されない。
図5では、道路上の車両のみが例として用いられることが留意されるべきである。これはセンサによって検出されるオブジェクトに対する限定を構成しない。センサは、別のオブジェクト、例えば、歩行者または障害物を検出するようにさらに構成されてよい。これは本明細書において限定されない。
1:線描画方法(Line drawing method)
人間について、フォーメーション情報は、完全な形状、例えば、図2に示す実施形態における形状「9」として表される。デバイスにとって、形状または画像を処理する効率は、数字を処理する効率ほど高くない。フォーメーション情報を連続的または離散的な数字の形態において提示することによって、データ処理効率を大幅に向上させることができる。
完全な形状特徴(shape feature)は、線描画方法を使用することによって数字特徴(number feature)に変換されることができる。異なるセンサによって検出されるピクチャでは、基準線(reference line)が描かれる。オブジェクトが基準線に接触する時系列および位置のような情報が得られるので、形状特徴は、数字特徴に変換されることがあり、それによって、処理デバイスの演算処理が容易にする。
この出願のこの実施形態では、オブジェクトが基準線に接触する情報を線接触(line touch)情報とも呼ぶ。線接触情報は、オブジェクトが基準線に接触する時系列情報、接触点区画(touch point partition)情報、接触点位置(touch point position)情報、接触時間間隔(touch time interval)情報を含むことがある。これは本明細書において限定されない。
時系列情報は、センサによって検出されたオブジェクトが基準線に接触する時系列(時間シーケンス)を示し、オブジェクト間の前後関係を反映する。
接触点区画情報は、基準線上にありかつオブジェクトが基準線に接触する接触点の区画情報(partition information)を示す。図6は、この出願の一実施形態による線描画方法の概略図である。道路上では、基準線は、異なる車線(lanes)に基づいて区画に分割されることがある。例えば、図において、車線1は、区画1であり、車線2は、区画2であり、車線3は、区画3である。
接触点位置情報は、基準線上にありかつオブジェクトが基準線に接触する接触点の位置情報を示す。例えば、図6において、車線1内の第1の車両は、基準線の左終点から1.5メートル離れており、車線3上の第1の車両は、基準線の左終点から7.5メートル離れている。
接触時間間隔情報は、オブジェクトが基準線に接触する時間間隔を示す。
3つのタイプのフォーメーション情報において、接触点区画情報および接触点位置情報は、オブジェクト間の水平方向の相対位置関係に分類されることがあり、時系列情報および接触時間間隔情報は、オブジェクト間の垂直方向の相対位置関係に分類されることがある。
前述の情報に基づいて標的フォーメーション情報を得るための複数の方法がある。以下は、カテゴリ別に方法を記載する。
(1)時系列情報および接触点区画情報に基づいて第1の部分列(サブシーケンス)(subsequence)を決定する。
図7は、この出願の一実施形態による情報処理方法の概略フローチャートである。方法は、以下のステップを含む。
701:センサA(カメラ)から検出情報Aを取得する。
カメラは、一例として使用される。センサAがカメラであるとき、検出情報は、画素を含むピクチャであり、位置特徴セットにおける位置特徴は、画素間の距離であることがある。位置特徴は、画素間の左右関係または前後関係のような、画素間の距離以外の別の形態において表されることもある。これは本細書において限定されない。
この出願のこの実施形態において、センサAは、カメラ以外の別のタイプのセンサ、例えば、レーダまたはETCセンサであってよい。これは本明細書において限定されない。異なるタイプのセンサは、対応する位置特徴を提供する。例えば、レーダによって検出される位置特徴は、オブジェクト間の距離、オブジェクト間の方向などとして表されることがある。ETCセンサによって検出される位置特徴は、車両の車線情報、時系列関係などとして表されることがある。これは本明細書において限定されない。
702:センサB(レーダ)から検出情報Bを取得する。
レーダは、一例として使用される。センサBがレーダであるとき、検出情報は、検出範囲内でレーダによって検出されるオブジェクトのピクチャであり、位置特徴セットにおける位置特徴は、オブジェクト間の距離であることがある。位置特徴は、オブジェクト間の左右関係または前後関係のような、オブジェクト間の距離以外の別の形態において表されることがある。これは本明細書において限定されない。
この出願のこの実施形態において、センサBは、レーダ以外の別のタイプのセンサ、例えば、カメラまたはETCセンサであってよい。これは本明細書において限定されない。異なるタイプのセンサは、対応する位置特徴を提供する。これは本明細書において限定されない。
この出願のこの実施形態において、センサAおよびセンサBは、センサの単なる例である。これはセンサのタイプおよび量に対する制限を構成しない。
703:検出情報Aに基づいて、オブジェクト画素が基準線に接触する時系列情報Aおよび接触点区画情報Aを取得する。
検出情報Aは、画素を含むピクチャであり、線接触情報は、オブジェクト画素が基準線に接触する情報である。従って、処理デバイスは、検出情報Aに基づいて、オブジェクト画素が基準線に接触する時系列情報Aおよび接触点区画情報Aを取得することがある。
図8は、この出願の一実施形態による情報処理方法の適用シナリオの概略図である。図8に示すように、シーケンス番号の行は、オブジェクトが基準線に接触するシーケンス、すなわち、時系列情報Aを示す。接触点区画情報の行は、基準線上にありかつオブジェクトが基準線に接触する接触点の区画情報、すなわち、接触点区画情報Aを示し、ここで、1は、車線1を示し、3は、車線3を示す。
704:検出情報Bに基づいて、オブジェクトが基準線に接触する時系列情報Bおよび接触点区画情報Bを取得する。
検出情報Bは、検出範囲内でレーダによって検出されるオブジェクトのピクチャであり、線接触情報は、オブジェクトが基準線に接触する情報である。従って、処理デバイスは、検出情報Bに基づいて、オブジェクトが基準線に接触した時系列情報Bおよび接触点区画情報Bを取得することがある。図8に示すように、シーケンス番号の行は、オブジェクトが基準線に接触するシーケンス、すなわち、時系列情報Bを示す。接触点区画情報の行は、基準線上にありかつオブジェクトが基準線に接触する接触点の区画情報、すなわち、接触点区画情報Bを示し、ここで、1は、車線1を示し、3は、車線3を示す。
この出願のこの実施形態では、ステップ701とステップ702との間に必要なシーケンスはない。ステップ701は、ステップ702の前または後に実行されてよく、あるいは、ステップ701およびステップ702は、同時に実行されてよい。これは本明細書において限定されない。ステップ703とステップ704との間に必要なシーケンスはない。ステップ703は、ステップ704の前または後に実行されてよく、あるいは、ステップ703およびステップ704は、同時に実行されてよい。ただし、ステップ703は、ステップ701の後に実行され、ステップ704は、ステップ702の後に実行される。これは本明細書において限定されない。
705:時系列情報Aおよび接触点区画情報Aに基づいて、接触区画シーケンスAを取得する。
図8に示すように、時系列情報Aに基づいて、接触点区画情報Aを時系列に基づいて配置して、接触区画シーケンスAを取得してよい。
706:時系列情報Bおよび接触点区画情報Bに基づいて、接触区画シーケンスBを取得する。
図8に示すように、時系列情報Bに基づいて、接触点区画情報Bを時系列に基づいて配置して、接触区画シーケンスBを取得してよい。
この出願のこの実施形態では、ステップ705とステップ706との間に必要なシーケンスはない。ステップ705は、ステップ706の前または後に実行されてよく、あるいは、ステップ705およびステップ706は、同時に実行されてよい。ただし、ステップ705は、ステップ703の後に実行され、ステップ706は、ステップ704の後に実行される。これは本明細書において限定されない。
707:接触区画シーケンスAおよび接触区画シーケンスBに基づいて第1の部分列を取得する。
接触区画シーケンスAおよび接触区画シーケンスBは、本質的に2つの数字シーケンス(数列)である。処理デバイスは、2つの数字シーケンスを比較してよい。2つの数字シーケンスが同じであるかあるいは高い一致度を有するシーケンスセグメントを含むことを発見するときに、処理デバイスは、そのシーケンスセグメントが2つのシーケンスの共通部分であると考えることがある。この出願のこの実施形態において、シーケンスセグメントは、第1の部分列とも呼ばれる。接触区画シーケンスは、センサによって検出されるオブジェクト間の位置関係、すなわち、オブジェクト間のフォーメーション情報を反映する。従って、2つの数字シーケンスが同じであるかあるいは高い一致度を有するシーケンスセグメントを含むとき、それは2つの数字シーケンスにおけるセグメントに対応するオブジェクトセットが同じ位置関係を有する、すなわち、同じフォーメーション情報を有することを示す。異なるセンサが同じまたは類似のフォーメーション情報を検出するならば、2つのセンサが同じオブジェクトセットを検出すると考えられてよい。
この出願のこの実施形態において、第1の部分列は、標的フォーメーション情報とも呼ばれ、複数のセンサによって検出される同じまたは類似のフォーメーション情報を表現する。
具体的には、センサは特定の検出漏れ率を有するので、第1の部分列と接触区画シーケンスAとの間の一致度および第1の部分列と接触区画シーケンスBとの間の一致度が、両方とも第1の閾値よりも大きいならば、第1の部分列が接触区画シーケンスAおよび接触区画シーケンスBにおけるセグメントと完全に一致することは、必要とされない。この出願のこの実施形態において、一致度は、類似度とも呼ばれる。具体的には、第1の閾値は、90%であってよい。第1の閾値は、90%以外の別の値、例えば、95%または99%であってよい。これは本明細書において限定されない。
例えば、図8に示す接触区画シーケンスAおよび接触区画シーケンスBは、両方ともシーケンスセグメント(3、3、1、3、1)を含む。処理デバイスは、このセグメントを第1の部分列として使用することがある。この場合、第1の部分列と接触区画シーケンスAとの間の一致度および第1の部分列と接触区画シーケンスBとの間の一致度は、両方とも100%である。
任意に、第1の部分列は、LCSアルゴリズムを使用することによって決定されてよい。この出願のこの実施形態では、複数の接触区画シーケンスにおける同じ位置特徴のマッチングを実施するために、複数の接触区画シーケンスの全ての共通シーケンスが、LCSアルゴリズムを使用することによって取得されてよい。最長の共通部分列は、LCSアルゴリズムを使用することによって計算されるので、LCSアルゴリズムを使用することによって計算される第1の部分列は、前述の複数の接触区画シーケンスとの一致度が第1の閾値より大きい、部分列内の最長の部分列を含むことがある。
この出願のこの実施形態では、接触区画シーケンスのものでありかつ同じ位置特徴を有する全てのセグメントを、マッチングを通じて取得するために、複数の接触区画シーケンスの全ての共通シーケンスが、LCSアルゴリズムを使用することによって決定されてよい。複数のセグメントが共通シーケンスであり、幾つかの非共通シーケンスが共通シーケンスに含まれるならば、共通シーケンスに含まれる非共通シーケンスは特定されることがある。非共通シーケンスは、異なるセンサにおける異なる位置関係を反映する。この場合には、センサの誤検出または検出漏れに起因して、非共通シーケンスが共通シーケンスに含まれることが考えられることがある。従って、フォールトトレランス(fault tolerance)が、非共通シーケンスに対して実行される、すなわち、非共通シーケンスは、検出情報の融合を実現するために、異なるセンサによって検出される標的オブジェクトに対応することが許容される。
この出願のこの実施形態では、LCSアルゴリズムを使用することによって決定される第1の部分列は、前述の複数の接触区画シーケンスとの一致度が第1の閾値よりも大きい部分列内の最長の部分列を含むことがある。標的ブジェクト間の位置関係は、時折、類似することがある。従って、決定された部分列のより長い長さは、類似の位置関係を有する可能性がより低いことを示し、その結果、不測の事態が、より容易に回避されることがある。最長の部分列はLCSアルゴリズムを使用することによって決定されるので、同じ標的オブジェクトセットの標的フォーメーション情報が正確に決定されることがある。
例えば、2つの標的ブジェクト間の位置関係は、時折、類似することがある。しかしながら、10個の標的オブジェクトの位置関係が高い一致度を有するように標準が改良されるならば、10個の標的オブジェクトが類似の位置関係を有する可能性は、2個の標的オブジェクトが類似の位置関係を有する可能性よりも大幅により低い。従って、10個の標的オブジェクトの第1の部分列がLCSアルゴリズムを使用することによって決定されるならば、10個の標的オブジェクトが異なるセンサによって取得される検出結果に対応する同じ10個の標的オブジェクトである可能性はより高く、不一致の可能性は低減される。
708:第1の部分列における標的オブジェクトのフォーメーション位置情報に基づいて、同じ標的オブジェクトについてのセンサAおよびセンサBからの検出情報を融合する。
第1の部分列は、複数の接触点区画情報を含む。第1の部分列における接触点区画情報の各々に対応するデータは、接触区画シーケンスAおよび接触区画シーケンスBにおいて発見されることがある。例えば、接触区画シーケンスAにおけるシーケンス数字4を持つ接触区画情報について、標的オブジェクトの接触区画情報は、3であり、標的オブジェクトの前/後の別の標的オブジェクトの接触区画情報は、1である。
この出願のこの実施形態では、接触区画シーケンスまたは第1の部分列における単一の接触点区画情報をフォーメーション位置情報とも呼び、それは標的オブジェクトセットにおける単一の標的オブジェクトの位置を示す。
この出願のこの実施形態では、標的オブジェクトの区画情報を標的オブジェクトの特徴と呼び、標的オブジェクトの前/後または付近の別の標的オブジェクトの区画情報を周囲特徴と呼ぶ。周囲特徴は、標的オブジェクトの前/後の別の標的オブジェクトの接触点区画情報以外に、より近くの標的オブジェクトの接触点区画情報を含むこともある。これは本明細書において限定されない。
接触区画シーケンスBでは、標的オブジェクトの同じ特徴および同じ周囲情報を持つ接触点区画情報、すなわち、シーケンス番号13を持つ接触点区画情報が発見されることがある。2つの接触点区画情報は、第1の部分列にあり、標的オブジェクトの同じ特徴および同じ周囲特徴を有し、2つの接触点区画情報は同じオブジェクトを反映していると考えられることがある。従って、処理デバイスは、シーケンス番号4に対応する検出情報とシーケンス番号13に対応する検出情報とを融合させて、標的オブジェクトの融合情報を取得することがある。
例えば、接触区画シーケンスAに対応するカメラが、シーケンス番号4に対応するオブジェクトの大きさおよび形状のような外観情報を検出することがある。車両について、シーケンス番号4に対応する車両のモデル、色、ナンバープレートのような情報が検出されることがある。接触区画シーケンスBに対応するレーダは、シーケンス番号13に対応するオブジェクトの移動速度のような情報を検出することがある。車両について、シーケンス番号13に対応する車両の速度および加速度のような情報が検出されることがある。処理デバイスは、モデル、色、およびナンバープレートのような前述の情報と、車両の速度および加速度のような情報とを融合させて、車両の融合情報を取得することがある。
この出願のこの実施形態において、時系列情報は、異なる標的オブジェクトが基準線に接触する時系列を示し、接触点区画情報は、異なる標的オブジェクトが基準線に接触する左右関係を示す。時系列を示す時系列情報および左右関係を示す接触点区画情報を使用することによって、複数の標的オブジェクトが基準線に接触する位置の関係が、接触区画シーケンスに反映される。時系列情報および接触点区画情報は、両方とも特定の値であるため、接触区画シーケンスは、標的オブジェクト間の位置関係を反映する値のセットである。異なるセンサからの検出情報に基づいて,対応する接触区画シーケンスが取得される。複数の取得される接触区画シーケンスは、複数の値セットである。値セット間の一致度が予め設定された閾値を満たすことを決定するためには、対応する値間の比較のみを必要とし、複雑な演算はない。従って、標的フォーメーション情報を決定するためにマッチングを実行する効率が向上する。
この出願のこの実施形態において、標的フォーメーション情報は、時系列情報および接触点区画情報に基づいて決定される。代替的に、標的フォーメーション情報は、時系列情報および接触時間間隔情報に基づいてさらに決定されることがある。
(2)時系列情報および接触時間間隔情報に基づいて第2の部分列を決定する。
図9は、この出願の一実施形態による情報処理方法の概略フローチャートである。方法は、以下のステップを含む。
901:センサA(カメラ)から検出情報Aを取得する。
902:センサB(レーダ)から検出情報Bを取得する。
ステップ901およびステップ902の記述については、図7に示す実施形態におけるステップ701およびステップ702を参照のこと。詳細はここでは再度記載されない。
903:検出情報Aに基づいて、オブジェクト画素が基準線に接触する時系列情報Aおよび接触時間間隔情報Aを取得する。
検出情報Aは、画素を含むピクチャであり、線接触情報は、オブジェクト画素が基準線に接触する情報である。従って、処理デバイスは、検出情報Aに基づいて、オブジェクト画素が基準線に接触する時系列情報Aおよび接触時間間隔情報Aを取得することがある。
図10は、この出願の一実施形態による情報処理方法の適用シナリオの概略図である。図10に示すように、シーケンス番号の行は、オブジェクトが基準線に接触するシーケンス、すなわち、時系列情報Aを示す。接触時間間隔情報の行は、オブジェクトが基準線に接触する時間と前のオブジェクトが基準線に接触した時間との間の差、すなわち、接触時間間隔情報Aを示し、ここで、接触時間間隔情報は、秒単位である。接触時間間隔情報は、秒単位以外のミリ秒単位であってもよい。これは本明細書において限定されない。
904:検出情報Bに基づいて、オブジェクトが基準線に接触する時系列情報Bおよび接触時間間隔情報Bを取得する。
検出情報Bは、検出範囲内でレーダによって検出されたオブジェクトのピクチャであり、線接触情報は、オブジェクトが基準線に接触する情報である。従って、処理デバイスは、検出情報Bに基づいて、オブジェクトが基準線に接触する時系列情報Bおよび接触時間間隔情報Bを取得することがある。
図10に示すように、シーケンス番号の行は、オブジェクトが基準線に接触するシーケンス、すなわち、時系列情報Bを示す。接触時間間隔情報の行は、オブジェクトが基準線に接触する時間と前のオブジェクトが基準線に接触した時間との間の差、すなわち、接触時間間隔情報Bが示し、ここで、接触時間間隔情報は、秒単位で示される。接触時間間隔情報は、秒単位以外のミリ秒単位であってもよい。これは本明細書において限定されない。
この出願のこの実施形態では、ステップ901とステップ902との間に必要なシーケンスはない。ステップ901は、ステップ902の前または後に実行されてよく、あるいは、ステップ901およびステップ902は、同時に実行されてよい。これは本明細書において限定されない。ステップ903とステップ904との間に必要なシーケンスはない。ステップ903は、ステップ904の前または後に実行されてもよく、ステップ903およびステップ904は、同時に実行されてよい。ただし、ステップ903は、ステップ901の後に実行され、ステップ904は、ステップ902の後に実行される。これは本明細書において限定されない。
905:時系列情報Aおよび接触時間間隔情報Aに基づいて、接触間隔シーケンスAを取得する。
図10に示すように、時系列情報Aに基づいて、接触時間間隔情報Aを時系列に基づいて配置して、接触間隔シーケンスAを取得してよい。
906:時系列情報Bおよび接触時間間隔情報Bに基づいて、接触間隔シーケンスBを取得する。
図10に示すように、時系列情報Bに基づいて、接触時間間隔情報Bを時系列に基づいて配置して、接触間隔シーケンスBを取得してよい。
この出願のこの実施形態では、ステップ905とステップ906との間に必要なシーケンスはない。ステップ905は、ステップ906の前または後に実行されてよく、あるいは、ステップ905およびステップ906は、同時に実行されてよい。ただし、ステップ905は、ステップ903の後に実行され、ステップ906は、ステップ904の後に実行される。これは本明細書において限定されない。
907:接触間隔シーケンスAおよび接触間隔シーケンスBに基づいて、第2の部分列を取得する。
接触間隔シーケンスAおよび接触間隔シーケンスBは、本質的に2つの数字シーケンスである。処理デバイスは、2つの数字シーケンスを比較することがある。2つの数字シーケンスが同じであるかあるいは高い一致度を有するシーケンスセグメントを含むことを発見すると、処理デバイスは、そのシーケンスセグメントが2つのシーケンスの共通部分であると考えることがある。この出願のこの実施形態では、シーケンスセグメントを第2の部分列とも呼ぶ。接触間隔シーケンスは、センサによって検出されたオブジェクト間の位置関係、すなわち、オブジェクト間のフォーメーション情報を反映する。従って、2つの数字シーケンスが同じであるかあるいは高い一致度を有するシーケンスセグメントを含むとき、それは2つの数字シーケンス内のセグメントに対応するオブジェクトセットが同じ位置関係、すなわち、同じフォーメーション情報を有することを示す。異なるセンサが同じまたは類似のフォーメーション情報を検出するならば、2つのセンサが同じオブジェクトセットを検出すると考えられることがある。
この出願のこの実施形態において、第2の部分列は、標的フォーメーション情報とも呼ばれ、複数のセンサによって検出された同じまたは類似のフォーメーション情報を表す。
具体的には、センサは特定の検出漏れ率を有するので、第2の部分列と接触間隔シーケンスAとの間の一致度および第2の部分列と接触間隔シーケンスBとの間の一致度が、両方とも第2の閾値より大きいならば、第2の部分列が接触間隔シーケンスAおよび接触間隔シーケンスB内のセグメントと完全に一致することは必要とされない。この出願のこの実施形態では、一致度を類似度とも呼ぶ。具体的には、第2の閾値は、90%であってよい。第2の閾値は、90%以外の値、例えば、95%または99%であってよい。これは本明細書において限定されない。
例えば、図10に示す接触間隔シーケンスAおよび接触間隔シーケンスBは、両方ともシーケンスセグメント(2.0s,0.3s,1.9s,0.4s)を含む。処理デバイスは、セグメントを第2の部分列として使用することがある。この場合、第2の部分列と接触間隔シーケンスAとの間の一致度および第2の部分列と接触間隔シーケンスBとの間の一致度は、両方とも100%である。
任意に、第2の部分列は、LCSアルゴリズムを使用することによって決定されてよい。この出願のこの実施形態では、複数の接触間隔シーケンスにおける同じ位置特徴のマッチングを実施するために、複数の接触間隔シーケンスの全ての共通シーケンスは、LCSアルゴリズムを使用することによって取得されることがある。最長の共通部分列は、LCSアルゴリズムを使用することによって計算されるので、LCSアルゴリズムを使用することによって計算される第2の部分列は、前述の複数の接触間隔シーケンスとの一致度が第2の閾値よりも大きい部分列における最長の部分列を含むことがある。
この出願のこの実施形態では、接触間隔シーケンスのものでありかつ同じ位置特徴を有する全てのセグメントを、マッチングを通じて取得するために、複数の接触間隔シーケンスの全ての共通シーケンスは、LCSアルゴリズムを使用することによって決定されることがある。複数のセグメントが共通シーケンスであり、幾つかの非共通シーケンスが共通シーケンスに含まれるならば、共通シーケンスに含まれる非共通シーケンスが特定されることがある。非共通シーケンスは、異なるセンサにおける異なる位置関係を反映する。この場合には、センサの誤検出または検出漏れの故に、非共通シーケンスが共通シーケンスに含まれることが考えられることがある。従って、フォールトトレランスが、非共通シーケンスに対して実行される、すなわち、非共通シーケンスは、検出情報の融合を実現するために、異なるセンサによって検出された標的オブジェクトに対応することが許容される。
この出願のこの実施形態において、LCSアルゴリズムを使用することによって決定される第2の部分列は、複数の接触間隔シーケンスとの一致度が第2の閾値よりも大きい部分列内の最長の部分列を含むことがある。標的ブジェクト間の位置関係は、時折、類似する。従って、決定された部分列の最も長い長さは、類似の位置関係を有するより低い可能性を示し、その結果、不測の事態が、より容易に回避されることがある。最長の部分列は、LCSアルゴリズムを使用することによって決定されるので、同じ標的オブジェクトセットの標的フォーメーション情報が、正確に決定されることがある。
例えば、2つの標的ブジェクト間の位置関係が、時折、類似することがある。しかしながら、10個の標的オブジェクトの位置関係が高い一致度を有するように標準が改良されるならば、10個の標的オブジェクトが類似の位置関係を有する可能性は、2個の標的オブジェクトが類似の位置関係を有する可能性よりも大幅により低い。従って、10個の標的オブジェクトの第1の部分列がLCSアルゴリズムを使用することによって決定されるならば、10個の標的オブジェクトが異なるセンサによって取得される検出結果に対応する同じ10個の標的オブジェクトである可能性はより高く、不一致の可能性が低減される。
908:第2の部分列における標的オブジェクトのフォーメーション位置情報に基づいて、同じ標的オブジェクトについてのセンサAおよびセンサBからの検出情報を融合する。
第2の部分列は、複数の接触時間間隔情報を含む。第2の部分列における接触時間間隔情報の各々に対応するデータは、接触間隔シーケンスAおよび接触間隔シーケンスB内に発見されることがある。例えば、接触間隔シーケンスAにおけるシーケンス番号3を持つ接触時間間隔情報について、標的オブジェクトの接触時間間隔情報は、0.3sであり、標的オブジェクトの前/後の別の標的オブジェクトの接触時間間隔情報は、2.0sおよび1.9sである。
この出願のこの実施形態では、接触間隔シーケンスまたは第2の部分列における単一の接触時間間隔情報をフォーメーション位置情報とも呼び、それは標的オブジェクトセットにおける単一の標的オブジェクトの位置を示す。
この出願のこの実施形態では、標的オブジェクトの接触時間間隔情報を標的オブジェクトの特徴と呼び、標的オブジェクトの前/後または付近の別の標的オブジェクトの接触時間間隔情報を周囲特徴と呼ぶ。周囲特徴は、標的オブジェクトの前/後の別の標的オブジェクトの接触時間間隔情報以外に、より近くの標的オブジェクトの接触時間間隔情報を含むこともある。これは本明細書において限定されない。
接触間隔シーケンスBでは、標的オブジェクトの同じ特徴および周囲特徴を持つ接触時間間隔情報、すなわち、シーケンス番号12を持つ接触時間間隔情報が発見されることがある。2つの接触時間間隔情報は、第2の部分列にあり、標的オブジェクトの同じ特徴および同じ周囲特徴を有し、2つの接触時間間隔情報は、同じオブジェクトを反映すると考えられる。従って、処理デバイスは、シーケンス番号3に対応する検出情報とシーケンス番号12に対応する検出情報とを融合させて、標的オブジェクトの融合情報を取得することがある。
例えば、接触区画シーケンスAに対応するカメラが、シーケンス番号3に対応するオブジェクトの大きさおよび形状のような外観情報を検出することがある。車両について、シーケンス番号3に対応する車両のモデル、色、およびナンバープレートなどのような情報が検出されることがある。接触区画シーケンスBに対応するレーダが、シーケンス番号12に対応するオブジェクトの移動速度のような情報を検出することがある。車両について、シーケンス番号12に対応する車両の速度および加速度のような情報が検出されることがある。処理デバイスは、モデル、色、ナンバープレートのような前述の情報と、車両の速度および加速度のような情報とを融合させて、車両の融合情報を取得することがある。
この出願のこの実施形態において、時系列情報は、異なる標的オブジェクトが基準線に接触する時系列を示し、接触時間間隔情報は、異なる標的オブジェクトが基準線に接触する時間間隔を示す。前記時系列を示す時系列情報および時間間隔を示す接触時間間隔情報を使用することによって、複数の標的オブジェクトが基準線に接触する位置の関係が、接触間隔シーケンスにおいて反映される。時系列情報および接触時間間隔情報は、両方とも特定の値であるので、接触時間間隔シーケンスは、標的オブジェクト間の位置関係を反映する値のセットである。対応する接触間隔シーケンスが、異なるセンサからの検出情報に基づいて取得される。取得される複数の接触間隔シーケンスは、複数の値セットである。値セット間の一致度が予め設定された閾値を満たすことを決定するために、対応する値間の比較のみを必要とし、複雑な演算はない。従って、標的フォーメーション情報を決定するためにマッチングを実行することの効率が向上する。
この出願のこの実施形態では、標的フォーメーション情報が、前述の2つの方法に基づいて決定される。代替的に、標的フォーメーション情報は、時系列情報および接触点位置情報に基づいてさらに決定されてよい。
(3)時系列情報および接触点位置情報に基づいて第3の部分列を決定する。
図11は、この出願の一実施形態による情報処理方法の概略フローチャートである。方法は、以下のステップを含む。
1101:センサA(カメラ)から検出情報Aを取得する。
1102:センサB(レーダ)から検出情報Bを取得する。
ステップ1101およびステップ1102の記述については、図7に示す実施形態におけるステップ701およびステップ702を参照のこと。詳細はここでは再度記載されない。
1103:検出情報Aに基づいて、オブジェクト画素が基準線に接触する時系列情報Aおよび接触点位置情報Aを取得する。
検出情報Aは、画素を含むピクチャであり、線接触情報は、オブジェクト画素が基準線に接触する情報である。従って、処理デバイスは、検出情報Aに基づいて、オブジェクト画素が基準線に接触する時系列情報Aおよび接触点位置情報Aを取得することがある。接触点位置情報Aは、基準線上の接触点の位置を示す。具体的には、接触点位置情報Aは、異なるオブジェクトの接触点間の位置関係を示すことがあり、接触点間の左右関係を具体的に示して、オブジェクト間の左右関係を反映することがある。
任意に、オブジェクト間の左右の位置関係を反映するために、接触点位置情報Aは、接触点と基準線上の基準点との間の距離を示してよい。接触点間の位置関係は、異なる接触点と基準点との間の距離によって反映される。この出願のこの実施形態では、接触点と基準線の左終端との間の距離が、一例として使用される。これは接触点位置情報に対する限定を構成しない。接触点位置情報は、接触点と基準線上の任意の点との間の位置関係を示してもよい。これは本明細書において限定されない。
図12は、この出願の一実施形態による情報処理方法の適用シナリオの概略図である。図12に示すように、シーケンス番号の行は、オブジェクトが基準線に接触するシーケンス、すなわち、時系列情報Aを示す。接触点位置情報の行は、オブジェクトが基準線に接触する接触点と基準線の左終端との間の距離、すなわち、接触点位置情報Aを示す。この出願のこの実施形態において、接触点位置情報は、接触点と基準線上の任意の点との間の位置関係を示すことがある。これは本明細書において限定されない。
1104:検出情報Bに基づいて、オブジェクトが基準線に接触する時系列情報Bおよび接触点位置情報Bを取得する。
検出情報Bは、検出範囲内でレーダによって検出されるオブジェクトのピクチャであり、線接触情報は、オブジェクトが基準線に接触する情報である。従って、処理デバイスは、検出情報Bに基づいて、オブジェクトが基準線に接触する時系列情報Bおよび接触点位置情報Bを取得することがある。接触点位置情報Bの記述については、ステップ1103における接触点位置情報Aの記述を参照のこと。詳細はここでは再度記載されない。
任意に、図12に示すように、シーケンス番号の行は、オブジェクトが基準線に接触するシーケンス、すなわち、時系列情報Bを示す。接触時間間隔情報の行は、オブジェクトが基準線に接触する接触点と基準線の左終端との間の距離、すなわち、接触点位置情報Bを示す。この出願のこの実施形態において、接触点位置情報は、接触点と基準線上の任意の点との間の位置関係を示して、異なる接触点間の位置関係を反映することがある。これは本明細書において限定されない。
この出願のこの実施形態では、ステップ1101とステップ1102との間に必要なシーケンスはない。ステップ1101は、ステップ1102の前または後に実行されてよく、あるいは、ステップ1101およびステップ1102は、同時に実行されてよい。これは本明細書において限定されない。ステップ1103とステップ1104との間に必要なシーケンスはない。ステップ1103は、ステップ1104の前または後に実行されてよく、あるいは、ステップ1103およびステップ1104は、同時に実行されてよい。ただし、ステップ1103は、ステップ1101の後に実行され、ステップ1104は、ステップ1102の後に実行される。これは本明細書において限定されない。
1105:時系列情報Aおよび接触点位置情報Aに基づいて、接触位置シーケンスAを取得する。
図12に示すように、時系列情報Aに基づいて、接触点位置情報Aを時系列に基づいて配置して、接触位置シーケンスAを取得してよい。
1106:時系列情報Bおよび接触点位置情報Bに基づいて、接触位置シーケンスBを取得する。
図12に示すように、時系列情報Bに基づいて、接触点位置情報Bを時系列に基づいて配置して、接触位置シーケンスBを取得してよい。
この出願のこの実施形態では、ステップ1105とステップ1106との間に必要なシーケンスはない。ステップ1105は、ステップ1106の前または後に実行されてよく、あるいは、ステップ1105および1106は、同時に実行されてよい。ただし、ステップ1105は、ステップ1103の後に実行され、ステップ1106は、ステップ1104の後に実行される。これは本明細書において限定されない。
1107:接触位置シーケンスAおよび接触位置シーケンスBに基づいて第3の部分列を取得する。
接触位置シーケンスAおよび接触位置シーケンスBは、本質的に2つの数字シーケンスである。処理デバイスは、2つの数字シーケンスを比較することがある。2つの数字シーケンスが同じであるかあるいは高い一致度を有するシーケンスセグメントを含むことを発見すると、処理デバイスは、そのシーケンスセグメントが2つのシーケンスの共通部分であると考えることがある。この出願のこの実施形態では、シーケンスセグメントを第3の部分列とも呼ぶ。接触位置シーケンスは、センサによって検出されたオブジェクト間の位置関係、すなわち、オブジェクト間のフォーメーション情報を反映する。従って、2つの数字シーケンスが同じであるかあるいは高い一致度を有するシーケンスセグメントを含むとき、それは2つの数字シーケンスにおけるセグメントに対応するオブジェクトセットが同じ位置関係を有する、すなわち、同じフォーメーション情報を有することを意味する。異なるセンサが同じまたは類似のフォーメーション情報を検出するならば、2つのセンサは同じオブジェクトセットを検出すると考えられてよい。
この出願のこの実施形態では、第3の部分列は、標的フォーメーション情報とも呼ばれ、複数のセンサによって検出される同じまたは類似のフォーメーション情報を表す。
具体的には、センサは、特定の検出漏れ率を有するので、第3の部分列と接触位置シーケンスAとの間の一致度および第3の部分列と接触位置シーケンスBとの間の一致度が両方とも第3の閾値よりも大きいならば、第3の部分列が接触位置シーケンスAおよび接触位置シーケンスBにおけるセグメントと完全に一致することは必要とされない。この出願のこの実施形態では、一致度を類似度とも呼ぶ。具体的には、第3の閾値は、90%であってよい。第3の閾値は、90%以外の値、例えば、95%または99%であってよい。これは本明細書において限定されない。
例えば、図12に示す接触位置シーケンスAおよび接触位置シーケンスBは、両方ともシーケンスセグメント(7.5m、7.3m、1.5m、7.6m、1.3m)を含む。処理デバイスは、セグメントを第3の部分列として使用することがある。この場合、第3の部分列と接触位置シーケンスAとの間の一致度および第3の部分列と接触位置シーケンスBとの間の一致度は、両方とも100%である。
任意に、第3の部分列は、LCSアルゴリズムを使用することによって決定されてよい。この出願のこの実施形態では、複数の接触位置シーケンスにおける同じ位置特徴のマッチングを実施するために、複数の接触位置シーケンスの全ての共通シーケンスが、LCSアルゴリズムを使用することによって取得されてよい。最長の共通部分列は、LCSアルゴリズムを使用することによって計算されるので、LCSアルゴリズムを使用することによって計算される第3の部分列は、前述の複数の接触位置シーケンスとの一致度が第2の閾値よりも大きい部分列における最長の部分列を含むことがある。
1108:第3の部分列における標的オブジェクトのフォーメーション位置情報に基づいて、同じ標的オブジェクトについてのセンサAおよびセンサBからの検出情報を融合する。
第3の部分列は、複数の接触点位置情報を含む。第3の部分列における接触点位置情報の各々に対応するデータが、接触位置シーケンスAおよび接触位置シーケンスBに発見されることがある。例えば、接触位置シーケンスAにおけるシーケンス番号2を持つ接触点位置情報について、標的オブジェクトの接触点位置情報が、7.3mであり、標的オブジェクトの前/後の別の標的オブジェクトの接触点位置情報が、7.5mおよび1.5mである。
この出願のこの実施形態では、接触位置シーケンスまたは第3の部分列における単一の接触点位置情報をフォーメーション位置情報とも呼び、それは標的オブジェクト集合における単一の標的オブジェクトの位置を示す。
この出願のこの実施形態では、標的オブジェクトの接触点位置情報を標的オブジェクトの特徴と呼び、標的オブジェクトの前後または付近の別の標的オブジェクトの接触点位置情報を周囲特徴と呼ぶ。周囲特徴は、標的オブジェクトの前/後の別の標的オブジェクトの接触点位置情報以外に、より近くの標的オブジェクトの接触点位置情報を含むこともある。これは本明細書において限定されない。
接触位置シーケンスBでは、標的オブジェクトの同じ特徴および同じ周囲特徴を持つ接触点位置情報、すなわち、シーケンス番号11を持つ接触点位置情報が発見されることがある。2つの接触点位置情報は、第3の部分列にあり、標的オブジェクトの同じ特徴および同じ周囲特徴を有し、2つの接触点位置情報は同じオブジェクトを反映すると考えられることがある。従って、処理デバイスは、シーケンス番号2に対応する検出情報とシーケンス番号11に対応する検出情報とを融合させて、標的オブジェクトの融合情報を取得することがある。
例えば、接触位置シーケンスAに対応するカメラが、シーケンス番号2に対応するオブジェクトの大きさおよび形状のような外観情報を検出してよい。車両について、シーケンス番号2に対応する車両のモデル、色、およびナンバープレートのような情報が検出されてよい。接触位置シーケンスBに対応するレーダが、シーケンス番号11に対応するオブジェクトの移動速度のような情報を検出してよい。車両について、シーケンス番号11に対応する車両の速度および加速度のような情報が検出されてよい。処理デバイスは、モデル、色、およびナンバープレートのような前述の情報を、車両の速度および加速度のような情報と融合させて、車両の融合情報を取得してよい。
この出願のこの実施形態では、接触間隔シーケンスのものでありかつ同じ位置特徴を有する全てのセグメントを、マッチングを通じて取得するために、複数の接触間隔シーケンスの全ての共通シーケンスが、LCSアルゴリズムを使用することによって決定されてよい。複数のセグメントが共通シーケンスであり、幾つかの非共通シーケンスが共通シーケンスに含まれるならば、共通シーケンスに含まれる非共通シーケンスは特定されることがある。非共通シーケンスは、異なるセンサにおける異なる位置関係を反映する。この場合、センサの誤検出または検出漏れの故に、非共通シーケンスが共通シーケンスに含まれることが考えられることがある。従って、フォールトトレランスが非共通シーケンスに対して実行される、すなわち、非共通シーケンスは、検出情報の融合を実現するために、異なるセンサによって検出された標的オブジェクトに対応することが許容される。
この出願のこの実施形態において、LCSアルゴリズムを使用することによって決定される第3の部分列は、前述の複数の接触位置シーケンスとの一致度が第3の閾値よりも大きい部分列内の最長の部分列を含むことがある。標的オブジェクト間の位置関係は、時折、類似することがある。従って、決定される部分列のより長い長さは、類似の位置関係を有するより低い可能性を示し、その結果、不測の事態が、より容易に回避されることがある。最長の部分列はLCSアルゴリズムを使用することによって決定されるので、同じ標的オブジェクトセットの標的フォーメーション情報が正確に決定されることがある。
例えば、2つの標的ブジェクト間の位置関係は、時折、類似することがある。しかしながら、10個の標的オブジェクトの位置関係が高い一致度を有するように標準が改良されるならば、10個の標的オブジェクトが類似の位置関係を有する可能性は、2個の標的オブジェクトが類似の位置関係を有する可能性よりも大幅により低い。従って、10個の標的オブジェクトの第1の部分列が、LCSアルゴリズムを使用することによって決定されるならば、10個の標的オブジェクトが異なるセンサによって取得される検出結果に対応する10個の標的オブジェクトである可能性が高く、不一致の可能性が低減される。
この出願のこの実施形態において、接触点位置情報は、異なる標的ブジェクトが基準線に接触する左右関係を示し、連続した値またはデータであることがある。従って、連続する値またはデータに基づいて、標的オブジェクトのフォーメーション情報は、別の非標的オブジェクトのフォーメーション情報からより正確に区別されることがある。従って、同じ標的オブジェクトの検出情報は、より正確に融合させられることがある。
加えて、標的ブジェクト間の運動傾向が、連続する値またはデータに基づいて分析または計算されることがある。運動傾向に加えて、他の情報、例えば、標的ブジェクトの移動軌跡が、さらに計算されてよい。これは本明細書において限定されない。
この出願のこの実施形態では、対応する部分列が決定される。部分列は、フォーメーションマッチングの精度を向上させるために組み合わされることもある。
(4)第1の部分列および第2の部分列に基づいて交差(intersection)を決定する。
図13は、この出願の一実施形態による情報処理方法の概略フローチャートである。方法は、以下を含む
1301:センサA(カメラ)から検出情報Aを取得する。
1302:センサB(レーダ)から検出情報Bを取得する。
ステップ1301およびステップ1302の記載については、図7に示す実施形態におけるステップ701およびステップ702を参照のこと。詳細はここでは再度記載されない。
1303:検出情報Aに基づいて、オブジェクト画素が基準線に接する時系列情報A、接触点区画情報A、および接触時間間隔情報Aを取得する。
検出情報Aは、画素を含むピクチャであり、線接触情報は、オブジェクト画素が基準線に接触する情報である。従って、処理デバイスは、検出情報Aに基づいて、オブジェクト画素が基準線に接触する時系列情報A、接触点区画情報A、および接触時間間隔情報Aを取得することがある。
図14は、この出願の一実施形態による情報処理方法の適用シナリオの概略図である。図14に示すように、シーケンス番号の行が、オブジェクトが基準線に接触するシーケンス、すなわち、時系列情報Aを示す。接触点区画情報の行は、基準線上にありかつオブジェクトが基準線に接触する接触点の区画情報、すなわち、接触点区画情報Aを示し、ここで、1は、車線1を示し、3は、車線3を示す。接触時間間隔情報の行は、オブジェクトが基準線に接触する時間と前のオブジェクトが基準線に接触した時間との間の差、すなわち、接触時間間隔情報Aを示し、ここで、接触時間間隔情報は、秒単位である。接触時間間隔情報は、秒単位以外のミリ秒単位であってもよい。これは本明細書において限定されない。
1304:検出情報Bに基づいて、オブジェクトが基準線に接触する時系列情報B、接触点区画情報B、および接触時間間隔情報Bを取得する。
検出情報Bは、検出範囲内でレーダによって検出されたオブジェクトのピクチャであり、線接触情報は、オブジェクトが基準線に接触する情報である。従って、処理デバイスは、検出情報Bに基づいて、オブジェクトが基準線に接触する時系列情報B、接触点区画情報B、および接触時間間隔情報Bを取得することがある。
図14に示すように、シーケンス番号の行は、オブジェクトが基準線に接触するシーケンス、すなわち、時系列情報Bを示す。接触点区画情報の行は、基準線上にあるかつオブジェクトが基準線に接触する接触点の区画情報、すなわち、接触点区画情報Bを示し、ここで、1は、車線1であり、3は、車線3である。接触時間間隔情報の行は、オブジェクトが基準線に接触する時間と前のオブジェクトが基準線に接触した時間との間の差、すなわち、接触時間間隔情報Bを示し、ここで、接触時間間隔情報は、秒単位で示される。接触時間間隔情報は、秒単位以外のミリ秒単位であってもよい。これは本明細書において限定されない。
この出願のこの実施形態では、ステップ1301とステップ1302との間に必要なシーケンスはない。ステップ1301は、ステップ1302の前または後に実行されてよく、あるいは、ステップ1301およびステップ1302は、同時に実行されてよい。これは本明細書において限定されない。ステップ1303とステップ1304との間に必要なシーケンスはない。ステップ1303は、ステップ1304の前または後に実行されてよく、あるいは、ステップ1303およびステップ1304は、同時に実行されてよい。ただし、ステップ1303は、ステップ1301の後に実行され、ステップ1304は、ステップ1302の後に実行される。これは本明細書において限定されない。
1305:時系列情報Aおよび接触点区画情報に基づいて接触区画シーケンスAを取得し、時系列情報Aおよび接触時間間隔情報Aに基づいて接触間隔シーケンスAを取得する。
処理デバイスが時系列情報Aおよび接触点区画情報に基づいて接触区画シーケンスAを取得するステップについては、図7に示す実施形態におけるステップ705を参照のこと。詳細はここでは再度記載されない。
処理デバイスが時系列情報Aおよび接触時間間隔情報Aに基づいて接触時間間隔シーケンスAを取得するステップについては、図9に示す実施形態のステップ905を参照のこと。詳細はここでは再度記載されない。
1306:時系列情報Bおよび接触点区画情報に基づいて接触区画シーケンスBを取得し、時系列情報Bおよび接触時間間隔情報Bに基づいて接触間隔シーケンスBを取得する。
処理デバイスが時系列情報Bおよび接触点区画情報に基づいて接触区画シーケンスBを取得するステップについては、図7に示す実施形態におけるステップ706を参照のこと。詳細はここでは再度記載されない。
処理デバイスが時系列情報Bおよび接触時間間隔情報Bに基づいて接触区画シーケンスBを取得するステップについては、図9に示す実施形態におけるステップ906を参照のこと。詳細はここでは再度記載されない。
この出願のこの実施形態では、ステップ1305とステップ1306との間に必要なシーケンスはない。ステップ1305は、ステップ1306の前または後に実行されてよく、あるいは、ステップ1305およびステップ1306は、同時に実行されてよい。ただし、ステップ1305は、ステップ1303の後に実行され、ステップ1306は、ステップ1304の後に実行される。これは本明細書において限定されない。
1307:接触区画シーケンスAおよび接触区画シーケンスBに基づいて第1の部分列を取得する。
接触区画シーケンスAおよび接触区画シーケンスBは、本質的に2つの数字シーケンスである。処理デバイスは、2つの数字シーケンスを比較することがある。2つの数字シーケンスが同じであるかあるいは高い一致度を有するシーケンスセグメントを含むことを発見すると、処理デバイスは、そのシーケンスセグメントが2つのシーケンスの共通部分であると考えることがある。この出願のこの実施形態では、シーケンスセグメントを第1の部分列とも呼ぶ。接触区画シーケンスは、センサによって検出されるオブジェクト間の位置関係、すなわち、オブジェクト間のフォーメーション情報を反映する。従って、2つの数字シーケンスが同じであるかあるいは高い一致度を有するシーケンスセグメントを含むとき、それは2つの数字シーケンスにおけるセグメントに対応するオブジェクトセットが同じ位置関係を有する、すなわち、同じフォーメーション情報を有することを示す。異なるセンサが同じまたは類似のフォーメーション情報を検出するならば、2つのセンサは同じオブジェクトセットを検出すると考えられることがある。
この出願のこの実施形態では、第1の部分列は、標的フォーメーション情報とも呼ばれ、複数のセンサによって検出される同じまたは類似のフォーメーション情報を表現する。
具体的には、センサは特定の検出漏れ率を有するので、第1の部分列と接触区画シーケンスAとの間の一致度および第1の部分列と接触区画シーケンスBとの間の一致度が両方とも第1の閾値よりも大きいならば、第1の部分列が接触区画シーケンスAおよび接触区画シーケンスBにおけるセグメントと完全に一致することは必要とされない。この出願のこの実施形態では、一致度は類似度とも呼ぶ。具体的には、第1の閾値は、90%であることがある。第1の閾値は、90%以外の値、例えば、95%または99%であることがある。これは本明細書において限定されない。
例えば、図8に示す接触区画シーケンスAおよび接触区画シーケンスBは、両方ともシーケンスセグメント(3、3、1、3、1)を含む。処理デバイスは、セグメントを第1の部分列として使用することがある。この場合、第1の部分列と接触区画シーケンスAとの間の一致度および第1の部分列と接触区画シーケンスBとの間の一致度は、両方とも100%である。
1308:接触間隔シーケンスAおよび接触間隔シーケンスBに基づいて第2の部分列を取得する。
接触間隔シーケンスAおよび接触間隔シーケンスBは、本質的に2つの数字シーケンスである。処理デバイスは、2つの数字シーケンスを比較することがある。2つの数字シーケンスが同じであるかあるいは高い一致度を有するシーケンスセグメントを含むことを発見すると、処理デバイスは、そのシーケンスセグメントが2つのシーケンスの共通部分であると考えることある。この出願のこの実施形態では、シーケンスセグメントを第2の部分列とも呼ぶ。接触間隔シーケンスは、センサによって検出されるオブジェクト間の位置関係、すなわち、オブジェクト間のフォーメーション情報を反映する。従って、2つの数字シーケンスが同じであるかあるいは高い一致度を有するシーケンスセグメントを含むとき、それは2つの数字シーケンスにおけるセグメントに対応するオブジェクトセットが同じ位置関係を有する、すなわち、同じフォーメーション情報を有することを示す。異なるセンサが同じまたは類似のフォーメーション情報を検出するならば、2つのセンサは同じオブジェクトセットを検出すると考えられることがある。
この出願のこの実施形態において、第2の部分列は、標的フォーメーション情報とも呼ばれ、複数のセンサによって検出される同じまたは類似のフォーメーション情報を表現する。
具体的には、センサは特定の検出漏れ率を有するので、第2の部分列と接触間隔シーケンスAとの間の一致度および第2の部分列と接触間隔シーケンスBとの間の一致度が両方とも第2の閾値よりも大きいならば、第2の部分列が接触間隔シーケンスAおよび接触間隔シーケンスBにおけるセグメントと完全に一致することは必要とされない。この出願のこの実施形態では、一致度を類似度とも呼ぶ。具体的には、第2の閾値は、90%であることがある。第2の閾値は、90%以外の値、例えば、95%または99%であることがある。これは本明細書において限定されない。
例えば、図10に示す接触間隔シーケンスAおよび接触間隔シーケンスBは、両方ともシーケンスセグメント(2.0s,0.3s,1.9s,0.4s)を含む。処理デバイスは、セグメントを第2の部分列として使用することがある。この場合、第2の部分列と接触間隔シーケンスAとの間の一致度および第2の部分列と接触間隔シーケンスBとの間の一致度は、両方とも100%である。
1309:第1の部分列に対応する第1のオブジェクトセットおよび第2の部分列に対応する第2のオブジェクトセットの交差を取得する。
第1の部分列(3,3,1,3,1)によって示されるオブジェクトは、センサAの側にあり、1~5のシーケンス番号を有し、センサBの側にあるオブジェクトに対応し、10~14のシーケンス番号を有する。この出願のこの実施形態では、第1の部分列に対応するオブジェクトセットを第1のオブジェクトセットとも呼ぶ。
第2の部分列(2.0s,0.3s,1.9s,0.4s)によって示されるオブジェクトは、センサAの側にあり、2~5のシーケンス番号を有し、センサBの側にあるオブジェクトに対応し、11~14のシーケンス番号を有する。この出願のこの実施形態では、第2の部分列に対応するオブジェクトセットを第2のオブジェクトセットとも呼ぶ。
2つのオブジェクトセットの交差が取得される、すなわち、シーケンス番号が1~5であるオブジェクトおよびシーケンス番号が2~5であるオブジェクトの交差がセンサAの側で取得される。具体的には、そのシーケンス番号が2~5である標的オブジェクトのセットである交差が決定される。相応して、センサBの側で、交差は、そのシーケンス番号が11~14である標的ブジェクトのセットである。この出願のこの実施形態では、第1のオブジェクトセットおよび第2のオブジェクトセットの交差を標的ブジェクトセットとも呼ぶ。
1310:交差内のオブジェクトのフォーメーション位置情報に基づいて、同じ標的オブジェクトについてのセンサAおよびセンサBからの検出情報を融合する。
第1の部分列は、複数の接触点区画情報を含む。第1の部分列における接触点区画情報の各々に対応するデータが、接触区画シーケンスAおよび接触区画シーケンスB内に発見されることがある。例えば、接触区画シーケンスAにおいてシーケンス番号4を有する接触区画情報について、標的オブジェクトの接触区画情報は、3であり、標的オブジェクトの前/後の別の標的オブジェクトの接触区画情報は、1である。
この出願のこの実施形態では、接触区画シーケンスまたは第1の部分列における単一の接触点区画情報をフォーメーション位置情報とも呼び、それは標的オブジェクトセットにおける単一の標的オブジェクトの位置を示す。
この出願のこの実施形態では、標的オブジェクトの区画情報を標的オブジェクトの特徴と呼び、標的オブジェクトの前/後または付近の別の標的オブジェクトの区画情報を周囲特徴と呼ぶ。周囲特徴は、標的オブジェクトの前/後の別の標的オブジェクトの接触点区画情報以外に、より近くの標的オブジェクトの接触点区画情報を含むこともある。これは本明細書において限定されない。
接触区画シーケンスBでは、標的オブジェクトの同じ特徴および同じ周囲特徴を有する接触点区画情報、すなわち、シーケンス番号13を持つ接触点区画情報が発見されることがある。2つの接触点区画情報は、第1の部分列にあり、標的オブジェクトの同じ特徴および同じ周囲特徴を有し、2つの接触点区画情報は同じオブジェクトを反映すると考えられることがある。従って、処理デバイスは、シーケンス番号4に対応する検出情報およびシーケンス番号13に対応する検出情報を融合させて、標的オブジェクトの融合情報を取得することがある。
例えば、接触区画シーケンスAに対応するカメラが、シーケンス番号4に対応するオブジェクトの大きさおよび形状のような外観情報を検出してよい。車両について、シーケンス番号4に対応する車両のモデル、色、およびナンバープレートのような情報が検出されてよい。接触区画シーケンスBに対応するレーダが、シーケンス番号13に対応するオブジェクトの移動速度のような情報を検出してよい。車両について、シーケンス番号13に対応する車両の速度および加速度のような情報が検出されてよい。処理デバイスは、モデル、色、およびナンバープレートのような前述の情報を、車両の速度および加速度のような情報と融合させて、車両の融合情報を取得してよい。
同様に、第2の部分列内にありかつ標的オブジェクトの同じ特徴および同じ周囲特徴を有する検出情報が融合されてよい。詳細については、第1の部分列に基づく前述の融合手順を参照のこと。詳細はここでは再度記載されない。
第2の部分列内にある標的オブジェクトの特徴および周囲特徴の記述については、図9に示す実施形態におけるステップ908を参照のこと。詳細はここでは再度記載されない。
この出願のこの実施形態において、第1のオブジェクトセットと第2のオブジェクトセットとの交差は、第1の部分列に対応する第1オブジェクトセットおよび第2の部分列に対応する第2オブジェクトセットに基づいて決定され、この交差は、標的オブジェクトセットとして使用される。交差内のオブジェクトが、第1の部分列に対応する、すなわち、類似の接触区画情報が、異なるセンサからの検出情報に基づいて取得されることがある。加えて、交差内のオブジェクトは、第2の部分列に対応する、すなわち、類似の接触時間間隔情報が、異なるセンサからの検出情報に基づいて存在する。オブジェクト間の位置関係を示す複数の類似情報が複数のセンサからの検出情報に基づいて取得されることがあるならば、検出情報に対応するオブジェクトセットが同じオブジェクトセットである可能性は、オブジェクト間の位置関係を示す単一の類似情報のみが取得される場合があるときよりも高い。従って、スクリーニングが複数の部分列に対応するオブジェクトの交差に対して実行されるので、標的オブジェクトのフォーメーション情報は、別の非標的オブジェクトのフォーメーション情報からより正確に区別されることがある。従って、同じ標的オブジェクトの検出情報は、より正確に融合される。
この出願のこの実施形態では、第1の部分列に対応するオブジェクトおよび第2の部分列に対応するオブジェクトの交差に加えて、他の部分列に対応するオブジェクトの交差、例えば、第1の部分列に対応するオブジェクトおよび第3の部分列に対応するオブジェクトとの交差、第2の部分列に対応するオブジェクトおよび第3の部分列に対応するオブジェクトの交差、または別の部分列に対応するオブジェクトおよび第1~第3の部分列のうちのいずれか1つに対応するオブジェクトの交差が使用されてよい。オブジェクト間の位置関係、例えば、オブジェクト間の距離または方向を示すために、他の部分列も使用される。これは本明細書において限定されない。異なる部分列に対応するオブジェクトの交差が取得されるので、適切な部分列が、操作(operation)のために柔軟に選択されることがあり、それによって、解決策の実行可能性および柔軟性を向上させる。
この出願のこの実施形態では、2つの部分列に対応するオブジェクトの交差に加えて、より多くの部分列に対応するオブジェクトの交差が取得されることがあり、例えば、第1の部分列、第2の部分列、および第3の部分列に対応するオブジェクトの交差が取得される。より多量の部分列が使用されるとき、それは、オブジェクト間の位置関係を示すより多くのタイプの類似情報が複数のセンサからの検出情報に基づいて取得されることがあり、検出情報に対応するオブジェクトセットが同じオブジェクトセットである可能性がより高いことを示す。従って、スクリーニングが複数の部分列に対応するオブジェクトの交差に対して実行されるので、標的オブジェクトのフォーメーション情報が、別の非標的オブジェクトのフォーメーション情報からより正確に区別されることがある。従って、同じ標的オブジェクトの検出情報が、より正確に融合される。
この出願のこの実施形態において、線接触情報は、位置特徴セットに基づいて取得される。何故ならば、線接触情報は、オブジェクトが基準線に接触する情報であるからである。オブジェクトが基準線に接触するときに、接触時間、接触間隔、および接触位置のような、特定の値または特定の位置特徴を含むデータが取得されることがある。従って、複数の接触時間点を含む数字シーケンス、複数の接触間隔を含む数字シーケンス、または複数の接触位置を含む分布関係のような、線接触データのセットが、複数の標的オブジェクトが線に接触する特定の値または特定の位置特徴に基づいて取得されることがある。前述の線接触データのセットは、特定の値または位置特徴を有するので、操作が、任意の他のデータ処理を伴わずに直接実行されることがある。従って、一致度が予め設定された閾値を満たす標的フォーメーション情報が、迅速に決定されることがある。
この出願のこの実施形態において、フォーメーション情報は、線描画方法を使用することによって決定されることがある。フォーメーション情報は、別の方法、例えば、画像特徴マッチング方法を使用することによって決定されてもよい。
2:画像特徴マッチング方法
人間について、フォーメーション情報は、完全な形状として表されることがある。デバイスについて、抽象化された完全な形状は、画像特徴として表されることがある。この出願の本実施形態では、完全な画像特徴を使用することによってフォーメーション情報を決定するための方法を画像特徴マッチング方法と呼ぶ。
図3aに示す検出システムに基づいて、以下は、図15を参照して、この出願のこの実施形態による情報処理方法のステップを詳細に記載する。図15は、この出願の一実施形態による情報処理方法の概略フローチャートである。方法は、以下を含む。
1501:センサA(カメラ)から検出情報Aを取得する。
1502:センサB(レーダ)から検出情報Bを取得する。
ステップ1501およびステップ1502の記載については、図7に示す実施形態におけるステップ701およびステップ702を参照のこと。詳細はここでは再度記載されない。
1503:検出情報Aに基づいて初期標的グループ分布グラフAを決定する。
検出情報Aは、画素を含むピクチャであるため、処理デバイスは、ピクチャ中の画素に基づいて異なるオブジェクトを識別し、そのオブジェクトについての特徴点をマーキングすることがある。特徴点によって形成される形状は、初期標的グループ分布グラフAとして使用される。
具体的には、特徴点のマーキングは、統一されたルールに従うことがある。例えば、車両マーキングについて、車両の前方の中心点が、特徴点として使用されることがある。特徴点は、車両の前方の中心点以外の別の点、例えば、ナンバープレートの中心点であってよい。これは本明細書において限定されない。
例えば、図16は、この出願の一実施形態による情報処理方法の適用シナリオの概略図である。図16に示すように、ナンバープレートの中心点がマーキングされ、マーキング点が接続されて、初期標的グループ分布グラフAが形成され、ここで、分布グラフは、数字「9」に類似する形状にある。
任意に、対応する形状特徴が、スケール不変特徴変換(scale-invariant feature transform,SIFT)アルゴリズムを使用することによって抽出されて、初期標的グループ分布グラフAが取得されることがある。
1504:検出情報Bに基づいて初期標的グループ分布グラフBを決定する。
検出情報Bは、検出範囲内でレーダによって検出されたオブジェクトのピクチャであり、レーダによって検出されたオブジェクトは、ピクチャ内にマーキング情報を有し、その場合、マーキング情報は、対応するオブジェクトを表現する。従って、処理デバイスは、ピクチャ内のマーキング情報によって形成される形状を初期標的グループ分布グラフBとして使用することがある。
例えば、図16に示すように、マーキング情報の位置が接続されて初期標的グループ分布グラフBが形成され、この分布グラフも数字「9」のような形状である。
任意に、SIFTアルゴリズムを使用することによって対応する形状特徴を抽出して、初期標的グループ分布グラフBを取得してよい。
1505:初期標的グループ分布グラフAの標的グループ分布グラフAおよび初期標的グループ分布グラフBの標的グループ分布グラフBを取得する。
処理デバイスは、ビューポート変更アルゴリズムを使用することによって初期標的グループ分布グラフAの標準ビューポートグラフを取得してよく、初期標的グループ分布グラフAの標準ビューポートグラフを標的グループ分布グラフAとしてする。同様に、処理デバイスは、ビューポート変更アルゴリズムを使用することによって初期標的グループ分布グラフBの標準ビューポートグラフを取得してよく、初期標的グループ分布グラフBの標準ビューポートグラフを標的グループ分布グラフBとして使用する。
例えば、図16に示すように、初期標的グループ分布グラフBのビューポートを標準ビューポートとして使用して、初期標的グループ分布グラフAのビューポートを変更し、それによって、標的グループ分布グラフBと同じビューポートを有する標的グループ分布グラフAを取得する。
1506:標的グループ分布グラフAおよび標的グループ分布グラフBに基づいて画像特徴セットを決定する。
標的グループ分布グラフAおよび標的グループ分布グラフBは、2つの形状を示す。処理デバイスは、2つの形状の画像特徴を比較することがある。2つの画像特徴が、同じであるかあるいは高い一致度を有する特徴セットを含むことを発見すると、処理デバイスは、特徴セットが2つの画像特徴の共通部分であると考えることがある。この出願のこの実施形態において、特徴セットは、画像特徴セットとも呼ばれる。画像特徴は、センサによって検出されたオブジェクト間の位置関係、すなわち、オブジェクト間のフォーメーション情報を反映する。従って、2つの画像特徴が、同じであるか或いは高い一致度を有する特徴セットを含むとき、それは、2つの画像特徴における特徴セットに対応するオブジェクトセットが同じ位置関係、すなわち、同じフォーメーション情報を有することを示す。異なるセンサが同じまたは類似のフォーメーション情報を検出するならば、2つのセンサは同じオブジェクトセットを検出すると考えられることがある。
この出願のこの実施形態において、画像特徴セットは、標的フォーメーション情報とも呼ばれ、複数のセンサによって検出された同じまたは類似のフォーメーション情報を表す。
具体的には、センサは、特定の検出漏れ率を有するので、画像特徴セットと標的グループ分布グラフAとの間の一致度および画像特徴セットと標的グループ分布グラフBとの間の一致度が両方とも第3の閾値よりも大きいならば、画像特徴セットが標的グループ分布グラフAおよび標的グループ分布グラフBにおける特徴と完全に一致することは必要とされない。この出願のこの実施形態では、一致度は、類似度とも呼ばれる。具体的には、第3の閾値は、90%であることがある。第3の閾値は、90%以外の値、例えば、95%または99%であってよい。これは本明細書において限定されない。
任意に、顔認識アルゴリズムまたは指紋認識アルゴリズムを使用して、異なる標的グループ分布グラフに一致する画像特徴セットを取得してよい。
1507:画像特徴セットにおける標的オブジェクトのフォーメーション位置情報に基づいて、同じ標的オブジェクトについてのセンサAおよびセンサBからの検出情報を融合させる。
画像特徴セットは、複数のマーキング情報または複数のマーキングポイントを含む。画像特徴セットにおける各マーキング情報または各マーキングポイントに対応するデータが、標的グループ分布グラフAおよび標的グループ分布グラフBにおいて発見されることがある。例えば、図16では、標的グループ分布グラフAにおける形状「9」の下にあるマーキングポイントが、一例として使用される。
この出願のこの実施形態では、標的グループ分布グラフまたは画像特徴セットにおける単一のマーキング情報または単一のマーキング点がフォーメーション位置情報とも呼ばれ、標的オブジェクトセットにおける単一の標的オブジェクトの位置を示す。
同じ位置を有するマーキング情報も、標的グループ分布グラフB、すなわち、標的グループ分布グラフBにおける形状「9」の底にあるマーキング情報に発見されることがある。2つのマーキング情報およびマーキング点は、画像特徴セット内にあり、同じ位置特徴を有し、2つのマーキング情報およびマーキング点は同じオブジェクトを反映すると考えられることがある。従って、処理デバイスは、形状「9」の底にあるマーキング点に対応する検出情報と形状「9」の底にあるマーキング情報に対応する検出情報とを融合させて、標的オブジェクトの融合情報を取得することがある。
例えば、標的グループ分布グラフAに対応するカメラが、オブジェクトの大きさおよび形状のような外観情報を検出することがある。車両について、対応する車両のモデル、色、およびナンバープレートのような情報が検出されることがある。標的グループ分布グラフBに対応するレーダが、オブジェクトの移動速度のような情報を検出することがある。車両について、対応する車両の速度や加速度のような情報が検出されることがある。処理デバイスは、モデル、色、およびナンバープレートのような前述の情報と、車両の速度および加速度のような情報とを融合させて、車両の融合情報を取得することがある。
この出願のこの実施形態では、複数の対応する初期標的グループ分布グラフが、異なるセンサからの検出情報に基づいて取得され、複数の対応する標的グループ分布グラフが、ビューポート変更アルゴリズムを使用することによって取得される。次に、複数の標的グループ分布グラフの画像特徴セットが取得され、画像特徴セットは、標的フォーメーション情報として使用される。複数の標的グループ分布グラフとの一致度が予め設定された閾値より大きい画像特徴セットが、複数のセンサからの複数の標的グループ分布グラフに基づいて決定される。画像特徴は、ピクチャ内に表示されるオブジェクト間の位置関係を直感的に反映することがある。従って、画像特徴セットは、複数の標的グループ分布グラフに基づいて決定されるので、類似する位置関係を示す検出結果が、直感的に反映されることがある。すなわち、同じ標的グループのものでありかつ異なるセンサによって取得される検出結果は、マッチングを通じて決定されることがある。このようにして、検出情報が正確に融合される。
この出願のこの実施形態では、より正確な結果を得るために、画像特徴マッチング方法は、線描画方法と組み合わされることがある。
3:画像特徴マッチング方法と線描画方法との組み合わせ
図17は、この出願の一実施形態による情報処理方法の概略フローチャートである。方法は、以下のステップを含む。
1701:センサA(カメラ)から検出情報Aを取得する。
1702:センサB(レーダ)から検出情報Bを取得する。
ステップ1701およびステップ1702の記述については、図7に示す実施形態におけるステップ701およびステップ702を参照のこと。詳細はここでは再度記載されない。
1703:検出情報Aに基づいて線接触情報Aを取得する。
線接触情報が、オブジェクトが基準線に接触する時系列情報、接触点区画情報、接触点位置情報、接触時間間隔情報などを含むことが、図6に示す実施形態において記載された。処理デバイスは、複数の前述の線接触情報を取得することがある、例えば、検出情報Aに基づいて時系列情報Aおよびと接触点区画情報Aを取得することがある。時系列情報Aおよび接触点区画情報Aを取得する手順については、図7に示す実施形態のステップ703を参照のこと。詳細はここでは再度記載されない。
時系列情報Aおよび接触点区画情報Aを取得することに加えて、処理デバイスは、別の線接触情報、例えば、図9に示す実施形態におけるステップ903に示す時系列情報Aおよび接触時間間隔情報A、図11に示す実施形態におけるステップ1103に示す時系列情報Aおよび接触点位置情報A、または図13に示す実施形態におけるステップ1303に示す時系列情報A、接触点区画情報Aおよび接触時間間隔情報Aを取得することがある。これは本明細書において限定されない。
1704:検出情報Bに基づいて線接触情報Bを取得する。
ステップ1703に対応して、検出情報Aに基づいて処理デバイスによって取得される線接触情報のタイプに依存して、処理デバイスは、検出情報Bに基づいて対応する同じタイプの線接触情報を取得する。線接触情報を取得する手順については、図7、図9、図11、または図13に示す実施形態を参照のこと。詳細はここでは再度記載されない。
1705:線接触情報Aに基づいて初期標的グループ分布グラフAを決定する。
オブジェクトは、瞬間にのみ基準線に接触する。従って、線接触情報は、検出情報を取得する瞬間を反映することがある。処理デバイスは、線接触情報Aによって反映される瞬間に取得される検出情報Aに基づいて、初期標的グループ分布グラフAを決定することがある。取得される初期標的グループ分布グラフAは、線接触情報Aが取得される瞬間に取得されるフォーメーション情報を反映する。初期標的グループ分布グラフAを取得する手順については、図15に示す実施形態におけるステップ1503を参照のこと。詳細はここでは再度記載されない。
1706:線接触情報Bに基づいて初期標的グループ分布グラフBを決定する。
処理デバイスは、線接触情報Aと同じフォーメーション情報を有する線接触情報Bを決定することがある。線接触情報は、主にオブジェクトセットのフォーメーション情報を反映するので、線接触情報Bは線接触情報Aと同じと考えられることがある。
処理デバイスは、線接触情報Bによって反映される瞬間に取得される検出情報Bに基づいて、初期標的グループ分布グラフBを決定することがある。取得される初期標的グループ分布グラフBは、線接触情報Bが取得される瞬間に取得されるフォーメーション情報を反映する。初期標的グループ分布グラフBを取得する手順については、図15に示す実施形態におけるステップ1504を参照のこと。詳細はここでは再度記載されない。
1707:初期標的グループ分布グラフAの標的グループ分布グラフAおよび初期標的グループ分布グラフBの標的グループ分布グラフBを取得する。
1708:標的グループ分布グラフAおよび標的グループ分布グラフBに基づいて画像特徴セットを決定する。
1709:画像特徴セットにおける標的オブジェクトのフォーメーション位置情報に基づいて、同じ標的オブジェクトについてのセンサAおよびセンサBからの検出情報を融合させる。
ステップ1707~ステップ1709の記述については、図15に示す実施形態におけるステップ1505~ステップ1507を参照のこと。詳細はここでは再度記載されない。
この出願のこの実施形態では、近い時点で取得される画像間の類似度が高い。従って、同じ時点が特定されないならば、マッチングが異なるセンサからの初期標的オブジェクト分布グラフに対して実行されると、近い時点で取得される初期標的グループ分布グラフに起因して、干渉が導入される。その結果、マッチングが分布グラフに対して実行されるときに、エラーが生じ、画像特徴セットが取得されるときに、エラーが生じる。結果的に、異なる瞬間に取得される検出情報が融合されて、検出情報の融合においてエラーを引き起こす。このエラーは、線接触情報を使用することによって回避されることができる。具体的には、複数の初期標的グループ分布グラフは、線接触情報を使用することによって決定される。複数の初期標的グループ分布グラフは、同じ線接触情報を有する。これは複数の初期標的グループ分布グラフが同じ時点で得られることを示し、融合のための検出情報が同じ時点で取得されることを確実にすることがあり、それによって、検出情報の融合の精度を向上させることがある。
2.この出願の一実施形態による情報処理方法の適用
この出願のこの実施形態による方法は、融合された情報を取得するために使用されることがあり、別の目的のために、例えば、異なるセンサの空間座標系のマッピングを実施し、異なるセンサの時間軸のマッピングを実施し、センサ上でエラー補正またはフィルタリングのような機能を実施するために使用されることもある。
1:異なるセンサの空間座標系のマッピング
具体的には、複数のセンサが、第1のセンサと、第2のセンサとを含むことがあり、その場合には、第1のセンサに対応する空間座標系が標準座標系であり、第2のセンサに対応する空間座標系が標的座標系である。異なるセンサの空間座標系のマッピングを実施するために、図7~図17に示す実施形態を実施された後に、本方法は、さらに以下を含むことがある。
処理デバイスは、融合検出情報に基づいて、複数の標準点情報と複数の標的点情報との間のマッピング関係を決定し、その場合、融合検出情報は、複数のフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合させることによって取得される。この出願のこの実施形態において、融合検出情報は、融合情報とも呼ばれる。標準点情報は、標的オブジェクトセットからのものでありかつ標準座標系内にあるオブジェクトの位置情報を示し、標的点情報は、標的オブジェクトセットからのものでありかつ標的座標系内にあるオブジェクトの位置情報を示し、複数の標準点情報は、複数の標的点情報と1対1の対応にある。
マッピング関係を決定した後に、処理デバイスは、標準点情報と標的点情報との間のマッピング関係に基づいて、標準座標系と標的座標系との間のマッピング関係を決定してよい。
この出願の本実施形態では、複数の標準点情報と複数の標的点情報との間のマッピング関係は、融合検出情報に基づいて決定され、標準座標系と標的座標系との間のマッピング関係は、複数の標準点情報と複数の標的点情報との間のマッピング関係に基づいて決定される。この出願のこの実施形態における方法によれば、異なるセンサからの検出情報を取得することができるならば、異なるセンサの座標系間のマッピングが実施されることがある。標的フォーメーション情報を決定するステップ、点情報に対してマッピングを実行するステップなどの後続のステップは、手動較正およびマッピングを伴わずに、処理デバイスによって実施されることがある。処理デバイスは、標的フォーメーション情報に対してマッチングを実行するので、デバイスによる正確な操作は、点情報マッピングの精度を向上させる。加えて、異なるセンサからの検出情報を取得することができるならば、検出情報の融合および座標系間のマッピングが実施されてよい。これは手動較正によって引き起こされるシナリオ制限を回避し、検出情報の融合の精度および普遍性を確実にする。
2:異なるセンサの時間軸のマッピング
処理デバイスは、複数のフォーメーション情報にありかつ同じ標的オブジェクトに対応する検出情報の融合結果に基づいて、複数のセンサの時間軸間の時間差を計算する。時間差は、異なるセンサの時間軸間のマッピングを実施するために使用されることがある。
この出願のこの実施形態において、複数のセンサの時間軸間の時間差は、同じ標的オブジェクトの検出情報の融合結果に基づいて計算されるので、異なるセンサの時間軸は、時間差に基づいてアライメントされることがある。この出願のこの実施形態において提供される時間軸アライメント方法は、異なるセンサからの検出情報を取得することができるならば実施されることがある。複数のセンサは、同じ時刻同期システム内にある必要はない。これは異なるセンサの時間軸アライメントの適用シナリオを拡張し、情報融合の適用範囲も拡張する。
3:センサのエラー補正またはフィルタリング
具体的には、複数のセンサは、標準センサと、検出対象センサとを含むことがある。本方法は、さらに以下を含むことがある。
処理デバイスは、標的フォーメーション情報内にありかつ標準センサに対応する標準フォーメーション情報を取得する。処理デバイスは、標的フォーメーション情報内にありかつ検出対象センサに対応する検出対象フォーメーション情報を取得する。処理デバイスは、検出対象フォーメーション情報と標準フォーメーション情報との間の差を決定する。処理デバイスは、前述の差および標準フォーメーション情報に基づいて、エラーパラメータ(誤差パラメータ)を取得し、その場合、エラーパラメータは、検出対象フォーメーション情報のエラーを示し、あるいは検出対象センサの性能パラメータを示す。
図18は、この出願の一実施形態による情報処理方法の適用シナリオの概略図である。図18に示すように、センサBが誤って1つのデータ、例えば、図中のv6a6データを検出するならば、接触区画シーケンスAと接触区画シーケンスBとの間の差に基づいて、シーケンス番号15を持つデータがセンサBによって誤って検出されたと決定されることがある。
上述のように、センサの誤検出情報を取得して、センサの誤検出率を計算して、センサの性能を評価してよい。
図19は、この出願の一実施形態による情報処理方法の適用シナリオの概略図である。図19に示すように、センサBが、1つのデータ、例えば、図中のシーケンス番号2に対応する車線3上の標的オブジェクトを検出しないならば、接触区画シーケンスAと接触区画シーケンスBとの間の差に基づいて、シーケンス番号10とシーケンス番号11との間の1つの標的オブジェクトが検出されなかった決定されることがある。
上述のように、センサの検出漏れ情報を取得してセンサの検出漏れ率を計算して、センサの性能を評価してよい。
この出願の本実施形態では、標準センサは、検出のための標準として使用され、エラーパラメータが、検出対象フォーメーション情報と標準フォーメーション情報との間の差に基づいて取得される。エラーパラメータが、検出対象フォーメーション情報のエラーを示すときには、検出対象フォーメーション情報内にありかつエラーパラメータに対応する情報が、エラーパラメータおよび標準フォーメーション情報に基づいて補正されることがある。エラーパラメータが、検出対象センサの性能パラメータを示すときには、検出対象センサの誤検出率のような性能パラメータが決定されることがある。従って、データ分析を検出対象センサに対して実施して、センサを選択する。
3.この出願の一実施形態による情報処理方法に対応する処理デバイス
以下は、この出願の一実施形態による処理デバイスを記載する。図20は、この出願の一実施形態による処理デバイスの構造の概略図である。処理デバイス2000は、検出システム内に配置される。検出システムは、少なくとも2つのセンサをさらに含む。少なくとも2つのセンサによって取得される検出情報は、少なくとも2つの同じ標的オブジェクトについて少なくとも2つのセンサから別個に検出情報を含む。処理デバイス2000は、プロセッサ2001と、送受信機2002(トランシーバ)とを含む。
送受信機2002は、少なくとも2つのセンサから少なくとも2つの検出情報を取得するように構成され、その場合、少なくとも2つのセンサは、少なくとも2つの検出情報と1対1で対応する。
プロセッサ2001は、少なくとも2つの検出情報に基づいて、少なくとも2つの対応するフォーメーション情報を決定するように構成され、その場合、各フォーメーション情報は、対応するセンサによって検出されるオブジェクト間の位置関係を記載するために使用され、オブジェクトは、標的オブジェクトを含み、プロセッサ2001は、少なくとも2つのフォーメーション情報に基づいて、標的フォーメーション情報を決定するように構成され、その場合、標的フォーメーション情報と少なくとも2つのフォーメーション情報の各フォーメーション情報との間の一致度は、予め設定された閾値よりも大きく、標的フォーメーション情報は、少なくとも2つの標的オブジェクト間の位置関係を記述するために使用され、標的フォーメーション情報は、標的オブジェクトのフォーメーション位置情報を含み、プロセッサ2001は、標的オブジェクトの任意の1つの標的オブジェクトのフォーメーション位置情報に基づいて、少なくとも2つのフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合するように構成される。
任意の実装において、検出情報は、位置特徴セットを含む。位置特徴セットは、少なくとも2つの位置特徴を含み、位置特徴は、対応するセンサによって検出されるオブジェクトとオブジェクトの周囲のオブジェクトとの間の位置関係を示す。
任意の実装において、プロセッサ2001は、少なくとも2つの位置特徴セットに基づいて、少なくとも2つの対応する線接触情報を取得するように特に構成され、その場合、少なくとも2つの線接触情報の各々は、対応するセンサによって検出されるオブジェクトが基準線に接触する情報を記述するために使用され、少なくとも2つの線接触情報は、少なくとも2つの位置特徴セットと1対1で対応し、プロセッサ2001は、少なくとも2つの線接触情報に基づいて、少なくとも2つの対応するフォーメーション情報を決定するように構成され、その場合、少なくとも2つの線接触情報は、少なくとも2つのフォーメーション情報と1対1で対応する。
任意の実装において、線接触情報は、対応するセンサによって検出されるオブジェクトが基準線に接触する時系列情報および接触点区画情報を含む。接触点区画情報は、基準線上にありかつオブジェクトが基準線に接触する接触点の区画情報を示す。フォーメーション情報は、接触区画シーケンスを含み、接触区画シーケンスは、対応するセンサによって検出されるオブジェクトが基準線に接触する区画位置間の時系列関係を示す。
具体的には、プロセッサ2001は、少なくとも2つの接触区画シーケンスの第1の部分列を取得しかつ第1の部分列を標的フォーメーション情報として使用するように構成され、その場合、第1の部分列と少なくとも2つの接触区画シーケンスとの間の一致度は、第1の閾値よりも大きく、プロセッサ2001は、第1の部分列内にありかつ各標的ブジェクトに対応する接触点区画情報に基づいて、少なくとも2つの接触区画シーケンス内にありかつ同じ標的ブジェクトに対応する検出情報を融合するように構成される。
任意の実装において、線接触情報は、対応するセンサによって検出されるオブジェクトが基準線に接触する時系列情報および接触時間間隔情報を含む。接触時間間隔情報は、オブジェクトが基準線に接触する時間間隔を示す。フォーメーション情報は、接触間隔シーケンスを含み、接触間隔シーケンスは、対応するセンサによって検出されるオブジェクトが基準線に接触する時間間隔の分布を示す。
具体的には、プロセッサ2001は、少なくとも2つの接触間隔シーケンスの第2の部分列を取得して、第2の部分列を標的フォーメーション情報として使用するように構成され、その場合、第2の部分列と少なくとも2つの接触間隔シーケンスとの間の一致度は、第2の閾値より大きく、プロセッサ2001は、第2の部分列内にありかつ各標的ブジェクトに対応する接触時間分布情報に基づいて、少なくとも2つの接触間隔シーケンス内にありかつ同じ標的ブジェクトに対応する検出情報を融合するように構成される。
任意の実装において、線接触情報は、対応するセンサによって検出されるオブジェクトが基準線に接触する時系列情報、接触点区画情報、および接触時間間隔情報を含む。接触点区画情報は、基準線上にありかつオブジェクトが基準線に接触する接触点の区画情報を示す。接触時間間隔情報は、オブジェクトが基準線に接触する時間間隔を示す。フォーメーション情報は、接触区画シーケンスと、接触間隔シーケンスとを含み、その場合、接触区画シーケンスは、対応するセンサによって検出されるオブジェクトが基準線に接触する区画位置間の時系列関係を示し、接触間隔シーケンスは、対応するセンサによって検出されるオブジェクトが基準線に接触する時間間隔の分布を示す。
具体的には、プロセッサ2001は、少なくとも2つの接触区画シーケンスの第1の部分列を取得するように構成され、その場合、第1の部分列と少なくとも2つの接触区画シーケンスとの間の一致度は、第1の閾値よりも大きく、プロセッサ2001は、少なくとも2つの接触間隔シーケンスの第2の部分列を取得するように構成され、その場合、第2の部分列と少なくとも2つの接触間隔シーケンスとの間の一致度は、第2の閾値よりも大きく、プロセッサ2001は、第1のオブジェクトセットと第2のオブジェクトセットとの交差を取得して、交差を標的オブジェクトセットとして使用するように構成され、その場合、第1のオブジェクトセットは、第1の部分列に対応するオブジェクトのセットであり、第2のオブジェクトセットは、第2の部分列に対応するオブジェクトのセットであり、プロセッサ2001は、標的オブジェクトセットの接触区画シーケンスおよび接触間隔シーケンスを標的フォーメーション情報として使用するように構成される。
任意の実装において、フォーメーション情報は、標的グループ分布グラフを含み、標的グループ分布グラフは、オブジェクト間の位置関係を示す。
具体的には、プロセッサ2001は、少なくとも2つの位置特徴セットに基づいて少なくとも2つの対応する初期標的グループ分布グラフを取得するように構成され、その場合、初期標的グループ分布グラフは、対応するセンサによって検出されるオブジェクト間の位置関係を示し、プロセッサ2001は、ビューポート変更アルゴリズムを使用することによって少なくとも2つの初期標的グループ分布グラフの標準ビューポートグラフを取得するように構成され、プロセッサ2001は、少なくとも2つのビューポートグラフを少なくとも2つの対応する標的グループ分布グラフとして使用するように構成され、その場合、標的グループ分布グラフのフォーメーション位置情報は、標的オブジェクトの標的オブジェクト分布情報を含み、標的オブジェクト分布情報は、対応するセンサによって検出されるオブジェクトにおける標的オブジェクトの位置を示し、プロセッサ2001は、少なくとも2つの標的グループ分布グラフの画像特徴セットを取得して、画像特徴セットを標的フォーメーション情報として使用するように構成され、その場合、画像特徴セットと少なくとも2つの標的グループ分布グラフとの間の一致度は、第3の閾値よりも大きく、プロセッサ2001は、画像特徴セット内にありかつ各標的オブジェクトに対応する標的オブジェクト分布情報に基づいて、少なくとも2つの標的オブジェクト分布グラフないにありかつ同じ標的オブジェクトに対応する検出情報を融合するように構成され。
任意の実装において、プロセッサ2001は、少なくとも2つの位置特徴セットに基づいて、画像特徴セットに対応する標的ブジェクトの少なくとも2つの線接触情報を取得するようにさらに構成される。少なくとも2つの線接触情報の各々は、対応するセンサによって検出されるオブジェクトが基準線に接触する情報を記述するために使用され、少なくとも2つの線接触情報は、少なくとも2つの位置特徴セットと1対1で対応する。
プロセッサ2001は、具体的には、少なくとも2つの線接触情報に基づいて、少なくとも2つの対応する初期標的グループ分布グラフを取得するように構成される。少なくとも2つの初期標的グループ分布グラフ内のオブジェクトは、同じ線接触情報を有する。
任意の実装において、少なくとも2つのセンサは、第1のセンサと、第2のセンサとを含む。第1のセンサに対応する空間座標系が標準座標系であり、第2のセンサに対応する空間座標系が標的座標系である。
プロセッサ2001は、少なくとも2つのフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報を融合させることによって取得される融合検出情報に基づいて、少なくとも2つの標準点情報と少なくとも2つの標的点情報との間のマッピング関係を決定するようにさらに構成され、その場合、標準点情報は、標的オブジェクトセット内にありかつ標準基準系内にあるオブジェクトの位置情報を示し、標的点情報は、標的オブジェクトセット内にありかつ標的座標系内にあるオブジェクトの位置情報を示し、少なくとも2つの標準点情報は、少なくとも2つの標的点情報と1対1で対応し、プロセッサ2001は、標準点情報と標的点情報との間のマッピング関係に基づいて、標準座標系と標的座標系との間のマッピング関係を決定するようにさらに構成される。
任意の実装において、プロセッサ2001は、少なくとも2つのフォーメーション情報内にありかつ同じ標的オブジェクトに対応する検出情報の融合結果に基づいて、少なくとも2つのセンサの時間軸間の時間差を計算するようにさらに構成される。
任意の実装において、少なくとも2つのセンサは、標準センサと、検出対象センサとを含む。
プロセッサ2001は、さらに、標的フォーメーション情報内にありかつ標準センサに対応する標準フォーメーション情報を取得し、標的フォーメーション情報内にありかつ検出対象センサに対応する検出対象フォーメーション情報を取得し、検出対象フォーメーション情報と標準フォーメーション情報との間の差を取得し、前述の差および標準フォーメーション情報に基づいてエラーパラメータを取得するように構成され、その場合、エラーパラメータは、検出対象フォーメーション情報のエラーを示し、あるいは検出対象センサの性能パラメータを示す。
処理デバイス2000は、図4~図17に示す実施形態において処理デバイスによって実行される操作を実行することがある。詳細はここでは再度記載されない。
図21は、この出願の一実施形態による処理デバイスの構造の概略図である。処理デバイス2100は、1つ以上の中央処理装置(central processing units,CPUs)2101と、メモリ2105とを含むことがある。メモリ2105は、1つ以上のアプリケーションプログラムまたはデータを格納する。
メモリ2105は、揮発性記憶装置または永続記憶装置であってよい。メモリ2105に格納されるプログラムは、1つ以上のモジュールを含むことがあり、各モジュールは、処理デバイスについての一連の命令演算を含むことがある。さらに、中央処理装置2101は、メモリ2105と通信し、メモリ2105にある一連の命令演算を処理デバイス2100上で実行するように構成されることがある。
処理デバイス2100は、1つ以上の電源2102、1つ以上の有線または無線ネットワークインターフェース2103、1つ以上の送受信機インターフェース2104、および/またはWindows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTMのような1つ以上のオペレーティングシステムをさらに含むことがある。
処理デバイス2100は、図4~図17に示す実施形態において処理デバイスによって実行される操作を実行することがある。詳細はここでは再度記載されない。
便利で簡潔な記述のために、前述のシステム、装置、およびユニットの詳細な作業手順については、前述の方法の実施形態における対応するプロセスを参照することが、当業者によって明確に理解され得る。詳細はここでは再度記載されない。
この出願において提供される幾つかの実施形態において、開示されるシステム、装置、および方法は、他の方法で実施されてよいことが理解されるべきである。例えば、記載される装置の実施形態は、単なる例である。例えば、ユニットへの分割は、単なる論理関数分割であり、実際の実装では別の分割である場合がある。例えば、複数のユニットまたはコンポーネントが別のシステムに結合または統合されることがあり、あるいは幾つかの構成が無視されることがあり、あるいは実行されないことがある。加えて、表示されたあるいは議論された相互結合または直接結合または通信接続は、幾つかのインターフェースを使用することによって実施されることがある。装置またはユニット間の間接結合または通信接続は、電子的形態、機械的形態、または他の形態で実施されることがある。
別個の部分として記載されるユニットは、物理的に別個であることがありあるいは別個でないことがあり、ユニットとして表示される部分は、物理的ユニットであることがありあるいは物理的ユニットでないことがあり、1つの位置に配置されることがあり、あるいは複数のネットワークユニット上に分散されることがある。ユニットの一部または全部は、実施形態の解決策の目的を達成するために実際の要件に基づいて選択されることがある。
加えて、この出願の実施形態における機能ユニットは、1つの処理ユニットに統合されることがあり、ユニットの各々は、物理的に単独で存在することがあり、あるいは2つ以上のユニットが1つのユニットに統合されることがある。統合ユニットは、ハードウェアの形態で実装されることがあり、あるいはソフトウェア機能ユニットの形態で実装されることがある。
統合されたユニットがソフトウェア機能ユニットの形態で実装され、独立した製品として販売または使用されるとき、統合されたユニットは、コンピュータ読取可能な記憶媒体に格納されることがある。そのような理解に基づいて、この出願の本質的な技術的解決策、または従来技術に寄与する部分、または技術的解決策の全部または一部は、ソフトウェア製品の形態で実装されることがある。コンピュータソフトウェア製品は、記憶媒体に格納され、この出願の実施形態における方法のステップの全部または一部を実行するように(パーソナルコンピュータ、サーバ、ネットワークデバイスなどであることがある)コンピュータデバイスに命令するための幾つかの命令を含む。前述の記憶媒体は、USBフラッシュドライブ、リムーバブルハードディスクドライブ、読出し専用記憶装置(ROM)、ランダムアクセス記憶装置(RAM)、磁気ディスク、光ディスクのような、プログラムコードを格納することができる任意の媒体を含む。
Claims (25)
- 情報処理方法であって、
当該情報処理方法は、検出システムにおける処理デバイスに適用され、前記検出システムは、少なくとも2つのセンサをさらに含み、前記少なくとも2つのセンサによって取得される検出情報は、少なくとも2つの同じ標的オブジェクトについて前記少なくとも2つのセンサから別個に検出情報を含み、当該情報処理方法は、
前記処理デバイスによって、前記少なくとも2つのセンサから少なくとも2つの検出情報を取得することであって、前記少なくとも2つのセンサは、前記少なくとも2つの検出情報と1対1で対応する、取得することと、
前記処理デバイスによって、前記少なくとも2つの検出情報に基づいて、少なくとも2つの対応するフォーメーション情報を決定することであって、各フォーメーション情報は、前記対応するセンサによって検出されるオブジェクト間の位置関係を記述するために使用され、前記オブジェクトは、前記標的オブジェクトを含む、決定することと、
前記処理デバイスによって、前記少なくとも2つのフォーメーション情報に基づいて、標的フォーメーション情報を決定することであって、前記標的フォーメーション情報と前記2つのフォーメーション情報の各々との間の一致度が予め設定された閾値よりも大きく、前記標的フォーメーション情報は、前記少なくとも2つの標的オブジェクト間の位置関係を記述するために使用され、前記標的フォーメーション情報は、標的オブジェクトのフォーメーション位置情報を含む、決定することと、
前記標的オブジェクトの任意の1つの標的オブジェクトのフォーメーション位置情報に基づいて、前記処理デバイスによって、前記少なくとも2つのフォーメーション情報内にありかつ同じ標的オブジェクトに対応する前記検出情報を融合させることと、を含む、
情報処理方法。 - 前記検出情報は、位置特徴セットを含み、前記位置特徴セットは、少なくとも2つの位置特徴を含み、前記位置特徴は、前記対応するセンサによって検出される前記オブジェクトと前記オブジェクトの周囲のオブジェクトとの間の位置関係を示す、請求項1に記載の情報処理方法。
- 前記処理デバイスによって、前記少なくとも2つの検出情報に基づいて、少なくとも2つの対応するフォーメーション情報を決定することは、
少なくとも2つの位置特徴セットに基づいて、前記処理デバイスによって、少なくとも2つの対応する線接触情報を取得することであって、前記少なくとも2つの線接触情報の各々は、前記対応するセンサによって検出される前記オブジェクトが基準線に接触する情報を記述するために使用され、前記少なくとも2つの線接触情報は、前記少なくとも2つの位置特徴セットと1対1で対応する、取得することと、
前記処理デバイスによって、前記少なくとも2つの線接触情報に基づいて、前記少なくとも2つの対応するフォーメーション情報を別々に決定することであって、前記少なくとも2つの線接触情報は、前記少なくとも2つのフォーメーション情報と1対1で対応する、別々に決定することと、を含む、
請求項2に記載の情報処理方法。 - 前記線接触情報は、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する時系列情報および接触点区画情報を含み、前記接触点区画情報は、前記基準線上にありかつ前記オブジェクトが前記基準線に接触する接触点の区画情報を示し、
前記フォーメーション情報は、接触区画シーケンスを含み、前記接触区画シーケンスは、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する区画位置の間の時系列関係を示し、
前記処理デバイスによって、前記少なくとも2つのフォーメーション情報に基づいて、標的フォーメーション情報を決定することは、
前記処理デバイスによって、少なくとも2つの接触区画シーケンスの第1の部分列を取得し、前記第1の部分列を前記標的フォーメーション情報として使用することを含み、前記第1の部分列と前記少なくとも2つの接触区画シーケンスとの間の一致度が、第1の閾値よりも大きく、
標的オブジェクトの前記フォーメーション位置情報に基づいて、前記処理デバイスによって、前記少なくとも2つのフォーメーション情報内にありかつ同じ標的オブジェクトに対応する前記検出情報を融合させることは、
前記第1の部分列内にありかつ各標的オブジェクトに対応する前記接触点区画情報に基づいて、前記処理デバイスによって、前記少なくとも2つの接触区画シーケンス内にありかつ前記同じ標的オブジェクトに対応する前記検出情報を融合させることを含む、
請求項3に記載の情報処理方法。 - 前記線接触情報は、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する時系列情報および接触時間間隔情報を含み、前記接触時間間隔情報は、前記オブジェクトが前記基準線に接触する時間間隔を示し、
前記フォーメーション情報は、接触間隔シーケンスを含み、前記接触間隔シーケンスは、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する時間間隔の分布を示し、
前記処理デバイスによって、前記少なくとも2つのフォーメーション情報に基づいて、標的フォーメーション情報を決定することは、
前記処理デバイスによって、少なくとも2つの接触間隔シーケンスの第2の部分列を取得し、前記第2の部分列を前記標的フォーメーション情報として使用することを含み、前記第2の部分列と前記少なくとも2つの接触間隔シーケンスとの間の一致度は、第2の閾値よりも大きく、
標的オブジェクトの前記フォーメーション位置情報に基づいて、前記処理デバイスによって、前記少なくとも2つのフォーメーション情報内にありかつ同じ標的オブジェクトに対応する前記検出情報を融合させることは、
前記第2の部分列内にありかつ各標的オブジェクトに対応する接触時間分布情報に基づいて、前記処理デバイスによって、前記少なくとも2つの接触間隔シーケンス内にありかつ前記同じ標的オブジェクトに対応する前記検出情報を融合させることを含む、
請求項3に記載の情報処理方法。 - 前記線接触情報は、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する時系列情報、接触点区画情報、および接触時間間隔情報を含み、前記接触点区画情報は、前記基準線上にありかつ前記オブジェクトが前記基準線に接触する接触点の区画情報を示し、前記接触時間間隔情報は、前記オブジェクトが前記基準線に接触する時間間隔を示し、
前記フォーメーション情報は、接触区画シーケンスと、接触間隔シーケンスとを含み、前記接触区画シーケンスは、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する区画位置の間の時系列関係を示し、前記接触間隔シーケンスは、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する時間間隔の分布を示し、
前記処理デバイスによって、前記少なくとも2つのフォーメーション情報に基づいて、標的フォーメーション情報を決定することは、
前記処理デバイスによって、少なくとも2つの接触区画シーケンスの第1の部分列を取得することであって、前記第1の部分列と前記少なくとも2つの接触区画シーケンスとの間の一致度は、第1の閾値よりも大きい、取得することと、
前記処理デバイスによって、少なくとも2つの接触間隔シーケンスの第2の部分列を取得することであって、前記第2の部分列と前記少なくとも2つの接触間隔シーケンスとの間の一致度は、第2の閾値よりも大きい、取得することと、
前記処理デバイスによって、第1のオブジェクトセットおよび第2のオブジェクトセットの交差を決定し、前記交差を標的オブジェクトセットとして使用することであって、前記第1のオブジェクトセットは、前記第1の部分列に対応するオブジェクトのセットであり、前記第2のオブジェクトセットは、前記第2の部分列に対応するオブジェクトのセットである、使用することと、
前記処理デバイスによって、前記標的オブジェクトセットの前記接触区画シーケンスおよび前記接触間隔シーケンスを前記標的フォーメーション情報として使用することと、を含む、
請求項3に記載の情報処理方法。 - 前記フォーメーション情報は、標的グループ分布グラフを含み、前記標的グループ分布グラフは、前記オブジェクトの間の位置関係を示し、
前記処理デバイスによって、前記少なくとも2つの検出情報に基づいて、少なくとも2つの対応するフォーメーション情報を決定することは、
前記処理デバイスによって、少なくとも2つの位置特徴セットに基づいて、少なくとも2つの対応する初期標的グループ分布グラフを取得することであって、前記初期標的グループ分布グラフは、前記対応するセンサによって検出される前記オブジェクトの間の位置関係を示す、取得することと、
前記処理デバイスによって、ビューポート変更アルゴリズムを使用することによって前記少なくとも2つの初期標的グループ分布グラフの標準ビューポートグラフを取得し、前記少なくとも2つの標準ビューポートグラフを少なくとも2つの対応する標的グループ分布グラフとして使用することと、を含み、前記標的グループ分布グラフのフォーメーション位置情報は、前記標的オブジェクトの標的オブジェクト分布情報を含み、前記標的オブジェクト分布情報は、前記対応するセンサによって検出される前記オブジェクトにおける前記標的オブジェクトの位置を示し、
前記処理デバイスによって、前記少なくとも2つのフォーメーション情報に基づいて、標的フォーメーション情報を決定することは、
前記処理デバイスによって、前記少なくとも2つの標的グループ分布グラフの画像特徴セットを取得し、前記画像特徴セットを前記標的フォーメーション情報として使用することであって、前記画像特徴セットと前記少なくとも2つの標的グループ分布グラフとの間の一致度は、第3の閾値よりも大きい、使用することと、
標的オブジェクトの前記フォーメーション位置情報に基づいて、前記処理デバイスによって、前記少なくとも2つのフォーメーション情報内にありかつ同じ標的オブジェクトに対応する前記検出情報を融合させることと、
前記画像特徴セット内にありかつ各標的オブジェクトに対応する前記標的オブジェクト分布情報に基づいて、前記処理デバイスによって、前記少なくとも2つの標的グループ分布グラフ内にありかつ前記同じ標的オブジェクトに対応する前記検出情報を融合させることと、を含む、
請求項2に記載の情報処理方法。 - 当該情報処理方法は、さらに、
前記少なくとも2つの位置特徴セットに基づいて、前記処理デバイスによって、前記位置特徴セットに対応する前記標的オブジェクトの少なくとも2つの線接触情報を取得することであって、前記少なくとも2つの線接触情報の各々は、前記対応するセンサによって検出される前記オブジェクトが基準線に接触する情報を記述するために使用され、前記少なくとも2つの線接触情報は、前記少なくとも2つの位置特徴セットと1対1で対応する、取得することと、
前記処理デバイスによって、少なくとも2つの位置特徴セットに基づいて、少なくとも2つの対応する初期標的グループ分布グラフを取得することは、
前記処理デバイスによって、前記少なくとも2つの線接触情報に基づいて、前記少なくとも2つの対応する初期標的グループ分布グラフを取得することであって、前記少なくとも2つの初期標的グループ分布グラフにおけるオブジェクトは、同じ線接触情報を有する、取得することと、を含む、
請求項7に記載の情報処理方法。 - 前記少なくとも2つのセンサは、第1のセンサと、第2のセンサとを含み、前記第1のセンサに対応する空間座標系が標準座標系であり、前記第2のセンサに対応する空間座標系が標的座標系であり、当該情報処理方法は、
前記少なくとも2つのフォーメーション情報内にありかつ前記同じ標的オブジェクトに対応する前記検出情報を融合させることによって取得される融合検出情報に基づいて、前記処理デバイスによって、少なくとも2つの標準点情報と少なくとも2つの標的点情報との間のマッピング関係を決定することであって、前記標準点情報は、前記標的オブジェクトセット内にありかつ前記標準座標系内にあるオブジェクトの位置情報を示し、前記標的点情報は、前記標的オブジェクトセット内にありかつ前記標的座標系内にある前記オブジェクトの位置情報を示し、前記少なくとも2つの標準点情報は、前記少なくとも2つの標的点情報と1対1で対応する、決定することと、
前記処理デバイスによって、前記標準点情報と前記標的点情報との間の前記マッピング関係に基づいて、前記標準座標系と前記標的座標系との間のマッピング関係を決定することと、をさらに含む、
請求項1~8のうちのいずれか1項に記載の情報処理方法。 - 当該情報処理方法は、前記処理デバイスによって、前記少なくとも2つのフォーメーション情報内にありかつ前記同じ標的オブジェクトに対応する前記検出情報の融合結果に基づいて、前記少なくとも2つのセンサの時間軸の間の時間差を計算することをさらに含む、請求項1~9のうちのいずれか1項に記載の情報処理方法。
- 前記少なくとも2つのセンサは、標準センサと、検出対象センサとを含み、当該情報処理方法は、
前記処理デバイスによって、前記標的フォーメーション情報内にありかつ前記標準センサに対応する標準フォーメーション情報を取得することと、
前記処理デバイスによって、前記標的フォーメーション情報内にあり且つ前記検出対象センサに対応する検出対象フォーメーション情報を取得することと、
前記処理デバイスによって、前記検出対象フォーメーション情報と前記標準フォーメーション情報との間の差を決定することと、
前記処理デバイスによって、前記差および前記標準フォーメーション情報に基づいて、エラーパラメータを取得することと、をさらに含み、
前記エラーパラメータは、前記検出対象フォーメーション情報のエラーを示し、あるいは前記検出対象センサの性能パラメータを示す、
請求項1~10のうちのいずれか1項に記載の情報処理方法。 - 処理デバイスであって、
当該処理デバイスは、検出システム内に配置され、前記検出システムは、少なくとも2つのセンサをさらに含み、前記少なくとも2つのセンサによって取得される検出情報は、少なくとも2つの同じ標的オブジェクトについて前記少なくとも2つのセンサから別々に検出情報を含み、当該処理デバイスは、プロセッサと、送受信機とを含み、
前記送受信機は、前記少なくとも2つのセンサから少なくとも2つの前記検出情報を取得するように構成され、前記少なくとも2つのセンサは、前記少なくとも2つの検出情報と1対1で対応し、
前記プロセッサは、
前記少なくとも2つの検出情報に基づいて、少なくとも2つの対応するフォーメーション情報を決定するように構成され、各フォーメーション情報は、前記対応するセンサによって検出されるオブジェクトの間の位置関係を記述するために使用され、前記オブジェクトは、標的オブジェクトを含み、
前記少なくとも2つのフォーメーション情報に基づいて、標的フォーメーション情報を決定するように構成され、前記標的フォーメーション情報と前記少なくとも2つのフォーメーション情報の各々との間の一致度は、予め設定された閾値よりも大きく、前記標的フォーメーション情報は、前記少なくとも2つの標的オブジェクトの間の位置関係を記述するために使用され、前記標的フォーメーション情報は、標的オブジェクトのフォーメーション位置情報を含み、
前記標的オブジェクトの任意の1つの標的オブジェクトのフォーメーション位置情報に基づいて、前記少なくとも2つのフォーメーション情報内にありかつ同じ標的オブジェクトに対応する前記検出情報を融合させように構成される、
処理デバイス。 - 前記検出情報は、位置特徴セットを含み、前記位置特徴セットは、少なくとも2つの位置特徴を含み、前記位置特徴は、前記対応するセンサによって検出される前記オブジェクトと前記オブジェクトの周囲のオブジェクトとの間の位置関係を示す、請求項12に記載の処理デバイス。
- 前記プロセッサは、具体的には、
少なくとも2つの位置特徴セットに基づいて、少なくとも2つの対応する線接触情報を取得するように構成され、前記少なくとも2つの線接触情報の各々は、前記対応するセンサによって検出される前記オブジェクトが基準線に接触する情報を記述するために使用され、前記少なくとも2つの線接触情報は、前記少なくとも2つの位置特徴セットと1対1で対応し、
前記少なくとも2つの線接触情報に基づいて、前記少なくとも2つの対応するフォーメーション情報を別々に決定するように構成され、前記少なくとも2つの線接触情報は、前記少なくとも2つのフォーメーション情報と1対1で対応する、
請求項13に記載の処理デバイス。 - 前記線接触情報は、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する時系列情報および接触点区画情報を含み、前記接触点区画情報は、前記基準線上にありかつ前記オブジェクトが前記基準線に接触する接触点の区画情報を示し、
前記フォーメーション情報は、接触区画シーケンスを含み、前記接触区画シーケンスは、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する区画位置の間の時系列関係を示し、
前記プロセッサ、具体的には、
少なくとも2つの接触区画シーケンスの第1の部分列を取得し、前記第1の部分列を前記標的フォーメーション情報として使用するように構成され、前記第1の部分列と前記少なくとも2つの接触区画シーケンスとの間の一致度は、第1の閾値よりも大きく、
前記第1の部分列内にありかつ各標的オブジェクトに対応する前記接触点区画情報に基づいて、前記少なくとも2つの接触区画シーケンス内にありかつ前記同じ標的オブジェクトに対応する前記検出情報を融合させるように構成される、
請求項14に記載の処理デバイス。 - 前記線接触情報は、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する時系列情報および接触時間間隔情報を含み、前記接触時間間隔情報は、前記オブジェクトが前記基準線に接触する時間間隔を示し、
前記フォーメーション情報は、接触間隔シーケンスを含み、前記接触間隔シーケンスは、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する時間間隔の分布を示し、
前記プロセッサは、具体的には、
少なくとも2つの接触間隔シーケンスの第2の部分列を取得し、前記第2の部分列を前記標的フォーメーション情報として使用するように構成され、前記第2の部分列と前記少なくとも2つの接触間隔シーケンスとの間の一致度は、第2の閾値よりも大きく、
前記第2の部分列内にありかつ各標的オブジェクトに対応する接触時間分布情報に基づいて、前記少なくとも2つの接触間隔シーケンス内にありかつ前記同じ標的オブジェクトに対応する前記検出情報を融合させるように構成される、
請求項14に記載の処理デバイス。 - 前記線接触情報は、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する時系列情報、接触点区画情報、および接触時間間隔情報を含み、前記接触点区画情報は、前記基準線上にありかつ前記オブジェクトが前記基準線に接触する接触点の区画情報を示し、前記接触時間間隔情報は、前記オブジェクトが前記基準線に接触する時間間隔を示し、
前記フォーメーション情報は、接触区画シーケンスと、接触間隔シーケンスとを含み、前記接触区画シーケンスは、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する区画位置の間の時系列関係を示し、前記接触間隔シーケンスは、前記対応するセンサによって検出される前記オブジェクトが前記基準線に接触する時間間隔の分布を示し、
前記プロセッサは、具体的には、
少なくとも2つの接触区画シーケンスの第1の部分列を取得するように構成され、前記第1の部分列と前記少なくとも2つの接触区画シーケンスとの間の一致度は、第1の閾値よりも大きく、
少なくとも2つの接触間隔シーケンスの第2の部分列を取得するように構成され、前記第2の部分列と前記少なくとも2つの接触間隔シーケンスとの間の一致度は、第2の閾値よりも大きく、
第1のオブジェクトセットおよび第2のオブジェクトセットの交差を決定し、前記交差を標的オブジェクトセットとして使用するように構成され、前記第1のオブジェクトセットは、前記第1の部分列に対応するオブジェクトのセットであり、前記第2のオブジェクトセットは、前記第2の部分列に対応するオブジェクトのセットであり、
前記標的オブジェクトセットの前記接触区画シーケンスおよび前記接触間隔シーケンスを前記標的フォーメーション情報として使用するように構成される、
請求項14に記載の処理デバイス。 - 前記フォーメーション情報は、標的グループ分布グラフを含み、前記標的グループ分布グラフは、前記オブジェクトの間の位置関係を示し、
前記プロセッサは、具体的には、
少なくとも2つの位置特徴セットに基づいて、少なくとも2つの対応する初期標的グループ分布グラフを取得するように構成され、前記初期標的グループ分布グラフは、前記対応するセンサによって検出される前記オブジェクトの間の位置関係を示し、
ビューポート変更アルゴリズムを使用することによって前記少なくとも2つの初期標的グループ分布グラフの標準ビューポートグラフを取得し、少なくとも2つの標準ビューポートグラフを少なくとも2つの対応する標的グループ分布グラフとして使用するように構成され、前記標的グループ分布グラフのフォーメーション位置情報は、前記標的オブジェクトの標的オブジェクト分布情報を含み、前記標的オブジェクト分布情報は、前記対応するセンサによって検出される前記オブジェクトにおける前記標的オブジェクトの位置を示し、
前記プロセッサは、具体的には、
前記少なくとも2つの標的グループ分布グラフの画像特徴セットを取得し、前記画像特徴セットを前記標的フォーメーション情報として使用するように構成され、前記画像特徴セットと前記少なくとも2つの標的グループ分布グラフとの間の一致度は、第3の閾値よりも大きく、
前記プロセッサは、具体的には、
前記画像特徴セット内にありかつ各標的オブジェクトに対応する前記標的オブジェクト分布情報に基づいて、前記少なくとも2つの標的グループ分布グラフ内にありかつ前記同じ標的オブジェクトに対応する前記検出情報を融合させるように構成される、
請求項13に記載の処理デバイス。 - 前記プロセッサは、
前記少なくとも2つの位置特徴セットに基づいて、前記画像特徴セットに対応する前記標的オブジェクトの少なくとも2つの線接触情報を取得するようにさらに構成され、前記少なくとも2つの線接触情報の各々は、前記対応するセンサによって検出される前記オブジェクトが基準線に接触する情報を記述するために使用され、前記少なくとも2つの線接触情報は、前記少なくとも2つの位置特徴セットと1対1で対応し、
前記プロセッサは、具体的には、
前記少なくとも2つの線接触情報に基づいて、前記少なくとも2つの対応する初期標的グループ分布グラフを取得するように構成され、前記少なくとも2つの初期標的グループ分布グラフにおけるオブジェクトは、同じ線接触情報を有する、
請求項18に記載の処理デバイス。 - 前記少なくとも2つのセンサは、第1のセンサと、第2のセンサとを含み、前記第1のセンサに対応する空間座標系が標準座標系であり、前記第2のセンサに対応する空間座標系が標的座標系であり、前記プロセッサは、さらに、
前記少なくとも2つのフォーメーション情報内にありかつ前記同じ標的オブジェクトに対応する前記検出情報を融合させることによって取得される融合検出情報に基づいて、少なくとも2つの標準点情報と少なくとも2つの標的点情報との間のマッピング関係を決定するように構成され、前記標準点情報は、前記標的オブジェクトセット内にありかつ前記標準座標系内にあるオブジェクトの位置情報を示し、前記標的点情報は、前記標的オブジェクトセット内にありかつ前記標的座標系内にある前記オブジェクトの位置情報を示し、前記少なくとも2つの標準点情報は、前記少なくとも2つの標的点情報と1対1で対応し、
前記標準点情報と前記標的点情報との間の前記マッピング関係に基づいて、前記標準座標系と前記標的座標系との間のマッピング関係を決定するように構成される、
請求項12~19のうちのいずれか1項に記載の処理デバイス。 - 前記プロセッサは、前記少なくとも2つのフォーメーション情報内にありかつ前記同じ標的オブジェクトに対応する前記検出情報の融合結果に基づいて、前記少なくとも2つのセンサの時間軸の間の時間差を計算するようにさらに構成される、請求項12~20のうちのいずれか1項に記載の処理デバイス。
- 前記少なくとも2つのセンサは、標準センサと、検出対象センサとを含み、前記プロセッサは、
前記標的フォーメーション情報内にありかつ前記標準センサに対応する標準フォーメーション情報を取得し、
前記標的フォーメーション情報内にあり且つ前記検出対象センサに対応する検出対象フォーメーション情報を取得し、
前記検出対象フォーメーション情報と前記標準フォーメーション情報との間の差を決定し、
前記差および前記標準フォーメーション情報に基づいて、エラーパラメータを取得する、ようにさらに構成され、
前記エラーパラメータは、前記検出対象フォーメーション情報のエラーを示し、あるいは前記検出対象センサの性能パラメータを示す、
請求項12~21のうちのいずれか1項に記載の処理デバイス。 - プロセッサと、前記プロセッサに結合されるメモリとを含み、
前記メモリは、前記プロセッサによって実行される実行可能命令を格納し、前記実行可能命令は、前記プロセッサに命令して、請求項1~11のうちのいずれか1項に記載の方法を実行させる、
処理デバイス。 - コンピュータ読取可能記憶媒体であって、当該コンピュータ読取可能記憶媒体は、プログラムを格納し、コンピュータが前記プログラムを実行するときに、請求項1~11のうちのいずれか1項に記載の方法が実行される、コンピュータ読取可能記憶媒体。
- コンピュータプログラム製品であって、当該コンピュータプログラム製品がコンピュータで実行されるときに、前記コンピュータは、請求項1~11のうちのいずれか1項に記載の方法を実行する、コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110221913.6 | 2021-02-27 | ||
CN202110221913.6A CN114972935A (zh) | 2021-02-27 | 2021-02-27 | 一种信息处理方法及相关设备 |
PCT/CN2021/131058 WO2022179197A1 (zh) | 2021-02-27 | 2021-11-17 | 一种信息处理方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024507891A true JP2024507891A (ja) | 2024-02-21 |
Family
ID=82973145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023550693A Pending JP2024507891A (ja) | 2021-02-27 | 2021-11-17 | 情報処理方法および関連デバイス |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230410353A1 (ja) |
EP (1) | EP4266211A4 (ja) |
JP (1) | JP2024507891A (ja) |
CN (1) | CN114972935A (ja) |
WO (1) | WO2022179197A1 (ja) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019198076A1 (en) * | 2018-04-11 | 2019-10-17 | Ionterra Transportation And Aviation Technologies Ltd. | Real-time raw data- and sensor fusion |
CN109444911B (zh) * | 2018-10-18 | 2023-05-05 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN111257866B (zh) * | 2018-11-30 | 2022-02-11 | 杭州海康威视数字技术股份有限公司 | 车载摄像头和车载雷达联动的目标检测方法、装置及系统 |
CN109615870A (zh) * | 2018-12-29 | 2019-04-12 | 南京慧尔视智能科技有限公司 | 一种基于毫米波雷达和视频的交通检测系统 |
EP3702802A1 (en) * | 2019-03-01 | 2020-09-02 | Aptiv Technologies Limited | Method of multi-sensor data fusion |
CN109977895B (zh) * | 2019-04-02 | 2020-10-16 | 重庆理工大学 | 一种基于多特征图融合的野生动物视频目标检测方法 |
CN112305576A (zh) * | 2020-10-31 | 2021-02-02 | 中环曼普科技(南京)有限公司 | 一种多传感器融合的slam算法及其系统 |
-
2021
- 2021-02-27 CN CN202110221913.6A patent/CN114972935A/zh active Pending
- 2021-11-17 EP EP21927621.9A patent/EP4266211A4/en active Pending
- 2021-11-17 WO PCT/CN2021/131058 patent/WO2022179197A1/zh active Application Filing
- 2021-11-17 JP JP2023550693A patent/JP2024507891A/ja active Pending
-
2023
- 2023-08-25 US US18/456,150 patent/US20230410353A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4266211A1 (en) | 2023-10-25 |
WO2022179197A1 (zh) | 2022-09-01 |
US20230410353A1 (en) | 2023-12-21 |
CN114972935A (zh) | 2022-08-30 |
EP4266211A4 (en) | 2024-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106503653B (zh) | 区域标注方法、装置和电子设备 | |
KR101758576B1 (ko) | 물체 탐지를 위한 레이더 카메라 복합 검지 장치 및 방법 | |
US9251598B2 (en) | Vision-based multi-camera factory monitoring with dynamic integrity scoring | |
US20150294496A1 (en) | Probabilistic person-tracking using multi-view fusion | |
CN111814752B (zh) | 室内定位实现方法、服务器、智能移动设备、存储介质 | |
CN110738150B (zh) | 相机联动抓拍方法、装置以及计算机存储介质 | |
CN110501036A (zh) | 传感器参数的标定检查方法及装置 | |
CN111045000A (zh) | 监测系统和方法 | |
CN110067274B (zh) | 设备控制方法及挖掘机 | |
CN105825495A (zh) | 物体检测装置和物体检测方法 | |
CN113034586B (zh) | 道路倾角检测方法和检测系统 | |
CN106327461A (zh) | 一种用于监测的图像处理方法及装置 | |
CN112950717A (zh) | 一种空间标定方法和系统 | |
CN111784730A (zh) | 一种对象跟踪方法、装置、电子设备及存储介质 | |
CN112562005A (zh) | 一种空间标定方法和系统 | |
CN115457084A (zh) | 一种多相机目标检测跟踪方法、装置 | |
CN115272493A (zh) | 一种基于连续时序点云叠加的异常目标检测方法及装置 | |
CN117392423A (zh) | 基于激光雷达的目标物的真值数据预测方法、装置及设备 | |
CN114049767A (zh) | 一种边缘计算方法、装置及可读存储介质 | |
CN111157012B (zh) | 一种机器人导航方法、装置、可读存储介质及机器人 | |
JP2024507891A (ja) | 情報処理方法および関連デバイス | |
KR102531286B1 (ko) | 깊이 정보 추정 모델 학습을 위한 데이터 처리 방법 및 장치 | |
Bravo et al. | Outdoor vacant parking space detector for improving mobility in smart cities | |
CN116259001A (zh) | 一种多视角融合的三维行人姿态估计与追踪方法 | |
CN115542271A (zh) | 雷达坐标和视频坐标标定方法、设备及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230822 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240514 |