JP2023017704A - 航空画像に基づく車両環境マップの取得 - Google Patents

航空画像に基づく車両環境マップの取得 Download PDF

Info

Publication number
JP2023017704A
JP2023017704A JP2022102016A JP2022102016A JP2023017704A JP 2023017704 A JP2023017704 A JP 2023017704A JP 2022102016 A JP2022102016 A JP 2022102016A JP 2022102016 A JP2022102016 A JP 2022102016A JP 2023017704 A JP2023017704 A JP 2023017704A
Authority
JP
Japan
Prior art keywords
vehicle
information
signature
sensed
position estimate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022102016A
Other languages
English (en)
Inventor
ライヘルゴース,イガル
Raichelgauz Igal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Autobrains Technologies Ltd
Original Assignee
Autobrains Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Autobrains Technologies Ltd filed Critical Autobrains Technologies Ltd
Publication of JP2023017704A publication Critical patent/JP2023017704A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/876Combination of several spaced transponders or reflectors of known location for determining the position of a receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/55External transmission of data to or from the vehicle using telemetry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】車両の正確な位置を決定する方法を提供する。【解決手段】方法は、車両の少なくとも1つのセンサによる、車両の検知された環境情報の取得と、前記車両の初期位置推定モジュールによる、前記車両の初期位置推定の決定と、前記車両のプロセッサによる、前記車両の前記初期位置推定の環境を含む航空地図のセグメントに関連する航空地図のセグメント情報の取得と、前記車両の検知された情報および前記航空地図のセグメント情報に基づく、少なくとも前記車両の前記初期位置推定の前記環境内で、運転関連操作の実行の決定と、前記運転関連操作の実行とを含む。【選択図】図4

Description

自律走行車の最も重要な技術的課題のひとつは、環境における自分の位置を決定することである。
自律走行車は、水平またはほぼ水平な光軸を持つ1つ以上の車載カメラを含む。
先行技術の様々な解決策は、複数の地域を走行する他の車両の車載カメラ(水平またはほぼ水平の視野を持つ)によって取得された視覚情報に基づいて地図を生成する。
そのため、地図の作成には時間とリソースを要する。
より費用対効果の高い方法で地図を作成することが求められる。
図1Aは、方法の一例を示す。
図1Bは、シグネチャーの一例を示す。
図1Cは、次元拡張工程の一例を示す。
図1Dは、併合操作の一例を示す。
図1Eは、ハイブリッド工程の一例を示す。
図1Fは、方法の一例を示す。
図1Gは、方法の一例を示す。
図1Hは、方法の一例を示す。
図1Iは、方法の一例を示す。
図1Jは、方法の一例を示す。
図1Kは、方法の一例を示す。
図1Lは、方法の一例を示す。
図1Mは、システムの一例を示す。
図1Nは、ここで開示される実施形態にしたがって構築され、実行される代表的な障害物検出およびマッピングシステムを、一部を絵で表し、一部をブロックで表す図を示す。
図1Oは、方法の一例を示す。
図1Pは、方法の一例を示す。
図1Qは、方法の一例を示す。
図2は、航空情報に現れ、1または複数の車両のセンサで検知された固有物体の一例を示す。
図3および4は、方法の一例を示す。 図3および4は、方法の一例を示す。
図5は、車両の一例を示す。
図6および7は、方法のいくつかのステップの実行の一例を示す。 図6および7は、方法のいくつかのステップの実行の一例を示す。
図8は、車両の一例を示す。
図9は、方法の一例を示す。
本開示の実施形態は、図面とともに、以下の詳細な説明から、をより理解されるであろう。
以下の詳細な説明では、本発明を十分に理解するために、多数の具体的な詳細が記載されている。しかしながら、本発明は、これらの具体的な詳細なしに実施され得ることは、当業者には理解されるであろう。他の例では、周知の方法、手順、および構成要素は、本発明を不明瞭にしないように、詳細には記載されていない。
本発明とみなされる主題は、本明細書の最後の部分で特に指摘され、明確に請求されている。しかし、本発明は、組織および操作方法の両方に関して、また、その目的、特徴および利点は、添付の図面と共に読むと、以下の詳細な説明を参照することによって最もよく理解され得る。
図解の単純化および明確化のために、図に示される要素は必ずしも縮尺通りに描かれていないことが理解されるであろう。例えば、いくつかの要素の寸法は、明確にするために、他の要素に対して誇張され得る。さらに、適切と考えられる場合には、対応するまたは類似の要素を示すために、参照数字が図間で繰り返され得る。
本発明の図示された実施形態は、ほとんどの場合、当業者に公知の電子部品および回路を用いて実施できるので、詳細は、本発明の基本的概念の理解(understanding and appreciation)のために、また本発明の教えを難解にしたり逸脱したりしないために、上記に図示したように必要と考えられる範囲を超えて説明しない。
本明細書における方法への言及は、その方法を実行できる装置またはシステム、および/または、その方法を実行する命令を格納する非一時的なコンピュータ可読媒体に準用されるべきである。
本明細書におけるシステムまたは装置への言及は、システムによって実行され得る方法に準用されるべきであり、および/または、システムによって実行可能な命令を格納する非一時的なコンピュータ可読媒体に準用され得る。
本明細書における非一時的なコンピュータ可読媒体への言及は、非一時的なコンピュータ可読媒体に格納された命令を実行できる装置またはシステムに準用されるべきであり、および/または、命令を実行する方法に準用され得る。
図、明細書の一部、および/または、特許請求の範囲のいずれかに記載されたモジュールまたはユニットの任意の組み合わせが提供され得る。
知覚ユニット、狭域AIエージェント、交差点関連運転決定ユニットのいずれか1つは、ハードウェアおよび/またはコード、非一時的のコンピュータ可読媒体に格納された命令および/またはコマンドで実装され得、車両内、車両外、モバイルデバイス内、サーバ内などに含まれ得る。
車両は、地上交通車両、航空車両、水上船舶のいずれのタイプであり得る。
本明細書、および/または、図面は、プロセッサを参照し得る。プロセッサは、処理回路であり得る。処理回路は、中央処理装置(CPU)、および/または、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、フルカスタム集積回路等、または、それらの集積回路の組み合わせとして実装され得る。
本明細書および/または図面に例示された方法の任意のステップの任意の組み合わせを提供できる。
航空画像は、ドローン、飛行機、人工衛星など、任意の空撮装置で取得し得る。
光軸が水平またはほぼ水平な車載カメラの光軸を上回るカメラで撮影するため、航空写真を取得する方がコスト費用効果が高く、また、場合によっては、車両センサで撮影した画像よりも正確な画像を取得できる。
航空画像を加工して、国、県、市、町など様々な地域の航空地図を作成し得る。
航空地図を活用するためには、航空写真と車載カメラで撮影した画像に現れる異なる情報を補正する必要がある。
補正(compensation)は、物体検出と、GPSシステムなどから得られる車両の位置の初期推定に基づき得る。
車両の位置の初期推定は一定の精度を持つため、車両が位置する推定領域(例えば、所定のボックス)を定義できる。
自律走行車の位置の微細な/正確な/高解像度の/決定は、(a)航空地図(少なくとも推定された領域に対応する部分は)から、推定領域内の物体の位置とアイデンティティを取得し、(b)車載カメラ(または、他のセンサ)によって検知された画像(または、他の検知された情報)を処理して、車両の環境内の一つ以上の物体の位置(車両に関する)を決定し、(c)(a)と(b)からの情報に基づいて、車両の位置を決定することによってなされる。
例えば、航空地図の推定地域を記述した部分内に、所定の位置としての固有物体があり、車両がその固有物体からある距離、ある角度に位置していると判断した場合(車両の検知された情報に基づいて)、車両の位置を(固有物体の)所定の位置から所定の距離、および、所定の角度に位置していると決定することができる。図2に、環状交差点(roundabout)220である固有物体(アンカー)を用いた一例を示す。環状交差点は、車両210の近傍に出現する。空撮情報には、車両210の近傍環境を含むセグメント209が含まれる。環状交差点209は、車両センサによって撮影された画像209にも現れる。
図3は、1つ以上の車両センサ211(カメラ等)、メモリユニット212、通信モジュール213、自律走行用の自律車両モジュール214、初期位置推定モジュール(例えば、GPS、または、GPS以外)215、プロセッサ216、ADASモジュール218、および、メモリユニット212に格納され得る航空マップ217(または、そのセグメント)を有する自律車両210を示す。上述の構成要素のいくつかの例は、図1Mに示される。プロセッサ4950、1つ以上の車両センサ通信ユニット4904を含み得る検知ユニット4902、通信モジュール213を形成し得る入力4911および出力4919を参照されたい。
プロセッサは、ステップ(a)~(c)を実行し得る。
車両位置の初期推定は一定の精度を持つため、車両が位置する推定領域(例えば、所定のボックス)が定義される。
方法100は、プロセッサによって実行され得る。方法100は、プロセッサと1以上のセンサによって実行され得る。プロセッサは、車両コンピュータ、クラウドサーバなどのリモートコンピュータ等に属し得る。
方法100は、車両の位置を決定する正確な方法を提供する。本方法は、リアルタイムで実行され、費用がかかり正確な位置情報を使用する必要性を排除し、鳥瞰情報と車両の検知された環境情報との間の予め定義されたマッピングを使用することにより、計算および/またはメモリ資源を節約できる。マッピングは、時間の経過とともに更新および/または生成され得る。
航空地図の使用は、車両が詳細(非航空)地図を持たない場合、例えば、車両が位置する空域の詳細地図を継続的に受信するために通信リンクを中継しなければならない場合、または、車両が詳細地図を生成および/または保存するリソースを(永久的または一時的に)持たない場合に、特に有益であり得る。
図1は、車両の位置を特定するための方法100を示す。
方法100は、ステップ110および120によって開始し得る。
ステップ110は、位置センサ情報に基づいて、第1の車両位置推定を決定することを含み得る。位置センサ情報は、グローバルポジショニングシステム(GPS)センサであり得る位置センサ、基地局の位置、車両が位置するセルのアイデンティティ等を用いて位置を推定し得る無線ネットワークベースの位置センサによって生成され得る。
ステップ120は、車両の検知された視覚情報を含む車両の検知された環境情報を取得することを含み得る。車両の検知された情報は、例えば、音声検知環境情報、レーダ検知空間情報、赤外線検知環境情報等、他のタイプの情報を含み得る。
車両の検知された環境情報は、車両の環境に関する検知された情報である。環境は、少なくとも部分的には、車両の前方に位置するが、車両の後方および/または車両の側面に位置し得る。環境は、車両から数cmのところから、数十m、数百m、又はそれ以上離れていることもあり得る。
ステップ120の後に、車両と車両の検知された環境情報によってキャプチャされた物体群の物体との間の空間的関係を検出するステップ130が続いてもよい。
ステップ130は、教師なし方式または教師あり方式で訓練された機械学習処理を用いて、物体を検出することを含み得る。物体は、1つ以上のアンカーであり得、または、それを含み得る。アンカーは、航空情報に現れることが予想される物体であり、少なくとも局所的に固有であり得る。例えば、横断歩道、信号機、交通標識等である。
ステップ130は、地平線を検出し、表面推定を行うことを含み得る。
ステップ130の後に、物体群の物体の鳥瞰図ベースの位置情報(航空情報)を取得するステップ140が続いてもよい。航空情報は、車両が位置する区域に関連し得る。したがって、航空情報は、より大きな航空マップのセグメントを表し得る。
ステップ140は、ステップ110中に生成された第1の車両位置推定を使用して、車両環境内の物体の鳥瞰図ベースの位置情報内を抽出(fetch)または検索し得る。
ステップ140は、空間関係及び鳥瞰図ベースの位置情報に基づく第2の車両位置推定を決定するステップ150に続くことができる。第2の車両位置推定は、第1の車両位置推定よりも正確である。
ステップ150は、鳥瞰図情報と車両の検知環境情報との間のマッピングを利用し得る。
マッピングは、教師なし方式または教師あり方式で学習された別の機械学習処理によって実行され得る。
マッピングは、車両がより多くの航空情報を取得し、より多くの環境情報を検知しながら、時間をかけて生成し得る。
車両の検知環境情報のシグネチャーが生成され得、シグネチャーとメタデータを含む概念構造が生成され得る。メタデータは、車両の検知環境情報においてキャプチャされた物体を識別する航空情報メタデータであり得、または、それを含み得る。例えば、航空地図が車両の近傍に位置する交通信号に関する情報を含み、車両がその交通信号を識別すると仮定する。信号機のシグネチャーは、概念構造に関連するシグネチャー(1つ以上の概念構造のシグネチャーまたは1つ以上の概念構造の物体のシグネチャーであり得る)と比較され、照合した場合、概念構造は、信号機の概念構造としてラベル付けされ得る。
視覚情報にキャプチャされた物体と鳥瞰図的な位置を結びつけるために、マッピングが必要となる。
ステップ130から車両とその物体との空間距離が既知である(または、少なくとも推定できる)ため、次に、物体の鳥瞰位置と物体への空間位置から車両の位置の推定を差し引くことができる。
車両の検知された情報は、明示的に深度(距離)情報を含み得る。例えば、車両の検知された情報は、レーダ情報、LIDARで得られた深度情報、超音波または音響ベースの音声深度情報、等を含み得る。
この場合、ステップ130は、車両が検知した視覚情報と車両が検知した深度情報とを融合することを含むことによって、空間的関係を検出することを含み得る。例えば、レーダを使用する場合、レーダは、ステップ130、140および150に関連し得る物体を(視覚情報と共に)識別するために使用できる正確な距離情報を提供する。ステップ130の実行に関与する機械学習処理は、融合を実行してもよく、又は、しなくてもよい。
車両の検知された情報または明示的に深度情報を含まない場合があることに留意すべきである。
高精度の車両位置推定を行うため、3つ以上の物体に関する情報、特に車両に対して異なる方向に位置する3つ以上の物体に関する情報を使用することが有効である。
グループの物体は、鳥瞰図的な位置が既知の静的なものであり得る。静的とは、鳥瞰位置に対して位置が変化しないことを想定する。
ステップ150は、鳥瞰図的な仮想平面内で物体と空間関係を仮想的に「重ねる」ことを含み得る。
物体は、信号機、交通標識、車線境界(lane boundary)、道路標識、または、車線境界線(lane line)のうち少なくとも1つであり得る。
ステップ150の後に、車両の検知された情報、第2の車両位置推定、及び車両の環境に関する航空情報に基づいて、少なくとも車両の環境内で運転関連操作を行うことを決定するステップ160が続いてもよい。
決定は、以下の少なくとも1つに基づくことができる。
・車両の環境(特に、道路、道路利用者、規制上の制限(例えば、制限速度)、現在の交通状態、の1以上)
・環境内の自車両の位置
・車両の目的地
・自律型、および/または、ADASに関連するルール
・車両が適用するルートプランニング方式
・ユーザーの好み
運転関連操作は、車両を自律的に運転すること、または、先進運転支援システム(ADAS:advance driver assistance system)操作を実行することを含み得る。ADAS操作は、環境との1つ以上の将来の経路を計画し、人間の運転者に提案すること、運転のいくつかの局面を制御すること、等を含み得る。ADAS操作の例は、歩行者回避、衝突回避、衝突警告、車線逸脱警告、自動緊急ブレーキ、駐車アシスト等を含み得る。
ステップ160後に、運転関連操作を実行するステップ170が続いてもよい。これは、自律運転操作および/または先進運転支援システム(ADAS)操作を実行することを含み得る。
方法100はまた、1つ以上の車両ローカル地図操作を行うステップ180を含み得る。これは、以下の少なくとも1つを含み得る。
・前記車両によって、1つ以上の車両ローカル地図を生成する。
・1以上の車両ローカル地図を格納する。
・車両ローカル地図を車両外部の1つ以上のコンピュータシステムに送信する(例えば、別の車両、サーバ、クラウドコンピュータ環境)。
・他車両から車両ローカル地図を受信する。他車両ローカル地図は、他車両の環境内にあるアンカーと、アンカーの位置を示す。
・車両が生成した車両ローカル地図を、同じエリアをカバーすると想定される他の車両ローカル地図を比較する。
・車両から別の車両に1以上のローカルな車両地図を関連付ける。
・他車両ローカル地図に基づき、車両ローカル地図を検証する。
・1以上の車両ローカル地図を併合する。
送信または共有には、例えば車両間など、あらゆる通信手段を使用し得る。
車両ローカル地図は、車両の環境内のアンカー(例えば、信号機、ビル等、のアンカータイプ)及びアンカーの位置を示す。車両ローカル地図は、また、検知された情報、例えば、アンカーの視覚情報等、を含み得る。車両ローカル地図は、2D又は3D情報、例えば、座標、点群、3D検知情報、処理された3D検知情報等、を含み得る。
車両は、場所によって異なる車両ローカル地図を生成し得る。
1つ以上の車両ローカル地図は、同じ解像度であっても異なる解像度であってもよく、同じサイズであっても異なるサイズであってもよく、圧縮されていても非圧縮であってもよい、等である。
ローカルという用語は、車両ローカル地図が車両の環境をカバーし、限定されたサイズ(例えば、100、200、300、500、750、1000、1500、2000、5000、7500、10000平方メートル、等)であり得ることを意味する。請求項3に記載の方法は、車両ローカル地図を車両の外部に位置する別のコンピュータ化されたシステムと共有することを含む。
方法100は、ステップ110、120、130、140、150、160、170および180の様々な組み合わせを含み得ることに留意されたい。例えば、ステップ180は、ステップ160および167の実行の代わりに(または、それに加えて)実行され得る。
図5は、航空画像に基づいて運転関連操作を行う方法300の一例を示す。
方法300は、車両の少なくとも1つのセンサによって車両の検知環境情報を取得するステップ120によって開始され得る。
方法300は、また、車両の初期位置推定モジュールによって、車両の初期位置推定を決定するステップ320を含み得る。ステップ320は、ステップ110および/またはステップ130を含み得る。
ステップ320は、車両のプロセッサによって、航空地図のセグメントに関連する航空地図のセグメント情報を取得するステップ330に続いてもよく、セグメントは、車両の初期位置推定の環境を含む。ステップ320は、ステップ140を含み得る。
ステップ330及び310の後に、車両の検知された情報および航空地図のセグメント情報に基づいて、少なくとも車両の初期位置推定の環境内で運転関連操作の実行を決定するステップ340が続いてもよい。ステップ340は、ステップ350を含み得る。ステップ340は、ステップ150を実行することによって先行され得る。
ステップ340の後に、運転関連操作を実行するステップ170が続くことができる。これは、自律運転操作および/または先進運転支援システム(ADAS)操作の実行を含み得る。
方法300は、1つ以上の車両ローカル地図操作を実行するステップ180も含み得る。
方法300は、ステップ310、120、330、340、170及び180の様々な組み合わせを含み得ることに留意されたい。例えば、ステップ180は、ステップ340および170の実行の代わりに(または、それに加えて)実行され得る。
図6は、車両210と物体20との間の空間関係30を示す。車両210と物体との空間関係(距離と方向)は、車両センシングされた環境情報に基づいて決定される。
車両210は、所定の不確実性を示す第1の車両位置推定を計算し得、この所定の不確実性は、物体20の正確な位置に関する不確実性によっても反映される。車両の周りの破線円12及び物体20の周りの破線円22を参照されたい。
図7は、5つの異なる鳥瞰図ベースの位置にある物体20~24と、第2の車両位置推定の決定後の車両210と物体との空間関係30~34を示す図である。
図8は、1つ以上の車両センサ211(カメラ等)、メモリユニット212、通信モジュール213、自律走行用の自律車両モジュール214、初期位置推定モジュール(例えば、GPS、または、GPS以外)215、プロセッサ216、ADASモジュール218、およびメモリユニット212に格納され得る車両ローカル地図219(または、そのセグメント)を有する自律車両210の一例を示す。
図9は、車両ローカル地図を使用するための方法500の一例を示す。
方法500は、ステップ510および520によって開始し得る。
ステップ510は、車両の少なくとも1つのセンサによって車両の検知環境情報を取得することを含み得る。
ステップ520は、車両の初期位置推定モジュールによって、車両の初期位置推定を決定することを含み得る。
ステップ510及び520は、車両のプロセッサによって、1つ以上の車両ローカル地図を取得するステップ530に続くことができ、1つ以上の車両ローカル地図は、1つ以上の他の車両にアクセス可能な1つ以上の航空地図と1つ以上の他の車両の1つ以上の環境の検知された情報との間のマッピングに基づき、生成される。取得は、初期位置推定を含む車両ローカル地図を取得することを含み得る。
車両は、ローカル車両地図に含まれる場所に到達したときに、ローカル車両地図を取得できる。あるいは、車両は、1つ以上のローカル車両地図に含まれる1つ以上の場所に到達する前に、1つ以上のローカル車両地図を事前に取得できる。
ステップ530は、車両の検知された情報及び1つ以上のローカル車両地図に基づいて、少なくとも車両の初期位置推定の環境内で運転関連操作を実行することを決定するステップ540に続くことができる。
決定は、以下のうち少なくとも1つに基づき得る。
・車両の環境(特に、道路、道路利用者、規制上の制限(例えば、制限速度)、現在の交通状態の1つ以上)
・環境内の自車両の位置
・車両の目的地
・自律型およびADASに関連する関連ルール
・車両が適用するルートプランニング方式
・ユーザーの好み
ステップ540の後に、運転関連操作を行うステップ170が続いてもよい。
方法100、300、500、5000の任意のステップと、いずれかの図に示された他の方法との任意の組み合わせを提供し得る。
シグネチャーの生成、検知された情報の処理、およびクラスタリングに関する様々な例が後述される。これらの方法および/またはシステムは、上記の方法のいずれにも適用し得る。
シグネチャーの低消費電力化
メディアユニットのコンテンツの解析は、メディアユニットのシグネチャーを生成すること、および、シグネチャーを参照シグネチャーと比較することによって実行され得る。参照シグネチャーは、1つ以上の概念構造で配置され得、他の任意の方法で配置されてもよい。シグネチャーは、物体検出のために用いられてもよく、他の用途のために用いられてもよい。
シグネチャーは、メディアユニットの多次元表現を作成することによって生成され得る。メディアユニットの多次元表現は、非常に大きな次元数を有し得る。大きな次元数は、異なる物体を含む異なるメディアユニットの多次元表現がまばらであること、および、異なる物体の物体識別子が互いに離れていること、を保証し得、シグネチャーの頑健性を向上させる。
シグネチャーの生成は、複数の繰り返しを含む繰り返し方式で実行され、各繰り返しは、併合操作に続く拡張操作を含んでもよい。繰り返しの拡張操作は、その繰り返しのスパンニング要素によって実行される。繰り返しごとに、(その繰り返しの)どのスパンニング要素が関連するか決定し、無関係なスパンニング要素の電力消費を減らすことによって、かなりの量の電力が節約され得る。
多くの場合、繰り返しのスパンニング要素のほとんどは無関係である。したがって、(スパンニング要素によって)それらの関連性を決定した後、無関係とみなされたスパンニング要素は、停止し、又は、アイドルモードに入ることができる。
図1Aは、メディアユニットのシグネチャーを生成する方法5000を示す。
方法5000は、検知された情報を受信または生成するステップ5010によって開始され得る。
検知された情報は、複数の物体をメディアユニットとするものであり得る。
ステップ5010の後に、複数繰り返すことによってメディアユニットを処理してもよく、複数の繰り返しの少なくとも一部は、繰り返しのスパンニング要素によって、併合操作に続く次元拡張処理を適用することを含む。
処理は、以下を含み得る。
・k'回の繰り返しの拡張処理を行うステップ5020(kは、繰り返し回数を追跡するために使用される変数であり得る)
・k'回の繰り返しの併合処理を行うステップ5030
・kの値を変更するステップ5040
・必要な繰り返しがすべて行われたかどうかをチェックするステップ5050 -行われていれば、シグネチャーの生成を完了するステップ5060に進み、そうでなければ、ステップ5020に戻る
ステップ5020の出力は、k'回の繰り返しの拡張結果5120である。
ステップ5030の出力は、k'回の繰り返しの併合結果5130である。
各繰り返し(ただし、第1の繰り返しを除く)で、前の繰り返しの併合結果は、現在の繰り返しの拡張処理の入力となる。
K回の繰り返しのうちの少なくともいくつかは、無関係とみなされるいくつかのスパンニング要素の消費電力を選択的に低減すること(ステップ5020の間)に関係する。
図1Bは、画像6000であるメディアユニットの画像シグネチャー6027と、最終(K'回目)の繰り返しの結果6013の一例である。
画像6001は、仮想的にセグメント6000(i,k)に分割されている。セグメントは同じ形と大きさであってもよいが、必ずしもその必要はない。
結果6013は、メディアユニットのセグメントごとの値のベクトルを含むテンソルであり得る。1つ以上の物体が、所定のセグメントに現れ得る。各物体について、(シグネチャーの)物体識別子は、所定のセグメントに関連する所定のベクトル内の、有意な値の位置を示す。
例えば、画像の左上のセグメント(6001(1,1))は、結果6013において、複数の値を有するベクトルV(1,1)6017(1,1)により表し得る。各ベクトルの値の数は、100、200、500、1000等を超え得る。
有意な値(例えば、10、20、30、40個以上の値、および/または、0.1%、0.2%以上、0.5%、1%、5%以上の値、等)を選択できる。有意な値は、値を有してもよいし、他の方法で選択されてもよい。
図1Bは、ベクトルV(1,1)6017(1,1)の有意な応答6015(1,1)のセットを示す。セットは、5つの有意な値(例えば、第1の有意な値SV1(1,1)6013(1,1,1)、第2の有意な値SV2(1,1)、第3の有意な値SV3(1,1)、第4の有意な値SV4(1,1)、第5の有意な値SV5(1,1)6013(1,1,5))を含む。
画像シグネチャー6027は、5つの有意な値を検索する5つのインデックスを含む。第1から第5の識別子ID1~ID5は、第1から第5の有意な値を検索するインデックスである。
図1Cは、k'回の繰り返しの拡張処理を示す。
k'回の繰り返しの拡張処理は、前の繰り返しの併合結果5060’を受信することで開始される。
前の繰り返しの併合結果は、前の拡張処理を示す値を含み得、例えば、前の拡張操作からの関連スパンニング要素を示す値、前の繰り返しの併合結果の多次元表現における関連関心領域を示す値を含み得る。
(前の繰り返しの)併合結果は、スパンニング要素5061(1)~5061(J)等のスパンニング要素に供給される。
各スパンニング要素には、一意の値のセットが関連付けられる。このセットは、1つ以上の値が含まれ得る。スパンニング要素は、互いに直交する可能性のある異なる関数を適用する。直交しない関数を使用すると、スパンニング要素の数が増える可能性があるが、この増加は許容範囲内であろう。
スパンニング要素は、互いに直交していなくても、互いに相関性を失わせる関数を適用し得る。
スパンニング要素は、複数の可能なメディアユニットを「カバー」し得る物体識別子の異なる組み合わせと関連付けられ得る。物体識別子の組み合わせの候補は、様々な方法で、例えば、様々な画像(テスト画像等)におけるそれらの出現に基づいて、ランダムに、疑似ランダムに、ある規則等に従って、選択され得る。これらの候補のうち、組み合わせは、相関性を失わせるように、前記複数の可能なメディアユニットをカバーするように、および/または、所定の物体が同じスパンニング要素にマッピングされるような方法で、選択され得る。
各スパンニング要素は、併合結果の値を(スパンニング要素に関連付けられた)一意のセットと比較し、一致するものがあれば、そのスパンニング要素は関連性があるとみなされる。一致する場合、そのスパンニング要素は拡張操作を完了する。
一致しない場合、スパンニング要素は無関係と判断され、低電力モードに入る。低電力モードは、アイドルモード、スタンバイモード等とも呼ばれ得る。低電力モードは、無関係なスパンニング要素の消費電力が、関連するスパンニング要素の消費電力より低いため、低電力と呼ばれる。
図1Cでは、様々なスパンニング要素が関連し(5061(1)~5061(3))、1つのスパンニング要素が無関係である(5061(J))。
各関連スパンニング要素は、繰り返しの関連スパンニング要素のアイデンティティを示す出力値を割り当てることを含むスパンニング操作を実行し得る。出力値はまた、(前の繰り返しからの)前の関連するスパンニング要素のアイデンティティを示し得る。
例えば、要素番号50が関連し、8と4という一意の値のセットに関連していると仮定すると、出力値には50、4、8という数字、例えば、1000に(50+40)+40を乗じた値、が反映され得る。その他のマッピング関数も適用され得る。
図1Cは、また、各スパンニング要素が実行するステップを示す。
併合結果が、スパンニング要素に関連しているか否かチェックする(ステップ5091)。
関連している場合、スパン操作を完了する(ステップ5093)。
関連していない場合、アイドル状態に入る(ステップ5092)。
図1Dは、各種併合操作の一例である。
併合操作は、関心領域を見つけることを含み得る。関心領域は、検知された情報の多次元表現内の領域である。関心領域は、より有意な応答(例えば、より強い、より高い強度の応答)を示し得る。
併合操作(k'回の繰り返しの併合操作の間に実行される)は、以下のうちの少なくとも1を含み得る。
(k'回の繰り返しの拡張操作の結果の)関心領域間の重複を検索し、重複に関連する関心領域を定義するステップ5031。
1つ以上の関心領域を飛ばす(drop)ことを決定し、決定にしたがって飛ばすステップ5032。
(k'回の繰り返しの拡張操作の結果の)関心領域間の関係を検索し、関係ある関心領域を定義するステップ5033。
(k'回の繰り返しの拡張操作の結果の)近接する関心領域を検索し、近接に関連する関心領域を定義するステップ5034。近接は、多次元空間の所定の割合(例えば、1%未満)である距離であり得、近接のためにテストされる関心領域の少なくとも1つの所定の割合であり得る。
(k'回の繰り返しの拡張操作の結果の)関心領域間の関係を検索し、関係にある関心領域を定義するステップ5035。
k'回の繰り返しの関心領域の形状に関連する形状情報に基づいて、k'回の繰り返しの関心領域を併合および/または飛ばすステップ5036。
同じ併合操作を異なる繰り返しで適用し得る。
あるいは、異なる繰り返しの処理中に、異なる併合操作を実行し得る。
図1Eは、ハイブリッド処理と入力画像6001の一例を示す。
ハイブリッド処理は、一部の拡張および併合操作が、畳み込みニューラルネットワーク(CNN)によって実行され、一部の拡張および併合操作(拡張と併合の追加の繰り返しを表す)がCNNではなく、スパンニング要素の関連性の決定および無関係なスパンニング要素の低電力モードへの入力を含み得る処理によって実行されるという意味で、ハイブリッドである。
図1Eでは、第1および第2の関数6015(1)、6015(2)を適用するCNNの第1および第2の層6010(1)、6010(2)によって、1以上の初期繰り返しが実行される。
これらのレイヤの出力は、画像の特性に関する情報を提供する。画像の特性は、物体検出に相当しない場合もある。画像の特性は、エッジの位置、曲線の特性等を含み得る。
CNNは、物体検出情報を含み得るCNN出力6018を提供し得る追加の層(例えば、第3から第N'の層6010(N))を含み得る。追加の層は含まれない可能性があることに留意されたい。
シグネチャー生成処理全体を固定接続のハードウェアCNNで実行すると、消費電力が高くなる可能性があることに注意すべきである。なぜなら、CNNは無関係なノードの消費電力を減らすことができないからである。
図1Fは、シグネチャーの低電力計算のための方法7000を示す。
方法7000は、複数の物体のメディアユニットを受信または生成するステップ7010によって開始される。
ステップ7010の後に、複数の繰り返しを行うことによってメディアユニットを処理するステップ7012が続いてもよく、複数の繰り返しの少なくとも一部は、繰り返しのスパンニング要素によって、併合操作に続く次元拡張処理の適用含む。
繰り返しの次元拡張処理の適用は、(a)繰り返しのスパンニング要素の関連性を決定すること、(b)繰り返しの関連スパンニング要素によって次元拡張処理を完了し、少なくとも、次元拡張処理の適用の完了まで、無関係なスパンニング要素の電力消費を減少させることを含み得る。
識別子は、有意な部分を検索する検索情報であり得る。
複数の繰り返しの処理の少なくとも一部は、複数の繰り返しの処理の大部分であり得る。
複数の繰り返しの出力は、メディアユニットの複数のセグメントのうち各セグメントに対する複数の特性属性を含み得、複数の繰り返しの出力の有意な部分は、よりインパクトのある特性属性を含み得る。
複数の繰り返しのうちの第1の繰り返しは、メディアユニット上で異なるフィルタを適用することによって次元拡張処理を適用することを含み得る。
複数の繰り返しの少なくとも一部は、複数の繰り返しの少なくとも第1の繰り返しを除外する。例えば、図1Eを参照されたい。
繰り返しのスパンニング要素の関連性を決定することは、少なくとも1つの前の繰り返しの関連するスパンニング要素の少なくとも一部の識別に基づき得る。
繰り返しのスパンニング要素の関連性を決定することは、繰り返しに先行する少なくとも1つ前の繰り返しの関連するスパンニング要素の少なくとも一部の識別に基づき得る。
繰り返しのスパンニング要素の関連性を決定することは、メディアユニットの特性に基づき得る。
繰り返しのスパンニング要素の関連性の決定は、繰り返しのスパンニング要素によって実行され得る。
方法7000は、ニューラルネットワークの1つ以上の層によって実行され得、複数の繰り返しのうちの少なくともいくつかに属さない、ニューラルネットワーク処理操作を含み得る。例えば、図1Eを参照されたい。
少なくとも1つの繰り返しは、1つ以上の層の無関係なニューロンの消費電力を低減することなく実行され得る。
1つ以上のレイヤは、メディアユニットの特性に関する情報を出力し得、その情報は、複数の物体の認識とは異なる。
第1の繰り返しと異なる繰り返しのスパンニング要素によって、適用することは、次元拡張処理が、繰り返しの関連するスパンニング要素の同一性を示す可能性のある出力値を割り当てることを含み得る。例えば、図1Cを参照されたい。
第1の繰り返しとは異なる繰り返しの要素をまたいで、次元拡張処理を適用することは、第1の繰り返しとは異なる繰り返しまでの次元拡張処理の履歴を示す可能性のある出力値を割り当てることを含み得る。
各スパンニング要素は、参照識別子のサブセットと関連付けられ得る。繰り返しの各スパンニング要素の関連性の決定は、スパンニング要素の参照識別子のサブセットと、繰り返しの前の最後の併合操作の出力との間の関係に基づき得る。
繰り返しの次元拡張処理の出力は、関心領域を生成した1以上は複数の拡張処理に関連付けられ得る関心メディアユニット領域を含み得るメディアユニットの多次元表現であり得る。
繰り返しの併合操作は、多次元の関心領域のサブグループ間の空間的関係に基づいて、メディアユニット関心領域のサブグループを選択することを含み得る。
方法7000は、多次元関心領域のサブグループに対して併合関数を適用することを含み得る。例えば、図1Cを参照されたい。
方法7000は、多次元関心領域のサブグループに対して交差関数を適用することを含み得る。例えば、図1Cを参照されたい。
繰り返しの併合操作は、1以上の多次元関心領域の実際のサイズに基づき得る。
繰り返しの併合操作は、多次元関心領域のサイズ間の関係に基づき得る。例えば、より大きな多次元関心領域は維持され、より小さな多次元関心領域は無視され得る。
繰り返しの併合操作は、少なくともその繰り返しと1つ以上の前の繰り返しの間のメディアユニット関心領域の変化に基き得る。
ステップ7012の後に、複数の繰り返しの出力の有意な部分に関連する識別子を決定するステップ7014が続いてもよい。
ステップ7014の後に、識別子からなり、複数の物体を表すシグネチャーを提供するステップ7016が続いてもよい。
ローカライゼーションおよびセグメンテーション
上述したいずれのシグネチャー生成方法も、正確な形状情報を明示的に含まないシグネチャーを提供する。これは、形状に関連する不正確さ、または他の形状関連パラメータに対するシグネチャーの頑健性を高める。
シグネチャーは、メディアの関心領域を識別する識別子を含む。
各メディア関心領域は、物体(例えば、車両、歩行者、道路要素、人間が作った構造物、ウェアラブル、靴、木・空・太陽等の自然要素、等)または、物体の一部(例えば、歩行者の場合、首、頭、腕、脚、大腿、腰、足、上腕、前腕、手首、および、手等)を表し得る。物体検出の目的では、物体の一部が物体とみなされ得ることに留意されたい。
物体の正確な形状が、着目され得る。
図1Gは、メディアユニットのハイブリッド表現を生成する方法7002を示す図である。
方法7002は、ステップ7020、7022、7024及び7026のシーケンスを含み得る。
ステップ7020は、メディアユニットを受信または生成することを含み得る。
ステップ7022は、複数の繰り返しを行うことによってメディアユニットを処理することを含み得、複数の繰り返しの少なくとも一部は、繰り返しのスパンニング要素によって、併合操作に続く次元拡張処理を適用することを含む。
ステップ7024は、複数の繰り返しの出力に基づいて、複数の繰り返しの出力に寄与したメディアユニット関心領域を選択することを含み得る。
ステップ7026は、ハイブリッド表現を提供することを含み得、ハイブリッド表現は、(a)メディアユニット関心領域の形状に関する形状情報、および、(b)メディアユニット関心領域を識別する識別子を含むメディアユニットシグネチャーを含み得る。
ステップ7024は、メディアユニットの複数のセグメントのうち、セグメントごとのメディア関心領域を選択することを含み得る。例えば、図2を参照されたい。
ステップ7026は、形状情報を生成するステップ7027を含み得る。
形状情報は、メディアユニット関心領域を実質的に囲む形状を表すポリゴンを含み得る。これらのポリゴンは、高次であり得る。
記憶領域を節約するために、方法は、メディアユニットの形状情報を圧縮して、メディアユニットの圧縮された形状情報を提供するステップ7028を含み得る。
図1Hは、メディアユニットのハイブリッド表現を生成する方法5002を示す。
方法5002は、メディアユニットを受信または生成するステップ5011によって開始され得る。
ステップ5011は、複数の繰り返しを行うことによって、メディアユニットを処理することによって続いてもよく、複数の繰り返しの少なくとも一部は、繰り返しのスパンニング要素によって、併合操作に続く次元拡張処理を適用することを含む。
処理の後に、ステップ5060および5062が続いてもよい。
処理は、ステップ5020、5030、5040、および、5040を含み得る。
ステップ5020は、k'回の繰り返しの拡張処理を行うことを含み得る(kは、繰り返しの回数を追跡するために使用される変数であり得る)。
ステップ5030は、第k'回の繰り返しの併合処理を実行することを含み得る。
ステップ5040は、kの値を変更することを含み得る。
ステップ5050は、すべての必要な繰り返しが行われたかどうかをチェックすることを含み得、仮に、行われた場合、ステップ5060および5062に進み、行われていない場合、ステップ5020に戻る。
ステップ5020の出力は、k'回の繰り返しの拡張結果である。
ステップ5030の出力は、k'回の繰り返しの併合結果である。
(第1の繰り返しを除く)各繰り返しで、前の繰り返しの併合結果は、現在の繰り返しの拡張処理の入力となる。
ステップ5060は、シグネチャーの生成を完了することを含み得る。
ステップ5062は、メディアユニットの関心領域の形状に関する形状情報を生成することを含み得る。シグネチャーおよび形状情報は、メディアユニットのハイブリッド表現を提供する。
ステップ5060と5062の組み合わせは、ハイブリッド表現を提供することに相当し、ハイブリッド表現は、(a)メディアユニット関心領域の形状に関する形状情報、および、(b)メディアユニット関心領域を識別する識別子を含むメディアユニットシグネチャー、を含み得る。
圧縮された形状情報を利用した物体検出
物体検出は、入力画像のシグネチャーと1つ以上のクラスタ構造のシグネチャーを比較し、入力画像のシグネチャーと一致する1つ以上の一致するシグネチャーを含む1つ以上のクラスタ構造を見つけることを含み得る。
クラスタ構造と比較される入力画像の数は、クラスタ構造のシグネチャーの数を十分に上回る場合がある。例えば、数千、数万、数十万(さらに、それ以上)の入力シグネチャーが、はるかに少ないクラスタ構造のシグネチャーと比較され得る。入力画像の数とすべてのクラスタ構造のシグネチャーの総数の間の比率は、10、100、1000等を超え得る。
計算リソースを節約するため、入力画像の形状情報を圧縮し得る。
一方、クラスタ構造に属するシグネチャーの形状情報は、圧縮された形状情報よりも非圧縮で高精度である可能性がある。
より高い品質が要求されない場合、クラスタシグネチャーの形状情報も圧縮され得る。
クラスタシグネチャーの形状情報の圧縮は、クラスタシグネチャーの優先度、クラスタシグネチャーとの一致の人気度(popularity)、等に基づいて行い得る。
また、クラスタ構造の1つ以上に一致する入力画像に関する形状情報は、一致するシグネチャーに関する形状情報に基づいて算出され得る。
例えば、入力画像のシグネチャー内のある識別子に関する形状情報は、一致するシグネチャー内のある識別子に関連する形状情報に基づいて決定され得る。
ある識別子で特定される入力画像の関心領域の(より精度の高い)形状情報を決定するために、一致シグネチャー内のある識別子に関連する形状情報に対する任意の処理を適用し得る。
例えば、形状を仮想的に重ね合わせ、画素あたりの人口で形状を定義し得る。
例えば、重ねた形状の少なくとも過半に現れる画素のみを関心領域に属すると見なすべきである。
その他の操作として、重ね合わせた形状の平滑化、重ね合わせた全ての形状に現れる画素の選択等を含み得る。
圧縮された形状情報は無視されてもよいし、考慮されてもよい。
図1Iは、照合処理と、より精度の高い形状情報の生成の様子を示したものである。
なお、クラスタ構造4974(1)~4974(M)は、複数(M個)存在すると仮定する。各クラスタ構造は、クラスタシグネチャーと、クラスタシグネチャーに関するメタデータと、クラスタシグネチャーの識別子で特定される関心領域に関する形状情報とを含む。
例えば、第1のクラスタ構造4974(1)は、複数(N1)のシグネチャー(クラスタシグネチャーCSと呼ぶ)CS(1,1)~CS(1,N1)4975(1,1)、メタデータ4976(1)、CSの識別子に関連する関心領域の形状に関する形状情報(形状情報4977(1))等を含む。
さらに別の例として、第M'のクラスタ構造4974(M)は、複数(N2)のシグネチャー(クラスタシグネチャーCSと呼ぶ)CS(M,1)~CS(M,N2)4975(M,N2)、メタデータ4976(M)、およびCSの識別子に関連する関心領域の形状に関する形状情報(形状情報4977(M))を含む。
概念構造それぞれのシグネチャーの数は時間とともに変化し得、例えば、構造からCSを削除して縮小したクラスタ構造を提供するクラスタ削減の試行により、縮小したクラスタシグネチャーが(非縮小)クラスタシグネチャーに関連付けられた物体をまだ識別し得ることをチェックし、そうならシグネチャーをクラスタシグネチャーから削減し得る。
各クラスタ構造のシグネチャーは互いに関連付けられ、関連付けは、シグネチャーの類似性に基づいて、および/またはシグネチャーのメタデータ間の関連付けに基づいて行われ得る。
各クラスタ構造が一意の物体に関連付けられると仮定すると、メディアユニットの物体は、前記物体に関連付けられるクラスタ構造の発見によって識別され得る。一致するクラスタ構造の発見は、メディアユニットのシグネチャーとクラスタ構造のシグネチャーとの比較、および、クラスタのシグネチャーのうち1つ以上の一致するシグネチャーの検索を含み得る。
図1Iにおいて、ハイブリッド表現を持つメディアユニットは、物体検出を受ける。ハイブリッド表現は、メディアユニットシグネチャー4972と圧縮された形状情報4973を含む。
メディアユニットシグネチャー4972は、CS(1,1)4975(1,1)からCS(M,N2)4975(M,N2)までの、M個のクラスタ構造のシグネチャーと比較される。
1つ以上のクラスタ構造が一致クラスタ構造であると仮定する。
一致するクラスタ構造が発見されると、圧縮された形状情報よりも精度の高い形状情報を生成することで、この方法は進められる。
形状情報の生成は、識別子ごとに行われる。
1とJの間にある各j(Jはメディアユニットシグネチャー4972あたりの識別子の数)に対して、方法は以下のステップを実行し得る。
一致する各シグネチャーまたは一致するクラスタ構造の各シグネチャーの第jの識別子の形状情報を発見する(ステップ4978(j))。
第j'の識別子の形状情報をより高精度に生成する(ステップ4979(j))。
例えば、一致するシグネチャーがCS(1,1)2975(1,1)、CS(2,5)2975(2,5)、CS(7,3)2975(7,3)およびCS(15,2)2975(15,2)を含み、第jの識別子がCS(1,1)2975(1,1)、CS(7,3)2975(7,3)およびCS(15,2)2975(15,2)に含まれると仮定し、CS(1,1)2975(1,1)、CS(7,3)2975(7,3)およびCS(15,2)2975(15,2)に関連付けられた形状情報に基づいて、メディアユニットの第jの識別子の形状情報が決定される。
図1Pは、4つの関心領域8001、8002、8003、および8004を含む画像8000を示す。画像8000のシグネチャー8010は、4つの関心領域8001、8002、8003、および8004を識別するID1 8011、ID2 8012、ID3 8013およびID4 8014を含む種々の識別子を含む。
4つの関心領域8001、8002、8003、および8004の形状は、4つの多角形である。これらの関心領域の形状に関する正確な形状情報は、シグネチャー8010の生成時に生成され得る。
図1Jに、物体検出の方法8030を示す。
方法8030は、方法8020のステップを含み得、また、ステップ8022、8024および8026に先行し得る。
方法8030は、ステップ8032、8034、8036および8038のシーケンスを含み得る。
ステップ8032は、入力画像の受信または生成を含み得る。
ステップ8034は、入力画像のシグネチャーの生成を含み得る。
ステップ8036は、入力画像のシグネチャーと、所定の概念構造のシグネチャーとの比較を含み得る。所定の概念構造は、方法8020によって生成され得る。
ステップ8038は、所定の概念構造のシグネチャーの少なくとも1つが入力画像のシグネチャーと一致するとき、入力画像が物体を含むと判定することを含み得る。
図2Dは、物体検出の方法8040を示す。
方法8040は、方法8020のステップを含み得、ステップ8022、8024および8026に先行し得る。
方法8040は、ステップ8041、8043、80455、8047、および8049のシーケンスを含み得る。
ステップ8041は、入力画像の受信または生成を含み得る。
ステップ8043は、入力画像のシグネチャーの生成を含み得、入力画像のシグネチャーは、所定の第2の画像識別子の一部のみを含み、入力画像は、第2のスケールで示される。
ステップ8045は、入力画像のスケールを第1のスケールへ変更し、修正された入力画像を提供することを含み得る。
ステップ8047は、修正された入力画像のシグネチャーの生成を含み得る。
ステップ8049は、修正された入力画像のシグネチャーが少なくとも1つの特定の第1の画像識別子を含んでいる場合、入力画像が物体を含むことの検証を含み得る。
撮影角度に頑健な物体検出
物体検出は、撮影角度(画像センサの光軸と物体の特定の部分との間の角度)に対して頑健であることから利益を得ることができる。これにより、検出処理の信頼性が高まり、使用するクラスタの数を減らすことができる(異なる画像から同じ物体を識別するために複数のクラスタを要求し得ない)。
図1Kは、以下のステップを含む方法8120を示す。
異なる角度から取得された物体画像を受信または生成するステップ8122。
互いに近い異なる角度から撮影された物体の画像を発見するステップ8124。近いとは、1,5,10,15,20度以下であり得、しかしながら、実質的に同じシグネチャーを受信することによって、近さがよりよく反映され得る。
類似のシグネチャーの画像間のリンクのステップ8126。これは、局所的な類似性の検索を含み得る。類似性は、シグネチャーのサブセットごとに計算されるという意味で、局所的である。例えば、類似性が2つの画像ごとに決定されると仮定すると、第1のシグネチャーは、第1の画像に類似する第2のシグネチャーにリンクされ得る。第3のシグネチャーは、第2と第3のシグネチャーの間の類似性に基づいて、さらには第1と第3のシグネチャーの間の関係に関係なく、第2の画像にリンクされ得る。
ステップ8126は、類似シグネチャーを含む概念データ構造の生成を含み得る。
このいわゆるローカル又はスライディングウィンドウ方式で、十分な数の画像(統計的に大きな角度をカバーすることになる)を取得することに加え、複数の方向から撮影した物体のシグネチャーを含む概念構造を生成し得る。
シグネチャーのテーラード一致の閾値
物体検出は、(a)メディアユニットのシグネチャーと関連するメタデータを含む概念構造の受信または生成、(b)新しいメディアユニットの受信、新しいメディアユニットのシグネチャーの生成、および、(c)新しいメディアユニットのシグネチャーと概念構造のシグネチャーとの比較、によって実施できる。
比較は、新しいメディアユニットのシグネチャー識別子(新規メディアユニットに出現する物体の識別子)と概念のシグネチャー識別子との比較、および、シグネチャーの一致基準に基づいて、新しいメディアユニットのシグネチャーと概念のシグネチャーとが一致するか否かの決定を含み得る。そのような一致が発見された場合、新しいメディアユニットは、その概念構造に関連する物体を含むとみなされる。
調整可能なシグネチャー一致基準を適用することにより、一致工程が非常に効果的になり、異なるシナリオにおける識別子の出現の統計に適応できることが判明した。例えば、新しいメディアユニットシグネチャーとクラスタシグネチャーに、比較的後方にあるが識別性の高い識別子が出現した場合は一致とし、新しいメディアユニットシグネチャーとクラスタシグネチャーに、共通でわずかに識別性の高い識別子が複数出現した場合は不一致とできる。
図1Lは、物体検出のための方法8200を示す図である。
方法8200は、以下を含み得る。
入力画像を受信するステップ8210。
入力画像のシグネチャーを生成するステップ8212。
入力画像のシグネチャーを概念構造のシグネチャーと比較するステップ8214。
入力画像のシグネチャーが、シグネチャー一致基準に基づいて概念構造のシグネチャーのいずれかと一致する否か判定するステップ8216。概念構造の各シグネチャーは、シグネチャーの物体検出パラメータに基づいて決定されるシグネチャー一致基準内に関連付けられる。
判定結果に基づいて、入力画像が概念構造に関連する物体を含むと結論付けるステップ8218。
シグネチャーの一致基準は、一致を示す識別子の最小数であり得る。例えば、数十個の識別子を含むシグネチャーを仮定すると、最小数は単一の識別子からシグネチャーの全ての識別子の間であり得る。
入力画像は複数の物体を含み得、入力画像のシグネチャーは複数のクラスタ構造に一致し得ることに留意されたい。方法8200は、すべての一致処理に適用可能であり、シグネチャーの一致基準は、各クラスタ構造の各シグネチャーに対して設定され得ることに留意されたい。
ステップ8210は、異なるシグネチャー一致基準の下でシグネチャーの物体検出特性を評価することにより、各シグネチャー一致基準を決定するステップ8202に先行し得る。
ステップ8202は、以下を含み得る。
テスト画像群のシグネチャーを受信または生成するステップ8203。
異なるシグネチャー一致基準のシグネチャー一致基準ごとに、シグネチャーの物体検出特性を計算するステップ8204。
異なるシグネチャー一致基準の下でのシグネチャーの物体検出特性に基づいて、シグネチャー一致基準を選択するステップ8206。
物体検出特性は、テスト画像群のうちシグネチャーと一致するシグネチャーの割合を反映させ得る。
シグネチャー一致基準の選択は、一旦適用されると、シグネチャーに一致するテスト画像群のシグネチャーのパーセントが、シグネチャーに一致するテスト画像群のシグネチャーの予め定義された所望のパーセントに近接する結果となるシグネチャー一致基準を選択することを含む。
物体検出特性は、シグネチャーと一致するテスト画像群のシグネチャーのパーセントの大きな変化を反映し得る。例えば、シグネチャーの一致基準は一致する識別子の最小数であり、最小数の値を変更すると仮定すると、一致するテスト画像のパーセンテージが変化する可能性があるとする。割合の実質的な変化(例えば、10、20、30、40パーセント以上の変化)は、所望の値を示すことができる。所望の値は、例えば、実質的な変化の前に設定され、実質的な変化に近接して設定されてもよい。
例えば、図1Iを参照すると、クラスタシグネチャーCS(1,1)、CS(2,5)、CS(7,3)及びCS(15,2)は、ユニットシグネチャー4972と一致する。これらの一致のそれぞれは、一意のシグネチャーの一致基準を適用し得る。
システム例
図1Mは、上述した1つ以上の方法を実行可能なシステムの一例を示す。
システムは、様々なコンポーネント、要素、および/またはユニットを含む。
構成要素および/またはユニットは、処理回路は、中央処理装置(CPU)、および/または特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、フルカスタム集積回路等の1つ以上の他の集積回路、又はその組み合わせとして実施され得る。
あるいは、各構成要素および/またはユニットは、処理回路によって実行され得るハードウェア、ファームウェア、またはソフトウェアで実装され得る。
システム4900は、検知ユニット4902、通信ユニット4904、入力4911、1つ以上のプロセッサ、例えばプロセッサ4950、および出力4919を含み得る。通信ユニット4904は、入力および/または出力を含み得る。通信ユニット4904は、任意のエンティティ、車内(例えば、ドライバーデバイス、パッセンジャーデバイス、マルチメディアデバイス等)、車外(他の車両、他のコンピュータ化されたシステム、図1Nの車外のコンピュータ化されたシステム4820等、他の道路利用者、車外の他の人間)等、と通信し得る。
入力/出力は、ネットワークインターフェースカード、ユニバーサルシリアルバス(USB)ポート、ディスクリーダー、モデム、または、トランシーバー等、当技術分野で知られるプロトコルを使用してシステムの他の要素と直接または間接的に通信するために動作する、適切な通信コンポーネントであり得る。
プロセッサ4950は、少なくとも以下を含み得る(また、少なくとも1つを含まなくてもよい)。
・複数のスパンニング要素4951(q)
・複数の併合要素4952(r)
・物体検出器4953
・クラスターマネージャ4954
・コントローラ4955
・選択ユニット4956
・物体検出決定部4957
・シグネチャー生成部4958
・移動情報ユニット4959
・物体(アンカーと非アンカー物体)を識別する識別ユニット4915
システム4900は、検知ユニット4902を含むが、他のセンサから検知された情報を受信し得、および/または、検知ユニットは、システムに属さないことに留意されたい。システムは、車内に位置する、車両に関連する、および/または車外に位置する1以上のセンサから情報を受信し得る。
本明細書に例示される方法は、システム4900によって完全にまたは部分的に実行されて得、および/または、1つ以上の他のコンピュータ化されたシステムによって完全にまたは部分的に実行され得、例えば、コンピュータ化されたシステム間のタスク割り当てによって、複数のコンピュータ化されたシステム間の協力(例えば、情報の交換、決定の交換、資源の任意の割り当て、共同決定、等)により、コンピュータ化されたシステムによって、実行される。
1つ以上の他のコンピュータ化されたシステムは、例えば、図1Nの車外のコンピュータ化されたシステム4820、他の車外のコンピュータ化されたシステム、1つ以上の他の車内システム、車内の人のコンピュータ化された装置、車外のコンピュータ化されたシステム、例えば、他の車両のコンピュータ化されたシステムも含む、でありうる。
他の車載システムの一例は、図1Nに4830で示され、道路4820に沿って走行する車両4800内に配置される。
システム4900は、任意のタイプのセンサ、カメラ、従来のカメラの代わりに、またはそれに加えて任意の適切なイメージング技術を使用して実装された1以上のセンサ、赤外線センサ、レーダ、超音波センサ、任意の電気光学センサ、放射線撮影センサ、LIDAR(ライダー)、遠隔測定法ECUセンサ、衝撃センサ等から検知された情報を取得し得る。
システム4900および/または他の車載システムは、4830で示され、それらによって実行される任意の方法を実行するために教師ありおよび/または教師なし学習を使用し得る。
他の車載システム4830は、自律走行システム、先進運転支援システムであり得、自律走行システムとも先進運転支援システムと異なり得る。
他の車載システム4830は、処理回路210、入力/出力(I/O)モジュール220、1つ以上のセンサ233、およびデータベース270を含み得る。処理回路210は、明細書に例示された方法のいずれかに関連して、それが実行するように割り当てられた、またはプログラムされた任意のタスクを実行し得る。あるいは、他の車載システム4830は、(単独または処理回路で)任意のそのようなタスクを実行する別のモジュールを含み得る。例えば、処理回路は、自律走行マネージャ機能を提供する命令を実行し得る。あるいは、車載システム4830の別の回路またはモジュールが、自律運転マネージャ機能を提供し得る。
図10に、メディアユニットのハイブリッド表現を生成する方法7002を示す。
方法7002は、ステップ7020、7022、7024および7026のシーケンスを含み得る。
ステップ7020は、メディアユニットの受信または生成を含み得る。
ステップ7022は、複数の繰り返しを行うことによるメディアユニットの処理を含み得、複数の繰り返しの少なくとも一部は、繰り返しのスパンニング要素による、併合操作に続く次元拡張処理を適用することからなる。
ステップ7024は、複数の繰り返しの出力に基づく、複数の繰り返しの出力に寄与したメディアユニット関心領域の選択を含み得る。
ステップ7026は、ハイブリッド表現を提供することを含み得、ハイブリッド表現は、(a)メディアユニット関心領域の形状に関する形状情報、および(b)メディアユニット関心領域を識別する識別子を含むメディアユニットシグネチャーを含み得る。
ステップ7026は、メディアユニットの複数のセグメントの、セグメントごとのメディア関心領域の選択を含み得る。例えば、図2を参照されたい。
ステップ7026は、形状情報を生成するステップ7027を含み得る。
形状情報は、メディアユニット関心領域を実質的に拘束する形状を表すポリゴンを含み得る。これらのポリゴンは、高次のものであり得る。
記憶領域を節約するため、方法は、メディアユニットの形状情報を圧縮して、メディアユニットの圧縮された形状情報を提供するステップ7028を含み得る。
図1Pは、スケール不変の物体検出の方法8020を示す。
方法8020は、ステップ8022、8024、8026および8028を含み得るステップの第1のシーケンスを含み得る。
ステップ8022は、物体が第1のスケールで表示される第1の画像と、物体が第1のスケールとは異なる第2のスケールで表示される第2の画像の受信または生成を含み得る。
ステップ8024は、第1の画像シグネチャーおよび第2の画像シグネチャーの生成を含み得る。
第1の画像シグネチャーは、物体の少なくとも一部を識別する少なくとも1つの所定の第1の画像識別子の第1のグループを含む。
第2の画像シグネチャーは、物体の異なる部分を識別する所定の第2画像識別子の第2のグループを含む。
第2のグループは、第1のグループより多くの要素(members)を持つため、第2のグループは第1のグループより大きい。
ステップ8026は、少なくとも1つの所定の第1の画像識別子と所定の第2の画像識別子との間のリンク付けを含み得る。
ステップ8026は、第1の画像シグネチャー、第2の画像シグネチャー、および物体の間のリンクを含み得る。
ステップ8026は、物体に関連する所定の概念構造に、第1のシグネチャーと第2のシグネチャーを追加することを含み得る。
ステップ8028は、リンクに少なくとも部分的に基づいて、入力画像が物体を含むか否かの決定を含み得る。入力画像は、第1および第2の画像と異なる。
決定は、入力画像のシグネチャーが、少なくとも1つの所定の第1の画像識別子、または所定の第2の画像識別子を含む場合に、入力画像が物体を含むと決定することを含み得る。
決定は、入力画像のシグネチャーが、少なくとも1つの所定の第1の画像識別子の一部のみ、または所定の第2の画像識別子の一部のみを含む場合に、入力画像が物体を含むと決定することを含み得る。
リンクは、物体が2つ以上のスケールで表示される2つ以上の画像に対して実行され得る。
図1Qは、物体検出の方法8200を説明する。
方法8200は、以下を含み得る。
入力画像を受信するステップ8210。
入力画像のシグネチャーを生成するステップ8212。
入力画像のシグネチャーを概念構造のシグネチャーと比較するステップ8214。
シグネチャー一致基準に基づいて、入力画像のシグネチャーが、概念構造のシグネチャーのいずれかと一致するか否か決定するステップ8216。概念構造の各シグネチャーは、シグネチャーの物体検出パラメータに基づいて決定されるシグネチャー一致基準内に関連付けられる。
決定の結果に基づいて、入力画像が概念構造に関連する物体を含むと結論付けるステップ8218。
シグネチャーの一致基準は、一致を示す識別子の最小数とできる。例えば、数十個の識別子を含むシグネチャーを仮定すると、最小数は単一の識別子からシグネチャーの全ての識別子の間で変化する可能性がある。
入力画像は複数の物体を含み得、入力画像のシグネチャーは複数のクラスタ構造に一致し得ることに留意されたい。方法8200は、すべての一致処理に適用可能であり、シグネチャーの一致基準は、各クラスタ構造の各シグネチャーに対して設定され得ることに留意されたい。
ステップ8210は、異なるシグネチャー一致基準の下でシグネチャーの物体検出特性を評価することにより、各シグネチャー一致基準を決定するステップ8202に先行することができる。
ステップ8202は、以下を含み得る。
テスト画像群のシグネチャーを受信または生成するステップ8203。
異なるシグネチャー一致基準のシグネチャー一致基準ごとに、シグネチャーの物体検出特性を計算するステップ8204。
異なるシグネチャー一致基準の下でのシグネチャーの物体検出特性に基づいて、シグネチャー一致基準を選択するステップ8206。
物体検出特性は、テスト画像群のうちシグネチャーと一致するシグネチャーの割合を反映し得る。
シグネチャー一致基準の選択は、一旦適用されると、シグネチャーに一致するテスト画像群のシグネチャーのパーセントが、シグネチャーに一致するテスト画像群のシグネチャーの予め定義された所望のパーセントに近接する結果となるシグネチャー一致基準を選択することを含む。
物体検出特性は、シグネチャーと一致するテスト画像群のシグネチャーのパーセントの大きな変化を反映し得る。例えば、シグネチャーの一致基準は一致する識別子の最小数であり、最小数の値を変更すると、一致するテスト画像のパーセンテージが変化する可能性があると仮定する。割合の実質的な変化(例えば、10、20、30、40パーセント以上の変化)は、所望の値を示し得る。所望の値は、例えば、実質的な変化の前に設定され得、実質的な変化に近接して設定され得る。
前述の明細書において、本発明は、本発明の実施形態の具体例を参照して説明された。しかしながら、添付の特許請求の範囲に規定される本発明のより広い精神および範囲から逸脱することなく、様々な修正および変更がそこでなされ得ることは明らかであろう。
さらに、本明細書および特許請求の範囲における「前」、「後」、「上」、「下」等の用語は、説明のために使用されており、必ずしも永久的な相対位置を説明するために使用されているのではない。そのように使用される用語は、ここに記載される本発明の実施形態が、例えば、ここに図示またはその他の方法で記載される方向とは異なる方向で動作可能であるように、適切な状況下で交換可能であることが理解される。
さらに、信号、ステータスビット、または同様の装置をそれぞれ論理的に真または論理的に偽の状態にすることを指す場合、「アサート」または「セット」および「ネゲート」(または「ディアサート」または「クリア」)という用語がここで使用される。論理的に真である状態が論理レベル1である場合、論理的に偽である状態は論理レベル0である。また、論理的に真である状態が論理レベル0である場合、論理的に偽である状態は論理レベル1である。
当業者は、論理ブロック間の境界は単に例示であり、代替の実施形態は、論理ブロックまたは回路要素を統合し、または様々な論理ブロックまたは回路要素に機能の代替分解を課し得ることを認識するであろう。したがって、ここに描かれたアーキテクチャは単に例示であり、実際には、同じ機能を達成する他の多くのアーキテクチャが実装され得ることが理解される。
同じ機能を達成するための構成要素のいかなる配置も、所望の機能が達成されるように、事実上「関連」する。したがって、特定の機能を達成するためにここで組み合わされる任意の2つの構成要素は、アーキテクチャまたは介在する構成要素に関係なく、所望の機能が達成されるように互いに「関連」していると見なし得る。同様に、そのように関連付けられた任意の2つの構成要素は、所望の機能性を達成するために互いに「動作可能に接続される」、または「動作可能に結合される」とも見なし得る。
さらに、当業者は、上述した操作の間の境界は単に例示に過ぎないことを認識するであろう。複数の操作は、単一の操作に結合され得、単一の操作は、追加の操作に分散され得、操作は、時間的に少なくとも部分的に重複して実行され得る。さらに、代替的な実施形態は、特定の操作の複数のインスタンスを含見え、操作の順序は、他の様々な実施形態において変更され得る。
また、例えば、一実施形態において、図示された例は、単一の集積回路上又は同じ装置内に配置された回路として実装され得る。あるいは、例示された例は、適切な方法で互いに相互接続された任意の数の別個の集積回路又は別個のデバイスとして実装され得る。
しかし、他の修正、変形、および代替案も可能である。したがって、本明細書および図面は、制限的な意味ではなく、例示的な意味で捉えられるべきものである。
特許請求の範囲において、括弧の間に置かれた参照符号は、特許請求の範囲を限定するものと解釈してはならない。また、「含む(comprising)」という語は、請求項に記載されたもの以外の要素またはステップが存在することを排除するものではない。さらに、ここで使用される「a」または「an」という用語は、1以上として定義される。また、請求項における「少なくとも1つ」や「1つ以上」などの導入句の使用は、不定冠詞「a」または「an」による他の請求項要素の導入が、当該導入された請求項要素を含む任意の特定の請求項に、同じ請求項に「1つ以上」または「少なくとも1つ」の導入句および「a」または「an」などの不定冠詞が含まれる場合でも、当該要素を1つだけ含む発明を制限するものと示唆するものと解釈されるべきではない。定冠詞の使用についても同じことが言える。特に断らない限り、「第1」「第2」などの用語は、その用語が説明する要素を任意に区別するために使用される。従って、これらの用語は、必ずしも当該要素の時間的またはその他の優先順位を示すことを意図したものではない。ある手段が相互に異なる請求項に記載されているという事実だけで、これらの手段の組合せが有利に使用できないことを示すものではない。
本発明の特定の特徴をここで例示し、説明したが、多くの修正、置換、変更、および均等物は、今や当業者にとって生じるものである。したがって、添付の特許請求の範囲は、本発明の真の精神の範囲内にあるすべてのそのような修正および変更をカバーすることを意図していることが理解されよう。
明確さのために、別々の実施形態の文脈で説明される本開示の実施形態の様々な特徴も、単一の実施形態において組み合わせて提供され得ることが理解される。逆に、簡潔にするために、単一の実施形態の文脈で説明されている本開示の実施形態の様々な特徴も、別々に、または任意の適切な下位組合せで提供され得る。
本開示の実施形態は、ここで特に示され、説明されたものによって限定されないことは、当業者によって理解されるであろう。むしろ、本開示の実施形態の範囲は、添付の特許請求の範囲及びその均等物によって定義される。

Claims (23)

  1. 航空画像に基づいて、運転関連操作を行う方法であって、
    車両の少なくとも1つのセンサによって、車両の検知された環境情報を取得し、
    前記車両の初期位置推定モジュールによって、前記車両の初期位置推定を決定し、
    前記車両のプロセッサによって、前記車両の前記初期位置推定の環境を含む航空地図のセグメントに関連する航空地図のセグメント情報を取得し、
    前記車両の検知された情報および前記航空地図のセグメント情報に基づいて、少なくとも前記車両の前記初期位置推定の前記環境内で、運転関連操作の実行を決定し、
    前記運転関連操作を実行する
    方法。
  2. 前記決定は、前記車両の検知環境情報でキャプチャされた1つ以上のアンカーを、前記航空地図のセグメントに現れる1つ以上の対応するアンカーと一致させる
    請求項1に記載の方法。
  3. 前記車両によって、前記車両の前記環境内にあるアンカーおよびアンカーの位置を示す車両ローカル地図の生成を含む
    請求項2に記載の方法。
  4. 前記車両ローカル地図の、前記車両の外に位置する他のコンピュータ化されたシステムとの共有を含む
    請求項3に記載の方法。
  5. 前記共有は、車両から車両の通信を用いて実行され、前記コンピュータ化されたシステムは、他の車両である
    請求項4に記載の方法。
  6. 前記コンピュータ化されたシステムは、1つ以上のサーバである
    請求項4に記載の方法。
  7. 前記車両で、他の車両で生成された、前記他の車両の環境内にあるアンカーおよびアンカーの位置を示す前記他の車両のローカル地図の受信することを含む
    請求項2に記載の方法。
  8. 前記他の車両のローカル地図と前記車両のローカル地図を比較する
    請求項7に記載の方法。
  9. 前記運転操作は前記環境内での車両の完全な自立走行である
    請求項1に記載の方法。
  10. 前記運転操作は、先進運転支援システム(ADAS)操作である
    請求項1に記載の方法。
  11. 前記車両と前記車両に検知されることによってキャプチャされた物体群の物体との空間的関係の検出を含む
    請求項1に記載の方法。
  12. 前記空間的関係および鳥瞰図ベースの位置情報に基づいて、第2の車両の位置推定を決定し、
    前記第2の車両の位置推定は、第1の車両の位置推定よりも正確である
    請求項11に記載の方法。
  13. 前記空間的関係の検出は、車両が検知した視覚情報と車両が検知したレーダ情報との融合を含む
    請求項12に記載の方法。
  14. 前記第2の車両の位置推定の決定は、前記鳥瞰図視覚情報と前記車両の検知された環境情報とのマッピングの利用を含む
    請求項12に記載の方法。
  15. 前記物体は、教師なし方式で訓練された機械学習処理を利用して検出される
    請求項12に記載の方法。
  16. 前記物体群は、前記車両に対して異なる方向に位置する3つ以上の物体を含む
    請求項12に記載の方法。
  17. 前記物体群の物体は、静的物体である
    請求項12に記載の方法。
  18. 前記物体群の物体は、少なくとも信号機および交通標識を含む
    請求項12に記載の方法。
  19. 前記物体群の物体は、少なくとも、車線境界(lane boundary)、道路標識および車線境界線(lane line)を含む
    請求項12に記載の方法。
  20. 前記空間的関係の検出は、地平線の検出および表面推定の実行を含む
    請求項12に記載の方法。
  21. 非一時的なコンピュータ可読媒体であって、
    車両の少なくとも1つによる、車両の検知された環境情報の取得、
    前記車両の初期位置推定モジュールによる、前記車両の初期位置推定の決定、
    前記車両のプロセッサによる、前記車両の前記初期位置推定の環境を含む航空地図のセグメントに関連する航空地図セグメント情報の取得、
    前記車両の検知された情報および前記航空地図のセグメント情報に基づく、少なくとも前記車両の前記初期位置推定の前記環境内で運転関連操作の実行の決定、および、
    前記運転関連操作を実行、
    の命令を記憶するコンピュータ可読媒体。
  22. 車両ローカル地図を使用する方法であって、
    車両の少なくとも1つのセンサによって、車両の検知された環境情報を取得し、
    前記車両の初期位置推定モジュールによって、前記車両の初期位置推定を決定し、
    前記車両のプロセッサによって、1以上の他の車両の1以上の環境の検知された情報トの間のマッピングに基づいて、生成された、1以上の車両によってアクセス可能な1以上の航空地図を取得し、
    前記車両の検知された情報および前記1以上のローカル車両地図に基づいて、少なくとも前記車両の前記初期位置推定の前記環境内で、前記車両の運転関連操作の実行を決定し、
    前記運転関連操作の実行を決定する
    方法。
  23. 非一時的なコンピュータ可読媒体であって、
    車両の少なくとも1つによる、車両の検知された環境情報の取得、
    前記車両の初期位置推定モジュールによる、前記車両の初期位置推定の決定、
    車両のプロセッサによる、1つ以上の車両がアクセス可能な1つ以上の航空地図と、1つ以上の他の車両の1つ以上の環境の検知された情報との間のマッピングにより生成された1つ以上のローカル車両地図の取得、
    前記車両の検知された情報および前記1つ以上のローカル車両地図に基づく、少なくとも前記初期位置推定の環境内の運転関連操作の実行の決定、および、
    前記運転関連操作の実行、
    の命令を記憶するコンピュータ可読媒体。
JP2022102016A 2021-06-24 2022-06-24 航空画像に基づく車両環境マップの取得 Pending JP2023017704A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202163202804P 2021-06-24 2021-06-24
US63/202,804 2021-06-24

Publications (1)

Publication Number Publication Date
JP2023017704A true JP2023017704A (ja) 2023-02-07

Family

ID=82308274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022102016A Pending JP2023017704A (ja) 2021-06-24 2022-06-24 航空画像に基づく車両環境マップの取得

Country Status (4)

Country Link
US (1) US20220412745A1 (ja)
EP (1) EP4166909A3 (ja)
JP (1) JP2023017704A (ja)
CN (1) CN115520098A (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10054445B2 (en) * 2016-05-16 2018-08-21 Northrop Grumman Systems Corporation Vision-aided aerial navigation
EP3551967A2 (en) * 2016-12-09 2019-10-16 TomTom Global Content B.V. Method and system for video-based positioning and mapping

Also Published As

Publication number Publication date
US20220412745A1 (en) 2022-12-29
CN115520098A (zh) 2022-12-27
EP4166909A3 (en) 2023-07-12
EP4166909A2 (en) 2023-04-19

Similar Documents

Publication Publication Date Title
JP7214873B2 (ja) 自律型車両のセンサデータリポジトリの検索
Maddern et al. 1 year, 1000 km: The oxford robotcar dataset
CN113039563B (zh) 学习生成用于训练神经网络的合成数据集
US10417816B2 (en) System and method for digital environment reconstruction
CN108399218B (zh) 基于Walsh内核投影技术的自动驾驶车辆定位
US11417216B2 (en) Predicting a behavior of a road used using one or more coarse contextual information
US11094112B2 (en) Intelligent capturing of a dynamic physical environment
Kim et al. Robust lane detection based on convolutional neural network and random sample consensus
Chen et al. Gaussian-process-based real-time ground segmentation for autonomous land vehicles
CN111886603A (zh) 用于目标检测和表征的神经网络
CN112105890A (zh) 用于自动驾驶车辆的基于rgb点云的地图生成系统
CN111771206A (zh) 用于自动驾驶车辆的地图分区系统
CN112105893A (zh) 用于自动驾驶车辆的实时地图生成系统
CN112055805A (zh) 用于自动驾驶车辆的点云登记系统
CN111771229A (zh) 用于自动驾驶车辆的点云重影效果检测系统
CN108764187A (zh) 提取车道线的方法、装置、设备、存储介质以及采集实体
CN110386142A (zh) 用于自动驾驶车辆的俯仰角校准方法
US11403851B2 (en) Systems and methods for utilizing machine learning and other models to reconstruct a vehicle accident scene from video
US10402978B1 (en) Method for detecting pseudo-3D bounding box based on CNN capable of converting modes according to poses of objects using instance segmentation and device using the same
CN111178122A (zh) 道路场景中三维车道的检测及平面表示
WO2024012211A1 (zh) 自动驾驶环境感知方法、介质及车辆
US20210383544A1 (en) Semantic segmentation ground truth correction with spatial transformer networks
US10445611B1 (en) Method for detecting pseudo-3D bounding box to be used for military purpose, smart phone or virtual driving based-on CNN capable of converting modes according to conditions of objects and device using the same
Bougharriou et al. Vehicles distance estimation using detection of vanishing point
CN114830185A (zh) 借助于神经网络的位置确定