JP2020500767A - 車両自動パーキングシステム及び方法 - Google Patents

車両自動パーキングシステム及び方法 Download PDF

Info

Publication number
JP2020500767A
JP2020500767A JP2019528592A JP2019528592A JP2020500767A JP 2020500767 A JP2020500767 A JP 2020500767A JP 2019528592 A JP2019528592 A JP 2019528592A JP 2019528592 A JP2019528592 A JP 2019528592A JP 2020500767 A JP2020500767 A JP 2020500767A
Authority
JP
Japan
Prior art keywords
vehicle
parking
image
virtual
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019528592A
Other languages
English (en)
Other versions
JP6896077B2 (ja
Inventor
晴之 岩間
晴之 岩間
フェン、チェン
田口 裕一
裕一 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2020500767A publication Critical patent/JP2020500767A/ja
Application granted granted Critical
Publication of JP6896077B2 publication Critical patent/JP6896077B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Transportation (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

駐車スペース(PS)内に車両を駐車するシステムが、目標状態において終了する第1の駐車経路(FPP)に従って車両の運動を制御し、PSのモデルを用いて、現在の状態から目標状態までの第2の駐車経路(SPP)を決定する。そのシステムは、FPPに沿った車両の運動中にセンサー(複数の場合もある)を用いてPSの画像を取り込み、それらの画像を用いてモデルを構成する。そのモデルを用いて、FPPの外部にある車両の状態を規定する1セットの仮想視点から視認されるようなPSの環境の1セットの仮想画像を生成する。車両の現在の状態が、車両が現在の状態にある間のセンサーからのPSの現在の画像を仮想画像と比較することによって特定される。現在の状態から目標状態までのSPPが決定される。

Description

本発明は、包括的には、車両の経路計画に関し、より詳細には、車両を目標空間に自動的に駐車する経路計画方法に関する。
自律車両又は自律走行モードを実行する半自律車両のいずれかの車両によって利用されるいくつかの制御システムは、他の車両又は歩行者等の障害物を回避するためのみではなく、車両の操作に関連付けられたいくつかの基準を最適化するためも含む双方で、未来を予測し、車両の安全運動又は経路を予測する。目標状態は、固定ロケーション、移動ロケーション、速度ベクトル、領域、又はそれらの組み合わせのいずれかとすることができる。自律車両又は半自律車両を制御するタスクのうちの1つは、車両を、本明細書において目標状態と称される駐車位置及び駐車方位に自動的に駐車することである。
大半の既存の経路計画解決法は、特定の駐車シナリオに対処するのみである。例えば、特許文献1に記載の方法は、縦列駐車及び後方駐車の経路を計算する。また、特許文献2に記載の方法は、駐車経路の特別の構造を想定している。また、特許文献3に記載の方法は、縦列駐車に対処し、車両の初期状態が、事前にコード化された縦列駐車操作が開始されるいわゆる実現可能開始領域内にあることを必要とする。リアルタイム経路生成を達成するが、それらの方法は、駐車経路の特定の構造物に頼る。
一般的な駐車経路に対応するために、特許文献4に記述されている1つの方法は、車両が運転者によって手動で駐車される学習モード中に駐車経路を計算及び記憶し、その後、自動パーキングモード中に、学習した駐車経路に沿って車両を駐車するのを支援する2段階自動パーキングシステムを使用する。この方法は、任意であるが、あらかじめ学習した駐車経路に沿って、住宅車庫等の指定された場所に駐車するのを支援することができる。その方法は、その駐車経路からの逸脱を、防止される必要がある不規則な進路として考慮する。そのような原理は必ずしも望ましいとは限らない。
米国特許第7737866号 米国特許第8497782号 米国特許第8862321号 米国特許第9140553号
いくつかの実施の形態の目的は、車両の自動化駐車システム及び方法のための経路計画方法を開示することである。いくつかの実施の形態の別の目的は、実生活の多様な駐車シナリオについての自動パーキングの具体例によって引き起こされる経路計画の計算コストを低減するような方法を提供することである。
いくつかの実施の形態は、2段階自動パーキングが多様な駐車状況の場合に自動パーキングを助長できるという理解に基づく。2段階自動パーキングは学習段階及び自動パーキング段階を含む。学習段階では、運転者が、例えば、手動制御によって車両を駐車し、周囲環境の構造物を回避しながら、初期の場所から目標駐車スペースの場所に至る駐車経路を示す基準データを観測及び記憶するために学習方法が実行される。
自動パーキング段階では、車両が自動的に駐車され、その際、現在のセンサー観測結果を学習段階において記憶された基準データと照合することによって、車両の自己位置特定及び目標駐車スペースへの経路計画が順次に、かつ繰り返し実行される。詳細には、自己位置特定のために、駐車スペースの画像内の物体の幾何学的特徴、及び物体間の相対的な空間的関係が観測結果と照合される。
学習段階及び自動パーキング段階中の駐車経路が類似しているとき、駐車スペースの異なる画像を比較することによって、自己位置特定が可能になる。しかしながら、一般に、幾何学的特徴及び物体間の空間的関係を含む、画像ベース2D特徴の特性は、画像を取り込むカメラの観測視点によって決まる。例えば、建物の窓枠等の長方形の形状は、前方の視点から取り込まれた画像では長方形に見え、一方、斜めの視点から取り込まれた画像では台形(歪んだ長方形)に見える。
この問題は、本明細書において、2段階パーキングによって利用される自動自己位置特定に根差している長基線長照合問題(large-baseline matching problem)と呼ばれる。具体的には、2つの離間した視点から観測されたランドマーク、すなわち、画像から抽出された示差的特徴が自動自己位置特定照合プロセスによって見逃される可能性がある。なぜなら、異なる視点から視認された同じランドマークの外観(appearance)が著しく変化する可能性があるためである。
それゆえ、異なる観測視点から取り込まれた画像間で画像ベース2D特徴を正確に照合することは基本的には難しく、学習段階における観測視点が自動パーキング段階における観測視点と異なるとき、画像ベース2D特徴照合は失敗する可能性がある。特徴照合が失敗する結果として、自己位置特定が失敗し、自動パーキングが失敗する可能性がある。運転者は、自動パーキングモードを開始する前に学習モードにおいて辿った経路付近において自らの車両の位置を特定するように要求されるので、すなわち、車両がその経路から離れて位置を特定される場合には運転者は自動パーキングモードを使用できないので、駐車スペースの画像内の異なる特徴の外観不変性(appearance invariance)へのそのような依存性は、自動パーキングの利用可能性又は適用範囲を制限する。しかしながら、いくつかの実施の形態は、異なる駐車経路に沿って車両を自動的に駐車するために学習段階中に学習されたデータを再利用することが有益であるという一般的な認識に基づく。
いくつかの実施の形態は、仮想画像が、外観不変性への自動自己位置特定のそのような依存性を回避するのを助けることができるという理解に基づく。例えば、将来に訪問する可能性がある新たな視点からのいくつかの新たな仮想画像を合成することができる。例えば、場所Aから場所Bの方を向いているカメラによって取り込まれた画像を、場所Bから場所Aの方を向いている仮想視点から視認されるような仮想画像に変換することができる。仮想画像は、長基線長照合問題を回避するために、場所Bから場所Aの方を向いているカメラによって新たに撮影された画像との比較のために使用することができる。
そのため、いくつかの実施の形態は、最初に、車両が第1の駐車経路に沿って駐車される間に取り込まれた画像から周囲環境の3Dモデルを生成し、その後、3Dモデル内の仮想視点を設定する。本明細書において使用されるときに、仮想視点は、仮想画像を取り込むカメラの姿勢の仮想点である。例えば、仮想画像は、3Dモデルデータを仮想観測点における仮想画像面に再投影することによって生成することができる。
仮想視点は、その観測視野が学習モードにおける元の観測視点の観測視野と異なるように設定される。その後、1セットの仮想観測点に対して1セットの仮想画像が生成される。最後に、元の画像及び仮想画像の両方から画像特徴が抽出され、自動パーキング段階のために使用される基準データとしてシステムに記憶される。
3Dモデルからの仮想画像を考慮して、基準データは、様々な観測視野を形成する現実画像及び仮想画像からの特徴を含むことができる。このように特徴を蓄積していくことによって、車両が学習モードにおいて辿った経路から離れて位置を特定されるときでも、システムは、自動パーキングモードにおける特徴照合と、その後の自己位置特定とに成功できるようになる。結果として、いくつかの実施の形態は、自動パーキングシステムの利用可能性及び適用範囲を改善することができる。
したがって、一実施の形態は、車両を駐車スペース内に駐車する方法を開示する。本方法は、メモリに動作可能に接続されるプロセッサと、駐車スペースの少なくとも一部の環境を示す画像を取り込む少なくとも1つのセンサーと、車両の運動を制御するコントローラーとを使用し、プロセッサは方法を実施する記憶された命令に結合され、命令は、プロセッサによって実行されるときに、方法の少なくともいくつかのステップを実行し、方法は、目標状態において終了する第1の駐車経路に従って車両の運動を制御することであって、車両の各状態は、車両の位置及び向きを含むことと、第1の駐車経路に沿った車両の運動中に駐車スペースの1セットの画像を取り込むことであって、1セットの画像内の各画像は、第1の駐車経路に沿った車両の状態によって規定される視点から取り込まれることと、1セットの画像を用いて駐車スペースのモデルを構成することと、第1の駐車経路の外部にある車両の状態を規定する少なくとも1つの仮想視点を含む、第1の駐車経路の外部にある1セットの仮想視点を選択することと、駐車スペースのモデルを用いて、1セットの仮想視点から視認されるような駐車スペースの環境の1セットの仮想画像を生成することと、車両が現在の状態にある間にセンサーによって取り込まれた駐車スペースの現在の画像を少なくとも1つの仮想画像と比較することによって、車両の現在の状態を特定することと、車両のモデルを用いて、現在の状態から目標状態への第2の駐車経路を決定することと、第2の駐車経路に従って車両の運動を制御することとを含む。
別の実施の形態は、駐車スペース内に車両を駐車するシステムを開示する。本システムは、車両のモデルを記憶するメモリと、駐車スペースの少なくとも一部の環境を示す情報を検知する少なくとも1つのセンサーと、目標状態において終了する第1の駐車経路及び第2の駐車経路を含む異なる軌道に従って車両の運動を制御するコントローラーであって、車両の各状態は車両の位置及び向きによって規定されるものと、少なくとも1つのプロセッサであって、第1の駐車経路に沿った車両の運動中に駐車スペースの環境の1セットの画像を取り込むことであって、それにより、1セットの画像内の各画像が第1の駐車経路に沿った車両の状態によって規定される視点から取り込まれることと、1セットの画像を用いて駐車スペースのモデルを構成することと、第1の駐車経路の外部にある車両の状態を規定する少なくとも1つの仮想視点を含む、第1の駐車経路の外部にある1セットの仮想視点を選択することと、駐車スペースのモデルを用いて、1セットの仮想視点から視認されるような駐車スペースの環境の1セットの仮想画像を生成することと、車両が現在の状態にある間にセンサーによって取り込まれた駐車スペースの現在の画像を少なくとも1つの仮想画像と比較することによって、車両の現在の状態を特定することと、車両のモデルを用いて、現在の状態から目標状態までの第2の駐車経路を決定することと、を行うように構成されたものと、を備える。
更に別の実施の形態は、駐車スペース内に車両を駐車する方法を実行するためにプロセッサによって実行可能なプログラムを具現する非一時的コンピューター可読記憶媒体を開示する。本方法は、目標状態において終了する第1の駐車経路に従って車両の運動を制御することであって、車両の各状態は、車両の位置及び向きを含むことと、第1の駐車経路に沿った車両の運動中に駐車スペースの1セットの画像を取り込むことであって、1セットの画像内の各画像は、第1の駐車経路に沿った車両の状態によって規定される視点から取り込まれることと、1セットの画像を用いて駐車スペースのモデルを構成することと、第1の駐車経路の外部にある車両の状態を規定する少なくとも1つの仮想視点を含む、第1の駐車経路の外部にある1セットの仮想視点を選択することと、駐車スペースのモデルを用いて、1セットの仮想視点から視認されるような駐車スペースの環境の1セットの仮想画像を生成することと、車両が現在の状態にある間にセンサーによって取り込まれた駐車スペースの現在の画像を少なくとも1つの仮想画像と比較することによって、車両の現在の状態を特定することと、車両のモデルを用いて、現在の状態から目標状態への第2の駐車経路を決定することと、第2の駐車経路に従って車両の運動を制御することとを含む。
いくつかの実施の形態の原理を使用する自動パーキングを利用する車両の概略図である。 いくつかの実施の形態による、第1の駐車経路に沿った学習段階中の例示的な駐車動作の概略図である。 いくつかの実施の形態による、第1の駐車経路に沿った自動パーキング段階中の例示的な駐車動作の概略図である。 いくつかの実施の形態による、第1の駐車経路とは異なる第2の駐車経路に沿った自動パーキング段階中の例示的な駐車動作の概略図である。 いくつかの実施の形態によって利用される原理を使用する駐車シナリオの一例を示す図である。 いくつかの実施の形態による、駐車スペース内に車両を駐車するための方法のブロック図である。 いくつかの実施の形態によって使用される車両座標系の一例を示す図である。 いくつかの実施の形態による、車両の幾何学的表現の例示的な概略図である。 一実施の形態による、パーキングシステムの学習段階のフローチャートである。 一実施の形態による、パーキングシステムの自動パーキング段階のフローチャートである。 いくつかの実施の形態による、自動パーキングのために適したシステムのブロック図である。 一実施の形態による、自動パーキングシステムの機能構成要素を表す図である。 いくつかの実施の形態によって学習モード中に使用される機能モジュールのブロック図である。 駐車スペースの3Dモデルの一例を示す図である。 座標系の原点を規定する車両の仮想状態と、対応する仮想視点との例を示す図である。 いくつかの実施の形態による、1セットの仮想視点に対して生成される例示的な仮想画像の図である。 いくつかの実施の形態による、基準データ生成のデータフローの概略図である。 一実施の形態による、自動パーキングモードにおいて使用される機能モジュールのブロック図である。 一実施の形態による、特徴照合プロセスのデータフローを示す図である。 いくつかの実施の形態による、学習モードにおいて使用される機能モジュールのブロック図である。 いくつかの実施の形態による、自動パーキングモードにおいて使用される機能モジュールのブロック図である。 異なる実施の形態によって学習モードにおいて使用される機能モジュールの別のブロック図である。 学習モードにおいて使用される機能モジュールの別のブロック図である。 一実施の形態による、駐車動作の方向を選択する例示的なインターフェースを示す図である。 一実施の形態による、駐車動作の方向を選択する別のインターフェースを示す図である。 第1の駐車経路の外部にある視点を選択するためにいくつかの実施の形態によって使用される方法のブロック図である。 第1の駐車経路の外部にある視点を選択するために一実施の形態によって使用される代替の方法のブロック図である。 いくつかの実施の形態による、車両のための例示的な非到達可能エリアの概略図である。 駐車スペースを通る車両の取り得る駐車経路の例示的な概略図である。 一実施の形態による、自動パーキングシステムの機能図である。 一実施の形態による、運動−計画システムの全体構造を示す図である。 いくつかの実施の形態による、VA−VSLAMフレームワークのブロック図である。 いくつかの実施の形態による、仮想画像を用いて長基線長照合問題に対処する概略図の一例を示す図である。 いくつかの実施の形態による、仮想画像を用いて駐車スペースの3Dモデルを再構成するための方法のブロック図である。
図1は、いくつかの実施の形態の原理を使用する自動パーキングを利用する車両の概略図を示す。車両101は、駐車スペースの少なくとも一部の環境を示す情報を検知する少なくとも1つのセンサーと、車両の運動を制御するコントローラーと、車両の種々の軌道を決定する少なくとも1つのプロセッサとを含む。例えば、車両101は、周囲カメラ102〜105と、プロセッサを用いて実現される自動パーキングシステム106とを含むことができる。この例において、前方カメラ102は、車両101の前方エリアを観測するためにフロントバンパー上に設置される。左カメラ103及び右カメラ104は、左側エリア及び右側エリアを観測するためにサイドミラー下に設置される。後方カメラ105は、後方エリアを観測するために、後部ドア上に設置される。各カメラは、自動パーキングシステム106に接続される。いくつかの実施態様において、各カメラは、広い画角を有し、あらかじめ較正され、1セットのカメラの観測エリア全体が車両101の周辺エリアを網羅する。理解されるべきであるように、異なる実施の形態は、異なる数、タイプ、場所のカメラを使用することができる。
自動パーキングシステム106は2つの動作段階及び/又はモード、すなわち、学習モード及び自動パーキングモードを有する。学習モードでは、運転者が車両を制御し、目標駐車スペース内に車両を駐車し、その間、システムは1セットのカメラから周囲環境の観測結果を取得し、観測結果の1セットの処理済みデータを基準データとして記憶する。自動パーキングモードでは、車両はシステムによって自動的に制御され、目標駐車スペース内に駐車される。自動パーキング中に、1セットのカメラからの入力観測結果を基準データの観測結果と照合することによって、車両の自己位置特定及び目標駐車スペースへの経路計画が実行される。
図2は、いくつかの実施の形態による、第1の駐車経路に沿った学習段階中の例示的な駐車の概略図を示す。例えば、車両101は第1の駐車経路505に沿って目標状態502に駐車される。本明細書において使用されるときに、車両の各状態は、車両の位置及び向きを含む。例えば、目標状態は、構造物503及び504等の障害物のない指定された駐車位置内の車両の位置及び向きを含むことができる。いくつかの実施の形態において、位置は、3D空間内の3つの自由度(3−DOF)、例えば、(x,y,z)座標を有し、向きは3−DOF、例えば、(ロール、ピッチ、ヨー)角を有し、それゆえ、状態は全部で6−DOFを有する。いくつかの他の実施の形態において、状態は3−DOFとして表すことができ、2−DOF位置、例えば、2D平面上の(x,y)座標と、1−DOF向き、例えば、面内回転に対応するヨー角とを有する。3−DOF状態表現は、計算コスト及びメモリ消費量に関して有利であり、駐車スペースが平坦な路面を有し、車両が平坦な路面上を移動する場合に使用することができ、その場合、状態は平坦な路面に対して規定することができる。
目標状態502において終了する第1の駐車経路による運動は、手動で、例えば、車両の運転者からの入力制御コマンドを用いて制御することができるか、自動的に、例えば、自動パーキングシステムを用いて制御することができるか、又はその組み合わせとすることができる。第1の駐車経路に沿った車両の運動中に、車両は、カメラ102〜105を用いて、駐車スペースの1セットの画像506を取り込む。1セットの画像506内の各画像は、第1の駐車経路に沿った車両の状態によって規定される視点から取り込まれる。例えば、経路505上の車両101の任意の状態において、カメラ103によって撮影された画像は、カメラ105によって撮影された画像とは異なる。しかしながら、カメラ103及びカメラ105の両方の画像及び両方の視点が、車両のカメラの配置だけでなく、車両の状態及び幾何学的形状によって明確に規定される。
図3Aは、いくつかの実施の形態による、第1の駐車経路に沿った自動パーキング段階中の例示的な駐車の概略図を示す。図3Bは、いくつかの実施の形態による、第1の駐車経路とは異なる第2の駐車経路に沿った自動パーキング段階中の例示的な駐車の概略図を示す。具体的には、図3Aに示される例において、車両は経路505に類似の経路に従う。図3Bに示されるシナリオでは、車両は異なる経路を辿り、経路505の始点の反対側から目標駐車スペースに接近する。
そのため、図3A内の画像507及び図3B内の画像508は、画像のそれぞれにおいて建物503の外観(appearance)全体が観測される、取り込まれた画像の例を表す。建物503は、画像507では斜めの視野から観測され、画像508では前方の視野から観測され、一方、図2内の1セットの画像506には、前方の視野から建物503の観測結果は含まれないことに留意されたい。
図3Aに示される例の場合のように、学習段階及び自動パーキング段階中の駐車経路が類似であるとき、駐車スペースの異なる画像を比較することによって、自己位置特定が可能になる。しかしながら、図3Bに示される例の場合のように、学習段階及び自動パーキング段階中の駐車経路が異なるとき、駐車スペースの異なる画像の比較は失敗する可能性がある。
いくつかの実施の形態は、異なる駐車経路に沿って車両を自動的に駐車するために、学習段階中に学習されたデータを再利用することが有益であるという認識に基づく。例えば、第2の、すなわち、異なる駐車経路に沿って車両を駐車するために、第1の駐車経路に沿って移動する間に学習されたデータを再利用することが有益である可能性がある。いくつかの実施の形態は、仮想画像が、外観不変性(appearance invariance)への自動自己位置特定のそのような依存性を回避するのを助けることができるという理解に基づく。例えば、将来に訪問する可能性がある新たな視点からのいくつかの新たな仮想画像を合成することができる。
そのため、いくつかの実施の形態は、カメラによって取り込まれた画像から周囲環境の3Dモデルを生成し、その後、3Dモデル内の仮想視点を設定する。本明細書において使用されるときに、仮想視点は、仮想画像を取り込むカメラの姿勢の仮想点である。例えば、仮想画像は、3Dモデルデータを仮想観測点における仮想画像面に再投影することによって生成することができる。
学習モードにおいて画像を取り込むために使用される視点とは異なる仮想視点が設定される。その後、1セットの仮想視点に対して1セットの仮想画像が生成される。最後に、元の画像及び仮想画像の両方から画像特徴が抽出され、自己位置特定及び自動パーキングのために使用される基準データとしてシステム内に記憶される。
図4は、いくつかの実施の形態によって利用される原理を使用する駐車シナリオの一例を示す。図4において、仮想観測点510及び対応する仮想画像511の例が示される。この例において、仮想画像511は、前方視野からの建物503の外観全体を含む。この場合、車両の第1の駐車経路505及び第2の駐車経路509が2つのモード間で異なる場合であっても、学習モードにおける基準データは、第2の駐車経路509に従う車両のカメラによって取り込まれた画像の特徴に類似している仮想画像511からの画像特徴を含むので、自動パーキングモードにおける特徴照合及びその後の自己位置特定に成功することができる。
図5は、いくつかの実施の形態による、駐車スペース内に車両を駐車する方法のブロック図を示す。その方法は、メモリに動作可能に接続されるプロセッサと、駐車スペースの少なくとも一部の環境を示す画像を取り込む少なくとも1つのセンサーと、車両の運動を制御するコントローラーとを使用する。プロセッサは、その方法を実施する記憶された命令と結合され、それらの命令は、プロセッサによって実行されるときに、その方法の少なくともいくつかのステップを実行する。
その方法は、目標状態において終了する第1の駐車経路に従って車両の運動を制御し(520)、第1の駐車経路に沿った車両の運動中に駐車スペースの1セットの画像を取り込む(525)。例えば、第1の駐車経路は経路505とすることができ、1セットの画像内の各画像が第1の駐車経路に沿った車両の状態によって規定される視点から取り込まれるように、駐車スペースの画像がカメラ102〜105を用いて取り込まれる。
その方法は、その1セットの画像を用いて駐車スペースのモデルを構成し(530)、第1の駐車経路の外部にある1セットの仮想視点を選択し(535)、駐車スペースのモデルを用いて、1セットの仮想視点から視認されるような駐車スペースの環境の1セットの仮想画像を生成する(540)。本明細書において参照されるときに、1セットの仮想視点は第1の駐車経路の外部にある車両の状態を規定する少なくとも1つの仮想視点を含む。
いくつかの実施の形態において、上記で言及されたステップは、その方法の学習段階570中に実行される。現実画像及び仮想画像の特徴は、その方法の自動パーキング段階575の自己位置特定のために記憶される。しかしながら、自動パーキング段階575中に特定された経路が、次の駐車のための駐車スペースのモデルを学習及び更新するための役割を果たすことができることは理解されたい。
自動パーキング段階575中に、その方法は、車両が現在の状態にある間にセンサーによって取り込まれた駐車スペースの現在の画像を少なくとも1つの仮想画像と比較することによって、車両の現在の状態を特定する(550)。仮想画像、例えば、仮想画像の幾何学的特徴との比較によって、第1の駐車経路の外部にある車両の自己位置特定が可能になる。その方法は、例えば、車両のモデルを用いて、現在の状態から目標状態への第2の駐車経路を特定し(555)、第2の駐車経路に従って車両の運動を制御する(560)。
図6Aは、いくつかの実施の形態によって使用される車両座標系の一例を示す。車両座標系108の原点107は、車両の中心点を通る垂直線が地面110と交わる点と定義される。垂直線はZ軸として設定され、Y軸は、車両中心線109に平行になるように設定される。
図6Bは、いくつかの実施の形態による、車両の幾何学的表現の例示的な概略図を示す。
この例において、車両は長方形615として抽象化される。車両状態は3−DOF、すなわち、後輪車軸の中点を表す位置(x,y)617と、車体軸と水平軸との間の角度を表す向きθ619とを含む。
図7は、一実施の形態による、学習段階570のフローチャートを示す。最初に、運転者(ユーザー)が、所望の駐車動作開始場所において車両の位置を特定し、学習モードを開始する(開始信号は運転者によって与えられる)。その後、運転者は、車両を目標駐車スペースに駐車するために運転し(S001)、その駐車動作が完了したか否かを判断する(S002)。駐車動作が完了したと運転者が判断すると、運転者は、システムに駐車動作完了信号を与える(S003)。その後、システムは、周囲環境の3Dモデルを構成し(S004)、駐車動作中の1セットの取り込まれた画像から基準データを生成する(S005)。最後に、システムは、基準データ及び目標駐車スペースについての情報を記憶し(S006)、学習モードを終了する。
図8は、一実施の形態による、自動パーキング段階575のフローチャートを示す。最初に、運転者が自動パーキングモードを開始する。初期車両場所において、システムが、1セットのカメラからの現在の観測結果を学習モードにおいて記憶された基準データと照合することによって車両の位置を特定する(S101)。車両が位置特定に失敗する場合には、車両は、運転者によって、又はシステムによって自動的に、別の場所に動かされる(S102)。ステップS101及びS102は、システムが初期位置特定に成功するまで繰り返される。初期位置特定の成功後に、システムが、現在の場所から目標駐車スペースまでの経路(ルート)を計算する(S103)。システムが経路計画(計算)に失敗する場合には、システムが経路計画に成功するまで、車両が上記のように動かされる(S102)。経路計画に成功すると、システムが、計画された経路に沿って車両を制御及び運転し(S104)、その後、再び、位置を特定する(S105)。S105において、位置特定は、上記のような観測結果の照合によって、又は代替的には、ヨーレート及び速度等の車両制御情報に基づくデッドレコニングによって実行される。その後、システムが、駐車動作が完了したか否かを判断する(S106)。駐車動作が完了していない場合には、一連のステップ(S103〜S105)が繰り返される。駐車動作が完了した場合には、システムが自動パーキングモードを終了する。
図9Aは、いくつかの実施の形態による、自動パーキングのために適したシステム100のブロック図を示す。システム100は、汎用プロセッサ161及びメモリ164を含むことができる。それに加えて、又はその代わりに、システム100は、画像プロセッサ166、姿勢プロセッサ168及び仮想画像プロセッサ167等の専用プロセッサを含むことができる。また、デバイス100は、1つ以上のバス177に結合される複数のセンサーと、プロセッサ161、166、167及び168のうちの少なくとも1つに更に結合される信号線とを含むことができる。システム100は、車両101の一部とすることができ、自動パーキングシステム106の機能を実施するために使用することができる。
システム100は、カメラ124、3Dセンサー、及び/又は赤緑青奥行(RGBD:red-green-blue-depth)センサー(図示せず)と呼ばれる、カメラ及び3Dセンサーの組み合わせ等のシーンの画像を取り込むセンサーを含むことができ、任意選択で、加速度計、ジャイロスコープ、電子コンパス又は他の類似の運動検知要素等のモーションセンサー121を含む場合がある。また、システム100は、前面及び/又は背面カメラ(例えば、カメラ124)において画像を取り込むこともできる。システム100はユーザーインターフェース150を更に含むことができ、ユーザーインターフェースは、ディスプレイ112、キーボード及びキーパッド152等の入力デバイスのうちの1つ又は組み合わせを含む。必要に応じて、タッチスクリーン/センサーを備えるディスプレイ122に仮想キーパッドを組み込むことによって、キーボード又はキーパッド152を不要にすることができる。例えば、デバイス100が携帯電話等のモバイルプラットフォームである場合には、ユーザーインターフェース150はマイクロフォン154及びスピーカー156を含むこともできる。いくつかの実施態様において、システム100は、モバイル又はワイヤレスデバイスとして機能することができ、送受信機140を用いて1つ以上のワイヤレス通信リンクを介して通信することができる。
1つ以上の例示的な実施の形態において、上記の機能又はモジュールは、コントローラー160のハードウェア(例えば、ハードウェア162)、ソフトウェア(例えば、ソフトウェア165)、ファームウェア(例えば、ファームウェア163)又はその任意の組み合わせにおいて実現することができる。コンピュータープログラム製品としてソフトウェアにおいて実現される場合には、機能又はモジュールは、1つ以上の命令又はコードとして、非一時的コンピューター可読媒体上に記憶することができるか、又は非一時的コンピューター可読媒体を介して送信することができる。コンピューター可読媒体は、或る場所から別の場所へのコンピュータープログラムの転送を容易にする任意の媒体を含む、コンピューター記憶媒体及び通信媒体の両方を含むことができる。記憶媒体は、コンピューターによってアクセス可能である任意の市販の媒体とすることができる。一例であって、限定はしないが、そのような非一時的コンピューター可読媒体は、RAM、ROM、EEPROM、CD−ROM若しくは他の光ディスク記憶装置、磁気ディスク記憶装置若しくは他の磁気記憶デバイス、又は命令若しくはデータ構造の形で所望のプログラムコードを搬送又は記憶するために使用することができ、コンピューターによってアクセス可能である任意の他の媒体を含むことができる。
図9Bは、一実施の形態による、自動パーキングシステム106の機能構成要素の表現を示す。自動パーキングシステム106は3つのユニット、ユーザー入力/出力(I/O)ユニット201、認知及び計画ユニット202、及び車両制御ユニット203から構成される。
学習モードにおいて、認知及び計画ユニット202は、駐車スペースの周囲環境を表す3Dマップとして3Dモデルを構成し、3Dモデル内の仮想視点を決定し、仮想観測点に対する仮想画像を生成することができる。また、ユニット202は、当初に取り込まれた画像及び仮想画像から画像特徴を抽出し、目標駐車状態を決定し、3Dモデル内の3D位置への各画像特徴の2D画像位置の対応を見つけ、基準データとしての3Dモデル内の画像特徴及びその3D位置と、3Dモデル内の目標駐車スペース情報との記憶を容易にすることができる。さらに、ユニット202は、3Dモデル及び目標駐車スペース情報をユーザーI/Oユニット201に出力することができる。ユーザーI/Oユニット201は、学習モードの進捗、状況及び結果を運転者に表示する。
自動パーキングモードにおいて、認知及び計画ユニット202は、取り込まれた画像から画像特徴を抽出し、現在の画像特徴を学習モードにおいて記憶された基準データ内の画像特徴と照合し、照合結果によって3Dモデルに対する車両の位置を特定することができる。また、ユニット202は、現在の車両場所から目標駐車スペースへの経路を決定し、計画された経路を車両制御ユニット203に出力することができる。車両制御ユニット203は、ユニット202からの経路入力に基づいて、車両を制御する。
図10は、いくつかの実施の形態によって学習モード中に使用される機能モジュールのブロック図を示す。画像取込モジュール301は、1セットのカメラを制御し、画像を取り込む。画像記憶モジュール302は、取り込まれた画像を記憶する。
3Dモデル生成モジュール303は、SFM(structure from motion)及びVSLAM(visual simultaneous localization and mapping)等の3D再構成技法によって、取り込まれた画像から3Dモデルを生成する。これに関連して、3Dモデルは、各点がその元の画像(2D)点に対応する3Dポイントクラウド(3D point cloud)と定義される。これは、ポイントクラウド内の各点が3Dモデル内の3D位置を有するだけでなく、元の画像位置及び色(RGB)、強度及び/又は特徴情報も有することを意味する。いくつかの実施の形態において、ポイントクラウドの座標系は、学習モードにおいて或る特定の車両場所における車両座標系に従って設定される。例えば、車両座標系は、学習モードの開始場所又は終了場所における3Dモデルの座標系とすることができる。
図11は、3Dモデルの一例を示す。図11において、座標系603を伴う3Dモデル602(極めて密なポイントクラウドを有すると仮定される)は、学習モードにおいて取り込まれる1セットの画像601から生成される。
目標駐車スペース決定モジュール304が、3Dモデル内の目標駐車スペースを決定する。運転者が学習モードにおいて駐車動作を完了するスペースが、目標駐車スペースとして設定され、その場所が3Dモデルにおいて表される。種々の表現形式を考えることができる。例えば、その場所を3Dモデル内の車両座標系の位置及び向きによって表すことができる。代替的には、その場所を車両の2D又は3D境界ボックスの形で表すことができる。目標駐車スペース記憶モジュール305が、目標駐車スペース情報を記憶する。
仮想観測点決定モジュール306が、3Dモデル内の仮想視点を決定する。一実施の形態において、仮想視点は、3Dモデル内の点、例えば、車両の状態をランダムに、又は定期的に選択することによって決定される。次に、カメラ較正データ(車両座標系に対する相対的な位置及び向き)に基づいて、仮想車両座標系ごとに、1セットの仮想カメラ、例えば、4つのカメラ照合用カメラ102〜105が設定される。各仮想カメラ座標系の原点は、仮想観測点と見なすことができ、それゆえ、この時点において、1セットの仮想カメラによって4つの仮想観測点を決定することができる。
図12は、座標系611の原点及び対応する仮想観測点612〜623を規定する、車両の仮想状態610の例を示す。この図において、図11における3Dモデル602の上方から見た(鳥瞰)マップの形でマップが示される。
仮想画像生成モジュール307が、仮想観測点に関する1セットの仮想画像を生成する。異なる実施の形態は、仮想視点を与えられると、異なる方法を用いて仮想フレームを生成する。例えば、仮想視点は、1セットの画像からの少なくとも1つの画像をワーピングすること、シーンのモデルを仮想視点に投影すること、及び平面誘発ホモグラフィ(plane-induced homography)のうちの1つ又は組み合わせを用いて生成することができる。
例えば、一実施の形態において、仮想視点は現実画像と同じ視認位置を有し、向きに関してのみ異なる。この実施の形態において、p=Hpによって、現実フレーム内のピクセルpから新たなフレーム内の全てのピクセルpをワーピングすることによって仮想フレームを生成することができる。ただし、p及びpはピクセルの2D同次座標であり、Hは
Figure 2020500767
によって定義される3×3ホモグラフィ行列であり、Rは現実の視点に対する仮想視点の向きに対応する3D回転行列であり、K及びKはそれぞれ、3×3仮想及び現実カメラ内部行列(camera intrinsic matrix)である。
例えば、別の実施の形態において、仮想画像は、3Dモデル生成モジュール303によって再構成されたシーン602を記述する密なポイントクラウドから直接生成することができる。例えば、一実施態様において、密なポイントクラウドから、このシーンのテクスチャ付きメッシュモデル(textured mesh model)を作成することができる。その後、このテクスチャ付きメッシュが、所与の仮想視点に設定された仮想カメラの姿勢(すなわち、OpenGLの用語においてモデル−ビュー行列)とともに、OpenGL等のグラフィックスパイプラインに提示され、その射影行列が、通常、現実カメラの内部行列と同じであるか、又はそれに近い所望のカメラ内部行列によって設定される。この時点で、OpenGLパイプラインの色バッファからRGB情報が抽出され、奥行バッファから奥行情報が抽出される。このようにして、所望の仮想視点においてRGBD画像の仮想フレームが生成される。
更に別の実施の形態において、そのシーンの3Dポイントクラウドが相対的に疎であるとき、平面誘発ホモグラフィを用いて生成される。この事例では、多くの場合にピクセル当たりの3D情報が不足しているので、画像内のピクセルごとに、遠方の仮想視点から仮想画像を生成するのは難しい。先行する2つの事例のような密な仮想画像を生成する代わりに、いくつかの実施の形態は、あらかじめ推定された3D情報、すなわち、現実画像内の全ての特徴点を用いてピクセル位置に集中する疎な仮想画像を生成することができる。この生成プロセスは、以下に説明される、平面誘発ホモグラフィを使用する画像ベースワーピングを通して行うことができる。特徴点の対応するランドマークが局所的に小さい平面(n,d)であると仮定する。ただし、nは世界座標系内の平面の法線方向であり、dはその平面への世界原点の距離である。この特徴点が、世界内のその姿勢が
Figure 2020500767
である現実フレーム内であらかじめ観測されており(ただし、R及びtはそれぞれ現実カメラの3D回転行列及び並進ベクトルである)、所与の仮想視点の姿勢が
Figure 2020500767
である場合には(ただし、R及びtはそれぞれ仮想カメラの3D回転行列及び並進ベクトルである)、多視点幾何学理論から、現実フレームと、同じ局所平面を観測することによって誘発される仮想フレームとの間のホモグラフィ行列を以下のように見つけることができる。
Figure 2020500767
ただし、
Figure 2020500767
であり、K及びKはそれぞれ3×3仮想及び現実カメラ内部行列である。
このホモグラフィ行列を用いて、現実画像上のパッチとしてこの特徴点及びその隣接するピクセルを仮想画像上のパッチにワーピングすることができる。このワーピングされたパッチは、現実カメラが仮想姿勢Tから対応するランドマークを観測する場合に観測されると予想されるものを表す。現実画像上の特徴点ごとにこのワーピング演算を繰り返すことによって、疎な特徴を有する仮想画像が生成される。
図13は、いくつかの実施の形態による、3Dモデル602内の1セットの仮想視点630に関して生成された例示的な仮想画像631の図を示す。この例において、仮想画像は3Dモデルを介して生成されるので、そのシーン内の物体(例えば、建物及び家屋)の幾何学的形状は仮想画像において歪まない。
画像特徴抽出モジュール308が画像特徴を抽出する。例えば、画像内の端点が検出され、その後、各端点の局所的特徴(例えば、SIFT、SURF等)が計算される。
基準データ生成モジュール309が、各画像特徴(モジュール308において抽出される)を、3Dモデル内の3D位置に関連付ける。一対の画像特徴及び関連する3D位置が基準データとして規定される。
図14は、いくつかの実施の形態による、基準データ生成のデータフローの概略図を示す。画像特徴抽出モジュール308が、1セットの当初に取り込まれた画像601及び1セットの仮想画像631に関する画像特徴650を抽出する。この時点で、各画像2D位置は、3Dモデル内の3D位置に関連付けられる。結果として、画像特徴及び3D位置の複数の対が基準データ651として生成される。基準データ記憶モジュール310が基準データを記憶する。
ユーザー出力モジュール311が、学習モードの中間情報及び結果として生じる情報を、理解しやすいようにユーザーに表示する。例えば、3Dモデルの簡略化された鳥瞰図がユーザーに表示され、その図において、開始場所、目標駐車スペース、及び学習モードにおいて辿った駐車経路が視覚化される。
図15は、一実施の形態による、自動パーキングモードにおいて使用される機能モジュールのブロック図を示す。画像取込モジュール301及び画像特徴抽出モジュール308は学習モード内のモジュールと同じである。しかしながら、自動パーキングモードでは、画像取込モジュール301が、1セットの画像、例えば、フレームごとに4つの画像を画像特徴抽出モジュール308に直接出力する。
基準データ照合モジュール312が、入力画像特徴を、学習モードにおいて生成された基準データ内の画像特徴と照合する。照合結果に基づいて、各基準データが画像特徴類似度スコアによってランク付けされ、上位N個の基準データ(Nは定数であり、あらかじめ規定される)が選択される。特徴ベクトル間のユークリッド距離が類似度指標の一例である。照合後に、3D位置は、照合された基準データの3D点に基づいて、各画像特徴に関連付けられる。
図16は、一実施の形態による、特徴照合プロセスのデータフローを示す。最初に、1セットの入力画像660の画像特徴が、画像特徴類似度に基づいて、基準データ651と照合される。その後、照合された基準データの3D位置が各入力画像特徴に関連付けられる。結果として、1セットの照合結果661が生成される。
車両位置特定モジュール313が、モジュール312から出力された照合結果から、車両の現在の状態、すなわち、現在フレームにおける3Dモデル内の車両の位置及び向きを計算する。2D画像特徴と3Dモデル内の3D位置との間の対応はこの時点で既知であるので、各カメラの3D位置及び向きは、パースペクティブnポイントアルゴリズムと呼ばれる或る種のアルゴリズムを用いて計算することができる。さらに、各カメラは車両座標系(その関係が既知である)に対して較正されるので、各カメラの3D位置及び向きによって車両の3D位置及び向きも計算することができ、すなわち、車両の位置を3Dモデル内で特定することができる。
経路計画モジュール314が、位置特定結果に基づいて、現在の車両場所から目標駐車スペースまでの駐車動作のための経路を計算する。車両制御モジュール315が、経路計画モジュール314において計算された経路に沿って車両が移動するように車両を制御する。
図17及び図18は、いくつかの実施の形態による、学習モード及び自動パーキングモードにおいてそれぞれ使用される機能モジュールのブロック図を示す。この実施の形態において、基準データは、学習モードではなく、自動パーキングモードにおいて生成される。
学習モードでは、3Dモデル記憶モジュール801が3Dモデルを記憶し、画像特徴記憶モジュール802が1セットの画像特徴を記憶する。自動パーキングモードでは、基準データ生成モジュール310が、学習モードにおいて記憶された3Dモデル及び画像特徴から基準データを生成する。
図19は、異なる実施の形態によって学習モードにおいて使用される機能モジュールの別のブロック図を示す。3Dモデル解析モジュール320が、2D平面当てはめに基づく道路シーン分割、又はテクスチャ、色及び勾配に基づく道路領域検出等の分割手法によって、3Dモデル内の運転(駐車動作)のための空き地(道路領域)を検出する。さらに、モジュール320は、機械学習技法によって、建物、家屋又は標識等の特定の静止物体も検出する。
仮想観測点決定モジュール306が、空き地上、及びランダムに、又は定期的にモジュール320において検出された特定の物体の周りにおいて、仮想車両原点及び座標系を設定する。その後、仮想車両座標系に従って、仮想観測点が決定される。
この実施の形態によれば、仮想観測点をより効率的に設定できるようになる。システムが空き地上で密に、かつ均一に仮想観測点を設定する場合には、全ての入力画像が常に空き地上のいずれかの場所において取り込まれるので、自動パーキングモードにおける入力画像と類似性の高い外観及び画像特徴を有する可能性がある仮想画像を生成することができる。さらに、特定の物体の周りに仮想観測点を設定することによって、その実施の形態は、密な画像特徴を生成することができる。結果として、この実施の形態によれば、自動パーキングが、より安定し、ロバストになる。
図20は、学習モードにおいて使用される機能モジュールの別のブロック図を示す。ユーザー入力モジュール330が、運転者の入力を受信し、それらの入力を仮想観測点決定モジュール306に出力する。この実施の形態では、仮想観測点決定モジュール306は、ユーザー(運転者)入力に基づいて、仮想視点を決定する。
ユーザー入力モジュール330は、運転者が3Dモデル内の仮想観測点のソース情報を直観的に指定できるようにするインターフェース機能を提供し、一方、ユーザー出力モジュール311が、運転者が周囲環境を直ちに理解することができるように、3Dモデル及び解析結果(3Dモデル解析モジュール320において検出された空き地及び特定の静止物体)をインターフェースデバイス上に理解しやすいように表示する。
例えば、インターフェースデバイスとしてタッチパネルディスプレイを想定する。ユーザー出力モジュール311は、3Dモデルの上方から見た図を表示し、その図には、空き地及び物体がパネル上にそのラベルとともに表される。その後、運転者は、表示されたマップ上で仮想観測結果を得るための所望の点をタッチ動作によって指定し、一方、ユーザー入力モジュール330が運転者の入力を受信する。ユーザー入力モジュール330が、点データを仮想観測点決定モジュール306に出力する。
図21は、一実施の形態による、駐車動作の方向を選択する例示的なインターフェースを示す。この図において、目標駐車スペース402、物体(建物及び家屋)403及び404、空き地(道路領域)405、学習モードにおいて辿った駐車経路406、及び指定された仮想観測点407が、3Dモデル401の鳥瞰図内に視覚化される。この例において、指定された仮想観測点407は、運転者の直観的な操作を支援するために、カメラ形のアイコンの形で視覚化される。
図22は、一実施の形態による、駐車動作の方向を選択する別のインターフェースを示す。この例では、運転者が、鳥瞰マップ上に所望の駐車経路を描くことによって、仮想観測点を指定することができる。
駐車動作408の所望の駐車経路又は方向は、この図では鳥瞰マップ401において視覚化される。ユーザー入力モジュール330が、経路の形をとる運転者からの入力を仮想観測点決定モジュール306に出力し、仮想観測点決定モジュール306が、線形経路情報を離散点系列情報に変換することによって、指定された経路とともに仮想観測点を生成する。この実施の形態は、自動パーキングシステムの利用可能性を向上させる。すなわち、運転者は、自動パーキングシステムを、運転者の要求に合うように、より容易に、かつ直観的に使用することができる。
図23Aは、第1の駐車経路の外部にある視点を選択するために複数の実施の形態によって使用される方法のブロック図を示す。それらの実施の形態において、その方法は、ディスプレイデバイス上に駐車スペースのモデルの表現をレンダリングする(2310)のに応答して、駐車動作の方向の選択を受信する(2320)。この選択は、選択された方向から目標状態に接近する第2の駐車経路を決定する(2330)ために使用される。例えば、その方向に従って車両の状態が選択され、車両のモデルを用いて第2の駐車経路が決定される。第2の経路が決定された後に、第2の駐車経路上で1セットの仮想視点が選択される(2340)。
図23Bは、第1の駐車経路の外部にある視点を選択するために一実施の形態によって使用される代替の方法のブロック図を示す。この実施の形態では、ユーザーからの入力を用いることなく、視点が選択される。具体的には、この実施の形態は、障害物のない駐車スペースの部分を検出する(2350)。例えば、駐車スペースの障害物のない部分は、図19に関して説明されたように、駐車スペースのモデルの分割手法を用いて特定することができる。
その実施の形態は、駐車スペースの一部をサンプリングし(2360)、1セットのサンプリングされた状態を生成し、1セットのサンプリングされた状態から1セットの視点を選択する。一実施の形態において、全てのサンプリングされた状態が仮想視点として使用される。いくつかの代替の実施の形態は、到達可能性(reachability)基準を用いてサンプリングを実行する。到達可能性基準によれば、そのサンプルが目標状態から到達可能である場合にのみ、状態空間内のサンプルが保存される。一実施の形態において、到達可能性を試験するために車両の動態の使用を回避するために、到達可能性は非到達可能性の欠如と定義され、非到達可能性は、車両の両側付近の所定のエリアである。
図23Cは、車両の位置及び向きを規定する状態2391における車両101のための例示的な非到達可能エリア2393及び2397の概略図を示す。この例において、非到達可能エリアは、状態2391において開始し、車両のハンドルを最大まで左に、又は右に切った状態で所定の速度で移動する車両運動の円によって表される。目標状態2390が非到達可能エリア2393及び2397内にある場合には、状態2391は破棄される。そのため、この実施の形態は、車両のモデルを用いて、サンプリングされた状態からの目標状態の到達可能性を試験し(2370)、サンプリングされた状態から目標状態が到達可能である場合には、サンプリングされた状態に対応する視点を1セットの視点に選択する(2380)。
種々の実施の形態において、経路計画はあらかじめ実行されるか、又はリアルタイムに実行される。例えば、事前の経路計画は、異なる方向から目標状態に至る異なる駐車経路をあらかじめ決定することができる。それらの状況では、方向408によって、所定の駐車経路から第2の駐車経路を選択できるようになる。それに加えて、又はその代わりに、いくつかの実施態様において、方向408によって示されるような駐車スペースの空き地がサンプリングされ、第2の駐車経路等の代替の駐車経路を決定するために、車両のサンプリングされた状態が使用される。
図24は、駐車スペースを通る、車両101の取り得る駐車経路の例示的な概略図を示す。この例において、カメラは、星印で表され、1セットの視点に対応する状態{X,X,X,…XM−1,X}においてのみ画像を取り込む。それらの状態は、グラフ2410を成長させるためのシードとして使用される。グラフ2410は、エッジと接続される複数のノードを有する。各ノードは車両の状態を規定し、2つのノードを接続する各エッジは、2つのノード間の実現可能な経路を規定する。そのため、任意のノードから、そのノードを目標ノードに接続するエッジを通って、目標状態の目標ノード195までの経路が、取り得る駐車経路である。
グラフのノードは、仮想画像を決定するための仮想視点として選択される。ノード191、192、193、194、195等の丸印及び星印を用いて表されるノードに対応する仮想画像からの特徴が基準データとして使用される。自動パーキング段階中に、車両の現在の位置がノードのうちの少なくとも1つに近い場合には、そのノードから目標状態195への経路をグラフ2410から容易に選択することができる。
グラフ2410は、車両のモデル、例えば、動的及び/又は運動学的モデルを用いて生成することができる。本明細書において使用されるときに、車両の動的モデルは、車両の状態の経時的変化を考慮に入れる。動的モデルは通常、微分方程式によって表される。一実施の形態において、車両の動的モデルは5次の微分方程式である。
Figure 2020500767
ただし、vは前輪の速度であり、ζは前輪と車両の向きとの間の角度であり、aは並進加速度であり、aはステアリング角速度であり、lは(x,y)と前輪の中点との間の距離である。
経路計画のために、いくつかの実施の形態は、車両の質量又は運動を引き起こした力を考慮することなく、車両の運動を記述する車両の運動学的モデルを使用する。
一実施の形態において、以下の運動学的モデルが検討される。
Figure 2020500767
ただし、u=cos(ζ)vは、後輪車軸の中点の速度であり、u=tan(ζ)u/lである。
経路が運動学的モデル(2)の解である場合には、その経路は運動学的に実現可能である。位置Xに位置する車両が任意の障害物と衝突せず、駐車スペースの境界の完全に内側に存在する場合にのみ、車両状態X=(x,y,θ)は無衝突である。初期状態101は、略してX=(x,y,θ)と表され、目標状態102はX=(x,y,θ)によって表される。長方形L×Hによって表される駐車スペースでの特定の駐車作業の場合、車両状態は常に状態空間X:[0,L)×[0,H)×[0,2π)に属する。
図25Aは、一実施の形態による、自動パーキングシステムの機能図を示す。環境マッピング及び位置特定ブロック201が駐車スペースのモデルを構成又は更新し、環境及び車両動作条件を検知することによって車両の現在の場所を特定する。例えば、マッピング及び位置特定ブロック201は、位置特定ブロック313を含むことができる。例えば、マッピング及び位置特定ブロック201は、慣性測定ユニットも含むことができ、慣性測定ユニットは、3軸加速度計(複数の場合もある)、3軸ジャイロスコープ(複数の場合もある)及び/又は磁力計(複数の場合もある)を含むことができ、車両の動作を検知するために使用することができる。全地球測位システムセンサーを用いて、車両の位置及び速度を与えることができる。環境200を検知するセンサーは、他の車両、歩行者及び建物を含む障害物を捕捉するビデオカメラ、車両と障害物との間の距離を検出する超音波/レーダーセンサーとすることができる。
目標状態選択ブロック201が、駐車場候補を識別することによって、車両を駐車する駐車位置に関する目標状態を選択し、目標状態を運動計画ブロック203に送信する。一実施の形態において、利用可能な駐車位置は、駐車場ビルの管理に関連付けられる別のシステムによって追跡される。それに加えて、又はその代わりに、駐車位置は、自動パーキングシステムのセンサー203を用いて検出することができる。運動計画203は、車両モデル210、車両の開始状態及び目標状態、並びに駐車スペースのマップに基づいて、駐車経路241を決定する完全な運動計画手順を開始する。一実施の形態において、駐車経路は、経時的な車両速度及びステアリング角のプロファイルを規定する。別の実施の形態において、駐車経路は、経時的な車両状態(x,y,θ)のプロファイルを規定する。
駐車経路241を与えられると、車両コントローラー及びアクチュエーター204が、駐車経路が状態プロファイルである場合には、車両状態が基準軌道241を追跡するように強制し、駐車経路が車両速度及びステアリング角プロファイルである場合には、車両速度及びステアリング角が駐車経路を追跡するように強制する制御コマンドを決定し、実行する。一実施の形態において、制御コマンドはアクセルペダル圧又はステアリングトルクとすることができる。また、車両コントローラー/アクチュエーターは、信号243を用いて、制御コマンドを決定することができる。信号243は、測定されたステアリング角、又はハンドル若しくはアクセルペダルを動かすモーターの測定された電流とすることができる。
図25Bは、一実施の形態による、運動計画システム203の全体構造を示す。運動計画システム203は、運動計画システム203のモジュールを実行するための少なくとも1つのプロセッサ270を含む。プロセッサ270はメモリ280に接続され(271)、メモリは、車両の幾何学的形状及び駐車スペースのモデル等の幾何学的情報281を記憶する。また、メモリ280は、車両の運動学的モデル及び車両の動的モデル等の車両282のモデルを記憶することもできる。また、メモリ280は、限定はしないが、車両の初期状態、駐車された車両の目標状態を含む、運動計画器の内部情報283を記憶することもできる。いくつかの実施の形態において、メモリ280は、自動パーキングのための方法を実施する記憶された命令を含むことができ、それらの命令は、プロセッサ270によって実行されるときに、その方法の少なくともいくつかのステップを実行する。
いくつかの実施の形態は、仮想画像を更に用いて、駐車スペースのモデルの密度及び精度を高めることができるという認識に基づく。例えば、いくつかの実施の形態は、シーンの3次元(3D)モデルを再構成するための視覚センサーデータ入力として画像を使用する視覚的同時位置特定及びマッピング(SLAM:simultaneous localization and mapping)を使用する。いくつかの実施の形態は、センサーの姿勢を追跡するために使用される画像の数を削減して、そのシーンの3Dモデルを構成するのに適した、そのような視覚的SLAM(VSLAM)を提供するために、自動パーキングのために生成された仮想画像を使用する。そのようなVSLAMは、本明細書において、仮想的に拡張された(virtually-augmented)VSLAM(VA−VSLAM)と呼ばれる。VA−VSLAMは、従来のVSLAMより少ない数の画像でそのシーンの類似のモデルを構成することができるか、又は代替的には、同じ数の画像で、従来のVSLAMより良好な、そのシーンのモデルを構成することができる。そのため、少ない数の画像を用いて、VA−VSLAMは計算能力及びメモリ使用量を削減することができ、軌道と、その後の、環境マップを作成するセンサーとを簡単にすることができる。代替的には、同じ数の画像を用いて、VA−VSLAMは、より高い精度で3Dモデルを生成することができ、結果として、3Dモデルを使用する自己位置特定の精度が高くなる。
図26Aは、1つ以上のカメラの6D姿勢(位置及び向き)と、幾何学的周囲物の3D記述との両方を推定するためにVSLAMフレームワーク2610を利用するいくつかの実施の形態によるVA−VSLAMフレームワーク2600のブロック図を示す。VA−VSLAMフレームワークは、いくつかの実際の視認姿勢からカメラ及び/又はセンサーによって取り込まれた現在観測されている現実画像に関する1セットの特徴と、いくつかの仮想的な視認姿勢から仮想カメラによって観測された仮想的に生成された画像に関する1セットの特徴とを照合することによって機能する。その方法のステップは、1セットの画像を記憶するメモリ164等のメモリに接続され、その方法を実施するソフトウェア165等の記憶された命令と結合される、汎用プロセッサ161及び/又は専用プロセッサ166、167及び168等のプロセッサによって実行することができる。それらの命令は、プロセッサによって実行されるときに、VA−VSLAMフレームワーク2600の方法の少なくともいくつかのステップを実行する。
VA−VSLAMフレームワーク2610は以下のように機能する。画像の1セットの現実フレーム{F}が、いくつかの特徴抽出器によって処理され、画像の各フレームFに関する1セットの特徴
Figure 2020500767
が選択される。フレームFは、1チャネルのグレー情報若しくは3チャネルのRGB情報を伴う通常の2D画像、及び/又は第4のチャネルがピクセルの奥行、すなわち、カメラ中心と、そのピクセルの光線方向に沿った最も近い物体との間のカメラ視認方向に沿った距離を記述する、4チャネルのRGBD情報を伴う3D画像を含むことができる。ピクセルの光線方向を特定するプロセスは、ピクセルの逆投影法として知られており、カメラの内部パラメーターを使用することによって実行することができる。例えば、特徴
Figure 2020500767
は、この特徴が幾何学的形状又は外観のいずれかに関してその隣接領域と著しく異なる限り、フレームFが2D画像である場合には2D点とすることができ、フレームFが3D画像である場合には3D点とすることができる。特徴抽出器の例は、Harris、FAST又はORBキーポイント検出器を含む。
その後、特徴
Figure 2020500767
及び特徴
Figure 2020500767
がそのシーン内のランドマーク又は対象点と呼ばれる同じ物理領域に対応するような、対応する特徴対{(j,j’)}を見つけるために、この特徴セットfが別の1セットの特徴f’と照合される。そのような照合は、対象点の位置を特定し、その記述を生成するスケール不変特徴変換(SIFT:Scale Invariant Feature Transform)、スピードアップロバスト特徴(SURF:Speed Up Robust Features)、勾配場所−向きヒストグラム(GLOH:Gradient Location-Orientation histogram)、ORB、若しくは他の同等の技法等の種々の特徴記述方法、及び/又はRANSAC等のサンプリングベース方法を通して行うことができる。
対応する特徴対を用いて、視覚的SLAM2610は、特徴セットf’がいかに構成されるかに応じて、先行して観測された1つのフレームFに対して、又は先行して観測された全てのフレームを含むマップ2640
Figure 2020500767
に対して、このフレームFの姿勢2620を追跡することができる。追跡される姿勢及び特徴対応は、マップ2640を更に更新するために使用される、フレームの最良の6−DOF姿勢、及び特徴の3D幾何学記述を見つけるために、バンドル調整2630に送られる。
異なる視点からの複数の3D点を表す1セットの画像を与えられると、バンドル調整2630は、全ての点の対応する画像投影を伴う最適性基準に従って、シーン幾何学を記述する3D座標の精緻化、カメラの相対運動のパラメーター、及び画像を取り込むために利用されるカメラ(複数の場合もある)の光学特性のうちの1つ又は組み合わせを同時に解く問題と定義することができる。
一実施の形態において、バンドル調整は、観測される画像点及び予測される画像点の画像場所間の再投影誤差を最小化することを含み、再投影誤差は、多数の非線形実数値関数の二乗和として表される。このようにして、最小化は非線形最小二乗法を用いて達成される。例えば、一実施の形態は、実施するのが容易であること、及び広範な初期推測から迅速に収束する能力を与える実効的な減衰方式を使用することに起因して、レーベンバーグ・マーカート最適化を使用する。現在の推定値の近傍において最小化されるように関数を繰り返し線形化することによって、レーベンバーグ・マーカート法は、正規方程式と呼ばれる連立一次方程式を解くことを伴う。バンドル調整のフレームワークにおいて生じる最小化問題を解くとき、正規方程式は、異なる3D点及びカメラに関するパラメーター間の相互作用の欠如に起因して、疎なブロック構造を有する。正規方程式のゼロのパターンを明示的に利用し、ゼロ要素の記憶及び演算を回避する、レーベンバーグ・マーカートアルゴリズムの疎な変形形態を利用することによって、これを利用して計算に関する恩恵を受けることができる。
いくつかの実施の形態のVA−VSLAMは、シーン2640の3Dマップ又は3Dモデルを構成するために取り込まれる画像2615の数を削減することを目的とする。そのため、いくつかの実施の形態は、画像2615が相対的に離れた視点から取り込まれる必要があるという認識に基づく。そのようにして、少ない画像を用いて、シーンの複雑な部分を取り込むことができる。しかしながら、そのような手法は、姿勢追跡2620に根差している長基線長照合問題を引き起こす。具体的には、異なる視点から視認された同じランドマークの外観が著しく変化する可能性があるため、2つの離間した視野から観測されるランドマークがVSLAM照合プロセスによって見逃される可能性がある。
そのため、VA−VSLAMフレームワーク2600は、仮想フレーム又は画像2655の概念を適用し、上記で言及された限界に対処する仮想画像生成器2650を含む。VA−VSLAMは、既存の特徴照合方法において限界がある視点不変性に単に頼るのではなく、現実画像上で観測された特徴を仮想的に観測された画像上の特徴に明示的に変換する。
仮想フレーム生成器2650は、画像2615を変換して、仮想視点から視認されたシーンの仮想画像{V}2655を生成する。これらの仮想画像は、その後、視覚的SLAM2610に提示され、仮想特徴
Figure 2020500767
が抽出され、姿勢追跡器が位置特定ロバスト性及び精度を改善するのを助けるとともに、SLAMマップを
Figure 2020500767
として増補する。
図26Bは、いくつかの実施の形態による、仮想画像を用いて長基線長照合問題に対処する概略の一例を示す。この例では、画像2660、2670及び2690は、異なる姿勢を有するセンサーによって取り込まれた現実画像であり、すなわち、画像2660、2670及び2690は異なる視点を有する。画像2680は、仮想視点を有する仮想画像である。画像2660及び2670の視点は互いに相対的に近い。そのため、画像2660及び2670は、そのシーン内の同じ特徴に対応するランドマーク2665及び2675を含み、すなわち、ランドマーク2665及び2675のピクセルは、そのシーン内の同じ点Pに対応し、類似の幾何学的形状及び/又は外観を有する。三角測量又は任意の他の適切な計算技法を用いて、そのシーン内の点Pの座標2625を計算することができる。しかしながら、点Pの座標を特定するために2つの画像のみが使用されるとき、そのような座標は不正確な場合がある。
また、画像2690は、そのシーン内に、ランドマーク2665及び2675と同じ点Pを表すランドマーク2695を含む。しかしながら、画像2690の視点は、画像2660及び2670の視点とは異なるので、ランドマーク2695は異なる外観を有し、ランドマーク2665及び2675と照合することはできない。しかしながら、仮想画像2680の視点は画像2690の視点に近く、ランドマーク2665及び2675と同じ点Pに対応するランドマーク2685は、ランドマーク2695に類似の外観を有し、ランドマーク2695と照合することができる。そのようにして、いくつかの実施の形態は、ランドマーク2665、2675及び2695がそのシーン内の同じ点Pに対応すると判断することができる。そのため、画像2690の姿勢を用いて、点Pの座標を点P’の座標2635に更新することができる。そのようにして、仮想画像を使用することにより、そのシーンのモデルの精度が高められる。
同様に、画像2670は、そのシーン内の点Qに対応するランドマーク2677を含む。また、画像2690は、そのシーン内に、ランドマーク2677と同じ点Qを表すランドマーク2697を含む。しかしながら、画像2690の視点は画像2670の視点とは異なるので、ランドマーク2697は異なる外観を有し、ランドマーク2677と照合することはできない。そのため、点Qの座標は未知であり、点Qはそのシーンのモデルに追加することはできない。
しかしながら、仮想画像2680の視点は画像2690の視点に近く、ランドマーク2677と同じ点Qに対応するランドマーク2687はランドマーク2697に類似の外観を有し、ランドマーク2697と照合することができる。そのようにして、いくつかの実施の形態は、ランドマーク2677及び2697がそのシーン内の同じ点Qに対応すると判断することができる。そのため、画像2690の姿勢を用いて、点Qの座標2645を特定することができ、点Qをそのシーンのモデルに追加することができる。そのようにして、仮想画像を使用することによって、仮想画像を使用しなければ必要であった画像より少ない画像で、そのシーンのモデルの密度が高められる。
図27は、いくつかの実施の形態による、仮想画像を用いて駐車スペースの3Dモデルを再構成するための方法のブロック図を示す。その方法は、1セットの画像2710からの画像を変換し(2720)、仮想視点から視認されたシーンの1セットの仮想画像2725を生成する。1セット2710及び2725のサイズは同じとすることができるか、又は異なることができる。一実施の形態において、仮想画像は、1セット2710からの現実画像が互いに照合するのに失敗するときに必要に応じて生成される。それに加えて、又はその代わりに、仮想画像は先を見越して生成することができる。
次に、その方法は、画像2710及び仮想画像2725からの少なくともいくつかの特徴を比較し(2730)、1セットの画像内の各画像の視点2735を特定し、そのシーンのモデル2745内の少なくとも1つの点の3D座標を更新し(2740)、2つの画像の視点に従って、その点に対応する少なくとも2つの画像のピクセルからの光線の逆投影法の交点の座標を照合する。例えば、異なる画像2710からの異なるピクセルが互いに照合されるので、いくつかの実施の形態は、ステレオ三角測量及び/又はシート光三角測量(sheet of light triangulation)を用いて、シーンの奥行を特定することができる。
本発明の上記で説明した実施の形態は、多数の方法のうちの任意のもので実施することができる。例えば、実施の形態は、ハードウェア、ソフトウェア又はそれらの組み合わせを用いて実施することができる。ソフトウェアで実施される場合、ソフトウェアコードは、単一のコンピューターに設けられるのか又は複数のコンピューター間に分散されるのかにかかわらず、任意の適したプロセッサ又はプロセッサの集合体において実行することができる。そのようなプロセッサは、1つ以上のプロセッサを集積回路部品に有する集積回路として実装することができる。ただし、プロセッサは、任意の適したフォーマットの回路類を用いて実装することができる。
また、本発明の実施の形態は、例が提供された方法として実施することができる。この方法の一部として実行される動作は、任意の適切な方法で順序付けすることができる。したがって、動作が示したものと異なる順序で実行される実施の形態を構築することができ、これには、例示の実施の形態では一連の動作として示されたにもかかわらず、いくつかの動作を同時に実行することを含めることもできる。
請求項の要素を修飾する、特許請求の範囲における「第1」、「第2」等の序数の使用は、それ自体で、1つの請求項の要素の別の請求項の要素に対する優先順位も、優位性も、順序も暗示するものでもなければ、方法の動作が実行される時間的な順序も暗示するものでもなく、請求項の要素を区別するために、単に、或る特定の名称を有する1つの請求項の要素を、同じ(序数の用語の使用を除く)名称を有する別の要素と区別するラベルとして用いられているにすぎない。
したがって、一実施の形態は、車両を駐車スペース内に駐車する方法を開示する。本方法は、メモリに動作可能に接続されるプロセッサと、駐車スペースの少なくとも一部の環境を示す画像を取り込む少なくとも1つのセンサーと、車両の運動を制御するコントローラーとを使用し、プロセッサは方法を実施する記憶された命令に結合され、命令は、プロセッサによって実行されるときに、方法の少なくともいくつかのステップを実行し、方法は、目標状態において終了する第1の駐車経路に従って車両の運動を制御することであって、車両の各状態は、車両の位置及び向きを含むことと、第1の駐車経路に沿った車両の運動中に駐車スペースの1セットの画像を取り込むことであって、1セットの画像内の各画像は、第1の駐車経路に沿った車両の状態によって規定される視点から取り込まれることと、1セットの画像を用いて駐車スペースのモデルを構成することと、第1の駐車経路の外部にある車両の状態を規定する少なくとも1つの仮想視点を含む、第1の駐車経路の外部にある1セットの仮想視点を選択することと、駐車スペースのモデルを用いて、1セットの仮想視点から視認されるような駐車スペースの環境の1セットの仮想画像を生成することと、車両が現在の状態にある間にセンサーによって取り込まれた駐車スペースの現在の画像を少なくとも1つの仮想画像と比較することによって、車両の現在の状態を特定することと、車両のモデルを用いて、現在の状態から目標状態への第2の駐車経路を決定することと、第2の駐車経路に従って車両の運動を制御することと、を含み、更に、前記1セットの画像及び前記1セットの仮想画像から1セットの特徴を抽出することと、前記メモリに前記1セットの特徴と、前記車両の照合された状態との各特徴のマッピングとを記憶することと、前記現在の画像から少なくとも1つの特徴を抽出することと、前記抽出された特徴との前記マッピングを探索し、前記車両の前記現在の状態を生成することと、を含む。
別の実施の形態は、駐車スペース内に車両を駐車するシステムを開示する。本システムは、車両のモデルを記憶するメモリと、駐車スペースの少なくとも一部の環境を示す情報を検知する少なくとも1つのセンサーと、目標状態において終了する第1の駐車経路及び第2の駐車経路を含む異なる軌道に従って車両の運動を制御するコントローラーであって、車両の各状態は車両の位置及び向きによって規定されるものと、少なくとも1つのプロセッサであって、第1の駐車経路に沿った車両の運動中に駐車スペースの環境の1セットの画像を取り込むことであって、それにより、1セットの画像内の各画像が第1の駐車経路に沿った車両の状態によって規定される視点から取り込まれることと、1セットの画像を用いて駐車スペースのモデルを構成することと、第1の駐車経路の外部にある車両の状態を規定する少なくとも1つの仮想視点を含む、第1の駐車経路の外部にある1セットの仮想視点を選択することと、駐車スペースのモデルを用いて、1セットの仮想視点から視認されるような駐車スペースの環境の1セットの仮想画像を生成することと、車両が現在の状態にある間にセンサーによって取り込まれた駐車スペースの現在の画像を少なくとも1つの仮想画像と比較することによって、車両の現在の状態を特定することと、車両のモデルを用いて、現在の状態から目標状態までの第2の駐車経路を決定することと、を行い、更に、前記1セットの画像及び前記1セットの仮想画像から1セットの特徴を抽出することと、前記1セットの特徴と、前記車両の照合された状態との各特徴のマッピングとをメモリに記憶することと、前記現在の画像から少なくとも1つの特徴を抽出することと、前記抽出された特徴との前記マッピングを探索し、前記車両の前記現在の状態を生成することと、を行うように構成されたものと、を備える。
更に別の実施の形態は、駐車スペース内に車両を駐車する方法を実行するためにプロセッサによって実行可能なプログラムを具現する非一時的コンピューター可読記憶媒体を開示する。本方法は、目標状態において終了する第1の駐車経路に従って車両の運動を制御することであって、車両の各状態は、車両の位置及び向きを含むことと、第1の駐車経路に沿った車両の運動中に駐車スペースの1セットの画像を取り込むことであって、1セットの画像内の各画像は、第1の駐車経路に沿った車両の状態によって規定される視点から取り込まれることと、1セットの画像を用いて駐車スペースのモデルを構成することと、第1の駐車経路の外部にある車両の状態を規定する少なくとも1つの仮想視点を含む、第1の駐車経路の外部にある1セットの仮想視点を選択することと、駐車スペースのモデルを用いて、1セットの仮想視点から視認されるような駐車スペースの環境の1セットの仮想画像を生成することと、車両が現在の状態にある間にセンサーによって取り込まれた駐車スペースの現在の画像を少なくとも1つの仮想画像と比較することによって、車両の現在の状態を特定することと、車両のモデルを用いて、現在の状態から目標状態への第2の駐車経路を決定することと、第2の駐車経路に従って車両の運動を制御することとを含み、更に前記1セットの画像及び前記1セットの仮想画像から1セットの特徴を抽出することと、前記メモリに前記1セットの特徴と、前記車両の照合された状態との各特徴のマッピングとを記憶することと、前記現在の画像から少なくとも1つの特徴を抽出することと、前記抽出された特徴との前記マッピングを探索し、前記車両の前記現在の状態を生成することと、を含む。
図9Aは、いくつかの実施の形態による、自動パーキングのために適したシステム100のブロック図を示す。システム100は、汎用プロセッサ161及びメモリ164を含むことができる。それに加えて、又はその代わりに、システム100は、画像プロセッサ166、姿勢プロセッサ168及び仮想画像プロセッサ167等の専用プロセッサを含むことができる。また、システム100は、1つ以上のバス177に結合される複数のセンサーと、プロセッサ161、166、167及び168のうちの少なくとも1つに更に結合される信号線とを含むことができる。システム100は、車両101の一部とすることができ、自動パーキングシステム106の機能を実施するために使用することができる。
1つ以上の例示的な実施の形態において、上記の機能又はモジュールは、制御ユニット160のハードウェア(例えば、ハードウェア162)、ソフトウェア(例えば、ソフトウェア165)、ファームウェア(例えば、ファームウェア163)又はその任意の組み合わせにおいて実現することができる。コンピュータープログラム製品としてソフトウェアにおいて実現される場合には、機能又はモジュールは、1つ以上の命令又はコードとして、非一時的コンピューター可読媒体上に記憶することができるか、又は非一時的コンピューター可読媒体を介して送信することができる。コンピューター可読媒体は、或る場所から別の場所へのコンピュータープログラムの転送を容易にする任意の媒体を含む、コンピューター記憶媒体及び通信媒体の両方を含むことができる。記憶媒体は、コンピューターによってアクセス可能である任意の市販の媒体とすることができる。一例であって、限定はしないが、そのような非一時的コンピューター可読媒体は、RAM、ROM、EEPROM、CD−ROM若しくは他の光ディスク記憶装置、磁気ディスク記憶装置若しくは他の磁気記憶デバイス、又は命令若しくはデータ構造の形で所望のプログラムコードを搬送又は記憶するために使用することができ、コンピューターによってアクセス可能である任意の他の媒体を含むことができる。
目標状態選択ブロック202が、駐車場候補を識別することによって、車両を駐車する駐車位置に関する目標状態を選択し、目標状態を運動計画ブロック203に送信する。一実施の形態において、利用可能な駐車位置は、駐車場ビルの管理に関連付けられる別のシステムによって追跡される。それに加えて、又はその代わりに、駐車位置は、自動パーキングシステムのセンサー121,124を用いて検出することができる。運動計画203は、車両モデル210、車両の開始状態及び目標状態、並びに駐車スペースのマップに基づいて、駐車経路241を決定する完全な運動計画手順を開始する。一実施の形態において、駐車経路は、経時的な車両速度及びステアリング角のプロファイルを規定する。別の実施の形態において、駐車経路は、経時的な車両状態(x,y,θ)のプロファイルを規定する。
駐車経路241を与えられると、車両コントローラー及びアクチュエーター204が、駐車経路が状態プロファイルである場合には、車両状態が駐車経路241を追跡するように強制し、駐車経路が車両速度及びステアリング角プロファイルである場合には、車両速度及びステアリング角が駐車経路を追跡するように強制する制御コマンドを決定し、実行する。一実施の形態において、制御コマンドはアクセルペダル圧又はステアリングトルクとすることができる。また、車両コントローラー/アクチュエーターは、信号243を用いて、制御コマンドを決定することができる。信号243は、測定されたステアリング角、又はハンドル若しくはアクセルペダルを動かすモーターの測定された電流とすることができる。

Claims (20)

  1. 車両を駐車スペース内に駐車する方法であって、前記方法は、メモリに動作可能に接続されるプロセッサと、前記駐車スペースの少なくとも一部の環境を示す画像を取り込む少なくとも1つのセンサーと、前記車両の運動を制御するコントローラーとを使用し、前記プロセッサは前記方法を実施する記憶された命令に結合され、前記命令は、前記プロセッサによって実行されるときに、前記方法の少なくともいくつかのステップを実行し、前記方法は、
    目標状態において終了する第1の駐車経路に従って前記車両の運動を制御することであって、前記車両の各状態は、前記車両の位置及び向きを含むことと、
    前記第1の駐車経路に沿った前記車両の前記運動中に前記駐車スペースの1セットの画像を取り込むことであって、前記1セットの画像内の各画像は、前記第1の駐車経路に沿った前記車両の状態によって規定される視点から取り込まれることと、
    前記1セットの画像を用いて前記駐車スペースのモデルを構成することと、
    前記第1の駐車経路の外部にある前記車両の状態を規定する少なくとも1つの仮想視点を含む、前記第1の駐車経路の外部にある1セットの仮想視点を選択することと、
    前記駐車スペースの前記モデルを用いて、前記1セットの仮想視点から視認されるような前記駐車スペースの前記環境の1セットの仮想画像を生成することと、
    前記車両が現在の状態にある間に前記センサーによって取り込まれた前記駐車スペースの現在の画像を少なくとも1つの仮想画像と比較することによって、前記車両の前記現在の状態を特定することと、
    前記現在の状態から前記目標状態への第2の駐車経路を決定することと、
    前記第2の駐車経路に従って前記車両の前記運動を制御することと、
    を含む、方法。
  2. 前記選択することは、
    ディスプレイデバイス上に前記駐車スペースの前記モデルの表現をレンダリングすることと、
    前記レンダリングすることに応答して、前記駐車の方向の選択を受信することと、
    前記選択された方向から前記目標状態に接近する前記第2の駐車経路を決定することと、
    前記第2の駐車経路上の前記1セットの仮想視点を決定することと、
    を含む、請求項1に記載の方法。
  3. 前記駐車スペースの前記モデルの前記表現は、前記駐車スペースの上方から見た画像である、請求項2に記載の方法。
  4. 前記選択することは、
    前記駐車スペースの前記モデルの分割手法を用いて、障害物のない前記駐車スペースの部分を検出することと、
    前記駐車スペースの前記部分をサンプリングし、1セットのサンプリングされた状態を生成することと、
    前記1セットのサンプリングされた状態から前記1セットの仮想視点を選択することと、
    を含む、請求項1に記載の方法。
  5. 前記メモリ内に記憶された前記車両のモデルを用いて、サンプリングされた状態からの前記目標状態の到達可能性を試験することと、
    前記サンプリングされた状態から前記目標状態が到達可能である場合には、前記サンプリングされた状態に対応する仮想視点を前記1セットの仮想視点に追加することと、
    を更に含む、請求項1に記載の方法。
  6. 前記1セットの視点に対応する1セットのシードから、エッジと接続される複数のノードを有するグラフを成長させることであって、各ノードは前記車両の前記状態を規定し、2つのノードを接続する各エッジは、前記2つのノード間の無衝突経路を規定することと、
    前記グラフの少なくともいくつかのノードに対応する前記1セットの仮想視点を選択することと、
    を更に含む、請求項1に記載の方法。
  7. 前記駐車スペースの状態空間内の状態をサンプリングし、サンプリングされた状態を生成することと、
    前記サンプリングされた状態に最も近い状態を有する、前記グラフの最近隣ノードを特定することと、
    前記サンプリングされた状態のためのノードを前記グラフに追加し、前記エッジが無衝突である場合には、前記追加されたノードを、エッジを介して前記最近隣ノードに接続することと、
    を更に含む、請求項6に記載の方法。
  8. ディスプレイデバイス上に前記駐車スペースの前記モデルの表現をレンダリングすることと、
    前記レンダリングすることに応答して、前記駐車の方向の選択を受信することと、
    前記グラフの前記ノード及びエッジのうちの少なくともいくつかを通って、前記選択された方向から前記目標状態に接近する前記第2の駐車経路を決定することと、
    前記第2の駐車経路上の前記1セットの仮想視点を決定することと、
    を更に含む、請求項6に記載の方法。
  9. 前記仮想視点は、前記1セットの画像からの少なくとも1つの画像をワーピングすること、シーンの前記モデルを前記仮想視点に投影すること、及び平面誘発ホモグラフィのうちの1つ又は組み合わせを用いて生成される、請求項1に記載の方法。
  10. 前記1セットの画像及び前記1セットの仮想画像から1セットの特徴を抽出することと、
    前記メモリに前記1セットの特徴と、前記車両の照合された状態との各特徴のマッピングとを記憶することと、
    前記現在の画像から少なくとも1つの特徴を抽出することと、
    前記抽出された特徴との前記マッピングを探索し、前記車両の前記現在の状態を生成することと、
    を更に含む、請求項1に記載の方法。
  11. 前記画像及び前記仮想画像からの少なくともいくつかの特徴を比較し、前記1セットの画像内の各画像の前記視点を決定することと、
    前記駐車スペースの前記モデル内の少なくとも1つの点の3D座標を更新し、少なくとも2つの画像の前記視点に従って、前記点に対応する前記2つの画像のピクセルからの光線逆投影の交点の座標を照合することと、
    を更に含む、請求項1に記載の方法。
  12. 前記1セットの画像は第1の視点を規定する第1の姿勢において前記センサーによって視認されるシーンの第1の画像と、第2の視点を規定する第2の姿勢において前記センサーによって視認される前記シーンの第2の画像とを含み、前記方法は、
    前記第1の画像を変換して、前記第1の視点とは異なる仮想視点に対応する第1の仮想画像を生成することであって、前記変換することは、前記シーンの同じ点を表すために、前記第1の画像及び前記仮想画像の少なくともいくつかのピクセル間の対応を保持することと、
    前記第2の画像のうちの少なくともいくつかの特徴を前記仮想画像のうちの少なくともいくつかの特徴と比較し、前記第2の画像、前記仮想画像及び前記第1の画像の少なくともいくつかのピクセル間の対応を特定することと、
    前記第2の画像からのピクセルのサブセットの座標と、前記第1の画像からのピクセルのサブセットに対応する前記シーンの点の座標とに基づいて、前記第1の画像及び前記第2の画像からの前記対応するピクセルのサブセットを用いて、前記第1の画像の前記第1の視点に対する前記第2の画像の前記第2の視点を決定することと、
    前記第1の画像及び前記第2の画像内の対応するピクセルのバンドル調整を用いて、前記駐車スペースの前記モデル内の前記点の3D座標を更新することと、
    を含む、請求項11に記載の方法。
  13. 駐車スペース内に車両を駐車するシステムであって、
    前記駐車スペースの少なくとも一部の環境を示す情報を検知する少なくとも1つのセンサーと、
    目標状態において終了する第1の駐車経路及び第2の駐車経路を含む異なる軌道に従って前記車両の運動を制御するコントローラーであって、前記車両の各状態は前記車両の位置及び向きによって規定されるものと、
    少なくとも1つのプロセッサであって、
    前記第1の駐車経路に沿った前記車両の前記運動中に前記駐車スペースの環境の1セットの画像を取り込むことであって、それにより、前記1セットの画像内の各画像が前記第1の駐車経路に沿った前記車両の状態によって規定される視点から取り込まれることと、
    前記1セットの画像を用いて前記駐車スペースのモデルを構成することと、
    前記第1の駐車経路の外部にある前記車両の状態を規定する少なくとも1つの仮想視点を含む、前記第1の駐車経路の外部にある1セットの仮想視点を選択することと、
    前記駐車スペースの前記モデルを用いて、前記1セットの仮想視点から視認されるような前記駐車スペースの前記環境の1セットの仮想画像を生成することと、
    前記車両が現在の状態にある間に前記センサーによって取り込まれた前記駐車スペースの現在の画像を少なくとも1つの仮想画像と比較することによって、前記車両の前記現在の状態を特定することと、
    前記車両の前記モデルを用いて、前記現在の状態から前記目標状態までの前記第2の駐車経路を決定することと、
    を行うように構成されるものと、
    を備える、システム。
  14. 前記駐車スペースの前記モデルの表現をレンダリングし、前記駐車スペースの方向の選択を受信するためのディスプレイデバイスを更に備え、前記プロセッサは、前記選択された方向から前記目標状態に接近する前記第2の駐車経路を決定し、前記第2の駐車経路上の前記1セットの仮想視点を決定するように更に構成される、請求項13に記載のシステム。
  15. 前記駐車スペースの前記モデルの前記表現は前記駐車スペースの上方から見た画像である、請求項14に記載のシステム。
  16. 前記プロセッサは、
    前記1セットの視点に対応する1セットのシードから、エッジと接続される複数のノードを有するグラフを成長させることであって、各ノードは前記車両の前記状態を規定し、2つのノードを接続する各エッジは前記2つのノード間の無衝突経路を規定することと、
    前記グラフの前記ノード及びエッジのうちの少なくともいくつかを通って、前記選択された方向から前記目標状態に接近する前記第2の駐車経路を決定することと、
    前記第2の駐車経路上の前記1セットの仮想視点を決定することと、
    を含む、請求項14に記載のシステム。
  17. 前記仮想画像は、前記1セットの画像からの少なくとも1つの画像をワーピングすること、前記駐車スペースの前記モデルを前記仮想視点に投影すること、及び平面誘発ホモグラフィのうちの1つ又は組み合わせを用いて生成される、請求項13に記載のシステム。
  18. 前記プロセッサは、
    前記1セットの画像及び前記1セットの仮想画像から1セット特徴を抽出することと、
    前記1セットの特徴と、前記車両の照合された状態との各特徴のマッピングとをメモリに記憶することと、
    前記現在の画像から少なくとも1つの特徴を抽出することと、
    前記抽出された特徴との前記マッピングを探索し、前記車両の前記現在の状態を生成することと、
    を行うように構成される、請求項13に記載のシステム。
  19. 前記プロセッサは、
    前記画像及び前記仮想画像からの少なくともいくつかの特徴を比較し、前記1セットの画像内の各画像の前記視点を決定することと、
    前記駐車スペースの前記モデル内の少なくとも1つの点の3D座標を更新し、少なくとも2つの画像の前記視点に従って、前記点に対応する前記2つの画像のピクセルからの光線逆投影の交点の座標を照合することと、
    を行うように構成される、請求項13に記載のシステム。
  20. 駐車スペース内に車両を駐車する方法を実行するためにプロセッサによって実行可能なプログラムを具現する非一時的コンピューター可読記憶媒体であって、前記方法は、
    目標状態において終了する第1の駐車経路に従って前記車両の運動を制御することであって、前記車両の各状態は、前記車両の位置及び向きを含むことと、
    前記第1の駐車経路に沿った前記車両の前記運動中に前記駐車スペースの1セットの画像を取り込むことであって、前記1セットの画像内の各画像は、前記第1の駐車経路に沿った前記車両の状態によって規定される視点から取り込まれることと、
    前記1セットの画像を用いて前記駐車スペースのモデルを構成することと、
    前記第1の駐車経路の外部にある前記車両の状態を規定する少なくとも1つの仮想視点を含む、前記第1の駐車経路の外部にある1セットの仮想視点を選択することと、
    前記駐車スペースの前記モデルを用いて、前記1セットの仮想視点から視認されるような前記駐車スペースの環境の1セットの仮想画像を生成することと、
    前記車両が現在の状態にある間にセンサーによって取り込まれた前記駐車スペースの現在の画像を少なくとも1つの仮想画像と比較することによって、前記車両の前記現在の状態を特定することと、
    前記現在の状態から前記目標状態への第2の駐車経路を決定することと、
    前記第2の駐車経路に従って前記車両の前記運動を制御することと、
    を含む、非一時的コンピューター可読記憶媒体。
JP2019528592A 2017-02-28 2018-01-19 車両自動パーキングシステム及び方法 Active JP6896077B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/444,583 2017-02-28
US15/444,583 US10268201B2 (en) 2017-02-28 2017-02-28 Vehicle automated parking system and method
PCT/JP2018/002602 WO2018159177A1 (en) 2017-02-28 2018-01-19 Vehicle automated parking system and method

Publications (2)

Publication Number Publication Date
JP2020500767A true JP2020500767A (ja) 2020-01-16
JP6896077B2 JP6896077B2 (ja) 2021-06-30

Family

ID=61258577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019528592A Active JP6896077B2 (ja) 2017-02-28 2018-01-19 車両自動パーキングシステム及び方法

Country Status (5)

Country Link
US (1) US10268201B2 (ja)
JP (1) JP6896077B2 (ja)
CN (1) CN110312912B (ja)
DE (1) DE112018001056T5 (ja)
WO (1) WO2018159177A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220155496A (ko) * 2021-05-14 2022-11-23 주식회사 넥스트칩 차량의 운행 정보와 관련된 그래픽 객체 출력 방법 및 장치
WO2023175988A1 (ja) * 2022-03-18 2023-09-21 株式会社ソシオネクスト 画像処理装置、画像処理方法、及び画像処理プログラム
JP7406654B2 (ja) 2020-04-20 2023-12-27 コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 実際の場所の仮想環境復元を作成するための方法

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7159057B2 (ja) * 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
KR20180099280A (ko) * 2017-02-28 2018-09-05 삼성전자주식회사 가상 차로 생성 장치 및 방법
US10606273B2 (en) * 2017-04-20 2020-03-31 Baidu Usa Llc System and method for trajectory re-planning of autonomous driving vehicles
WO2019019157A1 (en) * 2017-07-28 2019-01-31 Qualcomm Incorporated INITIALIZING IMAGE SENSOR IN A ROBOTIC VEHICLE
RU2736960C1 (ru) * 2017-08-10 2020-11-23 Ниссан Мотор Ко., Лтд. Способ управления парковкой и устройство управления парковкой
JP6504578B2 (ja) * 2017-09-05 2019-04-24 三菱電機株式会社 自動駐車装置
GB2567144B (en) * 2017-09-27 2019-11-13 Jaguar Land Rover Ltd Apparatus and method for localising a vehicle
US11062461B2 (en) * 2017-11-16 2021-07-13 Zoox, Inc. Pose determination from contact points
JP6984373B2 (ja) * 2017-12-07 2021-12-17 トヨタ自動車株式会社 駐車支援装置
US10652743B2 (en) 2017-12-21 2020-05-12 The Chamberlain Group, Inc. Security system for a moveable barrier operator
GB201802475D0 (en) * 2018-02-15 2018-04-04 Jaguar Land Rover Ltd Controller and vehicle
GB2573792B (en) * 2018-05-17 2022-11-09 Denso Corp Surround monitoring system for vehicles
US11074773B1 (en) * 2018-06-27 2021-07-27 The Chamberlain Group, Inc. Network-based control of movable barrier operators for autonomous vehicles
CA3107457A1 (en) 2018-08-01 2020-02-06 The Chamberlain Group, Inc. Movable barrier operator and transmitter pairing over a network
US10967851B2 (en) * 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
JP7212486B2 (ja) * 2018-09-26 2023-01-25 フォルシアクラリオン・エレクトロニクス株式会社 位置推定装置
CN109240301A (zh) * 2018-09-28 2019-01-18 北京奇虎科技有限公司 扫地机器人路线规划方法、装置及扫地机器人
KR20200046156A (ko) * 2018-10-16 2020-05-07 주식회사 만도 차량 제어 시스템 및 차량 제어 방법
US11215462B2 (en) * 2018-10-26 2022-01-04 Here Global B.V. Method, apparatus, and system for location correction based on feature point correspondence
DE102018130745A1 (de) * 2018-12-03 2020-06-04 Sick Ag Verfahren zur Steuerung eines autonomen Fahrzeugs
KR102559686B1 (ko) * 2018-12-17 2023-07-27 현대자동차주식회사 차량 및 차량 영상 제어방법
JP7190919B2 (ja) 2019-01-25 2022-12-16 株式会社ソニー・インタラクティブエンタテインメント 画像解析システム
CN110082779A (zh) * 2019-03-19 2019-08-02 同济大学 一种基于3d激光雷达的车辆位姿定位方法及系统
US11353878B2 (en) * 2019-03-26 2022-06-07 Baidu Usa Llc Soft-boundary based path optimization for complex scenes for autonomous driving vehicles
JP7135977B2 (ja) * 2019-03-29 2022-09-13 マツダ株式会社 車両用演算装置
US11220856B2 (en) 2019-04-03 2022-01-11 The Chamberlain Group Llc Movable barrier operator enhancement device and method
CN111791801B (zh) * 2019-04-04 2023-09-26 中科创达(重庆)汽车科技有限公司 实时校准动态倒车辅助线显示位置的方法、装置及电子设备
US11485353B2 (en) * 2019-04-30 2022-11-01 Baidu Usa Llc Segmenting a parking trajectory to control an autonomous driving vehicle to park
US10997810B2 (en) 2019-05-16 2021-05-04 The Chamberlain Group, Inc. In-vehicle transmitter training
CN110188689B (zh) * 2019-05-30 2022-11-29 重庆大学 基于真实场景建模的虚拟驾驶目标碰撞检测方法
CN110503597B (zh) * 2019-07-09 2023-05-16 浙江浩腾电子科技股份有限公司 一种基于2d结构模型的车辆视点规范化方法
DE102019211681B4 (de) * 2019-08-05 2021-07-15 Volkswagen Aktiengesellschaft Verfahren eines Fahrzeugs zum automatisierten Parken
EP4024318B1 (en) * 2019-08-29 2024-01-31 NISSAN MOTOR Co., Ltd. Parking assistance method and parking assistance device
CN112447058B (zh) * 2019-09-03 2022-09-06 比亚迪股份有限公司 泊车方法、装置、计算机设备及存储介质
DE102019214256B3 (de) * 2019-09-19 2021-03-18 Volkswagen Aktiengesellschaft Verfahren zur Unterstützung von Parkvorgängen von Fahrzeugen, Parkassistenzvorrichtung für eine Verwendung mit einem Fahrzeug, Steuer- und Rechenvorrichtung, Fahrzeug
JP7160014B2 (ja) * 2019-10-11 2022-10-25 トヨタ自動車株式会社 駐車支援装置
JP7256463B2 (ja) * 2019-10-11 2023-04-12 トヨタ自動車株式会社 車両駐車支援装置
JP7238722B2 (ja) * 2019-10-11 2023-03-14 トヨタ自動車株式会社 車両駐車支援装置
JP7226235B2 (ja) * 2019-10-11 2023-02-21 トヨタ自動車株式会社 車両駐車支援装置
CN110794970B (zh) * 2019-11-07 2023-08-25 广州小鹏汽车科技有限公司 一种自动泊车界面的三维显示方法、系统及车辆
US11034298B2 (en) * 2019-11-18 2021-06-15 Continental Automotive Systems, Inc. Vehicle surround view system for identifying unobservable regions while reversing a trailer
WO2021126090A1 (en) * 2019-12-18 2021-06-24 Moovita Pte Ltd Autonomous parking systems and methods for vehicles
CN111428616B (zh) * 2020-03-20 2023-05-23 东软睿驰汽车技术(沈阳)有限公司 一种车位检测方法、装置、设备及存储介质
CN111397623A (zh) * 2020-03-27 2020-07-10 湖南大学 一种基于最佳泊车起始点的路径规划方法
DE102020111659A1 (de) 2020-04-29 2021-11-04 Car.Software Estonia As Verfahren, System und Computerprogrammprodukt zur Bestimmung der Pose einer mobilen Einheit
CN111723659B (zh) * 2020-05-14 2024-01-09 上海欧菲智能车联科技有限公司 泊车位确定方法、装置、计算机设备和存储介质
CN111915672B (zh) * 2020-07-20 2022-08-16 中国汽车技术研究中心有限公司 一种基于3d虚拟驾驶场景的目标标注方法及设备
JP2022114526A (ja) 2021-01-27 2022-08-08 トヨタ自動車株式会社 駐車支援装置
CN116897121A (zh) * 2021-03-15 2023-10-17 日产自动车株式会社 信息处理装置和信息处理方法
CN113071478A (zh) * 2021-04-28 2021-07-06 中国第一汽车股份有限公司 一种自动泊车控制方法、自动泊车系统及车辆
CN113525357B (zh) * 2021-08-25 2022-12-09 吉林大学 自动泊车决策模型优化系统及方法
CN113753029B (zh) * 2021-08-27 2023-11-17 惠州华阳通用智慧车载系统开发有限公司 一种基于光流法的自动泊车方法及系统
US11794726B2 (en) * 2021-09-28 2023-10-24 Ford Global Technologies, Llc Systems and methods for virtual vehicle parking assistance background
DE102021212445A1 (de) * 2021-11-04 2023-05-04 Continental Autonomous Mobility Germany GmbH Verfahren und System zum Festlegen der Position und Ausrichtung einer virtuellen Kamera eines Umfeldbeobachtungssystems
CN114461061B (zh) * 2022-01-05 2023-12-15 东风柳州汽车有限公司 车辆展示方法、装置、设备及存储介质
CN114863096B (zh) * 2022-04-02 2024-04-16 合众新能源汽车股份有限公司 室内停车场的语义地图构建及定位方法和装置
TWI817594B (zh) * 2022-07-04 2023-10-01 鴻海精密工業股份有限公司 圖像深度識別方法、電腦設備及儲存介質

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012056534A (ja) * 2010-09-13 2012-03-22 Aisin Seiki Co Ltd 駐車支援装置
JP2013530867A (ja) * 2010-06-09 2013-08-01 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 駐車スペースへの駐車時における自動車運転者支援方法、運転者支援装置、および自動車
US20160165215A1 (en) * 2014-12-04 2016-06-09 Futurewei Technologies Inc. System and method for generalized view morphing over a multi-camera mesh

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366595B1 (en) 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
US7737866B2 (en) 2007-09-27 2010-06-15 Automotive Research & Testing Center Auto-parking device
DE102007055391A1 (de) 2007-11-20 2009-05-28 Valeo Schalter Und Sensoren Gmbh Verfahren und Vorrichtung zur Bahnplanung beim Einparken eines Fahrzeugs
US8095273B2 (en) * 2009-10-14 2012-01-10 GM Global Technology Operations LLC Autonomous parking strategy of the vehicle with rear steer
JP5618139B2 (ja) 2010-09-21 2014-11-05 アイシン精機株式会社 駐車支援装置
CN101976460B (zh) * 2010-10-18 2012-02-22 无锡维森智能传感技术有限公司 车载多目摄像机环视系统的虚拟视点图像生成方法
KR101265711B1 (ko) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
US8862321B2 (en) 2012-08-15 2014-10-14 GM Global Technology Operations LLC Directing vehicle into feasible region for autonomous and semi-autonomous parking
KR102062923B1 (ko) * 2013-06-12 2020-01-06 현대모비스 주식회사 주차지원시스템
CN104837000B (zh) * 2015-04-17 2017-03-15 东南大学 一种利用轮廓感知的虚拟视点合成方法
CN105015419B (zh) * 2015-07-17 2017-09-22 中山大学 基于立体视觉定位与建图的自动泊车方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013530867A (ja) * 2010-06-09 2013-08-01 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 駐車スペースへの駐車時における自動車運転者支援方法、運転者支援装置、および自動車
JP2012056534A (ja) * 2010-09-13 2012-03-22 Aisin Seiki Co Ltd 駐車支援装置
US20160165215A1 (en) * 2014-12-04 2016-06-09 Futurewei Technologies Inc. System and method for generalized view morphing over a multi-camera mesh

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7406654B2 (ja) 2020-04-20 2023-12-27 コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 実際の場所の仮想環境復元を作成するための方法
KR20220155496A (ko) * 2021-05-14 2022-11-23 주식회사 넥스트칩 차량의 운행 정보와 관련된 그래픽 객체 출력 방법 및 장치
KR102529835B1 (ko) 2021-05-14 2023-05-08 주식회사 넥스트칩 차량의 운행 정보와 관련된 그래픽 객체 출력 방법 및 장치
WO2023175988A1 (ja) * 2022-03-18 2023-09-21 株式会社ソシオネクスト 画像処理装置、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
CN110312912A (zh) 2019-10-08
JP6896077B2 (ja) 2021-06-30
DE112018001056T5 (de) 2019-11-07
WO2018159177A8 (en) 2019-07-25
US20180246515A1 (en) 2018-08-30
CN110312912B (zh) 2023-07-21
WO2018159177A1 (en) 2018-09-07
US10268201B2 (en) 2019-04-23

Similar Documents

Publication Publication Date Title
JP6896077B2 (ja) 車両自動パーキングシステム及び方法
US11530924B2 (en) Apparatus and method for updating high definition map for autonomous driving
US10096129B2 (en) Three-dimensional mapping of an environment
CN108051002B (zh) 基于惯性测量辅助视觉的运输车空间定位方法及系统
US11417017B2 (en) Camera-only-localization in sparse 3D mapped environments
CN110497901A (zh) 一种基于机器人vslam技术的泊车位自动搜索方法和系统
CN110582798A (zh) 用于虚拟增强视觉同时定位和地图构建的系统和方法
CN110386142A (zh) 用于自动驾驶车辆的俯仰角校准方法
CN109300143B (zh) 运动向量场的确定方法、装置、设备、存储介质和车辆
CN111263960B (zh) 用于更新高清晰度地图的设备和方法
KR102092392B1 (ko) 실 공간에서 관심지점 관련 정보를 자동으로 수집 및 업데이트하는 방법 및 시스템
CN102087530A (zh) 基于手绘地图和路径的移动机器人视觉导航方法
KR102006291B1 (ko) 전자 장치의 이동체 포즈 추정 방법
WO2021021862A1 (en) Mapping and localization system for autonomous vehicles
KR101880185B1 (ko) 이동체 포즈 추정을 위한 전자 장치 및 그의 이동체 포즈 추정 방법
KR102096926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
CN110260866A (zh) 一种基于视觉传感器的机器人定位与避障方法
CN111862673A (zh) 基于顶视图的停车场车辆自定位及地图构建方法
CN111105695B (zh) 地图制作方法、装置、电子设备及计算机可读存储介质
CN111679664A (zh) 基于深度相机的三维地图构建方法及扫地机器人
KR20200037168A (ko) 관심 영역 변화를 검출하는 방법 및 시스템
KR102106029B1 (ko) 간판 검출 성능 향상을 위한 방법 및 시스템
Tsukiyama Global navigation system with RFID tags
Birk et al. Simultaneous localization and mapping (SLAM)
Lakshan Blind navigation in outdoor environments: Head and torso level thin-structure based obstacle detection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210608

R150 Certificate of patent or registration of utility model

Ref document number: 6896077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150