JP2021508027A - 不十分な照明条件下で車両を測位するシステムおよび方法 - Google Patents
不十分な照明条件下で車両を測位するシステムおよび方法 Download PDFInfo
- Publication number
- JP2021508027A JP2021508027A JP2018566536A JP2018566536A JP2021508027A JP 2021508027 A JP2021508027 A JP 2021508027A JP 2018566536 A JP2018566536 A JP 2018566536A JP 2018566536 A JP2018566536 A JP 2018566536A JP 2021508027 A JP2021508027 A JP 2021508027A
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- cloud data
- vehicle
- image
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000005286 illumination Methods 0.000 claims abstract description 24
- 238000004891 communication Methods 0.000 claims abstract description 17
- 238000003384 imaging method Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 abstract description 5
- 238000012937 correction Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 230000009466 transformation Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 7
- 238000004088 simulation Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 229910052721 tungsten Inorganic materials 0.000 description 2
- 239000010937 tungsten Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- WFKWXMTUELFFGS-UHFFFAOYSA-N tungsten Chemical compound [W] WFKWXMTUELFFGS-UHFFFAOYSA-N 0.000 description 1
- -1 tungsten halogen Chemical class 0.000 description 1
Images
Classifications
-
- G06T5/94—
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/027—Parking aids, e.g. instruction means
- B62D15/0285—Parking performed automatically
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Abstract
本開示の実施形態は、車両を測位する方法およびシステムを提供する。システムは、少なくとも1つのセンサによって第1の照明条件下で捕捉されたシーンに関する点群データのセットを受信するよう構成された通信インターフェースを含んでもよい。システムはさらに、点群データのセットを記憶するよう構成されたストレージ、およびプロセッサを含んでもよい。プロセッサは、点群データのセットに基づき少なくとも1つの局所光源を識別し、第2の照明条件に対応する少なくとも1つの局所光源からのシミュレーションされた光に基づいて点群データのセットを修正し、修正された点群データのセットに基づいて第2の照明条件下で車両を測位するよう構成されてもよい。【選択図】図8
Description
本開示は、不十分な照明条件下(under poor lighting conditions)で車両を測位する(positioning)システムおよび方法に関し、特に、局所光源から計算されたシェーディングを用いて修正された再構築シーンからシミュレーションされる暗いシーンを使用して、不十分な照明条件下で車両を測位するシステムおよび方法に関する。
自律運転は、年を追うごとにますます人気のある技術となってきた。人の入力なしに自動運転(self-driving)できる車両はそれの運転手を自由にし、運転手は代わりに、車内に座っている間別の事に集中できる。人間の運転手と同じように、自律運転車両は、どの方向に向かうべきなのか判断でき安全でない道路条件、ならびに人間または別の車両のような接近しつつあるオブジェクトなど周囲の危険を回避する準備をできるように、所与の環境の中のどこに自律運転車両があるのかを知る必要がある。したがって、人間による運転と比較して少なくとも同じレベルの安全性を自律運転に対して維持するために、車両に対する運転手の注意の低下が、高度な技術により補償されなければならない。
そのような高度な技術の1つがコンピュータビジョンである。コンピュータビジョン技術は、自律運転の文脈において車両を測位するために、デジタル画像を獲得、処理、分析、および理解する。自動運転車両は、その周りの情報を取得するために様々なセンサ、検出器、および他のデバイスを装備していることが多い。そのようなセンサおよびデバイスの例は、3−Dカメラ、LiDARスキャナ、グローバルポジショニングシステム(GPS:global positioning system)受信機、および慣性測定ユニット(IMU:inertial measurement unit)センサを含む。それらは、周囲のオブジェクトおよび車両が走行している道路の特徴を捕捉する。捕捉される特徴は、例として、レーンの中央線または境界線座標、例えば建物、別の車両、ランドマーク、歩行者、または交通標識などのオブジェクトの座標および画像を含んでもよい。これらの特徴をデジタルデータへと変換した後、当該データをそれの空間位置の計算に統合することにより、自律運転車両は、運転手が車の運転をしているかのように自律運転車両がその道路上のどこにいるかを「知る」ことができる。
既存の画像ベースの測位法は、昼間など、十分な輝度および可視性を伴う環境を必要とする。夜間など、不十分な照明条件下で運転する車両の場合、こうしたアルゴリズムは、満足のゆく性能結果を示さない。これは、一つには、同じシーンの外観が昼間と夜間とで大きく異なるからである。自然照光(natural illumination)は日没後にはなくなり、暗さによって、シーンの画像化センサ(imaging sensor)および検出器による認識可能性が低下する。さらに、広告板および街灯など、固定位置の局所光の追加が、車両の空間測位および他のオブジェクトの位置の計算をさらに複雑化する不自然な光成分をもたらす。これらは、センサおよび検出器により取得される画像に、より大きなノイズおよび色の歪みを生じさせて、結果として、自律運転システムによる測位の信頼性を低下させるかもしれない。これは究極的にはそのような自律運転システムを実装する車両の安全性を危うくする。
したがって、上記の問題に対処するために、本願明細書に記載されるものなど、不十分な照明条件下で車両を測位するシステムおよび方法に対するニーズがある。
本開示の実施形態は、車両を測位するシステムを提供する。システムは、少なくとも1つのセンサによって第1の照明条件下で捕捉されたシーンに関する点群データ(point cloud data)のセットを受信するよう構成された通信インターフェースを含んでもよい。システムはさらに、点群データのセットを記憶するよう構成されたストレージ、およびプロセッサを含んでもよい。プロセッサは、点群データのセットに基づき少なくとも1つの局所光源を識別し、第2の照明条件に対応する少なくとも1つの局所光源からのシミュレーションされた光に基づいて点群データのセットを修正し、修正された点群データのセットに基づいて第2の照明条件下で車両を測位するよう構成されてもよい。
本開示の実施形態は、車両を測位する方法も提供する。本方法は、少なくとも1つのセンサによって第1の照明条件下で捕捉されたシーンに関する点群データのセットを受信することを含んでもよい。本方法はさらに、点群データのセットに基づき少なくとも1つの局所光源を識別することと、第2の照明条件に対応する少なくとも1つの局所光源からのシミュレーションされた光に基づいて点群データのセットを修正することと、修正された点群データのセットに基づいて第2の照明条件下で車両を測位することとを含んでもよい。
本開示の実施形態は、1つ以上のプロセッサにより実行されると1つ以上のプロセッサに動作を実行させる命令が記憶された非一時的コンピュータ可読媒体をさらに提供する。動作は、少なくとも1つのセンサによって第1の照明条件下で捕捉されたシーンに関する点群データのセットを受信することを含んでもよい。動作はさらに、点群データのセットに基づき少なくとも1つの局所光源を識別することと、第2の照明条件に対応する少なくとも1つの局所光源からのシミュレーションされた光に基づいて点群データのセットを修正することと、修正された点群データのセットに基づいて第2の照明条件下で車両を測位することとを含んでもよい。
当然のことながら、前述した概略の説明および以下の詳細な説明はいずれも例示的および説明的なものでしかなく、特許請求される本発明を制限するものではない。
以下、例示的な実施形態を詳しく参照する。例示的な実施形態の例は、添付の図面に示されている。可能な場合は常に、同じまたは類似の部分を指すために各図面にわたって同じ参照番号が使用される。
図1は、本開示の実施形態による、システム内の複数のセンサ140、150、および160を有する例示的な車両100の概略図を示す。一部の実施形態に従い、車両100は、高精細度のマップを構築するため、または3次元(3−D:three dimentional)都市モデリングのためのデータを獲得するために構成された調査車両であってもよい。車両100は、電気車両、燃料電池車両、ハイブリッド車両、または従来型の内燃機関車両とされ得ることが意図される。車両100は、車体110および少なくとも1つの車輪120を有してもよい。車体110は、おもちゃの車、オートバイ、スポーツ車両、クーペ、コンバーチブル、セダン、ピックアップトラック、ステーションワゴン、スポーツユーティリティビークル(SUV:sports utility vehicle)、ミニバン、コンバージョンバン、多目的車(MPV:multi−purpose vehicle)、またはセミトレーラートラックなど、任意の車体スタイルとされ得る。一部の実施形態において、車両100は、図1に示されるように、一対の前輪および一対の後輪を含んでもよい。なお、車両100がより少ない車輪もしくはより多くの車輪を有すること、または車両100が動き回るのを可能にする等価な構造を有することもあり得ると意図されている。車両100は、全輪駆動(AWD:all wheel drive)、前輪駆動(FWR:front wheel drive)、または後輪駆動(RWD:rear wheel drive)であるように構成されてもよい。一部の実施形態において、車両100は、車両を占有しているオペレータにより操作され、遠隔制御され、さらに/または自律的であるように構成され得る。
図1に示されるように、車両100には、搭載構造130を介して車体110に搭載された様々なセンサ140および160が装備されてもよい。搭載構造130は、車両100の車体110に設置されまたはその他取り付けられた電気機械デバイスであってもよい。一部の実施形態において、搭載構造130は、ねじ、接着剤、または別の搭載機構を使用し得る。他の実施形態において、センサ140および160は、意図されたこれらのセンサの機能が実行される限り、車両100の車体110の表面上に設置されてもよく、または車両100の内部に組み込まれてもよい。
一部の実施形態に従い、センサ140および160は、車両100が軌道に沿って走行するときにデータを捕捉するよう構成されてもよい。例として、センサ140は、周囲をスキャンして点群を獲得するよう構成されたLiDARスキャナであってもよい。LiDARは、パルス状のレーザ光を用いて対象を照光して、反射パルスをセンサを用いて測定することで対象までの距離を測定する。次にレーザの戻り時間および波長の相違を使用して、対象のデジタル3−D表現を作成することができる。LiDARスキャンに使用される光は、紫外線、可視、または近赤外線とされ得る。幅の狭いレーザビームは、非常に高い解像度で物理的特徴をマッピングできるため、LiDARスキャナは高精細度のマップ調査に特に適している。一部の実施形態において、LiDARスキャナは点群を捕捉してもよい。車両100が軌道に沿って走行するとき、センサ140は絶えずデータを捕捉してもよい。特定のタイムスタンプにおいて捕捉されたシーンデータの各セットは、データフレームとして知られている。
図1に示されるように、車両100には、センサ150がさらに装備されてもよく、センサ150は、GPS受信機および1つ以上のIMUセンサなど、ナビゲーションユニットにおいて使用されるセンサであってもよい。センサ150の意図される機能が実行される限りは、センサ150は、車両100の車体110の内部に組み込まれること、その表面に設置されること、またはその外部に搭載されることができる。GPSは、地理位置情報および時刻情報をGPS受信機に提供するグローバルナビゲーション衛星システムである。IMUは、加速度計およびジャイロスコープ、時には磁力計もなど、様々な慣性センサを使用して、車両の具体的な力、角速度、および時には車両を囲む磁場を測定および提供する電子デバイスである。GPS受信機とIMUセンサとを組み合わせることにより、センサ150は、各タイムスタンプでの車両100の位置および向き(例えばオイラー角)を含め、車両100が走行するときのその車両のリアルタイムの姿勢情報(pose information)を提供することができる。
本開示に従い、車両100には、1つ以上のカメラなど、デジタル画像を捕捉するよう構成されたセンサ160がさらに装備されてもよい。一部の実施形態において、センサ160は、360度FOVを備えたパノラマカメラ、360度未満のFOVを備えたカメラ、または深度情報を捕捉する双眼カメラを含んでもよい。車両100が軌道に沿って移動するとき、センサ160によって、シーン(例えば車両100を囲むオブジェクトを含む)に関するデジタル画像を獲得できる。各画像は、画素によって表現される、捕捉されたシーンの中のオブジェクトのテキスト情報を含み得る。各画素は、デジタル画像中の色情報および座標に関連する、デジタル画像の最小の単一成分であってもよい。例として、色情報は、RGB色モデル、CMYK色モデル、YCbCr色モデル、YUV色モデル、またはその他任意の適切な色モデルにより表現され得る。各画素の座標は、デジタル画像の中の画素配列の行および列により表現され得る。一部の実施形態において、センサ160は、車両100上に、異なる位置に、さらに/または異なる角度で搭載された複数の単眼カメラを含んでもよく、したがって、変化する視点位置および/または角度を有してもよい。結果として、デジタル画像は、前方視点画像、側方視点画像、上方視点画像、および下方視点画像を含み得る。
図1にさらに示されている、車両100には、前照灯170および尾灯180など、それ自体の光源がさらに装備されてもよい。本願明細書に示されてはいないが、他の種類の車両光源は、側灯、前方霧灯、側方照射灯、赤外線光源、または他の種類の補助的な光源を含んでもよい。車両光源は、タングステン、タングステンハロゲン、LED、またはレーザなどの様々な照光材料を使用してもよい。前照灯170は、車両100の前部に取り付けられた1つ以上のランプを含み、その正面の道を照明する光ビームをもたらす。現代の車両は、一般に、異なる2種類の光ビーム、ロービームおよびハイビームを放射できる。ロービームは、前方および側方の照光に十分な光を提供する一方で、車両の方へ向かってくる運転手の目にまぶしい光が入るのを回避する。ハイビームは、中心部重点型の強烈な配光(intense, center-weighted distribution of light)を提供し、したがって、道路のはるかに遠い領域を照光するが、まぶしい光の制御は特になされない。尾灯180は、車両100の後部に取り付けられた1つ以上のランプを含む。例示的な尾灯180は、暗闇の中で、または車両が後退するときに光を放射し、したがって、車両100の後方を走行している運転手にそれの存在および動きを警告する。
一部の実施形態に従い、本開示は任意選択で、車両100に通信接続されたサーバ190を含んでもよい。一部の実施形態において、サーバ190は、ローカル物理サーバ、(図1に示されるように)クラウドサーバ、仮想サーバ、分散型サーバ、またはその他任意の適切なコンピューティングデバイスとされ得る。サーバ190は、ワイヤレスローカルエリアネットワーク(WLAN:Wireless Local Area Network)、ワイドエリアネットワーク(WAN:Wide Area Network)、電波などのワイヤレスネットワーク、ネーションワイド(nationwide)セルラネットワーク、衛星通信ネットワーク、および/またはローカルワイヤレスネットワーク(例えばBluetooth(登録商標)もしくはWiFi)などのネットワークを介してデータを車両100から受信し、データを車両100に送信してもよい。
この開示によるシステムは、第1の照明条件(例えば昼間)下で点群を捕捉し、第2の照明条件(例えば夜間)をシミュレーションすることにより点群を修正し、修正された点群を使用して第2の照明条件下で車両100を測位するよう構成されてもよい。図2は、センサ140、150、および160により捕捉された様々なデータに基づいて車両100を測位する例示的なシステム200のブロック図を示す。データは、センサ140(例えば、LiDARスキャナ)により捕捉された点群201、センサ150(例えば、GPS受信機および/または1つ以上のIMUセンサ)により獲得された車両100の軌道情報203、およびセンサ160(例えば、1つ以上の単眼カメラ)により捕捉された複数の画像205を含んでもよい。
一部の実施形態において、図2に示されるように、システム200は、通信インターフェース202、プロセッサ204、およびメモリ/ストレージ206を含んでもよい。システム200の1つ以上のコンポーネントは、車両100の内部に位置してもよく、または代わりにモバイルデバイス、クラウド、もしくは別の遠隔位置にあってもよい。システム200のコンポーネントは、統合デバイスの中にあってもよく、または別々の位置に分散されてもよいが、ネットワーク(図示せず)を介して相互に通信してもよい。通信インターフェース202は、ワイヤレスまたはケーブルネットワークを介して、センサ140、150、および160などのコンポーネントにデータを送信し、それらからデータを受信してもよい。一部の実施形態に従い、通信インターフェース202は、点群201、軌道情報203、ならびに画像205を含む、センサ140、150、および160により捕捉されたデータを受信して、受信されたデータを記憶のためメモリ/ストレージ206に、または処理のためプロセッサ204に提供してもよい。通信インターフェース202はさらに、プロセッサ204により生成された修正された点群を受信して、修正された点群を車両100の中の任意のローカルコンポーネントに、またはネットワークを介して任意の遠隔デバイスに提供してもよい。
メモリ/ストレージ206は、プロセッサ204が動作に必要とし得る任意の種類の情報を記憶するために提供される、任意の適切な種類の大容量ストレージを含んでもよい。メモリ/ストレージ206は、ROM、フラッシュメモリ、ダイナミックRAM、およびスタティックRAMを含むがこれらに限定されない、揮発性もしくは不揮発性、磁気、半導体、テープ、光学、リムーバブル、非リムーバブル、またはその他種類のストレージデバイスもしくは有形(すなわち、非一時的)コンピュータ可読媒体であってもよい。メモリ/ストレージ206は、本願明細書において開示された様々な機能を実行するためにプロセッサ204により実行され得る1つ以上のコンピュータプログラムを記憶するよう構成されてもよい。
プロセッサ204は、任意の適切な種類の汎用もしくは専用マイクロプロセッサ、デジタルシグナルプロセッサ、またはマイクロコントローラを含んでもよい。プロセッサ204は、1つ以上の特定の機能の実行専用の別個のプロセッサモジュールとして構成されてもよい。あるいはプロセッサ204は、1つ以上の特定の機能に関係のない他の機能を実行する共有プロセッサモジュールとして構成されてもよい。図2に示されるとおり、プロセッサ204は、局所光源識別ユニット210、点群修正ユニット212、画像推定ユニット214、車両測位ユニット216、および同様のものなどの複数のモジュールを含んでもよい。これらのモジュール(ならびに任意の対応するサブモジュールまたはサブユニット)は、他のコンポーネントとともに使用されるように、またはプログラムの一部を実行するために、設計されたプロセッサ204のハードウェアユニット(例えば、集積回路の一部)とすることができる。図2はユニット210、212、214、および216をすべて1つのプロセッサ204の中に示すが、これらのユニットは、互いに近くまたは遠くに位置する複数のプロセッサ間に分散され得ることが意図される。
局所光源識別ユニット210は、例えば街灯、広告板などの局所光源を点群201に基づいて識別するよう構成される。本開示に従い、点群201は、例えば昼間など、通常の照明条件下で捕捉される。一部の実施形態において、3−D点群201は、捕捉されたシーンのボクセル画像(voxel image)に変換されてもよい。ボクセル画像を使用して、光源が区分および識別されてもよい。局所光源は、車両100がセンサ140および160を用いて情報を獲得しながら軌道に沿って走行するときに検出されてもよい。局所光源が自然光に加えて照光を提供し、一般的に所定の場所に固定されている人工的で人為的な照明設備であるという点で、局所光源は自然光とは異なる。より詳細な例が、図3を参照して下記で説明される。
図3は、様々な種類の局所光源を備えた道路上を車両100が走行しているときの例を示す概略図を示す。局所光源の例は、街灯301、広告板302、および道路脇の建物303からの光を含む。前述のように、車両100には、シーンの画像および色点群を生成するために使用されるデータを捕捉するセンサ140および160が装備される。それに加えて、捕捉されたデータはさらに、図2に示されるように、通信インターフェース202を介して局所光源識別ユニット210に選択的に提供されてもよい。他の一部の実施形態において、通信インターフェース202は必要でなくてもよく、捕捉されたデータはユニット210に直接提供されてもよい。局所光源識別ユニット210は、色点群の形態でセンサにより捕捉された画像化データの中の様々なオブジェクトをシステムが自動的に認識できるようにするために、1つ以上のコンピュータプログラムを実行してもよい。オブジェクトの種類は、建物、木、茂み、信号機および交通標識、道路標示、および局所光源を含むが、これらに限定はされない。これらのオブジェクトは、メモリ/ストレージ206またはシステム内の他のストレージデバイスに記憶された、事前指定されたオブジェクトまたはオブジェクトクラスであってもよい。オブジェクトまたはオブジェクトクラスはさらに、反復訓練に基づいて学習可能である。例えばエッジマッチング、勾配マッチング(gradient matching)、解釈木(interpretation trees)などの既存のオブジェクト認識技術を、本開示に適用できる。あるいは、車両100のオペレータまたはオフラインアナリストは、車両100により捕捉された画像の中の局所光源を手動で選択してもよい。
点群修正ユニット212は、識別された局所光源からのシミュレーションされた光を使用して、点群201を修正するよう構成される。本開示に従い、点群修正ユニット212は、夜間など、環境に対する限られた照光で不十分な照明条件をシミュレーションする。車両100の走行している軌道に沿った様々な特徴をセンサが見分けるのに十分な明るさで環境全体を照光する日中とは異なる。一方、夜の間は、環境の一部のみを照光する限られた光源で環境は一般的に暗い。一部の実施形態において、点群修正ユニット212は、識別された光源からの投影される光をシミュレーションし、シーンの中の影および半影領域(shadow and semi-shadow areas)を計算する。より詳細な例が、図4Aおよび図4Bを参照して下記で説明される。
図4Aは、日中に捕捉されたシーンの例示的な3−D再構築を示す。一種類のみの局所光源である街灯401がシーン中に再構築され、例示目的のために図4Aに示されているが、他の種類の局所光源と交換可能に置き換えることができる。再構築されたシーンは、点群201のボクセル画像から取得されるが、これはプロセッサ204またはシステム内の他の適切なコンポーネントによって実行され得るプロセスである。その後、点群修正ユニットにおいて不十分な照明シーンがシミュレーションされ、これは図4Bにより例示されている。例として、点群修正ユニット212は、識別された局所光源の位置をカメラ位置として、光の方向をカメラの向きとして、光のコリメーション(light collimation)をカメラの視野として使用してもよい。そのようなカメラの配置(setup)に基づいて、点群修正ユニット212は線形深度マップをレンダリングしてもよい。例として、線形深度マップは、それのRチャンネルに格納された深度情報(d)、およびそれのGチャンネルに格納された深度の2乗(depth square)(d*d)を有する、RGダブルチャンネル画像であってもよい。一部の実施形態において、線形深度マップは、Float32データ形式であってもよい。
図2に戻り、一部の実施形態において、点群修正ユニット212は、現実における光の条件を密接に近似する車両軌道の暗いシーンを取得するため、および夜の自律運転システムの測位を強化するために、線形深度マップに基づいて影領域および半影領域をさらに計算し、例示の領域503が図4Bに示されている。例として、影領域は、周辺光成分(ambient light component)のみを使用して計算されてもよく、半影領域は、周辺光成分および拡散反射光成分(diffuse reflection light component)の両方を使用して計算されてもよい。深度マップは、まず、通常のガウスブラーカーネル(Gaussian blur kernel)を用いて畳み込まれてもよい。例として、1024*1024解像度の深度マップにおいて、10画素のカーネルが使用されてもよい。当然、レンダリングされる画像を平滑化するために使用可能な別の畳み込み行列を取得するために、他のカーネルサイズが使用されてもよい。一部の実施形態において、点群修正ユニット212は次に、シーンの中の影領域および半影領域を計算するために、分散シャドウマップ(VSM:Variance Shadow Map)アルゴリズムおよび指数シャドウマップ(ESM:Exponential Shadow Map)アルゴリズムを組み合わせたハイブリッド法などの適切な方法を使用してもよい。
一部の実施形態において、点群修正ユニット212は、修正された点群データを取得するために、ボクセル画像に対して光のシェーディングを実行してもよい。一部の実施形態において、遅延光投影レンダリングおよびランベルト光投影モデル(deferred light projection rendering and Lambert light projection model)がシェーディングのために使用されてもよい。遅延光投影レンダリングは、実際に各局所光による影響を受けている画素を順次シェーディングする利点を有する。これにより、性能を大幅に損なうことなく、シミュレーションされたシーンの中の複数の局所光をレンダリングすることができる。ランベルト光投影モデルは、等方性拡散反射がある表面からの照度を計算するために使用されることが多く、ここでの事例など、拡散反射光成分がある影領域を近似するためのそれの単純さおよび能力において優れている。一部の実施形態において、点群修正ユニット212は、影領域に対して周辺光成分のみを計算してもよいが、半影領域に対して周辺光成分および散乱光成分を計算してもよい。次に、シェーディングされたボクセル画像が変換されて点群データに戻される。したがって、シェーディングされた点群データは、不十分な照明条件下での点群データの推定である。修正された点群データは、メモリ/ストレージ206またはシステム内の他のストレージデバイスに記憶され得る。
図2に戻り、画像推定ユニット214は、点群修正ユニット212により修正された点群データを使用して、推定された画像を生成するよう構成される。画像推定ユニット214はまず、センサ150から通信インターフェース202を介して受信されてもよい車両100の最新の位置に基づいて、車両100の現在の姿勢情報を推定してもよい。推定された姿勢情報に基づき、修正された点群データの関連部分が識別されてもよく、シミュレーションされた画像が、修正された点群データの当該部分から生成される。この特定の実施形態において、生成される画像は、昼間に捕捉されたデータから再構築される同じシーンよりも不十分な照明条件で夜のシーンを近似する画像をシミュレーションする。その後、画像は、夜に走行している車両100の測位を最適化するために使用されてもよい。
図5は、図4Aの再構築されたシーンに対応する、シミュレーションされた夜の間のシーンの一例を示す。図4Aと図5との間の主要な違いは、局所光源(例えば、街灯401)の導入および自然光の除去である。図5は夜のシーンのシミュレーションであるが、本開示は、夜のシーンのみに用途を制限せず、不十分な照明条件で他のシーン(例えば、トンネルの中を、または嵐で日の差さない天候の下で走行しているとき)を、本開示の範囲から逸脱することなく同様にシミュレーション可能である。
3−Dの夜のシーンのシミュレーションの一実施形態を下記に詳述する。車両100が走行したのと同じ道路上の夜の間の照光をよりよく再現するために、図4Aの走行軌道に沿って検出された局所光源すべてが、それらが実世界であろう形で動作すると見なされるシミュレーションされたシーンを得ること、それにより、後の処理および位置計算で使用される不十分な照明条件下で極めて本物の環境が作り出されることが好ましい。それを達成するために、複数の局所光源の位置、高さ、および種類を識別することは、これらがシミュレーションされるシーンの結果に大きな影響を及ぼすパラメータであるため、重要なタスクとなる。
位置および高さは、双眼カメラまたはLiDARスキャナなど、それの周囲の3−D画像を認識できる画像化センサまたは検出器から収集された深度情報から計算できる。画像画素の深度は、画像画素とカメラとの間の距離として定義される。この開示によるシステムは、カメラ座標系において局所光源を表現する画素の3−D座標を取得するために、そのような局所光源の深度情報を抽出して、次に、抽出された深度情報をマッピングおよび変換する能力を有する。実世界へのさらなる近似を、オブジェクト検出技術を使用することで実現できる。検出されたオブジェクトを、それのデータベースに記憶された事前指定または学習されたオブジェクトと比較することにより、システムは、各局所光源の種類(例えば、図4Aの街灯301)およびそれの様々なパラメータを自動的に判断する。局所光源の種類が判断されると、それの照光、強度、コリメーション、ビーム角(つまり、光源から放射される光の幅の程度)、光の方向、色、および他のパラメータを、製品仕様、それに使用されている材料/成分、および光源の他の知識により取得できる。例として、広告板で使用される典型的なSMD LEDのビーム角は120°である。これらのパラメータおよび各局所光源の位置が分かると、暗いシーンに対するシミュレーションを最適化できる。
なお、図2から図5に関連して記載された日中シーンの再構築および夜のシーンのシミュレーションは、オンライン(サーバ190など車両100外のデバイスへのネットワーク通信で)もしくはオフライン(車両100内で)のいずれかで処理可能であり、または再構築のみもしくはシミュレーションのみのいずれかもしくは両方に関してオンラインおよびオフライン処理の組み合わせとすることができるということを注意すべきである。
図2の車両測位ユニット216は、修正された点群データに従って、不十分な照明条件下で走行する車両100をより適切に測位するよう構成される。例として、修正された点群データから画像推定ユニット214により生成された推定された画像は、車両測位ユニット216において、センサ160により実際に捕捉された画像と比較されてもよい。これは、車両がそれの位置を不十分な照明条件下で正確に知ることを可能にし、それによってそれの走行安全性を改善する。
本開示によるシステムは、任意のタイムスタンプでの車両の空間測位を判断し得る。システムは、センサ140により捕捉される点群、センサ150により捕捉される姿勢情報、およびセンサ160により捕捉される画像フレームがすべて同じタイムスタンプにて捕捉されるように、センサ140、150、および160を同期させる同期システムを含んでもよい。一部の実施形態において、同期された画像フレーム、点群、および関連する姿勢情報は、車両100を測位するために集合的に使用されてもよい。他の一部の実施形態において、画像フレームおよび点群のうちの1つが、車両100を測位するために、関連する姿勢情報と組み合わせて使用されてもよい。本開示に従い、GPS/IMUセンサにより提供されるパルス毎秒(PPS:Pulse Per Second)信号が、センサ140、150、および160による情報の獲得を同期させるために使用されてもよい。
特定のタイムスタンプにおける車両100の姿勢情報が推定され、センサ140および160が搭載されている車両100に対するそれらセンサの姿勢情報が予め判断されれば、それら2つの情報から、センサ140および160の姿勢情報も、好適にはグローバル座標系としてセット可能な、単一の統合された3次元座標系において推定できる。上述のように、センサ140は、点群を獲得するLiDARであってもよく、センサ160は、画像を捕捉するカメラであってもよい。以下の説明は、カメラを例として使用するが、同じ処理は、本願明細書に開示されるシステムとの互換性がある他の任意の画像化デバイスまたはスキャナにも適用可能である。
本開示によるシステムはさらに、通信インターフェース202を介して車両100の最新の位置を受信し、最新の位置に基づいて車両100の現在の姿勢情報を推定する。一部の実施形態において、車両100が走行しているのと同じ軌道に沿って捕捉されたデータがデジタル化された点群に以前に変換されている場合、システムは、シミュレーションされた暗いシーンの助けを借りて車載カメラの姿勢情報を処理して不十分な照明条件下で車両100の正確な位置を近似する。
本開示に従い、システムが後の処理のために以前に記憶された任意の点群をフェッチする前に、車両100は、どの軌道に沿って走行しているのかを認識する必要があり、ストレージデバイスに記憶されている任意のデータセット(好適には点群)に軌道が一致するかどうかを判断する。これを達成するための様々な方法がある。例として、人である車両100のオペレータは、車両が走行する道路の位置について個人的な知識を有するかもしれず、したがって、ストレージデバイスから道路に関連する点群をフェッチするようシステムに指令する。あるいはシステムは、装備されているコンポーネントにより収集された画像情報、地理情報、位置情報、空間情報、および/または他の種類の情報を用いて道路を自動的に認識するために人工知能(AI:artificial intelligence)能力を保有してもよい。次にシステムは、道路の情報を、ストレージデバイスからのデータセットと比較し、一致した任意の結果についてシステムは、ストレージデバイスから道路に関連する点群を自動的にフェッチする。点群は、不十分な照明条件下の同じシーンをシミュレーションするために使用されてもよい影領域情報を含む。
本開示によるシステムはさらに、カルテシアン空間(Cartesian space)内のフェッチされた点群(オブジェクト)を、車載カメラの最適な姿勢情報を近似するために後に使用されてもよい、射影空間内の切り捨てられる点群のセット(クリッピングされたカメラ視点)に変換する。
一部の実施形態において、点群の3−D座標系における所与の点の位置は、Pp{x,y,z,1}により表現できる。最初の3つのパラメータx、y、およびzは、点群モデル座標系(カルテシアン座標系である)において直交するx軸、y軸、およびz軸に対する点の位置を表現する。最後のパラメータは、オブジェクト座標系などのカルテシアン座標系については常に1(one)にセットされるが、座標系が同次座標系(homogenous coordinate system)(例えばカメラ視点座標系)に変換されると変数になる。
点群に関連するオブジェクト座標系における任意の所与の点の座標をグローバル座標系における同じ点の座標に変換するために、モデル変換行列M0が適用されてもよい。この変換は、カルテシアン座標系から、測位のためにグローバル座標を同じく採用するカメラ視点に基づく投影座標系への後の変換により必要とされる。
上記の実施形態に従い、カメラの前方方向Vfがカメラ視点座標系(射影空間)のz軸を表現し、上方向Vuがy軸を表現し、左方向Vlがx軸を表現すると仮定して、カメラ視点座標系M1の例示的な変換行列が図6Aに示されている。行列の左3列の3要素のセット(m0,m1,m2)、(m4,m5,m6)、および(m8,m9,m10)は回転またはスケーリングなどのカルテシアンおよびアフィン変換(Cartesian and affine transformation)に関する。右端のセット(m12,m13,m14)は並進変換(translation transformation)に関する。さらなる変数m3、m7、m11、およびm15は、このカメラ視点座標系においてそれぞれ0、0、0、および1にセットされる。行列M1は、グローバル座標系における任意の所与の点の座標をカメラ視点座標系における同じ点の座標へと変換するために使用される。
本開示に従い、車両に搭載されているカメラにより捕捉された実際の画像をさらに近似するために、3−Dカメラ画像が2−D表面に投影され得るように、「錐台カリング(frustum culling)」または「クリッピング」として知られる変換手法がカメラ視点座標に適用されてもよい。錐台カリングは、カメラ視点座標(3次元座標系の中のピラミッドに類似する)からすべての頂点データをクリッピングする関数を使用し、その結果、クリッピング後の(post-clipping)座標(「視錐台(viewing frustum)」とも呼ばれる)から外れる点は投影されず、したがって、2−D画像から見えない。図6Bは、車両100に搭載されたカメラに関する例示的な視錐台(ピラミッドの濃色の領域)600を示す。切り捨てられるピラミッドの投影行列M2は、左、右、上方、下方、近、遠、の境界値の6つのパラメータに基づいて構築され、これらはさらに、例えばカメラの視野(FOV:field of view)角、それの画像のアスペクト比(aspect ratio)などのカメラのパラメータにより定義される。クリッピング後のカメラ視点座標における変数については、点が今や同次座標系にあるという事実を反映するために、1以外の数にセットされてもよい。
上記の段階的な変換の後、視錐台における同じ点の座標Pc{x’,y’,z’,w’}を次の関数から計算できる:
Pc=PP・M0・M1・M2 式3
Pcの3つの軸(x軸、y軸、およびz軸)すべての絶対値が1未満であれば、その点は視錐台の中の点群に維持され、そうでなければ点は破棄される。結果として生じた点群は、2−D画像に投影されるフェッチされた点群のサブセットを構成し、したがって、不十分な照明条件下の推定された姿勢情報を用いて、車載カメラにより捕捉される画像をシミュレーションする。
Pc=PP・M0・M1・M2 式3
Pcの3つの軸(x軸、y軸、およびz軸)すべての絶対値が1未満であれば、その点は視錐台の中の点群に維持され、そうでなければ点は破棄される。結果として生じた点群は、2−D画像に投影されるフェッチされた点群のサブセットを構成し、したがって、不十分な照明条件下の推定された姿勢情報を用いて、車載カメラにより捕捉される画像をシミュレーションする。
図7Aは、シミュレーションされた暗いシーンにおける、事前に切り捨てられる例示的なカメラ視点座標系を示す。ピラミッドの頂点(最多の線が交差する点)が、所与のタイムスタンプでのカメラの推定位置である。錐台カリングを伴う変換後、シミュレーションされた2−D画像が、その頂点にあるカメラにより撮られたかのように取得され得る。各画像は、カメラの推定位置からの光景を、そのカメラがその位置から画像を捕捉しているかのように表現する。シミュレーションされたそのような画像の1つ以上が、図7Bに示されているような、暗い照明条件下で車載カメラにより捕捉された実際の画像の1つ以上と比較される。車載カメラの姿勢情報が、シミュレーションされた画像と実際の画像との間の類似性を最小化する結果として最適化されると、不十分な照明条件下で走行している車両100を、グローバル空間におけるカメラの姿勢情報および車両100に対するカメラの所定の姿勢情報に基づいて正確に測位できる。
本開示に従い、シミュレーションされた画像(オブジェクトx)と実際の画像(オブジェクトy)との間の類似性を最小化するために使用される例示的な手法は、その2つの間の正規化圧縮距離(NCD:normalized compressed distance)を計算する。どちらの画像も同じ所定のプログラミング言語により出力としてもたらされ得るので、そのような言語は、yからxを算出する最短プログラムを含み得る。コルモゴロフ複雑性(Kolmogorov complexity)として表現される、そのような最短プログラムの長さが、2つの画像間の情報距離として定義される。実世界の圧縮器を適用した後、オブジェクトxとオブジェクトyとの間のNCDを、次の式により表現できる。
Z(x)は、圧縮器Zによるオブジェクトxの長さである。車載カメラにより捕捉された実際の画像と最も近い類似性を備えたシミュレーションされた画像を識別するために、シミュレーションされた別々の画像の間のNCDの結果が比較されてもよい。一部の実施形態において、結合分布
が各カメラについて構築されてもよく、総距離(すなわちすべてのカメラの距離の合計)が最適化のための費用関数として使用されてもよい。例として、式5がそのような費用関数であってもよい。
式中、Icはカメラにより捕捉された実際の画像であり、Isはシミュレーションされた画像であり、GR,Wは姿勢情報である。
図8は、不十分な照明条件下で車両を測位する例示的な方法800のフローチャートを示す。一部の実施形態において、方法800は、特に局所光源識別ユニット210、点群修正ユニット212、および車両測位ユニット216を含むシステム200により実装されてもよい。例として、方法800のステップS803は、局所光源識別ユニット210によって実行されてもよく、ステップS804およびS805は、点群修正ユニット212により実行されてもよく、ステップS806は車両測位ユニット216により実行されてもよい。当然のことながら、ステップのうちの一部は、本願明細書において提供された開示を実行するには任意であるかもしれず、いくつかのステップは、この開示による他の実施形態に従う方法800のフローチャートに挿入されてもよい。さらに、ステップのうちの一部は、同時に実行されても、または図8に示されるのとは異なる順序で実行されてもよい。
ステップS801において、様々なタイプのデータが自律運転車両の車載センサにより捕捉されてもよい。例として、点群データ201が、LiDARスキャナなどのセンサ140により獲得されてもよく、軌道情報203が、GPS受信機、IMUセンサ、または両方などのセンサ150により取得されてもよく、デジタル画像205が、カメラにおいて使用される画像化センサなどのセンサ160により捕捉されてもよい。
ステップS802において、センサ140により獲得された点群データのセットが、記憶および後の処理のために通信インターフェース202により受信されてもよい。点群データのセットは、自律運転車両が走行している軌道のシーンに関連する。本開示の方法800によれば、シーンは、捕捉された点群データを使用して再構築およびレンダリングできる。
ステップS803において、シーン中の局所光源が点群データのセットに基づいて識別されてもよい。一部の実施形態において、局所光源はオペレータにより手動で識別されてもよい。他の実施形態において、局所光源はオブジェクト認識技術または同様のものを使用して自動的に点群データから抽出されてもよい。これらの局所光源は、夜のシーンなど、不十分な照明条件でシーンをシミュレーションするために使用されてもよい。
ステップS804において、不十分な照明条件でシミュレーションされたシーンを取得するために、方法800はさらに、識別された局所光源から光が放射されるかのように光をシミュレーションすることを含んでもよい。シミュレーションは、例えば、識別された局所光源の照光、強度、コリメーション、ビーム角、光の方向、色など、識別された局所光源の様々なパラメータを考慮に入れてもよい。
ステップS805において、シミュレーションされた光が、センサ140により獲得された点群データ201のセットに適用されてもよく、その結果、点群データ201のセットが修正されてもよく、シミュレーションされた暗いシーンが生成されてもよい。一部の実施形態において、修正は、点群データのセットに対して、識別された局所光源からのシミュレーションされた光を投影することにより深度マップを判断すること、および深度マップに基づいて、少なくとも1つの影領域および少なくとも1つの半影領域を判断することをさらに含んでもよい。影領域は、周辺光成分のみを使用して計算されてもよく、半影領域は、周辺光成分および拡散反射光成分の両方を使用して計算されてもよい。暗いシーンを生成できるように、少なくとも1つの影領域および少なくとも1つの半影領域から計算された照光を適用することにより、点群データのセットがシェーディングされてもよい。生成された暗いシーンは、夜間に車両100が走行することになる同じ軌道の実際の環境を近似する。
ステップS806において、車両100は、修正された点群データのセットに基づいて、不十分な照明条件下でより正確に測位されてもよい。他の一部の実施形態において、車両100の位置はさらに、姿勢情報を明らかにして(account for)もよい。車両100の現在の姿勢情報が、センサ150から通信インターフェース202を介して受信され得る車両100の最新の位置に基づいて推定されてもよい。推定された現在の姿勢情報に基づいて、修正された点群データの関連部分が識別されてもよい。一部の実施形態において、画像推定ユニット214は、修正された点群データの当該部分に基づいて、推定された画像を生成するよう構成されてもよい。推定された画像は、車両100が走行している不十分な照明条件下の同じシーンの実際の画像と比較されてもよい。実際の画像は、カメラに見られるような画像化センサにより捕捉されてもよい。比較は、比較結果が実際の画像と最も近い類似性を備えたシミュレーションされた画像を示すことができるように、推定された画像と捕捉された画像との間の情報距離を計算することをさらに含んでもよく、それによって車両100の正確な測位を支援する。
本開示の別の側面は、実行されると上述した方法を1つ以上のプロセッサに実行させる命令を記憶する非一時的コンピュータ可読媒体を対象とする。コンピュータ可読媒体は、揮発性もしくは不揮発性、磁気、半導体、テープ、光学、リムーバブル、非リムーバブル、または他の種類のコンピュータ可読媒体もしくはコンピュータ可読ストレージデバイスを含んでもよい。例として、コンピュータ可読媒体は、開示されたように、コンピュータ命令が記憶されているストレージデバイスまたはメモリモジュールであってもよい。一部の実施形態において、コンピュータ可読媒体は、コンピュータ命令が記憶されているディスク、フラッシュドライブ、またはソリッドステートドライブであってもよい。
当業者には当然のことながら、開示されたシステムおよび関係する方法に対して、様々な変更および変化を加えることができる。本明細書の検討、ならびに開示されたシステムおよび関係する方法の実践から、当業者には他の実施形態が明らかとなる。
本明細書および各例は例示的なものでしかないと見なされるものとし、真の範囲は、添付の特許請求の範囲およびその等価物によって示される。
Claims (20)
- 車両を測位するシステムであって、
少なくとも1つのセンサによって第1の照明条件下で捕捉されたシーンに関する点群データのセットを受信するよう構成された通信インターフェースと、
前記点群データのセットを記憶するよう構成されたストレージと、
プロセッサと、
を含み、前記プロセッサは、
前記点群データのセットに基づいて少なくとも1つの局所光源を識別し、
第2の照明条件に対応する、前記少なくとも1つの局所光源からのシミュレーションされた光に基づいて、前記点群データのセットを修正し、
前記修正された点群データのセットに基づいて、前記第2の照明条件下で前記車両を測位する、
よう構成される、システム。 - 前記通信インターフェースは、前記第2の照明条件下で画像化センサにより捕捉された、前記シーンに関する画像を受信するよう構成され、前記プロセッサはさらに、
推定された画像を前記修正された点群データのセットに基づいて生成し、
前記推定された画像を前記捕捉された画像と比較することによって、前記第2の照明条件下で前記車両を測位する、
よう構成される、請求項1に記載のシステム。 - 前記通信インターフェースはさらに、前記車両の最新の位置を受信するよう構成され、前記プロセッサはさらに、前記車両の前記最新の位置に基づいて前記車両の現在の姿勢情報を推定するよう構成される、請求項2に記載のシステム。
- 前記プロセッサはさらに、前記修正された点群データのセットの中で、前記車両の前記現在の姿勢情報に対応する点群データを特定するよう構成される、請求項2に記載のシステム。
- 前記推定された画像を生成するために、前記プロセッサはさらに、前記識別された局所光源が前記第2の照明条件下で照光したであろうように前記局所光源の照光をシミュレーションするよう構成される、請求項2に記載のシステム。
- 前記推定された画像と前記捕捉された画像とを比較することは、前記推定された画像と前記捕捉された画像との間の情報距離を計算することを含む、請求項2に記載のシステム。
- 前記第2の照明条件は、前記第1の照明条件よりも少ない照光を含む、請求項1に記載のシステム。
- 前記点群データのセットを修正するために、前記プロセッサはさらに、
前記識別された局所光源からの前記シミュレーションされた光を前記点群データのセットに対して投影することによって深度マップを判断し、
前記深度マップに基づいて、少なくとも1つの影領域および少なくとも1つの半影領域を判断する、
よう構成される、請求項1に記載のシステム。 - 前記点群データのセットを修正するために、前記プロセッサはさらに、前記少なくとも1つの影領域および前記少なくとも1つの半影領域に基づいて計算された照光を使用して、前記点群データのセットをシェーディングするよう構成される、請求項8に記載のシステム。
- 車両を測位する方法であって、
少なくとも1つのセンサによって第1の照明条件下で捕捉されたシーンに関する点群データのセットを受信するステップと、
前記点群データのセットに基づいて少なくとも1つの局所光源を識別するステップと、
第2の照明条件に対応する、前記少なくとも1つの局所光源からのシミュレーションされた光に基づいて、前記点群データのセットを修正するステップと、
前記修正された点群データのセットに基づいて、前記第2の照明条件下で前記車両を測位するステップと、
を含む方法。 - 前記第2の照明条件下で画像化センサにより捕捉された、前記シーンに関する画像を受信するステップと、
推定された画像を前記修正された点群データのセットに基づいて生成するステップと、
前記推定された画像を前記捕捉された画像と比較することによって、前記第2の照明条件下で前記車両を測位するステップと、
をさらに含む、請求項10に記載の方法。 - 前記車両の最新の位置を受信するステップと、
前記車両の前記最新の位置に基づいて前記車両の現在の姿勢情報を推定するステップと、
をさらに含む、請求項11に記載の方法。 - 前記推定された画像を前記捕捉された画像と比較することは、前記推定された画像と前記捕捉された画像との間の情報距離を計算することを含む、請求項11に記載の方法。
- 前記点群データのセットを修正するステップはさらに、
前記識別された局所光源からの前記シミュレーションされた光を前記点群データのセットに対して投影することによって深度マップを判断するステップと、
前記深度マップに基づいて、少なくとも1つの影領域および少なくとも1つの半影領域を判断するステップと、
を含む、請求項10に記載の方法。 - 前記点群データのセットを修正するステップはさらに、前記少なくとも1つの影領域および前記少なくとも1つの半影領域に基づいて計算された照光を使用して、前記点群データのセットをシェーディングするステップを含む、請求項14に記載の方法。
- 1つ以上のプロセッサにより実行されると前記1つ以上のプロセッサに、車両を測位する方法を実行させる命令が記憶された非一時的コンピュータ可読媒体であって、前記方法は、
少なくとも1つのセンサによって第1の照明条件下で捕捉されたシーンに関する点群データのセットを受信するステップと、
前記点群データのセットに基づいて少なくとも1つの局所光源を識別するステップと、
第2の照明条件に対応する、前記少なくとも1つの局所光源からのシミュレーションされた光に基づいて、前記点群データのセットを修正するステップと、
前記修正された点群データのセットに基づいて、前記第2の照明条件下で前記車両を測位するステップと、
を含む、コンピュータ可読媒体。 - 前記方法はさらに、
前記第2の照明条件下でカメラにより捕捉された、前記シーンに関する画像を受信するステップと、
推定された画像を前記修正された点群データのセットに基づいて生成するステップと、
前記推定された画像を前記捕捉された画像と比較することによって、前記第2の照明条件下で前記車両を測位するステップと、
を含む、請求項16に記載のコンピュータ可読媒体。 - 前記方法はさらに、
前記車両の最新の位置を受信するステップと、
前記車両の前記最新の位置に基づいて前記車両の現在の姿勢情報を推定するステップと、
を含む、請求項17に記載のコンピュータ可読媒体。 - 前記推定された画像を前記捕捉された画像と比較することは、前記推定された画像と前記捕捉された画像との間の情報距離を計算することを含む、請求項17に記載のコンピュータ可読媒体。
- 前記点群データのセットを修正するステップはさらに、
前記識別された局所光源からの前記シミュレーションされた光を前記点群データのセットに対して投影することによって深度マップを判断するステップと、
前記深度マップに基づいて、少なくとも1つの影領域および少なくとも1つの半影領域を判断するステップと、
を含む、請求項16に記載のコンピュータ可読媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/115886 WO2020097912A1 (en) | 2018-11-16 | 2018-11-16 | Systems and methods for positioning vehicles under poor lighting conditions |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021508027A true JP2021508027A (ja) | 2021-02-25 |
Family
ID=70727808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018566536A Pending JP2021508027A (ja) | 2018-11-16 | 2018-11-16 | 不十分な照明条件下で車両を測位するシステムおよび方法 |
Country Status (9)
Country | Link |
---|---|
US (2) | US11048264B2 (ja) |
EP (1) | EP3746989A4 (ja) |
JP (1) | JP2021508027A (ja) |
CN (1) | CN111448591B (ja) |
AU (1) | AU2018282304B2 (ja) |
CA (1) | CA3028223C (ja) |
SG (1) | SG11201811415SA (ja) |
TW (1) | TWI703064B (ja) |
WO (1) | WO2020097912A1 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11978436B2 (en) | 2022-06-03 | 2024-05-07 | Apple Inc. | Application vocabulary integration with a digital assistant |
US10873786B2 (en) | 2016-06-12 | 2020-12-22 | Apple Inc. | Recording and broadcasting application visual output |
EP4254989A3 (en) | 2017-05-16 | 2023-10-18 | Apple Inc. | Methods and interfaces for home media control |
EP3710984A1 (en) * | 2019-01-30 | 2020-09-23 | Baidu.com Times Technology (Beijing) Co., Ltd. | Map partition system for autonomous vehicles |
US11199415B2 (en) * | 2019-03-26 | 2021-12-14 | Lyft, Inc. | Systems and methods for estimating vehicle position based on contextual sensor information |
KR102613825B1 (ko) | 2019-05-06 | 2023-12-15 | 애플 인크. | 다수의 애플리케이션들과의 아바타 통합 |
US11380003B2 (en) * | 2019-06-25 | 2022-07-05 | Black Sesame Technologies Inc. | Monocular camera localization in large scale indoor sparse LiDAR point cloud |
FR3098332B1 (fr) * | 2019-07-05 | 2022-01-07 | Fond B Com | Procédé et dispositif de détermination de l’amplitude d’un mouvement effectué par un membre d’un corps articulé |
US10914588B1 (en) * | 2019-12-06 | 2021-02-09 | Toyota Research Institute, Inc. | Pulse per second signal generation using a fiber optic gyroscope |
CN111915517B (zh) * | 2020-07-23 | 2024-01-26 | 同济大学 | 适用于室内光照不利环境下rgb-d相机全局定位方法 |
WO2022165147A1 (en) | 2021-01-31 | 2022-08-04 | Apple Inc. | User interfaces for wide angle video conference |
US11430177B1 (en) * | 2021-05-14 | 2022-08-30 | Zoox, Inc. | Mapping simulated sensors to simulated environment views |
US11715257B2 (en) | 2021-05-14 | 2023-08-01 | Zoox, Inc. | Simulation view generation based on simulated sensor operations |
US11544896B2 (en) | 2021-05-14 | 2023-01-03 | Zoox, Inc. | Spatial and temporal upsampling techniques for simulated sensor data |
US11741661B2 (en) | 2021-05-14 | 2023-08-29 | Zoox, Inc. | Sensor simulation with unified multi-sensor views |
CN113511115A (zh) * | 2021-05-28 | 2021-10-19 | 南昌智能新能源汽车研究院 | 一种基于双目视觉的汽车座椅姿态智能控制方法 |
CN113071498B (zh) * | 2021-06-07 | 2021-09-21 | 新石器慧通(北京)科技有限公司 | 车辆控制方法、装置、系统、计算机设备及存储介质 |
US20230058929A1 (en) | 2021-08-13 | 2023-02-23 | Apple Inc. | Digital assistant interaction in a communication session |
WO2023034497A2 (en) | 2021-09-03 | 2023-03-09 | Apple Inc. | Gaze based dictation |
WO2023044050A1 (en) | 2021-09-17 | 2023-03-23 | Apple Inc. | Digital assistant for providing visualization of snippet information |
WO2023044044A1 (en) | 2021-09-20 | 2023-03-23 | Apple Inc. | Requests to add assets to an asset account |
WO2023064580A1 (en) | 2021-10-14 | 2023-04-20 | Apple Inc. | Camera user interface with recording space management |
WO2023114021A1 (en) | 2021-12-17 | 2023-06-22 | Apple Inc. | Generating emojis from user utterances |
FR3133095B1 (fr) * | 2022-02-25 | 2024-02-23 | Psa Automobiles Sa | Procédé de calcul de surfaces tridimensionnelles pour véhicule équipé d’un système d’aide à la conduite |
CN114475665A (zh) * | 2022-03-17 | 2022-05-13 | 北京小马睿行科技有限公司 | 自动驾驶车辆的控制方法、控制装置及自动驾驶系统 |
CN114343689B (zh) * | 2022-03-17 | 2022-05-27 | 晓智未来(成都)科技有限公司 | 基于摄影测量的限束器开口面积测量方法及应用 |
WO2023196350A1 (en) | 2022-04-05 | 2023-10-12 | Apple Inc. | User interfaces for initiating transactions |
WO2023225131A2 (en) | 2022-05-17 | 2023-11-23 | Apple Inc. | User interfaces for detecting objects |
WO2023235350A1 (en) | 2022-06-04 | 2023-12-07 | Apple Inc. | User interfaces for account management |
WO2024036607A1 (zh) * | 2022-08-19 | 2024-02-22 | 华为技术有限公司 | 定位方法、装置以及智能驾驶设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101329773A (zh) * | 2007-12-06 | 2008-12-24 | 上海大学 | 光刻机抗蚀剂成像仿真三维交互显示方法 |
JP2012168098A (ja) * | 2011-02-16 | 2012-09-06 | Aisin Aw Co Ltd | 撮影位置特定システム、撮影位置特定プログラム、及び撮影位置特定方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090287450A1 (en) * | 2008-05-16 | 2009-11-19 | Lockheed Martin Corporation | Vision system for scan planning of ultrasonic inspection |
US10247854B2 (en) * | 2013-05-07 | 2019-04-02 | Waymo Llc | Methods and systems for detecting weather conditions using vehicle onboard sensors |
CN105874883B (zh) * | 2013-09-10 | 2019-06-18 | 飞利浦灯具控股公司 | 用于编码光源的自动化投用的方法和装置 |
CN103617647B (zh) * | 2013-11-28 | 2016-04-13 | 中国人民解放军国防科学技术大学 | 一种用于夜视的车辆周围环境三维重构方法 |
GB201414144D0 (en) * | 2014-08-08 | 2014-09-24 | Imagination Tech Ltd | Relightable texture for use in rendering an image |
CN104268933B (zh) * | 2014-09-11 | 2017-02-15 | 大连理工大学 | 一种车载二维激光运动中三维环境扫描成像方法 |
US10282591B2 (en) | 2015-08-24 | 2019-05-07 | Qualcomm Incorporated | Systems and methods for depth map sampling |
JP6962926B2 (ja) * | 2015-11-04 | 2021-11-05 | ズークス インコーポレイテッド | 自律車両の軌道修正のための遠隔操作システムおよび方法 |
US10341633B2 (en) * | 2015-11-20 | 2019-07-02 | Qualcomm Incorporated | Systems and methods for correcting erroneous depth information |
US9996933B2 (en) | 2015-12-22 | 2018-06-12 | Qualcomm Incorporated | Methods and apparatus for outlier detection and correction of structured light depth maps |
KR102373926B1 (ko) * | 2016-02-05 | 2022-03-14 | 삼성전자주식회사 | 이동체 및 이동체의 위치 인식 방법 |
US10852744B2 (en) | 2016-07-01 | 2020-12-01 | Uatc, Llc | Detecting deviations in driving behavior for autonomous vehicles |
US10127461B2 (en) * | 2016-08-12 | 2018-11-13 | Here Global B.V. | Visual odometry for low illumination conditions using fixed light sources |
CN106296693B (zh) * | 2016-08-12 | 2019-01-08 | 浙江工业大学 | 基于3d点云fpfh特征实时三维空间定位方法 |
KR102547651B1 (ko) | 2016-09-20 | 2023-06-26 | 이노비즈 테크놀로지스 엘티디 | Lidar 시스템 및 방법 |
US20180088234A1 (en) * | 2016-09-27 | 2018-03-29 | Carnegie Mellon University | Robust Localization and Localizability Prediction Using a Rotating Laser Scanner |
US10254762B2 (en) * | 2017-03-29 | 2019-04-09 | Luminar Technologies, Inc. | Compensating for the vibration of the vehicle |
US11455565B2 (en) * | 2017-08-31 | 2022-09-27 | Ford Global Technologies, Llc | Augmenting real sensor recordings with simulated sensor data |
CN207396738U (zh) * | 2017-12-22 | 2018-05-22 | 西安飞芯电子科技有限公司 | 一种智能型车载雷达系统 |
US10740914B2 (en) * | 2018-04-10 | 2020-08-11 | Pony Ai Inc. | Enhanced three-dimensional training data generation |
US11600006B2 (en) * | 2018-10-26 | 2023-03-07 | Here Global B.V. | Deep neural network architecture for image segmentation |
-
2018
- 2018-11-16 JP JP2018566536A patent/JP2021508027A/ja active Pending
- 2018-11-16 WO PCT/CN2018/115886 patent/WO2020097912A1/en unknown
- 2018-11-16 CN CN201880002638.5A patent/CN111448591B/zh active Active
- 2018-11-16 AU AU2018282304A patent/AU2018282304B2/en active Active
- 2018-11-16 SG SG11201811415SA patent/SG11201811415SA/en unknown
- 2018-11-16 CA CA3028223A patent/CA3028223C/en active Active
- 2018-11-16 EP EP18814762.3A patent/EP3746989A4/en not_active Withdrawn
- 2018-12-14 TW TW107145189A patent/TWI703064B/zh active
- 2018-12-26 US US16/232,128 patent/US11048264B2/en active Active
-
2021
- 2021-02-02 US US17/165,870 patent/US11676254B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101329773A (zh) * | 2007-12-06 | 2008-12-24 | 上海大学 | 光刻机抗蚀剂成像仿真三维交互显示方法 |
JP2012168098A (ja) * | 2011-02-16 | 2012-09-06 | Aisin Aw Co Ltd | 撮影位置特定システム、撮影位置特定プログラム、及び撮影位置特定方法 |
Also Published As
Publication number | Publication date |
---|---|
CA3028223A1 (en) | 2020-05-16 |
EP3746989A4 (en) | 2021-03-17 |
CN111448591B (zh) | 2021-05-18 |
WO2020097912A1 (en) | 2020-05-22 |
US20200159239A1 (en) | 2020-05-21 |
CN111448591A (zh) | 2020-07-24 |
US20210157329A1 (en) | 2021-05-27 |
TWI703064B (zh) | 2020-09-01 |
US11676254B2 (en) | 2023-06-13 |
TW202019745A (zh) | 2020-06-01 |
US11048264B2 (en) | 2021-06-29 |
EP3746989A1 (en) | 2020-12-09 |
SG11201811415SA (en) | 2020-06-29 |
AU2018282304B2 (en) | 2020-08-13 |
CA3028223C (en) | 2021-02-16 |
AU2018282304A1 (en) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11676254B2 (en) | Systems and methods for positioning vehicles under poor lighting conditions | |
US11487288B2 (en) | Data synthesis for autonomous control systems | |
US11474247B2 (en) | Methods and systems for color point cloud generation | |
JP2020525809A (ja) | 両眼画像に基づき高解像度地図を更新するためのシステムおよび方法 | |
US20110184895A1 (en) | Traffic object recognition system, method for recognizing a traffic object, and method for setting up a traffic object recognition system | |
JP2021508815A (ja) | 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法 | |
WO2007083494A1 (ja) | 図形認識装置、図形認識方法および図形認識プログラム | |
CN112639846A (zh) | 一种训练深度学习模型的方法和装置 | |
CN114254696A (zh) | 基于深度学习的可见光、红外和雷达融合目标检测方法 | |
KR20200071293A (ko) | 3차원 컬러 맵 기반의 측위 방법 및 장치 | |
JP6750531B2 (ja) | 表示制御装置及び表示制御プログラム | |
KR20230093471A (ko) | 빗물, 빛 번짐 및 먼지가 있는 전방위 카메라 시스템 이미지의 보정 | |
CN114765972A (zh) | 用于示出车辆的周围环境模型的显示方法、计算机程序、控制器和车辆 | |
CN111833443A (zh) | 自主机器应用中的地标位置重建 | |
WO2021062587A1 (en) | Systems and methods for automatic labeling of objects in 3d point clouds | |
Brehar et al. | Pedestrian detection in the context of multiple-sensor data alignment for far-infrared and stereo vision sensors | |
CN113196341A (zh) | 用于对道路的表面上的对象进行检测和建模的方法 | |
EP2639771B1 (en) | Augmented vision in image sequence generated from a moving vehicle | |
US20230101876A1 (en) | Rendering system and automated driving verification system | |
CN117727011A (zh) | 基于图像融合的目标识别方法、装置、设备及存储介质 | |
CN117036403A (zh) | 图像处理方法、装置、电子设备和存储介质 | |
CN116802581A (zh) | 基于航测数据的自动驾驶感知系统测试方法、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210928 |