JP2019109219A - ダイクロイックミラーを使用する、自律走行車のための3d−lidarシステム - Google Patents

ダイクロイックミラーを使用する、自律走行車のための3d−lidarシステム Download PDF

Info

Publication number
JP2019109219A
JP2019109219A JP2018188878A JP2018188878A JP2019109219A JP 2019109219 A JP2019109219 A JP 2019109219A JP 2018188878 A JP2018188878 A JP 2018188878A JP 2018188878 A JP2018188878 A JP 2018188878A JP 2019109219 A JP2019109219 A JP 2019109219A
Authority
JP
Japan
Prior art keywords
image
target
camera
light
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018188878A
Other languages
English (en)
Other versions
JP6830936B2 (ja
Inventor
ヤオミン シェン
Yaoming Shen
ヤオミン シェン
ヤン ハン
Yang Han
ヤン ハン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of JP2019109219A publication Critical patent/JP2019109219A/ja
Application granted granted Critical
Publication of JP6830936B2 publication Critical patent/JP6830936B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/90Lidar systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/141Beam splitting or combining systems operating by reflection only using dichroic mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Optics & Photonics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Navigation (AREA)

Abstract

【課題】自律走行車のための三次元光検出及び測距装置の提供。【解決手段】ターゲット407に関連する物理的な範囲を検知するように光束を発射する光源401。ターゲット407から反射された光束の少なくとも一部を受光する光検出器403とカメラ409。ターゲット407と光検出器403の間に位置し、ターゲット407から反射された光束を光検出器403に案内して第1の画像を生成し、ターゲット407から反射された可視光を第1のカメラ409に案内して第2の画像を生成するように配置されるダイクロイックミラー405。光検出器403とカメラ409に接続し、第1の画像と第2の画像を組み合わせて、三次元画像を生成する画像処理ロジック410。【選択図】図3

Description

本発明は、概ねに自律走行車を操作することに関し、さらに具体的に、本発明は、自律走行車を操作するための光検出及び測距(LIDAR)装置に関する。
自動運転モード(例えば、無人)で運転されている車両は、運転関連の職務から乗員、特に運転手を解放することができる。自動運転モードで運転する時に、車両は、車載センサを使用してさまざまな場所にナビゲートすることができ、これによって、最低限の人間とのやり取りの場合に、或いは、乗客が一切いない場合に、車両を走行させることができる。
LIDAR技術は、軍事、地理学、海洋学で広く使用され、過去10年間に自律型車両で広く使用されてきた。他の理由を考えずに、自律車でのLIDAR応用は、高いコストで妨げられている。LIDAR装置は、対象までの距離を推定することができ、また、シーンを走査し通して、物体の反射面を表す点群を収集する。点群の各点は、レーザパルスを発射し、対象から反射され戻ってきたパルスが検出されること(もしあれば)、及び発射されたパルスと受信された反射パルスとの間の時間遅延に基づいて対象までの距離を確定することにより確定する。1つまたは複数のレーザがシーン内で迅速かつ繰り返しスキャンして、シーン内の反射対象までの距離に関する連続的なリアルタイム情報を提供することができる。
電動式回転スピナー(motorized rotating spinner)を有する従来の機械式LIDAR装置は、360度の水平視野を有するが、カメラはより小さい水平視野を有する。LIDAR装置をカメラの視野と同期させるには、さらなる計算能力が必要である。また、LIDARの回転速度が時々ずれると、画像の同期が不一致になってしまう可能性がある。
本発明の1つの態様によると、ターゲットに関連する物理的な範囲を検知するように光束を発射する光源と、前記ターゲットから反射された前記光束の少なくとも一部を受光する光検出器と、第1のカメラと、前記ターゲットと前記光検出器の間に位置し、前記ターゲットから反射された前記光束を前記光検出器に案内して第1の画像を生成するように配置されているダイクロイックミラーであって、前記ターゲットから反射された可視光を前記第1のカメラに案内して第2の画像を生成するようにさらに配置されている、ダイクロイックミラーと、前記光検出器と前記第1のカメラに接続し、前記第1の画像と前記第2の画像を組み合わせて、前記自律走行車周辺の走行環境を感知するための三次元画像を生成する画像処理ロジックと、を含む、自律走行車のための三次元光検出及び測距装置を提供する。
本発明のもう1つの態様によると、ターゲットに関連する物理的な範囲を検知するように光源により光束を発射するステップと、前記ターゲットと光検出器の間に位置するダイクロイックミラーにより、前記ターゲットから反射された前記光束を前記光検出器に案内して第1の画像を生成するステップと、前記ダイクロイックミラーにより、前記ターゲットから反射された可視光を前記第1のカメラに案内して第2の画像を生成するステップと、前記第1の画像と前記第2の画像に基づいて、前記自律走行車周辺の走行環境を感知するための三次元画像を生成するステップと、含む、自律走行車の三次元光検出及び測距装置を操作するための機械実施方法を提供する。
本発明のもう1つの態様によると、自律走行車であって、ターゲットに関連する物理的な範囲を検知するように光束を発射する光源と、前記ターゲットから反射された前記光束の少なくとも一部を受光する光検出器と、第1のカメラと、前記ターゲットと前記光検出器の間に位置し、前記ターゲットから反射された前記光束を前記光検出器に案内して第1の画像を生成するように配置されているダイクロイックミラーであって、前記ターゲットから反射された可視光を前記第1のカメラに案内して第2の画像を生成するようにさらに配置されているダイクロイックミラーと、を含む光検出及び測距装置と、前記光検出器と前記第1のカメラに接続し、前記第1の画像と前記第2の画像を組み合わせて、前記自律走行車周辺の走行環境を感知するための三次元画像を生成する画像処理ロジックと、前記光検出及び測距装置と前記画像処理ロジックに接続して、前記自律走行車周辺の走行環境を感知し、また、前記走行環境をナビゲートし通過するように前記自律走行車を制御する感知及び計画システムと、を含む自律走行車を提供する。
本願の実施形態は、図面の各図において限定的ではなく例示的な形態で示され、図面における同じ図面符号は類似する素子を示す。
図1は、1つの実施形態に係るネットワークシステムを示すブロック図である。 図2は、1つの実施形態に係る自律走行車の一例を示すブロック図である。 図3は、1つの実施形態に係る自律走行車とともに使用されるLIDARシステムの一例を示す図である。 図4は、もう1つの実施形態に係る自律走行車とともに使用されるLIDARシステムの一例を示す図である。 図5は、1つの実施形態に係るLIDAR画像とカメラ画像のための直接マッピングを示す図である。 図6は、1つの実施形態に係るLIDAR画像とカメラ画像のための間接マッピングを示す図である。 図7は、1つの実施形態に係るLIDARシステムを操作する過程を示すフロー図である。 図8は、1つの実施形態によるデータ処理システムを示すブロック図である。
本発明の様々な実施形態および態様を、以下に説明する詳細を参照して説明する。図面は、前記様々な実施形態を示す。以下の説明および図面は、本発明を説明するものであり、本発明を限定するものと解釈すべきではない。複数の具体的な詳細が、本発明の様々な実施形態の包括的な理解を提供するために記載される。しかし、ある場合に、本発明の実施形態の簡潔な議論を提供するために、周知または従来の詳細は記載されていない。
本明細書における「1つの実施形態」または「実施形態」への言及は、実施形態に関連して説明される特定の特徴、構造、または特性が、本発明の少なくとも1つの実施形態に含まれ得ることを意味する。フレーズ「1つの実施形態において」が本明細書の様々な箇所での現れは、必ずしも同じ実施形態を指すものではない。
いくつかの実施形態によると、三次元(3D)LIDARシステムは、ターゲットに関連する物理的な範囲を検知するように光束を発射する光源(例えば、レーザ)を含む。前記システムは、第1のカメラと光検出器(例えば、フラッシュLIDARユニット)を含む。前記光検出器は、ターゲットから反射された光束の少なくとも一部を受光する。前記システムは、ターゲットと光検出器の間に位置するダイクロイックミラーを含む。前記ダイクロイックミラーは、ターゲットから反射された光束を光検出器に案内して第1の画像を生成するように配置され、ターゲットから反射された可視光を第1のカメラに案内して第2の画像を生成するように配置されている。可視光は、人間に見え、通常のカメラで捕捉できる光であるが、LIDARセンサによって収集された光束は、通常、人間に見えず、カメラで捕捉することもできない。前記システムは、画像処理ロジックを含む。前記画像処理ロジックは、光検出器と第1のカメラに接続し、第1の画像と第2の画像を組み合わせて、画像同期を行わなくて三次元画像を生成する。第1の画像は、LIDARセンサとターゲットとの間の距離を表す距離情報(例えば、垂直次元)を含むことができる。第2の画像は、ターゲットに関連する色情報(例えば、二次元の水平次元)を含むことができる。第1画像と第2の画像とを組み合わせることにより、組み合わせた画像は距離と色の両方の情報を含み、これらが前記ターゲットを三次元で一緒に記述する。
1つの実施形態において、3D画像は、第1の画像における1つ又は複数の画素を第2の画像における1つ又は複数の画素に直接的にマッピングして生成されるものであり、第1の画像の画素密度カウントは、第2の画像の画素密度カウントと異なる。もう1つの実施形態において、三次元画像は、第2の画像に意味分割アルゴリズムを応用し、第2の画像で感知された対象を分類することと、感知された対象に基づいて、第1の画像の1つ又は複数の画素を第2の画像の1つ又は複数の画素に間接にマッピングすることと、により生成される。
1つの実施形態において、システムは、ターゲットとダイクロイックミラーの間に位置し、光検出器で感知された視野を拡大または縮小するズームレンズをさらに含む。1つの実施形態において、3D-LIDARシステムは、ターゲットとダイクロイックミラーの間に位置し、第1の画像の画素密度カウントを増大する走査部をさらに含む。1つの実施形態において、3D-LIDARシステムは、ステレオカメラペアを形成するように第1のカメラに対して位置決めし、第2の画像との視差を感知するための第3画像を生成する第2のカメラをさらに含む。もう1つの実施形態において、前記視差は、第2の画像と第3画像にステレオ分割アルゴリズムを応用することによって感知される。
図1は、本発明の1つの実施形態に係る自律走行車ネットワーク配置を示すブロック図である。図1を参考し、ネットワーク配置100は、ネットワーク102によって1つ以上のサーバ103〜104に通信可能に接続することができる自律走行車101を含む。1つの自律走行車を示すが、複数の自律走行車をネットワーク102によって互いに接続し、及び/又はサーバ103〜104に接続することができる。ネットワーク102は、任意のタイプのネットワーク、例えば有線又は無線のローカルエリアネットワーク(LAN)、例えばインターネットのような広域ネットワーク(WAN)、セルラーネットワーク、衛星ネットワーク又はその組み合わせであってもよい。サーバ103〜104は、任意のタイプのサーバ又はサーバクラスタ、例えばWebサーバ又はクラウドサーバ、アプリケーションサーバ、バックエンドサーバ又はその組み合わせであってもよい。サーバ103〜104は、データ分析サーバ、内容サーバ、交通情報サーバ、地図(マップ)及び興味のある点(MPOI)サーバ又は位置サーバ等であってもよい。
自律走行車とは、運転者からの入力が非常に少ない又はない場合に案内されて環境を通過する自律走行モードに設置される車両である。自律走行車は、車両が走行している環境にかかる情報を検出するように配置される1つまたは複数のセンサを含むセンサシステムを備える。車両及びその関連しているコントローラが、検出された情報を用いて案内して環境を通過する。自律走行車101が手動モード、完全自律走行モードまたは部分自律走行モードで運転されることができる。
一実施形態において、自律走行車101は、感知及び計画システム110と、車両制御システム111と、無線通信システム112と、ユーザインターフェースシステム113と、センサシステム115とを含むが、これらに限定されない。自律走行車101は、通常の車両に含まれるある一般的な構成要素(部材)、例えばエンジン、車輪、ハンドル、変速器等をさらに含んでもよく、前記構成要素は、車両制御システム111及び/又は感知及び計画システム110により多種の通信信号及び/又はコマンド(例えば、加速信号又はコマンド、減速信号又はコマンド、ステアリング信号又はコマンド、ブレーキ信号又はコマンド等)を使用して制御されることができる。
構成要素110〜115は、インターコネクト、バス、ネットワーク又はそれらの組み合わせを介して互いに通信可能に接続することができる。例えば、構成要素110〜115は、コントローラローカルエリアネットワーク(CAN)バスを介して互いに通信可能に接続することができる。CANバスは、マイクロコントローラ及び装置がホストコンピューターのない応用において互いに通信することを許可するような車両バス標準として設計される。それは、最初に自動車内における多重化された電線のために設計されたメッセージに基づくプロトコルであるが、他のたくさんの環境(状況)にも用いられる。
図2を参照すると、1つの実施形態において、センサシステム115は、1つ以上のカメラ211と、全地球測位システム(GPS)ユニット212と、慣性計測ユニット(IMU)213と、レーダーユニット214と、光検出及び測距(LIDAR)ユニット215とを含むが、これらに限定されない。GPSユニットシステム212は、送受信機を含んでもよく、前記送受信機は、自律走行車の位置に関する情報を提供するように操作されることができる。IMUユニット213は、慣性加速度に基づいて自律走行車の位置及び方向変化を検知することができる。レーダーユニット214は、無線信号を利用して自律走行車のローカル環境内の対象を検知するシステムを示すことができる。いくつかの実施形態において、対象を検知する以外、レーダーユニット214は、さらに対象の速度及び/又は走行方向を検知することができる。LIDARユニット215は、レーザを使用して自律走行車の位置する環境における対象を検知することができる。その他のシステム構成要素以外、LIDARユニット215は、1つ以上のレーザ光源、レーザスキャナ及び1つ以上の検出器をさらに含んでもよい。カメラ211は、自律走行車の周辺環境の画像をキャプチャするための1つ以上の装置を含んでもよい。カメラ211は、スチルカメラ及び/又はビデオカメラであってもよい。カメラは、例えば回転及び/又は傾斜のプラットフォームに取り付けられる、機械的に移動可能なものであってもよい。
センサシステム115は、その他のセンサ、例えばソナーセンサ、赤外線センサ、ステアリング(転向)センサ、スロットルセンサ、ブレーキ(制動)センサ、及びオーディオセンサ(例えばマイクロフォン)をさらに含んでもよい。オーディオセンサは、自律走行車周辺の環境から音を取得するように配置されてもよい。ステアリングセンサは、ハンドル、車両の車輪又はその組み合わせのステアリング角を検知するように配置されてもよい。スロットルセンサ及びブレーキセンサは、それぞれ車両のスロットル位置及びブレーキ位置を感知する。いくつかの場合、スロットルセンサ及びブレーキセンサは、集積型スロットル/ブレーキセンサに一体化されてもよい。
1つの実施形態において、車両制御システム111は、ステアリング(転向)ユニット201、スロットルユニット202(加速ユニットとも呼ばれる)、ブレーキ(制動)ユニット203を含むが、これに限定されない。ステアリングユニット201は、車両の方向又は走行方向を調整することに用いられる。スロットルユニット202は、モーター又はエンジンの速度を制御して、さらに車両の速度及び加速度を制御することに用いられる。ブレーキ(制動)ユニット203は、摩擦を提供することによって車両の車輪又はタイヤをスローダウンして車両を減速させることに用いられる。図2に示される構成要素は、ハードウェア、ソフトウェア、またはそれらの組み合わせで実施されてもよいことに留意されたい。
図1を再び参照すると、無線通信システム112は、自律走行車101と、例えば装置、センサ、その他の車両等の外部システムとの間の通信を可能にする。例えば、無線通信システム112は、1つ以上の装置に直接的に又は通信ネットワークを介して無線通信し、例えばネットワーク102によってサーバ103〜104に通信できる。無線通信システム112は、任意のセルラー通信ネットワーク又は無線ローカルエリアネットワーク(WLAN)(例えば、WiFi)を使用して他の構成要素やシステムに通信できる。無線通信システム112は、例えば赤外線リンク、ブルートゥース(登録商標)等を使用して装置(例えば、乗客の移動装置、車両101内の表示装置、スピーカー)に直接的に通信できる。ユーザインターフェースシステム113は、車両101内で実行される周辺装置の一部であってもよく、例えばキーボード、タッチスクリーンディスプレイ装置、マイクロホン、及びスピーカー等を含む。
自律走行車101の一部又は全ての機能は、特に自律走行モードで走行する場合、感知及び計画システム110により制御されたり管理されたりすることができる。感知及び計画システム110は、必要なハードウェア(例えば、プロセッサ、メモリ、記憶装置)、及びソフトウェア(例えば、オペレーティングシステム、計画及びルーティングプログラム)を含み、センサシステム115、車両制御システム111、無線通信システム112、及び/又はユーザインターフェースシステム113から情報を受信し、受信された情報を処理し、出発地から目的地までのルートや経路を計画し、そして、計画及び制御情報に基づいて車両101を走行させる。代替的に、感知及び計画システム110と車両制御システム111とは一体化されてもよい。
例えば、乗客であるユーザは、例えばユーザインターフェースによって行程の出発位置及び目的位置を指定することができる。感知及び計画システム110は、行程に関連するデータを取得する。例えば、感知及び計画システム110は、MPOIサーバから位置及び経路情報を取得することができ、前記MPOIサーバは、サーバ103〜104の一部であってもよい。位置サーバは、位置サービスを提供し、かつ、MPOIサーバは、マップサービス及びある位置のPOIを提供する。あるいは、このような位置及びMPOI情報は、感知及び計画システム110の永続記憶装置にローカルでキャッシュされることができる。
自律走行車101が経路に沿って走行する期間に、感知及び計画システム110は、さらに交通情報システムやサーバ(TIS)からリアルタイム交通情報を取得することができる。なお、サーバ103〜104は、第三者のエンティティにより動作されることができる。あるいは、サーバ103〜104の機能は、感知及び計画システム110と一体化されてもよい。リアルタイム交通情報、MPOI情報、位置情報、及びセンサシステム115が検出又は感知したリアルタイムなローカル環境データ(例えば、障害物、対象、付近車両)に基づいて、感知及び計画システム110は、指定された目的地に安全で効果的に到達するように、最適な経路を計画し、かつ計画された経路により、例えば車両制御システム111を介して車両101を走行させることができる。
サーバ103は、データ分析システムでもよく、さまざまな顧客のためにデータ分析サービスを実行する。1つの実施形態において、データ分析システム103は、データコレクタ121と機械学習エンジン122を含む。データコレクタ121は、様々な車両(自律走行車或いは、人間の運転手によって運転される従来の車両)から運転統計データ123を収集する。運転統計データ123は、発行された運転コマンド(例えば、スロットル、ブレーキ、ステアリングコマンド)、及び車両センサによって異なる時点で収集された車両の応答(例えば、速度、加速、減速、方向)に関する情報を含む。運転統計データ123は、例えば、ルート(出発地と目的地の位置を含む)、MPOI、道路状況、天気状況などの、異なる時点における走行環境を記述する情報をさらに含むことができる。
運転統計データ123に基づいて、機械学習エンジン122は、さまざまな目的のために、ルール、アルゴリズム、および/または予測モデル124のセットを実行または訓練する。アルゴリズム/モデル124は、特定の車両または特定のタイプの車両のために特別に設計または配置することができる。その後、アルゴリズム/モデル124は、関連するADVにロードし、ADVをリアルタイムで運転することができる。アルゴリズム/モデル124は、経路を計画し確定すること、及び、様々な運転シーンまたは状況の下でADVを制御するために使用することができる。例えば、アルゴリズム/モデル124は、カメラユニットによって感知されたRGB(赤、緑、および青)画像についての対象を検出する意味分割アルゴリズムを含む。アルゴリズム/モデル124は、光検出器とカメラで生成した画像を組合せる、及び、同期させるアルゴリズムをさらに含むことができる。
図3は、1つの実施形態に係る自律走行車とともに使用されるLIDARシステムの一例を示す図である。LIDAR装置400は、図2のLIDARユニット215および/またはカメラ211の一部として実施することができる。LIDAR装置400は、対象を検知し自律走行車の目標環境の画像を採集するように、LIDARユニットとカメラとを含む。図3を参考し、1つの実施形態において、LIDAR装置400は、光源401(例えば、レーザ)と、LIDARセンサ403(例えば、光検出器)と、ダイクロイックフィルタ405(例えば、ダイクロイックミラー)と、選択可能なアパーチャ406と、カメラ409及び画像処理ロジック410を含む。光源401は、レーザビームを生成し、アパーチャ406を通してターゲット407まで到達するようにレーザビームを案内する。
ダイクロイックフィルタ、薄膜フィルタ、または干渉フィルタは、他の色を反射しながら小さな範囲の色の光を選択的に通過させる非常に精密なカラーフィルタである。これと比べると、ダイクロイックミラーとダイクロイック反射器は、それらを介して通過させる光の色ではなく、それらに反射された光の色によって特徴付けられる傾向がある。ダイクロイックフィルタは、白色光源からの光をフィルタリングして、人間が高飽和(強い)色として感知する光を生成する。ダイクロイック反射器は、通常に、光源の後ろで使用され、可視光を前方に反射するとともに、固定装置の後ろで目に見えない赤外線(放射熱)が消えるようにすることによって、実際により冷たい(より低い温度)光束を生成する。この構成は、所定の光がその前方強度を著しく増大させる一方で、固定装置の背面部分によって発生した熱を逃がすことを可能にする。
再び図3を参照すると、ダイクロイックフィルタ405は、ターゲット407から反射された光束をLIDARセンサ403に案内して(通過させて)第1の画像を生成する。さらに、ダイクロイックフィルタ405は、可視光をカメラ409に案内して(または反射する)第2の画像を生成する。反射された光束と可視光の両方がアパーチャ406を通過するので、カメラ409はLIDARセンサ403と同じ視野を共有する。よって、第1の画像および第2の画像の視野は、最小の画像同期し、または画像同期を必要としない。1つの実施形態において、LIDARセンサ403およびカメラ409は、互いに対して固定位置に取り付けられる。よって、LIDARセンサ403およびカメラ409によって採集された画像は、(例えば、既知のまたは固定の関係で)自動的に同期される。
もう1つの実施形態において、画像処理ロジック410は、LIDARセンサ403とカメラ409に接続し、カメラおよびLIDARセンサの同期された出力(例えば、第1の画像および第2の画像)に基づいて3D画像を生成する。なお、ダイクロイックフィルタ(またはダイクロイックミラー)が、波長を関数とする光を透過および反射することによって、光をスペクトル的に分離することができる。例えば、約800ナノメータ(nm)のカットオフ波長を有するダイクロイックミラー405は、約850nmより高い周波数帯域を有する光を通過させ(例えば、光源401によって生成された905nmのレーザビームが当該ダイクロイックミラーを通過する)、約750nm未満の周波数帯域を有する光を反射する(例えば、約400nm〜700nmの波長を有する可視光を反射する)ように設計することができる。
1つの実施形態において、光源401とLIDARセンサ403は、集積ユニットでもよく、例えば、フラッシュLIDARユニットである。もう1つの実施形態において、画像処理ロジック410は、LIDAR装置400の外部にある。例えば、図2のセンサシステム115は、カメラ409とLIDARセンサ403の出力に基づいて3D画像を生成する画像処理ロジック410を含むことができる。或いは、画像処理ロジック410は、感知及び計画システム110のソフトウェアモジュール及び/又はハードウェアモジュールとして実施してもよい。1つの実施形態において、選択的に、LIDAR装置400は、ダイクロイックフィルタ405とターゲット407の間に位置し、LIDARセンサの視野を拡大または縮小するズームレンズを含む。もう1つの実施形態において、1つ又は複数ダイクロイックフィルタ或ダイクロイックミラーは、1つ又は複数の光束(例えば、905nmの光束と1550nmの光束等)を1つ又は複数LIDARセンサに案内することに使用してもよい。例えば、第1のダイクロイックフィルタは、第1の波長を有する第1の光束を第1のLIDARセンサに案内することができ、第2のダイクロイックフィルタは、第2の波長を有する第2の光束を第2のLIDARセンサに案内することができる。異なる波長のレーザまたは光束は、水および大気ダスト粒子に対して異なる感度係数を有する。よって、複数のセンサの設置は、LIDAR装置400の信頼性を向上させることができる。
もう1つの実施形態において、選択的に、ダイクロイックフィルタ405とターゲット407の間に、LIDAR装置の視野を調節するための走査部を加えてもよい。走査部は、LIDARセンサ403にデータをインターリーブで検知させることができ、LIDAR装置の解像度(固有の制限)を増大することができる。例えば、8×32画素の出力解像度を有するフラッシュLIDARユニットは、解像度或いは画素計数を16×32画素に増大するようにデータをインターリーブすることができる。1つの実施形態において、ダイクロイックフィルタの代わりにカスタムされたフィルタを採用することによって、LIDARセンサ403和カメラ409の位置を調整又は交換することができる。当該フィルタは、例えば、赤外線または近赤外光(例えば、約905nm)を反射し、可視スペクトルにおける可視光を通過させるフィルタである。
1つの実施形態において、LIDAR装置400は、約45〜60度の視野を有するLIDAR装置(例えば、フラッシュLIDAR)を含む。360度の水平視野の場合に、ADV(図1のADV101など)は、ADVの外部を回って複数の(例えば、6つ以上の)LIDAR装置を配置することができる。1つの実施形態において、LIDAR装置400は、反射された光束を走査して検知するための、微電子と機械システム(MEMS)による走査LIDAR(例えば、MEMSミラーを有するLIDAR)を含む。
図4は、もう1つの実施形態に係る自律走行車とともに使用されるLIDARシステムの一例を示す図である。図4を参考し、LIDAR装置500は、図3のLIDAR装置400と類似している。LIDAR装置500は、ダイクロイックフィルタ505を含む。前記ダイクロイックフィルタ505は、約905nmの光を反射し可視光を通過させるように設計することによって、LIDARセンサ403とカメラ409の位置を交換することができる。なお、LIDAR装置500は、アパーチャ501とカメラ503を含む。カメラ503は、アパーチャ501を通過する可視光から第3の画像を取得し、カメラ409およびカメラ503がベースライン距離だけ離れたステレオペアを形成することができるようにする。カメラ409とカメラ503は、例えばベースライン距離だけ離れている。視差情報(例えば、ステレオ画像間の何れの不一致)に基づいて、カメラ409とカメラ503により採集されたステレオ画像にステレオ対象分割アルゴリズムを応用して、ステレオ深さ画像(例えば、LIDARセンサで生成した画像と似ている1D距離深さ画像)を確定することができる。ステレオ深さ画像は、LIDARセンサ403によって検出された距離深さ画像を補充することができる。1つの実施形態において、各画素又はそれに対応する画素に対して、画像処理ロジック410は、ステレオ画像、ステレオ深さ画像、及びLIDAR深さ画像に最低値関数を応用することができる。もう1つの実施形態において、各画素又はそれに対応する画素に対して、画像処理ロジックは、ステレオ画像、ステレオ深さ画像、及びLIDAR深さ画像に平均関数を応用することができる。
図5は、1つの実施形態に係るLIDAR画像とカメラ画像のための直接マッピングを示す図である。LIDAR画像は、通常、カメラで採集される画像の解像度より低い解像度を有する。例えば、LIDAR画像は8×16画素の画素計数を有することができ、カメラで採集されるRGB画像は1920×1080画素を有することができる。LIDAR画像の各画素は、ターゲットとLIDARセンサとの間の距離深さを示すデータを含む。RGB画像の各画素は、ターゲットのRGB値を表すデータを含む。1つの実施形態において、図3の画像処理ロジック410は、LIDAR画像をRGB画像にマッピングして、3D画像を生成する。前記3D画像は、例えば、深さ情報を備える第3の次元を有するRGB二次元画像である。例えば、生成された3D画像は、4つのチャネル(例えば、R、G、B、および深さ)を含むことができる。図5を参照すると、説明の便宜上、画像601は3×3画素のLIDAR画像であり、RGB画像603は9×9画素である。説明の便宜上、対象610を画像601乃至画像603に施す。この例において、画像601は、深さD2の画素605を1つ有し、残りの画素は、深さD1を有する。D1画像深さおよびD2画像深さは、背景およびLIDARセンサ検知対象610をそれぞれ表すことができる。1つの実施形態において、LIDAR画像はより低い解像度を有するため、画像601の画素のそれぞれが画像603の1つ以上の画素に直接マッピングされる。この例に示すように、深さD2の画素605は、画像603の3×3画素607上にマッピングされる。画像601の残りの画素は深度D1を有し、画像603上の対応する画素にマッピングされる。即ち、9つの画素607のそれぞれは、画素605と同じ深さを有することになる。直接マッピング技術を使用すると、計算負荷の需要は最小であるが、感知された深さ情報はピクセル化になる可能性がある。即ち、対象610の深さマッピング情報は、対象610上の輪郭で正確ではない。
図6は、1つの実施形態に係るLIDAR画像とカメラ画像のための間接マッピングを示す図である。1つの実施形態において、画像処理ロジック410は、意味分割アルゴリズムを使用して、LIDAR画像601をRGB画像703にマッピングする。説明の便宜上、3×3画素の画像601を9×9画素の画素計数(画素カウント)を有する画像703にマッピングする。ここで、画像703には、まず、例えば深さ学習アルゴリズムの意味分割アルゴリズム(図1のアルゴリズム/モデル124の一部として)が応用されて、RGB画像703で感知された対象を検出する。この例において、画像処理ロジックは、画像703に基づいて、対象610を検出する。画像処理ロジックは、検出された情報(例えば、対象610)に基づいて、画像601を画像703にマッピングする。直接マッピングの代わりに、深さD2で対象610の輪郭を追跡する。よって、意味分割によって生成された3D画像で感知された深さ情報を使用することによって、マッピング精度を増大した。
いくつかの実施形態において、LIDAR画像は、ステレオカメラの設置(例えば、それぞれ相対的に位置決めされた二つのカメラ)によって生成されたステレオRGB画像にマッピングされる。このシーンにおいて、画像処理ロジック(画像処理ロジック410など)は、まず、ステレオRGB画像にステレオ分割アルゴリズム(図1のアルゴリズム/モデル124の一部)を応用して、ステレオ深さ画像(例えば、LIDAR画像と似ている1D距離深さ画像)を生成することができる。1D距離深さ画像は、RGB画像と合併して、RGB−深さ画像を形成することができる。RGB−深さ画像は、四つのチャネル(例えば、三つの原色(R、GおよびB)チャネル、及びステレオ分割アルゴリズムで生成する、距離深さを有する第4のチャネル)を含むことができる。
ここで、ステレオ深さ情報(例えば、距離深さチャネル)は、LIDAR画像の解像度(例えば、図6の画像601の例示画像における9個画素計数など)より高い解像度(例えば、図6の画像703の例示画像における81個画素計数など)を有するが、LIDAR画像は、通常、高い精度を有する。1つの実施形態において、画素のそれぞれ又はその対応する画素に対して、画像処理ロジックは、ステレオ深さ画像とLIDAR深さ画像の最低値関数に基づいて、画像チャネルを生成することができる。もう1つの実施形態において、画素のそれぞれ又はその対応する画素に対して、画像処理ロジックは、ステレオ深さ画像とLIDAR深さ画像の平均関数に基づいて、画像チャネルを生成することができる。RGB画像が2D色情報を含み、LIDAR画像が距離情報又は深さ情報のみを含むため、RGB情報と距離情報を組み合わせることによって、3D-LIDAR画像を生成する。
図7は、1つの実施形態に係るLIDARシステムを操作する過程を示すフロー図である。過程800は、処理ロジックで実行されることができる。前記処理ロジックは、ハードウェア、ソフトウェア、或いはその組合せを含むことができる。例えば、過程800は、図3と図4に示す3D-LIDAR装置で実行されることができる。図7を参考して、操作801において、光源は、ターゲットに関連する物理的な範囲を検知するように光束を生成し発射する。操作802において、ターゲットと光検出器の間に位置するダイクロイックミラーは、ターゲットから反射された光束を光検出器に案内して第1の画像を生成する。操作803において、ダイクロイックミラーは、ターゲットから反射された可視光を第1のカメラに案内して第2の画像を生成する。操作804において、処理ロジックは、第1の画像と第2の画像に基づいて、3D画像を生成する。
1つの実施形態において、3D画像は、第1の画像の1つ又は複数の画素を第2の画像の1つ又は複数の画素に直接的にマッピングして生成されるものであり、第1の画像の画素密度カウントは、第2の画像の画素密度カウントと異なる。1つの実施形態において、3D画像は、第2の画像に意味分割アルゴリズムを応用し、第2の画像で感知された対象を分類することと、感知された対象に基づいて、第1の画像の1つ又は複数の画素を第2の画像の1つ又は複数の画素に間接にマッピングすることと、により生成される。
1つの実施形態において、ターゲットとダイクロイックミラーの間に位置するズームレンズは、光検出器で感知された視野を拡大または縮小する。1つの実施形態において、ターゲットとダイクロイックミラーの間に位置する走査部は、第1の画像の画素密度カウントを増大する。1つの実施形態において、第1のカメラと第2のカメラでステレオカメラペアを形成し、処理ロジックは、第2の画像と第2のカメラで生成する第3画像との視差を感知する。もう1つの実施形態において、第2の画像と第3画像にステレオ分割アルゴリズムを応用することによって視差を感知する。
再び図1を参考し、1つの実施形態によると、感知及び計画システム110は、位置決めモジュールと、感知モジュールと、予測モジュールと、決定モジュールと、計画モジュールと、路線モジュール及び制御モジュール(示されていない)を含むが、これらに制限されない。位置決めモジュールは、自律走行車の現在位置(例えば、GPSユニット212を利用する)を確定し、ユーザの行程や路線に関する何れのデータを管理する。位置決めモジュール(地図と路線モジュールとも呼ばれる)は、ユーザの行程や路線に関する何れのデータを管理する。ユーザは、例えば、ユーザインターフェースを介して、行程の開始位置と目的地を指定することができる。位置決めモジュールは、自律走行車の他の部品(地図やルート情報など)と通信し、行程に関するデータを取得する。例えば、位置決めモジュール301は、位置サーバと、地図及びPOI(MPOI)サーバから位置及び路線情報を取得することができる。位置サーバが位置サービスを提供し、かつMPOIサーバが地図サービスと特定な位置のPOIとを提供することにより、地図及びルート情報の一部としてキャッシュされてもよい。自律走行車が路線に沿って移動する場合に、位置決めモジュールは、交通情報システムやサーバからリアルタイム交通情報をさらに取得することができる。
センサシステム115により提供されたセンサデータ、及び位置決めモジュールにより得られた位置決め情報に基づいて、感知モジュールは、周辺環境に対する感知を確定する。感知情報は、普通の運転者が自分で運転している車両周辺から感知したもの(状況)を示すことができる。感知は、例えば対象形式で現される車線配置(例えば、ストレート又はカーブ)、トラフィック信号、他の車両の相対位置、歩行者、建築物、横断歩道又はその他の交通関連標識(例えば、停止標識、譲り標識)などを含んでもよい。
感知モジュールは、コンピュータビジョンシステム又はコンピュータビジョンシステムの機能を含んでもよく、自律走行車環境における対象及び/又は特徴を認識するように、1つ以上のカメラによりキャプチャされた画像を処理及び分析することに用いられる。前記対象は、交通信号、車道の境界線、他の車両、歩行者及び/又は障害物等を含んでもよい。コンピュータビジョンシステムは、対象認識アルゴリズム、ビデオトラッキング及びその他のコンピュータビジョン技術を使用することができる。いくつかの実施形態において、コンピュータビジョンシステムは、環境地図をマッピングし、対象を追跡し、かつ対象の速度を推定することなどができる。感知モジュールは、その他のセンサ(レーダーユニット及び/又はLIDARユニットなど)により提供されたその他のセンサデータに基づいて対象を検出することもできる。
それぞれの対象に対して、予測モジュールは、対象が前記状況でどのように表現されるかを予測する。予測は、1組の地図/路線情報と交通規則を考慮した場合、当該時間点の走行環境を感知する感知データに基づいて実行される。例えば、対象が反対方向に走行する車両であって現在の走行環境が交差点を含む場合に、予測モジュールは、車両がまっすぐに移動するか、それとも回転するかを予測する。感知データが交差点に交通信号機がないと示す場合に、予測モジュールは、車両が交差点に入る前に完全に停止する必要があると予測する可能性がある。感知データが、車両が現在左カーブだけの車線か、右のカーブだけの車線にあると示す場合に、予測モジュールは、車両がより高い傾向で左回る又は右回ると予測する可能性がある。
それぞれの対象に対して、決定モジュールは、如何に対象を処理する決定をする。例えば、特定な対象(例えば、交差ルートにおける他の車両)及び対象を記述するメタデータ(例えば、速度、方向、ステアリング角)に対して、決定モジュールは、遇う対象に如何に対応する(例えば、追い越し、道譲り、停止、通過)ことを決定する。決定モジュールは、永続的記憶装置に記憶されてもよい1セットのルール(例えば運転/交通ルール)に基づきこのような決定をすることができる。
路線モジュールは、出発点から目的地までの1つまたは複数の路線または経路を提供するように配置される。開始位置から目的地までの与えられた行程に対して、例えば、ユーザから入力された所定の行程に対して、路線モジュールは、路線と地図情報を取得し、開始位置から目的地に到着するまでのすべての可能な路線または経路を確定する。路線モジュールは、各路線のために地形図での参照ラインを生成することができ、開始位置から目的地に到着するまでの路線を確定する。参考ラインとは、他の車両、障害物や交通状況のあらゆる干渉による影響を受けない理想路線や理想経路とのことである。即ち、道路上に他の車両、歩行者または障害物がない場合は、ADVは正確又はしっかりと参考線に従う。その後、地形図を決定モジュール及び/又は計画モジュールに提供する。他のモジュールによって提供される他のデータ(例えば、位置決めモジュールからの交通状況、感知モジュールから感知された走行環境、及び予測モジュールから予測された交通状況)を考慮し、決定モジュール及び/又は計画モジュールは、すべての可能なルートをチェックし、最適なルートの中の1つを選択して変更する。該時間点の特定の走行環境によって、ADVを制御するための実際の路線や経路は、路線モジュールから提供された参考ラインに接近する、或いは異なる可能性がある。
感知したそれぞれ対象に対する決定に基づいて、計画モジュールは、路線モジュールによって提供された参考ラインを使用してベースとして自律走行車のために路線又は経路及び運転パラメータ(例えば、距離、速度及び/又はステアリング角)を計画する。すなわち、所定対象に対して、決定モジュールは前記対象に対して如何に対応するかを決定し、計画モジュールは如何に実行するかを確定する。例えば、所定対象に対して、決定モジュールは、前記対象を追い越すことを決定することができ、計画モジュールは、前記対象の左側に追い越すか、右側に追い越すかを確定することができる。計画モジュールは、車両が次の移動周期(例えば、次のルート/経路セグメント)に如何に移動するかを記述する情報を含む計画及び制御データを生成する。例えば、計画及び制御データは車両が毎時間30マイル(mph)の速度で10メートル移動し、次に25mphの速度で右車線まで変わることを指示することができる。
計画及び制御データに基づいて、制御モジュールは計画及び制御データにより定義されたルート又は経路に基づいて、車両制御システム111へ適切な命令又は信号を送信することによって自律走行車を制御及び運転する。前記ルート又は経路に沿って違う時間点で適時に適切な車両設置又は駆動パラメータ(例えば、スロットル、ブレーキ及びステアリング命令)を使用して車両を第1点から第2点まで運転するように、計画及び制御データは十分な情報を含む。
1つの実施形態において、計画段階は、複数の計画周期(指令周期ともいう)において実行され、例えば、各時間間隔が100ミリ秒(ms)である周期で実行される。計画周期又は指令周期のそれぞれに対して、計画と制御データに基づいて1つまたは複数の制御コマンドを発信する。100msごとに、計画モジュールは、目的地或いはADVの目的地までに要する時間を含む次の路線区間または経路区間を計画する。選択可能なのは、計画モジュールは、具体的な速度、方向、または回転角度なども規定することができる。1つの実施形態において、計画モジュールは、次の所定時間区間(5秒など)のために路線区間または経路区間を計画する。計画周期のそれぞれに対して、計画モジュールは、前の周期で計画した目標位置に基づいて現在の周期(例えば、次の5秒)の目標位置を計画する。その後、制御モジュールは、現在の周期の計画と制御データに基づいて1つまたは複数の制御コマンドを生成する(例えば、アクセル、ブレーキ、方向制御コマンド)。
なお、決定モジュール及び計画モジュールは、集積モジュールに一体化されてもよい。決定モジュール/計画モジュールは、自律走行車の運転経路を確定するために、ナビゲーションシステム又はナビゲーションシステムの機能を含んでもよい。例えば、ナビゲーションシステムは、自律走行車が以下の経路に沿って移動することを実現するための一連の速度及びディレクショナ進行方向を確定することができ、前記経路は、自律走行車を総体的に最終目的位置を向けて通じる車線経路に進ませると同時に、基本的に感知された障害物を避けることができる。目的地はユーザインターフェースシステム113により実現されたユーザ入力に基づいて設置できる。ナビゲーションシステムは、自律走行車が走行していると同時に走行経路を動的に更新することができる。ナビゲーションシステムは、自律走行車用の走行経路を確定するように、GPSシステム及び1つ以上の地図からのデータを合併することができる。
決定モジュール/計画モジュールは、自律走行車環境における潜在障害物を、認識・評価・回避又はその他の方式で迂回するために、衝突回避システム又は衝突回避システムの機能をさらに含んでもよい。例えば、衝突回避システムは、以下の方式によって自律走行車のナビゲーションにおける変更を実現することができ、車両制御システム111の中の1つ以上のサブシステムを動作してターン操縦、ステアリング操縦、ブレーキ操縦等を採る。衝突回避システムは、周辺の交通モード、道路状況等に基づいて障害物を回避可能な操縦を自動的に確定することができる。衝突回避システムは、その他のセンサシステムは、自律走行車がターンして入ろうとする隣接領域における車両、建築障害物等を検出する際にターン操縦を採らないように配置できる。衝突回避システムは、使用可能でありかつ自律走行車の乗員の安全性を最大化させる操縦を自動的に選択することができる。衝突回避システムは、自律走行車の乗員室内で最小の加速度を出現させることが予測された回避操縦を選択することができる。
注意すべき点は、前記図示された構成要素の一部または全部は、ソフトウェア、ハードウェア、またはこれらの組み合わせにより実現されることができる。たとえば、これらの構成要素は、本明細書全体に記載されたプロセスまたはステップを実行するために、プロセッサ(図示せず)によってメモリにロードされて実行されることができる永続記憶装置にインストールされて記憶されるソフトウェアとして実現ことができる。代案として、これらの構成要素は、集積回路(例えば、特定用途向け集積回路またはASIC)、デジタル信号プロセッサ(DSP)またはフィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGA)のような専用のハードウェアにプログラムされたり内蔵された実行可能コードとして実現されることができ、これは、アプリケーションから対応するドライバおよび/またはオペレーティングシステムを介してアクセスすることができる。さらに、これらの構成要素は、1つ以上の特定のコマンドを使用してソフトウェアコンポーネントによってアクセス可能なコマンドセットの一部であり、プロセッサまたはプロセッサコアの特定のハードウェアロジックとして実現することができる。
図8は、本出願の一実施形態と組み合わせて使用されるデータ処理システムを例示的に示すブロック図である。例えば、システム1500は、前記プロセス又は方法のいずれか(例えば、図1のデータ処理システム110、及びサーバ103〜104のいずれか)を実行する前記任意のデータ処理システムを示してもよい。システム1500は、複数の異なる構成要素を含んでもよい。これらの構成要素は、集積回路(IC)、集積回路の一部、分散型電子装置又は回路基板(例えば、コンピュータシステムのマザーボード又はアドインカード)に適用された他のモジュール、又は他の方式でコンピュータシステムのシャシーに組み込まれた構成要素として実現されることができる。
さらに、なお、システム1500がコンピュータシステムの複数の構成要素の高レベルビューを示すことを目的とする。しかしながら、いくつかの実現形態では、付加的構成要素が存在する場合があることを理解すべきである。また、他の実現形態において示される構成要素が異なる配置を有してもよい。システム1500は、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、サーバ、携帯電話、メディアプレーヤー、パーソナルディジタルアシスタント(PDA)、スマート腕時計、パーソナルコミュニケーター、ゲーム装置、ネットワークルータ又はハブ、無線アクセス点(AP)又はリピーター、セットトップボックス、又はそれらの組合せを示してもよい。また、単一の機器又はシステムのみを示したが、用語「機器」又は「システム」は、さらに、独立又は共同で1つ(又は複数)のコマンドセットを実行することにより本明細書に説明される任意の1種又は複数種の方法を実行する機器又はシステムの任意のセットを含むことを理解すべきである。
1つの実施形態において、システム1500は、バス又はインターコネクト1510によって接続されたプロセッサ1501、メモリ1503及び装置1505〜1508を備える。プロセッサ1501は、単一のプロセッサコア又は複数のプロセッサコアを含む単一のプロセッサ又は複数のプロセッサを示してもよい。プロセッサ1501は、マイクロプロセッサ、中央処理装置(CPU)等のような1つ又は複数の汎用プロセッサを示してもよい。より具体的には、プロセッサ1501は、複雑コマンドセット計算(CISC)マイクロプロセッサ、縮小コマンドセットコンピュータ(RISC)マイクロプロセッサ、超長コマンド語(VLIW)マイクロプロセッサ、又は他のコマンドセットを実現するプロセッサ、又はコマンドセットの組合せを実現するプロセッサであってもよい。プロセッサ1501は、さらに、専用集積回路(ASIC)、セルラ又はベースバンドプロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、グラフィックプロセッサ、ネットワークプロセッサ、通信プロセッサ、暗号プロセッサ、コプロセッサ、組み込みプロセッサのような1つ又は複数の専用プロセッサ、あるいはコマンド処理可能な任意の他のタイプのロジックであってもよい。
プロセッサ1501(超低電圧プロセッサのような低電力マルチコアプロセッサソケットであってもよい)は、前記システムの各種の構成要素と通信するための主処理ユニット及び中央ハブとして用いられてもよい。このようなプロセッサは、システムオンチップ(SoC)として実現されることができる。プロセッサ1501は、本明細書に説明される動作及びステップを実行するためのコマンドを実行するように構成される。また、システム1500は、選択可能なグラフィックサブシステム1504と通信するグラフィックインターフェースをさらに含んでもよく、グラフィックサブシステム1504は、ディスプレイコントローラ、グラフィックプロセッサ及び/又はディスプレイ装置をさらに備えてもよい。
プロセッサ1501は、一実施形態で与えられた量のシステムメモリを提供するために、多数のメモリ装置を使用して実現することができるメモリ1503と通信することができる。メモリ1503は、ランダムアクセスメモリ(RAM)、ダイナミックRAM(DRAM)、同期DRAM(SDRAM)、スタティックRAM(SRAM)などの1つ以上の揮発性ストレージ(またはメモリ)装置または他のタイプのストレージ装置を含むことができる。メモリ1503は、プロセッサ1501または任意の他の装置によって実行されるコマンドのシーケンスを含む情報を記憶することができる。たとえば、さまざまなオペレーティングシステム、装置ドライバ、ファームウェア(例えば、入出力の基本システムまたはBIOS)、および/またはアプリケーションの実行可能コードおよび/またはデータは、メモリ1503にロードされ、プロセッサ1501によって実行することができる。オペレーティングシステムは、例えば、ロボットオペレーティングシステム(ROS)は、Microsoft(登録商標)社のウィンドウズ(登録商標)オペレーティングシステム、AppleのMacOS(登録商標)/iOS(登録商標)は、Google(登録商標)のAndroid(登録商標)、LINUX(登録商標)、UNIX(登録商標)、または他のリアルタイムまたは組み込みオペレーティングシステムのような任意のタイプのオペレーティングシステムであることができる。
システム1500は、I/O装置、例えば装置1505〜1508をさらに備えてもよく、ネットワークインターフェース装置1505、選択可能な入力装置1506及び他の選択可能なI/O装置1507を備えてもよい。ネットワークインターフェース装置1505は、無線送受信機(無線ドランシーバ)及び/又はネットワークインターフェースカード(NIC)を備えてもよい。前記無線送受信機は、WiFi送受信機、赤外送受信機、ブルートゥース(登録商標)送受信機、WiMax送受信機、無線セルラーホン送受信機、衛星送受信機(例えば、全地球測位システム(GPS)送受信機)又は他の無線周波数(RF)送受信機又はそれらの組合せであってもよい。NICは、イーサネット(登録商標)カードであってもよい。
入力装置1506は、マウス、タッチパッド、タッチスクリーン(それは表示装置1504と集積されてもよい)、ポインタ装置(例えばスタイラス)及び/又はキーボード(例えば、物理キーボード、又はタッチスクリーンの一部として表示された仮想キーボード)を備えてもよい。例えば、入力装置1506は、タッチスクリーンに接続されるタッチスクリーンコントローラを含んでもよい。タッチスクリーン及びタッチスクリーンコントローラは、例えば複数種のタッチ感度技術(容量式、抵抗式、赤外式及び表面音波の技術を含むが、それらに限定されない)のいずれか、及びタッチスクリーンの1つ又は複数の接触点を決定するための他の近接センサアレイ又は他の素子を用いて、そのタッチ点及び移動又は断続を検出することができる。
I/O装置1507は、音声装置を備えてもよい。音声装置は、スピーカー及び/又はマイクロホンを含んでもよく、それにより音声認識、音声コピー、デジタル記録及び/又は電話機能のような音声サポートの機能を促進する。他のI/O装置1507は、汎用シリアルバス(USB)ポート、パラレルポート、シリアルポート、印刷機、ネットワークインターフェース、バスブリッジ(例えば、PCI〜PCIブリッジ)、センサ(例えば、加速度計、ジャイロスコープ、磁力計、光センサ、コンパス、近接センサ等のような動きセンサ)又はそれらの組合せをさらに備えてもよい。装置1507は、結像処理サブシステム(例えば、カメラ)をさらに備えてもよく、前記結像処理サブシステムは、カメラ機能(例えば、写真及びビデオ断片の記録)を促進するための電荷カップリング装置(CCD)又は相補型金属酸化物半導体(CMOS)光学センサのような光学センサを備えてもよい。あるセンサは、センサハブ(図示せず)によってインターコネクト1510に接続されてもよく、キーボード又は熱センサのような他の装置は、組み込みコントローラ(図示せず)により制御されてもよく、これはシステム1500の特定配置又は設計により決められる。
データ、アプリケーション、1つ又は複数のオペレーティングシステム等のような情報の永続記憶を提供するために、大容量メモリ(図示せず)が、プロセッサ1501に接続されてもよい。様々な実施形態において、薄型化と軽量化のシステム設計を実現しかつシステムの応答能力を向上させるために、このような大容量メモリは、ソリッドステート装置(SSD)によって実現されることができる。なお、他の実施形態において、大容量メモリは、主にハードディスクドライブ(HDD)で実現されてもよく、少量のSSD記憶量は、SSDキャッシュとして、停電イベント期間にコンテキスト状態及び他のこのような情報の不揮発性記憶を実現し、それによりシステム動作が再開する時に通電を速く実現することができる。さらに、フラッシュ装置は、例えばシリアルペリフェラルインターフェース(SPI)によってプロセッサ1501に接続されてもよい。このようなフラッシュ装置は、システムソフトウェアの不揮発性記憶に用いられてもよく、前記システムソフトウェアは、前記システムのBIOS及び他のファームウェアを備える。
ストレージ装置1508は、任意の1種又は複数種の本明細書に記載の方法又は機能を実現する1つ又は複数のコマンドセット又はソフトウェア(例えば、モジュール、ユニット及び/又はロジック1528)が記憶されるコンピュータアクセス可能な記憶媒体1509(機械可読記憶媒体又はコンピュータ可読媒体とも呼ばれる)を備えてもよい。処理モジュール/ユニット/ロジック1528は、例えば、計画モジュール304及び/又は制御モジュール305のような前記構成要素のいずれかを示してもよい。処理モジュール/ユニット/ロジック1528は、さらにデータ処理システム1500、メモリ1503及びプロセッサ1501により実行される期間に、メモリ1503内及び/又はプロセッサ1501内に完全又は少なくとも部分的に存在してもよく、ここで、メモリ1503及びプロセッサ1501も、機器アクセス可能な記憶媒体を構成する。処理モジュール/ユニット/ロジック1528は、さらにネットワークによってネットワークインターフェース装置1505を経由して送受信されてもよい。
コンピュータ可読記憶媒体1509は、以上に説明されたいくつかのソフトウェア機能の一部を永続的に記憶してもよい。コンピュータ可読記憶媒体1509は、例示的な実施形態において単一の媒体として示されたが、用語「コンピュータ可読記憶媒体」は、前記1つ又は複数のコマンドセットが記憶される単一の媒体又は複数の媒体(例えば、集中型又は分散型データベース、及び/又は関連するキャッシュ及びサーバ)を備えることを理解すべきである。用語「コンピュータ可読記憶媒体」は、さらにコマンドセットを記憶又はコーディング可能な任意の媒体を備えることを理解すべきであり、前記コマンドセットは、機器により実行されかつ前記機器に本発明の任意の1種又は複数種の方法を実行させる。従って、用語「コンピュータ可読記憶媒体」は、ソリッドステートメモリ及び光学媒体と磁気媒体又は任意の他の非一時的機械可読媒体を備えるが、それらに限定されないことを理解すべきである。
本明細書に記載の処理モジュール/ユニット/ロジック1528、構成要素及び他の特徴は、ディスクリートハードウェア構成要素として実現されてもよく、又はハードウェア構成要素(例えばASICS、FPGA、DSP又は類似装置)の機能に統合されてもよい。さらに、処理モジュール/ユニット/ロジック1528は、ハードウェア装置内のファームウェア又は機能回路として実現されてもよい。また、処理モジュール/ユニット/ロジック1528は、ハードウェア装置及びソフトウェアコンポーネントの任意の組合せで実現されてもよい。
なお、システム1500は、データ処理システムの各種の構成要素を有するように示されているが、構成要素の相互接続のいかなる特定のアーキテクチャー又は方式を示すものではないことに注意すべきであり、それは、このような詳細が本発明の実施形態に密接な関係がないためである。また、より少ない構成要素又はより多くの構成要素を有するネットワークコンピュータ、ハンドヘルドコンピュータ、携帯電話、サーバ及び/又は他のデータ処理システムは、本発明の実施形態と共に使用されてもよい。
前記詳細な説明の一部は、コンピュータメモリにおけるデータビットに対する演算のアルゴリズム及び記号表現で示される。これらのアルゴリズムの説明及び表現は、データ処理分野における当業者によって使用され、それらの作業実質を所属分野の他の当業者に最も効果的に伝達する方法である。ここで、アルゴリズムは、通常、所望の結果につながる首尾一貫した動作列(sequence of operations)と考えられる。これらの動作とは、物理量に対して物理的動作を行う必要となるステップを指す。
ただし、これらの全ての及び類似の用語は、いずれも適切な物理量に関連付けられ、かつただこれらの量に適用される適切なラベルであることに注意すべきである。特に断らない限り、本出願の全体にわたって用語(例えば、添付している特許請求の範囲に説明された用語)による説明とは、コンピュータシステム又は類似の電子計算装置の動作及び処理であり、前記コンピュータシステム又は電子計算装置は、コンピュータシステムのレジスタ及びメモリに物理(例えば、電子)量としてデータを示し、かつ前記データをコンピュータシステムメモリ又はレジスタ又は他のこのような情報記憶装置、伝送又は表示装置内において類似に物理量として示される他のデータに変換する。
本発明の実施形態は、さらに本明細書における動作を実行するためのコンピュータプログラムに関する。このようなコンピュータプログラムは、非揮発性のンピュータ可読媒体に記憶される。機器可読媒体は、機器(例えば、コンピュータ)可読な形態で情報を記憶する任意の機構を備える。例えば、機器可読(例えば、コンピュータ可読)媒体は、機器(例えば、コンピュータ)可読記憶媒体(例えば、読み出し専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリメモリ)を備える。
前記図面に示される手順又は方法は、ハードウェア(例えば、回路、専用ロジック等)、ソフトウェア(例えば、非揮発性のコンピュータ可読媒体に具現化される)、又は両方の組合せを含む処理ロジックにより実行されてもよい。前記手順又は方法は、本明細書において特定の順序に応じて説明されるが、説明された動作の一部は、異なる順序に応じて実行されてもよい。また、いくつかの動作は、順番ではなく並行に実行されてもよい。
本発明の実施形態は、いずれかの特定のプログラミング言語を参照して説明されていないが、複数種のプログラミング言語で本明細書に記載の本発明の実施形態の教示を実現できることを理解すべきである。
以上の明細書では、本発明の具体的な例示的な実施形態を参照してその実施形態を説明した。明らかなように、添付している特許請求の範囲に記載の本発明のより広い趣旨及び範囲を逸脱しない限り、様々な変形が可能である。従って、限定的なものではなく例示的なものとして本明細書及び図面を理解すべきである。

Claims (21)

  1. ターゲットに関連する物理的な範囲を検知するように光束を発射する光源と、
    前記ターゲットから反射された前記光束の少なくとも一部を受光する光検出器と、
    第1のカメラと、
    前記ターゲットと前記光検出器の間に位置し、前記ターゲットから反射された前記光束を前記光検出器に案内して第1の画像を生成するように配置されているダイクロイックミラーであって、前記ターゲットから反射された可視光を前記第1のカメラに案内して第2の画像を生成するようにさらに配置されている、ダイクロイックミラーと、
    前記光検出器と前記第1のカメラに接続し、前記第1の画像と前記第2の画像を組み合わせて、前記自律走行車周辺の走行環境を感知するための三次元画像を生成する画像処理ロジックと、を含む
    ことを特徴とする、自律走行車のための三次元光検出及び測距装置。
  2. 前記三次元画像は、前記第1の画像における1つ又は複数の画素を前記第2の画像における1つ又は複数の画素に直接的にマッピングして生成されるものであり、前記第1の画像の画素密度カウント(pixel density count)は、前記第2の画像の画素密度カウントと異なる
    ことを特徴とする請求項1に記載の装置。
  3. 前記三次元画像は、
    前記第2の画像に意味分割アルゴリズム(semantic segmentation algorithm)を応用し、前記第2の画像で感知された対象を分類することと、
    感知された対象に基づいて、前記第1の画像の1つ又は複数の画素を前記第2の画像の1つ又は複数の画素に間接にマッピングすることと、により生成される
    ことを特徴とする請求項1に記載の装置。
  4. 前記ターゲットと前記ダイクロイックミラーの間に位置し、前記光検出器で感知された視野を拡大または縮小するズームレンズをさらに含む
    ことを特徴とする請求項1に記載の装置。
  5. 前記ターゲットと前記ダイクロイックミラーの間に位置し、前記第1の画像の画素密度カウントを増大する走査部をさらに含む
    ことを特徴とする請求項1に記載の装置。
  6. ステレオカメラペアを形成するように前記第1のカメラに対して位置決めし、前記第2の画像との視差を感知するための第3画像を生成する第2のカメラをさらに含む
    ことを特徴とする請求項1に記載の装置。
  7. 前記視差は、前記第2の画像と前記第3画像にステレオ分割アルゴリズム(stereo segmentation algorithm)を応用することによって感知される
    ことを特徴とする請求項6に記載の装置。
  8. ターゲットに関連する物理的な範囲を検知するように光源により光束を発射するステップと、
    前記ターゲットと光検出器の間に位置するダイクロイックミラーにより、前記ターゲットから反射された前記光束を前記光検出器に案内して第1の画像を生成するステップと、
    前記ダイクロイックミラーにより、前記ターゲットから反射された可視光を前記第1のカメラに案内して第2の画像を生成するステップと、
    前記第1の画像と前記第2の画像に基づいて、前記自律走行車周辺の走行環境を感知するための三次元画像を生成するステップと、
    含むことを特徴とする自律走行車の三次元光検出及び測距装置を操作するための機械実施方法。
  9. 前記三次元画像は、前記第1の画像における1つ又は複数の画素を前記第2の画像における1つ又は複数の画素に直接的にマッピングして生成されるものであり、前記第1の画像の画素密度カウントは、前記第2の画像の画素密度カウントと異なる
    ことを特徴とする請求項8に記載の方法。
  10. 前記三次元画像は、
    前記第2の画像に意味分割アルゴリズムを応用し、前記第2の画像で感知された対象を分類することと、
    感知された対象に基づいて、前記第1の画像の1つ又は複数の画素を前記第2の画像の1つ又は複数の画素に間接にマッピングすることと、
    により生成される
    ことを特徴とする請求項8に記載の方法。
  11. 前記ターゲットと前記ダイクロイックミラーの間に位置するズームレンズを介して、前記光検出器で感知された視野を拡大または縮小するステップをさらに含む
    ことを特徴とする請求項8に記載の方法。
  12. 前記ターゲットと前記ダイクロイックミラーの間に位置する走査部を介して、前記第1の画像の画素密度カウントを増大するステップをさらに含む
    ことを特徴とする請求項8に記載の方法。
  13. 前記第1のカメラと第2のカメラによりステレオカメラペアを形成し、前記第2の画像と前記第2のカメラにより生成された第3画像との視差を感知するステップをさらに含む
    ことを特徴とする請求項8に記載の方法。
  14. 前記視差は、前記第2の画像と前記第3画像にステレオ分割アルゴリズムを応用することにより感知される
    ことを特徴とする請求項13に記載の方法。
  15. 自律走行車であって、
    ターゲットに関連する物理的な範囲を検知するように光束を発射する光源と、
    前記ターゲットから反射された前記光束の少なくとも一部を受光する光検出器と、
    第1のカメラと、
    前記ターゲットと前記光検出器の間に位置し、前記ターゲットから反射された前記光束を前記光検出器に案内して第1の画像を生成するように配置されているダイクロイックミラーであって、前記ターゲットから反射された可視光を前記第1のカメラに案内して第2の画像を生成するようにさらに配置されているダイクロイックミラーと、を含む光検出及び測距装置と、
    前記光検出器と前記第1のカメラに接続し、前記第1の画像と前記第2の画像を組み合わせて、前記自律走行車周辺の走行環境を感知するための三次元画像を生成する画像処理ロジックと、
    前記光検出及び測距装置と前記画像処理ロジックに接続して、前記自律走行車周辺の走行環境を感知し、また、前記走行環境をナビゲートし通過するように前記自律走行車を制御する感知及び計画システムと、を含む
    ことを特徴とする自律走行車。
  16. 前記三次元画像は、前記第1の画像における1つ又は複数の画素を前記第2の画像における1つ又は複数の画素に直接的にマッピングして生成されるものであり、前記第1の画像の画素密度カウントは、前記第2の画像の画素密度カウントと異なる
    ことを特徴とする請求項15に記載の自律走行車。
  17. 前記三次元画像は、
    前記第2の画像に意味分割アルゴリズムを応用し、前記第2の画像で感知された対象を分類することと、
    感知された対象に基づいて、前記第1の画像の1つ又は複数の画素を前記第2の画像の1つ又は複数の画素に間接にマッピングすることと、
    により生成される
    ことを特徴とする請求項15に記載の自律走行車。
  18. 前記光検出及び測距装置は、
    前記ターゲットと前記ダイクロイックミラーの間に位置し、前記光検出器で感知された視野を拡大または縮小するズームレンズをさらに含む
    ことを特徴とする請求項15に記載の自律走行車。
  19. 前記光検出及び測距装置は、
    前記ターゲットと前記ダイクロイックミラーの間に位置し、前記第1の画像の画素密度カウントを増大する走査部をさらに含む
    ことを特徴とする請求項15に記載の自律走行車。
  20. 前記光検出及び測距装置は、
    ステレオカメラペアを形成するように前記第1のカメラに対して位置決めし、前記第2の画像との視差を感知するための第3画像を生成する第2のカメラをさらに含む
    ことを特徴とする請求項15に記載の自律走行車。
  21. 前記視差は、前記第2の画像と前記第3画像にステレオ分割アルゴリズムを応用することによって感知される
    ことを特徴とする請求項20に記載の自律走行車。
JP2018188878A 2017-10-27 2018-10-04 ダイクロイックミラーを使用する、自律走行車のための3d−lidarシステム Active JP6830936B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/796,546 2017-10-27
US15/796,546 US11758111B2 (en) 2017-10-27 2017-10-27 3D lidar system using a dichroic mirror for autonomous driving vehicles

Publications (2)

Publication Number Publication Date
JP2019109219A true JP2019109219A (ja) 2019-07-04
JP6830936B2 JP6830936B2 (ja) 2021-02-17

Family

ID=63637683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018188878A Active JP6830936B2 (ja) 2017-10-27 2018-10-04 ダイクロイックミラーを使用する、自律走行車のための3d−lidarシステム

Country Status (5)

Country Link
US (1) US11758111B2 (ja)
EP (1) EP3477338A1 (ja)
JP (1) JP6830936B2 (ja)
KR (1) KR102100051B1 (ja)
CN (1) CN109725634B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012133A (ja) * 2019-07-08 2021-02-04 株式会社リコー 測距装置、情報処理装置、測距方法、車載装置、移動体、測距システム
WO2022196534A1 (ja) * 2021-03-17 2022-09-22 京セラ株式会社 電磁波検出装置

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11758111B2 (en) * 2017-10-27 2023-09-12 Baidu Usa Llc 3D lidar system using a dichroic mirror for autonomous driving vehicles
CN110378185A (zh) * 2018-04-12 2019-10-25 北京图森未来科技有限公司 一种应用于自动驾驶车辆的图像处理方法、装置
WO2019236588A1 (en) 2018-06-04 2019-12-12 The Research Foundation For The State University Of New York System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3d space based on mapping and navigation to a precise poi destination using a smart laser pointer device
US10679369B2 (en) * 2018-06-12 2020-06-09 Chiral Software, Inc. System and method for object recognition using depth mapping
US11199413B2 (en) * 2018-07-19 2021-12-14 Qualcomm Incorporated Navigation techniques for autonomous and semi-autonomous vehicles
US11227409B1 (en) 2018-08-20 2022-01-18 Waymo Llc Camera assessment techniques for autonomous vehicles
US11699207B2 (en) * 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
US11079492B1 (en) * 2018-09-28 2021-08-03 Zoox, Inc. Condition dependent parameters for large-scale localization and/or mapping
US10627512B1 (en) * 2018-11-29 2020-04-21 Luminar Technologies, Inc. Early fusion of lidar return data with camera information
KR102297836B1 (ko) * 2019-11-07 2021-09-03 네이버랩스 주식회사 딥 러닝 기반 가상 환경 점 군 데이터의 반사도 정보 검출 방법 및 그를 수행하는 전자 장치
US11763433B2 (en) * 2019-11-14 2023-09-19 Samsung Electronics Co., Ltd. Depth image generation method and device
US11567173B2 (en) 2020-03-04 2023-01-31 Caterpillar Paving Products Inc. Systems and methods for increasing lidar sensor coverage
US11598878B2 (en) * 2020-04-07 2023-03-07 Teledyne Scientific & Imaging, Llc Vision-cued random-access lidar system and method for localization and navigation
US20220018940A1 (en) * 2020-07-16 2022-01-20 Comotomo Corporation Vision first light detection and ranging system
KR102239594B1 (ko) * 2020-09-04 2021-04-13 (주)딥인사이트 굴곡 표현 이미지를 생성하기 위한 전자 장치 및 방법
CN114578380A (zh) * 2020-12-02 2022-06-03 华为技术有限公司 探测装置及其控制方法、控制装置、激光雷达系统和终端
KR20220079100A (ko) 2020-12-04 2022-06-13 (주)에이지광학 차량용 라이다에 적용하기 위한 고굴절율 렌즈의 제조방법.
KR102654614B1 (ko) * 2020-12-11 2024-04-05 재단법인대구경북과학기술원 깊이 이미지 생성 장치 및 그 동작 방법
CN112766135B (zh) * 2021-01-14 2024-03-19 北京航空航天大学杭州创新研究院 目标检测方法、装置、电子设备和存储介质
GB2603774A (en) * 2021-02-11 2022-08-17 Wind Farm Analytics Ltd A Turbine Provided with Data for Parameter Improvement
WO2022093303A1 (en) * 2021-02-17 2022-05-05 Futurewei Technologies, Inc. Unisource multi-modal perception in autonomous vehicles
DE102021120807A1 (de) * 2021-08-10 2023-02-16 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Lidar-sensorvorrichtung und messverfahren
KR20230097572A (ko) 2021-12-24 2023-07-03 (주)에이지광학 차량용 라이다에 적용하기 위한 고굴절율 렌즈의 제조방법.
JP2023137090A (ja) * 2022-03-17 2023-09-29 株式会社東芝 測距装置及び測距方法
US11871130B2 (en) * 2022-03-25 2024-01-09 Innovusion, Inc. Compact perception device
WO2024049500A2 (en) * 2022-03-25 2024-03-07 Innovusion, Inc. Multimodal detection with integrated sensors
WO2024013142A1 (en) * 2022-07-15 2024-01-18 Lightcode Photonics Oü Image capture device with wavelength separation device

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002369049A (ja) * 2001-06-08 2002-12-20 Pentax Corp 画像検出装置と絞り装置
JP2003272061A (ja) * 2002-03-13 2003-09-26 Omron Corp 監視装置
JP2005216160A (ja) * 2004-01-30 2005-08-11 Secom Co Ltd 画像生成装置、侵入者監視装置及び画像生成方法
JP2006509211A (ja) * 2002-12-09 2006-03-16 サーノフ・コーポレーション 多重同期ビデオストリームからの動的奥行き復元
JP2006323693A (ja) * 2005-05-19 2006-11-30 Olympus Corp 処理装置、画像処理方法および画像処理プログラム
JP2010035168A (ja) * 2008-07-25 2010-02-12 Samsung Electronics Co Ltd イメージング装置および方法
DE102010055865A1 (de) * 2010-12-22 2011-07-28 Daimler AG, 70327 Kameravorrichtung für einen Kraftwagen
US20120044476A1 (en) * 2008-05-09 2012-02-23 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3d lidar
KR20150068545A (ko) * 2013-12-11 2015-06-22 한국생산기술연구원 복합 영상 센싱 시스템
US20170061632A1 (en) * 2015-08-24 2017-03-02 Qualcomm Incorporated Systems and methods for depth map sampling
JP2017073755A (ja) * 2015-10-09 2017-04-13 キヤノン株式会社 符号化装置及びその制御方法、プログラム並びに記憶媒体

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4032843B2 (ja) 2002-06-25 2008-01-16 富士重工業株式会社 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法
JP2005332404A (ja) 2002-09-24 2005-12-02 Motoi Soken:Kk コンテンツ提供システム
JP5072195B2 (ja) 2005-05-13 2012-11-14 三菱重工業株式会社 監視装置
JP5584603B2 (ja) 2010-12-06 2014-09-03 富士通テン株式会社 情報提供システムおよび情報提供装置
US10848731B2 (en) * 2012-02-24 2020-11-24 Matterport, Inc. Capturing and aligning panoramic image and depth data
US9091748B2 (en) 2012-04-18 2015-07-28 Raytheon Company Methods and apparatus for 3D UV imaging
US20130342657A1 (en) * 2012-06-15 2013-12-26 Nikon Corporation Stereo vision camera for laser radar
KR101976463B1 (ko) 2012-08-29 2019-05-09 엘지전자 주식회사 3차원 영상 생성 장치 및 방법
JP2014072586A (ja) 2012-09-27 2014-04-21 Sharp Corp 表示装置、表示方法、テレビジョン受像機、プログラム、および、記録媒体
JP2014203207A (ja) 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US9215510B2 (en) 2013-12-06 2015-12-15 Rovi Guides, Inc. Systems and methods for automatically tagging a media asset based on verbal input and playback adjustments
CN104899855A (zh) * 2014-03-06 2015-09-09 株式会社日立制作所 三维障碍物检测方法和装置
EP3166023A4 (en) 2014-07-04 2018-01-24 Clarion Co., Ltd. In-vehicle interactive system and in-vehicle information appliance
US9369689B1 (en) * 2015-02-24 2016-06-14 HypeVR Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
US10126411B2 (en) * 2015-03-13 2018-11-13 Continental Advanced Lidar Solutions Us, Llc. Beam steering LADAR sensor
KR102614323B1 (ko) * 2015-04-01 2023-12-14 바야비전 리미티드 수동 및 능동 측정을 이용한 장면의 3차원 지도 생성
US9598076B1 (en) 2015-10-22 2017-03-21 Ford Global Technologies, Llc Detection of lane-splitting motorcycles
CN106080397B (zh) * 2016-08-25 2019-11-26 北京奇虎科技有限公司 自适应巡航系统及车载设备
US10379540B2 (en) * 2016-10-17 2019-08-13 Waymo Llc Light detection and ranging (LIDAR) device having multiple receivers
US10737695B2 (en) * 2017-07-01 2020-08-11 Tusimple, Inc. System and method for adaptive cruise control for low speed following
US10447973B2 (en) * 2017-08-08 2019-10-15 Waymo Llc Rotating LIDAR with co-aligned imager
US11758111B2 (en) 2017-10-27 2023-09-12 Baidu Usa Llc 3D lidar system using a dichroic mirror for autonomous driving vehicles
US10222474B1 (en) 2017-12-13 2019-03-05 Soraa Laser Diode, Inc. Lidar systems including a gallium and nitrogen containing laser light source
US11372090B2 (en) * 2018-12-10 2022-06-28 Baidu Usa Llc Light detection and range (LIDAR) device with SPAD and APD sensors for autonomous driving vehicles
CN111366940A (zh) 2020-04-01 2020-07-03 温州职业技术学院 一种便于移动的室内设计用测量装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002369049A (ja) * 2001-06-08 2002-12-20 Pentax Corp 画像検出装置と絞り装置
JP2003272061A (ja) * 2002-03-13 2003-09-26 Omron Corp 監視装置
JP2006509211A (ja) * 2002-12-09 2006-03-16 サーノフ・コーポレーション 多重同期ビデオストリームからの動的奥行き復元
JP2005216160A (ja) * 2004-01-30 2005-08-11 Secom Co Ltd 画像生成装置、侵入者監視装置及び画像生成方法
JP2006323693A (ja) * 2005-05-19 2006-11-30 Olympus Corp 処理装置、画像処理方法および画像処理プログラム
US20120044476A1 (en) * 2008-05-09 2012-02-23 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3d lidar
JP2010035168A (ja) * 2008-07-25 2010-02-12 Samsung Electronics Co Ltd イメージング装置および方法
DE102010055865A1 (de) * 2010-12-22 2011-07-28 Daimler AG, 70327 Kameravorrichtung für einen Kraftwagen
KR20150068545A (ko) * 2013-12-11 2015-06-22 한국생산기술연구원 복합 영상 센싱 시스템
US20170061632A1 (en) * 2015-08-24 2017-03-02 Qualcomm Incorporated Systems and methods for depth map sampling
JP2017073755A (ja) * 2015-10-09 2017-04-13 キヤノン株式会社 符号化装置及びその制御方法、プログラム並びに記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
日浦 慎作,外2名: ""リアルタイム距離画像センサによる動物体の多視点観測"", 電子情報通信学会技術研究報告, vol. 第95巻第16号, JPN6020005748, 24 April 1995 (1995-04-24), pages 35 - 40, ISSN: 0004215797 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012133A (ja) * 2019-07-08 2021-02-04 株式会社リコー 測距装置、情報処理装置、測距方法、車載装置、移動体、測距システム
JP7298350B2 (ja) 2019-07-08 2023-06-27 株式会社リコー 測距装置、情報処理装置、測距方法、車載装置、移動体、測距システム
WO2022196534A1 (ja) * 2021-03-17 2022-09-22 京セラ株式会社 電磁波検出装置

Also Published As

Publication number Publication date
KR20190047595A (ko) 2019-05-08
CN109725634A (zh) 2019-05-07
US11758111B2 (en) 2023-09-12
US20190132572A1 (en) 2019-05-02
CN109725634B (zh) 2023-04-28
KR102100051B1 (ko) 2020-04-10
JP6830936B2 (ja) 2021-02-17
EP3477338A1 (en) 2019-05-01

Similar Documents

Publication Publication Date Title
JP6830936B2 (ja) ダイクロイックミラーを使用する、自律走行車のための3d−lidarシステム
EP3633408B1 (en) Planning driven perception system for autonomous driving vehicles
KR102223270B1 (ko) 여분의 초음파 radar를 구비한 자율 주행 차량
CN111247495B (zh) 用于自动驾驶车辆的低速场景的行人交互系统
CN108139756B (zh) 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和系统
CN108427123B (zh) Lidar装置和用于操作lidar装置的方法
US10943485B2 (en) Perception assistant for autonomous driving vehicles (ADVs)
CN111328411B (zh) 用于自动驾驶车辆的行人概率预测系统
US11561546B2 (en) Tunnel-based planning system for autonomous driving vehicles
CN111044992A (zh) 用于自动驾驶的基于交叉验证的自动lidar校准
US20200334985A1 (en) Parking management architecture for parking autonomous driving vehicles
US20190325234A1 (en) Lane post-processing in an autonomous driving vehicle
WO2020062033A1 (en) Control dominated three-point turn planning for autonomous driving vehicles
CN111328385A (zh) 用于自动驾驶车辆的基于螺旋路径的三点转弯规划
CN111103876A (zh) 自动驾驶车辆的基于雷达通信的扩展感知
KR20200037123A (ko) 에뮬레이션 기반의 자율 주행 차량의 3점 방향 전환 계획
US20200278692A1 (en) Two inertial measurement units and gps based localization system for an autonomous driving truck

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200916

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210127

R150 Certificate of patent or registration of utility model

Ref document number: 6830936

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250