JP2021016151A - 少なくとも1つのカメラと光検出および測距センサを較正するためのシステムおよび方法 - Google Patents

少なくとも1つのカメラと光検出および測距センサを較正するためのシステムおよび方法 Download PDF

Info

Publication number
JP2021016151A
JP2021016151A JP2020115038A JP2020115038A JP2021016151A JP 2021016151 A JP2021016151 A JP 2021016151A JP 2020115038 A JP2020115038 A JP 2020115038A JP 2020115038 A JP2020115038 A JP 2020115038A JP 2021016151 A JP2021016151 A JP 2021016151A
Authority
JP
Japan
Prior art keywords
image
camera
point cloud
processors
lidar sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020115038A
Other languages
English (en)
Inventor
ション ハント
Hunt Shawn
ション ハント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso International America Inc
Original Assignee
Denso Corp
Denso International America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso International America Inc filed Critical Denso Corp
Publication of JP2021016151A publication Critical patent/JP2021016151A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】1つのカメラとLiDARセンサの較正を容易に行えるようにする。【解決手段】システム12は、プロセッサ22と、初期較正モジュール36およびユーザ較正モジュール38を格納するメモリ34を含む。初期較正モジュール36は、プロセッサ22に、カメラ14からカメラ画像を取得させ、カメラ画像がエッジを持つ物体を含むときを判定させ、LiDARセンサ16からエッジを持つ物体を含む3次元点群画像を取得させ、カメラ画像の一部と3次元点群画像の一部を含む合成画像を生成させる命令を含む。ユーザ較正モジュール38は、プロセッサ22に、合成画像をディスプレイに表示させ、ユーザインターフェースから、3次元点群画像および/またはカメラ画像を移動する入力を受信させ、ユーザインターフェースからの入力に応じて、LiDARセンサ16とカメラ14の少なくとも1つの較正パラメータを調整させる命令を含む。【選択図】図2

Description

本明細書に記載の主題は、概して、少なくとも1つのカメラと、光検出および測距(「LiDAR」)センサを較正するためのシステムおよび方法に関する。
提供される背景技術の説明は、本開示の一般的な文脈を提示するためのものである。この背景技術の欄に記載されている可能性がある範囲での本発明者の研究、および出願時に先行技術としてみなされない可能性がある説明の記載の側面は、明示的にも黙示的にも現在の技術に対する先行技術として認容されない。
一部の車両、特に自律車両には、外部物体の存在を検出するための多数のセンサが装備されている。センサは、周囲環境の二次元画像を撮像することができる1つ以上のカメラを含むことができる。さらに、センサは、3次元の点群画像を撮像することができるLiDARセンサを含むことができる。システムが、カメラとLiDARセンサからのデータを正しく解釈するためには、カメラとLiDARセンサが、同じまたはそれに近い視野を撮像するように較正される必要がある。
一部のカメラとLiDARセンサは、チェッカーボードなどの既知のターゲットを使用して較正される。他のカメラとLiDARセンサは、ターゲットを必要とせずに較正され、環境内の物体を検出し、検出された物体に基づいてカメラとLiDARセンサの較正を試みることに依拠する。カメラとLiDARセンサの較正は面倒なので、カメラとLiDARセンサの較正は工場で行なわれることがある。
この欄は、本開示を一般的に要約したものであり、その完全な範囲またはそのすべての特徴を包括的に説明するものではない。
一実施形態において、少なくとも1つのカメラとLiDARセンサを較正するための方法は、少なくとも1つのカメラからカメラ画像を取得すること、カメラ画像が少なくとも1つのエッジを有する少なくとも1つの物体を含むときを判定すること、少なくとも1つのエッジを有する少なくとも1つの物体を含む3次元点群画像をLiDARセンサから取得すること、カメラ画像の少なくとも一部と3次元点群画像の少なくとも一部を含む合成画像を生成すること、その合成画像をディスプレイに表示すること、ディスプレイに表示された合成画像の3次元点群画像とカメラ画像との少なくとも1つを移動する少なくとも1つの入力をユーザインターフェースから受信すること、および、ユーザインターフェースからの1つ以上の入力に応じて、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整すること、を含む。
別の実施形態では、少なくとも1つのカメラとLiDARセンサを較正するためのシステムは、1つ以上のプロセッサと、初期較正モジュールとユーザ較正モジュールを格納する、1つ以上のプロセッサと通信するメモリと、を含む。初期較正モジュールは、1つ以上のプロセッサに、少なくとも1つのカメラからカメラ画像を取得させ、カメラ画像が少なくとも1つのエッジを有する少なくとも1つの物体を含むときを判定させ、少なくとも1つのエッジを有する少なくとも1つの物体を含む3次元点群画像をLiDARセンサから取得させ、および、カメラ画像の少なくとも一部と3次元点群画像の少なくとも一部を含む合成画像を生成させる命令を含む。ユーザ較正モジュールは、1つ以上のプロセッサに、ディスプレイに合成画像を表示させ、ユーザインターフェースから少なくとも1つの入力を受信させ、および、ユーザインターフェースからの1つ以上の入力に応じて、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整させる命令を含む。
さらに別の実施形態では、少なくとも1つのカメラおよびLiDARセンサを較正するための非一時的なコンピュータ可読媒体は、1つ以上のプロセッサによる実行時に、その1つ以上のプロセッサに、少なくとも1つのカメラからカメラ画像を取得させ、カメラ画像が少なくとも1つのエッジを有する少なくとも1つの物体を含むときを判定させ、少なくとも1つのエッジを有する少なくとも1つの物体を含む3次元点群画像をLiDARセンサから取得させ、カメラ画像の少なくとも一部と3次元点群画像の少なくとも一部を含む合成画像を生成させ、その合成画像をディスプレイに表示させ、ディスプレイに表示された合成画像の3次元点群画像とカメラ画像との少なくとも1つを移動する少なくとも1つの入力をユーザインターフェースから受信させ、および、ユーザインターフェースからの1つ以上の入力に応じて、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整させる命令を含む。
開示された技術を強化するための更なる適用可能な領域および様々な方法が、提供される説明から明らかになるであろう。本概要の説明および特定の例は、例示のみを目的としており、本開示の範囲を限定することを意図していない。
本明細書に組み込まれ、その一部を構成する添付図面は、本開示の様々なシステム、方法、および他の実施形態を示す。図中の図示された要素の区切り(例えば、ボックス、ボックスのグループ、または他の形状)は、区切りの一実施形態を表すことが理解されるであろう。いくつかの実施形態では、1つの要素が複数の要素として設計されてもよく、あるいは複数の要素が1つの要素として設計されてもよい。いくつかの実施形態では、別の要素の内部コンポーネントとして示される要素は、外部コンポーネントとして実現されてもよく、その逆であってもよい。さらに、要素は縮尺どおりに描画されない場合がある。
少なくとも1つのカメラとLiDARセンサを較正するためのシステムを備えた車両の一例を示す。 少なくとも1つのカメラとLiDARセンサを較正するためのシステムのより詳細なブロック図である。 少なくとも1つのカメラとLiDARセンサのいずれかの較正パラメータを調整するためのユーザインターフェースのスクリーンショットを示す。 少なくとも1つのカメラとLiDARセンサを較正するための方法を示す。
少なくとも1つのカメラとLiDARセンサを較正するためのシステムおよび方法は、1つ以上のプロセッサと、初期較正モジュールおよびユーザ較正モジュールを格納するメモリデバイスとを含む。初期較正モジュールは、1つ以上のプロセッサに、カメラからのカメラ画像とLiDARセンサからの3次元点群画像を取得させる。その後、これらの画像は合成され、合成画像を形成する。
合成画像は表示装置に表示され、ユーザがカメラ画像と3次元点群画像が合成画像において正しく一致するかどうかを確認することを可能にする。ユーザは、ユーザインターフェースを介して、カメラ画像および/または3次元点群画像を移動させ、それらが一致するように、それらの画像の位置を微調整することができる。これが完了すると、ユーザインターフェースによってユーザが提供した入力が、少なくとも1つのカメラおよび/またはLiDARセンサの較正パラメータを調整するために利用される。
図1を参照すると、道路11を走行する車両10が示されている。車両10は、車両10に取り付けられたカメラ14およびLiDARセンサ16を較正するためのシステム12を含む。車両10は、ある場所から別の場所へ人または物品を輸送することが可能な、いくつかの異なるタイプの車両のうちのいずれかであってもよい。図1に示す例では、車両10は自動車の形態をしている。しかしながら、車両10は、トラック、大型トラック、トラクタートレーラー、トラクター、鉱山用車両、軍用車両などのいくつかの異なる形態のうちの任意の1つを取ることができる。さらに、車両10は、地上を走行する車両に限定されず、航空機や水上船舶を含むことができる。
後に、本明細書でより詳細に説明するように、車両10は、車両18および20のような他車両、道路標識19、動物、歩行者、または任意の種類の物体などの物体を検出するために、カメラ14およびLiDARセンサ16を利用する。車両10は、カメラ14および/またはLiDARセンサ16から収集されたデータを利用して、車両を目的地まで安全に操縦し、および/または、車両10が車両18および20などの他の物体と衝突することを防止するように修正措置を講じることができる半自律または自律車両であってもよい。
したがって、カメラ14およびLiDARセンサ16で収集されるデータは、信頼性があり有用なものであるべきである。これを達成するために、カメラ14およびLiDARセンサ16は、互いに較正されるべきである。カメラ14およびLiDARセンサ16は、環境の相補的情報を提供する。カメラ14は、カメラ14の視野内に位置する物体の色、質感、および外観を含むことができる2次元画像を撮影することができる。LiDARセンサ16は、環境内の物体の3次元構造情報を検出することができる。そのため、LiDARセンサ16に対するカメラ14の回転および並進、またはその逆などの較正パラメータは、カメラ14とLiDARセンサ16から受信したデータを融合させるのに有用であり得るものであり、それらは他の車両システムによって使用され得る。
図2を参照すると、システム12のより詳細な図が示されている。最初に、システム12は車両10内に配置されるものとして以前に説明されたが、システム12は必ずしも車両内に配置される必要はないことを理解されたい。さらに、システム12は必ずしも車両用途に利用される必要はないことを理解されたい。したがって、システム12は、LiDARセンサと少なくとも1つのカメラの較正を必要とする可能性があるさまざまな異なる用途に使用することができる。
システム12は、カメラ14と通信する1つ以上のプロセッサ22、LiDARセンサ16、入力装置24、表示装置26、車両コントローラ28、データストア32、およびメモリデバイス34を含むことができる。LiDARセンサ16は、単一のLiDARセンサであってもよいし、または複数のLiDARセンサであってもよい。LiDARセンサ16は、レーザ、スキャナ、光学系、光検出器、受信機エレクトロニクス、ナビゲーションおよび測位システムなどの複数の異なる構成要素のうちの任意の1つを有することができる。LiDARセンサ16は、いくつかの異なる検出方法のうちの任意の1つを利用することができる。例えば、LiDARセンサ16は、ダイレクトエネルギー検出および/またはコヒーレント検出のいずれかを利用することができる。
LiDARセンサ16は、環境内のシーンを調査し、3次元点群画像を生成するように構成されている。例えば、LiDARセンサ16は、それぞれエッジ23、25、27を有する道路標識17、19、21を含む視野31を有することができる。LiDARセンサ16は、道路標識17、19、21を含む環境を調査し、視野31内に位置する環境と道路標識17、19、21などの任意の物体の3次元点群画像を生成することができる。3次元点群画像は、1つ以上のプロセッサ22に提供され得る。
カメラ14は、単一のカメラであってもよいし、あるいは複数のカメラを含んでもよい。例えば、カメラ14はステレオカメラであってもよい。カメラ14は、それぞれエッジ23、25、27を有する道路標識17、19、21を含む視野33を有することができる。カメラ14は、道路標識17、19、21を含む環境を調査し、視野33内に位置する環境と道路標識17、19、21などの任意の物体のカメラ画像を生成することができる。カメラ画像は2次元画像とすることができる。
入力装置24は、ユーザがシステム12の1つ以上のプロセッサ22に情報を提供することを可能にする任意のタイプの装置とすることができる。たとえば、入力装置24は、ユーザが1つ以上のプロセッサ22に情報を提供することを可能にするタッチスクリーンおよび/またはキーボードであってもよい。一例において、入力装置24は、図1の車両10などの車両の内部に配置されたタッチスクリーンとすることができる。
表示装置26は、ユーザがシステム12の1つ以上のプロセッサ22から視覚情報を受け取ることを可能にする任意のタイプの装置とすることができる。この情報は、カメラ14によって撮影されたカメラ画像および/またはLiDARセンサ16によって撮影された3次元点群画像を含むことができる。後に説明するように、情報は、カメラ画像と3次元点群画像との一部を含む合成画像を含むこともできる。さらに、表示装置26および入力装置24は、運転者からの情報の入力およびユーザへの情報の表示を可能にするタッチスクリーンとして組み込むことができることを理解されたい。表示装置26は、図1の車両10などの車両の内部に組み込むことができる。
システム12は、車両コントローラ28を含むこともできる。しかしながら、システム12は、いくつかの異なる用途で利用されることができ、車両だけに限定されない。したがって、システム12は、特に車両に関連しない用途で利用される場合、車両コントローラ28を含まなくてもよい。
車両コントローラ28は、1つ以上のアクチュエータ30A、30B、および/または30Cを使用して車両を制御可能なコントローラとすることができる。たとえば、アクチュエータ30Aは、車両のスロットルを制御でき、アクチュエータ30Bは、車両のブレーキシステムを制御でき、アクチュエータ30Cは、車両のステアリングシステムを制御できてもよい。車両コントローラ28は、車両が他の物体と衝突するのを防止するために、運転者に半自律的および/または能動的な安全支援を提供することができてもよい。車両コントローラ28は、車両に自律運転機能を提供することもでき、これにより、車両は最小限の運転者の入力または運転者の入力なしでそれ自体を操縦することを可能とすることができる。
データストア32は、1つ以上のタイプのデータを格納することができる。データストア32は、揮発性および/または不揮発性メモリを含むことができる。適切なデータストア32の例は、RAM(ランダムアクセスメモリ)、フラッシュメモリ、ROM(読み取り専用メモリ)、PROM(プログラム可能な読み取り専用メモリ)、EPROM(消去可能、プログラム可能な読み取り専用メモリ)、EEPROM(電気的に消去可能であるプログラム可能な読み取り専用メモリ)、レジスタ、磁気ディスク、光ディスク、ハードドライブ、またはその他の任意の適切な記憶媒体、もしくはそれらの任意の組み合わせを含む。データストア32は、1つ以上のプロセッサ22のコンポーネントとすることができ、または、データストア32は、それによる使用のために1つ以上のプロセッサ22に動作可能に接続されることができる。この説明の全体にわたって使用される「動作可能に接続される」という用語は、直接的な物理的接触のない接続を含む、直接的または間接的な接続を含むことができる。例えば、データストア32は、カメラ14および/またはLiDARセンサ16の較正パラメータを格納することができる。
メモリデバイス34は、1つ以上のプロセッサ22によって利用され得る情報を格納することが可能な任意のタイプのメモリでとすることができる。したがって、メモリデバイス34は、RAM(ランダムアクセスメモリ)、フラッシュメモリ、ROM(読み取り専用メモリ)、PROM(プログラム可能な読み取り専用メモリ)、EPROM(消去可能、プログラム可能な読み取り専用メモリ)、EEPROM(電気的に消去可能であるプログラム可能読み取り専用メモリ)、レジスタ、磁気ディスク、光ディスク、ハードドライブ、またはその他の任意の適切な記憶媒体、もしくはそれらの任意の組み合わせを含む。本例では、メモリデバイス34は、1つ以上のプロセッサ22から分離しているが、メモリデバイス34は、別個のデバイスではなく、1つ以上のプロセッサ22のいずれかに組み込むことができることを理解されたい。また、メモリデバイス34は、データストア32と同じ記憶媒体を共用してもよい。
メモリデバイス34は、1つ以上のプロセッサ22によって実行されたとき、1つ以上のプロセッサ22に、本開示で開示されるいくつかの異なる方法の任意の1つを実行させる1つ以上のモジュールを記憶することができる。本例では、メモリデバイス34は、初期較正モジュール36およびユーザ較正モジュール38を含む。
初期較正モジュール36は、1つ以上のプロセッサ22によって実行されたとき、1つ以上のプロセッサ22にいくつかの異なる機能を実行させる命令を含む。これらの機能は、カメラ14からカメラ画像を取得することを含む。本例では、カメラ画像は、標識17、19、21を含む視野33を含むことができる。
初期較正モジュール36は、1つ以上のプロセッサ22に、カメラ画像が少なくとも1つのエッジを有する少なくとも1つの物体を含むときを判定させる命令も含む。本例では、プロセッサ22は、道路標識17、19、21の存在を判定することができる。初期較正モジュール36は、1つ以上のプロセッサ22が、カメラ画像が道路標識17、19、21のエッジ23、25、27をそれぞれ含むかどうかを判定もするように構成してもよい。初期較正モジュール36は、特定の数または最小数の物体がカメラ画像内に存在することを必要とする命令を含むことができることを理解されたい。したがって、ただ1つの物体しか必要ではないが、初期較正モジュール36は、エッジのある少なくとも3つの物体がカメラ画像内において検出されることを必要とする命令を含むことができる。
初期較正モジュール36は、1つ以上のプロセッサ22に、LiDARセンサ16から3次元点群画像を取得させる命令を含む。3次元点群画像は、カメラ画像において以前に撮影された1つ以上の物体を含むことができる。ここで、本例では、物体は、それぞれエッジ23、25、27を有する道路標識17、19、21を含むことができる。
初期較正モジュール36は、1つ以上のプロセッサ22に、三次元点群画像の少なくとも一部にカメラ画像の少なくとも一部を含む合成画像を生成させる命令も含むことができる。合成画像は、カメラ画像が3次元点群画像上に投影されたようなもの、および/または3次元点群画像がカメラ画像上に投影されたようなものであってもよい。
初期較正モジュール36は、カメラ画像および/または3次元点群画像が、合成画像を生成することを可能にする適切なデータを有するかどうかを判定するための命令も含むことができる。たとえば、初期較正モジュール36は、1つ以上のプロセッサ22に、カメラ画像内の物体の数をカウントさせ、および三次元点群画像内の物体の数をカウントさせることを可能にする命令を含んでもよい。三次元点群画像およびカメラ画像内の物体の数が同じである場合、初期較正モジュール36は、合成画像を生成してもよい。これは任意のステップであり得ることを理解されたい。さらに、適切なデータがカメラ画像および/または三次元点群画像に撮影されたことを判定するために利用され得るいくつかの異なる方法のうちのいずれか1つであってもよい。
初期較正モジュール36は、1つ以上のプロセッサ22に、カメラ画像および3次元点群画像に撮影された、道路標識17、19、21のエッジ23、25、27が、それぞれ、実質的に位置合わせされるように、カメラ画像および/または3次元点群画像を移動させる命令も含むことができる。カメラ画像および/または3次元点群画像の移動に基づいて、プロセッサ22は、カメラ14および/またはLiDARセンサ16の較正パラメータを調整するように初期較正モジュール36によって構成される。
カメラ14および/またはLiDARセンサ16の較正パラメータは、カメラ14および/またはLiDARセンサ16のヨー、ピッチ、ロール、および/または位置を含むことができる。カメラ14および/またはLiDARセンサ16は、提供される較正パラメータに対応するための、カメラ14および/またはLiDARセンサ16の調整を可能にする1つ以上のアクチュエータを含むことができる。あるいは、取得された各画像を較正パラメータを用いてソフトウェア処理により修正して、使用するようにしてもよい。
初期較正モジュール36の命令を実行することによってプロセッサ22によって生成された較正パラメータは、初期較正であると見なすことができる。初期較正の目的は、カメラ画像と3次元点群画像に撮影された道路標識17、19、21のエッジ23、25、27をそれぞれ部分的に位置合わせすることであってもよい。以降の段落で説明するように、この位置合わせの微調整はユーザによって実行され得る。
ユーザ較正モジュール38は、1つ以上のプロセッサ22に、合成画像を表示装置26に表示させる、1つ以上のプロセッサ22によって実行される命令を含む。本例では、表示装置26は、車両10の内部に配置されることができる。表示装置26は、車両10のインフォテインメントシステムの一部であってもよい。しかしながら、別の例では、表示装置は、表示装置42を有する診断コンピュータ39などの外部装置に接続することができる。診断コンピュータ39は、いくつかの異なる形態のうちの任意の1つを取ることができ、従来のデスクトップまたはラップトップコンピュータ、モバイルデバイス、タブレットデバイスなどであり得る。診断コンピュータ39は、無線で、またはプロセッサ22と通信する1つ以上のポート40を使用して、有線接続を介してプロセッサ22に接続することができる。1つ以上のポートは、一部の車両にあるOBD−IIポートであってもよい。
ユーザ較正モジュール38は、1つ以上のプロセッサ22に、ユーザインターフェースから少なくとも1つの入力を受信させる命令も含む。一例では、入力装置24は、ユーザが少なくとも1つの入力を提供することを可能にする。ユーザインターフェースは、入力装置24および/または表示装置26の一方または両方に組み込むことができる。たとえば、入力装置24および表示装置26は、タッチスクリーンの形態で組み合わされてもよい。このタッチスクリーンは、車両のインフォテインメントシステムの一部であってもよい。
あるいは、診断コンピュータ39が利用される場合、ユーザインターフェースは、診断コンピュータ39の表示装置42に表示されてもよい。診断コンピュータ39は、キーボード46およびポインティングデバイス48などの1つ以上の入力装置を含むことができる。診断コンピュータ39の入力装置は、ユーザがユーザインターフェースに入力を提供することを可能にする。
ユーザ較正モジュール38は、1つ以上のプロセッサ22によって実行されたときに、1つ以上のプロセッサ22に、ユーザによって提供された入力に応じて、合成画像のカメラ画像および/または3次元点群画像を移動させる命令も含む。カメラ画像および/または3次元点群画像の移動または調整は、合成画像の3次元点群画像またはカメラ画像のヨー、ピッチ、ロール、および/または位置の調整または移動を含むことができる。
カメラ画像および/または3次元点群画像を移動する際にユーザによって提供される入力に基づいて、ユーザ較正モジュール38は、1つ以上のプロセッサ22に、LiDARセンサ16および/またはカメラ14の較正パラメータを調整させる。カメラ14および/またはLiDARセンサ16のいずれかの較正パラメータは、カメラ14および/またはLiDARセンサ16のヨー、ピッチ、ロール、および/または位置を含むことができる。その後、較正パラメータに基づいて、カメラ14および/またはLiDARセンサ16が調整される。従って、ユーザが合成画像におけるカメラ画像および/または3次元点群画像の位置に関する入力を提供し、調整することを可能とすることにより、システムは、ユーザによるカメラ14および/またはLiDARセンサ16の較正の微調整を可能にする。
図3を参照すると、例示的な合成画像53が示されている。ここで、合成画像53は、カメラ画像54および3次元点群画像55の少なくとも一部を含む。本例では、合成画像53は、カメラ画像54上に3次元点群画像55を投影したものである。しかしながら、合成画像53は投影を逆にすることができ、すなわち、その場合、カメラ画像54が3次元点群画像55上に投影され得ることを理解されたい。
本例では、合成画像53は、車両の形状をした物体57を含む。物体57は、3次元点群画像55におけるエッジ56と、カメラ画像54におけるエッジ58とを含む。初期較正モジュール36は、1つ以上のプロセッサ22に、エッジ56および58を実質的に位置合わせするよう試みさせることができる。
図3には、ユーザインターフェース60も示されている。ここで、ユーザインターフェースは、ユーザがカメラ画像54に対して3次元点群画像55を移動することを可能にする。もちろん、ユーザインターフェースはその逆を可能にすることができ、その場合、ユーザインターフェースは、ユーザが3次元点群画像55に対してカメラ画像54を移動することを可能にすることを理解されたい。さらに、ユーザインターフェースは、ユーザが合成画像53内のカメラ画像54と3次元点群画像55の両方を移動できるようにすることも可能である。
ユーザインターフェース60は、画像の移動を可能にするために異なる操作のタイプを含んでもよい。ここで、ユーザインターフェース60は、3次元点群画像55の位置をそれぞれX、Y、およびZ方向に関して移動させるための操作部62、64、66を含んでもよい。また、ユーザインターフェース60は、3次元点群画像55のロール、ピッチ、およびヨーをそれぞれ変更する操作部68、70、72を含んでもよい。
また、ユーザインターフェース60は、ドロップダウンメニュー74を使用して、操作タイプの調整を可能にしてもよい。操作タイプは、操作部62、64、66、68、70、および/または72のよりきめ細かいまたは粗い操作を可能にすることができる。このように、操作タイプは、ユーザが、カメラ画像54に対する3次元点群画像55の位置を微調整する能力を持つことを可能にする。
ユーザインターフェースはまた、ユーザによって行われた操作部62、64、66、68、70、および/または72の調整を保存する保存ボタン76を含むことができる。これらは、データストア32に保存されてもよい。その後、ユーザによって行われた調整は、カメラ14および/またはLiDARセンサ16の較正パラメータに変換される。
図4を参照すると、カメラ14などの少なくとも1つのカメラ、および/またはLiDARセンサ16などのLiDARセンサを較正するための方法80の一例が、図1および図2のシステム12の観点から説明される。方法80はシステム12と組み合わせて説明されるが、方法80はシステム12内での実施に限定されず、むしろ、システム12は、方法80を実施することができるシステムの一例であることを理解されたい。
方法80は、ステップ82で始まり、そこでは、初期較正モジュール36が、カメラ14などの少なくとも1つのカメラからカメラ画像を取得することができる。ステップ84において、初期較正モジュール36は、カメラ14によって以前に撮影されたカメラ画像がエッジを有する物体を含んでいるかどうかを判定する。エッジを有する物体が検出されない場合、方法80はステップ82に戻る。少なくとも1つの物体の要件は、アプリケーションによって異なってもよい。たとえば、少なくとも1つのエッジを有する少なくとも1つの物体を要求する代わりに、要件は、少なくとも3つのエッジを有する少なくとも3つの物体を見つけることを含んでもよい。換言すれば、それぞれ、少なくとも1つのエッジを有する少なくとも3つの物体を要件としてもよい。さらに、物体は道路標識であるという要件など、利用される物体のタイプも変わる可能性がある。
ステップ86では、初期較正モジュール36は、LiDARセンサ16などのLiDARセンサから3次元点群画像を取得することができる。その後、ステップ88で、初期較正モジュール36は、カメラ画像の一部と3次元点群画像の一部とを有する合成画像を生成することができる。また、ステップ86は、初期較正モジュール36によって行われるいくつかの追加の調査を含むことができる。たとえば、初期較正モジュール36は、カメラ画像および3次元点群画像に撮影された物体の数をカウントしてもよい。物体の数が一致しない場合、方法はステップ82に戻ってもよい。
ステップ90において、ユーザ較正モジュール38は、表示装置26などの表示装置上に合成画像を表示することができる。ステップ92において、ユーザ較正モジュール38は、表示装置に表示された合成画像の3次元点群画像および/またはカメラ画像を移動させる、ユーザインターフェースからの入力を受信することができる。本例では、入力装置24からの入力が受信され得る。
次に、ステップ94において、ユーザ較正モジュール38は、ユーザインターフェースからの入力に応じて、LiDARセンサ16および/またはカメラ14の較正パラメータを調整することができる。LiDARセンサ16および/またはカメラ14の較正パラメータは、LiDARセンサ16および/またはカメラ14のヨー、ピッチ、ロール、および/または位置を含むことができる。
本明細書に記載されたシステムのいずれも、別個の集積回路および/またはチップを用いて、様々な配置で構成され得ることを理解されたい。回路は、別個の回路間での通信信号を提供するために、接続パスを介して接続される。もちろん、別個の集積回路が議論されているが、様々な実施形態では、回路は、共通の集積回路基板に統合されてもよい。さらに、集積回路は、より少ない集積回路に統合されてもよいし、より多くの集積回路に分割されてもよい。
別の実施形態では、説明された方法および/またはそれらの均等物は、コンピュータ実行可能命令で実施されてもよい。このように、一実施形態では、非一時的コンピュータ可読媒体は、機械(例えば、プロセッサ、コンピュータなど)によって実行されたとき、機械(および/または関連するコンポーネント)に方法を実行させる、格納されたコンピュータ実行可能命令を備えるように構成される。
説明を簡単にする目的で、図示された方法は、一連のブロックとして示され、記載されているが、いくつかのブロックは、示され、記載されたものとは異なる順序で、および/または他のブロックと同時に発生し得るので、方法は、ブロックの順序によって制限されないことを理解されたい。さらに、例示された方法を実施するために、図示されたすべてのブロックよりも少ない数のブロックが使用されてもよい。ブロックは、統合されてもよいし、複数の構成要素に分離されてもよい。さらに、追加および/または代替の方法は、図示されていない追加のブロックを使用することができる。
詳細な実施形態が本明細書に開示される。しかし、開示された実施形態は例としてのみ意図されていることを理解されたい。したがって、本明細書で開示される特定の構造および機能の詳細は、限定として解釈されるべきではなく、単に特許請求の範囲の基礎として、および、実質的に任意の適切な詳細構造において本明細書の態様を様々に採用することを当業者に教示するための代表的な根拠として解釈されるべきである。さらに、本明細書で使用される用語および語句は、限定することを意図するものではなく、可能な実施例の理解可能な説明を提供することを意図している。
図中のフローチャートおよびブロック図は、さまざまな実施形態によるシステム、方法、およびコンピュータプログラム製品の可能な実施例のアーキテクチャ、機能、および動作を示している。これに関して、フローチャートまたはブロック図の各ブロックは、特定の論理機能を実行するための1つ以上の実行可能な命令を含むモジュール、セグメント、またはコードの一部を表すことができる。また、いくつかの代替の実施例では、ブロックに記載された機能が、図に記載されている順序以外で発生する可能性があることにも注意されたい。たとえば、連続して示された2つのブロックが、実際には、実質的に同時に実行されても良く、またはそれらのブロックが、関連する機能に応じて、ときには逆の順序で実行されても良い。
上述したシステム、コンポーネント、および/またはプロセスは、ハードウェアまたはハードウェアとソフトウェアの組み合わせで実現でき、1つの処理システムにおいて中央集権方式で、または相互接続された複数の処理システムに異なる要素が分散された分散方式で実現することができる。本明細書に記載の方法を実行するように適合されたあらゆる種類の処理システムまたは別の装置が適する。ハードウェアおよびソフトウェアの組み合わせは、ロードされ、実行されたときに、本明細書に記載の方法を実行するように処理システムを制御するコンピュータ使用可能なプログラムコードを備えた処理システムであり得る。システム、コンポーネント、および/またはプロセスは、本明細書に記載された方法およびプロセスを実行するために機械によって実行可能な命令のプログラムを目に見える方法で具体化した、機械によって読み取り可能な、コンピュータプログラム製品または他のデータプログラム記憶装置などのコンピュータ読み取り可能なストレージに埋め込むこともできる。これらの要素は、本明細書で説明した方法の実行を可能にするすべての機能を備えた、処理システムにロードされたときにこれらの方法を実行することができるアプリケーション製品に組み込むこともできる。
さらに、本明細書で説明された構成は、例えば記憶されるなどして、実施されるコンピュータ可読プログラムコードを有する1つ以上のコンピュータ可読媒体に具現化されるコンピュータプログラム製品の形をとることができる。1つ以上のコンピュータ可読媒体の任意の組み合わせが利用されてもよい。コンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体であり得る。「コンピュータ可読記憶媒体」という語句は、非一時的な記憶媒体を意味する。コンピュータ可読媒体は、限定さえるものではないが、不揮発性媒体および揮発性媒体を含む、形態をとってもよい。不揮発性媒体には、たとえば、光ディスク、磁気ディスクなどが含まれる。揮発性媒体には、たとえば、半導体メモリ、ダイナミックメモリなどが含まれる。そのようなコンピュータ可読媒体の例には、限定されるものではないが、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、他の磁気媒体、ASIC、グラフィックス処理ユニット(GPU)、CD、他の光学媒体、RAM、ROM、メモリチップまたはカード、メモリスティック、および、コンピュータ、プロセッサ、または足の電子デバイスが読み取ることが可能な他の媒体が含まれる。この明細書の文脈において、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスによって、またはそれに関連して使用するためのプログラムを含む、または格納できる任意の有形の媒体であってもよい。
以下は、本明細書で使用される選択された用語の定義を含む。定義には、用語の範囲内にあり、様々な実施例に使用できる様々な例、および/またはコンポーネントの形式が含まれる。例は限定することを意図していない。用語の単数形と複数形の両方が定義内に入る場合がある。
「1つの実施形態」、「一実施形態」、「1つの例」、「一例」などへの言及は、そのように記載された実施形態または例が、特定の特徴、構造、特性、特質、要素、または限定を含むかもしれないが、すべての実施形態または例が、必ずしも、その特定の特徴、構造、特性、特質、要素、または限定を含むわけではない。さらに、「1つの実施形態では」という語句の繰り返しの使用は、同じ実施形態を指す場合もあるが、必ずしもそうとは限らない。
本明細書で使用される「モジュール」には、コンピュータまたは電気ハードウェアコンポーネント、ファームウェア、命令を記憶する非一時的なコンピュータ可読媒体、および/または、機能またはアクションを実行するように構成された、および/または、別のロジック、方法、および/またはシステムから機能またはアクションを引き起こすように構成された、これらのコンポーネントの組み合わせが含まれる。モジュールには、アルゴリズムによって制御されるマイクロプロセッサ、ディスクリートロジック(ASICなど)、アナログ回路、デジタル回路、プログラムされたロジックデバイス、実行時にアルゴリズムを実行する命令を含むメモリデバイスなどが含まれてもよい。モジュールは、1つ以上の実施形態において、1つ以上のCMOSゲート、ゲートの組み合わせ、または他の回路部品を含む。複数のモジュールが説明されている場合、1つ以上の実施形態は、複数のモジュールを1つの物理的なモジュールコンポーネントに組み込むことを含んでもよい。同様に、単一のモジュールが説明されている場合、1つ以上の実施形態は、単一のモジュールを複数の物理的コンポーネントに分散してもよい。
さらに、本明細書で使用されるモジュールには、タスクを実行したり、データタイプを実装したりするルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。さらなる態様において、メモリは一般に、言及されたモジュールを格納する。モジュールに関連付けられたメモリは、プロセッサ内に埋め込まれたバッファまたはキャッシュ、RAM、ROM、フラッシュメモリ、または別の適切な電子記憶媒体であってもよい。さらに別の態様では、本開示によって想定されるモジュールは、特定用途向け集積回路(ASIC)、システムオンチップ(SoC)のハードウェアコンポーネント、プログラマブルロジックアレイ(PLA)、グラフィックス処理ユニット(GPU)、または開示された機能を実行するための定義された設定セット(たとえば、命令)が埋め込まれた別の適切なハードウェアコンポーネントとして実現される。
1つ以上の構成において、本明細書に記載のモジュールの1つ以上は、人工または計算知能要素、例えばニューラルネットワーク、ファジー論理、または他の機械学習アルゴリズムを含むことができる。さらに、1つ以上の構成において、モジュールの1つ以上は、本明細書で説明する複数のモジュールに分散させることができる。1つ以上の構成では、本明細書に記載のモジュールの2つ以上が、単一のモジュールに組み合わせることができる。
コンピュータ可読媒体に具現化されるプログラムコードは、限定されるものではないが、無線、有線、光ファイバー、ケーブル、RFなど、またはこれらの任意の適切な組み合わせを含む、任意の適切な媒体を使用して送信されてもよい。本構成の態様の動作を実行するためのコンピュータプログラムコードは、Java(登録商標)、Smalltalk、C ++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語などの従来の手続き型プログラミング言語を含む、1つ以上のプログラミング言語の任意の組み合わせで記述されてもよい。プログラムコードは、スタンドア
ロンソフトウェアパッケージとして、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で、あるいは、一部をユーザのコンピュータ上でかつ一部を遠隔コンピュータ上で、もしくは、完全に遠隔コンピュータまたはサーバ上で実行されてもよい。後者のシナリオでは、遠隔コンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続されてもよいし、または、その接続は、(たとえば、インターネットサービスプロバイダを使用したインターネット経由で)外部コンピュータになされてもよい。
本明細書で使用される「1つ」という用語は、1つ、または1つ以上として定義される。本明細書で使用される「複数」という用語は、2つ、または2つ以上として定義される。本明細書で使用される「別の」という用語は、少なくとも2番目またはそれ以上として定義される。本明細書で使用される「含む」および/または「有する」という用語は、包含する(すなわち、オープン言語)と定義される。本明細書で使用される「...および...の少なくとも1つ」というフレーズは、関連する列挙されたアイテムの1つ以上の任意のおよび全ての可能な組み合わせを指し、包含する。例として、「A、B、およびCの少なくとも1つ」というフレーズは、Aのみ、Bのみ、Cのみ、またはそれらの任意の組み合わせ(たとえば、AB、AC、BCまたはABC)を含む。
本明細書の態様は、その主旨または本質的な特質から逸脱することなく、他の形態で具現化することができる。したがって、本明細書の範囲を示すものとして、前述の明細書よりもむしろ、以下の特許請求の範囲を参照すべきである。
10:車両、11:道路、12:システム、14:カメラ、16:LiDARセンサ、17:道路標識、18:車両、19:道路標識、20:車両、21:道路標識、22:プロセッサ、23:エッジ、24:入力装置、25:エッジ、26:表示装置、27:エッジ、28:車両コントローラ、30A:アクチュエータ、30B:アクチュエータ、30C:アクチュエータ、31:視野、32:データストア、33:視野、34:メモリデバイス、36:初期較正モジュール、38:ユーザ較正モジュール、39:診断コンピュータ、40:ポート、42:表示装置、46:キーボード、48:ポインティングデバイス、53:合成画像、54:カメラ画像、55:3次元点群画像、56:エッジ、57:物体、58:エッジ、60:ユーザインターフェース、62:操作部、64:操作部、66:操作部、68:操作部、70:操作部、72:操作部、74:ドロップダウンメニュー、76:保存ボタン

Claims (20)

  1. 少なくとも1つのカメラと、光検出および測距(LiDAR)センサを較正するための方法であって、
    少なくとも1つのカメラからカメラ画像を取得すること、
    カメラ画像が少なくとも1つのエッジを有する少なくとも1つの物体を含むときを判定すること、
    LiDARセンサから3次元点群画像を取得すること、3次元点群画像は、少なくとも1つのエッジを有する少なくとも1つの物体を含み、
    合成画像を生成すること、合成画像は、カメラ画像の少なくとも一部と3次元点群画像の少なくとも一部を含み、
    合成画像をディスプレイに表示すること、
    ユーザインターフェースから少なくとも1つの入力を受信すること、少なくとも1つの入力は、ディスプレイに表示された合成画像の3次元点群画像とカメラ画像との少なくとも1つを移動するように構成され、および、
    ユーザインターフェースからの1つ以上の入力に応じて、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整すること、を含む方法。
  2. 合成画像は、合成画像を形成するために、カメラ画像に3次元点群画像を投影することによって生成される、請求項1に記載の方法。
  3. 合成画像は、3次元点群画像にカメラ画像を投影することによって生成される、請求項1に記載の方法。
  4. 少なくとも1つの物体は、少なくとも1つの道路標識である、請求項1に記載の方法。
  5. カメラ画像の少なくとも1つの物体の少なくとも1つのエッジが、合成画像において、三次元点群画像の少なくとも1つの物体の少なくとも1つのエッジと実質的に位置合わせされるように、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整するステップをさらに含む、請求項1に記載の方法。
  6. カメラ画像内の少なくとも1つの物体の数が、3次元点群画像内の少なくとも1つの物体の数と一致するときを判定するステップ、および
    カメラ画像内の少なくとも1つの物体の数が、3次元点群画像内の少なくとも1つの物体の数と一致するときに、合成画像を形成するために、カメラ画像に3次元点群画像を投影するステップ、をさらに含む請求項1に記載の方法。
  7. ユーザインターフェースの少なくとも1つの入力は、合成画像の3次元点群画像とカメラ画像の少なくとも1つのヨー、ピッチ、ロール、および位置の少なくとも1つを調整する、請求項1に記載の方法。
  8. 較正パラメータは、少なくとも1つのカメラとLiDARセンサの少なくとも1つのヨー、ピッチ、ロール、および位置の少なくとも1つを含む、請求項1に記載の方法。
  9. 少なくとも1つのカメラおよびLiDARセンサは、車両に搭載される、請求項1に記載の方法。
  10. 少なくとも1つのカメラと、光検出および測距(LiDAR)センサを較正するためのシステムであって、
    1つ以上のプロセッサと、
    1つ以上のプロセッサと通信するメモリと、を備え、
    メモリは、
    1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、
    少なくとも1つのカメラからカメラ画像を取得させる命令、
    カメラ画像が少なくとも1つのエッジを有する少なくとも1つの物体を含むときを判定させる命令、
    LiDARセンサから3次元点群画像を取得させる命令、3次元点群画像は、少なくとも1つのエッジを有する少なくとも1つの物体を含み、および、
    合成画像を生成させる命令、合成画像は、カメラ画像の少なくとも一部と3次元点群画像の少なくとも一部を含む、を有する初期較正モジュールと、
    1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、
    ディスプレイに合成画像を表示させる命令、
    ユーザインターフェースから少なくとも1つの入力を受信させる命令、少なくとも1つの入力は、ディスプレイに表示された合成画像の3次元点群画像とカメラ画像の少なくとも1つを移動するように構成され、および、
    ユーザインターフェースからの1つ以上の入力に応じて、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整させる命令、を有するユーザ較正モジュールを格納するシステム。
  11. 合成画像は、合成画像を形成するために、カメラ画像に3次元点群画像を投影することによって初期較正モジュールにより生成される、請求項10に記載のシステム。
  12. 合成画像は、3次元点群画像にカメラ画像を投影することによって初期較正モジュールにより生成される、請求項10に記載のシステム。
  13. 少なくとも1つの物体は、少なくとも1つの道路標識である、請求項10に記載のシステム。
  14. 初期較正モジュールは、1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、カメラ画像の少なくとも1つの物体の少なくとも1つのエッジが、合成画像において、三次元点群画像の少なくとも1つの物体の少なくとも1つのエッジと実質的に位置合わせされるように、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整させる命令をさらに含む、請求項10に記載のシステム。
  15. 初期較正モジュールは、
    1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、
    カメラ画像内の少なくとも1つの物体の数が、3次元点群画像内の少なくとも1つの物体の数と一致するときを判定させる命令、および
    カメラ画像内の少なくとも1つの物体の数が、3次元点群画像内の少なくとも1つの物体の数と一致するときに、合成画像を形成するために、カメラ画像に3次元点群画像を投影させる命令、をさらに含む請求項10に記載のシステム。
  16. ユーザインターフェースの少なくとも1つの入力は、合成画像の3次元点群画像とカメラ画像の少なくとも1つのヨー、ピッチ、ロール、および位置の少なくとも1つを調整する、請求項10に記載のシステム。
  17. 較正パラメータは、少なくとも1つのカメラとLiDARセンサの少なくとも1つのヨー、ピッチ、ロール、および位置の少なくとも1つを含む、請求項10に記載のシステム。
  18. 少なくとも1つのカメラおよびLiDARセンサは、車両に搭載される、請求項10に記載のシステム。
  19. 少なくとも1つのカメラと、光検出および測距(LiDAR)センサを較正するための非一時的なコンピュータ可読媒体であって、
    1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、
    少なくとも1つのカメラからカメラ画像を取得させる命令、
    カメラ画像が少なくとも1つのエッジを有する少なくとも1つの物体を含むときを判定させる命令、
    LiDARセンサから3次元点群画像を取得させる命令、3次元点群画像は、少なくとも1つのエッジを有する少なくとも1つの物体を含み、
    合成画像を生成させる命令、合成画像は、カメラ画像の少なくとも一部と3次元点群画像の少なくとも一部を含み、
    合成画像をディスプレイに表示させる命令、
    ユーザインターフェースから少なくとも1つの入力を受信させる命令、少なくとも1つの入力は、ディスプレイに表示された合成画像の3次元点群画像とカメラ画像との少なくとも1つを移動するように構成され、および
    ユーザインターフェースからの1つ以上の入力に応じて、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整させる命令、を含む非一時的なコンピュータ可読媒体。
  20. 1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、カメラ画像の少なくとも1つの物体の少なくとも1つのエッジが、合成画像において、3次元点群画像の少なくとも1つの物体の少なくとも1つのエッジと実質的に位置合わせされるように、LiDARセンサと少なくとも1つのカメラとの少なくとも1つの較正パラメータを調整させる命令をさらに含む、請求項19に記載の非一時的なコンピュータ可読媒体。
JP2020115038A 2019-07-11 2020-07-02 少なくとも1つのカメラと光検出および測距センサを較正するためのシステムおよび方法 Pending JP2021016151A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/508,592 US10841483B1 (en) 2019-07-11 2019-07-11 System and method for calibrating at least one camera and a light detection and ranging sensor
US16/508,592 2019-07-11

Publications (1)

Publication Number Publication Date
JP2021016151A true JP2021016151A (ja) 2021-02-12

Family

ID=73263912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020115038A Pending JP2021016151A (ja) 2019-07-11 2020-07-02 少なくとも1つのカメラと光検出および測距センサを較正するためのシステムおよび方法

Country Status (2)

Country Link
US (1) US10841483B1 (ja)
JP (1) JP2021016151A (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619666B (zh) * 2019-09-20 2022-05-27 阿波罗智能技术(北京)有限公司 用于标定相机的方法及装置
US20210344491A1 (en) * 2020-05-04 2021-11-04 Gaurav Upadhyay System and method to generate a unique security proof for secure accessing of data
CN112381889B (zh) * 2020-11-19 2024-05-07 阿波罗智联(北京)科技有限公司 相机检验方法、装置、设备及存储介质
US20220237838A1 (en) * 2021-01-27 2022-07-28 Nvidia Corporation Image synthesis using one or more neural networks
CN112946609B (zh) * 2021-02-02 2022-03-15 中国汽车技术研究中心有限公司 激光雷达与相机的标定方法、装置、设备及可读存储介质
US11802945B2 (en) * 2021-03-10 2023-10-31 Allegro Microsystems, Llc Photonic ROIC having safety features
US11763569B2 (en) * 2021-03-24 2023-09-19 Denso International America, Inc. System for controlling a camera supporting human review of sensor information
US11770621B2 (en) * 2021-09-30 2023-09-26 Snap Inc. Customized image reprocessing system using a machine learning model
GB2612663B (en) * 2022-05-17 2023-12-20 Envisics Ltd Head-up display calibration

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286577A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 撮像装置、表示方法、および車両
JP2010175423A (ja) * 2009-01-30 2010-08-12 Mitsubishi Electric Corp 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム
WO2013145072A1 (ja) * 2012-03-26 2013-10-03 三菱電機株式会社 カメラキャリブレーション方法、カメラキャリブレーションプログラムおよびカメラキャリブレーション装置
US20140132723A1 (en) * 2012-11-13 2014-05-15 Osmose Utilities Services, Inc. Methods for calibrating a digital photographic image of utility structures

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US7605817B2 (en) * 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US20080112610A1 (en) * 2006-11-14 2008-05-15 S2, Inc. System and method for 3d model generation
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
US8295589B2 (en) * 2010-05-20 2012-10-23 Microsoft Corporation Spatially registering user photographs
US8775064B2 (en) * 2011-05-10 2014-07-08 GM Global Technology Operations LLC Sensor alignment process and tools for active safety vehicle applications
GB201116961D0 (en) * 2011-09-30 2011-11-16 Bae Systems Plc Fast calibration for lidars
US9875557B2 (en) * 2012-11-05 2018-01-23 The Chancellor Masters And Scholars Of The University Of Oxford Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus
WO2014113657A1 (en) * 2013-01-18 2014-07-24 Intergraph Corporation Associating a point cloud image with a piping line drawing and applying dimensions regarding the same
US9201424B1 (en) * 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques
EP3703001A1 (en) * 2013-08-31 2020-09-02 ML Netherlands C.V. User feedback for real-time checking and improving quality of scanned image
US9846963B2 (en) * 2014-10-03 2017-12-19 Samsung Electronics Co., Ltd. 3-dimensional model generation using edges
US9530235B2 (en) * 2014-11-18 2016-12-27 Google Inc. Aligning panoramic imagery and aerial imagery
US10282591B2 (en) * 2015-08-24 2019-05-07 Qualcomm Incorporated Systems and methods for depth map sampling
US9916703B2 (en) * 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US10482681B2 (en) * 2016-02-09 2019-11-19 Intel Corporation Recognition-based object segmentation of a 3-dimensional image
KR102551198B1 (ko) * 2016-03-31 2023-07-03 매직 립, 인코포레이티드 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과 상호작용들
CN105911559A (zh) * 2016-06-02 2016-08-31 中国科学院光电研究院 基于可见光-近红外-短波红外波段的激光雷达系统
US10311648B2 (en) * 2016-06-22 2019-06-04 Aquifi, Inc. Systems and methods for scanning three-dimensional objects
US10380767B2 (en) * 2016-08-01 2019-08-13 Cognex Corporation System and method for automatic selection of 3D alignment algorithms in a vision system
US10032310B2 (en) * 2016-08-22 2018-07-24 Pointivo, Inc. Methods and systems for wireframes of a structure or element of interest and wireframes generated therefrom
EP3545337A1 (en) * 2017-01-26 2019-10-02 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and lidar information
US10198829B2 (en) * 2017-04-25 2019-02-05 Symbol Technologies, Llc Systems and methods for extrinsic calibration of a plurality of sensors
US10488521B2 (en) * 2017-06-13 2019-11-26 TuSimple Sensor calibration and time method for ground truth static scene sparse flow generation
US10176596B1 (en) * 2017-07-06 2019-01-08 GM Global Technology Operations LLC Calibration verification methods for autonomous vehicle operations
EP3438776B1 (en) 2017-08-04 2022-09-07 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle
US10223806B1 (en) 2017-08-23 2019-03-05 TuSimple System and method for centimeter precision localization using camera-based submap and LiDAR-based global map
CN111492403A (zh) 2017-10-19 2020-08-04 迪普迈普有限公司 用于生成高清晰度地图的激光雷达到相机校准
US11227366B2 (en) * 2018-06-22 2022-01-18 Volkswagen Ag Heads up display (HUD) content control system and methodologies

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286577A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 撮像装置、表示方法、および車両
JP2010175423A (ja) * 2009-01-30 2010-08-12 Mitsubishi Electric Corp 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム
WO2013145072A1 (ja) * 2012-03-26 2013-10-03 三菱電機株式会社 カメラキャリブレーション方法、カメラキャリブレーションプログラムおよびカメラキャリブレーション装置
US20140132723A1 (en) * 2012-11-13 2014-05-15 Osmose Utilities Services, Inc. Methods for calibrating a digital photographic image of utility structures

Also Published As

Publication number Publication date
US10841483B1 (en) 2020-11-17

Similar Documents

Publication Publication Date Title
JP2021016151A (ja) 少なくとも1つのカメラと光検出および測距センサを較正するためのシステムおよび方法
CN111532257B (zh) 用于补偿交通工具校准误差的方法和系统
US10726576B2 (en) System and method for identifying a camera pose of a forward facing camera in a vehicle
US11600075B2 (en) Nighttime sensing
WO2020240284A2 (en) Vehicle environment modeling with cameras
CN110793544B (zh) 路侧感知传感器参数标定方法、装置、设备及存储介质
GB2555185A (en) Vehicle exterior monitoring
CN111627054B (zh) 用于预测高置信度密集点云的深度补全误差地图的方法和装置
JP2019528501A (ja) マルチカメラシステムにおけるカメラ位置合わせ
US20200158840A1 (en) Multi-mode multi-sensor calibration
US11199614B1 (en) Lidar and image calibration for autonomous vehicles
JP2016031648A (ja) 車載機器
US11127147B2 (en) Three-dimensional point cloud generation using a polarimetric camera in a drive assistance system equipped vehicle
US20210011358A1 (en) Control method and device, gimbal, unmanned aerial vehicle, and computer-readable storage medium
KR20200071960A (ko) 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치
CN110794844A (zh) 自动驾驶方法、装置、电子设备及可读存储介质
CN114170826A (zh) 自动驾驶控制方法和装置、电子设备和存储介质
US10991155B2 (en) Landmark location reconstruction in autonomous machine applications
US20220237921A1 (en) Outside environment recognition device
CN110827337B (zh) 确定车载相机的姿态的方法、装置和电子设备
US20230109473A1 (en) Vehicle, electronic apparatus, and control method thereof
CN112816995A (zh) 目标检测方法及装置、融合处理单元、计算机可读介质
Marefat et al. A hemispherical omni-directional bio inspired optical sensor
US11830254B2 (en) Outside environment recognition device
WO2021106510A1 (ja) 障害物認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221220