JP6762439B2 - 明滅する照明された物体を検出するのにフィルタおよび露出時間を使用するカメラ・システム - Google Patents

明滅する照明された物体を検出するのにフィルタおよび露出時間を使用するカメラ・システム Download PDF

Info

Publication number
JP6762439B2
JP6762439B2 JP2019559719A JP2019559719A JP6762439B2 JP 6762439 B2 JP6762439 B2 JP 6762439B2 JP 2019559719 A JP2019559719 A JP 2019559719A JP 2019559719 A JP2019559719 A JP 2019559719A JP 6762439 B2 JP6762439 B2 JP 6762439B2
Authority
JP
Japan
Prior art keywords
camera
exposure time
filter
image
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019559719A
Other languages
English (en)
Other versions
JP2020522907A (ja
Inventor
ウェンデル,アンドリアス
イングラム,ベンジャミン
Original Assignee
ウェイモ エルエルシー
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー, ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2020522907A publication Critical patent/JP2020522907A/ja
Application granted granted Critical
Publication of JP6762439B2 publication Critical patent/JP6762439B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera

Description

関連出願の相互参照
[0001] 本願は、その開示が参照によって本明細書に組み込まれている、2017年5月19日に出願した米国特許仮出願第62/508467号の出願日の利益を主張する、2017年6月5日に出願した米国特許出願第15/613546号の継続出願である。
[0002] 人間の運転者を必要としない車両などの自律車両は、ある位置から別の位置への乗客または品物の輸送を助けるのに使用され得る。そのような車両は、乗客が目的地などのいくつかの初期入力を提供し、車両がその目的地までそれ自体を操縦する完全自律運転モードで動作することができる。したがって、そのような車両は、任意の所与の時に自律車両の位置を判定できると同時に、他の車両、停止信号、歩行者、その他など車両の外部の物体を検出し、識別できるシステムに大きく依存する可能性がある。
[0003] そのようなセンサは、多数の異なる構成で供給されるが、一例として、そのようなセンサは、(「light detection and ranging」)ライダ・センサ、レーダー・ユニット、カメラなどを含む可能性がある。カメラの例では、構成に加えて、カメラは、有用な画像を入手するために特定の値にセットされなければならない、ゲイン、露出時間、その他などの様々な特徴を有する。通常、露出時間は、周囲照明条件および検出される光の明るさに基づいて、アルゴリズムによって決定される。したがって、これらの露出時間は、しばしば非常に短く、たとえば、マイクロ秒のオーダーである。しかし、照明された物体の場合に、人間の目は、途切れのない連続光を見ることができるが、実際には、多くの照明された物体が、送電網の周波数(たとえば、60Hz)またはライト(発光ダイオード(LED)など)が「パルス幅変調された光」(PWM)を使用するかどうかに依存して、実際には明滅する。これらのカメラが、短い光パルスを有するものをサンプリングする場合に、2〜3マイクロ秒のタイムスパン内にその光パルスをイメージングする可能性は低い。
[0004] 本開示の諸態様は、システムを提供する。このシステムは、車両の環境の画像を取り込むために車両に取り付けられた第1のカメラであって、第1のカメラは、第1の露出時間を有し、NDフィルタなしである、第1のカメラと、車両の環境の画像を取り込むために車両に取り付けられた第2のカメラであって、第2のカメラは、第1の露出時間以上である第2の露出時間を有し、NDフィルタを有する、第2のカメラと、1つまたは複数のプロセッサとを含む。1つまたは複数のプロセッサは、第1のカメラおよび第1の露出時間を使用して画像を取り込み、第2のカメラおよび第2の露出時間を使用して画像を取り込み、照明された物体を識別するのに第2のカメラを使用して取り込まれた画像を使用し、物体の位置を識別するのに第1のカメラを使用して取り込まれた画像を使用し、自律運転モードで車両を制御するために識別された照明された物体および物体の識別された位置を使用するように構成される。
[0005] 一例では、第1のカメラおよび第2のカメラは、それぞれ、近赤外線フィルタを含む。別の例では、第2の露出時間は、ミリ秒のオーダーである。この例では、第2の露出時間は、少なくとも5ミリ秒であり、第1の露出時間は、5ミリ秒を超えない。別の例では、NDフィルタは、第2の露出時間に従って選択される。別の例では、NDフィルタは、第2のカメラに関して画素レベルで実施される。別の例では、このシステムは、車両をも含む。別の例では、1つまたは複数のプロセッサは、PWM光源からの光を識別することによって、照明された画像を識別するのに第2のカメラの画像を使用するように構成される。別の例では、1つまたは複数のプロセッサは、LEDを含む複数のPWM光源によって生成されたテキストを識別することによって、照明された画像を識別するのに第2のカメラの画像を使用するように構成される。この例では、1つまたは複数のプロセッサは、PWM光源の周波数に基づいて第2の露出時間を選択するようにさらに構成される。別の例では、1つまたは複数のプロセッサは、電力を光源に供給する送電網によって定義される速度で明滅する光源からの光を識別することによって、照明された画像を識別するのに第2のカメラの画像を使用するように構成される。この例では、1つまたは複数のプロセッサは、送電網によって定義される速度に基づいて第2の露出時間を選択するようにさらに構成される。別の例では、第2の露出時間は、固定された露出時間である。別の例では、第1の露出時間は、周囲照明条件に従って調整される可変露出時間である。この例では、第2の露出時間は、必ず第1の露出時間より長い。それに加えてまたはその代わりに、第2の露出時間は、可変露出時間である。
[0006] 本開示の別の態様は、車両上での使用のためのカメラを提供する。このカメラは、フォトダイオードのセットと、光がフォトダイオードのセットに達する前に光をフィルタリングするように配置されたNDフィルタと、画像を取り込むために少なくとも5ミリ秒の固定された露出時間を使用してフォトダイオードのセットを露光するように構成されたコントローラであって、露出時間は、カメラが露出時間の間にPWM光源からの光を取り込むことを可能にし、PWM光は、車両の環境内に配置される、コントローラとを含む。一例では、このカメラは、光がフォトダイオードのセットに達する前に光をフィルタリングするように配置された近赤外線フィルタをも含む。
[0007] 本開示のさらなる態様は、車両上での使用のためのカメラを提供する。このカメラは、フォトダイオードのセットと、光がフォトダイオードのセットに達する前に光をフィルタリングするように配置されたNDフィルタと、画像を取り込むために少なくとも5ミリ秒の固定された露出時間を使用してフォトダイオードのセットを露光するように構成されたコントローラであって、露出時間は、カメラが、光源に電力を供給する送電網によって定義される速度で明滅する光源からの光を取り込むことを可能にし、光源は、車両の環境内に配置される、コントローラとを含む。一例では、このカメラは、光がフォトダイオードのセットに達する前に光をフィルタリングするように配置された近赤外線フィルタをも含む。
[0008]本開示の諸態様による、本開示の諸態様による例の車両を示す機能図である。 [0009]本開示の諸態様による、図1の例の車両を示す例の外観図である。 [0010]本開示の諸態様による、第1のカメラを示す例の機能図である。 [0011]本開示の諸態様による、第2のカメラを示す例の機能図である。 [0012]本開示の諸態様による、代表的な露出時間および光パルスを示す例のチャートである。 [0013]本開示の諸態様による、代表的な露出時間および光パルスを示す別の例のチャートである。 [0014]本開示の諸態様による、第1のカメラによって取り込まれた例の一連の画像を示す図である。 [0015]本開示の諸態様による、第1のカメラによって取り込まれた標識の画像および第2のカメラによって取り込まれた標識の画像の例を示す図である。 [0016]本開示の諸態様による、交通信号灯器の例の画像を示す図である。 [0016]本開示の諸態様による、交通信号灯器の例の画像を示す図である。 [0017]本開示の諸態様による流れ図を示す図である。
[0018] 本技術は、車両の周囲で検出された情報に基づく、たとえば自律運転モードでの、車両の制御に関する。一例として、そのような情報は、車両に取り付けられた1つまたは複数のカメラを使用して検出され得る。上で注記したように、一般に、そのようなカメラは、シーンが露出過度(一部またはすべての色が飽和し、色を歪ませるか画像の諸部分を白くする)にならないようにするために、シーン内の光が強い時に非常に短い露出時間を使用し、周囲照明条件を最もよく取り込むためにカメラ構成を素早く調整することもする。しかし、照明された物体の場合に、人間の目は、途切れのない連続光を見ることができるが、実際には、多くの照明された物体が、送電網の周波数またはライトがPWMを使用するかどうかに依存して、実際には明滅する。これらのカメラが、短い光パルスを有するものまたは、下で議論するように非常に短い時間の間に、オンである短い期間とオフである、より長い期間との両方を有するパルスを有するものをサンプリングする場合に、2〜3マイクロ秒のタイムスパン内にその光パルスをイメージングする可能性は低い。
[0019] この問題に対処するために、カメラのうちの1つまたは複数の露出時間は、送電網と、ブレーキ・ライト、方向指示器、後退灯、一部のヘッドライトおよび日中走行用ライト、ならびにLED情報道路標識(たとえば、工事情報標識、可変制限速度標識、可変進行方向標識(variable direction−of−traffic sign)、その他)に使用されるものなどのPWM灯との両方の周期をカバーするのに十分な周期に調整され得る。
[0020] 一例として、ブレーキ・ライトは、しばしば2つの輝度セッティングすなわち、尾灯(長い期間にわたってオン)の輝度セッティングと、ブレーキ・ライト(車両がブレーキをかけている間にオン)のより明るい輝度セッティングとを有するので、PWMになる可能性が特に高い。強度の変化は、異なるPWMデューティ・サイクルを使用することによって実施され得る。さらに、カメラは、ニュートラル・デンシティ(ND)光学フィルタまたは、色合いを追加し、したがって必ずしも「ニュートラル」ではないものなどの光を大きくカットする他の減光フィルタなど、レンズに達する光の量を大幅に減らすフィルタを装着される場合がある。したがって、NDフィルタを使用する下の例のいずれもが、そのような減光フィルタに置換され得る。
[0021] 使用されるフィルタは、特定の露出時間に関するバランスの取れた光の量に達するために選択され得る。そのようなフィルタは、このタイムスパンをはるかにより長くし、したがって前述の短いパルスをイメージングする可能性を劇的に高めるのを助けることができる。
[0022] 特徴のこの組合せは、NDフィルタおよびより長い露出時間を有する1つまたは複数のカメラが、人間の目が見るはずのものにより近い画像を取り込むことを可能にする。したがって、NDフィルタおよびその露出時間を有するカメラによって取り込まれる画像は、これらの特徴を有しない他のカメラを用いて取り込まれた画像より、人間の目には見えない速度で明滅する交通信号灯器、ブレーキ・ライト、または方向指示器の識別に関して信頼できる可能性がある。これは、照明された物体の識別をはるかにより単純な作業にし、明滅するライトが照明されていないものとして誤って識別される状況を回避する。さらに、画像画像の一部は、同時に2つの異なるカメラによって撮影され、画像の整列、画像の間での物体の照合、その他を行うのを大幅により単純にすることができる。もちろん、この情報は、その後、車両を制御するのに使用され得る。
例のシステム
[0023] 図1に示されているように、本開示の一態様による車両100は、様々な構成要素を含む。本開示のある種の態様は、特定のタイプの車両に関連して特に有用であるが、車両は、乗用車、トラック、モーターサイクル、バス、レクリエーショナル・ビークル、その他を含むがこれに限定されない任意のタイプの車両とすることができる。車両は、1つまたは複数のプロセッサ120、メモリ130、および汎用コンピューティング・デバイス内に通常存在する他の構成要素を含むコンピューティング・デバイス110などの1つまたは複数のコンピューティング・デバイスを有することができる。
[0024] メモリ130は、プロセッサ120によって実行されまたは他の形で使用され得る命令132およびデータ134を含む、1つまたは複数のプロセッサ120によってアクセス可能な情報を記憶する。メモリ130は、ハードドライブ、メモリ・カード、ROM、RAM、DVDまたは他の光ディスク、ならびに他の書込可能メモリおよび読取専用メモリなど、コンピューティング・デバイス可読媒体または電子デバイスの助けを得て読み取られ得るデータを記憶する他の媒体を含む、プロセッサによってアクセス可能な情報を記憶することのできる任意のタイプのメモリとすることができる。システムおよび方法は、前述の異なる組み合わせを含むことができ、これによって、命令およびデータの異なる部分が、異なるタイプの媒体上に記憶される。
[0025] 命令132は、プロセッサによって直接に(機械コードなど)または間接に(スクリプトなど)実行される命令の任意のセットとすることができる。たとえば、命令は、コンピューティング・デバイス可読媒体上にコンピューティング・デバイス・コードとして記憶され得る。それに関して、用語「命令」および「プログラム」は、本明細書では交換可能に使用され得る。命令は、プロセッサによる直接処理のためのオブジェクト・コード・フォーマットで、あるいは、スクリプトまたはオン・デマンドで解釈されもしくは前もってコンパイルされる独立のソース・コード・モジュールのコレクションを含む任意の他のコンピューティング・デバイス言語で、記憶され得る。命令の関数、メソッド、およびルーチンが、下でより詳細に説明される。
[0026] データ134は、命令132に従ってプロセッサ120によって取り出され、記憶され、または変更され得る。たとえば、特許請求される主題は、どの特定のデータ構造にも限定されないが、データは、コンピューティング・デバイス・レジスタ内に、複数の異なるフィールドおよびレコードを有するテーブルとしてリレーショナル・データベース内に、XL文書内に、またはフラット・ファイル内に記憶され得る。また、データは、任意のコンピューティング・デバイス可読フォーマットでフォーマットされ得る。
[0027] 1つまたは複数のプロセッサ120は、市販CPUなど、任意の従来のプロセッサとすることができる。代替案では、1つまたは複数のプロセッサは、ASICまたは他のハードウェアベースのプロセッサなどの専用デバイスとすることができる。図1は、同一のブロック内にあるものとしてコンピューティング・デバイス110のプロセッサ、メモリ、および他の要素を機能的に示すが、当業者は、プロセッサ、コンピューティング・デバイス、またはメモリが、同一の物理ハウジング内に格納されてもされなくてもよい、複数のプロセッサ、コンピューティング・デバイス、またはメモリを実際に含むことができることを理解しよう。たとえば、メモリは、コンピューティング・デバイス110のハウジングとは異なるハウジング内に配置されたハードドライブまたは他の記憶媒体とすることができる。したがって、プロセッサまたはコンピューティング・デバイスへの言及は、並列に動作してもしなくてもよいプロセッサ、コンピューティング・デバイス、またはメモリのコレクションへの言及を含むと理解される。
[0028] コンピューティング・デバイス110は、上で説明したプロセッサおよびメモリ、ならびに、ユーザ入力150(たとえば、マウス、キーボード、タッチ・スクリーン、および/またはマイクロホン)および様々な電子ディスプレイ(たとえば、スクリーンを有するモニタまたは情報を表示できる任意の他の電気デバイス)など、コンピューティング・デバイスに関連して普通に使用される構成要素のすべてを含むことができる。この例では、車両は、情報またはオーディオ・ビジュアル経験を提供するために内蔵電子ディスプレイ152ならびに1つまたは複数のスピーカ154を含む。これに関して、内蔵電子ディスプレイ152は、車両100のキャビン内に配置され得、車両100内の乗客に情報を提供するためにコンピューティング・デバイス110によって使用され得る。
[0029] コンピューティング・デバイス110は、下で詳細に説明されるクライアント・コンピューティング・デバイスおよびサーバ・コンピューティング・デバイスなど、他のコンピューティング・デバイスとの通信を容易にするために1つまたは複数の無線ネットワーク接続156を含むこともできる。無線ネットワーク接続は、Bluetooth、Bluetooth low energy(LE)、セルラ接続などの短距離通信プロトコル、ならびに、インターネット、ワールド・ワイド・ウェブ、イントラネット、仮想プライベート・ネットワーク、広域ネットワーク、ローカル・ネットワーク、1つまたは複数の会社の独占的な通信プロトコルを使用するプライベート・ネットワーク、イーサネット、WiFi、およびHTTPを含む様々な構成およびプロトコル、ならびに前述の様々な組合せを含むことができる。
[0030] 一例では、コンピューティング・デバイス110は、車両100に組み込まれた自律運転コンピューティング・システムとすることができる。自律運転コンピューティング・システムは、完全自律運転モードおよび/または半自律運転モードで車両100を操縦するために、車両の様々な構成要素と通信できるものとすることができる。たとえば、図1に戻ると、コンピューティング・デバイス110は、メモリ130の命令132に従って車両100の移動、速度、その他を制御するために、減速システム160、加速システム162、ステアリング・システム164、シグナリング・システム166、ナビゲーション・システム168、測位システム170、知覚システム172、および動力システム174(たとえば、ガソリンまたはディーゼルによって動力を与えられるモーターまたは電気エンジン)などの車両100の様々なシステムと通信しているものとすることができる。やはり、これらのシステムは、コンピューティング・デバイス110の外部として図示されているが、実際には、これらのシステムが、やはり車両100を制御する自律運転コンピューティング・システムとして、コンピューティング・デバイス110に組み込まれることも可能である。
[0031] 一例として、コンピューティング・デバイス110は、車両の速度を制御するために、減速システム160および加速システム162と相互作用することができる。同様に、ステアリング・システム164は、車両100の方向を制御するためにコンピューティング・デバイス110によって使用され得る。たとえば、車両100が、乗用車またはトラックなど、道路上での使用のために構成される場合に、ステアリング・システムは、車両を旋回させるために車輪の角度を制御する構成要素を含むことができる。シグナリング・システム166は、たとえば必要な時に方向指示器またはブレーキ・ライトを照明することによって、他の運転者または車両に車両の意図を知らせるためにコンピューティング・デバイス110によって使用され得る。
[0032] ナビゲーション・システム168は、位置へのルートを判定し、これに従うためにコンピューティング・デバイス110によって使用され得る。これに関して、ナビゲーション・システム168および/またはデータ134は、詳細な地図情報、たとえば、車道の形状および高度、車線境界線、交差点、横断歩道、制限速度、交通信号、建物、標識、リアル・タイム交通情報、植生、または他のそのような物体および情報を識別する非常に詳細な地図を記憶することができる。言い換えると、この詳細な地図情報は、車道を含む車両の期待される環境の幾何形状ならびにそれらの車道の速度規制(法定最高速度)を定義することができる。さらに、この地図情報は、知覚システム172から受信されたリアル・タイム情報に関連して、交通のどの方向が所与の位置で通行権を有するのかを判定するためにコンピューティング・デバイス110によって使用され得る、交通信号灯器、一時停止標識、譲れの標識、その他など、交通規制に関する情報を含むことができる。
[0033] 知覚システム172は、他の車両、車道内の障害物、交通信号、標識、樹木、その他など、車両の外部の物体を検出する1つまたは複数の構成要素をも含む。たとえば、知覚システム172は、1つまたは複数のライダ・センサ、ソナー・デバイス、マイクロホン、レーダー・ユニット、カメラ、および/またはコンピューティング・デバイス110によって処理され得るデータを記録する任意の他の検出デバイスを含むことができる。知覚システムのセンサは、物体と、位置、方位、サイズ、形状、タイプ、移動の方向および速度、その他などのその特性とを検出することができる。センサからの生データおよび/または前述の特性は、記述的機能またはベクトルに定量化されまたは配置され、さらなる処理のためにコンピューティング・デバイス110に送られ得る。下でさらに詳細に議論するように、コンピューティング・デバイス110は、車両の位置を判定するのに測位システム170を使用し、位置に安全に到達するのに必要な時に物体を検出し、反応するのに知覚システム172を使用することができる。
[0034] 図2は、車両100の例の外観図である。上で示したように、知覚システム172は、様々な位置で車両に取り付けられ得る、1つまたは複数のカメラなどの1つまたは複数のセンサを含むことができる。この例では、カメラ200(複数のカメラを表すことができる)は、車両の前面ガラス204の直後に取り付けられる。この配置は、カメラが車両の前の環境のかなりの部分を取り込むことを可能にする。さらに、車両100のルーフ・パネル212上に配置されたハウジング210は、ハウジング内に取り付けられた1つまたは複数の追加のカメラを収容することができる。ハウジング内のカメラは、車両の前、車両の後、ならびに/または車両の「運転者」側および「乗客」側の画像を取り込むために、異なる方向に向けられ得る。
[0035] 図3Aおよび図3Bは。知覚システム172のカメラ300および350の例の機能図である。カメラ300および350の一方または両方は、カメラ200の位置またはハウジング210内のいずれかに配置され得る。図示されているように、カメラ300は、フォトダイオード304のセットと通信し、その動作を制御することのできる、プロセッサ120と同様に構成された1つまたは複数のプロセッサを含むことのできるコントローラ302を含む。この構成では、カメラに入る光は、フォトダイオード304に入る前に1つまたは複数のフィルタを通過する。この例では、フィルタ306は、赤外光の波長またはこれに近い波長を阻止しまたはフィルタリングするために、近赤外線フィルタとすることができる。他の追加のフィルタを使用することもできる。
[0036] カメラ300の動作は、知覚システム172が、車両の周囲の画像を取り込むと同時に、非発光物体ならびに発光物体を処理し、識別することを可能にすることができる。上で注記したように、知覚システム172にそのような物体の最も有用な画像を提供するために、カメラ300の露出時間は、非常に短くなるように選択され得る。たとえば、通常の日照時間中に、カメラ300を使用して画像を取り込む時の周囲照明は、一般に非常に明るく、したがって、選択される露出時間は、通常は非常に短い、すなわち、マイクロ秒のオーダーで、たとえば1マイクロ秒から50マイクロ秒である。
[0037] いくつかの例で、カメラ300は、知覚システム172および/またはコンピューティング・デバイス110が非放射物体(明るい露出の画像を使用して)と放射物体 暗い露出の画像 との両方を識別することを可能にするために、「明るい」露出の画像と「暗い」露出の画像との両方を取り込むのに使用され得る。それを行うために、第1の画像は、たとえばシャッタ時間の対数制御およびゲイン値の線形制御を使用して、環境内の光の平均量(所定の範囲内の)を取り込むための露出値を判定するために、コントローラ302によって処理される。その後、この露出値が、明るい露出の画像を取り込むのに使用される。その後、固定されたオフセット値が、同一のカメラを使用して暗い露出の画像を取り込むためにシャッタ時間およびゲインなどの1つまたは複数のカメラ・セッティングに加算され(またはカメラ・セッティングを乗算するのに使用され)得る。このプロセスは、カメラが、下でさらに議論する図4の例に示されているように、一連の明るい露出の画像および暗い露出の画像を取り込むのに使用されるように、継続することができる。したがって、カメラ300の露出時間は、周囲照明条件に従って可変であり、たとえば、数マイクロ秒もの短さから数ミリ秒、たとえば10ミリ秒までの範囲にわたることができる。この上限制限は、移動する車両上で使用されるカメラによって引き起こされるモーション・ブラーを制限するために有用である可能性がある。
[0038] 上で注記したように、カメラ300が、非常に短い光パルスを有する物体の画像をサンプリングすることを試みている場合に、2〜3マイクロ秒のタイムスパン内にその光パルスをイメージングする可能性は低い。たとえば、米国内の送電網によって電力を供給される交通信号灯または任意のライトの例を使用すると、送電網周波数は、60Hz(16.66ms)になり、8.33msの2つの半周期を有し、この半周期に、交通信号灯は、サイクルの中央でその最大値になる。言い換えると、図4の例のプロットに示されているように、8.33ミリ秒おきに最大光事象がある。さらに、光の85%超が、サイクルの25%中に作られる(たとえば、破線410の上の光パルスの部分)。したがって、1マイクロ秒のオーダーの露出を用いると、最大値またはサイクルのうちで十分な光を提供する部分中に交通信号灯の画像を取り込む可能性は、非常に低く、たとえば時間のうちの約25%であり、これは、自律運転モードで車両を安全に制御するためには不十分であり、非効率的であるはずである。したがって、下でさらに議論するカメラ350が、そのような脈動して照明されるライトを取り込むのにも使用され得る。
[0039] 送電網周波数に従って明滅するライトと同様に、PMW光も、短い露出時間を用いて区別することが困難である。上で注記したように、PWMであるLEDは、一般にブレーキ・ライト、方向指示器、後退灯、一部のヘッドライトおよび日中走行用ライト、ならびにLED情報道路標識(たとえば、工事情報標識、可変制限速度標識、可変進行方向標識、その他)、ならびに知覚システムが出会う可能性がある様々な他のタイプのライトに使用される。たとえば、PWMライトも、非常に短い光パルスを有し、通常は、約100〜110Hzの周波数で、約10%のオン分数で動作する(そのような周波数は、10%未満から80%までのデューティ・サイクルを伴って80から400Hzまで幅広く変化する可能性があるが)。一例として、ブレーキ・ライトが図5の例のプロットに示されているように、10%のオン分数と共に100Hzの周波数を使用する場合に、光の1ミリ秒のパルスが放たれ、これに9ミリ秒の光なしが続き、その後、別の1ミリ秒の光、9ミリ秒の光なしと続く。したがって、カメラ300が、露出を取り込む時に依存して、1ミリ秒の間に光が画像内に現れ、次の9ミリ秒にはブレーキ・ライトからの光はない。やはり、これは、単一の画像または画像の小さいセットからのブレーキ・ライトの状態の判定を難しくし、いくつかの場合には不可能にする。したがって、カメラ350も、そのような脈動して照明されるライトを取り込むのに使用され得る。
[0040] これは、カメラ300が、LEDから形成されたテキストを含むライト・アップされた道路標識の画像を取り込んでいる場合に、特に問題になる可能性がある。カメラ300によって取り込まれた画像内のテキストは、露出中に部分的にのみ可視になり、単一の画像から、または経時的に取り込まれた一連の画像を組み合わせることによって、テキストを識別することを極端に困難にする。これは、テキストにLEDを使用する多くの標識が、PWMサイクルの異なる部分の間にテキストの異なる部分を明るくするからである。言い換えると、LEDの1つのサブセットは、サイクルの第1の10%に明るくされ、別のサブセットがサイクルの第2の10%に明るくされ、以下同様である場合がある。したがって、任意の所与の時に、テキストの1/10だけが照明される。
[0041] たとえば、図6Aは、かなり明るい昼光周囲照明条件に使用されるマイクロ秒のオーダーの短い露出時間が、どのようにして、PWMライトを使用するテキストを有するライティングされた標識を支離滅裂なものにし、車両の知覚システム172および/またはコンピューティング・デバイス110による解読を不可能にすることができるのかを示す。この例では、カメラ300(短い露出時間を有し、NDフィルタを有しない)と同様に構成されたカメラによって取り込まれた一連の12枚の画像が、照明されたPWMライト、ここではLEDから形成されたテキストを有する交通標識を示す。上の例で議論したように、上の6枚の画像は、非放射物体を識別するために明るい露出の画像602として取り込まれ、下側の6枚の画像は、放射物体を識別するために暗い露出の画像604として取り込まれる。しかし、図からわかるように、標識が照明されていることは明瞭であるが、テキストは支離滅裂である。したがって、カメラ350も、そのような脈動して照明されるライトを取り込むのに使用され得る。
[0042] 図3Bに示されているように、カメラ350は、フォトダイオード354のセットと通信し、その動作を制御することのできる、コントローラ302と同等のコントローラ352を含む。この構成では、カメラに入る光は、フォトダイオード304に達する前に1つまたは複数のフィルタを通過する。この例では、第1のフィルタ356は、赤外光の波長またはそれに近い波長を阻止しまたはフィルタリングするために、近赤外線フィルタとすることができ、第2のフィルタ358は、NDフィルタとすることができる。NDフィルタは、カメラの露出時間を特定の時間枠に調整するために選択され得る。たとえば、カメラ350の10ミリ秒の露出時間を達成するために、〜1%のNDフィルタが使用され得る。これは、カメラ350が、車両の環境の有用な画像をそれでも提供しながら、その露出時間をカメラ300から約100倍またはそれ以上もしくはそれ以下に効果的に増やすことを可能にする。これに関して、所望の露出時間が、NDフィルタのタイプを決定するのに使用され得る。
[0043] NDフィルタの使用は、追加の光をフィルタによって除去することによって、より長い露出時間を可能にする。言い換えると、カメラ350の露出時間は、物体の有用な画像をそれでも取り込みながら、カメラ300よりはるかに長いものとすることができる。一例として、露出時間は、たとえば1ミリ秒から20ミリ秒など、ミリ秒のオーダーとするか、少なくとも5ミリ秒または10ミリ秒など、その間の時間とすることができる。図7Aおよび図7Bは、たとえばミリ秒のオーダーの、より長い露出時間を使用して、両方とも緑色で照明される交通信号灯器の対730および732の同一の画像を示す。図7Aの画像710は、NDフィルタなしで取り込まれ、図7Bの画像720は、NDフィルタを用いて、たとえば、カメラ350と同様に構成されたカメラを使用して取り込まれる。交通信号灯器730および732のそれぞれは、理解のしやすさのために白の円によって識別されるが、これらの円は、画像自体の一部ではない。図からわかるように、画像710および720は、NDフィルタの使用が、他の情報(または他のライト)のほとんどをどのようにして除去し、見る人および車両の知覚システム172が照明された交通信号灯をよりたやすく選び出すことを可能にするのかを示す。白黒画像から可視ではないが、NDフィルタは、光の色をも保存する。たとえば、画像710では、交通信号灯器は、緑のハローを伴って白く見えるが、画像720では、交通信号灯器は、緑の円に見える。
[0044] 8.33ミリ秒おきに最大光事象があり、カメラ350の露出時間が10ミリ秒である送電網交通信号灯の例に戻ると、10ミリ秒の露出時間を使用するカメラ350は、図4、図7A、および図7Bに示されているように、照明された交通信号灯を非常によく取り込む可能性が高い。10ms露出時間がどこで始まるのか(異なる10ミリ秒の例の露出時間によって示される)にかかわりなく、カメラ350は、かなりの量の光を取り込むことができ、NDフィルタは、交通信号灯器の識別に必要ではない他の情報(または追加の光)を除去する。同様に、ブレーキ・ライトが10%オン分数で100HZで脈動する、PWMブレーキ・ライトの例では、10ミリ秒の露出時間を使用するカメラ350は、図5に示されているように、照明されたブレーキ・ライトを取り込む可能性が高い。したがって、前述のタイプの照明されたライトをイメージングする可能性は、大幅に高まる。
[0045] 図6Bは、NDフィルタを用いず、マイクロ秒のオーダーの短い露出時間を使用して取り込まれたPWMライトを使用するテキストを伴う照明された標識の画像と、NDフィルタを用い、ミリ秒のオーダーのより長い露出時間を使用して取り込まれた同一の標識の画像との間の比較を示す。画像610〜618および620のそれぞれは、照明されたPWMライト、ここではLEDによって形成されるテキストを有する同一の交通標識を示す。図6Aの例と同様に、NDフィルタを用いず、短い露出時間を用いて、かなり明るい昼光周囲照明条件の下で取り込まれた交通標識の画像610〜618は、そのような交通標識を支離滅裂なものにし、車両の知覚システム172および/またはコンピューティング・デバイス110による解読を不可能にする。やはり、画像610〜618は、マイクロ秒のオーダーのより短い露出時間を用い、NDフィルタを用いない、カメラ300と同様に構成されたカメラによって取り込まれたものとすることができる。標識のライトが少なくとも部分的に照明されていることは明瞭であるが、テキストは支離滅裂である。画像620は、NDフィルタとやはりミリ秒のオーダーのより長い露出時間とを用いる、カメラ350と同様に構成されたカメラによって取り込まれたものとすることができる。画像620の例では、標識のテキストが、明瞭に判読可能であり、したがって、たとえばOCRまたは下で議論する他の技法を使用して、車両の知覚システムによって解読される可能性がより高い。
[0046] NDフィルタは、可変NDフィルタとして実施され得る。たとえば、NDフィルタは、電気的に制御可能な半透明LCDとすることができる。
[0047] NDフィルタを用いるカメラ350の構成に対する代替案として、カメラ350の口径および/またはレンズを縮小することができる。たとえば、カメラ300は、f/2口径を有し、NDフィルタを有しないものとすることができる(fは、焦点距離を指す)。しかし、f/2口径およびND64フィルタなどのNDフィルタを有するカメラ350の代わりに、カメラ350が、f/16口径を有することができる。f/16口径は、8倍小さい直径(または16/2)を有し、これは、64倍(または8^2)小さい面積であり、したがって、64倍少ない光透過を可能にする。したがって、これは、ND64フィルタと同様に働く。
[0048] それに加えてまたはその代わりに、開口絞りが使用され得る。より小さい口径、レンズ、および/または開口絞りは、よりよい被写界深度を提供することができ、その結果、遠くのものと近くのものとに同時に焦点が合うようになる。小口径カメラは、NDフィルタなどの減光フィルタと共にまたはこれなしでも使用され得る。
[0049] 上で説明されたフィルタは、フォトダイオードのすべての光を1つでフィルタリングするレンズとして説明されるが、他のフィルタ構成も使用され得る。たとえば、フィルタは、画素レベルで実施され得る。これに関して、同一のカメラ内のフォトダイオードの異なるグループが、異なるフィルタ構成を用いて構成され得、単一のカメラが、カメラ300と350との両方の構成を同時に可能にするフィルタ構成を含むようになる。
例の方法
[0050] 上で説明し、図面に示した動作に加えて、様々な動作をこれから説明する。以下の動作が、下で説明される正確な順序で実行される必要がないことを理解されたい。そうではなく、様々なステップは、異なる順序でまたは同時に処理され得、ステップが、追加されまたは省略されることも可能である。
[0051] 車両が移動する時に、知覚システム172のセンサは、車両の環境をサンプリングすることができる。カメラ300および350を参照すると、コンピューティング・デバイス110によって処理されるセンサ・データを作るために、コントローラ302および352は、それぞれのカメラの機能を制御することができる。これに関して、コントローラは、カメラのそれぞれに、可変のまたは固定された露出時間を使用して、車両の環境の画像を取り込ませることができる。
[0052] カメラ300の場合に、この露出時間は、上で議論したように周囲照明条件に基づいて決定され得る。たとえば、第1のカメラの露出時間は、上で議論したように、周囲照明条件に依存して、マイクロ秒のオーダー(1、45、80、100、500、もしくは1ミリ秒のわずかに下、またはその間の時間など)および10ミリ秒もの長さまでとすることができる。したがって、カメラ300は、連続して、いくつかの場合に暗い露出と明るい露出との間で切り替えることによって、周囲照明条件に結び付けられた可変露出時間を使用して、車両の環境の画像を取り込むことができる。
[0053] カメラ350の場合に、この露出時間は、使用されるNDフィルタのタイプに基づいて事前に決定され得る。上の例と同様に、〜1%のNDフィルタに関して、カメラ350の露出時間は、10ミリ秒にセットされ得る。したがって、カメラ350は、10ミリ秒の露出時間を使用して車両の環境の画像を連続して取り込むことができる。しかし、カメラ300の可変露出時間とは異なって、カメラ350の露出時間は、固定された値とすることができる。他の例では、カメラ350の露出時間は、変更され得るが、それでも、たとえば近くに太陽のまぶしい光がある時に、明滅しない交通信号灯を取り込む可能性を高めるために、カメラ300の露出時間より長くすることができる。
[0054] その後、カメラによって取り込まれた画像は、たとえば、ディープ・ネット・クラシファイヤのトレーニングまたはカスケード・クラシファイヤもしくはサポート・ベクトル・マシン(SVM)などの異なる機械学習技法の使用、既知のパターンのマッチング、局所特徴の抽出およびモデルに対するマッチング、物体を見つけるための画像のセグメント化、ある種の色のマッチング、ブロブ検出、グラデーション画像もしくはヒストグラムの比較、その他などの様々な既知の技法を使用して、車両の環境内の物体を識別するために処理され得る。たとえば、カメラ300からの画像は、路面標識(たとえば、車線境界線または他のマーカー)、他の道路ユーザ(たとえば、車両、自転車、歩行者など)、標識(たとえば、一時停止標識、速度標識、工事標識など)、コーン、工事用バリケード、車道上の異物(たとえば、破片、動物など)、およびいくつかの場合に照明された物体などの物体の位置を識別するのに使用され得る。もちろん、マイクロ秒のオーダーの露出時間は、送電網またはPWM(LEDなど)に従って明滅する物体など、一部の照明された物体を取り込むには短すぎ、したがって、一部の物体は、画像602および604ならびに画像610〜618などの画像では見逃される可能性がある。
[0055] やはり、この問題に対処するために、カメラ350によって取り込まれた画像が、照明された物体、具体的には上で議論したように送電網またはPWMの周波数に起因して明滅する物体を識別するために処理され得る。それと同時に、カメラ300として構成されたカメラによって取り込まれた、数万ではないとしても数千枚の画像の処理と比較して、そのような明滅するライトの照明された状態が、図6Bの画像620によって示されるようにカメラ350として構成されたカメラによって取り込まれた単一のまたは非常に少数の画像から識別され得るので、これは、かなりの処理能力を節約することができる。さらに、カメラ300が、10ミリ秒に近いなど、露出時間がより長い時にそのような明滅するライトを取り込める時であっても、照明条件が変化するので、およびカメラ300の露出時間が可変なので、そのような明滅するライトを一貫して取り込む可能性は、非常に低い。さらに、コンピューティング・デバイス110が、リアル・タイムで運転判断を行わなければならないことを考慮する時に、これは、カメラ350に関するNDフィルタおよびより長い固定された(または、いくつかの例では可変の)露出時間の使用を、コンピューティング・デバイス110が人間により近い形で車両の環境を「知覚する」ことを可能にする、信じられないほど有用なツールにする。
[0056] カメラによって取り込まれた画像自体および/またはこれらの画像から識別された情報は、コンピューティング・デバイスが車両の運転判断を行うのを支援するために、コンピューティング・デバイス110に供給され得る。たとえば、交通信号の状況、たとえば連続して照明されるのか点滅するのか(点滅する黄色いライトを用いるなど)は、カメラ350からの画像からたやすく判定され、車両が交通信号灯にどのように反応するのかを制御するのに使用され得る。別の例で、LEDブレーキ・ライト、LEDヘッドランプ、緊急車両のLEDライト、または別の車両のLED方向指示器ライトの状況は、カメラ350からの画像からたやすく判定され、他の車両が旋回を行うのを待つ、他の車両の回りで移動する(追い越しが可能である場合)、その他など、車両100が、他の車両とどのように相互作用するのかを制御するのに使用され得る。同様に、赤信号時右折禁止標識、工事情報板、一部の制限速度標識、その他など、テキスト情報を提供するのにLEDライトを利用する標識からのテキストは、たとえば光学文字認識技法(OCR)を使用して、たやすく認識され得る。多くの状況で、コンピューティング・デバイス110がそのようなテキストを「理解する」ことを可能にすることは、コンピューティング・デバイスを、工事によって引き起こされる変化する環境、公共安全通知、またはそのようなLED照明される標識で提供される他の情報に応答しやすいものにすることができる。さらに、一部の画像 画像 は、2つの異なるカメラによって同時に撮影され、画像の整列、画像の間での物体の照合、その他を行うのを大幅により単純にすることができる。
[0057] 図8は、本明細書で説明される諸態様のいくつかによる例の流れ図800である。例の流れ図は、それぞれカメラ300および350など、第1および第2のカメラを含むシステムを参照する。これに関して、第1のカメラは、車両の環境の画像を取り込むために、車両100などの車両に取り付けられ得る。第1のカメラは、第1の露出時間を有し、NDフィルタなしであり、第1の露出時間は、周囲照明条件に従って調整される可変露出時間である。第2のカメラも、車両の環境の画像を取り込むために、車両に取り付けられ得る。第2のカメラは、第1の露出時間以上である第2の露出時間を有し、NDフィルタをも有する。第2の露出時間は、固定された(あるいは、いくつかの例では可変の)露出時間である。このシステムは、コントローラ302、352のプロセッサおよびコンピューティング・デバイス110のプロセッサなど、流れ図800の動作を実行するように構成され得る、1つまたは複数のプロセッサをも含む。たとえば、ブロック810では、1つまたは複数のプロセッサが、第1のカメラおよび第1の露出時間を使用して画像を取り込む。ブロック520では、1つまたは複数のプロセッサが、第2のカメラおよび第2の露出時間を使用して画像を取り込む。ブロック830では、1つまたは複数のプロセッサが、照明された物体を識別するのに第2のカメラを使用して取り込まれた画像を使用する。ブロック840では、1つまたは複数のプロセッサが、物体の位置を識別するのに第1のカメラを使用して取り込まれた画像を使用する。ブロック880では、1つまたは複数のプロセッサが、自律運転モードで車両を制御するために識別された照明された物体および物体の識別された位置を使用する。
[0058] 上の例は、自律運転モードを有する車両の制御に関するが、上で説明した照明された物体の識別は、他の運転システムにも有用である可能性がある。たとえば、情報が、自律運転モードを有するそのような車両内の乗客への表示のために提供されて、車両の知覚システムが車両の環境をどのように知覚しているのかに関する文脈を提供することができる。別の例では、情報は、運転者が赤信号を通過しようとしていることまたは別の車両がブレーキをかけもしくは旋回していることの警告を提供するためなど、手動または半自律(完全自律未満の運転モード)で動作している可能性がある車両の運転者に通知または警告を提供するのに使用され得る。
[0059] そうではないと述べられない限り、前述の代替の例は、相互に排他的ではなく、独自の利点を達成するために様々な組合せで実施され得る。上で議論した特徴のこれらおよび他の変形形態および組合せが、特許請求の範囲によって定義される主題から逸脱せずに利用され得るので、諸実施形態の前述の説明は、特許請求の範囲によって定義される主題の限定ではなく例示として解釈されなければならない。さらに、本明細書で説明される例ならびに「〜など」、「含む」、および類似物などと表現される句の提供は、特許請求の範囲の主題を特定の例に限定するものと解釈されてはならず、むしろ、例は、多数の可能な実施形態のうちのただ1つを示すことが意図されている。さらに、異なる図面の同一の符号は、同一のまたは同様の要素を識別することができる。
産業上の利用可能性
[0060] 本明細書で説明される技術は、たとえば車両のカメラ・システムを含む、幅広い産業上の利用可能性を享受する。

Claims (20)

  1. 環境の画像を取り込むために取り付けられた第1のカメラであって、前記第1のカメラは、第1の露出時間を有し、NDフィルタなしである、第1のカメラと、
    前記環境の画像を取り込むために取り付けられた第2のカメラであって、前記第2のカメラは、前記第1の露出時間以上である第2の露出時間を有し、NDフィルタを有する、第2のカメラと、
    前記第1のカメラおよび前記第1の露出時間を使用して画像を取り込み、
    前記第2のカメラおよび前記第2の露出時間を使用して画像を取り込み、
    照明された物体を識別するのに前記第2のカメラを使用して取り込まれた前記画像を使用し、
    物体の位置を識別するのに前記第1のカメラを使用して取り込まれた前記画像を使用し、
    自律運転モードで車両を制御するために前記識別された照明された物体および物体の識別された位置を使用する
    ように構成された1つまたは複数のプロセッサと
    を含むシステム。
  2. 前記第1のカメラおよび前記第2のカメラは、それぞれ、近赤外線フィルタを含む、請求項1に記載のシステム。
  3. 前記第2の露出時間は、ミリ秒のオーダーである、請求項1に記載のシステム。
  4. 前記第2の露出時間は、少なくとも5ミリ秒であり、前記第1の露出時間は、5ミリ秒を超えない、請求項3に記載のシステム。
  5. 前記NDフィルタは、前記第2の露出時間に従って選択される、請求項1に記載のシステム。
  6. 前記NDフィルタは、前記第2のカメラに関して画素レベルで実施される、請求項1に記載のシステム。
  7. 前記車両をさらに含む、請求項1に記載のシステム。
  8. 前記1つまたは複数のプロセッサは、PWM光源からの光を識別することによって、前記照明された物体を識別するのに前記第2のカメラの前記画像を使用するようにさらに構成される、請求項1に記載のシステム。
  9. 前記1つまたは複数のプロセッサは、LEDを含む複数のPWM光源によって生成されたテキストを識別することによって、前記照明された物体を識別するのに前記第2のカメラの前記画像を使用するようにさらに構成される、請求項1に記載のシステム。
  10. 前記1つまたは複数のプロセッサは、前記PWM光源の周波数に基づいて前記第2の露出時間を選択するようにさらに構成される、請求項9に記載のシステム。
  11. 前記1つまたは複数のプロセッサは、電力を光源に供給する送電網によって定義される速度で明滅する前記光源からの光を識別することによって、前記照明された物体を識別するのに前記第2のカメラの前記画像を使用するようにさらに構成される、請求項1に記載のシステム。
  12. 前記1つまたは複数のプロセッサは、前記送電網によって定義される速度に基づいて前記第2の露出時間を選択するようにさらに構成される、請求項11に記載のシステム。
  13. 前記第2の露出時間は、固定された露出時間である、請求項1に記載のシステム。
  14. 前記第1の露出時間は、周囲照明条件に従って調整される可変露出時間である、請求項1に記載のシステム。
  15. 前記第2の露出時間は、必ず前記第1の露出時間より長い、請求項14に記載のシステム。
  16. 前記第2の露出時間は、可変露出時間である、請求項14に記載のシステム。
  17. 前記第2のカメラは、
    フォトダイオードのセットと、
    光がフォトダイオードの前記セットに達する前に前記光をフィルタリングするように配置されたNDフィルタと、
    画像を取り込むために少なくとも5ミリ秒の固定された露出時間を使用してフォトダイオードの前記セットを露光するように構成されたコントローラであって、前記露出時間は、前記第2のカメラが前記露出時間の間にPWM光源からの光を取り込むことを可能にし、前記PWM光源は、前記車両の環境内に配置される、コントローラと
    をさらに含む、請求項1に記載のシステム。
  18. 光がフォトダイオードの前記セットに達する前に前記光をフィルタリングするように配置された近赤外線フィルタをさらに含む、請求項17に記載のシステム。
  19. 前記第2のカメラは、
    フォトダイオードのセットと、
    光がフォトダイオードの前記セットに達する前に前記光をフィルタリングするように配置されたNDフィルタと、
    画像を取り込むために少なくとも5ミリ秒の固定された露出時間を使用してフォトダイオードの前記セットを露光するように構成されたコントローラであって、前記露出時間は、前記第2のカメラが、光源に電力を供給する送電網によって定義される速度で明滅する前記光源からの光を取り込むことを可能にし、前記光源は、前記車両の環境内に配置される、コントローラと
    をさらに含む、請求項1に記載のシステム。
  20. 光がフォトダイオードの前記セットに達する前に前記光をフィルタリングするように配置された近赤外線フィルタをさらに含む、請求項19に記載のシステム。
JP2019559719A 2017-05-19 2018-05-10 明滅する照明された物体を検出するのにフィルタおよび露出時間を使用するカメラ・システム Active JP6762439B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762508467P 2017-05-19 2017-05-19
US62/508,467 2017-05-19
US15/613,546 US10453208B2 (en) 2017-05-19 2017-06-05 Camera systems using filters and exposure times to detect flickering illuminated objects
US15/613,546 2017-06-05
PCT/US2018/032016 WO2018213092A1 (en) 2017-05-19 2018-05-10 Camera systems using filters and exposure times to detect flickering illuminated objects

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020150361A Division JP7053743B2 (ja) 2017-05-19 2020-09-08 明滅する照明された物体を検出するのにフィルタおよび露出時間を使用するカメラ・システム

Publications (2)

Publication Number Publication Date
JP2020522907A JP2020522907A (ja) 2020-07-30
JP6762439B2 true JP6762439B2 (ja) 2020-09-30

Family

ID=64272440

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019559719A Active JP6762439B2 (ja) 2017-05-19 2018-05-10 明滅する照明された物体を検出するのにフィルタおよび露出時間を使用するカメラ・システム
JP2020150361A Active JP7053743B2 (ja) 2017-05-19 2020-09-08 明滅する照明された物体を検出するのにフィルタおよび露出時間を使用するカメラ・システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020150361A Active JP7053743B2 (ja) 2017-05-19 2020-09-08 明滅する照明された物体を検出するのにフィルタおよび露出時間を使用するカメラ・システム

Country Status (10)

Country Link
US (4) US10453208B2 (ja)
EP (1) EP3606798B1 (ja)
JP (2) JP6762439B2 (ja)
KR (3) KR102166367B1 (ja)
CN (2) CN110678374B (ja)
AU (2) AU2018270908B2 (ja)
CA (1) CA3064418A1 (ja)
IL (1) IL270477B1 (ja)
SG (2) SG10202011374PA (ja)
WO (1) WO2018213092A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10453208B2 (en) * 2017-05-19 2019-10-22 Waymo Llc Camera systems using filters and exposure times to detect flickering illuminated objects
WO2018223882A1 (en) * 2017-06-08 2018-12-13 Zhejiang Dahua Technology Co., Ltd. Methods and devices for processing images of traffic light
CN107948519B (zh) * 2017-11-30 2020-03-27 Oppo广东移动通信有限公司 图像处理方法、装置及设备
US10551847B2 (en) * 2018-02-06 2020-02-04 Here Global B.V. Method, apparatus, and system for machine learning of physical dividers using map data and vehicular sensor data
KR20210059712A (ko) 2018-08-07 2021-05-25 블링크에이아이 테크놀로지스, 아이엔씨. 이미지 향상을 위한 인공지능 기법
US11034286B2 (en) 2018-09-10 2021-06-15 Lumileds Holding B.V. Adaptive headlamp system for vehicles
KR20200069084A (ko) * 2018-12-06 2020-06-16 팅크웨어(주) 도로 제한 속도 판단 방법, 도로 제한 속도 판단 장치, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
US11107349B2 (en) * 2019-01-31 2021-08-31 AitronX Inc. Sidewalk detection for electric scooters
WO2020195769A1 (ja) * 2019-03-27 2020-10-01 ソニー株式会社 物体検出装置、物体検出システム及び物体検出方法
US10944912B2 (en) 2019-06-04 2021-03-09 Ford Global Technologies, Llc Systems and methods for reducing flicker artifacts in imaged light sources
DE102019209152A1 (de) * 2019-06-25 2020-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum sicheren Identifizieren von Objekten in Videobildern
GB2586804B (en) * 2019-09-03 2022-02-16 Jaguar Land Rover Ltd Method and system for mitigating image flicker from strobed lighting systems
US20210211568A1 (en) * 2020-01-07 2021-07-08 Motional Ad Llc Systems and methods for traffic light detection
CN113160590B (zh) * 2020-01-23 2023-02-03 华为技术有限公司 智能汽车的控制方法、装置及相关设备
US11460857B1 (en) * 2020-02-21 2022-10-04 Zoox, Inc. Object or person attribute characterization
WO2021255519A1 (en) * 2020-06-17 2021-12-23 Mobileye Vision Technologies Ltd. Dual sensor readout channel to allow for frequency detection
KR102435406B1 (ko) 2020-07-03 2022-08-24 현대모비스 주식회사 카메라 내장 램프의 비동기 제어 시스템 및 방법
US11064131B1 (en) * 2020-09-25 2021-07-13 GM Global Technology Operations LLC Systems and methods for proactive flicker mitigation
CN112235515B (zh) * 2020-10-14 2022-08-09 长沙行深智能科技有限公司 具有频闪抑制功能的led光源图像检测方法及装置
US11899468B2 (en) 2020-12-22 2024-02-13 Waymo Llc Sensor for flashing light detection
CN112822365B (zh) * 2020-12-31 2022-10-11 维沃移动通信有限公司 摄像模组、电子设备及其控制方法、装置
EP4097554B1 (en) * 2021-04-20 2023-12-06 Baidu.com Times Technology (Beijing) Co., Ltd. Traffic light detection and classification for autonomous driving vehicles
KR102399803B1 (ko) * 2021-07-23 2022-05-19 김선화 이동 객체 인식 장치를 이용한 차량번호 식별 및 인식이 가능한 cctv 시스템
KR102465190B1 (ko) * 2021-11-17 2022-11-09 주식회사 에스씨 야간항해용 어라운드뷰 장치

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1161112B (de) * 1956-12-27 1964-01-09 Emsig Mfg Company Knopfzufuehrungsvorrichtung fuer Knopfannaehmaschinen
US5070407A (en) 1990-05-11 1991-12-03 Wheeler Ernest E Filter changing mechanism for a video camera
JP3571828B2 (ja) * 1995-10-27 2004-09-29 本田技研工業株式会社 車両用環境認識装置
US6009355A (en) * 1997-01-28 1999-12-28 American Calcar Inc. Multimedia information and control system for automobiles
JP4624594B2 (ja) * 2000-06-28 2011-02-02 パナソニック株式会社 物体認識方法および物体認識装置
JP4005442B2 (ja) 2002-08-07 2007-11-07 富士通株式会社 物体検知方法及び物体検知装置
JP4089711B2 (ja) * 2005-07-08 2008-05-28 コニカミノルタビジネステクノロジーズ株式会社 画像読み取り装置とそれを有する画像形成装置
US7777787B2 (en) * 2005-10-17 2010-08-17 Nokia Corporation Preventing flicker effects in video electronic devices
US9182228B2 (en) * 2006-02-13 2015-11-10 Sony Corporation Multi-lens array system and method
US7579593B2 (en) 2006-07-25 2009-08-25 Panasonic Corporation Night-vision imaging apparatus, control method of the same, and headlight module
US20090096937A1 (en) * 2007-08-16 2009-04-16 Bauer Frederick T Vehicle Rearview Assembly Including a Display for Displaying Video Captured by a Camera and User Instructions
KR101097017B1 (ko) * 2007-11-19 2011-12-20 후지쯔 가부시끼가이샤 촬상 장치, 촬상 방법 및 컴퓨터 판독가능한 기록 매체
US8018525B2 (en) * 2007-12-21 2011-09-13 Nokia Corporation Camera flash module and method for controlling same
JP2009165081A (ja) 2008-01-10 2009-07-23 Panasonic Corp ステレオカメラシステム
JP2009253316A (ja) 2008-04-01 2009-10-29 Panasonic Corp 車載カメラ及びドライブレコーダ
US7911505B2 (en) * 2008-08-20 2011-03-22 Eastman Kodak Company Detecting illuminant flicker
US8692980B2 (en) * 2010-11-01 2014-04-08 Advanced Scientific Concepts, Inc. Flash LADAR collision avoidance system
JP2012142748A (ja) * 2010-12-28 2012-07-26 Sony Corp 撮像制御装置、撮像制御方法及び撮像制御プログラム並びに撮像装置
DE102011077038A1 (de) * 2011-06-07 2012-12-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
US20120314069A1 (en) * 2011-06-08 2012-12-13 Delphi Technologies, Inc. Vehicle optical sensor system
WO2013054160A1 (en) 2011-10-11 2013-04-18 Sony Ericsson Mobile Communications Ab Light sensitive, low height, and high dynamic range camera
JP5409829B2 (ja) * 2012-02-17 2014-02-05 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、および、プログラム
JP6197291B2 (ja) * 2012-03-21 2017-09-20 株式会社リコー 複眼カメラ装置、及びそれを備えた車両
GB2502047B (en) 2012-04-04 2019-06-05 Snell Advanced Media Ltd Video sequence processing
JP2014153167A (ja) * 2013-02-07 2014-08-25 Nidec Elesys Corp 物体認識装置、物体認識方法及び物体認識プログラム
JP6156724B2 (ja) 2013-03-14 2017-07-05 株式会社リコー ステレオカメラ
US9800794B2 (en) * 2013-06-03 2017-10-24 Magna Electronics Inc. Vehicle vision system with enhanced low light capabilities
KR101353052B1 (ko) * 2013-07-31 2014-01-20 주식회사 피엘케이 테크놀로지 교통표지판 인식을 위한 차량용 영상인식시스템
US9654738B1 (en) 2013-08-07 2017-05-16 Waymo Llc Using multiple exposures to improve image processing for autonomous vehicles
US9609236B2 (en) * 2013-09-16 2017-03-28 Kyle L. Baltz Camera and image processing method
KR101579098B1 (ko) * 2014-05-23 2015-12-21 엘지전자 주식회사 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량
KR101631439B1 (ko) 2014-05-29 2016-06-17 엘지전자 주식회사 카메라, 및 이를 구비한 차량
US20160180874A1 (en) * 2014-12-22 2016-06-23 Ming Chi University Of Technology Hard magnetic alloy thin film used in high density perpendicular magnetic recording medium
JPWO2016104235A1 (ja) 2014-12-26 2017-10-05 コニカミノルタ株式会社 ステレオ撮像装置及び移動体
DE102015107406A1 (de) 2015-05-12 2016-11-17 Connaught Electronics Ltd. Kamera für ein Kraftfahrzeug mit zumindest zwei Lichtleitern und einem optischenFilterelement, Fahrerassistenzsystem sowie Kraftfahrzeug
JP6657925B2 (ja) * 2015-06-04 2020-03-04 ソニー株式会社 車載カメラ・システム並びに画像処理装置
JP2018017875A (ja) * 2016-07-27 2018-02-01 ブラザー工業株式会社 画像形成装置およびドラムカートリッジ
US10453208B2 (en) 2017-05-19 2019-10-22 Waymo Llc Camera systems using filters and exposure times to detect flickering illuminated objects
US10757320B2 (en) * 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
US20190243376A1 (en) * 2018-02-05 2019-08-08 Qualcomm Incorporated Actively Complementing Exposure Settings for Autonomous Navigation

Also Published As

Publication number Publication date
CN110678374A (zh) 2020-01-10
US20200005477A1 (en) 2020-01-02
EP3606798B1 (en) 2024-05-01
IL270477B1 (en) 2024-04-01
KR102166367B1 (ko) 2020-10-16
AU2018270908B2 (en) 2020-02-20
CN110678374B (zh) 2021-07-06
CA3064418A1 (en) 2018-11-22
AU2020202907A1 (en) 2020-05-21
KR102209417B1 (ko) 2021-01-29
US10453208B2 (en) 2019-10-22
JP2020202584A (ja) 2020-12-17
US20220254048A1 (en) 2022-08-11
EP3606798A1 (en) 2020-02-12
SG10202107757SA (en) 2021-08-30
JP2020522907A (ja) 2020-07-30
US10776938B2 (en) 2020-09-15
KR102085691B1 (ko) 2020-03-06
US11341667B2 (en) 2022-05-24
IL270477A (ja) 2020-01-30
EP3606798A4 (en) 2021-01-13
AU2018270908A1 (en) 2019-11-28
KR20200119902A (ko) 2020-10-20
SG10202011374PA (en) 2021-01-28
WO2018213092A1 (en) 2018-11-22
KR20200024965A (ko) 2020-03-09
JP7053743B2 (ja) 2022-04-12
US20210012521A1 (en) 2021-01-14
KR20190130057A (ko) 2019-11-20
CN113329189B (zh) 2023-12-01
AU2020202907B2 (en) 2021-04-01
CN113329189A (zh) 2021-08-31
US20180336692A1 (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP7053743B2 (ja) 明滅する照明された物体を検出するのにフィルタおよび露出時間を使用するカメラ・システム
EP3154041A1 (en) Vehicle surround monitoring device
EP3093193A1 (en) Lamp for vehicle
KR101768500B1 (ko) 운전 보조 장치 및 그 제어방법
WO2018110495A1 (ja) 車両用照明システム、車両システム、車両及びデータ通信システム
KR102600202B1 (ko) 차량 및 차량의 제어방법
CN112078475A (zh) 鉴于对交通状态而言重要的对象辅助驾驶员的方法和车辆
KR101936629B1 (ko) 차량 및 그 제어방법
FR3076778A1 (fr) Système d’éclairage de véhicule et véhicule
US11257372B2 (en) Reverse-facing anti-collision system
US20200346692A1 (en) Method for Assisting a Use of a Motor Vehicle When Swerving Around an Obstacle, Driver Assistance Device, and a Motor Vehicle
CN113173167A (zh) 驾驶员注意力分散检测
US20230022313A1 (en) Object detection system for a motor vehicle
DE102022200897A1 (de) Verfahren zum Betreiben einer Scheinwerfereinrichtung, Vorrichtung und Scheinwerfersystem
Kashihara A driver support system to prevent traffic accidents caused by optical illusions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191224

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191224

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200908

R150 Certificate of patent or registration of utility model

Ref document number: 6762439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250