JP2022141664A - 調節可能な垂直視野 - Google Patents

調節可能な垂直視野 Download PDF

Info

Publication number
JP2022141664A
JP2022141664A JP2022102505A JP2022102505A JP2022141664A JP 2022141664 A JP2022141664 A JP 2022141664A JP 2022102505 A JP2022102505 A JP 2022102505A JP 2022102505 A JP2022102505 A JP 2022102505A JP 2022141664 A JP2022141664 A JP 2022141664A
Authority
JP
Japan
Prior art keywords
rows
view
vehicle
enabled
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022102505A
Other languages
English (en)
Other versions
JP7486547B2 (ja
Inventor
ウェンデル,アンドリアス
Wendel Andreas
ディットマー,ジェレミー
Dittmer Jeremy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waymo LLC
Original Assignee
Waymo LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waymo LLC filed Critical Waymo LLC
Publication of JP2022141664A publication Critical patent/JP2022141664A/ja
Application granted granted Critical
Publication of JP7486547B2 publication Critical patent/JP7486547B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/441Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading contiguous pixels from selected rows or columns of the array, e.g. interlaced scanning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/701Line sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Figure 2022141664000001
【課題】 センサを含むシステム等を提供する。
【解決手段】 記載された例は、光センサを含む、車両によって使用される画像センサに関連し得る。光センサは、複数の水平行および複数の垂直列に整列された複数のセルを含む。装置は、光センサに装置の外部環境の視野を提供するように構成された光学システムをさらに含む。加えて、システムは、光センサの複数の水平行を1つ以上の有効にされた行と1つ以上の無効にされた行とに分割し、1つ以上の有効にされた行の1つ以上のセルをサンプリングすることによって、光センサから画像データを取得し、受信した画像データをメモリに格納するように構成された、処理ユニットを含む。
【選択図】図3C

Description

関連出願の相互参照
本出願は、2017年12月26日に提出された米国仮特許出願第62/610,339号の優先権を主張する2018年12月10日に提出された米国特許出願第16/214,572号の優先権を主張し、その内容全体は、参照によりその全体が本明細書に組み込まれる。
車両は、任意の車輪付きの動力車両であり得、車、トラック、オートバイ、バスなどを含み得る。車両は、人および物品の輸送、ならびに多くの他の用途などの様々なタスクに利用され得る。
一部の車両は、部分的または完全に自律型である場合がある。例えば、車両が自律モードにある場合、車両動作の運転面の一部またはすべては、自律車両システム(すなわち、自律車両の制御を容易にするために個別または集合的に機能する任意の1つ以上のコンピュータシステム)によって操作することができる。このような場合、オンボードおよび/またはサーバネットワークに位置付けられたコンピューティングデバイスは、運転ルートの計画、車両の感知態様、車両の環境の感知、ならびにステアリング、スロットル、およびブレーキなどの運転構成要素の制御などの機能を実行するように動作可能であり得る。このため、自律車両は、車両動作の様々な態様における人間の相互作用の必要性を低減または排除し得る。
一態様では、本出願は装置を説明する。装置は、光センサを含む。光センサは、複数の水平行および複数の垂直列に整列された複数のセルを含む。装置は、装置の外部環境の全体的な垂直視野および全体的な水平視野を有する光センサを提供するように構成された光学システムをさらに含む。各水平行は、全体的な垂直視野の対応する部分を提供し、各垂直列は、全体的な水平視野の対応する部分を提供する。加えて、システムは、光センサの複数の水平行を1つ以上の有効にされた行と1つ以上の無効にされた行に分割するように構成された処理ユニットを含む。処理ユニットはまた、1つ以上の無効にされた行のセルをサンプリングすることなく、1つ以上の有効にされた行の1つ以上のセルをサンプリングすることによって、光センサから画像データを取得するように構成されており、ここで、画像データは全体的な垂直視野の一部を画像化する。垂直視野の画像化された部分は、1つ以上の有効にされた行によって提供される垂直視野の1つ以上の部分に対応する。加えて、処理ユニットは、受信した画像データを装置のメモリに格納するように構成されている。
別の態様では、本出願は、光学システムを動作させる方法を説明する。本方法は、光学システムのセンサに光を提供することを含む。センサは、複数の水平行および複数の垂直列に整列した複数のセルを含み、センサは、装置の外部環境の全体的な垂直視野および全体的な水平視野を備えて構成される。各水平行は、全体的な垂直視野の対応する部分を提供し、各垂直列は、全体的な水平視野の対応する部分を提供する。本方法はまた、光センサの複数の水平行の1つ以上の列を選択することを含む。本方法は、光センサが、選択された1つ以上の行の1つ以上のセルから画像データを提供することを可能にすることをさらに含む。加えて、本方法は、有効な光センサから画像データを受信することを含み、画像データは、全体的な垂直視野の一部を画像化し、垂直視野の画像化された部分は、選択された1つ以上の行によって提供される垂直視野の1つ以上の部分に対応する。さらに、本方法は、受信した画像データを装置のメモリに格納することを含む。
さらに別の態様では、本出願は、コンピューティングシステムのプロセッサによって実行されるとき、コンピューティングシステムに動作を行わせる命令を格納した非一時的なコンピュータ可読媒体を含む製造物品を説明する。動作は、光学システムのセンサに光を提供することを含み得る。センサは、複数の水平行および複数の垂直列に整列した複数のセルを含み、センサは、装置の外部環境の全体的な垂直視野および全体的な水平視野を備えて構成される。各水平行は、全体的な垂直視野の対応する部分を提供し、各垂直列は、全体的な水平視野の対応する部分を提供する。動作はまた、光センサの複数の水平行の1つ以上の行を選択することを含む。動作は、光センサが、選択された1つ以上の行の1つ以上のセルから画像データを提供することを可能にすることをさらに含む。加えて、動作は、有効な光センサから画像データを受信することを含み、画像データは、全体的な垂直視野の一部を画像化し、垂直視野の画像化された部分は、選択された1つ以上の行によって提供される垂直視野の1つ以上の部分に対応する。さらに、動作は、受信した画像データを装置のメモリに格納することを含む。
上記の概要は、単に例証であり、多少なりとも限定することを意図するものではない。上記の例証的な態様、実装形態、および特徴に加えて、さらなる態様、実装形態、および特徴が、図および以下の詳細な説明を参照することによって明らかになるであろう。
実装形態例による、車両を図解する機能ブロック図である。 実装形態例による、車両の物理的構成の概念図である。 実装形態例による、自律車両に関連する様々なコンピューティングシステム間の無線通信の概念図である。 例示的なカメラシステムの構成要素例を示す簡略ブロック図である。 例示的な装置の画像化動作の概念図である。 従来の画像センサを図解する。 実装形態例による、例示的な画像センサを図解する。 実装形態例による、例示的な画像センサを図解する。 実装形態例による、例示的な画像センサを図解する。 実装形態例による、方法のフローチャートである。 実装形態例による、コンピュータプログラムの概略図である。
本明細書で、例示的な方法およびシステムについて説明する。「例」、「例示的」、および「例証的」という単語は、本明細書では「例、事例、または例証として機能する」ことを意味するために使用されることを理解されたい。「例」、「例示的」、または「例証的」であるとして本明細書で説明される実装形態または特徴は、必ずしも他の実装形態または特徴よりも好ましいまたは有利であると解釈されるべきではない。本明細書で説明される実装形態の例は、限定することを意味するものではない。本明細書で概して説明され、かつ図に例証されている、本開示の態様は、多種多様な異なる構成で配置、置換、結合、分離、および設計することができ、そのすべてが本明細書で明示的に企図されることは容易に理解されよう。加えて、本開示では、他に特定されない限り、および/または特定の文脈が他に明確に指示しない限り、用語「1つ(a)」または「1つ(an)」は少なくとも1つを意味し、用語「その(the)」は少なくとも1つを意味する。なおさらに、「有効」という用語は、アクティブおよび/または機能することを意味する場合があり、必ずしもオンにするための積極的なアクションを必要としない。同様に、「無効」という用語は、非アクティブおよび/または機能しないことを意味する場合があり、必ずしもオフにするための積極的なアクションを必要としない。
さらに、図に示されている特定の配置は、限定的なものと見なされるべきではない。他の実装形態は、所与の図に示される各要素のより多くまたはより少ないものを含み得ることを理解されたい。さらに、例証された要素のいくつかは、組み合わせるか、または省略されてもよい。さらにまた、実装形態例は、図に例証されていない要素を含んでもよい。
実際に、自律または半自律の車両システムは、車両の環境を表すデータを使用して物体を識別し得る。次に、車両システムは、車両に特定の動作をするように命令するなど、別の動作を行うための基礎として物体の識別を使用し得る。例えば、物体が一時停止の標識である場合、車両システムは、一時停止の標識の前に減速して停止するように車両に命令し得、または、物体が道路の真ん中にいる歩行者である場合、車両システムは、歩行者を避けるように車両に命令し得る。
一部のシナリオでは、車両がカメラを使用して車両の周囲の環境を画像化する場合がある。環境の画像化は、物体の識別および/またはナビゲーションに使用され得る。光学カメラは、相補型金属酸化膜半導体(CMOS)画像センサなどの画像センサ(すなわち、光センサ)を有し得る。光センサは、行および列に構成された複数のセンサセルを含み得る。画像データを捕捉するために、センサのセルをサンプリングして画像データを取得し得る。光センサのセルは、複数の水平行および複数の垂直列に整列されている。光センサは、光学システム(例えば、レンズ)を介して環境から光を受け取り得る。光学システムは、環境の全体的な垂直視野および全体的な水平視野を光センサに提供する。
光センサは、ローリングシャッターで構成される場合がある。ローリングシャッターは、概して、光センサを反復的にサンプリングして画像データを取得する。光センサからのデータは、画像、複数の画像、またはビデオを形成し得る。例えば、従来の画像センサでは、ローリングシャッターは一度に光センサの1行のセルを反復的にサンプリングし得る。ローリングシャッターを有する従来の画像センサをサンプリングする場合、センサの視野内の高速の物体が歪んで見える場合がある。このような歪みは、反復サンプリングによって引き起こされる。セルのラインは反復的にサンプリングされるため、画像化されている物体は各サンプリング間にわずかに移動する。したがって、各ラインは前のラインよりも少し遅れた時間にサンプリングされる。それぞれのラインをサンプリングする際の遅延のために、水平方向の動きを有する物体は水平方向のスキューを有する場合がある。例えば、センサの視野を横切って移動する車両は、水平スキューおよび垂直圧縮(または拡張)を有する場合があり、それは車両を歪める。このスキューは、画像内の物体の水平方向の位置に基づく処理に対して面倒となり得る。
本開示の光センサは、センサのセルを垂直列(例えば、車両の方向に対して垂直)でサンプリングするローリングシャッターでサンプリングされ得る。光センサを行ではなく列でサンプリングすることによって、反復サンプリングによって引き起こされる歪みが軽減され得る。水平方向のスキューではなく、移動する物体の垂直方向のスキューおよび水平方向の圧縮(または拡張)が存在する場合がある。場合によっては、水平方向の圧縮または拡張を有する方が、従来のセンサの水平方向のスキューよりも望ましい場合がある。
加えて、画像センサは、1つ以上の画像処理タスクを行うように構成されたプロセッサに結合されてもよい。画像処理には、画像圧縮、物体認識、ナビゲーションルーティングなどが含まれ得る。光センサを使用して画像データを捕捉するとき、画像データは比較的大量のデータを消費し得る。この大量の画像データのために、画像データのストレージ、処理、および移動は、計算およびメモリを集中的に使用する場合がある。システムの計算およびメモリの必要性を減らすために、センサの一部のみを任意の所与の時間に有効にしてもよい。これを達成するために、センサのある領域を無効にして、センサセルのサンプリングが有効な部分でのみ行われてもよい。光学システムに結合されたプロセッサは、光センサの複数の水平行(または垂直列)を1つ以上の有効にされた行と1つ以上の無効にされた行(または1つ以上の有効にされた列と1つ以上の無効にされた列)に分割してもよい。例えば、センサのセルの半分が、任意の所与の時間に有効にされ得る。無効にされた部分は、センサの1つ以上の領域を含み得る。例えば、無効にされた領域は、センサの頂部または底部にある複数の行であってもよい。デフォルトモードでは、センサの行の頂部25%およびセンサの行の底部25%が無効になっていてもよい。これにより、行の中央の50%が有効なままになる。
プロセッサは、1つ以上の無効にされた行のセルをサンプリングすることなく、ローリングシャッターを介して1つ以上の有効にされた行の1つ以上のセルをサンプリングすることによって、光センサから画像データを取得し得る。光学システムによって捕捉された画像データは、1つ以上の有効にされた行によって提供される垂直視野の1つ以上の部分に対応する全体的な垂直視野の一部を画像化する。すなわち、画像データは、画像センサの有効にされた行からのみ作成され得、したがって、全体的な視野のサブセットのみが画像化され得る。
有効にされた光センサの領域は、光センサの全体的な視野の一部に対応し得る。光センサの頂部および/または底部を無効にすることによって、視野は、完全に有効にされたセンサの完全な画像であったであろうものの一部のみを含有するように縮小され得る。いくつかの例では、プロセッサは、センサの有効にされた部分を調整するようにさらに構成され得る。プロセッサは、センサの追加の行を有効または無効にして、画像化される視野を変更し得る。実際に、これにより視野を上方または下方の方向に調整したり、視野を拡大または縮小したりできる。有効にされた部分は、デフォルトの視野とは異なる視野を捕捉するように調整され得る。例えば、車両が停止信号に近づくとき、停止信号が通常より高い場所に取り付けられている場合がある。それに応答して、プロセッサは、視野が停止信号を捕捉するようにセンサの有効にされる行を調整し得る。
プロセッサは、多くの異なる方法で有効にされるセンサの部分を調整し得る。いくつかの例では、有効にされるセンサの部分は、装置のメモリに格納されている地図データに基づいている。例えば、地図データは、道路の勾配の変化を示したり、道路近くの物体が通常よりも高いまたは低い位置にあり得ることを示したりする場合があり、プロセッサは、センサの有効にされた領域を応答的に調整して、道路の一部をセンサの視野内に維持するか、または物体がセンサの視野内にあることを確実にし得る。別の例では、システムは慣性測定ユニット(IMU)を含み得、有効にされるセンサの部分は、IMUからのデータに基づき得る。例えば、IMUデータは、道路の勾配の変化を示し得、プロセッサは、センサの有効にされた領域を応答的に調整して、道路の一部をセンサの視野内に維持し得る。いくつかのさらなる例では、センサの一部は、画像データで検出された物体に基づいて有効にされる。例えば、道路標識が、センサの視野内に部分的に位置付けされる場合があり、プロセッサは、道路標識全体が視野内に位置付けされるように、有効にされた領域を調整し得る。
ここで、本開示の範囲内の例示的なシステムをより詳細に説明する。例示的なシステムは、自動車に実装され得るか、または自動車の形態をとり得る。しかしながら、例示的なシステムはまた、車、トラック、オートバイ、バス、ボート、飛行機、ヘリコプター、芝刈り機、アースムーバ、ボート、スノーモービル、航空機、レクリエーション車両、遊園地車両、農機具、建設機械、トラム、ゴルフカート、電車、トロリー、およびロボットデバイスなどの、他の車両に実装され得るか、または他の車両の形態をとり得る。他の車両も同じく可能である
ここで図を参照すると、図1は、自律モードで完全にまたは部分的に動作するように構成され得る、例示的な車両100を図解する機能ブロック図である。より具体的には、車両100は、コンピューティングシステムから制御命令を受信することを通して、人間の相互作用なしに自律モードで動作し得る。自律モードでの動作の一部として、車両100は、センサを使用して、周囲環境の物体を検出し、場合によっては識別して、安全なナビゲーションを可能にし得る。いくつかの実装形態では、車両100はまた、運転者が車両100の動作を制御することを可能にするサブシステムを含み得る。
図1に示すように、車両100は、推進システム102、センサシステム104、制御システム106、1つ以上の周辺機器108、電源110、コンピュータシステム112、データストレージ114、およびユーザインターフェース116などの様々なサブシステムを含み得る。他の例では、車両100は、各々複数の要素を含むことができるより多いまたはより少ないサブシステムを含んでもよい。車両100のサブシステムおよび構成要素は、様々な方法で相互接続され得る。加えて、本明細書で説明する車両100の機能は、追加の機能的または物理的構成要素に分割するか、または実装形態内でより少ない機能的もしくは物理的構成要素に組み合わせることができる。
推進システム102は、車両100に対して動力付き運動を提供するように動作可能な1つ以上の構成要素を含み得、他の可能な構成要素の中でも、エンジン/モータ118、エネルギー源119、トランスミッション120、および車輪/タイヤ121を含み得る。例えば、エンジン/モータ118は、エネルギー源119を機械的エネルギーに変換するように構成され得、他の可能なオプションの中でも、内燃エンジン、電気モータ、蒸気エンジン、またはスターリングエンジンのうちの1つまたは組み合わせに対応し得る。例えば、いくつかの実装形態では、推進システム102は、ガソリンエンジンおよび電気モータなどの複数のタイプのエンジンおよび/またはモータを含み得る。
エネルギー源119は、完全にまたは部分的に、車両100の1つ以上のシステム(例えば、エンジン/モータ118)に動力を供給し得るエネルギー源を表す。例えば、エネルギー源119は、ガソリン、ディーゼル、他の石油ベースの燃料、プロパン、他の圧縮ガスベースの燃料、エタノール、ソーラパネル、電池、および/または他の電力源に対応することができる。いくつかの実装形態では、エネルギー源119は、燃料タンク、電池、コンデンサ、および/またはフライホイールの組み合わせを含み得る。
トランスミッション120は、エンジン/モータ118からの機械動力を、車輪/タイヤ121および/または車両100の他の可能なシステムに伝達し得る。したがって、トランスミッション120は、他の可能な構成要素の中でもとりわけ、ギアボックス、クラッチ、ディファレンシャル、および駆動シャフトを含み得る。駆動シャフトは、1つ以上の車輪/タイヤ121に接続する車軸を含み得る。
車両100の車輪/タイヤ121は、例示的な実装形態内で様々な構成を有し得る。例えば、車両100は、他の可能な構成の中でも、一輪車、自転車/オートバイ、三輪車、または自動車/トラックの四輪車の形式で存在し得る。したがって、車輪/タイヤ121は、様々な方法で車両100に接続することができ、金属およびゴムなどの異なる材料で存在することができる。
センサシステム104は、他の可能なセンサの中でも、全地球測位システム(GPS)122、慣性測定ユニット(IMU)124、レーダ126、レーザ距離計/LIDAR128、カメラ130、ステアリングセンサ123、およびスロットル/ブレーキセンサ125などの様々なタイプのセンサを含むことができる。いくつかの実装形態では、センサシステム104はまた、車両100の内部システムを監視するように構成されたセンサ(例えば、O2モニタ、燃料計、エンジンオイル温度、ブレーキ摩耗)を含み得る。
GPS122は、地球に対する車両100の位置に関する情報を提供するように動作可能なトランシーバを含み得る。IMU124は、1つ以上の加速度計および/またはジャイロスコープを使用する構成を有し得、慣性加速度に基づいて車両100の位置および向きの変化を感知し得る。例えば、IMU124は、車両100が静止しているかまたは動いている間に車両100のピッチおよび偏揺れを検出することができる。
レーダ126は、物体の速さおよび進行方向を含めて、無線信号を使用して、車両100のローカル環境内の物体を感知するように構成された1つ以上のシステムを表すことができる。したがって、レーダ126は、無線信号を送信および受信するように構成されたアンテナを含み得る。いくつかの実装形態では、レーダ126は、車両100の周囲環境の測定値を取得するように構成された装着可能なレーダシステムに対応し得る。
レーザ距離計/LIDAR128は、他のシステム構成要素の中でも、1つ以上のレーザ源、レーザスキャナ、および1つ以上の検出器を含み得、コヒーレントモード(例えば、ヘテロダイン検出を使用)または非コヒーレント検出モードで動作し得る。カメラ130は、車両100の環境の画像を捕捉するように構成された1つ以上のデバイス(例えば、スチルカメラまたはビデオカメラ)を含み得る。
ステアリングセンサ123は、車両100のステアリング角度を感知し得、これは、ステアリングホイールの角度を測定すること、またはステアリングホイールの角度を表す電気信号を測定することを含み得る。いくつかの実装形態では、ステアリングセンサ123は、車両100の前方軸に対する車輪の角度を検出するなど、車両100の車輪の角度を測定し得る。ステアリングセンサ123はまた、ステアリングホイールの角度、ステアリングホイールの角度を表す電気信号、および車両100の車輪の角度の組み合わせ(またはサブセット)を測定するように構成され得る。
スロットル/ブレーキセンサ125は、車両100のスロットル位置またはブレーキ位置のいずれかの位置を検出し得る。例えば、スロットル/ブレーキセンサ125は、アクセルペダル(スロットル)およびブレーキペダルの両方の角度を測定してもよく、または、例えば、アクセルペダル(スロットル)の角度および/もしくはブレーキペダルの角度を表すことができる電気信号を測定してもよい。スロットル/ブレーキセンサ125はまた、エンジン/モータ118(例えば、バタフライバルブまたはキャブレタ)にエネルギー源119のモジュレーションを提供する物理的メカニズムの一部を含み得る、車両100のスロットルボディの角度を測定してもよい。加えて、スロットル/ブレーキセンサ125は、車両100のロータ上の1つ以上のブレーキパッドの圧力、またはアクセルペダル(スロットル)およびブレーキペダルの角度の組み合わせ(またはサブセット)、アクセルペダル(スロットル)およびブレーキペダルの角度を表す電気信号、スロットルボディの角度、ならびに少なくとも1つのブレーキパッドが車両100のロータに加える圧力、を測定し得る。他の実装形態では、スロットル/ブレーキセンサ125は、スロットルまたはブレーキペダルなどの車両のペダルに加えられた圧力を測定するように構成されてもよい。
制御システム106は、ステアリングユニット132、スロットル134、ブレーキユニット136、センサ融合アルゴリズム138、コンピュータビジョンシステム140、ナビゲーション/経路探索システム142、および障害物回避システム144など、車両100をナビゲートするのを助けるように構成された構成要素を含み得る。より具体的には、ステアリングユニット132は、車両100の進行方向を調整するように動作可能であり得、スロットル134は、エンジン/モータ118の動作スピードを制御して、車両100の加速を制御し得る。ブレーキユニット136は、車両100を減速することができ、これは、摩擦を使用して車輪/タイヤ121を減速することを含み得る。いくつかの実施態様では、ブレーキユニット136は、車両100のシステムまたはシステム(複数)によるその後の使用のために、車輪/タイヤ121の運動エネルギーを電流に変換し得る。
センサ融合アルゴリズム138は、カルマンフィルタ、ベイジアンネットワーク、またはセンサシステム104からのデータを処理することができる他のアルゴリズムを含み得る。いくつかの実装形態では、センサ融合アルゴリズム138は、個々の物体および/もしくは特徴の評価、特定の状況の評価、ならびに/または所与の状況内の潜在的な影響の評価など、入ってくるセンサデータに基づくアセスメントを提供し得る。
コンピュータビジョンシステム140は、物体、環境物体(例えば、停止信号、道路の境界など)、および障害物を判定しようとする際に画像を処理および分析するように動作可能なハードウェアおよびソフトウェアを含み得る。したがって、コンピュータビジョンシステム140は、物体認識、Structure From Motion(SFM)、ビデオ追跡、および、例えば、物体を認識し、環境をマッピングし、物体を追跡し、物体の速さを推定するためなどにコンピュータビジョンで使用される他のアルゴリズムを使用し得る。
ナビゲーション/経路探索システム142は、車両100の運転経路を判定することができ、これは、動作中にナビゲーションを動的に調整することを含み得る。したがって、ナビゲーション/経路探索システム142は、他の情報源の中でもとりわけ、センサ融合アルゴリズム138、GPS122、および地図からのデータを使用して、車両100をナビゲートし得る。障害物回避システム144は、センサデータに基づいて潜在的な障害物を評価し、車両100のシステムに潜在的な障害物を回避または別の方法で通り抜けさせ得る。
図1に示されるように、車両100はまた、無線通信システム146、タッチスクリーン148、マイクロフォン150、および/またはスピーカ152などの周辺機器108を含み得る。周辺機器108は、ユーザがユーザインターフェース116と相互作用するための制御または他の要素を提供し得る。例えば、タッチスクリーン148は、車両100のユーザに情報を提供し得る。ユーザインターフェース116はまた、タッチスクリーン148を介してユーザからの入力を受け入れ得る。周辺機器108はまた、車両100が、他の車両のデバイスなどのデバイスと通信することを可能にし得る。
無線通信システム146は、1つ以上のデバイスと直接または通信ネットワークを介して無線で通信し得る。例えば、無線通信システム146は、CDMA、EVDO、GSM/GPRSなどの3Gセルラ通信、またはWiMAXもしくはLTEなどの4Gセルラ通信を使用することができる。あるいは、無線通信システム146は、WiFiまたは他の可能な接続を使用して無線ローカルエリアネットワーク(WLAN)と通信し得る。無線通信システム146はまた、例えば、赤外線リンク、Bluetooth、またはZigBeeを使用してデバイスと直接通信し得る。様々な車両通信システムなどの他の無線プロトコルが、本開示の文脈内で可能である。例えば、無線通信システム146は、車両および/または道路沿いの給油所間の公共および/または私的データ通信を含み得る1つ以上の専用狭域通信(DSRC)デバイスを含み得る。
車両100は、構成要素に電力を供給するための電源110を含み得る。電源110は、いくつかの実装形態では、再充電可能なリチウムイオンまたは鉛蓄電池を含み得る。例えば、電源110は、電力を提供するように構成された1つ以上の電池を含み得る。車両100はまた、他のタイプの電源を使用してもよい。例示的な実装形態では、電源110およびエネルギー源119は、単一のエネルギー源に統合されてもよい。
車両100はまた、そこに記載されている動作などの動作を行うためのコンピュータシステム112を含み得る。したがって、コンピュータシステム112は、データストレージ114などの非一時的なコンピュータ可読媒体に格納された命令115を実行するように動作可能な少なくとも1つのプロセッサ113(少なくとも1つのマイクロプロセッサを含むことができる)を含み得る。いくつかの実装形態では、コンピュータシステム112は、車両100の個々の構成要素またはサブシステムを分散して制御するように機能し得る複数のコンピューティングデバイスを表してもよい。
いくつかの実装形態では、データストレージ114は、図1に関連して上述したものを含めて、車両100の様々な機能を実行するためにプロセッサ113によって実行可能な命令115(例えば、プログラム論理)を含み得る。データストレージ114は、推進システム102、センサシステム104、制御システム106、および周辺機器108のうちの1つ以上にデータを送信する、データを受信する、相互作用する、および/または制御する命令を含む追加の命令も含み得る。
命令115に加えて、データストレージ114は、他の情報の中でもとりわけ、道路地図、経路情報などのデータを格納し得る。そのような情報は、自律モード、半自律モード、および/または手動モードでの車両100の動作中に、車両100およびコンピュータシステム112によって使用され得る。
車両100は、車両100のユーザに情報を提供するか、または車両100のユーザから入力を受信するためのユーザインターフェース116を含み得る。ユーザインターフェース116は、タッチスクリーン148上に表示され得るコンテンツおよび/またはインタラクティブ画像のレイアウトを制御することができるか、または制御を可能にし得る。さらに、ユーザインターフェース116は、無線通信システム146、タッチスクリーン148、マイクロフォン150、およびスピーカ152などの周辺機器108のセット内の1つ以上の入力/出力デバイスを含むことができる。
コンピュータシステム112は、様々なサブシステム(例えば、推進システム102、センサシステム104、および制御システム106)から、ならびにユーザインターフェース116から受信した入力に基づいて、車両100の機能を制御し得る。例えば、コンピュータシステム112は、推進システム102および制御システム106によって生成された出力を推定するために、センサシステム104からの入力を利用してもよい。実装形態に応じて、コンピュータシステム112は、車両100およびそのサブシステムの多くの態様を監視するように動作可能であり得る。いくつかの実装形態では、コンピュータシステム112は、センサシステム104から受信した信号に基づいて、車両100の一部またはすべての機能を無効にし得る。
車両100の構成要素は、それらのそれぞれのシステム内またはシステム外の他の構成要素と相互接続された方法で機能するように構成され得る。例えば、例示的な実装形態では、カメラ130は、自律モードで動作している車両100の環境の状態に関する情報を表すことができる複数の画像を捕捉することができる。環境の状態は、車両が動作している道路のパラメータを含むことができる。例えば、コンピュータビジョンシステム140は、道路の複数の画像に基づいて、傾斜(勾配)または他の特徴を認識することができ得る。加えて、GPS122とコンピュータビジョンシステム140によって認識された特徴との組み合わせは、特定の道路パラメータを判定するために、データストレージ114に格納された地図データと共に使用され得る。さらに、レーダユニット126はまた、車両の周囲についての情報を提供し得る。
言い換えると、様々なセンサ(入力指標センサおよび出力指標センサと呼ぶことができる)とコンピュータシステム112との組み合わせが相互作用して、車両を制御するために提供される入力の指標または車両の周囲の指標を提供することができる。
いくつかの実装形態では、コンピュータシステム112は、無線システム以外のシステムによって提供されるデータに基づいて、様々な物体に関する判定を行い得る。例えば、車両100は、車両の視野内の物体を感知するように構成されたレーザまたは他の光学センサを有し得る。コンピュータシステム112は、様々なセンサからの出力を使用して、車両の視野内の物体に関する情報を判定し得、様々な物体までの距離および方向情報を判定し得る。コンピュータシステム112はまた、様々なセンサからの出力に基づいて、物体が望ましいか望ましくないかを判定し得る。
図1は、車両100の様々な構成要素、すなわち、無線通信システム146、コンピュータシステム112、データストレージ114、およびユーザインターフェース116を車両100に統合されているものとして示しているが、これらの構成要素のうちの1つ以上は、車両100とは別個に取り付けまたは関連付けることができる。例えば、データストレージ114は、部分的または完全に、車両100とは別個に存在することができる。したがって、車両100は、別個にまたは一緒に位置付けられ得るデバイス要素の形態で提供され得る。車両100を構成するデバイス要素は、有線および/または無線方式で一緒に通信可能に結合され得る。
図2は、図1を参照して説明された車両100の1つの可能な物理的構成を表し得る車両200の例示的な物理的構成を示す。実装形態に応じて、車両200は、他の可能な構成要素の中でもとりわけ、センサユニット202、無線通信システム204、ラジオユニット206、デフレクタ208、およびカメラ210を含み得る。例えば、車両200は、図1に記載された構成要素のうちの一部またはすべての要素を含み得る。車両200は図2では自動車として示されているが、車両200は、他の可能な例の中でもとりわけ、トラック、バン、セミトレーラートラック、オートバイ、ゴルフカート、オフロード車両、または農業用車両などの例内の他の構成を有することができる。
センサユニット202は、車両200の周囲環境の情報を捕捉するように構成された1つ以上のセンサを含み得る。例えば、センサユニット202は、他の可能なタイプのセンサの中でもとりわけ、カメラ、レーダ、LIDAR、距離計、無線デバイス(例えば、Bluetoothおよび/または802.11)、および音響センサの任意の組み合わせを含み得る。いくつかの実装形態では、センサユニット202は、センサユニット202内のセンサの向きを調整するように動作可能な1つ以上の可動マウントを含み得る。例えば、可動マウントは、車両200の周りの各方向から情報を取得するためにセンサをスキャンすることができる回転プラットフォームを含み得る。センサユニット202の可動マウントはまた、特定の範囲の角度および/または方位角内の走査方式で可動であってもよい。
いくつかの実装形態では、センサユニット202は、センサユニット202が自動車のルーフの頂上に取り付けられることを可能にする機械的構造を含み得る。加えて、例の範囲内で他の取り付け場所も可能である。
無線通信システム204は、図2に示されるように、車両200に対して相対的な場所を有し得るが、実装形態内で異なる場所を有することもできる。無線通信システム200は、他の外部または内部デバイスと通信し得る1つ以上の無線送信機および1つ以上の受信機を含み得る。例えば、無線通信システム204は、他の可能なエンティティの中でもとりわけ、ユーザのデバイス、他の車両、および道路要素(例えば、標識、交通信号機)と通信するための1つ以上のトランシーバを含み得る。したがって、車両200は、専用狭域通信(DSRC)、無線周波数識別(RFID)、および高度道路交通システムを対象とする他の提案された通信規格などの通信を容易にするための1つ以上の車両通信システムを含み得る。
カメラ210は、車両200のフロントガラス上の場所など、車両200に対して様々な位置を有し得る。そのようにして、カメラ210は、車両200の環境の画像を捕捉し得る。図2に図示されるように、カメラ210は、車両200に対して前向きのビューから画像を捕捉し得るが、カメラ210の他の取り付け場所(可動マウントを含む)および視野角が、実装形態内で可能である。いくつかの例では、カメラ210は、1つ以上の可視光カメラに対応し得る。代わりに、または追加して、カメラ210は、赤外線感知機能を含み得る。カメラ210はまた、調整可能な視野を提供し得る光学系を含み得る。
図3Aは、実装形態例による、自律車両に関連する様々なコンピューティングシステム間の無線通信の概念図である。特に、無線通信は、ネットワーク304を介して、リモートコンピューティングシステム302と車両200との間で発生し得る。無線通信はまた、サーバコンピューティングシステム306とリモートコンピューティングシステム302との間、およびサーバコンピューティングシステム306と車両200との間でも発生し得る。
車両200は、場所間で乗客または物体を輸送することができる様々なタイプの車両に対応することができ、上述の車両のうちの任意の1つ以上の形態を取り得る。場合によっては、車両200は、制御システムがセンサ測定値を使用して目的地間で車両200を安全にナビゲートすることを可能にする自律モードで動作し得る。自律モードで動作しているとき、車両200は、乗客の有無にかかわらずナビゲートし得る。その結果、車両200は、所望の目的地間で乗客を拾い、降ろし得る。
リモートコンピューティングシステム302は、本明細書で説明されるものを含むがこれに限定されないリモートアシスタンス技術に関連する任意のタイプのデバイスを表し得る。例の中で、リモートコンピューティングシステム302は、(i)車両200に関連する情報を受信し、(ii)人間のオペレータが次に情報を知覚し、情報に関連する応答を入力することができるインターフェースを提供し、および(iii)応答を車両200に、または他のデバイスに送信する、ように構成された任意のタイプのデバイスを表し得る。リモートコンピューティングシステム302は、ワークステーション、デスクトップコンピュータ、ラップトップ、タブレット、携帯電話(例えば、スマートフォン)、および/またはサーバなどの、様々な形態を取り得る。いくつかの例では、リモートコンピューティングシステム302は、ネットワーク構成で一緒に動作する複数のコンピューティングデバイスを含み得る。
リモートコンピューティングシステム302は、車両200のサブシステムおよび構成要素と同様または同一の1つ以上のサブシステムおよび構成要素を含み得る。最低でも、リモートコンピューティングシステム302は、本明細書で説明される様々な動作を行うために構成されたプロセッサを含み得る。いくつかの実装形態では、リモートコンピューティングシステム302はまた、タッチスクリーンおよびスピーカなどの入力/出力デバイスを含むユーザインターフェースを含み得る。他の例も可能である。
ネットワーク304は、リモートコンピューティングシステム302と車両200との間の無線通信を可能にするインフラストラクチャを表す。ネットワーク304はまた、サーバコンピューティングシステム306とリモートコンピューティングシステム302との間、およびサーバコンピューティングシステム306と車両200との間の無線通信を可能にする。
リモートコンピューティングシステム302の位置は、例の範囲内で変わることができる。例えば、リモートコンピューティングシステム302は、ネットワーク304を介した無線通信を有する車両200から遠隔位置を有し得る。別の例では、リモートコンピューティングシステム302は、車両200とは別個であるが、人間のオペレータが車両200の乗客または運転者と相互作用することができる車両200内のコンピューティングデバイスに対応し得る。いくつかの例では、リモートコンピューティングシステム302は、車両200の乗客によって操作可能なタッチスクリーンを備えたコンピューティングデバイスであってもよい。
いくつかの実装形態では、リモートコンピューティングシステム302によって行われる本明細書で説明される動作は、追加または代替として、車両200によって(すなわち、車両200の任意のシステム(複数可)またはサブシステム(複数可)によって)行われ得る。言い換えれば、車両200は、車両の運転者または乗客が相互作用することができるリモートアシスタンス機構を提供するように構成され得る。
サーバコンピューティングシステム306は、ネットワーク304を介してリモートコンピューティングシステム302および車両200と(または、場合によっては、リモートコンピューティングシステム302および/もしくは車両200と直接)無線通信するように構成され得る。サーバコンピューティングシステム306は、車両200およびそのリモートアシスタンスに関する情報を受信、格納、判定、および/または送信するように構成された任意のコンピューティングデバイスを表し得る。かくして、サーバコンピューティングシステム306は、リモートコンピューティングシステム302および/または車両200によって行われるものとして本明細書で説明される任意の動作(複数可)またはそのような動作(複数可)の一部を行うように構成され得る。リモートアシスタンスに関連する無線通信の一部の実装形態では、サーバコンピューティングシステム306を利用できるが、他の実装形態では利用できない。
サーバコンピューティングシステム306は、本明細書に記載の様々な動作を行うように構成されたプロセッサ、ならびにリモートコンピューティングシステム302および車両200から情報を受信し、それらに情報を提供するための無線通信インターフェースなどの、リモートコンピューティングシステム302および/または車両200のサブシステムおよび構成要素と同様または同一の1つ以上のサブシステムおよび構成要素を含み得る。
上記の様々なシステムは、様々な動作を行い得る。ここで、これらの動作および関連する機能について説明する。
上記の議論に沿って、コンピューティングシステム(例えば、リモートコンピューティングシステム302、またはおそらくサーバコンピューティングシステム306、あるいは車両200にローカルなコンピューティングシステム)は、自律車両の環境の画像を捕捉するためにカメラを使用するように動作し得る。一般に、少なくとも1つのコンピューティングシステムが画像を分析することができ、場合によっては自律車輌を制御する。
いくつかの実装形態では、自律動作を容易にするために、車両(例えば、車両200)は、車両が動作する環境内の物体を表すデータ(本明細書では「環境データ」とも呼ばれる)を様々な方法で受信し得る。車両のセンサシステムは、環境の物体を表す環境データを提供し得る。例えば、車両は、カメラ、レーダユニット、レーザ距離計、マイクロフォン、ラジオユニット、および他のセンサを含む様々なセンサを有し得る。これらのセンサの各々は、各それぞれのセンサが受信する情報について、環境データを車両内のプロセッサに通信し得る。
一例では、カメラが、静止画像および/またはビデオを捕捉するように構成され得る。いくつかの実装形態では、車両は、異なる方向に位置決めされた2つ以上のカメラを有する場合がある。また、いくつかの実装形態では、カメラは、異なる方向で画像および/またはビデオを捕捉するために移動することができる場合がある。カメラは、車両の処理システムによる後の処理のために、捕捉された画像およびビデオをメモリに格納するように構成され得る。捕捉された画像および/またはビデオは、環境データである場合がある。さらに、カメラは、本明細書で説明されるような画像センサを含み得る。
別の例では、レーダユニットが、車両の近くの様々な物体によって反射される電磁信号を送信し、次いで物体から反射する電磁信号を捕捉するように構成され得る。捕捉された反射電磁信号は、レーダシステム(または処理システム)が電磁信号を反射した物体について様々な判定を行うことを可能にし得る。例えば、様々な反射物体までの距離および位置が判定され得る。いくつかの実装形態では、車両は、異なる方向に2つ以上のレーダを有する場合がある。レーダシステムは、車両の処理システムによる後の処理のために、捕捉された情報をメモリに格納するように構成され得る。レーダシステムによって捕捉された情報は、環境データである場合がある。
別の例では、レーザ距離計が、車両近くの対象物体によって反射される電磁信号(例えば、気体もしくはダイオードレーザ、または他の可能な光源からのものなどの光)を送信するように構成され得る。レーザ距離計は、反射された電磁(例えば、レーザ)信号を捕捉することができ得る。捕捉された反射電磁信号は、測距システム(または処理システム)が様々な物体までの距離を判定することを可能にし得る。測距システムはまた、対象物体の速度または速さを判定することができ、それを環境データとして格納することができる。
加えて、一例では、マイクロフォンが、車両を取り巻く環境のオーディオを捕捉するように構成され得る。マイクロフォンで捕捉された音には、緊急車両のサイレンや他の車両の音が含まれる場合がある。例えば、マイクロフォンは緊急車両のサイレンの音を捕捉する場合がある。処理システムは、捕捉されたオーディオ信号が緊急車両を示していることを識別でき得る。別の例では、マイクロフォンは、オートバイからの排気など、別の車両の排気の音を捕捉する場合がある。処理システムは、捕捉されたオーディオ信号がオートバイを示していることを識別でき得る。マイクロフォンによって捕捉されたデータは、環境データの一部を形成し得る。
さらに別の例では、ラジオユニットが、Bluetooth信号、802.11信号、および/または他の無線技術信号の形態を取り得る電磁信号を送信するように構成され得る。第1の電磁放射信号は、ラジオユニットに位置付けられた1つ以上のアンテナを介して送信され得る。さらに、第1の電磁放射信号は、多くの異なる無線信号モードのうちの1つで送信されてもよい。しかしながら、いくつかの実装形態では、自律車両の近くに位置するデバイスからの応答を要求する信号モードで第1の電磁放射信号を送信することが望ましい。処理システムは、ラジオユニットに返信された応答に基づいて近くのデバイスを検出することができ得、この伝達された情報を環境データの一部として使用し得る。
いくつかの実装形態では、処理システムは、車両の環境をさらに判定するために、様々なセンサからの情報を組み合わせることができ得る。例えば、処理システムは、レーダ情報および捕捉された画像の両方からのデータを組み合わせて、別の車両または歩行者が自律車両の前にいるかどうかを判定し得る。他の実装形態では、センサデータの他の組み合わせを処理システムが使用して、環境についての判定を行い得る。
自律モードで動作している間、車両はほとんどまたはまったく人間の入力なしでその動作を制御し得る。例えば、人間のオペレータが住所を車両に入力すると、車両は、人間からのさらなる入力なしに(例えば、人間がブレーキ/アクセルペダルを操縦したり触れたりする必要がなく)、指定された目的地まで運転することができ得る。さらに、車両が自律的に動作している間、センサシステムは環境データを受信していてもよい。車両の処理システムは、様々なセンサから受信した環境データに基づいて車両の制御を変更し得る。いくつかの例では、車両は、様々なセンサからの環境データに応答して、車両の速度を変え得る。車両は、障害物を回避する、交通法規に従うなどのために速度を変更する場合がある。車両の処理システムが車両の近くの物体を識別すると、車両は速度を変更したり、別の方法で動きを変えたりすることができ得る。
車両が物体を検出したが物体の検出に十分自信がない場合、車両は、人間のオペレータ(またはより強力なコンピュータ)に、(i)物体が実際に環境内に存在するかどうかを確認する(例えば、実際に一時停止標識があるか、または実際に一時停止標識がないか)、(ii)車両の物体の識別が正しいかどうかを確認する、(iii)識別が正しくなかった場合、識別を修正する、および/または(iv)自律車両に対して補足的な命令を提供する(または現在の命令を変更する)などの、1つ以上のリモートアシスタンスタスクを行うよう要求することができる。リモートアシスタンスタスクにはまた、人間のオペレータが車両の動作を制御するための命令を提供する(例えば、人間のオペレータが、物体は一時停止標識であると判定した場合、一時停止標識で停止するよう車両に命令する)ことが含まれるが、いくつかのシナリオでは、物体の識別に関連する人間のオペレータのフィードバックに基づいて、車両自体が自身の動作を制御する場合がある。
これを容易にするために、車両は、環境の物体を表す環境データを分析して、閾値未満の検出信頼度を有する少なくとも1つの物体を判定し得る。車両のプロセッサは、様々なセンサからの環境データに基づいて環境の様々な物体を検出するように構成され得る。例えば、一実装形態では、プロセッサは、車両が認識するのに重要であり得る物体を検出するように構成され得る。このような物体には、歩行者、街路標識、他の車両、他の車両のインジケータ信号、および捕捉された環境データで検出された他の様々な物体が含まれ得る。
検出信頼度は、判定された物体が環境内で正しく識別されているか、または環境内に存在している可能性を示し得る。例えば、プロセッサは、受信した環境データの画像データ内の物体の物体検出を行い、閾値を超える検出信頼度を有する物体を識別することができないことに基づいて、少なくとも1つの物体が閾値を下回る検出信頼度を有すると判定し得る。物体の物体検出または物体認識の結果が決定的でない場合、検出信頼度が低いか、または設定された閾値を下回っている場合がある。
車両は、環境データのソースに応じて、様々な方法で環境の物体を検出し得る。いくつかの実装形態では、環境データはカメラから来て、画像またはビデオデータであり得る。他の実装形態では、環境データはLIDARユニットから来る場合がある。車両は、捕捉された画像またはビデオデータを分析して、画像またはビデオデータ内の物体を識別し得る。方法および装置は、環境の物体の存在について画像および/またはビデオデータを監視するように構成され得る。他の実装形態では、環境データは、レーダ、オーディオ、または他のデータであり得る。車両は、レーダ、オーディオ、または他のデータに基づいて環境の物体を識別するように構成され得る。
いくつかの実装形態では、物体を検出するために車両が使用する技法は、既知のデータのセットに基づいていてもよい。例えば、環境物体に関連するデータは、車両に位置付けられたメモリに格納されてもよい。車両は、受信したデータを格納されたデータと比較して、物体を判定し得る。他の実装形態では、車両は、データの文脈に基づいて物体を判定するように構成され得る。例えば、建設に関連する街路標識は、概してオレンジ色を有し得る。したがって、車両は、道路脇近くに位置するオレンジ色の物体を、建設関連の街路標識として検出するように構成されてもよい。加えて、車両の処理システムは、捕捉されたデータ内の物体を検出すると、それはまた各物体の信頼度を計算することができる。
さらに、車両はまた、信頼度閾値を有し得る。信頼度閾値は、検出される物体のタイプに応じて異なり得る。例えば、別の車両のブレーキライトなど、車両からの迅速な応答アクションを要求し得る物体については、信頼度閾値が低くなり得る。しかしながら、他の実装形態では、検出されたすべての物体について、信頼度閾値が同じであってもよい。検出された物体に関連付けられた信頼度が信頼度閾値より高い場合、車両は、物体が正しく認識されたと想定し、その想定に基づいて車両の制御を応答的に調整し得る。
検出された物体に関連付けられた信頼度が信頼度閾値より低い場合、車両が取るアクションは変わり得る。いくつかの実装形態では、車両は、低い信頼度レベルにもかかわらず、検出された物体が存在するかのように反応する場合がある。他の実装形態では、車両は、検出された物体が存在しないかのように反応することがある。
車両は、環境の物体を検出すると、特定の検出された物体に関連付けられた信頼度も計算することができる。信頼度は、実装形態に応じて様々な方法で計算され得る。一例では、環境の物体を検出するとき、車両は、環境データを既知の物体に関連する所定のデータと比較し得る。環境データと所定のデータとの一致が近いほど、信頼度はより高くなる他の実装形態では、車両は、環境データの数学的分析を使用して、物体に関連付けられた信頼度を判定し得る。
物体が閾値を下回る検出信頼度を有するとの判定に応答して、車両は、リモートコンピューティングシステムに、物体の識別とともにリモートアシスタンスの要求を送信し得る。上述のように、リモートコンピューティングシステムは、様々な形態を取り得る。例えば、リモートコンピューティングシステムは、車両とは別個の車両内のコンピューティングデバイス、リモートアシスタンス情報を表示するためのタッチスクリーンインターフェースなど、であってもよいが、それによって人間のオペレータが車両の乗客または運転者と相互作用することができる。追加的または代替的に、別の例として、リモートコンピューティングシステムは、車両の近くではない場所に位置付けされたリモートコンピュータ端末または他のデバイスであってもよい。
リモートアシスタンスの要求には、画像データ、オーディオデータなどの物体を含む環境データが含まれ得る。車両は、ネットワーク(例えば、ネットワーク304)を介してリモートコンピューティングシステムに環境データを送信し得、いくつかの実装形態では、サーバ(例えば、サーバコンピューティングシステム306)を介して送信し得る。リモートコンピューティングシステムの人間のオペレータは、次に、要求に応答するための基礎として環境データを使用し得る。
いくつかの実装形態では、物体が信頼度閾値を下回る信頼度を有するとして検出された場合、物体には予備識別が与えられてもよく、車輌は、予備識別に応答して車両の動作を調整するように構成され得る。そのような動作の調整は、他の可能な調整の中でもとりわけ、車両を停止すること、車両を人間制御モードに切り替えること、車両の速度(例えば、速さおよび/または方向)を変更することの形態を取り得る。
他の実装形態では、車両が閾値を満たすか、または超える信頼度を有する物体を検出した場合でも、車両は検出された物体に従って動作し得る(例えば、物体が一時停止標識として高い信頼度で識別された場合に停止する)が、車両が検出された物体に従って動作するのと同時に(または後で)リモートアシスタンスを要求するように構成され得る。
図3Bは、例示的なカメラシステム350の構成要素例を表す簡略ブロック図を示す。この例示的なカメラシステム350は、カメラ130に対応し得る。
カメラシステム350は、少なくとも1つのプロセッサ352およびシステムメモリ354を含み得る。例示的な実施形態では、カメラシステム350は、プロセッサ352およびシステムメモリ354、ならびにカメラシステム350の他の構成要素を通信可能に接続するシステムバス356を含み得る。所望の構成に応じて、プロセッサ352は、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタル信号プロセッサ(DSP)、またはそれらの任意の組み合わせを含むがこれらに限定されない任意のタイプのプロセッサであり得る。さらに、システムメモリ354は、揮発性メモリ(RAMなど)、不揮発性メモリ(ROM、フラッシュメモリなど)、またはそれらの任意の組み合わせを含むがこれらに限定されない、現在知られている、または今後開発される任意のタイプのメモリであり得る。いくつかの例では、システムメモリ354は、画像データを一時的に格納するためのメモリキャッシュであり得る。加えて、カメラシステム350は、外部メモリ358に結合されてもよい。外部メモリ358は、自律車両の異なる部分に位置付けされた、および/またはリモートコンピュータサーバに位置付けされたメモリであり得る。外部メモリ358は、画像の長期記憶および/または処理のために使用され得る。例えば、外部メモリ358内の画像データは、自律車両のナビゲーションシステムによって使用され得る。
例示的なカメラシステム350は、様々な他の構成要素も同様に含み得る。例えば、カメラシステム350は、画像センサ356を含む。画像センサ356は、本明細書で説明されるような画像センサであり得る。例えば、画像センサ356は、ローリングシャッターを含み得、プロセッサ352によって選択的に有効または無効にされる部分を有するように構成され得る。
例示的な実施形態によれば、カメラシステム350は、システムメモリ354(および/または恐らくは別のデータストレージ媒体)に格納され、プロセッサ352によって実行可能なプログラム命令360を含み得、図8に関して説明される機能を含むがこれらに限定されない、本明細書に記載の様々な機能を容易にし得る。カメラシステム350の様々な構成要素が分散した構成要素として示されているが、そのような構成要素のいずれも、コンピューティングシステムの所望の構成に従って物理的に統合および/または分散され得ることを理解されたい。
図3Cは、光学システム382(例えば、レンズ)および画像センサ384を含む装置の画像化動作の概念図である。画像センサ384は、図3Bに示されるカメラシステム350などのカメラ内に存在し得る。光学システム382は、全体的な視野386を画像センサ384に提供する。全体的な視野386は、垂直視野388および水平視野390を含む。全体的な視野386は、画像センサ384が光学システム382を介して画像化することができる最大角度範囲に対応する。
いくつかの例では、画像センサ384の少なくとも一部が無効にされ得る。画像センサ384の少なくとも一部が無効にされるとき、視野は、全体的な視野386の一部のみとなり得る。一例として、画像センサ384の2つの部分が無効にされるとき、画像化される視野392、視野394Aの頂部無効にされた部分、および視野394Bの底部無効にされた部分が存在し得る。視野394Aの頂部無効にされた部分および視野394Bの底部無効にされた部分は、画像センサ384の2つの無効にされた領域に対応し得る。
図4は、従来の画像センサ400を図解する。画像センサ400は、CMOS画像センサであり得る。従来の画像センサ400は、センサセル404のグリッド402を含み得る。センサセル404のグリッド402は、列410および行412に配置され得る。いくつかの例では、従来の画像センサ400は、高さより幅広であり得る(すなわち、水平行よりも垂直列が多い場合)。動作中、センサセル404は、光を受け取り、その光を電気信号に変換し得る。電気信号は、それぞれのセンサセルによって受け取られる光の色および強度に対応し得る。
画像を形成するために、図1および/または図3Bに関して説明されたプロセッサなどのプロセッサは、画像センサ400のセル404のサンプリングを制御し得る。図4に示されるように、画像センサ400は、一度に1つの行406でサンプリングされ得る。この方法でのサンプリングは、ローリングシャッターとして知られている。いくつかの例では、画像センサ400は、一度に2つ以上の行をサンプリングし得る。画像センサ400は、反復的にサンプリングされ得、漸次サンプル行408を調整し得る。プロセッサは、サンプル行406を反復的に増分することによって、センサ400の行412を漸次サンプリングし得る。一部の例では、反復は線形であってもよく、つまり、各行がサンプリングされた後、次の行が続いてサンプリングされる。他の例では、サンプリングは異なる方法で行われてもよい。
前述のように、従来の画像センサ400では、ローリングシャッターは、従来の画像センサ400を一度にセルの1つの行406で反復的にサンプリングし得る。ローリングシャッターを有する従来の画像センサ400をサンプリングするとき、センサの視野内の高速な物体は歪んで見える場合がある。歪みは、従来の画像センサ400の反復サンプリングによって引き起こされる。セルのラインは反復的にサンプリングされるため、画像化される物体は各サンプリング間にわずかに移動する。したがって、各ラインは前のラインよりも少し遅れた時間にサンプリングされる。それぞれのラインをサンプリングする際の遅延のため、水平方向の動きを有する物体は水平方向のスキューを有する場合がある。例えば、センサの視野を横切って移動する車両は、水平スキューおよび垂直圧縮(または拡張)を有する場合があり、それは車両を歪める。このスキューは、画像内の物体の位置に基づく処理に対して面倒となり得る。
図5は、実装形態例による、例示的な画像センサ500を図解する。画像センサ500は、CMOS画像センサであり得、図4の画像センサ400と同様であり得る。いくつかの例では、画像センサ500は、幅よりも縦長であり得る(すなわち、垂直列より水平行が多い場合)。画像センサ500は、同様に、センサセル504のグリッド502を含み得る。センサセル504のグリッド502は、列510および行512に配置され得る。画像センサ500は、光学システム経由で受光するように構成され得る。動作中、センサセル504は、光を受け取り、その光を電気信号に変換し得る。電気信号は、それぞれのセンサセルによって受け取られる光の色および強度に対応し得る。
画像を形成するために、図1および/または図3Bに関して説明されたプロセッサなどの画像プロセッサは、画像センサ500のサンプリングを制御し得る。図5に示されるように、画像センサ500は、一度に1つの列506でサンプリングし得る。前述のように、いくつかの例では、画像センサ500は、一度に1つより多い行(2、4、5、8など)をサンプリングするように構成され得る。図4の画像センサ400とは異なり、図5の画像センサ500は、行ではなく列でサンプリングされる。画像センサ500は、反復的にサンプリングされ得、漸次サンプル列508を調整し得る。プロセッサは、サンプル列510を反復的に増分することによって、画像センサ500の列510を漸次サンプリングし得る。一部の例では、反復は線形であってもよく、つまり、各行がサンプリングされた後、次の行が続いてサンプリングされる。他の例では、サンプリングは異なる方法で行われてもよい。いくつかの例では、サンプリングは、非順次的な順序で列に対して行われてもよい。
図5の画像センサ500を行512ではなく列510でサンプリングすることによって、反復サンプリングによって引き起こされる歪みが軽減され得る。このため、図4の従来の画像センサ400に関して説明されたようなスキューは軽減され得る。水平方向のスキューではなく、図5に関して説明されるサンプリングでは、移動する物体の垂直方向のスキューおよび水平方向の圧縮(または拡張)を有する場合がある。場合によっては、水平方向の圧縮または拡張を有する方が、従来のセンサの水平方向のスキューよりも望ましい場合がある。
図6は、実装形態例による、例示的な画像センサ600を図解する。画像センサ600は、CMOS画像センサであり得、以前に議論された画像センサと同様であり得る。画像センサ600は、同様に、センサセル604のグリッド602を含み得る。センサセル604のグリッド602は、列610および行612に配置され得る。以前に議論された画像センサとは異なり、画像センサ600は、有効にされた領域608および少なくとも1つの無効にされた領域の両方を有し得る。図6に示されるように、画像センサ600は、頂部無効にされた領域606Aおよび底部無効にされた領域606Bを有する。
各水平行は、全体的な垂直視野(例えば、全体的な垂直視野388)の対応する部分を提供する。各垂直列は、全体的な水平視野(例えば、水平視野390)の対応する部分を提供する。したがって、画像化される視野は、有効にされた領域608の行および列によって提供される視野に対応する。
画像センサ600は、光学システム経由で受光するように構成され得る。動作中、光学システムは、すべてのセンサセル604を露光し得る。しかしながら、有効にされたセル領域608内の有効にされたセルのみが画像データを提供する。
様々な例において、有効にされた領域608ならびに無効にされた領域606Aおよび606Bは、異なる方法で定義されてもよい。いくつかの例では、有効にされた領域608は、セル602が電力供給されている領域として定義され得、無効にされた領域606Aおよび606Bは、電力供給されていないセル602を有する領域として定義され得る。この例では、電力供給されているセルのみが信号出力を生成する。他の例では、有効にされた領域608は、プロセッサがセル602からデータを捕捉する領域として定義され得る。この例では、プロセッサは、有効にされるように定義されている領域のセルのみを選択的にサンプリングし得る。他の例では、セルを有効または無効にする異なる方法が使用されてもよい。
図7は、実装形態例による、例示的な画像センサ700を図解する。画像センサ700は、CMOS画像センサであり得、以前に議論された画像センサと同様であり得る。画像センサ700は、同様に、センサセル704のグリッド702を含み得る。センサセル704のグリッド702は、列710および行712に配置され得る。図6の画像センサ600と同様に、画像センサ700は、有効にされた領域708および少なくとも1つの無効にされた領域の両方を有し得る。図7に示すように、画像センサ700は、頂部無効にされた領域706Aおよび底部無効にされた領域706Bを有する。
画像センサ700は、光学システム経由で受光するように構成され得る。動作中、光学システムは、すべてのセンサセル704を露光し得る。しかしながら、有効にされたセル領域708内の有効にされたセルのみが画像データを提供し得る。
画像センサ700は、図6の画像センサ600と同じ画像センサであり得るが、調整された有効にされた領域708を有する。いくつかの例では、画像プロセッサは、有効にされた領域708を調整することができ得る。例えば、有効にされた領域708は、画像センサ上で(行で測定した場合)より高いまたはより低い領域に移動し得る。他の例では、有効にされた領域708の行数が、増加または低減されてもよい。
図8は、実装形態例による、方法800のフローチャートである。方法800は、ブロック802~808のうちの1つ以上によって示されるような、1つ以上の動作を含み得る例示的な方法を表し、その各々は、他の可能なシステムの中でもとりわけ、図1~7に示されたシステムのいずれかによって実行され得る。例示的な実装形態では、カメラシステム350などのコンピューティングシステムが図示された動作を行うが、他の実装形態では、1つ以上の他のシステム(例えば、サーバコンピューティングシステム306)が動作の一部またはすべてを行うことができる。
当業者は、本明細書で説明されるフローチャートが、本開示の特定の実装形態の機能および動作を例証することを理解するであろう。これに関して、フローチャートの各ブロックは、プロセス内の特定の論理機能またはステップを実施するための1つ以上のプロセッサによって実行可能な1つ以上の命令を含む、モジュール、セグメント、またはプログラムコードの一部を表し得る。プログラムコードは、例えば、ディスクまたはハードドライブを含むストレージデバイスのような任意のタイプのコンピュータ可読媒体に格納することができる。
加えて、各ブロックは、プロセス内の特定の論理機能を行うために配線された回路を表す場合がある。代替的な実装形態が、本出願の例示的な実装形態の範囲内に含まれ、当業者によって理解されるように、機能は、実質的に同時または逆の順序を含めて、関連する機能に応じて図示または説明したものとは異なる順序で実行されてもよい。例の中で、任意のシステムは、別のシステムに、以下で説明される動作(または動作の一部)うちの1つ以上を実行させることができる。
上記の議論に沿って、コンピューティングシステム(例えば、カメラシステム350、リモートコンピューティングシステム302、またはサーバコンピューティングシステム306)は、方法800によって示されるように動作し得る。図8に示すように、ブロック802で、コンピューティングシステムは、光学システムを介して光センサで受光するように動作する。センサは、複数の水平行および複数の垂直列に整列された複数のセルで構成され得る。センサは、装置の外部環境の全体的な垂直視野および全体的な水平視野を有するように構成される。各水平行は、全体的な垂直視野の対応する部分を提供し、各垂直列は、全体的な水平視野の対応する部分を提供する。
ブロック804で、光学システムは、光センサの複数の水平行を1つ以上の有効にされた行および1つ以上の無効にされた行に分割することによって動作する。行は、図6および図7に関して前述したように分割され得る。一部の例では、車両にローカルなプロセッサが、どの行が有効にされるべきかの判定を行い得る。他の例では、補助知覚システムなどのリモートコンピュータシステムが、どのセルが選択されるべきかを判定することができる。行を分割することによって、画像センサは有効にされた行に対応する元の視野の一部のみを画像化する。
加えて、画像センサは、図1または図3Bに関して説明されたプロセッサのうちの1つなど、画像処理を行うように構成されたプロセッサに結合され得る。画像処理には、画像圧縮、物体認識などが含まれる。センサが画像データを捕捉するとき、画像データは比較的大量のデータを消費し得る。大量のデータのために、データのストレージ、処理、移動は、計算およびメモリを集中的に使用する場合がある。システムの計算およびメモリの必要性を減らすために、センサの一部のみを任意の所与の時間に選択(つまり、有効にされる)してもよい。例えば、センサのある領域が無効にされ、センサセルのサンプリングが有効にされた部分でのみ行われてもよい。実際に、センサのセルの半分が、任意の所与の時間に有効にされてもよい。いくつかの例では、無効にされた部分は、センサの1つ以上の領域であってもよい。無効にされた領域は、センサの頂部または底部にある複数の列であってもよい。デフォルトモードでは、センサの行の頂部25%およびセンサの行の底部25%が無効になっていてもよい。これにより、行の中央の50%が有効なままとなる。
有効にされたセンサの領域は、センサの視野に対応し得る。センサの頂部または底部を無効にすることにより、視野は、完全に有効にされたセンサの完全な画像であったであろうものの中央部分のみを含有するように縮小され得る。いくつかの例では、プロセッサは、センサの有効にされた部分を調整するようにさらに構成され得る。
実際に、これにより視野を上向きまたは下向きの方向に調整したり、視野を拡大または縮小したりできる。有効にされた部分は、デフォルトの視野とは異なる視野を捕捉するように調整され得る。例えば、車両が停止信号に近づくとき、停止信号が通常より高い場所に取り付けられている場合がある。プロセッサは、視野が停止信号を捕捉するようにセンサの有効にされる行を調整し得る。プロセッサは、様々な方法で有効にされるセンサの部分を調整し得る。いくつかの例では、有効にされるセンサの部分は、装置のメモリに格納されている地図データに基づいている。例えば、地図データは、道路の勾配の変化を示すか、または、道路近くの物体が通常よりも高いまたは低い位置にあり得ることを示す場合があり、プロセッサは、センサの有効にされた領域を応答的に調整して、道路の一部をセンサの視野内に維持するか、または物体がセンサの視野内にあることを確実にし得る。
別の例では、システムは慣性測定ユニット(IMU)を含み得、有効にされるセンサの部分は、IMUからのデータに基づき得る。例えば、IMUデータは、道路の勾配の変化を示し得、プロセッサは、センサの有効にされた領域を応答的に調整して、道路の一部をセンサの視野内に維持し得る。
いくつかのさらなる例では、有効にされるセンサの部分は、画像データで検出された物体に基づいている。例えば、道路標識が、センサの視野内に部分的に位置付けされる場合があり、プロセッサは、道路標識全体が視野内に位置するように、有効にされる領域を調整し得る。
さらにいくつかのさらなる例では、センサの視野内に全体的にまたは部分的に位置する潜在的な物体が存在する場合がある。プロセッサは、潜在的な物体が視野内に位置するように有効にされた領域を調整し得る。次に、処理システムは、潜在的な物体が実際に物体であるかどうかを判定し、物体を分類することができる。
ブロック806(またはブロック808)で、光学システムは、1つ以上の無効にされた行のセルをサンプリングすることなく、1つ以上の有効にされた行の1つ以上のセルをサンプリングすることによって光センサから画像データを取得することによって動作する。画像データは、全体的な垂直視野の一部を画像化し、垂直視野の画像化された部分は、1つ以上の有効にされた行によって提供される垂直視野の1つ以上の部分に対応する。有効にされた行から複数のセルをサンプリングすることによって画像データが受信され得、画像データを形成し得る。サンプリングは、センサの垂直列の少なくとも1つにわたって行われ得る。前述のように、光学カメラは、CMOS画像センサなどの画像センサを有し得る。画像センサは、行および列に構成された複数のセンサセルを含み得る。画像データを捕捉するために、センサのセルをサンプリングして画像データを取得し得る。画像センサは、ローリングシャッターで構成されてもよい。ローリングシャッターは、概して、画像センサを反復的にサンプリングして画像データを捕捉する。画像センサからのデータは、画像、複数の画像、またはビデオを形成し得る。
ローリングシャッターは、捕捉した画像にいくつかの歪みをもたらす場合がある。歪みは、画像センサの反復サンプリングによって引き起こされる。本開示の画像センサは、垂直列でセンサのセルをサンプリングするローリングシャッターでサンプリングされ得る。画像センサを行ではなく列でサンプリングすることによって、反復サンプリングによって引き起こされる歪みが軽減され得る。水平方向のスキューではなく、移動する物体の垂直方向のスキューおよび水平方向の圧縮(または拡張)が存在する場合がある。場合によっては、水平方向の圧縮または拡張を有する方が、従来のセンサの水平方向のスキューよりも望ましい場合がある。
サンプリングされている列を構成する各セルで、有効にされているセルが電気信号を出力し得る。各それぞれのセルによって出力されるこの電気信号は、各それぞれのセルに当たる光に比例し得る。列の各有効にされたセルに対して、電気信号に基づいてデータが捕捉される。行の各セルがサンプリングされた後、新しい列がサンプリングされて、画像の別の列を作成し得る。すべての列がサンプリングされるまで、列は反復的にサンプリングされ得る。
ブロック808で、コンピューティングシステムは、画像データを装置のメモリに格納することを提供することによって動作する。画像データは生フォーマットで格納され得、すなわち捕捉されたときに直接処理されない。他の例では、画像データは、さらなる処理のために、キャッシュなどの一時メモリに格納され得る。画像データは、メモリに格納される前に圧縮または加工されてもよい。メモリは、光学システム内のメモリ、光学システムの一部ではない装置のメモリであってもよく、および/またはメモリは、リモートコンピュータシステムに位置するメモリであってもよい。
いくつかの例では、画像データは、自律車両による実行のための車両命令を判定するために車両制御システムによって使用され得る。例えば、車両は自律モードで動作していて、画像に捕捉された情報または物体に基づいてその動作を変える場合がある。いくつかの例では、画像データは、車両制御命令を決定するために、リモートコンピューティングシステムなどの異なる制御システムに関連付けられてもよい。自律車両は、リモートコンピューティングシステムから命令を受信し、それに応じてその自律動作を変え得る。
加えて、いくつかの例では、自律車両は、リモートコンピューティングサーバへ送信された画像データに基づいて、センサの有効にされた部分を調整するようにリモートコンピューティングシステムから要求を受信し得る。センサの有効にされた部分を調整する要求を受信することに応答して、車両のプロセッサは、センサを調整し、調整されたセンサからリモートコンピューティングシステムに画像を送り返すことができる。
図9は、実装形態例による、コンピュータプログラムの概略図である。いくつかの実装形態では、開示された方法は、機械可読フォーマットの非一時的なコンピュータ可読記憶媒体上、または他の非一時的な媒体もしくは製造物品上に符号化されたコンピュータプログラム命令として実装され得る。
例示的な実装形態では、コンピュータプログラム製品900は、信号担持媒体902を使用して提供され、それは、1つ以上のプロセッサによって実行されるときに、図1~図8に関して上記で説明した機能または機能の一部を提供し得る1つ以上のプログラミング命令904を含み得る。いくつかの例では、信号担持媒体902は、ハードディスクドライブ、CD、DVD、デジタルテープ、メモリ、リモート(例えば、クラウド上)で格納するための構成要素などであるがこれらに限定されない、非一時的なコンピュータ可読媒体906を包含し得る。いくつかの実装形態では、信号担持媒体902は、メモリ、読み取り/書き込み(R/W)CD、R/W DVDなどであるがこれらに限定されない、コンピュータ記録可能媒体908を包含し得る。いくつかの実装形態では、信号担持媒体902は、デジタルおよび/またはアナログ通信媒体(例えば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンクなど)などであるがこれらに限定されない、通信媒体910を包含し得る。同様に、信号担持媒体902は、リモートストレージ(例えば、クラウド)に対応し得る。コンピューティングシステムは、情報を送信または受信することを含めて、情報をクラウドと共有し得る。例えば、コンピューティングシステムは、センサまたは別のエンティティから取得した情報を補強するために、クラウドから追加情報を受信し得る。このため、例えば、信号担持媒体902は、無線形態の通信媒体910によって伝達されてもよい。
1つ以上のプログラミング命令904は、例えば、コンピュータ実行可能および/または論理実装された命令であってもよい。いくつかの例では、図1のコンピュータシステム112、または図3Aのリモートコンピューティングシステム302、および、場合によっては、サーバコンピューティングシステム306、または図3Bのプロセッサのうちの1つなどのコンピューティングデバイスは、コンピュータ可読媒体906、コンピュータ記録可能媒体908、および/または通信媒体910のうちの1つ以上によってコンピュータシステム112に伝達されるプログラミング命令904に応答して、様々な動作、機能、またはアクションを提供するように構成され得る。
非一時的なコンピュータ可読媒体はまた、複数のデータストレージ要素および/またはクラウドの間に(例えば、遠隔で)分散させることもでき、これらは互いに遠隔に配置することができる。格納された命令の一部またはすべてを実行するコンピューティングデバイスは、図2に図解された車両200などの車両であり得る。あるいは、格納された命令の一部またはすべてを実行するコンピューティングデバイスは、サーバなどの別のコンピューティングデバイスであり得る。
上の発明を実施するための形態は、開示されるシステム、デバイス、および方法の様々な特徴および動作を添付の図を参照しながら述べている。本明細書では様々な態様および実施形態が開示されてきたが、他の態様および実施形態は明らかであろう。本明細書に開示される様々な態様および実施形態は、例証を目的とするものであり、限定することを意図するものではなく、真の範囲は、以下の特許請求の範囲によって示される。

Claims (20)

  1. 光センサであって、前記光センサが、複数の水平行および複数の垂直列に整列された複数のセルを含む、光センサと、
    前記光センサに装置の外部環境の全体的な垂直視野および全体的な水平視野を提供するように構成された光学システムであって、各水平行が、前記全体的な垂直視野の対応する部分を提供し、かつ各垂直列が、前記全体的な水平視野の対応する部分を提供する、光学システムと、
    処理ユニットであって、
    前記光センサの前記複数の水平行を1つ以上の有効にされた行と1つ以上の無効にされた行とに分割することと、
    前記1つ以上の無効にされた行の前記セルをサンプリングせずに、前記1つ以上の有効にされた行の1つ以上のセルをサンプリングすることによって、前記光センサから画像データを取得することであって、前記画像データが、前記全体的な垂直視野の一部を画像化し、かつ前記垂直視野の前記画像化された部分が、前記1つ以上の有効にされた行によって提供される前記垂直視野の前記1つ以上の部分に対応する、画像データを取得することと、を行うように構成された、処理ユニットと、を備える、装置。
  2. 前記サンプリングされた1つ以上のセルが、ローリングシャッターによるサンプリングに利用可能とされた1つ以上の列にある、請求項1に記載の装置。
  3. 前記プロセッサが、前記装置のメモリに格納された地図データに基づいて、前記1つ以上の有効にされた行および/または前記1つ以上の無効にされた行を選択するように構成されている、請求項1に記載の装置。
  4. 慣性測定ユニット(IMU)をさらに備え、前記プロセッサが、前記IMUからのデータに基づいて、前記1つ以上の有効にされた行および/または前記1つ以上の無効にされた行を選択するように構成されている、請求項1に記載の装置。
  5. 前記プロセッサが、前記外部環境において検出された物体または潜在的な物体に基づいて、前記1つ以上の有効にされた行および/または前記1つ以上の無効にされた行を選択するようにさらに構成されている、請求項1に記載の装置。
  6. 前記1つ以上の有効にされた行の数が、前記光センサの行の総数の半分以下である、請求項1に記載の装置。
  7. 光学システムを介して光センサで受光することであって、前記光センサが、複数の水平行および複数の垂直列に整列された複数のセルを含み、かつ前記光学システムが、前記光センサに前記装置の外部環境の全体的な垂直視野および全体的な水平視野を提供し、各水平行が、前記全体的な垂直視野の対応する部分を提供し、かつ各垂直列が、前記全体的な水平視野の対応する部分を提供する、受光することと、
    前記1つ以上の無効にされた行の前記セルをサンプリングせずに、前記1つ以上の有効にされた行の1つ以上のセルをサンプリングすることによって、前記光センサから画像データを取得することであって、前記画像データが、前記全体的な垂直視野の一部を画像化し、かつ前記垂直視野の前記画像化された部分が、前記1つ以上の有効にされた行によって提供される前記垂直視野の1つ以上の部分に対応し、プロセッサが、1つ以上の有効にされた行および1つ以上の無効にされた行を判定する、画像データを取得することと、を含む、方法。
  8. 前記サンプリングされた1つ以上のセルが、ローリングシャッターによるサンプリングに利用可能とされた1つ以上の列にある、請求項7に記載の方法。
  9. 前記複数の水平行を分割することが、前記装置の前記メモリに格納された地図データに基づいている、請求項7に記載の方法。
  10. 前記複数の水平行を分割することが、慣性測定ユニットからのデータに基づいている、請求項7に記載の方法。
  11. 前記複数の水平行を分割することが、前記画像データにおいて検出された物体に基づいている、請求項7に記載の方法。
  12. 前記複数の水平行を分割することが、有効にされた行の数を増やすことを含む、請求項7に記載の方法。
  13. 有効にされた行の数が、前記光センサの行の総数の半分以下である、請求項7に記載の方法。
  14. 前記サンプリングが、前記センサの前記複数の垂直列にわたって反復的に行われる、請求項7に記載の方法。
  15. 光センサであって、前記光センサが、複数の行および複数の列に整列された複数のセルを含む、光センサと、
    前記光センサに前記装置の外部環境の全体的な視野を提供するように構成された光学システムであって、各行が、垂直視野の対応する部分を提供し、かつ各列が、前記全体的な水平視野の対応する部分を提供する、光学システムと、
    処理ユニットであって、
    前記光センサの前記複数の行のサブセットを、1つ以上の有効にされた行にすることを可能にすることと、
    前記1つ以上の有効にされた行の1つ以上のセルをサンプリングすることによって、前記光センサから画像データを取得することであって、前記画像データが、前記垂直視野の一部を画像化し、かつ前記垂直視野の前記画像化された部分が、前記1つ以上の有効にされた行によって提供される前記垂直視野の前記1つ以上の部分に対応する、画像データを取得することと、を行うように構成された、処理ユニットと、を備える、システム。
  16. 慣性測定ユニット(IMU)をさらに備え、前記プロセッサが、前記IMUからのデータに基づいて、前記1つ以上の有効にされた行および/または前記1つ以上の無効にされた行を選択するように構成されている、請求項15に記載のシステム。
  17. 地図データを格納するように構成されたメモリをさらに備え、前記複数の行を分割することが、前記地図データに基づいている、請求項15に記載のシステム。
  18. 車両をさらに備える、請求項15に記載のシステム。
  19. 行の数が列の数より多い、請求項15に記載のシステム。
  20. 前記プロセッサが、前記外部環境において検出された物体または潜在的な物体に基づいて、前記1つ以上の有効にされた行および/または前記1つ以上の無効にされた行を選択するようにさらに構成されている、請求項15に記載のシステム。
JP2022102505A 2017-12-26 2022-06-27 調節可能な垂直視野 Active JP7486547B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201762610339P 2017-12-26 2017-12-26
US62/610,339 2017-12-26
US16/214,572 2018-12-10
US16/214,572 US10999539B2 (en) 2017-12-26 2018-12-10 Adjustable vertical field of view
JP2020524749A JP7097439B2 (ja) 2017-12-26 2018-12-12 調節可能な垂直視野
PCT/US2018/065119 WO2019133254A1 (en) 2017-12-26 2018-12-12 Adjustable vertical field of view

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020524749A Division JP7097439B2 (ja) 2017-12-26 2018-12-12 調節可能な垂直視野

Publications (2)

Publication Number Publication Date
JP2022141664A true JP2022141664A (ja) 2022-09-29
JP7486547B2 JP7486547B2 (ja) 2024-05-17

Family

ID=

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006322797A (ja) * 2005-05-18 2006-11-30 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2007288444A (ja) * 2006-04-14 2007-11-01 Toyota Motor Corp 車載カメラ制御装置および車載カメラ制御方法。
JP2011517632A (ja) * 2008-02-20 2011-06-16 コンチネンタル・テーヴエス・アクチエンゲゼルシヤフト・ウント・コンパニー・オツフエネハンデルスゲゼルシヤフト 車両の周辺にある物体を検出する方法及び援助システム
JP2013026882A (ja) * 2011-07-22 2013-02-04 Nikon Corp 画像表示装置
JP2013175873A (ja) * 2012-02-24 2013-09-05 Nikon Corp 撮像装置
WO2015083228A1 (ja) * 2013-12-03 2015-06-11 富士通株式会社 表示制御装置、表示制御方法、及びプログラム
JP2016048885A (ja) * 2014-08-28 2016-04-07 株式会社ニコン 撮像装置および自動車
JP2021507552A (ja) * 2017-12-26 2021-02-22 ウェイモ エルエルシー 調節可能な垂直視野

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006322797A (ja) * 2005-05-18 2006-11-30 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2007288444A (ja) * 2006-04-14 2007-11-01 Toyota Motor Corp 車載カメラ制御装置および車載カメラ制御方法。
JP2011517632A (ja) * 2008-02-20 2011-06-16 コンチネンタル・テーヴエス・アクチエンゲゼルシヤフト・ウント・コンパニー・オツフエネハンデルスゲゼルシヤフト 車両の周辺にある物体を検出する方法及び援助システム
JP2013026882A (ja) * 2011-07-22 2013-02-04 Nikon Corp 画像表示装置
JP2013175873A (ja) * 2012-02-24 2013-09-05 Nikon Corp 撮像装置
WO2015083228A1 (ja) * 2013-12-03 2015-06-11 富士通株式会社 表示制御装置、表示制御方法、及びプログラム
JP2016048885A (ja) * 2014-08-28 2016-04-07 株式会社ニコン 撮像装置および自動車
JP2021507552A (ja) * 2017-12-26 2021-02-22 ウェイモ エルエルシー 調節可能な垂直視野

Also Published As

Publication number Publication date
JP2021507552A (ja) 2021-02-22
KR102365469B1 (ko) 2022-02-23
US20220150423A1 (en) 2022-05-12
CA3085319A1 (en) 2019-07-04
SG11202004004WA (en) 2020-07-29
US11653108B2 (en) 2023-05-16
AU2018393935A1 (en) 2020-05-28
KR20200091947A (ko) 2020-07-31
AU2018393935B2 (en) 2021-05-27
US20190199946A1 (en) 2019-06-27
CN111492647A (zh) 2020-08-04
WO2019133254A1 (en) 2019-07-04
JP7097439B2 (ja) 2022-07-07
IL275541A (en) 2020-08-31
CA3085319C (en) 2023-09-26
US10999539B2 (en) 2021-05-04
US20210250527A1 (en) 2021-08-12
CA3175332A1 (en) 2019-07-04
EP3692711A1 (en) 2020-08-12
EP3692711A4 (en) 2021-06-23

Similar Documents

Publication Publication Date Title
KR102454748B1 (ko) 태양-인식 차량 라우팅을 위한 방법들 및 시스템들
AU2021282441B2 (en) High-speed image readout and processing
JP7097439B2 (ja) 調節可能な垂直視野
JP7069318B2 (ja) 自動運転車両の画像捕捉デバイスが遭遇する光の範囲を制御するための方法およびシステム
US11945467B2 (en) Identification of proxy calibration targets for a fleet of vehicles
US11776163B1 (en) Systems, methods, and apparatus for correcting desaturation of images with transformed color values by appling a matrix
US11875516B2 (en) Systems, apparatus, and methods for retrieving image data of image frames
JP7486547B2 (ja) 調節可能な垂直視野
US20240106987A1 (en) Multi-Sensor Assembly with Improved Backward View of a Vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240311

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240419