JP2024509777A - 環境物体のリアルタイム画像及びリアルタイム割り当てを生成するための光学アセンブリ、及びそのようなアセンブリを備える車両 - Google Patents

環境物体のリアルタイム画像及びリアルタイム割り当てを生成するための光学アセンブリ、及びそのようなアセンブリを備える車両 Download PDF

Info

Publication number
JP2024509777A
JP2024509777A JP2023551186A JP2023551186A JP2024509777A JP 2024509777 A JP2024509777 A JP 2024509777A JP 2023551186 A JP2023551186 A JP 2023551186A JP 2023551186 A JP2023551186 A JP 2023551186A JP 2024509777 A JP2024509777 A JP 2024509777A
Authority
JP
Japan
Prior art keywords
camera
group
cameras
optical assembly
groups
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023551186A
Other languages
English (en)
Inventor
イェンス シック
Original Assignee
トリプルアイ ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トリプルアイ ゲーエムベーハー filed Critical トリプルアイ ゲーエムベーハー
Publication of JP2024509777A publication Critical patent/JP2024509777A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/004Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Accessories Of Cameras (AREA)

Abstract

光学アセンブリ(2)は、環境物体のリアルタイム画像及びリアルタイム割り当てを生成するために使用される。光学アセンブリは、それぞれがカメラ信号接続を介して相互接続されたカメラを有する複数のカメラグループ(3~8)を有し、これらカメラの入射瞳中心は、カメラが配置されるカメラ配置面を規定する。カメラグループ(3~8)は、順にグループ信号接続を介して相互接続される。カメラグループ(3~8)のいずれかにおけるカメラの隣接する画像取得方向(18ij)は、5°~25°の範囲にある互いに個別のカメラ角度(α)を想定している。カメラグループ(3~8)の1つにおけるカメラの画像取得方向(18ij)の方向平均値(19i)は、隣接するカメラグループ(3~8)におけるカメラの画像取得方向(18ij)の方向角度値(19i+1)に対してグループカメラ角度(γ)を仮定し、その角度は30°~100°の範囲にある。この結果、環境物体のリアルタイム検出の信頼性が向上し、リアルタイム割り当てが改善された光学アセンブリが得られ、特に自律走行を可能にする画像取得の実践によく適合し得る。

Description

本特許出願は、ドイツ特許出願DE 10 2021 201 678.2の優先権を主張し、その内容は参照により本明細書に組み込まれる。
本発明は、環境物体のリアルタイム画像及びリアルタイム割り当てを生成するための光学アセンブリに関する。本発明はさらに、そのような光学アセンブリを備える車両に関する。
上述のタイプの光学アセンブリ及びそれを備える車両は、特許文献1から知られている。特許文献2は、車両を自律的に駐車するための方法と、その方法を実施するための運転支援システムを開示している。特許文献3は、サラウンドビュー画像を生成するための画像処理システムを開示している。特許文献4は、環境において車両の位置を特定するための方法、及び対応する運転支援システムを開示している。
WO 2013/020872 A1 DE 10 2017 115 810 A1 US 2016/0301863 A1 DE 10 2018 132 676 A1
本発明の目的は、環境物体、特に環境シーンのリアルタイム検出と、それらのリアルタイム割り当ての安全性が改善され、特に自律走行を保証するための画像取得の実践にうまく適合するような方法で、上述のタイプの光学アセンブリをさらに具現化することである。
この目的は、本発明によれば、請求項1に記載の特徴を有する光学アセンブリによって達成される。
本発明によれば、それぞれが少なくとも2台、特に少なくとも3台の信号リンクされたカメラを備えた複数のカメラグループを設けることにより、特に自律走行の準備のための、環境物体のリアルタイム画像化及びリアルタイム割り当ての可能性が著しく向上することが認識されている。その割り当てにより、カメラグループの1つ内の異なるカメラ、及び/又は異なるカメラグループの異なるカメラが、実際に同じ物体及び/又は同じ物体シグネチャを撮像することが保証される。カメラグループ内でちょうど2台のカメラが使用されている場合、リアルタイム割り当てに使用される三角測量は、2つのカメラグループを用いて、例えば、カメラグループの1つにおける2台のカメラの撮影データを第2のカメラグループのカメラの撮影データとリンクし、三角測量中にそれらを評価することで実施することができる。
カメラ間の位置ずれに起因する風景物体のシグネチャ間の位置ずれは、この光学アセンブリを使用する空間画像取得方法の助けを借りて、正確に検出及び補償することができる。画像取得(撮像)方向は、それぞれのカメラの光軸とすることができる。
隣接するカメラグループの画像取得方向の方向平均値間のグループカメラ角度を30°~100°とすることで、可能な限り少数のカメラグループを用いて光学アセンブリによる良好な環境のカバーが可能になる。特に、これによりカメラ信号の信号処理に必要な労力が軽減される。カメラグループのカメラは、大きな口径又は大きな画角を有することができる。それぞれのカメラの水平開口角は最大180°であり、さらに大きくすることも可能である。カメラの開口角は175°より小さく、160°より小さく、140°より小さくすることもできる。一般に、水平開口角は90°より大きい。それぞれのカメラの垂直開口角は90°より大きくすることができる。この垂直開口角は、通常180°より小さい:それぞれのカメラは、その光軸が水平面に対して垂直開口角の半分に相当する角度をなすように規則的に位置合わせされる。カメラグループのカメラは魚眼カメラとして設計することができる。
カメラグループの正確に1つにおけるカメラの画像取得方向間の単一カメラ角度は、10°~20°の範囲とすることができ、特に15°の範囲とすることができる。これにより、特にそれぞれのカメラグループの周囲の至近距離において、風景物体の適切な空間割り当てが保証される。それぞれの単一カメラ角度範囲は、それぞれの場合のすべてのカメラグループのすべてのカメラだけでなく、それぞれのカメラグループのすべてのカメラの隣接する画像取得方向の単一カメラ角度にも適用できる。そのため、単一カメラ角度範囲操作は、カメラグループの1つにおけるすべてのカメラに対して、及び/又はすべてのカメラグループのすべてのカメラに対して実行できる。
グループカメラ角度は45°~75°の範囲とすることができ、特に60°の範囲とすることができる。特に魚眼カメラを使用する場合、大きなグループカメラ角度を使用することができる。グループカメラ角度条件は、互いに隣接する光学アセンブリのすべてのカメラグループについて満たすことができる。
3台以上のカメラ、例えば4台のカメラが1つのカメラグループに属する場合、カメラグループのこれら4台のカメラのうち3台は、それぞれのカメラグループのカメラ配置面を規定し、同じカメラグループの4番目のカメラはこの配置平面の外側に配置することができる。
光学アセンブリは、環境物体のリアルタイム画像化とリアルタイム割り当てを保証する信号処理部品を有する。この目的のために、光学アセンブリは、対応する強力なデータ処理モジュールシステム、特にリアルタイム対応プロセッサ及びリアルタイム対応信号接続を含む。光学アセンブリの待ち時間は、200msであってもよいし、例えば150ms,100ms又は50msとより小さくてもよい。光アセンブリのフレームレートは、10(10fps,フレーム/秒)であってもよい。より高いフレームレート、例えば15,20,25、あるいはさらに高いフレームレートも実現可能である。
請求項2によるカメラグループの1つにおけるカメラの配置は、実際に証明されている。なぜなら、撮像における望ましくない共振効果及び/又は望ましくない誤割り当て、すなわち、実際には異なる物体に属する物体シグネチャの、特に同じ物体への誤った割り当てが回避されるからである。入射瞳中心が角に位置する三角形は、2つ又は3つの異なる辺の長さを有することができる。
請求項3に記載のベースラインの長さ範囲により、例えば30cm又は50cmの下限値からそれぞれのカメラグループの至近距離を良好に捕捉することができる。そして、カメラグループに近接する物体も確実に検出して割り当てることができる。
一般に、ベースラインの長さの少なくとも3倍の距離にある物体を確実に検出し、割り当てることができる。例えば、ベースラインの長さが10cmの場合、物体が確実に検出され、割り当てられるための最小物体距離は30cmである。
所与のベースラインの長さに対して、検出可能で割り当て可能な最大物体距離と、検出可能で割り当て可能な最小物体距離の比は、通常20倍である。検出可能で割り当て可能な最小物体距離が30cmの場合、検出可能で割り当て可能な最大物体距離は6mとなる。
カメラグループ内の2台のカメラの入射瞳中心間のベースラインの長さは、10cm~20cmの範囲内、又は10cm~15cmの範囲内とすることもできる。それぞれのカメラグループに存在するすべてのカメラペアのベースラインの長さは、そのような範囲にすることができる。
請求項4による、異なる、特に隣接するカメラグループのカメラ間のベースライン長さは、平均距離範囲の安全なカバーを可能にし、その下限は、個々のカメラグループによってカバーされ得る近距離の上限と重なり得る。異なるカメラグループのカメラ間のベースライン長さは、1m~2mの間の範囲であってもよい。光学アセンブリの全ての隣接するカメラグループにおけるカメラ間のベースラインの長さは、そのような範囲であってもよい。異なるカメラグループにおけるカメラ間のベースラインの長さは、物体の信頼できる検出及び割り当てのための物体距離範囲が、一方では正確にカメラグループの1つを介して、他方では異なるカメラグループのカメラを介して、互いに隣接又は重複するように、1つの同じカメラグループのカメラ間のベースラインの長さに応じて選択することができる。カメラグループの正確に1つにおけるカメラ間の例示的なベースラインの長さが10cmであり、その結果、確実に検出及び割り当て可能な最大物体距離が6mである場合、異なるカメラグループのカメラ間のベースラインの長さは、例えば、2mとすることができる。これにより、異なるカメラグループのカメラに対する確実に検出及び割り当て可能な最小物体距離が順番に6mとなる。したがってこの場合、それぞれのカメラグループ(内部;Intra)と異なるカメラグループ(相互;Inter)の確実に検出及び割り当て可能な物体検出の距離範囲は、互いに隣接することになる。
このように、いずれの場合もカメラグループの1つを使用して近距離の対象物をカバーし、少なくとも2つのカメラグループの相互作用を使用して遠距離の対象物をカバーすることができる。ここで、近距離と遠距離は互いに直接隣接するか、又は重なり合うことができる。
請求項5又は6に記載のカメラグループの数は、光学アセンブリの水平及び/又は垂直の総カバー範囲を最適化することが証明されている。特に、水平方向の総カバー範囲は、光学アセンブリの水平方向の環境全体が捕捉されるように、360°とすることができる。垂直方向の総カバー範囲は、使用するカメラの目的に応じて180°又はそれ以上とすることができ、例えば魚眼カメラを使用する場合には、220°とすることができる。光学アセンブリが、例えば自動車に搭載される場合、100°の垂直方向の総カバー範囲を使用することができる(垂直方向下方から水平より10°上まで)。水平方向及び/又は垂直方向の総カバー範囲は、いくつかの立体角部分に分割することができる。
請求項7に記載のグループ取付体は、それぞれのカメラグループのカメラの有利な位置及び姿勢安定性をもたらす。
請求項8に記載のグループ取付体により、それぞれの画像化及び割り当て要件に適合できるカメラグループが得られる。例えば、グループ取付体は、追加のカメラを取付けるための、1つの用意された保持レセプタクル、2つの用意されたレセプタクル、又は3つ以上の用意された保持レセプタクルを有することができる。それぞれの保持レセプタクルは、取り付けられるカメラの対応する関連ホルダと相補的になるように設計することができる。
冒頭で述べた目的は、請求項9に記載の特徴を有する光学アセンブリによっても達成される。
魚眼カメラは、魚眼レンズを搭載したカメラである。このような魚眼レンズの開口部(絞り)又は画像角度は310°まで可能である。通常、魚眼レンズの画像角度は画像対角で少なくとも180°である。魚眼レンズの焦点距離は4mm~20mmの範囲とすることができる。一般的な焦点距離、は4.5mm又は8~10mmの範囲である。魚眼レンズの結像機能は、角度に忠実であってもよいし、等距離であってもよいし、面積に忠実であってもよいし、又は正投影であってもよい。魚眼レンズはまた、非基本結像関数の形でパラメトリック結像を有することもある。
上記で説明した光学アセンブリの特徴は、実施形態に応じて互いに組み合わせることもできる。
魚眼カメラを使用することで、必要な立体角部分をカバーするため、又は必要な水平方向及び/又は垂直方向の全範囲をカバーするために光学アセンブリに必要なカメラの数を有利に少なくすることができる。
請求項10に記載のデュアルカメラは、光学アセンブリの可能性を広げる。デュアルカメラは、一方ではRGBセンサ用に、他方ではIRセンサ用に、別個であるが空間的に近接するカメラ光学系を有することができる。一方のRGBカメラ光学系の光軸と、他方のIRカメラ光学系の光軸との間の距離は、35mmより小さくてもよい。デュアルカメラの2つのセンサ及び/又は2つのカメラ光学系は、共通のキャリアに搭載することができる。デュアルカメラの画像情報の読み出しは、例えば、RGBセンサの1ラインに続いてIRセンサの1ラインが読み出されるようにつなぎ合わせることができる。IRセンサに加えて、IR光源を使用することもでき、この光源を使用して、特に、捕捉されるシーンのテクスチャ化されたIR照明を行うことができる。異なる検出波長範囲のセンサにより、環境物体の検出と割り当ての精度が向上する。
請求項11に記載のハイブリッドカメラは、光学アセンブリの可能性の拡張にもつながる。ハイブリッドカメラは、より広い距離範囲をカバーすることができ、これにより、光学アセンブリの安全性が確実に向上する。近距離光学系は魚眼光学系として構成することができる。遠距離光学系は望遠光学系として構成することができる。ハイブリッドカメラの2つの光学系は、共通のキャリアに取り付けることができる。近距離光学系は、特に請求項10に記載されているように、RGBセンサとIRセンサを備えたデュアルカメラで構成することができる。したがって、遠距離光学系もRGBセンサとIRセンサを備えたデュアルカメラで構成することができる。
請求項12に記載のデータ処理モジュールシステムは、環境物体の効率的なリアルタイム検出及びリアルタイム割り当てを保証する。データ処理モジュールシステムを、それぞれの場合にカメラグループに個別に割り当てられたグループモジュールと、すべてのカメラグループに割り当てられたメインモジュールとに分割することにより、グループモジュールレベルでの非常に高速な初期検出及び割り当てを可能にする処理構成が可能になる。ここで、選択された側面の検証、特にグループモジュールレベルでの疑わしい割り当ての検証は、メインモジュールレベルでも引き続き行われ得る。データ処理グループモジュール間には、異なるカメラグループ間の信号接続があってもよく、異なるカメラグループからのカメラデータに基づいてグループレベルでリアルタイム割り当てを可能にすることができる。したがって、相互のベースライン評価をグループレベルで実行できる。メインモジュールは、メインモジュールの正しい動作を保証するために、コプロセッサ又は監視プロセッサを有してもよい。MIPI/CSI規格に従って、グループモジュール間でシリアルデータ転送を行うことができる。ハイブリッドカメラを使用する場合、一方では近距離光学系、他方では遠距離光学系が、独自のデータ処理グループモジュールと信号接続をすることができる。複数のデータ処理グループモジュールを1つの同じカメラグループに割り当てることもできる。これは、1つのカメラグループ内で複数の異なるカメラタイプ、例えば、次の3つのカメラタイプ(シングルカメラ、デュアルカメラ、ハイブリッドカメラ)のうち少なくとも2つが使用されている場合に、特に当てはまる。
請求項13に記載の少なくとも1つの冗長部品(コンポーネント)は、光学アセンブリのフェールセーフ性を高める。障害冗長性、機能冗長性、及び形状(フォーム)冗長性も提供できる。
機能冗長性の場合、同じものを測定する同じ技術を備えた複数の測定システムが存在する。冗長部品は、技術的には基本部品と同じように設計される。この例として、カメラグループの1つのグループにおける本来の目的のカメラと全く同じ方法で設計された追加の冗長カメラが挙げられる。
形状冗長性の場合、異なる技術の測定システムが同じものを測定する。このような形状冗長性の例として、可視光に感度のあるカメラ(例えばRGBカメラ)と、赤外光に感度のあるカメラを使用した対象物の検出が挙げられる。異なる測定システムは、特に画像化と画像化された物体の割り当てに使用される。
フェールセーフ冗長性の場合、2つの測定値間に矛盾が検出されると、障害が通知され、光学アセンブリが装備されている車両が安全な状態に停止する。
フェイル動作冗長性の場合、2つの等しい測定値への投票(多数決)により少なくとも3つの測定値間の矛盾が検出されると、車両の実行された動作の継続に関する警告が出される。アセンブリの構成部品が故障した場合、このような多数決を継続できるように、障害が発生した構成部品の代替構成部品又は冗長構成部品が利用可能でなければならない。
少なくとも2台のデュアルカメラ、場合によっては3台又は4台のデュアルカメラを備え、それぞれがRGBセンサとIRセンサを備えたカメラグループは、一方では複数のRGBセンサに関して機能的に冗長な配置を表し、他方では複数のIRセンサに関してそれとは独立した配置を表す。少なくとも1つのRGBセンサと1つのIRセンサの組み合わせは、形状冗長である。
それぞれの冗長構成部品によって取得又は処理されたデータは、交換される構成部品が選択されたときにのみ使用することができる。あるいは、冗長構成部品のこれらのデータは、画像化及び割り当ての精度を上げるため、及び/又は画像化及び割り当ての速度を上げるために、通常動作で使用することができる。
請求項14に記載の車両の利点は、光学アセンブリに関して上記で既に説明したものに対応する。車両は、道路車両、鉄道車両又は航空機であってもよい。光学アセンブリが航空機に実装される場合、環境物体のリアルタイム画像化及びリアルタイム割り当てを使用して、特に離陸又は着陸手順を監視することができる。可能な限り大きな立体角をカバーするために、異なるカメラグループにおけるカメラのベースラインネットワーキングを、十二面体、二十面体、又は球面もしくはその断面に対する別の表面近似の方法で行うことができる。
車両配置面に対して正確に水平でも正確に垂直でもない、請求項15に記載の斜めのベースラインは、画像化における望ましくない共振、又は環境物体の望ましくない誤割り当てを回避する。
本発明の実施形態例を、図面を参照して以下でより詳細に説明する。
環境物体のリアルタイム画像及びリアルタイム割り当てを生成するための光学アセンブリを備えた、乗用車として設計された車両を上方から見た概略斜視図である。 光学アセンブリの2つのカメラグループであり、これらのカメラグループは、それぞれのカメラグループ取付体の取付け側から見た斜視図である。 2つのカメラグループのカメラを取付けるための、図2による2つのグループ取付体のレセプタクルオプションの概略図であり、図示されたバージョンにおいてカメラの取付けに使用されている保持レセプタクルが強調表示され、使用されるカメラの一部については、これらのカメラの入射瞳中心間の接続線(ベースライン)も示されている。 ゴルフカートとして構成された車両の別の実施形態を示す図であって、図2によるグループ取付体を備えたカメラグループを使用して、環境物体のリアルタイム画像及びリアルタイム割り当てを生成するための光学アセンブリのさらなる実施形態を備えている。 図1又は図4による光学アセンブリのカメラ配置の概略上面図であり、光学アセンブリのカメラグループのカメラの画像取得方向が示されている。 図5の視線方向VIから見た、図1又は図4による光学アセンブリの画像取得方向の側面図である。 図3と同様の表現で、追加の信号処理部品を備えた光学アセンブリの2つのカメラグループを示す図である。 RGBセンサとIRセンサを備えるデュアルカメラとして構成されたカメラグループの1つにおけるカメラを示す図である。 近距離光学系と遠距離光学系を備えたハイブリッドカメラとして構成されたカメラグループの1つにおけるカメラを示す図である。 図3と比較してより詳細な表現で、2つのカメラグループ及びこれら2つのカメラグループにおける個々のカメラ間の可能なベースライン接続を示す図である。 図4に示したものに対応する、キャリア上の合計6つのカメラグループの配置を示す上面図である。 3つのカメラグループについて例示的に示される、光学アセンブリの一実施形態の概略回路図であって、図8によるデュアルカメラとして設計されたカメラグループのカメラ間、それぞれカメラグループに割り当てられたデータ処理グループモジュール(ノード)間、及びすべてのカメラグループに割り当てられたデータ処理メインモジュール間の例示的な信号接続が示されている。 図12と同様の表現で、光学アセンブリの実施形態を示す図であって、各場合において、示される3つのカメラグループのうちの2つにおける1台のカメラが、図9に従ってハイブリッドカメラとして構成され、追加のデータ処理グループモジュールが、データ処理グループモジュールの信号処理レベルでこれらのハイブリッドカメラに割り当てられている。
図1は、現在の環境シーンのリアルタイム画像及び環境物体のリアルタイム割り当てを生成するための光学アセンブリ2を備えた車両1の概略斜視図である。光学アセンブリ2は、車両1が運転者の介入なしに自律的に移動することを可能にする。
図1に示す車両1は乗用車である。道路車両の別の実施形態、例えばトラック、又は鉄道車両、又は航空車両、例えば旅客機又は貨物機、又はヘリコプター、特にドローンも、対応する車両の例である。
以下では、位置関係を示すためにデカルトxyz座標系を用いる。図1の斜視図において、x軸は車両1の進行方向に延びる。x軸とy軸は、平坦な水平面、すなわち水平面上で、車両の立ち上がり面に平行な平面に広がる。z軸は、xy平面に垂直上向きに延びる。
車両1は、地上側のシャーシ構成要素として車輪1aを備えたシャーシを有し、これら車輪1aは、車両1が静止しているときの車両の起立面、すなわちxy平面を規定する。
光学アセンブリ2は、複数のカメラグループ3,4,5,6,7,及び8を有し、これらのカメラグループ3,4,5,6,7,8は、車両の泥除けウイングの上端の高さを通る、車体周方向のベルトレベルとほぼ同じ高さで車両1のフレームに取り付けられている。図1では、カメラグループ3~7が見えている。図1では隠れているカメラグループ8も概略的に示されている。
2つのカメラグループ3及び4は、車両前部で、フロントマッドウィング、フロントリッド及び車両前部が隣接する2つの前部車体コーナー領域にそれぞれ取り付けられている。2つのカメラグループ5及び8は、2つの側面車両ドアのそれぞれの間のBピラーの下端の領域に取り付けられている。2つのカメラグループ6,7は、それぞれ、リヤマッドウイング、ラゲージルームリッド及び車両リヤサイドが隣接する後部車体コーナー領域に取り付けられている。カメラグループ3~8は、車両起立面xyから少なくとも50cmの距離に取り付けられている。
2つのカメラグループ3及び4は、車両1の進行方向xに対して2つの前方カメラグループを構成し、カメラグループ6及び7は、2つの後方カメラグループを構成する。また、2つのカメラグループ5及び8は、車両1の進行方向xに対して2つの側方(横方向)カメラグループを構成する。カメラグループ3,4,6及び7のコーナー側の配置により、これらのカメラグループは同時に横方向のカメラグループの機能を有するので、カメラグループ3,8及び7は車両1の左側カメラグループとも呼ばれ、カメラグループ4,5及び6は右側カメラグループとも呼ばれる。
各カメラグループは、データ処理ユニット9(図2参照)の形態のカメラ信号接続を介して互いにリンクされた少なくとも3台のカメラを有する。
図2は、光学アセンブリ2の2つのカメラグループ7及び8をより詳細に示している。図2の描画平面はxz平面に平行であり、図2の視線方向はそれぞれのカメラグループ7及び8の取り付け側を指している。カメラグループ3~8は基本的に同様に構成されているので、以下では主にカメラグループ7を例に挙げて説明すれば十分である。カメラグループ7は、カメラアセンブリ7のカメラ11,12,13を取り付けるためのグループ取付体10を有する。
それぞれのカメラアセンブリ3~8のカメラ11~13は、以下ではそれぞれインデックス(添字)i、すなわち、それぞれのカメラグループ3~8の参照番号で指定し、それぞれのカメラ11~13のそれぞれのカメラグループ3~8への割り当てを明確にする。
グループ取付体10は、それぞれのカメラグループ3~8のカメラ11~13を、互いの一定の相対位置及び相対姿勢で支持するように構成されている。グループ取付体10は、カメラ11~13用のレセプタクル(受け皿)に加えて、追加のカメラを取付けるための保持レセプタクル(受け皿)14,15も有する。したがって、それぞれのカメラグループ3~8は、取り付けられる少なくとも1台の追加カメラによって後付け及び拡張することができる。図示の実施形態例では、カメラグループ3~8のそれぞれは、正確に3つの設置されたカメラ11~13と、正確に2つの追加の用意された保持レセプタクルとを有するため、それぞれのカメラグループ3~8は、これらの用意されたカメラ保持レセプタクルの割り当てに応じて、2台のカメラ、3台のカメラ、4台のカメラ、又は5台のカメラを装備することができる。グループ取付体10の実施形態によっては、3台から例えば10台のカメラを備えたカメラグループとすることが可能である。
図3は、選択されたカメラ、すなわちカメラグループ7のカメラ13、及びカメラグループ8のカメラ11,12,13に対する、これらのカメラ11~13の入射瞳中心EPZ間の接続線を示している。これらは、ベースラインとも呼ばれる。カメラグループiのカメラ11,12,13の入射瞳中心EPZは、カメラグループ3~8のいずれかのカメラ11~13が配置されるカメラ配置面AE(図3の右側参照)を定義する。図3の右側のカメラグループに対して示されるカメラ配置面AEは、xz平面に平行である必要はなく、通常もそうではない。カメラ配置面AEと車両座標xyzの主平面xy,xz,yzのいずれかとのなす角度は、通常、10°から80°の範囲である。
カメラグループ3~8の2台のカメラ11,12;11,13;12,13の入射瞳中心EPZ間のベースラインBの長さは、5cm~30cmの範囲である。カメラグループ3~8の実施形態に応じて、これらのベースラインBの長さは、10cm~20cmの範囲、又は10cm~15cmの範囲とすることもできる。
さらに、図3では、2つのカメラグループ7,8のカメラ11~13間のグループ間ベースラインBi,jが強調表示されている。これらのグループ間ベースラインBi,jの長さは、0.5m~3mの範囲にある。グループ間ベースラインBi,jのこの長さは、それぞれの隣接するカメラグループ3~8間の距離に相当する。グループ間ベースラインBi,jの長さは、カメラグループ3~8の配置に応じて、1m~2mの範囲とすることもできる。
例えば、カメラグループ8のカメラ11,12とカメラグループのカメラ13との間のベースラインBi,jの長さは、0.5m~3mの範囲内であり、例えば1m~2mの範囲としてもよい。
カメラグループ3~8のうちの1つにおけるカメラ11~13の入射瞳中心EPZは、非正三角形16の角に位置している。それぞれの三角形16は、2つ又は3つの異なる辺の長さ、すなわち、異なる長さの2つ又は3つのベースライン(基線)Bを有することができる。
カメラグループ3~8のカメラ11~13間のベースラインBは、車両配置面xyに対して10°~80°の範囲内の角度で延びており、つまり、正確に水平方向にも鉛直方向にも延びていない。
図3では、カメラのペア12,13について、関連するベースラインBと車両の立面xyとの間の角度δが描かれている。この角度δは約70°であり、すなわち10°と80°の間である。
カメラグループ3~8は、それぞれのデータ処理ユニット9の間のグループ信号接続を介して順番に互いに接続される。カメラ信号接続もこのグループ信号接続も、実際には図2には示されていない。
データ処理ユニット9を介した信号処理に関する限り、それぞれのカメラグループ3~8のカメラ11~13のうちの1台、例えばカメラ11をマスターカメラとして定義し、他のカメラ12,13をスレーブカメラとして定義することができる。
データ処理ユニット9を介した信号処理に関する限り、カメラグループ3~8の1つをマスターカメラグループとして定義し、他をスレーブカメラグループとして定義することができる。
図4は、ゴルフカートとしての車両1の実施形態におけるカメラグループ3~8のさらなる配置変形例を示す。図4ではカメラグループ3~6が見える。
図1~図3を参照して上記で既に説明したものに対応する構成要素及び機能には、同じ符号が付されており、再度詳細には説明しない。
カメラグループ3~8は、図4による車両17のルーフ領域に配置されており、カメラグループ3~8の「前」、「後」、「左側」、及び「右側」の方向への割り当ては、図1による車両1に関連して上記で説明したとおりである。
カメラ3~8の撮像方向を、図1及び図4による光学アセンブリ2の配置例を用いて図5及び図6に示す。図5は車両1又は17の上面図であり、カメラ3~8のみが表されており、図6は対応する側面図である。
図5及び図6において、カメラ11~13のそれぞれの画像取得方向18は、18 の形式で二重のインデックスを付けてされて示されている。インデックスiは、それぞれのカメラグループ3~8への画像取得方向18の割り当てを表し、インデックスjは、このカメラグループ3~8のそれぞれのカメラ11~13への割り当てを表す。
カメラグループiの1つにおけるカメラ11~13の隣接する画像取得方向18 11~18 13は、互いに対して単一のカメラ角度αを有し、このカメラ角度αは、5°~25°の範囲内であり、例えば15°である。
通常、カメラグループi(i=3~8)のそれぞれは、画像取得方向18 11~18 13にわたって、通常30°の総画像取得角度βをカバーする。
カメラグループiの1つにおけるカメラ11~13の画像取得方向18 11~18 13には、それぞれ方向平均値19を割り当てることができる。カメラグループ3について、そのような方向平均値19の方向が、図5及び図6に破線で示されている。このそれぞれの方向平均値19は、画像取得方向18 11~18 13の平均値である。
隣接するカメラグループi,jにおけるカメラ11~13の画像取得方向の方向平均値19,19は、互いに対するグループカメラ角度γ(図5参照)を想定しており、それは30°~100°の範囲内であり、図5及び図6による実施形態では約60°である。
図示されていない光学アセンブリ2の実施形態では、6つ未満のカメラグループ、例えば3つのカメラグループ、4つのカメラグループ、又は5つのカメラグループもあり得る。また、6つ以上のカメラグループも可能である。
カメラグループは、図1~図6によるカメラグループ3~8の配置の場合と同様に、360°の水平方向合計カバー範囲(極座標の方位角)が達成可能となるように配置できる。カメラグループの配置は、180°の垂直方向合計カバー範囲(極座標の極角)を達成するようにも配置できる。通常、これは陸上車両には要求されないため、図1~図6によるカメラグループ3~8の配置では、この全部の垂直方向カバー範囲は達成されない。カメラグループの配置の場合、特に航空機の場合、90°よりも大きく、120°よりも大きく、150°よりも大きく、特に180°である垂直方向合計カバー範囲を達成することができる。カメラグループのカメラは、特に魚眼カメラとして構成することができる。
図7を参照して、測定対象物の冗長画像を生成する方法を以下に説明する。図1~図6を参照して上記で既に説明したものに対応する構成要素及び機能には同じ符号が付されており、再度詳細には説明しない。
図7は、それぞれ3台のカメラ11~13を含む2つのグループ7,8を示している。一方のグループ7と他方のグループ8はそれぞれ、カメラグループ7,8の関連するカメラによって撮影された画像データを処理及び評価するための関連するデータ処理ユニット9,9を有する。2つのデータ処理ユニット9,9は、信号線21を介して互いに信号接続されている。
空間シーンを取得するために、グループ7のカメラ11~13は、例えば、この空間シーンの3D取得が可能になるように、相互に接続することができる。この空間画像取得の追加の冗長性を生成するために、例えば、さらなるグループ8のカメラ11の画像取得結果を使用することができ、この画像取得結果は、グループ8のデータ処理ユニット9及び信号線21を介して、グループ7のデータ処理ユニット97に利用可能となる。この信号線21は、カメラグループ7及び8の間のグループ信号接続を表す。グループ7のカメラ11~13までのカメラ11の空間距離により、空間風景を画像化する際の視野角が大きく異なるため、空間画像取得の冗長性が向上する。
正確に1つのグループ7,8のカメラを使用する空間画像取得は、内部(イントラ)画像取得とも呼ばれる。少なくとも2つのグループのカメラが関与する空間画像取得は、相互(インター)画像取得とも呼ばれる。
物体が検出され、割り当てられると、三角測量を使って物体の距離を決定することができる。例えば、三角測量は、カメラ12,13,カメラ13,11,カメラ11,12のステレオ配置で独立に行うことができる。これら3つの配置の三角測量点はそれぞれのケースで一致しなければならない。
グループ7,8のようなカメラグループは、三角形の形、例えば二等辺三角形の形に配置することができる。6台のカメラを六角形に配置することも可能である。
それぞれのグループ7,8によってカバーされるカメラの至近距離は、例えば、80cmから2.5mの範囲とすることができる。それぞれの他のグループの少なくとも1台のカメラを追加することによって、至近距離の限界を超えた長距離も画像取得装置で撮像することができる。このような遠距離は、その下限についてカメラの近距離と重なり、例えば50m、100m又は200mの上限を有する。
各カメラ11~13は、CCD又はCMOSチップであるセンサチップを有する。そのセンサチップは2次元ピクセルアレイとして構成される。各ピクセルは長方形又は正方形であり、センサチップ平面内の通常のピクセル拡張範囲は、1μmから20μmの範囲内である。このような典型的なピクセル拡張は、2μmから10μmの間の範囲、特に3μmと5μmの間の範囲であってもよい。カメラ光学系のレンズ焦点距離とピクセル拡張との間の比は、100~1,000の間の範囲内であってもよい。特に、この比率は500~700の間の範囲内にある。カメラは、ピクセル拡張よりも優れた解像度能力を提供できる。例えば、達成可能な解像度とピクセル拡張との間の比率は、0.1~0.5の範囲とすることができる。
物体距離のそれぞれの上限値の範囲では、1%から5%の範囲の距離誤差を許容することができる。例えば、物体距離の上限(ベースライン内のみの使用)が6mの場合、距離誤差は15mmとなる。物体距離の上限(ベースライン間の排他的使用)が120mの場合、例えば、3mの範囲の距離誤差となる。
図8は、例えば、図3又は図7による(単一の)カメラ11の代わりに使用できるカメラ11~13のうちの1つの実施形態を示している。カメラ11は、RGBセンサ25とIRセンサ26を備えたデュアルカメラとして構成されている。RGBセンサ25は、可視光波長域の色情報を取得するように設計されている。RGBセンサ25の代わりに、可視波長域用のモノクロセンサを使用することもできる。IRセンサ26は、可視波長域を超える赤外線波長に感度を有する。センサ25及び/又は26は、CCDセンサ又はCMOSセンサとして構成することができる。センサ25及び/又は26は、センサピクセルが行と列に配置されたアレイセンサとして構成される。
2つのセンサ25,26は共通のキャリア27に取り付けられている。2つのセンサ25,26はそれぞれ、カメラ光学系28(RGBセンサ25用)及びカメラ光学系29(IRセンサ26用)を備えている。2つのカメラ光学系28,29は互いに離れているが、空間的には互いに近接して配置されている。図8において破線で示される2つのカメラ光学系28,29の光軸間の距離dOAは、最大でも35mmである。この距離dOAは、20mm~30mmの間の範囲とすることができ、また、それより小さくてもよく、例えば、10mm~20mmの間の範囲、5mm~15mmの間の範囲であってもよい。距離dOAが小さいと、カメラ光学系28,29の画像オフセットが無視できるほど小さくなる。これにより、センサ25,26の取得データの評価が容易になる。図示しない代替実施形態では、デュアルカメラ11は、両方のセンサ25,26対して共通のカメラ光学系を有する。
デュアルカメラ11は、センサ25,26上のデータをデータ処理モジュールシステムに読み出すための2つの信号出力30,30を有しており、これについては特に以下で詳しく説明する。信号出力30,30は、パラレル信号出力である。
さらに、デュアルカメラ11又は光学アセンブリ2は、一般に、カメラ11~13に割り当てられた検出対象物をIR光で照明するIR光源31を備えることができる。IR光源31によるこのIR照明は、IRテクスチャリングを生成するための照明であってもよい。このIRテクスチャリングは、規則的なパターンを有しないように構成されてもよい。このIR照明は、環境物体の検出及び割り当て、又は対応する物体の特徴又は物体の署名(シグネチャ)の検出及び割り当てを容易にする。
IR(赤外線)光源31は、レーザであってもよい。IR光源は、環境対象物の短時間露光を提供することができる。それぞれのカメラ11~13又は光学アセンブリ2は一般に、特定の波長範囲を選択するための狭帯域フィルタを備えることができる。これは、センサ25又は26に到達する撮像光を事前にフィルタリングするために使用することができる。狭帯域IRフィルタが使用される場合、熱源を除く周囲光を効果的にフィルタすることができる。
代替的又は追加的に、対応するプレフィルタは、特にIR光源31のパルス周波数に同期したシャッターの助けを借りて、時間的に実行することもできる。
別個のセンサ25,26を備えた図8に示すタイプのカメラ11のデュアルカメラの代わりに、図面には示していないが、RGBIRセンサを使用することもできる。このRGBIRセンサは、3段階の撮影シーケンスで動作させることができる。長い露光時間で、RGB成分を捕捉することができる。第1の短時間露光ステップの過程で、第1のIR露光成分を取り込み、第2の短時間露光ステップの過程で、第2のIR露光成分を取り込むことができる。両方のIR露光成分は互いに減算することができる。
対応するRGBIRセンサは基本的に、www.framos.comで入手可能な技術パンフレット「RGB+IR Technology」から知ることができる。
このタイプのRGBIRセンサでは、可視波長(RGB、赤緑青)と赤外波長(IR)の両方を1つのセンサーアレイで正確に測定できる。
このようなRGBIRセンサは次のように動作させることができる。ある時点t1で、RGB信号が、例えば10msの露光時間中に読み込まれる。別の時点t2で、IR信号が1ms未満の期間中にIR露光と同時に読み込まれる。さらなる時点t3で、追加のIR露光なしでIR信号が読み込まれる。時点t2及びt3における画像の差は、中間期間における物体の動きを除けば、専らIR露光の影響を表すため、昼光又は太陽光の成分は除去される。RGB時点t1は、時点t2とt3にあるか、その間にあるべきである。
カメラ11のタイプのデュアルカメラのIRセンサ、又はRGBIRセンサのIRセンサ部分は、2つの電荷メモリを有することができる。このような2つの電荷メモリを有するIRセンサを用いて、t2及びt3の時点の画像に関連して上記で説明したことに対応するIR差分画像が、このようなIRセンサで一方が取得した直後に他方が取得した2つの電荷の電荷差から既に得ることができる。
2つのセンサ25,26のデータ読み出しは、例えば、RGBセンサ25の1ラインが読み出され、続いてIRセンサ26の1ラインが読み出されるように、ステッチ(つなぎ合わせ)方式で行うことができる。このようにして、RGB及びIR情報を候補物体点に割り当てることができる。
あるいは、両方のセンサ25,26を順次読み出すことも可能である。
図9は、例えば(単一)カメラ11の代わりに使用できるハイブリッドカメラとしてのカメラ11~13のうちの1つの実施形態を示している。このハイブリッドカメラ11は、近距離光学系32と遠距離光学系33を有する。近距離光学系32は魚眼レンズとすることができる。遠距離光学系33は望遠光学系として構成することができる。
近距離光学系32は、図8を参照して上記で説明したデュアルカメラ11のタイプの近距離デュアルカメラの一部である。遠距離光学系33は、図8のデュアルカメラ11に対応する基本構造を有する、同じくデュアル長距離カメラの一部である。したがって、図9において、図8に対応する構成要素には同一の符号を付してある。ハイブリッドカメラ11の2つの距離光学系32,33はそれぞれ、それらに割り当てられたキャリア27を有する。2つのキャリア27は、剛性接続部品34によって互いに強固に接続されている。剛性接続部品34は、距離光学系32,33の2つのキャリア27間に望ましくない変位が生じないことを保証する。
近距離光学系32と遠距離光学系33との間の横方向距離dNFは、50mmより小さく、25mmより小さく、20mmより小さく、15mmより小さく、又は10mmより小さくすることができる。2つの距離光学系32,33間のこの距離は、特に非常に小さいため、近距離光学系32と遠距離光学系33の間の画像オフセットは、光学アセンブリ2内のデータ評価において重要でない。
遠距離光学系33のセンサ25,26への信号出力は、図9では35及び35で示されており、基本的に図8に関連して上記で説明した信号出力30,30に対応する。
遠距離光学系33は、50mから300mの距離範囲、特に80mから150mの距離範囲、例えば100mの距離範囲にある物体を検出するように設計することができる。
遠距離光学系33は、このより広い距離範囲において、より高い距離分解能を提供する。遠距離光学系33が高解像度を提供する距離範囲は、近距離光学系32が高解像度を提供する距離範囲にすぐ隣接するか、又は重複している。
遠距離光学系33の少なくとも1つの光軸と水平線に対する垂直角度は、近距離光学系32の少なくとも1つの光軸の水平線に対する対応する角度よりも小さくてもよい。
近距離光学系32及び/又は遠距離光学系33の代わりに、また一般に、カメラ光学系28及び29のタイプの固定焦点距離カメラ光学系の代わりに、焦点距離範囲で予め設定可能な焦点距離を有するズーム光学系を使用することができる。このようなズーム光学系の焦点距離は、アクチュエータによって予め設定することができる。このようなアクチュエータは、光学アセンブリ2の中央制御/調節ユニットと信号接続することができ、この中央制御/調節ユニットは、データ処理モジュールシステムと信号接続することができる。
このようなズームカメラは、異なるズーム位置に対して固有のキャリブレーションを提供できる。
このタイプのズーム光学系は、特に光学アセンブリ2のロボット用途に使用できる。
図10は、例えば図7と同様の図において、上述のカメラグループ3~8の代わりに使用可能な2つのカメラグループ7,8の例を示している。4つの単一カメラ11,12,13,R,及び11,12,13,Rも、図10の上部でそれぞれ概略的なカメラグループ7,8として、再び概略的に組み合わされている。
したがって、それぞれのカメラグループ7,8は、それぞれ4つの単一カメラを有する。カメラグループ7の第4のカメラR及びカメラグループ8のRは、追加の冗長カメラである。これは、それぞれのカメラグループ7,8のフェールセーフを確保するために使用でき、これは名目上、例えば3つの機能する単一カメラ(フェール動作状態)を必要とする。
図10は、2つのカメラグループ7,8の1つにおける個々のカメラ間の内部ベースラインBと、異なるカメラグループ7,8の選択されたカメラ間の相互ベースラインBi,jを再度示している。現在の物体の割り当てに使用されているベースラインは、太線で強調表示される。2つの冗長カメラR,Rは、このベースラインの使用例では考慮されていないため、この障害のない状態でのデータ処理には参加しない。
図11は、図1及び図4に対応するであり、車両1の光学アセンブリ2の構成要素としての6つのカメラグループ3~8の例示的な配置を示している。個々のカメラグループ3~8の各々は、既に上で説明したように、近距離をカバーすることができる。カメラグループ3~8の1つが遠距離光学系33を備えている限り、このカメラグループも個別に遠距離をカバーすることができる。2つの(特に隣接する)カメラグループ、例えばカメラグループ7と8の相互作用により、既に上で説明したように、相互ベースラインBi,jを使用して遠距離評価が可能になる。
光学ベースのカメラに加えて、光学アセンブリは、少なくとも1つのライダーセンサ(LIDARセンサ)を有してもよく、これは物体の検出及び割り当てのための追加のエラー冗長性を提供する。このようなライダーセンサを使用した測定は、光学アセンブリ2で実行される光学的物体距離測定に加えて、フォームの冗長性をもたらす。ライダー測定では、光パルスを測定して時間オフセットを測定し、光速を乗算して距離信号に変換することができる。代替的又は追加的に、送信光強度波と受信光強度波との間の位相をライダー測定で決定することができ、これは次に時間オフセットに変換され、最終的に光速を利用して距離値に変換される。
図12は、光学アセンブリ2のデータ処理モジュールシステム36の詳細を示している。図12では、例えば図11に示すように、車両1上の配置におけるカメラグループ3(前方左)、カメラグループ4(前方右)、カメラグループ5(中央右)の例を用いて、合計3つのカメラグループが示されている。
各カメラ11,...R;11,...R;11,...Rは、特に図8と図10を参照して上で説明したことに従って、デュアルカメラとして記載されている。
データ処理モジュールシステム36は、環境物体、物体特徴、又は物体シグネチャのリアルタイム画像化及びリアルタイム割り当てのために、カメラグループ3~8の単一カメラのカメラデータを処理するための少なくとも1つのデータ処理ユニットを有する。
データ処理モジュールシステム36は、ノードとも呼ばれるデータ処理グループモジュールを有し、カメラグループ3~8に割り当てられている。データ処理グループモジュール37と37は、カメラグループ3に割り当てられている。データ処理グループモジュール38,38は、カメラグループ4に割り当てられている。データ処理グループモジュール39,39は、カメラグループ5に割り当てられている。グループモジュール37,38,39は、冗長データ処理グループモジュールであり、グループモジュール37,38,39が故障した場合にのみ交換するために使用されるか、通常動作において、カメラグループ3~5の割り当てられたカメラの信号データを処理して、画像化及び割り当て精度及び/又は割り当て速度を向上させる。
データ処理グループモジュール37~39,37~39は、同じ構造を有するため、以下では、グループモジュール37の例を用いて、グループモジュールのうちの基本的に1つについて説明すれば十分である。データ処理グループモジュール37は、合計6つの信号入力40~40を有し、これらは組み合わされて多極信号入力40を形成する。信号入力40~40は、カメラグループ3のカメラ11~13の信号出力35に接続されている。信号入力40は、カメラグループ3の冗長カメラRの信号出力35に接続されている。信号入力40及び40は、カメラグループ4のデータ処理グループモジュール38の信号出力41,41と信号接続されている。
グループモジュール37の信号入力40及び40は、このグループモジュール37の対応する信号出力41,41と信号接続されている。
異なるグループモジュール間の信号接続を介して、この場合、カメラグループ4のデータ処理グループモジュール38の信号出力41,41とカメラグループ3のデータ処理グループモジュール37の信号入力40及び40を介したグループモジュール37と38の間の信号接続を介して、データ処理モジュールシステム36によって、データ処理グループモジュール37,38,...のレベルで相互ベースライン間評価を実行することができる。これから説明するデータ処理モジュールシステム36のメインモジュールの統合は、このためには必要ない。
カメラグループ5のグループモジュール39の信号出力41,41は、対応する信号接続を介して、カメラグループ4のグループモジュール38の信号入力40,40とも信号接続されている。
異なるカメラグループに割り当てられたグループモジュールの信号出力41と信号入力40の間のこの直接接続を介して、グループレベルでの高速ベースライン間計算が可能である。追加のベースライン間計算も、データ処理メインモジュール42,42のレベルで可能である。
ここで、図12に示す実施形態と同様に、2台のカメラ、例えばカメラグループ4のカメラ11,12の信号出力をカメラグループ3のグループモジュール37の信号入力にルーティングしたり、又は、より多くの又はより少ないカメラのデータをグループレベルでグループ間にて直接交換したりすることができる。グループモジュールレベルでの信号接続により、隣接するカメラグループ割り当てのリング、又はカメラグループ間のネットワークを作成することも可能である。このようなネットワーキングは、光学アセンブリ2が航空分野で使用される場合に特に有用であり得る。
追加の冗長データ処理グループモジュール37,38及び39(これらは、故障の場合にグループモジュール37,38及び39を順次置き換えることができ、あるいは画像化及び割り当ての精度を向上させるために、及び/又は画像化及び割り当て速度を向上させるために使用できる)は、グループモジュール37~39と同様に構築されている。
例えば、冗長データ処理グループモジュール37の信号入力40~40は、カメラ11,12,13及びRの信号出力35と信号接続されている。それぞれの場合、カメラ11,12,13,Rの1つは、2つの信号出力35,35を介して、1つのグループモジュール及び1つの冗長グループモジュールを供給する。あるいは、例えば、2つの信号出力35A/Bをそれぞれ備えた3台のカメラの代わりに、それぞれ1つの信号出力35を備えた6台のカメラを使用することもできる。
冗長データ処理グループモジュール37の信号入力40及び40は、隣接するカメラグループ4の冗長データ処理グループモジュール38の信号出力41,41と信号接続されている。冗長データ処理グループモジュール37の信号出力41,41は、さらに別の、図示しない冗長データ処理基本モジュールの信号入力40,40と信号接続されている。
データ処理基本モジュール37の信号出力41,41は、図示しない別のデータ処理基本モジュールの信号入力40,40と信号接続されている。
この信号相互接続により、カメラグループ3,4,5,...の1つにおけるそれぞれのカメラ11が、別のカメラグループ3,4,5,...のカメラの取得データと共に相互データ処理に使用できることが保証される。
それぞれのデータ処理グループモジュール、例えばデータ処理グループモジュール37及び冗長データ処理グループモジュール37は、それぞれ正確にカメラグループの1つ、この場合はカメラグループ3に割り当てられる。
データ処理グループモジュール37~39,...及び冗長データ処理グループモジュール37~39,...は、データ処理モジュールシステム36の第1の高速信号処理レベルを提供する。
グループモジュール37~39,...又は37~39,...のこの高速データ処理グループレベルでは、例えば点群形式の物体画像のキャプチャ及び割り当てが、リアルタイムで行われる。したがって、このグループモジュールレベルでは、どの重要な物体が存在するか、これらの物体がカメラグループからどれだけの距離にあるか、これらの物体がカメラグループに対して相対的に移動しているかどうか、移動している場合はどのような速度で移動しているかが明らかになる。
データ処理モジュールシステム36は、さらにデータ処理メインレベルを含む。後者は、すべてのカメラグループ3~5,...に割り当てられるデータ処理メインモジュール42を指している。データ処理メインモジュール42は、イーサネット信号接続であってもよい信号接続43を介して、グループモジュール37~39,...,37~39,...と信号接続されている。
カメラ11~13,Rとグループモジュール37~39,...;37~39,...との間、及びこれらのグループモジュール37~39,...;37~39,...とデータ処理メインモジュール42との間のデータ通信は、MEPI/CSIインターフェース規格に従って行うことができる。
データ処理メインモジュール42は、メインプロセッサ44とコプロセッサ45を有する。メインプロセッサ44は、コプロセッサ45によって検証及び監視される。メインプロセッサ44は、それぞれの通信インターフェース46を介して、すべてのグループモジュール37~39,...;37~39,...の結果を読み出す。メインプロセッサ44は、これらの異なるグループモジュール37~39,...の結果を比較し、及び該当する場合には、接続された冗長グループモジュール37~39の結果を比較し、特にカメラグループ3~5,...の視野の重複領域において、この方法で追加の障害セキュリティが提供されるようにする。さらに、メインプロセッサ44は、グループモジュールレベルからのデータの取得と処理の結果からの制御信号を、一方では光学アセンブリ2に転送し、他方ではそれを備えたユニット、例えば車両1に転送する。
さらに、データ処理のメインレベルには、冗長データ処理メインモジュール42も設けられており、この冗長データ処理メインモジュール42は、データ処理メインモジュール42と同様に構成されており、グループモジュール37~39,...,37~39,...と対応的に相互接続されている。冗長データ処理メインモジュール42は、例えば、データ処理メインモジュール42のコプロセッサ45が、データ処理メインモジュール42のメインプロセッサ44の結果が信頼できないと判断した場合、又はデータ処理メインモジュール42が他の理由でシャットダウンした場合に使用される。冗長データ処理メインモジュール42によるデータ処理メインモジュール42の純粋な故障交換に代わるものとして、この冗長データ処理メインモジュール42は、画像化及び割り当て精度を向上させるため、及び/又は画像化及び割り当て速度を向上させるために、通常動作でも使用することができ、それによってデータ処理メインモジュール42と並行して動作する。
上記で説明したように、特に隣接するカメラグループ3~8のカバー範囲の重複は、データ処理モジュールシステム36内で、重複する取得データの比較と、内部ベースライン及び相互ベースラインの検出の比較を可能にする。例えば、対応する4つの異なる内部ベースライン及び相互ベースラインによる1つの同じ対象物の取得についての最大4回の重複比較を、それによって実行することができ、これにより、対応するエラーの冗長性が得られる。この付加的なエラー冗長性は、エラー耐性に関して要求される認証作業の低減につながる。
特に隣接するカメラグループ3~8のカバー範囲の対応する重複領域は、最小の予想される関連物体サイズと最大の予想される関連物体サイズとの間でさらに評価することができる。これらのサイズ範囲は、光学アセンブリの用途に応じて予め定めることができる。例えば、車両に使用される場合、最小のサイズは5cmの典型的な寸法を有し、最大の物体サイズは10mの典型的な寸法を有する。
ある物体の高さ範囲内での物体の点分布の比較ができる。これは、物体が垂直方向に延びた棒状要素の形態で近似されるスティクセル(Stixel)表現で行うことができる。
異なるカメラグループ間の重複領域で取得され割り当てられた物体データの比較は、各3Dデータポイントの周りの不確実領域内で行うことができる。不確実領域のサイズは、アプリケーションに応じて指定できる。割り当てられた物体候補内、又は取得及び割り当ての結果得られた対応する点群内の隣接するデータ点の最小数も、アプリケーションに応じて指定できる。カバレッジが重複する異なるカメラグループのベースライン内の重複(相互/内部)、又はカメラグループ内の相互ベースライン検出と、重複するカバレッジ内の、このカメラグループと隣接するカメラグループ間の内部ベースライン検出との比較もまた読み出すことができる。このような重複比較中に物体候補の検証が行われない限り、その物体は破棄されるか、保守的で安全なアプローチの意味で既存の物体と見なされる。あるカバレッジ(範囲内)で候補値がまったく検出されない場合、つまり、カメラ範囲内に異常に物体がないことが判明した場合、この異常に物体のない領域は、安全アプローチの意味で障害物と解釈することができる。
データ処理メインモジュール42では、隣接するカメラグループのデータ処理グループモジュール37~39の検出と割り当ての後に得られるいくつか、例えば2つ、3つ又は4つの点群を互いにチェックすることができる。この結果、さらに機能的に冗長な段階(ステージ)が生じる。
別の形式冗長ステージが、グループモジュールのレベル又はメインモジュールのレベルにおいて、2つの異なる動作をするプロセッサから生じる。
図13は、グループモジュールのレベルまでの、及びそれを含む代替データ処理モジュールシステム48を示している。したがって、図12に従って構成されるメインモジュールレベルは、ここでは省略されている。
図13によるデータ処理モジュールシステム48では、カメラグループ8(中央左、図11参照)、3(前方左)、及び4(前方右)が例として示されている。カメラグループ8に割り当てられているグループモジュールは、図13では37’,37’とラベル付けされており、カメラグループ3のグループモジュール37及び37に対応している。
図13による実施形態では、互いに対向するカメラグループ3及び4のデュアルカメラR及び11が、図9を参照して上記で説明したハイブリッドカメラに対応するハイブリッドカメラR ,11 に置き換えられる。
追加のハイブリッドデータ処理グループモジュール、すなわちハイブリッドグループモジュール49及び冗長ハイブリッドグループモジュール49は、その構造が図12に関連して上記したデータ処理グループモジュールに原理的に対応しており、これらのハイブリッドカメラR ,11 の遠距離光学系33の信号出力35,35を処理するために使用される。ハイブリッドグループモジュール49の信号入力40は、ハイブリッドカメラR の遠距離光学系33の信号出力35と信号接続されている。信号入力40は、ハイブリッドカメラ11 の遠距離光学系の信号出力35と信号接続されている。ハイブリッドグループモジュール49の信号入力40は、カメラグループ4のグループモジュール38の信号出力41と信号接続されている。ハイブリッドグループモジュール49の信号出力41は、カメラグループ3のグループモジュール37の信号入力40と信号接続されている。ハイブリッドグループモジュール49の信号出力41は、カメラグループ3のグループモジュール37の信号入力40と信号接続されている。
冗長ハイブリッドグループモジュール49の配線は対応するものであるが、図13には明示されていない。
ハイブリッドグループモジュール49のこの信号相互接続は、上記で説明したように、ベースライン間及びベースライン内のカメラペアの取得及び評価のために、カメラグループ3及び4のハイブリッドカメラR 及び11 の対応する統合をもたらす。この場合、遠距離光学系33の取得データが追加的に考慮、比較され、フェールセーフ性を高めるために使用される。
図13による実施形態では、1台の冗長カメラ、すなわちカメラR がハイブリッドカメラとして構成される。もちろん、これは、他のカメラの1台が故障した場合だけでなく、その冗長カメラが実際にデータの取得と評価に永続的に使用される場合にのみ意味がある。冗長カメラの代わりに、通常動作カメラ、例えばカメラグループ3のカメラ11~13のうちの1台をハイブリッドカメラとして構成することもできる。
1 車両
1a 車輪
2 光学アセンブリ
3、4、5、6、7、8 カメラグループ
9 データ処理ユニット
10 グループ取付体
11、12、13 カメラ
14、15 保持レセプタクル
16 非正三角形
17 車両
18 画像取得方向
19 方向平均値
21 信号線
25 RGBセンサ
26 IRセンサ
27 キャリア
28、29 カメラ光学系
30 信号出力
31 IR光源
32 近距離光学系
33 遠距離光学系
34 剛性接続部品
35 信号出力
36 データ処理モジュールシステム
37、38、39、49 データ処理グループモジュール
40 多極信号入力
42 データ処理メインモジュール
43 信号接続
44 メインプロセッサ
45 コプロセッサ
46 通信インターフェース
48 データ処理モジュールシステム
AE カメラ配置面
B ベースライン
EPZ 入射瞳中心
xy 車両起立面
α カメラ角度
β 総画像取得角度
γ グループカメラ角度
δ 角度

Claims (15)

  1. 環境物体のリアルタイム画像及びリアルタイム割り当てを生成するための光学アセンブリ(2)であって、
    複数のカメラグループ(3~8)を有し、前記カメラグループ(3~8)はそれぞれ、カメラ信号接続を介して相互接続された少なくとも2台のカメラ(11~13)を有し、前記カメラ(11~13)の入射瞳中心(EPZ)が、前記カメラ(11~13)が配置されるカメラ配置面(AE)を画定し、
    前記カメラグループ(3~8)は、グループ信号接続(21)を介して順に相互接続され、
    前記カメラグループ(3~8)の1つにおける前記カメラ(11~13)の隣接する画像取得方向(18)は、互いに対して5°~25°の範囲にある個別のカメラ角度(α)を想定し、
    前記カメラグループ(3~8)の1つにおける前記カメラ(11~13)の前記画像取得方向(18)の方向平均値(19)が、隣接するカメラグループ(3~8)における前記カメラ(11~13)の前記画像取得方向(18)の方向平均値(19)に対して、30°~100°の範囲にあるグループカメラ角度(γ)を想定している、光学アセンブリ(2)。
  2. 個々の入射瞳中心(EPZ)が非正三角形の角に位置する、前記カメラグループ(3~8)の1つにおける3台のカメラ(11~13)を備えることを特徴とする、請求項1に記載の光学アセンブリ。
  3. 1つのカメラグループ(3~8)における2台のカメラ(11,12;11,13;12,13)の入射瞳中心(EPZ)間の接続線(ベースライン,B)の長さが、5cm~30cmの範囲であることを特徴とする、請求項1又は2に記載の光学アセンブリ。
  4. 異なるカメラグループ(3~8)のカメラ(11~13,11~13)間のベースライン(Bi,j)の長さが、0.5m~3mの範囲であることを特徴とする、請求項1乃至3のいずれか一項に記載の光学アセンブリ。
  5. 少なくとも3つのカメラグループ(3~8)を備えることを特徴とする、請求項1乃至4のいずれか一項に記載の光学アセンブリ。
  6. 少なくとも6つのカメラグループ(3~8)を備えることを特徴とする、請求項5に記載の光学アセンブリ。
  7. カメラグループ(3~8)の前記カメラ(11~13)を取り付けるためのグループ取付体(10)を備え、
    前記グループ取付体(10)は、前記カメラグループ(3~8)の前記カメラ(11~13)を互いに固定された相対位置及び向きで支持するように構成されていることを特徴とする、請求項1乃至6のいずれか一項に記載の光学アセンブリ。
  8. 前記グループ取付体(10)は、追加のカメラを取付けるための用意された保持レセプタクル(14,15)を有し、前記カメラグループ(3~8)は、取付けるカメラを少なくとも1台追加して拡張できることを特徴とする、請求項7に記載の光学アセンブリ。
  9. 環境物体のリアルタイム画像及びリアルタイム割り当てを生成するための光学アセンブリ(2)であって、
    カメラ信号接続を介して互いにリンクされ、魚眼カメラとして設計された複数のカメラ(11~13)を有する、光学アセンブリ。
  10. 前記カメラ(11~13)の少なくとも1台が、RGBセンサ(25)及びIRセンサ(26)を備えたデュアルカメラとして設計されていることを特徴とする、請求項1乃至9のいずれか一項に記載の光学アセンブリ。
  11. 前記カメラ(11~13)の少なくとも1台が、近距離光学系(32)及び遠距離光学系(33)を備えたハイブリッドカメラとして設計されていることを特徴とする、
    請求項1乃至10のいずれか一項に記載の光学アセンブリ。
  12. 環境物体のリアルタイム画像化及びリアルタイム割り当てのために前記カメラデータを処理するための少なくとも1つのデータ処理ユニットを含むデータ処理モジュールシステム(36;48)を備え、
    前記データ処理モジュールシステム(36;48)は、前記カメラグループ(3~8)の1つに正確に割り当てられ、それのデータを処理する少なくとも1つのデータ処理グループモジュール(37,38,39,...;37,38,39,...;37’,37,49,38,...;37’,37,49,38,...)を備え、それぞれの場合に、全ての前記カメラグループ(3~8)に割り当てられる少なくとも1つのデータ処理メインモジュール(42;42)を有することを特徴とする、請求項1乃至11のいずれか一項に記載の光学アセンブリ。
  13. - 前記カメラグループ(3~8)の1つにおける一部として少なくとも1台の追加の冗長カメラ(R;R )、及び/又は
    - 少なくとも1つの冗長データ処理グループモジュール(37,38,39,...;49)、及び/又は
    - 少なくとも1つの冗長データ処理メインモジュール(42)を備えることを特徴とする、請求項1乃至11のいずれか一項に記載の光学アセンブリ。
  14. 請求項1乃至13のいずれか一項に記載の光学アセンブリ(2)を備える車両(1;17)であって、前記車両(1;17)が停止しているときに、車両起立面(xy)を画定する地上側シャーシ部品(1a)を有するシャーシを備える車両(1;17)において、
    前記光学アセンブリ(2)の前記カメラグループ(3~8)が、前記車両起立面(xy)から少なくとも50cmの距離に取り付けられていることを特徴とする、車両(1;17)。
  15. カメラグループ(3~8)における前記カメラ(11~13)間の前記ベースライン(B)は、前記車両起立面(xy)に対して10°~80°の範囲の角度で延びることを特徴とする、請求項14に記載の車両。
JP2023551186A 2021-02-23 2022-02-22 環境物体のリアルタイム画像及びリアルタイム割り当てを生成するための光学アセンブリ、及びそのようなアセンブリを備える車両 Pending JP2024509777A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102021201678.2A DE102021201678A1 (de) 2021-02-23 2021-02-23 Optische Baugruppe zur Erzeugung einer Echtzeit-Abbildung und einer Echtzeit-Zuordnung von Umgebungs-Objekten sowie Fahrzeug mit einer derartigen Baugruppe
DE102021201678.2 2021-02-23
PCT/EP2022/054305 WO2022179998A1 (de) 2021-02-23 2022-02-22 Optische baugruppe zur erzeugung einer echtzeit-abbildung und einer echtzeit-zuordnung von umgebungs-objekten sowie fahrzeug mit einer derartigen baugruppe

Publications (1)

Publication Number Publication Date
JP2024509777A true JP2024509777A (ja) 2024-03-05

Family

ID=80685168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023551186A Pending JP2024509777A (ja) 2021-02-23 2022-02-22 環境物体のリアルタイム画像及びリアルタイム割り当てを生成するための光学アセンブリ、及びそのようなアセンブリを備える車両

Country Status (6)

Country Link
US (1) US20240147084A1 (ja)
EP (1) EP4298780A1 (ja)
JP (1) JP2024509777A (ja)
CN (1) CN116888972A (ja)
DE (1) DE102021201678A1 (ja)
WO (1) WO2022179998A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011080702B3 (de) 2011-08-09 2012-12-13 3Vi Gmbh Objekterfassungsvorrichtung für ein Fahrzeug, Fahrzeug mit einer derartigen Objekterfassungsvorrichtung
US20160301863A1 (en) 2015-04-10 2016-10-13 Caterpillar Inc. Image processing system for generating a surround-view image
DE102017115810A1 (de) 2017-07-13 2019-01-17 Valeo Schalter Und Sensoren Gmbh Autonomes Parken eines Fahrzeugs basierend auf einem befahrbaren Bereich
KR102372808B1 (ko) * 2017-09-11 2022-03-15 삼성전자주식회사 복수의 카메라를 통해 수신되는 이미지를 처리하기 위한 장치 및 방법
US10805535B2 (en) * 2018-05-25 2020-10-13 Aquifi, Inc. Systems and methods for multi-camera placement
DE102018132676A1 (de) 2018-12-18 2020-06-18 Valeo Schalter Und Sensoren Gmbh Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung

Also Published As

Publication number Publication date
EP4298780A1 (de) 2024-01-03
US20240147084A1 (en) 2024-05-02
DE102021201678A1 (de) 2022-08-25
CN116888972A (zh) 2023-10-13
WO2022179998A1 (de) 2022-09-01

Similar Documents

Publication Publication Date Title
US20150042765A1 (en) 3D Camera and Method of Detecting Three-Dimensional Image Data
JP2018077190A (ja) 撮像装置及び自動制御システム
US20200057149A1 (en) Optical sensor and electronic device
US20080225420A1 (en) Multiple Aperture Optical System
CN108924543B (zh) 用于车载相机的光学测试系统及测试方法
EP3462731A1 (en) Imaging device, imaging system, and moving body
US20220080902A1 (en) Vehicle-mounted camera
US20230387155A1 (en) Imaging apparatus
US11985396B2 (en) System, information processing device, information processing method, and program
US20230020142A1 (en) Situational awareness system for an autonomous or semi-autonomous vehicle
JP2024509777A (ja) 環境物体のリアルタイム画像及びリアルタイム割り当てを生成するための光学アセンブリ、及びそのようなアセンブリを備える車両
WO2021181734A1 (en) Solid-state image capturing element and electronic device
JP2018137646A (ja) 撮像装置、撮像システム、および、移動体
US20240193908A1 (en) Information processing apparatus and information processing method
US20220208810A1 (en) Photoelectric conversion apparatus, photoelectric conversion system, moving body, and semiconductor substrate
WO2023105905A1 (ja) 半導体装置、光電変換装置、光電変換システム、および、移動体
WO2022107405A1 (ja) 3次元画像処理装置
JP2020071487A (ja) カメラ装置、運転支援システムおよび車両
WO2022059515A1 (ja) 固体撮像装置及び認識システム
JP7277429B2 (ja) 光電変換装置、光電変換システム、移動体、半導体基板
WO2022091795A1 (ja) 固体撮像装置及び電子機器
WO2022059525A1 (ja) 固体撮像装置及び認識システム
WO2016201604A1 (zh) 成像装置
US10911702B2 (en) Imaging device and imaging apparatus
WO2024135083A1 (en) Light detecting device and processing device