JP6862465B2 - センサによる間接計測によって自動車の周囲の少なくとも1つの物体の検出を向上させる方法、コントローラ、運転者支援システム、及び自動車 - Google Patents

センサによる間接計測によって自動車の周囲の少なくとも1つの物体の検出を向上させる方法、コントローラ、運転者支援システム、及び自動車 Download PDF

Info

Publication number
JP6862465B2
JP6862465B2 JP2018548755A JP2018548755A JP6862465B2 JP 6862465 B2 JP6862465 B2 JP 6862465B2 JP 2018548755 A JP2018548755 A JP 2018548755A JP 2018548755 A JP2018548755 A JP 2018548755A JP 6862465 B2 JP6862465 B2 JP 6862465B2
Authority
JP
Japan
Prior art keywords
feature
sensor
features
ellipse
fuzzy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018548755A
Other languages
English (en)
Other versions
JP2019512699A (ja
JP2019512699A5 (ja
Inventor
ティノ、ミルシュースキー
ジャン−フランソワ、バリアント
Original Assignee
ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102016105023.7A external-priority patent/DE102016105023A1/de
Priority claimed from DE102016105022.9A external-priority patent/DE102016105022A1/de
Application filed by ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー filed Critical ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー
Publication of JP2019512699A publication Critical patent/JP2019512699A/ja
Publication of JP2019512699A5 publication Critical patent/JP2019512699A5/ja
Application granted granted Critical
Publication of JP6862465B2 publication Critical patent/JP6862465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • G01S15/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector wherein transceivers are operated, either sequentially or simultaneously, both in bi-static and in mono-static mode, e.g. cross-echo mode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • G01S2015/465Indirect determination of position data by Trilateration, i.e. two transducers determine separately the distance to a target, whereby with the knowledge of the baseline length, i.e. the distance between the transducers, the position data of the target is determined
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • G01S2015/938Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details in the bumper area

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、自動車の周囲の少なくとも1つの物体を検出する方法に関し、当該方法では第1のセンサが作動してセンサ信号を発信し、少なくとも1つの物体から反射されたセンサ信号を表すセンサデータを第2のセンサから受信し、センサデータ中のファジィフィーチャを物体(オブジェクト)フィーチャと判定し、当該ファジィフィーチャは、少なくとも1つの物体と第1のセンサとの間の距離と、少なくとも1つの物体と第2のセンサとの間の距離とを表す。さらに、本発明は、自動車に供されるコントローラ及び運転者支援システムに関する。最後に、本発明は自動車に関する。
自動車の周囲の物体を検出することができるものを使用する種々の方法が、先行技術から知られている。例えば、超音波センサ、レーダセンサ、レーザセンサ、またはカメラなどの対応するセンサを利用して、物体を認識することができる。さらに、センサのセンサ信号に基づいて、自動車と物体との間の距離、及び/または自動車と物体との間の相対距離を求めることが知られている。
特に超音波センサによれば、間接計測を利用して物体を特定することができることが知られている。この目的で、第1の超音波センサが超音波信号を発信する。この超音波信号は物体で反射され、第2の超音波センサによって受信される。第1のセンサによる超音波信号の発信と物体から反射された超音波信号の第2のセンサによる受信との間の経過時間に基づいて、物体から第1のセンサ及び第2のセンサまでの距離を求めることができる。例えば、簡略化のために、2つのセンサの間、または2つのセンサ位置の間の中央に中心点が配置された円の上に物体が位置すると仮定し得る。ただし、このような間接計測からは、物体に対する角度情報項目を得ることができない。
また、先行技術から、複数のセンサ、または異なるセンサの結果を融合させることによって、より高い信頼性で物体を検出することができることが知られている。このためには、例えば、それぞれのセンサによって供給されるセンサデータから、各場合において物体を表す物体フィーチャが特定されることが条件となり得る。このような物体フィーチャは、例えば、物体または物体の一部を表す点フィーチャまたは線フィーチャからなり得る。物体フィーチャに対して、空間不確定性または曖昧さを求めることもできる。自動車の周囲を表すデジタル周囲マップ内に物体フィーチャを取り入れることもできる。物体フィーチャマージして種々のセンサの計測値を融合させることができる。
本発明の目的は、自動車のセンサによって間接計測する場合に、自動車の周囲の物体の検出をいかに向上させ得るかに関する解決策を開示することである。
本目的、本発明に従い、各独立請求項に係る特徴を有する方法によって、コントローラによって、運転者支援システムによって、また自動車によって達成される
自動車の周囲の少なくとも1つの物体を検出する方法の一態様において、好ましくは、第1のセンサが作動してセンサ信号を発信する。さらに、前記少なくとも1つの物体から反射された前記センサ信号を表すセンサデータを特に第2のセンサから受信する。さらに、好ましくは、前記少なくとも1つの物体を表す物体(オブジェクト)フィーチャとしてのファジィフィーチャを前記センサデータから特定し、前記ファジィフィーチャが、前記少なくとも1つの物体と前記第1のセンサとの間の距離と、前記少なくとも1つの物体と前記第2のセンサとの間の距離とを表すものとする。特に、前記ファジィフィーチャを楕円として表す。さらに、特に、前記第1のセンサ及び/または前記第2のセンサの少なくとも1つの他の計測のセンサデータに基づいて、前記少なくとも1つの物体を表す他の物体フィーチャを特定する。特に、イノベーション関数を用いて前記他の物体フィーチャ及び前記ファジィフィーチャを共通の状態空間内に移す。ここで前記イノベーション関数が前記ファジィフィーチャと前記他の物体フィーチャとの間の類似性を表す。さらに、好ましくは、前記イノベーション関数に基づいて、前記他の物体フィーチャからマージされた物体フィーチャを特定する。
本発明に係る方法は、自動車の周囲の少なくとも1つの物体を検出するように作用する。本方法において、第1のセンサが作動してセンサ信号を発信する。さらに、前記少なくとも1つの物体から反射された前記センサ信号を表すセンサデータを第2のセンサから受信する。前記少なくとも1つの物体を表す物体フィーチャとしてのファジィフィーチャを前記センサデータから特定し、前記ファジィフィーチャが、前記少なくとも1つの物体と前記第1のセンサとの間の距離と、前記少なくとも1つの物体と前記第2のセンサとの間の距離とを表す。この場合に、前記ファジィフィーチャを楕円として表す。さらに、前記第1のセンサ及び/または前記第2のセンサの少なくとも1つの他の計測のセンサデータに基づいて、前記少なくとも1つの物体を表す他の物体フィーチャを特定する。イノベーション関数を用いて前記他の物体フィーチャ及び前記ファジィフィーチャを共通の状態空間内に移し、前記イノベーション関数が前記ファジィフィーチャと前記他の物体フィーチャとの間の類似性を表す。最後に、前記イノベーション関数に基づいて、前記他の物体フィーチャからマージされた物体フィーチャを特定する。
本方法を利用して、前記自動車の前記周囲の1つ以上の物体を検出及び/または認識する。例えば、前記自動車のコントローラまたは電子制御ユニットを使用して、本方法を実行し得る。前記コントローラを用い、前記自動車の第1のセンサを作動させて、前記第1のセンサが作動の結果としてセンサ信号を発信するようにすることが可能である。発信されたセンサ信号は、次いで前記少なくとも1つの物体に入射し、前記少なくとも1つの物体から反射される。反射された前記センサ信号、または前記センサ信号のエコーは、次いで前記第2のセンサによって受信される。前記第1のセンサ及び前記第2のセンサは超音波センサとすることができる。前記第2のセンサが反射された超音波信号を受信すると、前記第2のセンサは前記コントローラに送信されるセンサデータを供給する。これらのセンサデータは、例えば、反射された前記センサ信号を表す複数のセンサ値及び/または計測値を含み得る。前記第1のセンサによる前記センサ信号の発信と、前記第2のセンサによる反射された前記センサ信号の受信との間の経過時間に基づき、前記コントローラを使用して経過時間を求めることが可能である。この経過時間に基づいて、前記物体が前記第1のセンサ及び前記第2のセンサからどの程度離れているかを確認することができる。さらに、前記コントローラを利用して、前記物体を表すように作用するファジィフィーチャすなわちファジィな物体フィーチャを特定するものとする。
このようなファジィフィーチャは、前記物体を表す(記述する)物体フィーチャを表現する。前記ファジィフィーチャによって、例えば、前記センサデータ、または前記センサ信号の前記経過時間に基づいて、前記物体に関する距離情報項目のみを得ることができるようになる。前記ファジィフィーチャは、前記第1のセンサと前記物体との間の距離と、前記第2のセンサと前記物体との間の距離とを表す。前記物体に関する角度情報項目を前記センサデータから得ることはできない。したがって、前記センサと前記物体との相対位置を正確に求めることはできない。前記ファジィフィーチャを、例えば、前記自動車の前記周囲を表すデジタル周囲マップに取り入れることは可能である。この場合に、前記ファジィフィーチャを、空間不確定性または曖昧さ(ファジィ性)を伴い前記周囲マップに取り入れることも可能である。他の物体フィーチャをこの周囲マップに取り入れることも可能である。これらの物体フィーチャは、例えば、前記自動車の他のセンサによる計測から特定されたものであり得る。前記他の物体フィーチャが前記第1のセンサ及び/または前記第2のセンサによって既に特定されたものであるとすることも可能である。
本発明によれば、前記ファジィフィーチャを楕円として表すものとする。さらに、前記第1のセンサ及び/または前記第2のセンサの少なくとも1つの他の計測のセンサデータに基づいて前記少なくとも1つの物体を表す他の物体フィーチャを特定し、前記ファジィフィーチャを当該物体フィーチャマージする。このような物体フィーチャは、例えば、空間における前記物体または前記物体の一部の位置を表す点すなわちフィーチャとすることができる。前記物体フィーチャは、前記物体または前記物体の一部の境界を表す線すなわちフィーチャとすることができる。前記周囲の前記物体をより詳細に特徴付けることができるように、このような物体フィーチャを前記ファジィフィーチャすなわち前記楕円とマージする。さらに、イノベーション関数を用いて前記他の物体フィーチャ及び前記ファジィフィーチャを共通の状態空間に移し、前記イノベーション関数が前記物体フィーチャと前記ファジィフィーチャとの間の類似性を表し、イノベーション関数に基づいて、前記物体フィーチャから、前記マージされた物体フィーチャを特定する。前記他の物体フィーチャ及び前記ファジィフィーチャを、共通の状態空間に移し、及び/または変換し得る。この状態空間は、例えば、前記他の物体フィーチャと前記ファジィな物体フィーチャとに対する共通の座標系を表現し得る。特に、前記状態空間は前記周囲マップと異なる。前記状態空間において、前記他の物体フィーチャの状態と前記ファジィフィーチャの状態とを表し得る。前記他の物体フィーチャと前記ファジィフィーチャとの間の類似性を特定する類似度を表現し得る前記イノベーション関数を、この状態空間において決定することも可能である。特に、前記イノベーション関数は、前記他の物体フィーチャの前記状態がいかに前記ファジィフィーチャの前記状態に類似するかを表し得る。前記イノベーション関数を利用して、前記他の物体フィーチャと前記ファジィフィーチャとのそれぞれの前記状態を、前記類似性の特定の対象でもある前記状態及び/またはディメンションのみを考慮するように表現することが可能である。例えば、前記イノベーション関数は、前記他の物体フィーチャと前記ファジィフィーチャとの間の距離、または前記他の物体フィーチャと前記ファジィフィーチャとの方向に関する差を表し得る。まず、前記イノベーション関数に基づいて、前記ファジィフィーチャが前記他の物体フィーチャに関連し得るか否かを判定することが可能である。関連性が生じる場合に、前記マージされた物体フィーチャを前記他の物体フィーチャから得る目的で、前記イノベーション関数を用いることが可能である。したがって、一方では前記第1のセンサ及び/または前記第2のセンサにより実行される少なくとも1つの直接計測によって、他方では前記第1のセンサ及び前記第2のセンサにより実行される間接計測によって、前記物体を検出することが可能である。例えば、まず複数の直接計測及び/または間接計測に基づいて前記物体を特定し、デジタル周囲マップに取り入れる。その後、このような物体を間接計測と融合することによって良化することが可能である。前記イノベーション関数によって計測の結果を統合することが可能であり、これにより前記物体の認識を向上させることが可能である。
好ましくは、前記楕円の焦点を前記第1のセンサ及び前記第2のセンサの位置に基づいて決定し、前記センサ信号の経過時間に基づいて前記楕円の長半径の長さを決定し、前記焦点と前記長半径の前記長さとに基づいて前記楕円の短半径の長さを決定する。前記第1のセンサ及び前記第2のセンサの前記位置または設置位置は既知である。前記位置すなわち設置位置は、例えば、前記コントローラのメモリに記憶され得る。前記第1のセンサ及び前記第2のセンサのそれぞれの前記位置が前記楕円の2つの前記焦点に関連付けられるように、前楕円を決定する。さらに、前記センサ信号の前記経過時間に基づいて前記楕円の前記長半径の前記長さを決定する。この目的で、前記センサ信号が反射された前記物体は前記楕円上に位置するものとする。前記センサ信号の前記経過時間は、第1の焦点から前記楕円上の前記物体を表す点までの経路に、当該点から第2の焦点までの経路を加えたものを表す。したがって、前記経過時間に関連付けられ得る経路は、前記楕円の前記短半径または前記長半径の2倍に相当する。前記焦点の前記位置と前記短半径の前記長さとから、前記短半径の前記長さを導出することが可能である。したがって、前記センサの既知の位置と前記センサ信号から求まる前記経過時間とに基づいて、前記楕円を容易に確定することができる。前記ファジィフィーチャは、前記間接計測の場合に、前記センサを使用して円としてではなく楕円として表されるため、前記物体の前記位置に関するより正確な情報項目を与えることができる。これにより、全体として、前記少なくとも1つの物体の、より正確でより信頼性の高い検出が可能になる。
好ましくは、前記焦点の距離と前記短半径の前記長さとに基づいて前記楕円の離心率を決定し、前記長半径の前記長さと前記離心率とから前記短半径の前記長さを決定する。2つの前記センサのそれぞれの前記位置すなわち設置位置は既知であるため、前記第1のセンサと前記第2のセンサとの間の距離を決定することも可能である。この距離の半分は前記楕円の離心率とも称する。次いで、この離心率と前記楕円の前記長半径の前記長さとから、前記楕円の前記短半径の前記長さを決定することが可能である。前記楕円の前記短半径の前記長さは、前記長半径の前記長さの2乗から前記離心率の2乗を引いたものの平方根から得られる。したがって、前記ファジィフィーチャを表す、前記楕円の前記短半径の前記長さを、容易に、かつ短い計算時間の範囲で決定することが可能である。
他の態様において、前記他の物体フィーチャを特定して、前記自動車の前記周囲を表すデジタル周囲マップに取り入れ、次いで、前記ファジィフィーチャを特定して前記デジタル周囲マップに取り入れる。前記物体フィーチャが既に前記周囲マップに取り込まれている場合もありうる。それに続いて、次に前記ファジィフィーチャを特定してもよい。まず、前記物体フィーチャ及び前記ファジィフィーチャが前記周囲の同じ物体を表すか否かを確認し得る。したがって、前記ファジィフィーチャと前記物体フィーチャとを互いに融合することが可能であるか否かを確認し得る。そうである場合には、まず関連付けが行われるとともに、これに基づき前記ファジィフィーチャと前記他の物体フィーチャとの融合すなわちマージが妥当であるか否かを確認する。このマージ時に、前記物体フィーチャから移行した、マージまたは更新された物体フィーチャを特定し得る。前記ファジィな物体フィーチャに基づいて、このマージされた物体フィーチャを特定する。したがって、前記物体をより高い信頼性で検出することができる。
一態様において、前記他の物体フィーチャから、前記マージされた物体フィーチャを特定するために、前記イノベーション関数と前記イノベーション関数に対する増幅因数とを含む線形マッピングルールであって、前記増幅因数が前記他の物体フィーチャの空間不確定性と前記ファジィフィーチャの空間不確定性とに依存する線形マッピングルールを決定する。前記マージされた物体フィーチャを特定するために、前記線形マッピングルールを確定する。このマッピングルールはフィルタとも称される。原理的に、前記マッピングルールをカルマンフィルタのように定義し得る。前記マッピングルールは、前記イノベーション関数と、前記イノベーション関数を乗算する前記増幅因数とを含み得る。前記増幅因数はカルマン増幅度とも称される。前記増幅因数を、前記他の物体フィーチャ及び前記ファジィフィーチャのそれぞれの空間不確定性の関数として求め得る。前記空間不確定性を、それぞれの状態またはフィーチャの共分散または共分散行列を利用して求め得る。したがって、前記空間不確定性を考慮して、前記マージされた物体フィーチャを特定することができる。
さらに、前記マージされた物体フィーチャの空間不確定性が最小となるように前記増幅因数を決定すれば、有利である。前記マージされた物体フィーチャを極力信頼性が高くなるように決定することを可能とするために、前記マージされた物体フィーチャの前記空間不確定性が極力小さくなるように、前記増幅因数を決定し得る。したがって、前記マージされた物体フィーチャの前記共分散行列が最小となるように、前記増幅因数を最小にし得る。例えば、前記共分散行列の固有値を最小にすることで、前記共分散行列を最小にし得る。この場合に、任意の単位ベクトルを用いて前記共分散行列を変換し得るとともに、次いで、このスカラー射影を最小にし得る。したがって、前記増幅因数を信頼性高く決定することができる。
前記イノベーション関数に基づいて限界を決定し、前記イノベーション関数が前記限界を超える場合に、前記マージされた物体フィーチャの決定に際して前記ファジィフィーチャを考慮しないままにするものとすることも可能である。前記イノベーション関数を用いて、前記ファジィフィーチャと前記物体フィーチャとをマージすべきか否かを決定し得る。特に、前記イノベーション関数の期待値、及び/または前記イノベーション関数の共分散を求め得る。これから、マハラノビス距離とも称される限界を導出し得る。イノベーション関数のマハラノビス距離がこの限界より小さければ、前記マージされた物体フィーチャを特定することができる。イノベーションは、この場合にイノベーション関数の出力を表す。イノベーションがこの限界より大きい場合には、前記ファジィフィーチャを考慮することができない。
好ましくは、前記他の物体フィーチャとして点フィーチャまたは線フィーチャを特定する。このような点フィーチャは、例えば、経時的に複数の時系列に連続する点において、または複数の時系列的に連続する計測において、前記第1のセンサ及び/または前記第2のセンサにより前記物体を検出することで特定され得る。例えば、前記物体に対する前記第1のセンサ及び/または前記第2のセンサ間の相対位置は、三角測量を利用して特定され得る。前記他の物体フィーチャはまた、物体または物体の一部の境界を表す線または線フィーチャからなり得る。例えば、自動車が前記物体を通過するとともに前記自動車が通過しながら継続して計測を実行する場合に、このような線フィーチャが取得される。次いで、前記物体までの距離を表すそれぞれの計測値またはセンサデータを結合して線フィーチャを形成し得る。前記線フィーチャを取得するために、複数の計測値を求め、前記計測値を亘る線を配置するものとし得る。
さらに、前記イノベーション関数を決定するために、前記ファジィフィーチャと前記点フィーチャとの間の距離と、前記ファジィフィーチャと前記線フィーチャとの間の距離とを表す計測モデルを決定すると、有利である。前記計測モデルは、特に計測空間をマップし得る。前記他の物体フィーチャが前記点フィーチャである場合に、特に、生成される楕円を決定して、前記点フィーチャが前記楕円上に存在するように前記計測モデルを決定する。したがって、計測楕円とも称し得る、生成される楕円を決定して、前記計測モデルを決定する。前記生成される楕円は、前記ファジィフィーチャ及び/または前記計測を表す楕円に基づいて決定される。この場合に、前記生成される楕円及び前記楕円は、好ましくは同じ焦点を有する。前記生成される楕円を、前記点フィーチャが前記生成される楕円上に存在するように決定する。したがって、この楕円を用いて前記点フィーチャを前記物体として計測する場合に、ファジィフィーチャが楕円の形態でどのように現れなければならないかを確認する。前記楕円及び前記生成される楕円は同じ焦点を有するため、前記イノベーションは、前記長半径の長さどうしの差を表す。前記計測モデルは、前記第1のセンサの位置から前記点フィーチャを介して前記第2のセンサの位置へ至る経路の半分を表す。この経路の半分は、長半径に相当する。これにより、前記物体フィーチャが前記点フィーチャである場合についての前記計測モデルの容易な決定が可能になる。
前記他の物体フィーチャが前記線フィーチャである場合には、特に、生成される楕円を決定して、前記線フィーチャが前記生成される楕円に接して延在するような前記計測モデルを決定する。原理的には、前記生成される楕円を決定して、前記生成される楕円が前記線フィーチャと交差するように前記計測モデルを決定し得る。ただし、それから2つの交点が得られる場合には、一意の解を求めることができない。したがって、前記線フィーチャに対して単一の交点のみを有するように、前記生成される楕円を決定する。このことは、前記線フィーチャが前記生成される楕円に接して延在する場合に当てはまる。したがって、前記物体フィーチャが前記線フィーチャである場合には、前記計測モデルを容易に決定することもできる。
好ましくは、前記楕円の前記長半径の前記長さと前記計測モデルとの差に基づいて、前記イノベーション関数の出力を表すイノベーションを決定し得る。既述のように、前記計測モデルは、前記生成される楕円の前記長半径の前記長さを表す。これを、ファジィフィーチャとして特定された前記楕円の前記長半径の前記長さと比較し得る。したがって、前記ファジィフィーチャとしての前記楕円、または計測された前記楕円が前記生成される楕円とどのように異なるかを特定することができる。したがって、前記ファジィフィーチャまたは前記楕円と、前記物体フィーチャ、前記点フィーチャ、または前記線フィーチャとの間の類似性を、容易に特定することができる。
自動車の運転者支援システムに供される、本発明に係るコントローラは、本発明に係る方法を実行するように設計されている。前記コントローラは、コンピュータ、マイクロプロセッサ、デジタル信号プロセッサなどを備え得る。前記コントローラは、好ましくは、前記自動車の電子制御ユニットによって形成されている。
自動車に供される、本発明に係る運転者支援システムは、本発明に係るコントローラと、さらに、特に超音波センサからなる第1のセンサ及び第2のセンサとを備える。前記コントローラは、データ伝送のために前記第1のセンサ及び前記第2のセンサに接続されている。前記第1のセンサは、この場合に前記センサ信号を発信する送信機として作用する。前記第2のセンサは、前記少なくとも1つの物体から反射された前記センサ信号を受信する受信機として作用する。前記運転者支援システムが、超音波センサ、カメラ、レーダセンサ、ライダーセンサ、レーザスキャナなどからなり得る他のセンサを有するものとすることも可能である。
他の態様は、自動車の周囲の少なくとも1つの物体を検出する方法に関する。この場合に、好ましくは、第1のセンサが作動してセンサ信号を発信する。さらに、特に、前記少なくとも1つの物体から反射された前記センサ信号を表すセンサデータを、第2のセンサによって受信する。さらに、好ましくは、前記センサデータから、前記少なくとも1つの物体を表す物体フィーチャとしてファジィフィーチャを特定し、前記ファジィフィーチャは、前記少なくとも1つの物体と、前記第1のセンサの位置及び/または前記第2のセンサの位置との間の距離を表すものとする。特に、前記ファジィフィーチャを楕円として表し、前記第1のセンサの位置及び前記第2のセンサの位置に基づいて前記楕円の焦点を決定する。さらに、好ましくは、前記センサ信号の経過時間に基づいて前記楕円の長半径を決定し、特に、前記焦点及び前記長半径の前記長さに基づいて前記楕円の短半径の長さを決定する。
本発明に係る自動車は、本発明に係る運転者支援システムを備える。前記自動車は、特に乗用車として設計されている。
本発明に係る方法に関連して提供される好ましい態様とその利点とは、本発明に係るコントローラ、本発明に係る運転者支援システム、及び本発明に係る自動車に同様に当てはまる。
請求項、図面、及び図面の説明から、本発明の他の特徴が得られる。本説明において上述した特徴及び特徴の組み合わせと、さらに、図面の説明において後述する、及び/または図面に示されるのみである特徴及び特徴の組み合わせとは、個別に特定される組み合わせのみならず、本発明の範囲から逸脱せずに、他の組み合わせで、または単独で利用可能である。したがって、さらに、図面に明示されずに説明されるが所在している本発明の実施形態であって、説明された実施形態とは別の特徴の組み合わせによって作ることができる本発明の実施形態が構成及び開示されているとみなせる。さらに、最初に定められた独立請求項の全ての特徴を同様には有していない特徴の態様及び組み合わせが開示されているとみなせる。さらに、特に上述の実施形態によって、請求項に関連して提示される特徴の組み合わせを超える、または逸脱する特徴の態様及び組み合わせが開示されているとみなせる。
ここで、好ましい例示的な実施形態に基づいて、また添付の図面を参照して、本発明をより詳細に説明する。
図1は、物体を検出する複数のセンサを有する運転者支援システムを備えた、本発明の一実施形態に係る自動車を示す。 図2は、センサの直接計測の場合における物体の位置を表すのに用いられる円を示す。 図3は、センサの間接計測の場合における物体の位置を表すのに用いられる楕円を示す。 図4は、他の実施形態における図3の楕円を示す。 図5は、点フィーチャと楕円(ファジィフィーチャ)とをマージする場合の楕円及び点フィーチャの概略図を示す。 図6は、線フィーチャと楕円(ファジィフィーチャ)とをマージする場合の楕円及び線フィーチャの概略図を示す。
図中、同一の要素もしくは機能上同一の要素には同一の参照符号を付している。
図1は、本発明の一実施形態に係る自動車1を平面図で示す。自動車1は、本例において乗用車として設計されている。自動車1は運転者支援システム2を備え、運転者支援システム2を使用して自動車1の周囲4の少なくとも1つの物体3を検出することが可能である。
運転者支援システム2は、例えば自動車1の電子制御ユニット(ECU)によって構成され得るコントローラ5を備える。また、運転者支援システム2は複数のセンサ6、7を備える。センサ6、7は、例えば、超音波センサ、カメラ、レーダセンサ、ライダーセンサ、レーザスキャナなどからなり得る。本実施形態において、運転者支援システム2は12個の超音波センサ6を備え、そのうちの6つが自動車1の前部領域8に配置されており、またそのうちの6つが自動車1の後部領域9に配置されている。超音波センサ6は、例えば、自動車1のバンパ上に配置され得る。各超音波センサ6によって、超音波信号を発信し得るとともに、物体3から反射された超音波信号を受信し得る。間接計測も実行され、間接計測においては、超音波センサ6のうちの1つが超音波信号を発信し、近接する超音波センサ6が物体3から反射された超音波信号を受信する。
また、運転者支援システム2はカメラ7を備え、カメラ7によって物体3を検出することが可能である。カメラ7の後段に解析ユニットを接続することが可能であり、当該解析ユニットによってカメラ7の画像を解析することが可能である。物体3は、例えば、対応する物体認識アルゴリズムを用いて認識され得る。超音波センサ6及びカメラ7はそれぞれコントローラ5に接続されて、データ送信に供される。本例においては、理解しやすいように、対応するデータ線を図示しない。センサ6、7の各々によって計測を実行することが可能であり、これにより計測センサデータを生成する。これらのセンサデータは、次いでそれぞれのセンサ6、7によって、コントローラ5に送信され得る。
コントローラ5は、センサ6、7のうちの1つから受信したセンサデータに基づいて、物体3を表す物体フィーチャ、x、xを特定し得る。センサ6、7自体が物体フィーチャを特定し、次いで当該物体フィーチャをコントローラ5に送信するものとすることも可能である。物体フィーチャ、x、xの特定は、いわゆるフィーチャ抽出段階において行われ得る。この目的で、類似のセンサのセンサデータの計測値組み合わせすなわちマージを行うことができる。物体フィーチャ、x、xを、例えば、自動車1の周囲4を表すデジタル周囲マップに取り入れることが可能である。異なるセンサから生じる、抽出された物体フィーチャ、x、xを、まず周囲マップまたはフィーチャ抽出段階において融合し得る。物体フィーチャ、x、xは、点フィーチャ、線フィーチャファジィフィーチャからなり得る。
これらの物体フィーチャ、x、xを、周囲マップにおいて更新し得る。この目的で、新たな物体フィーチャ、x、xを特定し得る。周囲マップに物体フィーチャ、x、xが既に存在していて、新たな物体フィーチャ、x、xを特定する場合に、まず、新たな物体フィーチャ、x、xが周囲マップの物体フィーチャ、x、xに関連し得るか否かを確認し得る。物体フィーチャ、x、xが互いに関連する場合には、物体フィーチャ、x、xマージし得る。関連性が生じない場合には、新たな物体フィーチャ、x、xを周囲マップに格納し得る。
物体フィーチャ、x、xは、超音波センサ6のセンサデータから特定され得る。超音波センサ6のセンサデータに基づいて、物体3までの距離を求めることが可能である。この目的で、超音波センサ6は、超音波信号を発信し、物体3から反射された超音波信号を受信する。次いで、超音波信号の発信と物体3から反射された超音波信号の受信との間の経過時間に基づいて、当該距離を求め得る。図1の例に示されるように、運転者支援システム2が複数の超音波センサ6を有する場合には、超音波センサ6を用いて直接計測及び間接計測を実行し得る。
ここでは図2に、超音波センサ6の直接計測を概略的に示す。直接計測の場合に、超音波センサ6は超音波信号またはセンサ信号を発信し、さらに、物体3から反射された超音波信号または超音波信号のエコーを受信する。次いで、超音波信号の経過時間から、物体3が超音波センサ6の周りの円xまたは半円上に存在することを特定し得る。円xの半径は、超音波信号の経過時間の半分から得られる。矢印10は、この場合におけるセンサ信号または超音波信号の信号経路を表す。
図3に、超音波センサ6の間接計測を概略的に示す。この場合に、第1の超音波センサ6は送信機として動作する。この超音波センサ6は位置xs1に配置されており、超音波信号を発信する。位置xs2に配置された第2の超音波センサ6または近接する超音波センサ6は受信機として動作し、第1の超音波センサ6によって発信されて物体3から反射された超音波信号を受信する。この場合に、物体3は楕円xまたは半楕円上に存在し、超音波センサ6の位置xs1、xs2は、楕円xのそれぞれの焦点xF1、xF2に関連付けられる。
既述のように、点フィーチャまたは線フィーチャは、超音波センサ6による複数の計測において生成されたセンサデータの組み合わせによって、物体フィーチャ、x、xとして特定され得る。ただし、明確な空間位置を用いて物体フィーチャ、x、xを特定することができない場合がある。このことは、例えば、十分なセンサデータが得られない場合に当てはまる。この場合に、物体フィーチャ、x、xとしてファジィフィーチャを与えるものとする。直接計測の場合には、このことを、センサ位置からの計測距離を有するセンサ軸上に点が配置される、と表す。間接計測の場合には、中心点xが2つのセンサ位置xs1、xs2の平均値からなる円によって楕円を近似する。この中心点xを仮想センサ位置とも称する。当該円の半径は、楕円の短半径bの長さに相当する。これを次のように表すことができる。
Figure 0006862465
同様に、計算された半径を用いて、仮想センサの軸上にファジィフィーチャを生成する。センサデータに基づいて点フィーチャも線フィーチャも特定することができない場合でも、点フィーチャまたは線フィーチャファジィフィーチャマージするものとすることが可能である。
フィーチャ、線フィーチャ、及びファジィフィーチャは、期待値
Figure 0006862465
を有するガウス確率変数
Figure 0006862465
と、共分散行列
Figure 0006862465
として表される。したがって、点フィーチャ
Figure 0006862465
は、空間内に二次元座標によって表される。線フィーチャ
Figure 0006862465
は、二次元空間内の基点または回転中心と、当該線の角度
Figure 0006862465
とによって表される。本例の場合に、線の長さは確率論的にモデル化されない。最後に、ファジィフィーチャは、スカラーの確率変数
Figure 0006862465
によって表され、ここで、
Figure 0006862465
は、実際または仮想のセンサ位置
Figure 0006862465
からの、ファジィフィーチャのユークリッド距離である。
物体フィーチャ、x、xマージするために、包括的な線形推定器の形式のマッピング関数を用いる。
Figure 0006862465
この場合に、
Figure 0006862465
及び
Figure 0006862465
に、上述の物体フィーチャ、x、x、すなわち、点フィーチャ、線フィーチャ、及びファジィフィーチャが代入され得る。この目的で、特に、点フィーチャファジィフィーチャとのマージ、または線フィーチャファジィフィーチャとのマージを以降で説明する。マッピングルールによって2つの物体フィーチャ、x、xを結合して、既に存在する物体フィーチャ、x、xに関する他の情報項目を取得する。マッピングルールを利用して、第1の状態
Figure 0006862465
または第1の物体フィーチャ、x、xからマージされた物体フィーチャ、またはマージされた状態
Figure 0006862465
を特定することができる。この目的で、確率論的イノベーション関数
Figure 0006862465
を用いる。
イノベーション関数hは、物体フィーチャ、x、x及び/または物体フィーチャ、x、xの状態の間の類似性を表す。マッピングルールまたはイノベーション関数hは、また、非線形であり得る。この場合に、次いでイノベーション関数hを線形化し得る。これは、一次のテーラー級数を利用して行うことが可能である。
Figure 0006862465
この場合に、因数H及び因数Hはヤコビ行列である。さらに、マッピングルールは増幅因数Kまたは増幅行列を含む。増幅因数Kは、
Figure 0006862465
が任意の単位ベクトルからなり得るとして、射影
Figure 0006862465
を最小にするように決定される。増幅因数Kを次のように表し得る。
Figure 0006862465
本例の場合には、
Figure 0006862465
と、
Figure 0006862465
とは相関していないことを考慮する。したがって、
Figure 0006862465
が得られる。よって、マージされた結果と更新された共分散行列とは、
Figure 0006862465
となる。
物体フィーチャ、x、x及び/または状態が互いに関連するか否かを確認するために、いわゆるマハラノビス距離を定義する。
Figure 0006862465
マハラノビス距離によって限界が特定される。限界に達しなければ、状態または物体フィーチャ、x、xの関連性は尤もらしい。さらに、他の幾何学的検討を用いて尤もらしさを確認することが可能である。
物体フィーチャ、x、xを互いに関連付けてマージすべきか否かを確認するために、物体フィーチャ、x、x及対して適切なイノベーション関数hを決定する。点フィーチャファジィフィーチャとのマージに対するモデルと、線フィーチャファジィフィーチャとのマージに対するモデルとについて、以下に説明する。両方のモデルは、計測モデルa、aファジィフィーチャの計測された物体距離dとの差分として決定される。計測モデルa、aは、既知の物体フィーチャ、xを計測空間内に移し得る。この計測空間において、次いで、物体フィーチャ、x、xを現計測値と比較し得る。
フィーチャファジィフィーチャマージする場合に、計測モデルaは、点フィーチャとセンサ位置xとの間のユークリッド距離dである。イノベーション関数hは、
Figure 0006862465
となる。
フィーチャファジィフィーチャマージする場合に、計測モデルaは、線フィーチャとセンサ位置xとの間の最短距離dの絶対値である。イノベーション関数hは、
Figure 0006862465
となる。
2つのイノベーション関数hの図式的表記について、以下でより詳細に説明する。
上述のように、ファジィフィーチャは、センサ位置
Figure 0006862465
から距離
Figure 0006862465
を有する円の距離計測値として表される。本モデルを、ファジィフィーチャを生成する計測の種類に関わらず用いる。超音波センサ6による直接計測の場合には、本モデルは信号経路に関して存在する情報項目を表す。超音波センサ6による間接計測については、このようなモデルは近似を表すにすぎず、その精度は、楕円がいかに円に近いかに依存する。この制約を取り除くために、まず、さらに間接計測からの情報項目を記憶することができるように、ファジィフィーチャの表記を拡張する。さらに、楕円距離計測値の形式で点フィーチャ及び線フィーチャファジィフィーチャと結合することができるように、イノベーション関数hを決定する。
図4は、ファジィフィーチャとしての楕円xの概略図を示す。様々な方法で楕円xを数学的に表すことが可能である。典型的な表記は、楕円xを点の集合とみなすものであり、点から2つの焦点
Figure 0006862465
及び
Figure 0006862465
までのユークリッド距離に相当する距離の合計が、長軸の長さ2aからなる。
Figure 0006862465
この表記の利点は、デカルト座標系に依存しないことである。また、楕円xを、長半径a及び短半径bを用いた陰関数表示の楕円方程式によって表し得る。
Figure 0006862465
この方程式は楕円xの座標系で表され、当該座標系においてx軸は長半径aの方向を向き、y軸は短半径bの方向を向く。本例において、楕円xは角度αで傾斜している。いわゆる線形離心率eは、楕円xの他の特性である。
Figure 0006862465
線形離心率eは、楕円xの各焦点xF1、xF2と中心点
Figure 0006862465
との間の距離を表す。線形離心率eは、
Figure 0006862465
によって範囲が定められる。
Figure 0006862465
すなわち離心率が0である場合に、楕円xは円となる。
Figure 0006862465
の場合に、楕円xは直線に縮退する。
ファジィフィーチャの拡張された表記を得るために、超音波センサ6の間接計測に関するすべての取得可能な情報項目を、フィーチャ抽出層(レイヤ)からデジタル周囲マップに転送する必要がある。例えば、2つの超音波センサ6の位置xと、超音波センサの経過時間に関する情報項目とを知る必要がある。次いで、長半径の長さaを、経過時間から、
Figure 0006862465
として求めることが可能である。離心率eは、超音波センサ6の距離から、
Figure 0006862465
として求めることが可能である。次いで、短半径bの長さを、これから、
Figure 0006862465
として求めることが可能であり、この場合に、融合時に短半径の長さbは必要でない。
この場合に、超音波センサ6間の距離、すなわちセンサ距離は完全に既知であるものとする。これは、例えばコントローラ5のメモリに記憶され得る。計測の不確かさは、長半径aの長さと短半径bの長さとに反映される。長半径および短半径の長さa,bは互いに異なるとともに線形離心率eに依存することから、楕円xの不確かさは、長半径および短半径に対する単一のスカラーの確率変数aまたはbを考慮することによって完全に反映される。超音波センサ
Figure 0006862465
を使用して直接計測することから、ファジィフィーチャは、長半径aの長さによって確率論的に特定される。これから、
Figure 0006862465
が得られ、この場合に、
Figure 0006862465
はガウス曲線としてモデル化される。さらに、ファジィフィーチャを一意に特定するには、楕円の焦点xF1及び焦点xF2、または中心点
Figure 0006862465
とのマージによって表される両方のセンサ位置xのいずれかと、線形離心率eと、楕円xの方向αとが必要である。
関連付け及びマージ決定するために、2つのイノベーション関数
Figure 0006862465
及び
Figure 0006862465
を決定する必要があり、それらを用いて、点フィーチャ及び線フィーチャファジィフィーチャマージすることが可能である。イノベーション関数hは、イノベーション関数hが計測モデル
Figure 0006862465
と、計測された楕円x長半径aとの差を考慮するように、決定される。
Figure 0006862465
この場合に、状態
Figure 0006862465
に、点フィーチャの状態、または線フィーチャの状態を代入し得る。計測モデル
Figure 0006862465
によって、生成される楕円x’長半径aの長さを決定することが可能であり、点フィーチャは、1つの超音波センサ6または複数の超音波センサ6を用いて計測されるとすれば楕円x’上に存在することになる。線フィーチャファジィフィーチャマージする場合には、計測モデル
Figure 0006862465
によって、生成される楕円x長半径aの長さを、線フィーチャが楕円xに接するように決定する。この場合に、線フィーチャが、ファジィフィーチャを特定する基となった計測と同じ超音波センサ6を用いた計測を基にして特定されたことを考慮し得る。
フィーチャ及び線フィーチャに対する計測モデルの決定について、以下に説明する。点フィーチャと楕円xとのマージに対する計測モデルaの決定について、点フィーチャ及び楕円xの概略図を示した図5に基づいて説明する。点フィーチャの場合に、計測モデルは次の定義から導出される。
Figure 0006862465
本例の場合に計測モデルaを決定するために、生成される楕円x’を決定する。点フィーチャが生成される楕円x’上に存在するように、生成される楕円x’を決定する。楕円x’から、生成される楕円x’長半径aの長さを求めることが可能である。
Figure 0006862465
このことは、
Figure 0006862465
について当てはまる。条件
Figure 0006862465
が満たされるならば、点フィーチャは、焦点xF1、xF2を互いに接続する線上に存在する。この場合に、点フィーチャから有効な計測値を得ることはできない。すべての他の点フィーチャについて、有効な楕円を決定することが可能である。計測モデルaは、第1の焦点xF1から点フィーチャを経由して第2の焦点xF2まで延在する経路の半分から得られる。
本モデルをイノベーション関数hに用いる。
Figure 0006862465
イノベーション関数hの線形化後に、ヤコビ行列
Figure 0006862465
及び
Figure 0006862465
を求め得る。
Figure 0006862465

Figure 0006862465
または点
Figure 0006862465
を除くすべての点について、ヤコビ行列
Figure 0006862465
を定義する。ただし、
Figure 0006862465
であれば、これを行うことはできない。
フィーチャと楕円xとのマージに対する計測モデルaの決定について、線フィーチャ及び楕円xの概略図を示した図6に基づいて説明する。生成される楕円x’に線フィーチャを交差させることによって、線フィーチャについての計測モデルaを決定することが可能である。線の形態をなす実際の物体を超音波センサ6によって間接計測することにより、当該線に接して延在する楕円の計測値が得られる。このことは、線または線フィーチャが、生成される楕円x’に接して延在しなければならないことを意味する。第1のステップにおいて、生成される楕円x’の局所座標系に存在する線フィーチャから解を導出する。次いで、あらゆるデカルト座標系において線フィーチャを用いることができるように、計測モデルaを拡張し得る。
交点を求めるために、線または線フィーチャを陽関数表示のパラメータ形式で表す。
Figure 0006862465
これを陰関数表示の楕円方程式に挿入する。
Figure 0006862465
当該方程式をパラメータtについて解き、そこから交点を導出することができるようにする。当該方程式は二次であるため、当該方程式を一般の二次方程式の形式に変形する。次いで、その二次方程式を解く。
Figure 0006862465
固有解を得るためには、判別式が0でなければならない。
Figure 0006862465
Figure 0006862465
及び
Figure 0006862465
を挿入し、
Figure 0006862465
の代入を行うことによって、この特性式をaについて解くことが可能である。
Figure 0006862465
長半径aの長さを計算するためのこの解は、楕円xの局所座標系で定義される線フィーチャに当てはまる。したがって、一般に、線フィーチャを楕円xの局所座標系に変換する必要がある。
Figure 0006862465
当該変形を解に挿入することにより、次の結果が得られる。
Figure 0006862465
最後に、並んでいるベクトルを、
Figure 0006862465
と書き直して、さらに挿入する。この結果は、
Figure 0006862465
となる。
なお、第1項において線フィーチャの傾き位置の回転は完全に消失し、第2項における角度変換のみが必要となる。第1式は線フィーチャと楕円xの中心点xとの間の最短距離の二乗であってこれは不変であることから、点フィーチャの回転は必要ない。得られる解は、
Figure 0006862465
の場合にのみ有効である。この条件が当てはまらない場合には、線フィーチャは2つの焦点xF1、xF2間の線分と交差する。この場合には、線フィーチャから正しい楕円xを得ることができない。
幾何学的な見地では、計測モデルaは、線フィーチャ上の焦点xF1、xF2のうちの一方の射影と、当該焦点のうちの一方から楕円xの中心点xまでのユークリッド距離dの計算とによって決定される。この手法によって、線フィーチャが焦点xF1、xF2のうちの一方または両方の上に存在する場合に、条件
Figure 0006862465
が維持されることを容易に示すことができる。
上述の解を、次のように表されるイノベーション関数hに用いる。
Figure 0006862465
さらに、ヤコビ行列
Figure 0006862465
を求める。
ヤコビ行列
Figure 0006862465
は、
Figure 0006862465
のケースを除くすべての場合について定義される。当該ケースの場合に、線フィーチャは楕円xの主軸に垂直であって、楕円xの中心点xを通って延在する。このケースは、特性
Figure 0006862465
によって除外済みである。
最後に、楕円xについて求まったイノベーション関数hが、円についての既存のモデルの一般形であることを示す。
Figure 0006862465
または
Figure 0006862465
である、円の特別の場合について、上述の計測モデルは数学的に等価である。
Figure 0006862465
Figure 0006862465
なお、線についての既存の計測モデルの垂線は、反対方向を指す。
本例では、超音波センサ6に基づく間接計測について説明した。自動車1の他のセンサのセンサデータを用いるものとすることが可能である。例えば、カメラ7の計測から物体フィーチャを生成して、周囲マップに取り入れることが可能である。この方法によって、物体3を高い信頼性で検出することが可能である。

Claims (14)

  1. 自動車(1)の周囲(4)の少なくとも1つの物体(3)を検出する方法であって、
    第1のセンサ(6)を作動させてセンサ信号を発信するステップと、
    前記少なくとも1つの物体(3)から反射された前記センサ信号を表すセンサデータを第2のセンサ(6)から受信するステップと、
    前記センサデータから、前記少なくとも1つの物体(3)を記述するための物体フィーチャ(x,x,x)としてのファジィフィーチャ(x)を生成するステップであって、前記ファジィフィーチャ(x)は、楕円(x)として表され、かつ、前記少なくとも1つの物体(3)と前記第1のセンサ(6)との間の距離と、前記少なくとも1つの物体(3)と前記第2のセンサ(6)との間の距離とを表すものである、ステップと、
    前記第1のセンサ(6)及び/または前記第2のセンサ(6)の少なくとも1つの他の計測のセンサデータに基づいて、前記少なくとも1つの物体(3)を表す他の物体フィーチャ(x,x)を生成するステップと、
    前記他の物体フィーチャ(x,x)および前記ファジィフィーチャ(x)を共通の状態空間内に移すステップと、
    前記ファジィフィーチャ(x)と前記他の物体フィーチャ(x,x)との間の類似性を表すイノベーション関数(h)に基づいて、前記ファジィフィーチャ(x)および前記他の物体フィーチャ(x,x)を前記少なくとも一つの物体のうちの単一の物体と関連付けるべきであるか否かを決定するステップと、
    前記ファジィフィーチャ(x)および前記他の物体フィーチャ(x,x)を前記少なくとも一つの物体のうちの単一の物体と関連付けるべきであると決定された場合に、マージされた物体フィーチャを前記ファジィフィーチャ(x)および前記他の物体フィーチャ(x,x)から生成するステップと、
    を備え、
    前記他の物体フィーチャ(x ,x )から前記マージされた物体フィーチャを特定するために、前記イノベーション関数(h)と前記イノベーション関数(h)に対する増幅因数(K)とを含む線形マッピングルールを決定し、前記増幅因数(K)は、前記他の物体フィーチャ(x ,x )の空間不確定性と前記ファジィフィーチャ(x )の空間不確定性とに依存することを特徴とする方法。
  2. 請求項1に記載の方法であって、
    前記マージされた物体フィーチャの空間不確定性が最小となるように前記増幅因数(K)を決定することを特徴とする方法。
  3. 請求項1または2に記載の方法であって、
    前記第1のセンサ(6)の位置(xS1)と前記第2のセンサ(6)の位置(xS2)とに基づいて前記楕円(x)の焦点(xF1,xF2)を決定し、前記センサ信号の経過時間に基づいて前記楕円(x)の長半径(a)の長さを決定し、前記焦点(xF1,xF2)と前記長半径(a)の前記長さとに基づいて、前記楕円(x)の短半径(b)の長さを決定することを特徴とする方法。
  4. 請求項に記載の方法であって、
    前記焦点(xF1,xF2)の距離に基づいて前記楕円(x)の離心率(e)を決定し、前記長半径(a)の前記長さと前記離心率(e)とから前記短半径(b)の前記長さを決定することを特徴とする方法。
  5. 請求項1乃至請求項のいずれか一項に記載の方法であって、
    前記他の物体フィーチャ(x,x)を特定して、前記自動車の前記周囲を表すデジタル周囲マップに取り入れ、続いて前記ファジィフィーチャ(x)を特定して前記周囲マップに取り入れることを特徴とする方法。
  6. 請求項1乃至請求項のいずれか一項に記載の方法であって、
    前記他の物体フィーチャ(x,x)として点フィーチャ(x)または線フィーチャ(x)を特定することを特徴とする方法。
  7. 請求項に記載の方法であって、
    前記イノベーション関数(h)を決定するために、前記ファジィフィーチャ(x)と前記点フィーチャ(x)との間の距離(d)を表す計測モデル( )、または前記ファジィフィーチャ(x)と前記線フィーチャ(x)との間の距離を表す計測モデル(a)を決定することを特徴とする方法。
  8. 請求項に記載の方法であって、
    前記他の物体フィーチャ(x,x)が前記点フィーチャ(x)である場合に、前記ファジィフィーチャ(x)と前記点フィーチャ(x)との間の距離(d)を表す前記計測モデル(a)を決定するために、生成される楕円(x’)を、前記点フィーチャ(x)が前記生成される楕円(x’)上に存在するように決定することを特徴とする方法。
  9. 請求項に記載の方法であって、
    前記他の物体フィーチャ(x,x)が前記線フィーチャ(x)である場合に、前記計測モデルを決定するために、生成される楕円(x’)を、前記線フィーチャ(x)が前記生成される楕円(x’)に接して延在するように決定することを特徴とする方法。
  10. 請求項乃至請求項のいずれか一項に記載の方法であって、
    前記楕円(x)の長半径(a)の長さと前記計測モデル(aまたはa)との差に基づいて、前記イノベーション関数(h)の出力を表すイノベーションを決定することを特徴とする方法。
  11. 請求項1乃至請求項10のいずれか一項に記載の方法を実行するように設計された、自動車(1)の運転者支援システム(2)に供されるコントローラ(5)。
  12. 請求項11に記載のコントローラ(5)を備えるとともに第1のセンサ(6)及び第2のセンサ(6)を備えた、自動車(1)に供される運転者支援システム(2)。
  13. 請求項12に記載の運転者支援システムであって、
    前記第1のセンサ(6)及び前記第2のセンサ(6)は超音波センサであることを特徴とする運転者支援システム。
  14. 請求項12または請求項13に記載の運転者支援システム(2)を備えた自動車(1)。
JP2018548755A 2016-03-18 2016-08-05 センサによる間接計測によって自動車の周囲の少なくとも1つの物体の検出を向上させる方法、コントローラ、運転者支援システム、及び自動車 Active JP6862465B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102016105023.7 2016-03-18
DE102016105023.7A DE102016105023A1 (de) 2016-03-18 2016-03-18 Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch Zusammenlegen von Objektmerkmalen, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102016105022.9 2016-03-18
DE102016105022.9A DE102016105022A1 (de) 2016-03-18 2016-03-18 Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch eine indirekte Messung mit Sensoren, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
PCT/EP2016/068797 WO2017157483A1 (de) 2016-03-18 2016-08-05 Verfahren zur verbesserung einer erfassung zumindest eines objekts in einer umgebung eines kraftfahrzeugs durch eine indirekte messung mit sensoren, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug

Publications (3)

Publication Number Publication Date
JP2019512699A JP2019512699A (ja) 2019-05-16
JP2019512699A5 JP2019512699A5 (ja) 2020-05-28
JP6862465B2 true JP6862465B2 (ja) 2021-04-21

Family

ID=56571331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018548755A Active JP6862465B2 (ja) 2016-03-18 2016-08-05 センサによる間接計測によって自動車の周囲の少なくとも1つの物体の検出を向上させる方法、コントローラ、運転者支援システム、及び自動車

Country Status (6)

Country Link
US (1) US10564282B2 (ja)
EP (1) EP3430423B1 (ja)
JP (1) JP6862465B2 (ja)
KR (1) KR102146175B1 (ja)
CN (1) CN108780149B (ja)
WO (1) WO2017157483A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112020661A (zh) * 2018-04-25 2020-12-01 伟摩有限责任公司 车底雷达单元
DE102018209432A1 (de) * 2018-06-13 2019-12-19 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen einer Position eines mobilen Objekts
DE102019002662A1 (de) * 2019-04-10 2020-10-15 Friedrich-Alexander-Universität Erlangen-Nürnberg Verfahren zur Auswertung von Radarsystemen
EP3792656A1 (en) * 2019-09-12 2021-03-17 Continental Automotive GmbH Method for elevation angle estimation based on an ultrasound sensor
CN114274954A (zh) * 2021-12-16 2022-04-05 上汽大众汽车有限公司 一种车内外感知结合的车辆主动接管系统及方法
DE102022117277A1 (de) * 2022-07-12 2024-01-18 Valeo Schalter Und Sensoren Gmbh Verfahren zum trainieren eines neuronalen netzes

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4278142A (en) * 1978-05-08 1981-07-14 Agency Of Industrial Science And Technology Automatic guidance system for vehicles
JPS5866080A (ja) * 1981-10-16 1983-04-20 Nissan Motor Co Ltd 車両周辺サ−チアイ装置
JPH03201110A (ja) * 1989-12-28 1991-09-03 Toyota Central Res & Dev Lab Inc 自律走行車の位置方位検出装置
US5281947A (en) * 1991-09-20 1994-01-25 C.A.R.E., Inc. Vehicular safety sensor and warning system
US5493269A (en) * 1991-09-20 1996-02-20 C.A.R.E., Inc. Vehicular safety sensor and warning system
CA2089017C (en) * 1992-02-13 1999-01-19 Yasurou Yamanaka Method of mounting wheel to vehicle
US9102220B2 (en) * 1992-05-05 2015-08-11 American Vehicular Sciences Llc Vehicular crash notification system
JP2783079B2 (ja) * 1992-08-28 1998-08-06 トヨタ自動車株式会社 ヘッドランプの配光制御装置
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JPH08318765A (ja) * 1995-05-25 1996-12-03 Hitachi Ltd 情報化自動車制御装置及び方法
JPH09244003A (ja) * 1996-03-13 1997-09-19 Toyota Motor Corp 車両用画面制御装置
KR100243317B1 (ko) * 1997-04-18 2000-03-02 윤종용 차종 판별 장치
DE19738608C1 (de) * 1997-09-04 1998-07-16 Bosch Gmbh Robert Fahrwerkregelung
DE19842250A1 (de) * 1998-09-15 2000-03-16 Mannesmann Vdo Ag Verfahren zur Bestimmung des Abstandes zwischen einem Objekt und einer sich örtlich verändernden Einrichtung, insbesondere einem Kraftfahrzeug
JP4287532B2 (ja) * 1999-03-01 2009-07-01 矢崎総業株式会社 車両用後側方監視装置
DE10136981A1 (de) * 2001-07-30 2003-02-27 Daimler Chrysler Ag Verfahren und Vorrichtung zur Ermittlung eines stationären und/oder bewegten Objektes
JP2003194938A (ja) * 2001-12-25 2003-07-09 Denso Corp 障害物検知装置
WO2003093857A2 (en) * 2002-05-03 2003-11-13 Donnelly Corporation Object detection system for vehicle
CN100473152C (zh) * 2003-07-11 2009-03-25 株式会社日立制作所 图像处理相机系统及图像处理相机控制方法
WO2005080134A1 (en) * 2004-02-20 2005-09-01 Sharp Kabushiki Kaisha Surroundings exhibiting system and surroundings exhibiting method
US7432800B2 (en) * 2004-07-07 2008-10-07 Delphi Technologies, Inc. Adaptive lighting display for vehicle collision warning
US8924078B2 (en) * 2004-11-18 2014-12-30 Gentex Corporation Image acquisition and processing system for vehicle equipment control
DE102005026386A1 (de) * 2005-06-02 2006-12-07 Volkswagen Ag Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Fahrzeugs
JP2008039497A (ja) * 2006-08-03 2008-02-21 Matsushita Electric Works Ltd 障害物検出装置
US20080211652A1 (en) * 2007-03-02 2008-09-04 Nanolumens Acquisition, Inc. Dynamic Vehicle Display System
US20080300755A1 (en) * 2007-05-30 2008-12-04 Dinu Petre Madau Side collision avoidance system
FR2923933B1 (fr) * 2007-11-16 2010-03-26 Valeo Vision Procede de detection d'un phenomene perturbateur de visibilite pour un vehicule
US8694195B2 (en) * 2007-12-04 2014-04-08 Volkswagen Ag Motor vehicle having a wheel-view camera and method for controlling a wheel-view camera system
US20090292468A1 (en) * 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
JP5120139B2 (ja) * 2008-08-08 2013-01-16 トヨタ自動車株式会社 物体検出装置
US8120476B2 (en) * 2009-07-22 2012-02-21 International Truck Intellectual Property Company, Llc Digital camera rear-view system
US8482430B2 (en) * 2009-10-13 2013-07-09 GM Global Technology Operations LLC Method and apparatus for communicatively changing interior illumination color in a vehicle
DE102010023162A1 (de) * 2010-06-09 2011-12-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken in eine Parklücke, Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102010045657A1 (de) 2010-09-17 2012-03-22 Wabco Gmbh Umfeld-Überwachungssystem für ein Fahrzeug
US8589058B2 (en) * 2010-11-10 2013-11-19 Honda Motor Co., Ltd. Method of retrieving information for a motor vehicle
JP5710000B2 (ja) * 2011-08-16 2015-04-30 三菱電機株式会社 物体検知装置
EP2776216B1 (en) * 2011-11-11 2022-08-31 iRobot Corporation Robot apparautus and control method for resuming operation following a pause.
US9381916B1 (en) * 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
DE102012004396A1 (de) * 2012-03-03 2013-09-05 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs
DE102013221263A1 (de) * 2013-10-21 2015-04-23 Schaeffler Technologies Gmbh & Co. Kg Autonom fahrendes Golfcaddy mit Ultraschallsensorik
EP2892020A1 (en) * 2014-01-06 2015-07-08 Harman International Industries, Incorporated Continuous identity monitoring for classifying driving data for driving performance analysis
DE102015220360A1 (de) * 2015-10-20 2017-04-20 Robert Bosch Gmbh Verfahren zur Auswahl einer optimierten Trajektorie

Also Published As

Publication number Publication date
JP2019512699A (ja) 2019-05-16
CN108780149B (zh) 2022-12-09
US20190079188A1 (en) 2019-03-14
WO2017157483A1 (de) 2017-09-21
EP3430423B1 (de) 2022-03-30
KR102146175B1 (ko) 2020-08-19
CN108780149A (zh) 2018-11-09
US10564282B2 (en) 2020-02-18
KR20180114158A (ko) 2018-10-17
EP3430423A1 (de) 2019-01-23

Similar Documents

Publication Publication Date Title
JP6862465B2 (ja) センサによる間接計測によって自動車の周囲の少なくとも1つの物体の検出を向上させる方法、コントローラ、運転者支援システム、及び自動車
JP2019512699A5 (ja)
JP6760114B2 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
JP6747269B2 (ja) 物体認識装置
US20220169280A1 (en) Method and Device for Multi-Sensor Data Fusion For Automated and Autonomous Vehicles
JP5782708B2 (ja) 走行支援装置
US20090040095A1 (en) Apparatus for estimating state of vehicle located in frontward field
CN110969055B (zh) 用于车辆定位的方法、装置、设备和计算机可读存储介质
KR102283773B1 (ko) 라이더 스캔 데이터의 누적에 의한 자율주행 자동차의 위치인식 시스템 및 그 방법
JP2008076252A (ja) 自己位置認識システム
CN109964149B (zh) 用于轮式车辆的自校准感测器系统
CN108802741B (zh) 基于DSmT理论的移动机器人声纳数据融合方法
US11954918B2 (en) Object detection device, object detection method, and storage medium
CN113753028B (zh) 驾驶辅助装置、驾驶辅助方法及电脑可读取记录介质
CN111492258A (zh) 用于确定车辆所行驶的道路与测量或雷达传感器的检测方向之间的安装角度的方法和装置
US20220332327A1 (en) Method and Apparatus for Fusing Sensor Information and Recording Medium Storing Program to Execute the Method
CN113330448A (zh) 用于车辆的传感器数据融合的方法和装置
US20230094836A1 (en) Method for Detecting Moving Objects in the Surroundings of a Vehicle, and Motor Vehicle
JP7421923B2 (ja) 位置推定装置、及び位置推定方法
US20220075053A1 (en) Method and apparatus for sensor data fusion for a vehicle
CN113261007A (zh) 用于自动和自主车辆的多传感器数据融合的方法和装置
US20200258379A1 (en) Determination of movement information with surroundings sensors
US20230146935A1 (en) Content capture of an environment of a vehicle using a priori confidence levels
US11630199B2 (en) Sensor information fusion device and method thereof
JP7026734B2 (ja) 物体認識装置、物体認識方法及び車両運転支援システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191018

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200318

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20200414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210331

R150 Certificate of patent or registration of utility model

Ref document number: 6862465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250