JP2021525423A - 運転支援方法、制御ユニット、運転支援システム、および操作装置 - Google Patents
運転支援方法、制御ユニット、運転支援システム、および操作装置 Download PDFInfo
- Publication number
- JP2021525423A JP2021525423A JP2020565882A JP2020565882A JP2021525423A JP 2021525423 A JP2021525423 A JP 2021525423A JP 2020565882 A JP2020565882 A JP 2020565882A JP 2020565882 A JP2020565882 A JP 2020565882A JP 2021525423 A JP2021525423 A JP 2021525423A
- Authority
- JP
- Japan
- Prior art keywords
- box
- new
- old
- driving support
- scaling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000001454 recorded image Methods 0.000 claims abstract description 9
- 238000011156 evaluation Methods 0.000 claims abstract description 7
- 238000013519 translation Methods 0.000 claims description 22
- 230000001133 acceleration Effects 0.000 claims description 15
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 238000012502 risk assessment Methods 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract 1
- 238000013459 approach Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009192 sprinting Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Mechanical Engineering (AREA)
Abstract
Description
(S1)連続した時点における操作装置の視野内のオブジェクトに対するオブジェクトボックスまたはそのようなオブジェクトボックスを特徴づけるデータが取得され、
(S2)連続して、または直接に連続して記録した画像に対する所与のオブジェクトのオブジェクトボックスから、それぞれのオブジェクトに対するオブジェクトボックスの目下のスケーリング変化またはスケーリング変化と、それぞれのオブジェクトに対するオブジェクトボックスの目下の横方向の位置変化とが決定され、
(S3)それぞれのオブジェクトに対するオブジェクトボックスの目下のスケーリング変化またはスケーリング変化から導かれる大きさ、および目下の横方向位置変化から、将来に予想されるオブジェクトボックスが決定され、
(S4)予想したオブジェクトボックスの位置および/または予想したオブジェクトボックスの横方向範囲と検出した視野および/または記録した画像の横方向範囲に対するの比が決定および評価され、
(S5)評価の結果に依存して、(i)予想したオブジェクトボックスの基礎となるオブジェクトが、起こり得る衝突に対して危険であるか否かが決定され、および/または(ii)操作装置の運転状態が制御または調整されることによって達成される。
(S1a)時間的に連続した画像を記録しながら、基礎となる操作装置の視野が2次元および/または単眼で光学的に検出され、
(S1b)連続して記録した画像または画像のカットにおいて、少なくとも1つのオブジェクトおよびオブジェクトに割り当てられたオブジェクトボックスが決定される。
(I1)割当て規則にしたがって、計算すべき値をリセットまたは事前設定する。
スケーリング古い:=スケーリング新しい
ボックス平行移動X古い:=ボックス平行移動X新しい
ボックス幅古い≒ボックス幅新しい
ボックス位置左古い:=ボックス位置左新しい
ボックス位置右古い:=ボックス位置右新しい
(I2)次の割当て規則にしたがってスケーリングを更新する。
スケーリング新しい:=1/(2−スケーリング古い)
(I3)次の割当て規則にしたがって、水平方向または横方向のオブジェクトボックスの平行移動を更新する。
ボックス平行移動X新しい:=ボックス平行移動X古い×スケーリング古い
(I4)次の割当て規則にしたがって、水平方向または横方向のオブジェクトボックス幅を更新する。
ボックス幅新しい:=ボックス位置右古い−ボックス位置左古い
(I5)次の割当て規則にしたがって、水平方向または横方向のボックス位置を予測する。
ボックス位置左新しい:=ボックス位置左古い+ボックス平行移動X古い−0.5×ボックス幅新しい×(スケーリング新しい−1)/スケーリング新しい
ボックス位置右新しい:=ボックス位置右新しい+ボックス平行移動X新しい+0.5×ボックス幅新しい×(スケーリング新しい−1)/スケーリング新しい
この場合、スケーリング古いもしくはスケーリング新しいはオブジェクトボックスの古い、もしくは新しいスケーリングを示し、ボックス平行移動X古いもしくはボックス平行移動X新しいはオブジェクトボックスの古い、もしくは新しい変位を示し、ボックス幅古いもしくボックス幅新しいはオブジェクトボックスの古い、もしくは新しい幅を示し、ボックス位置左古いもしくはボックス位置左新しいはそれぞれのオブジェクトボックスの第1のX座標としてのオブジェクトボックスの左下角隅の古い、もしくは新しい位置を示し、ボックス位置右古いもしくはボックス位置右新しいはそれぞれのオブジェクトボックスの第2のX座標もしくはその値としてオブジェクトボックスの右下角隅の古いもしくは新しい位置を示す。
ボックス位置左新しい:=(ボックス位置左現在+ボックス速度左現在 *T予測)/(1+標準速度現在 *T予測)
ボックス位置右新しい:=(ボックス位置現在+ボックス速度右現在 *T予測/(1+標準速度現在 *T予測)
この場合、ボックス位置左新しいおよびボックス位置左現在もしくはボックス位置右新しいおよびボックス位置右現在は、左もしくは右のボックスエッジの新しい、もしくは現在の位置であり、ボックス速度左現在およびボックス速度右現在は、左もしくは右のボックスエッジの現在測定された角速度であり、標準速度現在は現在測定されたいわゆる「標準化または規格化された」ボックス速度であり、T予測は、予測時間段階に関連する予測時間である。標準速度現在は、特に、オブジェクトボックスの計算されたスケーリング変化から導かれる。
視野50内の所与のオブジェクト52のそれぞれのオブジェクトボックス54の横方向ボックス座標を検出する。
1つ以上の以前の画像またはフレームに対するオブジェクト52のオブジェクトボックス54のスケーリング変化を検出する。
以前の画像またはフレームまたはそれらの一部またはカットに対する横方向における視野50内の所与のオブジェクト52のオブジェクトボックス54のボックス移動、ボックス変位またはボックス平行移動(単位ピクセル)、ボックスエッジの角度位置および/または角速度を検出する。
具体的な予測や予想については、予想期間としての目標期間までのn回の時間増分についての方法SおよびIを用いて既に説明した手順に基づいて行う。
n回のサイクルのそれぞれにおいて、すなわち、所定の目標時間に到達するまでのそれぞれの時間増分について、予測したボックス幅が、カメラ画像51の画像幅、またはカメラ画像の所定の、または設定された部分もしくはカット51′の幅と比較される。
画像中のボックス幅と画像幅またはカットの幅との比率は、危険性の程度を決定するための基礎として使用することができる。ボックス幅55bが画像51またはカット51′の所定の幅51bをとり、したがって、例えば35%のしきい値を超えるとすぐに、100%の危険性が仮定され、設定される。
予測または予想したボックス55が、例えば、部分的または完全に画像51またはカット51′の外側にある場合には、状況は危険ではなく、危険性の値は0%に設定される。
歩行者52′の位置および/または速度に応じて、歩行者モデルによって加速能力を決定することができる。歩行者52′の加速能力を考慮に入れて、画像51または画像51のカット51′内の歩行者52′の可能な横方向の滞在領域を第2のより幅の広いオブジェクトボックス56をオブジェクト52としての歩行者52′のために設定することができる。
オブジェクト52としての歩行者52′の速度を決定し、加速能力を画素または角度座標に変換するために、オブジェクト52としての歩行者52′の大きさについての仮定を行うことができる。例えば、1.75mの通常の大きさを基礎として使用することができる。
あらかじめ計算した危険性の値は、画像51またはフレームおよびこれらのそれぞれのカット51′または部分の外側にある最後に予測または予想したボックス55の割合だけさらに低減または最小化することができる。例えば、ボックス幅55bの50%が画像51またはフレーム、または所与の部分またはカット51′の外側に位置する場合、すなわち、オブジェクトボックス55が、歩行者モデルを考慮に入れた可能な滞在領域を表す場合には、危険性が対応して低減される。予測がより遠い将来に存在するほど危険性がより強度に低減される。なぜならば、より大きい滞在領域が画像51またはカット51′の外側に位置する可能性があるからである。将来への時間予測が大きければ大きいほど、歩行者52′の挙動についての不確実性が大きくなるので、この挙動は望ましいといえる。
オブジェクト52としての歩行者の予測されるオブジェクトボックス55が危険な大きさ、例えばフレーム幅または画像幅の35%のしきい値に達した場合、予測はこの反復サイクルIで中断される。なぜならば、場合によっては衝突がこの時点で既に起こっているからである。
Claims (13)
- 操作装置(1)のための運転支援方法(S)において、
連続した時点における操作装置(1)の視野内のオブジェクト(52)に対するオブジェクトボックス(54)またはそのようなオブジェクトボックス(54)を特徴づけるデータを取得するステップ(S1)、
連続して、または直接に連続して記録した画像に対する所与のオブジェクト(52)の前記オブジェクトボックス(54)から、それぞれの前記オブジェクト(52)に対するオブジェクトボックス(54)の目下のスケーリング変化またはスケーリング変化から導かれる大きさと、それぞれの前記オブジェクト(52)に対する前記画像内のオブジェクトボックス(54)の目下の横方向の位置変化とを決定するステップ(S2)、
それぞれの前記オブジェクト(52)に対するオブジェクトボックス(54)の、前記画像内の目下のスケーリング変化またはスケーリング変化から導かれる大きさ、および目下の横方向位置変化から、将来に予想されるオブジェクトボックス(55)を決定するステップ(S3)、
前記予想されるオブジェクトボックス(55)の位置および/または前記予想されるオブジェクトボックス(55)の横方向範囲と検出した視野(50)および/または前記記録された画像または当該画像のカットの横方向範囲との比を決定および評価するステップ(S4)、
前記評価の結果に依存して、(i)前記予想されるオブジェクトボックス(55)の基礎となるオブジェクト(52)が、起こり得る衝突に関して危険であるか否かを決定し、および/または(ii)操作装置(1)の運転状態を制御または調整するステップ(S5)、
が含まれる、運転支援方法(S)。 - 請求項1に記載の運転支援方法(S)において、
前記オブジェクトボックス(54)および/または前記オブジェクトボックス(54)を特徴づけるデータを取得する前記ステップ(S1)で、または前記ステップ(S1)のために、
時間的に連続した画像を記録しながら、基礎となる操作装置(1)の視野(50)を2次元および/または単眼で光学的に検出し(S1a)、
連続して記録した画像において、少なくとも1つのオブジェクト(52)および当該オブジェクト(52)に割り当てられたオブジェクトボックス(54)を決定する(S1b)、運転支援方法(S)。 - 請求項1または2に記載の運転支援方法(S)において、
予想期間まで複数の時間増分にわたって、それぞれのオブジェクトボックス(54)のスケーリング、それぞれのオブジェクトボックス(54)の座標、それぞれのオブジェクトボックス(54)の平行移動、およびそれぞれのオブジェクトボックス(54)の横幅についての値を反復的に決定および更新することによって、少なくとも、現在最後に検出された画像に対して将来に予想されるオブジェクトボックス(55)を決定する、運転支援方法(S)。 - 請求項3に記載の運転支援方法(S)において、
それぞれの時間増分について、特に指定された順序で、以下のステップ:
割当て規則:
スケーリング古い:=スケーリング新しい
ボックス平行移動X古い:=ボックス平行移動X新しい
ボックス幅古い:=ボックス幅新しい
ボックス位置左古い:=ボックス位置左新しい
ボックス位置右古い:=ボックス位置右新しい
にしたがって、計算すべき値をリセットまたは事前設定するステップ(I1)と、
次の割当て規則:
スケーリング新しい:=1/(2−スケーリング古い)
にしたがってスケーリングを更新するステップ(I2)と、
次の割当て規則:
ボックス平行移動X新しい:=ボックス平行移動X古い×スケーリング古い
にしたがって、水平方向のオブジェクトボックス平行移動を更新するステップ(I3)と、
次の割当て規則:
ボックス幅新しい:=ボックス位置右古い−ボックス位置左古い
にしたがって、水平方向のオブジェクトボックス幅を更新するステップ(I4)と、
次の割当て規則:
ボックス位置左新しい:=ボックス位置左古い+ボックス平行移動X新しい−
0.5×ボックス幅新しい×(スケーリング新しい−1)/スケーリング新しい
ボックス位置右新しい:=ボックス位置右古い+ボックス平行移動X新しい+
0.5×ボックス幅新しい×(スケーリング新しい−1)/スケーリング新しい
にしたがって、水平方向のボックス位置を予測するステップ(I5)と、
を実施し、
スケーリング古いもしくはスケーリング新しいはオブジェクトボックス(54)の古い、もしくは新しいスーリングを示し、ボックス平行移動X古いもしくはボックス平行移動X新しいはオブジェクトボックス(54)の古い、もしくは新しい変位を示し、ボックス幅古いもしくボックス幅新しいはオブジェクトボックス(54)の古い、もしくは新しい幅を示し、ボックス位置左古いもしくはボックス位置左新しいは、それぞれのオブジェクトボックス(54)の第1のX座標としてオブジェクトボックス(54)の左下角隅の古い、もしくは新しい位置を示し、ボックス位置右古いもしくはボックス位置右新しいは、それぞれのオブジェクトボックス(54)の第2のX座標もしくはその値としてオブジェクトボックス(54)の右下角隅の古いもしくは新しい位置を示す、運転支援方法(S)。 - 請求項3または4に記載の運転支援方法(S)において、
新しいボックス位置を決定するために以下の計算規則:
ボックス位置左新しい:=(ボックス位置左現在+ボックス速度左現在 *T予測)/(1+標準速度現在 *T予測)
ボックス位置右新しい:=(ボックス位置現在+ボックス速度右現在 *T予測/(1+標準速度現在 *T予測)を実施し、
ボックス位置左新しいおよびボックス位置左現在もしくはボックス位置右新しいおよびボックス位置右現在は、左もしくは右のボックスエッジの新しい、もしくは現在の位置であり、ボックス速度左現在およびボックス速度右現在は、左もしくは右のボックスエッジの現在測定された角速度であり、標準速度現在は現在測定されたいわゆる「標準化された」ボックス速度であり、T予測は、予測時間段階に関連する予測時間であり、オブジェクトボックスの計算されたスケーリング変化から標準速度現在を導く、運転支援方法(S)。 - 請求項1から5までのいずれか1項に記載の運転支援方法(S)において、
予想されるオブジェクトボックス(55)の幅の割合が、基礎となる画像または画像の所定のカットの幅について所定の第1のしきい値を超える場合には、前記予想されるオブジェクトボックス(55)の基礎となるオブジェクトが、起こり得る衝突に関して、特に100%の危険性の値によって、危険であると決定する、運転支援方法(S)。 - 請求項6に記載の運転支援方法(S)において、
オブジェクト(52)について予想されるオブジェクトボックス(54)の幅が、基礎となる画像または所定のカットの外側に位置決めされた割合だけ、オブジェクト(52)について決定した危険性の値を低減する、運転支援方法(S)。 - 請求項1から7までのいずれか1項に記載の運転支援方法(S)において、
予想されるオブジェクトボックス(55)が、基礎となる画像または画像の所定のカットの完全に外側にある場合には、予想されるオブジェクトボックス(55)の基礎となるオブジェクトが、起こり得る衝突に関して、特に、0%の危険性の値によって、危険ではないと決定する、運転支援方法(S)。 - 請求項1から8までのいずれか1項に記載の運転支援方法(S)において、
前記オブジェクト(52)として歩行者(52′)を決定し、歩行者モデルに基づいてオブジェクト(52)としての前記歩行者(52′)の位置および動きを検査および評価し、歩行者(52′)について決定した速度に基づいてオブジェクト(52)としての前記歩行者(52′)の加速能力を決定し、速度および加速能力に基づいてオブジェクト(52)としての前記歩行者(52′)の危険性を決定し、特に加速能力に基づいて、前記予想されるオブジェクトボックス(55)を包囲するか、または少なくとも横方向または水平方向に含むオブジェクトボックス(56)を生成し、危険性の評価時に基礎として使用する、運転支援方法(S)。 - 操作装置(1)、特に車両の運転支援システム(100)のための制御ユニット(10)において、
制御ユニット(10)が、請求項1から9までのいずれか1項に記載の運転支援方法(S)を制御し、実行するように、および/または請求項1から9までのいずれか1項に記載の運転支援方法(S)にしたがって、基礎となる運転支援システム(100)を作動するように設定されている、制御ユニット(10)。 - 操作装置(1)、特に車両の運転支援システム(100)において、
請求項1から9までのいずれか1項に記載の運転支援方法(S)を実施するように設定されており、特にこのために請求項10に記載の制御ユニット(10)を備える、運転支援システム(100)。 - 操作装置(1)において、
請求項11に記載の運転支援システム(100)を有し、特に、車両、自動車、または乗用車として構成されている、操作装置(1)。 - 請求項1から9までのいずれか1項に記載の運転支援方法(S)の使用法において、
歩行者保護、サイクリスト保護、ACC、および/または回避システムまたは方法のための、請求項10に記載の制御ユニット(10)、請求項11に記載の運転支援システム(100)、および/または請求項12に記載の操作装置(1)の使用法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018208278.2 | 2018-05-25 | ||
DE102018208278.2A DE102018208278A1 (de) | 2018-05-25 | 2018-05-25 | Betriebsassistenzverfahren, Steuereinheit, Betriebsassistenzsystem und Arbeitsvorrichtung |
PCT/EP2019/059280 WO2019223933A1 (de) | 2018-05-25 | 2019-04-11 | Betriebsassistenzverfahren, steuereinheit, betriebsassistenzsystem und arbeitsvorrichtung |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021525423A true JP2021525423A (ja) | 2021-09-24 |
JP7244546B2 JP7244546B2 (ja) | 2023-03-22 |
Family
ID=66182567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020565882A Active JP7244546B2 (ja) | 2018-05-25 | 2019-04-11 | 運転支援方法、制御ユニット、運転支援システム、および操作装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11403854B2 (ja) |
EP (1) | EP3803679B1 (ja) |
JP (1) | JP7244546B2 (ja) |
CN (1) | CN112166434A (ja) |
DE (1) | DE102018208278A1 (ja) |
WO (1) | WO2019223933A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11787864B2 (en) | 2018-10-23 | 2023-10-17 | Dragonfly Therapeutics, Inc. | Heterodimeric Fc-fused proteins |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10885775B2 (en) * | 2019-06-06 | 2021-01-05 | Verizon Patent And Licensing Inc. | Monitoring a scene to analyze an event using a plurality of image streams |
JP7308089B2 (ja) * | 2019-07-18 | 2023-07-13 | 株式会社小松製作所 | 作業車両の表示システムおよび作業車両の表示方法 |
KR20220094416A (ko) * | 2020-12-29 | 2022-07-06 | (주)에이아이매틱스 | 근미래 객체 위치 예측 시스템 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001028050A (ja) * | 1999-05-10 | 2001-01-30 | Honda Motor Co Ltd | 歩行者検知装置 |
JP2008113296A (ja) * | 2006-10-31 | 2008-05-15 | Honda Motor Co Ltd | 車両周辺監視装置 |
JP2008186170A (ja) * | 2007-01-29 | 2008-08-14 | Fujitsu Ten Ltd | 運転支援装置および運転支援方法 |
JP2010152873A (ja) * | 2008-11-19 | 2010-07-08 | Clarion Co Ltd | 接近物体検知システム |
US20120140076A1 (en) * | 2010-12-07 | 2012-06-07 | Rosenbaum Dan | Forward collision warning trap and pedestrian advanced warning system |
WO2013064571A1 (en) * | 2011-11-03 | 2013-05-10 | Thales Nederland B.V. | System for characterizing motion of an individual, notably a human individual, and associated method |
JP2013097480A (ja) * | 2011-10-31 | 2013-05-20 | Hitachi Consumer Electronics Co Ltd | 車両用衝突危険予測装置及び車両用衝突危険予測システム |
JP2013210942A (ja) * | 2012-03-30 | 2013-10-10 | Fujitsu Ten Ltd | 検知装置、及び検知方法 |
WO2015152304A1 (ja) * | 2014-03-31 | 2015-10-08 | エイディシーテクノロジー株式会社 | 運転支援装置、及び運転支援システム |
JP2017138660A (ja) * | 2016-02-01 | 2017-08-10 | トヨタ自動車株式会社 | 物体検出方法、物体検出装置、およびプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7486803B2 (en) * | 2003-12-15 | 2009-02-03 | Sarnoff Corporation | Method and apparatus for object tracking prior to imminent collision detection |
US8498444B2 (en) * | 2010-12-13 | 2013-07-30 | Texas Instruments Incorporated | Blob representation in video processing |
CN106537180B (zh) * | 2014-07-25 | 2020-01-21 | 罗伯特·博世有限公司 | 用于用针对行人的主动制动的摄影机输入缓解雷达传感器限制的方法 |
CN106156725A (zh) * | 2016-06-16 | 2016-11-23 | 江苏大学 | 一种基于车辆前方的行人及骑车人的识别预警系统的工作方法 |
US10248872B2 (en) | 2016-10-19 | 2019-04-02 | Texas Instruments Incorporated | Estimation of time to collision in a computer vision system |
US10725472B2 (en) * | 2017-08-10 | 2020-07-28 | Beijing Airlango Technology Co., Ltd. | Object tracking using depth information |
-
2018
- 2018-05-25 DE DE102018208278.2A patent/DE102018208278A1/de active Pending
-
2019
- 2019-04-11 US US16/977,803 patent/US11403854B2/en active Active
- 2019-04-11 CN CN201980035337.7A patent/CN112166434A/zh active Pending
- 2019-04-11 JP JP2020565882A patent/JP7244546B2/ja active Active
- 2019-04-11 WO PCT/EP2019/059280 patent/WO2019223933A1/de unknown
- 2019-04-11 EP EP19717859.3A patent/EP3803679B1/de active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001028050A (ja) * | 1999-05-10 | 2001-01-30 | Honda Motor Co Ltd | 歩行者検知装置 |
JP2008113296A (ja) * | 2006-10-31 | 2008-05-15 | Honda Motor Co Ltd | 車両周辺監視装置 |
JP2008186170A (ja) * | 2007-01-29 | 2008-08-14 | Fujitsu Ten Ltd | 運転支援装置および運転支援方法 |
JP2010152873A (ja) * | 2008-11-19 | 2010-07-08 | Clarion Co Ltd | 接近物体検知システム |
US20120140076A1 (en) * | 2010-12-07 | 2012-06-07 | Rosenbaum Dan | Forward collision warning trap and pedestrian advanced warning system |
JP2013097480A (ja) * | 2011-10-31 | 2013-05-20 | Hitachi Consumer Electronics Co Ltd | 車両用衝突危険予測装置及び車両用衝突危険予測システム |
WO2013064571A1 (en) * | 2011-11-03 | 2013-05-10 | Thales Nederland B.V. | System for characterizing motion of an individual, notably a human individual, and associated method |
JP2013210942A (ja) * | 2012-03-30 | 2013-10-10 | Fujitsu Ten Ltd | 検知装置、及び検知方法 |
WO2015152304A1 (ja) * | 2014-03-31 | 2015-10-08 | エイディシーテクノロジー株式会社 | 運転支援装置、及び運転支援システム |
JP2017138660A (ja) * | 2016-02-01 | 2017-08-10 | トヨタ自動車株式会社 | 物体検出方法、物体検出装置、およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11787864B2 (en) | 2018-10-23 | 2023-10-17 | Dragonfly Therapeutics, Inc. | Heterodimeric Fc-fused proteins |
Also Published As
Publication number | Publication date |
---|---|
US11403854B2 (en) | 2022-08-02 |
US20200401821A1 (en) | 2020-12-24 |
EP3803679A1 (de) | 2021-04-14 |
EP3803679B1 (de) | 2024-07-24 |
WO2019223933A1 (de) | 2019-11-28 |
DE102018208278A1 (de) | 2019-11-28 |
JP7244546B2 (ja) | 2023-03-22 |
CN112166434A (zh) | 2021-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7244546B2 (ja) | 運転支援方法、制御ユニット、運転支援システム、および操作装置 | |
US11610477B2 (en) | Traffic assistance system, server, and vehicle-mounted device | |
US9358976B2 (en) | Method for operating a driver assistance system of a vehicle | |
JP5718942B2 (ja) | 輸送手段の安全な運転を補助する装置及び方法 | |
US9196163B2 (en) | Driving support apparatus and driving support method | |
JP2016199262A (ja) | 後退走行中の前輪軌道逸脱に基づく衝突の回避 | |
JP5898001B2 (ja) | 車両周辺監視装置 | |
JP5418661B2 (ja) | 車両周辺監視装置 | |
JPWO2019030922A1 (ja) | 駐車制御方法及び駐車制御装置 | |
CN109416884B (zh) | 识别区域推定装置、识别区域推定方法及识别区域推定程序 | |
JP6008050B2 (ja) | 運転状態推定装置 | |
JP2008003707A (ja) | 危険予測装置 | |
JP2011071932A (ja) | 車両周辺監視装置 | |
JP5927110B2 (ja) | 車両用外界認識装置 | |
US20160328974A1 (en) | Collision avoidance assistance device and collision avoidance assistance method | |
JP6035095B2 (ja) | 車両の衝突判定装置 | |
JP5298104B2 (ja) | 車両の制御装置 | |
CN112581381A (zh) | 周边监视装置以及周边监视方法 | |
JP2008003880A (ja) | 車両周辺監視システム、車両周辺監視プログラム、車両周辺監視システムの構築方法およびサーバ | |
KR20210060779A (ko) | 차량센서의 이상 진단 장치 및 그 방법 | |
TWI723657B (zh) | 車輛控制方法與車用控制系統 | |
CN116118770A (zh) | 面向稳健自动驾驶控制的车辆感知系统的自适应合理化器 | |
JP4923766B2 (ja) | 車両用制動力制御装置 | |
JP4884806B2 (ja) | 車両周辺監視システム | |
JP6295868B2 (ja) | 車両用表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210402 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7244546 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |