JP2018177216A - 車両が自動的に再び動き出すことを可能にする装置 - Google Patents

車両が自動的に再び動き出すことを可能にする装置 Download PDF

Info

Publication number
JP2018177216A
JP2018177216A JP2018075233A JP2018075233A JP2018177216A JP 2018177216 A JP2018177216 A JP 2018177216A JP 2018075233 A JP2018075233 A JP 2018075233A JP 2018075233 A JP2018075233 A JP 2018075233A JP 2018177216 A JP2018177216 A JP 2018177216A
Authority
JP
Japan
Prior art keywords
image
vehicle
scene
processing unit
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018075233A
Other languages
English (en)
Other versions
JP7268959B2 (ja
JP2018177216A5 (ja
Inventor
ダーニエール・ヴェストホーフェン
Westhofen Daniel
クリスティアン・シャーフェンベルガー
Scharfenberger Christian
ハイコ・ハーン
Hahn Heiko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Publication of JP2018177216A publication Critical patent/JP2018177216A/ja
Publication of JP2018177216A5 publication Critical patent/JP2018177216A5/ja
Application granted granted Critical
Publication of JP7268959B2 publication Critical patent/JP7268959B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/17Control of distance between vehicles, e.g. keeping a distance to preceding vehicle with provision for special action when the preceding vehicle comes to a halt, e.g. stop and go
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/09Other types of propulsion units, e.g. fluid motors, or type not specified
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】車両が自動的に再び動き出すことを可能にする装置を提供する。【解決手段】入力ユニット20は、車両周辺の画像を提供する。処理ユニット30は、少なくとも1つの画像を処理して低レベル特徴を抽出する。低レベル特徴は、少なくとも1つのシーンのうちの単一の画像の中の少なくとも1つの低レベル特徴に基づいてシーンの中のオブジェクトを特徴付けることができないものとして定義される。処理ユニット30は、オブジェクトの少なくとも一部がシーンの一部に存在するか否かの判定であって、低レベル特徴の分析を含む判定を行うように構成されている。出力ユニット40は、シーンに何かが存在するという情報を出力する。【選択図】図1

Description

本発明は、車両が自動的に再び動き出すことを可能にする装置、車両が自動的に再び動き出すことを可能にするシステム、車両が自動的に再び動き出すことを可能にする方法、及びコンピュータプログラム要素に関する。
本発明の一般的背景は、運転警報システム及び情報提供システム、ならびに適応走行制御(ACC)の分野である。
ACCは、今日の自動車業界における重要な機能である。ACCは、ドライバーの車両(通常は「自己車両」と呼ばれる)を能動的に制御して、ドライバーの車両と車両の前の他の道路ユーザ、例えば自己車両の前の同じ車線にいる車両(通常は「対象車両」と呼ばれる)との間に一定の距離を維持する。一般に、各ACCシステムは、対象車両に関する特定の情報、例えば自己車両までの距離、速度、加速度、減速度などを抽出する少なくとも1つのセンサを含む。この情報は加速/減速要求を自己車両のエンジンを制御しているユニットに送るために更に処理されれ、その結果、自己車両の速度及び対象車両までの距離が制御される。ACCシステムの検知ユニットは、単一のカメラ、レーダーシステム、又は両者の組合せとすることができる。現在のACCシステムを用い、減速する対象車両の後方で自己車両を停止するまで制御することができる。ACCシステムの中には、停止後に対象車両が再び動き出すと、短時間の停止後に自己車両を自動的に再び動き出させるものがある。停止まで減速しその後に再び動き出すプロセスは「ACCストップ・アンド・ゴー」と呼ばれ、停止後に自動的に再び動き出すことは「ACCオートゴー」と呼ばれる。再び動き出す前に、停止中に交通弱者ユーザが自己車両と対象車両の間の領域に進入したかもしれない交通渋滞のようなシナリオにおける衝突を回避するために、自己車両と対象車両の間の何もない空間についての確認が必要とされる。間隙確認は、例えば、単純なyes/no単一ビット又は当該領域におけるオブジェクトの存在を示すオブジェクトリストとすることができる。
しかし、先進運転支援システム(ADAS)全体の一部としての現在のACCシステムは、誤検出の数を少なく保つ(低誤判定率)一方で、十分に低い検出漏れ率(該当するオブジェクトを見逃さない)を有することができない。この状況に対処する必要がある。
車両が自動的に再び動き出すことを可能にする改良型の装置があれば、有利である。
本発明の目的は、独立請求項の主題によって達成され、更なる実施形態が従属請求項に包含される。なお、以下に記載する本発明の態様及び例は、車両が自動的に再び動き出すことを可能にする装置、車両が自動的に再び動き出すことを可能にするシステム、車両が自動的に再び動き出すことを可能にする方法、及びコンピュータプログラム要素にも適用される。
第1の態様において、
−入力ユニットと;
−処理ユニットと;
−出力ユニット
を備える、車両が自動的に再び動き出すことを可能にする装置が提供される。
入力ユニットは、処理ユニットに少なくとも1つの画像であって、車両の外部のシーンに関する少なくとも1つの画像を提供するように構成されている。処理ユニットは、少なくとも1つの画像を処理して低レベル特徴を抽出するように構成されている。低レベル特徴は、少なくとも1つの画像のうちの単一の画像の中の少なくとも1つの低レベル特徴に基づいてシーンの中のオブジェクトを特徴付けることができないものとして定義される。処理ユニットは更に、オブジェクトの少なくとも一部がシーンの一部に存在するか否かの判定であって、低レベル特徴の分析を含む判定を行うように構成されている。出力ユニットは、シーンに何かが存在するという情報を出力するように構成されている。
換言すると、通常の先進運転支援システム(ADAS)、例えば先進ブレーキングシステム(ABS)では使用できない画像において抽出される特徴を使用して、オブジェクトが車両の前に潜在的に存在するか否か判定することができ、これにより、適応走行制御(ACC)システムが停止後に自動的に自動車を再び前進させないようにすることができる。例えば、センサシステムの視野に部分的にのみ入っている、及び/又は例えば自動車のボンネットで部分的に隠れている小さな子供又は歩行者のようなオブジェクトを検出することができ、自動車が自動的に前進することを防ぐことができる。この停止状態からの自動的な再動き出しの禁止は、ADASシステムが通常は使用できない情報に基づいて行うことができる。言葉を換えれば、特定のオブジェクトに分類されるほど十分に信頼度が高いと判定されない特徴を、それでも車両の前の間隙空間に潜在的に侵入するオブジェクトであると判定することで、車両が停止状態から自動的に再び動き出すことを止めることができる。
従って、部分的に隠れているオブジェクト、及び/又は車両に非常に近いオブジェクトなど、通常は検出されないオブジェクトに関する情報を使用して道路弱者ユーザが潜在的に車両の前(又は、車両が後退している場合には車両の背後)の間隙空間にいる、又は入りつつあることを示し、ACCシステムの一部として適切な動作を行って車両が自動的に前進することを止めることができる。
このようにして、撮影されたシーン内の、通常のADASシステムの機能の操作に関してそれぞれ低い信頼度レベルを伴う多くの異なる特徴を共に分析し、個別では二分決定に必要な情報を構成しない情報に基づいて、ACCシステムが車両が自動的に前進するのを止めることができるようにする。
こうして、情報の個々の部分が特徴付けされる可能性があるオブジェクトと関連付けるには信頼度レベルが低すぎるために現在のシステムでは使用できず、実際には捨てられる情報をここでは使用して、オブジェクトが潜在的に車両の前に存在するか否か判定し、自己車両が自動的に前進するのを防止するので、検出漏れ(例えば、子供が自動車の直前にいて自動車のボンネットで部分的に隠れている)が起きて自動車が停止状態から自動的に前進する可能性が現在のシステムに対して劇的に低減される。
一例によると、処理ユニットは、人工知能に基づくアルゴリズム実施して低レベル特徴を分析するように構成されている。
こうして、信頼度レベルが低く、弱分類器応答を構成する1つ以上の低レベル特徴を機械学習又はニューラルネットワーク環境において利用し、間隙空間にオブジェクトが潜在的に存在し、車両が自動的に前進しないように止めるべきであるという判定が行えるようにする。
一例によると、処理ユニットは、少なくとも1つの画像を処理して高レベル特徴を抽出するように構成されている。高レベル特徴は、少なくとも1つの画像のうちの単一の画像の中の少なくとも1つの高レベル特徴に基づいてシーンの中のオブジェクトを特徴付けることができるものとして定義される。オブジェクトの少なくとも一部がシーンに存在するか否かの判定は、高レベル特徴の分析を更に含む。
こうして、通常はADASシステム内で処理され特徴付けられる特徴、例えば対象車両がその対象車両の関連位置を伴う自己車両の前に存在するという特徴を、路側の位置及び歩道の位置などの判定される他の情報と共に使用して低レベル特徴を分析し、考慮が必要な潜在的オブジェクトが存在するか否か判定しやすくすることができる。
この点に関して注目すべきは、通常のADASシステムでは、「高レベル」特徴は、それらに関連する高信頼度レベル及び低信頼度レベルを伴うことができ、本明細書では、シーンの中のオブジェクトを単一の画像の中の少なくとも1つの高レベル特徴に基づいて特徴付けることができるという点で、我々は高レベル特徴を信頼度レベルが比較的高い特徴と呼んでいる。従って、既存のADASシステムにおいて使用されない信頼度レベルの低い高レベル特徴は、本明細書では、我々の低レベル特徴の定義の範疇に入る。
一例によると、高レベル特徴は対象車両を含む。処理ユニットがオブジェクトの少なくとも一部が存在すると判定するように構成されているシーンの一部が、車両と対象車両の間の領域として判定される。
従って、自己車両が停止中に歩行者が入る可能性のある領域を定義することができ、この領域内の潜在的なオブジェクトの存在を探索し、そうした潜在的なオブジェクトがその領域に存在すると判定される場合には、自己車両が自動的に前進することを車載システムが許可しないようにできる。更に、対象車両が接近しすぎている場合、例えば自己車両が停止した後にわずかに後退した場合も、自己車両が自動的に前進するのを止めることができる。
一例によると、低レベル特徴の分析が、潜在的なオブジェクトが関連する信頼度レベルを有するように、シーンの一部の中の少なくとも1つの潜在的なオブジェクトを判定することと、少なくとも1つの信頼度レベルを判定することを含む。次いで、潜在的なオブジェクトは、その潜在的なオブジェクトの信頼度レベルが閾値を超えている場合、オブジェクトの少なくとも一部であると判定される。
一例によると、少なくとも1つの画像は、第1の画像と第2の画像を含み、第1の画像から判定される信頼度レベルが第2の画像から判定される信頼度レベルに基づいて更新される。
換言すると、侵入オブジェクトに関する情報は、センサシステムの2つ以上サイクルに亘って、例えばカメラの2つ以上の取得フレームサイクルについて得ることができ、検出された特徴のタイプとその信頼性に応じて信頼度レベル(又はリスク値)が累積され、この信頼度値が閾値を超えた場合、前進許可が取り消される。
従って、1つの画像内の低レベル特徴が、潜在的なオブジェクトがその画像内のある位置に存在することを示唆し、第2の画像における低レベル特徴の分析も、位置から判断して第1の画像において観察された潜在的なオブジェクトと同じ可能性がある潜在的なオブジェクトが存在することを示唆する場合、実際にオブジェクトがそこに存在することの信頼度レベルを上げることができる。
一例によると、処理ユニットは、第1の画像と第2の画像を横断して潜在的なオブジェクトを追跡するように構成されている。
従って、オブジェクトの痕跡又は軌跡が、それが例えば歩行者であることと矛盾せず、それにより誤検出ではないことが保証されることから、画像内の潜在的なオブジェクトを今まで以上に高い信頼度で判定することができるだけでなく、特徴の軌跡が、それが真のオブジェクトであることと矛盾する、及び/又は潜在的なオブジェクトが消えた場合には、こうした追跡を通じて誤検出を減らすことができる。換言すると、2つ以上の画像について(例えば、カメラシステムの2つ以上のサイクルについて)潜在的な侵入オブジェクトを観察することができる、及び/又は検出された特徴のタイプとその信頼性に応じてリスク値を累積できるデバウンシング機構が提供される。
一例によると、少なくとも1つの画像のうちの少なくとも1つは、少なくとも1台のカメラによって取得される。
従って、既にADASシステムの一部を形成している車両カメラを、ACCストップ・アンド・ゴーシステムの一部として使用できる。
一例によると、少なくとも1つの画像のうちの少なくとも1つは、レーダーセンサによって取得される。
従って、例えば既にADASシステム一部を形成しているレーダーシステムを、ACCストップ・アンド・ゴーシステムの一部として使用でき、更にカメラシステムから取得されるデータと組合せて使用することもできる。
一例によると、オブジェクトの少なくとも一部は、車両の外周から2.5m以内の距離にある。
従って、自己車両に非常に近い空間の領域内にあって、自己車両の一部によって部分的に隠されたオブジェクトを検出することができる。
一例によると、少なくとも1つの画像は、車両が停止中に撮影される。
一例によると、低レベル特徴は、色情報;エッジ;勾配;オプティックフロー;オプティックフロークラスタ、即ち、顕著性情報のうちの1つ以上を含む。
第2の態様において、車両が自動的に再び動き出すことを可能にするシステムであって、
−少なくとも1つのセンサシステム;
−第1の態様に記載の、車両が自動的に再び動き出すことを可能にする装置
を備えるシステムが提供される。
装置は、車両内に配置されるように構成されている。少なくとも1つのセンサシステムは、車両内に配置されるように構成され、少なくともセンサシステムは、観察される車両の外部のシーンに関する少なくとも1つの画像を取得するように構成されている。
こうして、例えば、既存のカメラを利用する、又は特注のカメラを使用することが可能であって、限遠に焦点を合わせたカメラで車両の外のシーンを撮影するカメラをベースとするシステムが車両、例えば自動車に設けられ、システムは、間隙領域にオブジェクトが検出されない場合には車両が停止状態から自動的に前進することを可能にし、オブジェクトの少なくとも一部が間隙領域に存在すると判定された場合には、自動的に車両が前進しないようにする。同様に、こうしたカメラシステムに代えて、又はこうしたカメラシステムと組合せて、既存のレーダーシステムを使用することもできる。
第三の態様において、車両が自動的に再び動き出すことを可能にする方法であって、
a)処理ユニットに少なくとも1つの画像であって、車両の外部のシーンに関する少なくとも1つの画像を提供することと;
b)処理ユニットを用いて、少なくとも1つの画像を処理して低レベル特徴であって、少なくとも1つのシーンのうちの単一の画像の中の少なくとも1つの低レベル特徴に基づいてシーンの中のオブジェクトを特徴付けることができないものとして定義される低レベル特徴を抽出することと;
c)処理ユニットを用いて、オブジェクトの少なくとも一部がシーンの一部に存在するか否かの判定であって、低レベル特徴の分析を含む判定を行うことと;
d)出力ユニットを用いて、シーンに何かが存在するという出力情報を出力することを含む方法が提供される。
別の態様によると、処理ユニットによって実行されると、上記の方法ステップを遂行するように構成されている、上記の装置を制御するコンピュータプログラム要素が提供される。
上記のコンピュータ要素が格納されたコンピュータ可読媒体が更に提供される。
有利には、上記態様のいずれかによって提供される利点は、他の態様全てに同じように適用され、逆の場合も同じである。
上記の態様及び例は、以下に記載する実施形態を参照して明らかになり、説明される。
例示の実施形態を、以下の図面を参照して以下に説明する。
車両が自動的に再び動き出すことを可能にする装置の一例の概略設定を示す。 車両が自動的に再び動き出すことを可能にするシステムの一例の概略設定を示す。 車両が自動的に再び動き出すことを可能にする方法を示す。 対象車両の背後の車両、観察領域、及び侵入する可能性のあるオブジェクトの一例を示す。 車両が自動的に再び動き出すことを可能にするために使用されるアルゴリズムの一例のフローチャートを示す。
図1は、車両が自動的に再び動き出すことを可能にする装置10の一例を示す。装置10は、入力ユニット20と、処理ユニット30と、出力ユニット40を備える。入力ユニット20は、有線又は無線通信を介して処理ユニット30に少なくとも1つの画像を提供するように構成されている。少なくとも1つの画像は、車両の外部のシーンに関するものである。処理ユニット30は、少なくとも1つの画像を処理して低レベル特徴を抽出するように構成されている。低レベル特徴は、少なくとも1つの画像のうちの単一の画像の中の少なくとも1つの低レベル特徴に基づいてシーンの中のオブジェクトを特徴付けることができないものとして定義される。処理ユニット30は更に、オブジェクトの少なくとも一部がシーンの一部に存在するか否か判定するように構成されている。判定は、低レベル特徴の分析を含む。出力ユニット40は、シーンの中に何かが存在するという情報を出力するように構成されている。
一例において、処理ユニットは、決定木分析アルゴリズムを実施して低レベル特徴を分析するように構成されている。
一例によると、処理ユニットは、人工知能に基づくアルゴリズムを実施して低レベル特徴を分析するように構成されている。
一例において、人工知能に基づくアルゴリズムは、機械学習アルゴリズムである。一例において、人工知能に基づくアルゴリズムは、ニューラルネットワークである。一例において、人工知能に基づくアルゴリズムは、ヒートマップアルゴリズムである。
一例によると、処理ユニットは、少なくとも1つの画像を処理して高レベル特徴を抽出するように構成されている。高レベル特徴は、少なくとも1つの画像のうちの単一の画像の中の少なくとも1つの高レベル特徴に基づいてシーンの中のオブジェクトを特徴付けることができるものとして定義される。少なくともオブジェクトの一部がシーンに存在するか否かの判定は次いで、高レベル特徴の分析を更に含む。
一例において、高レベル特徴は、歩行者のようなオブジェクトの中から抽出することができる。
一例によると、高レベル特徴は、対象車両を含む。処理ユニットがオブジェクトの少なくとも一部が存在すると判定するように構成されているシーンの一部が、車両と対象車両の間の領域であると判定される。
一例において、高レベル特徴は、完全に見えている場合には、対象車両と自己車両の間の領域に入ってくる歩行者のようなオブジェクトからも抽出することができる。
一例において、対象車両は、自動車、又は大型トラック、又は二輪車である。一例において、自己車両は、自動車、又は大型トラック、又は二輪車である。
一例によると、低レベル特徴の分析は、潜在的なオブジェクトが関連する信頼度レベルを有するように、シーンの一部の中の少なくとも1つの潜在的なオブジェクトを判定することと、少なくとも1つの信頼度レベルを判定することを含む。次いで、潜在的なオブジェクトは、その潜在的なオブジェクトの信頼度レベルが閾値を超えている場合、オブジェクトの少なくとも一部であると判定される。
一例において、閾値は、手動で最適化される、及び/又は機械学習される。従って、低レベル特徴の分析が子供が間隙空間内にいる可能性を示す傾向がある可能性がある場合には、大人が間隙空間内にいる潜在性がある場合よりも閾値を低く設定できるように、オブジェクト固有の閾値が設定され得る。閾値は更に、オブジェクトの潜在的なタイプを考慮に入れるだけでなく、潜在的なオブジェクトが間隙空間内のどこにいるかを考慮に入れることができる。例えば、オブジェクトが潜在的に子供であり得る場合には、オブジェクトが間隙空間内のどこにいるかに関わらず、閾値を低く設定し、それにより車両の前方への移動が子供をパニックに陥らせることがないようにすることが可能である。ただし、オブジェクトが潜在的に大人であり得る場合には、オブジェクトがその空間内のどこに位置しているかに応じて閾値レベルを変化させることが可能である。
一例によると、少なくとも1つの画像は、第1の画像と第2の画像を含み、第1の画像から判定される信頼度レベルが第2の画像から判定される信頼度レベルに基づいて更新される。
一例において、少なくとも1つの画像は、n個の画像を含み、第1の画像から判定される信頼度レベルがn番目の画像から判定される信頼度レベルに基づいて更新される。
一例によると、処理ユニットは、第1の画像と第2の画像を横断して潜在的なオブジェクトを追跡するように構成されている。
一例によると、少なくとも1つの画像のうちの少なくとも1つは、少なくとも1台のカメラによって取得される。
一例によると、少なくとも1つの画像のうちの少なくとも1つは、レーダーセンサによって取得される。
一例によると、オブジェクトの少なくとも一部は、車両の外周から2.5m以内の距離にある。
一例によると、少なくとも1つの画像は、車両が停止中に撮影される。
一例によると、低レベル特徴は、色情報;エッジ;勾配;オプティックフロー;オプティックフロークラスタ、即ち、顕著性情報のうちの1つ以上を含む。
一例において、低レベル特徴は、色情報;エッジ;勾配;オプティックフロー;オプティックフロークラスタのうちの一つ一つとすることができる。一例において、色情報;エッジ;勾配;オプティックフロー;オプティックフロークラスタのうちの2つ以上の組合せから中レベル特徴を形成することができる。ただし、中レベル特徴はそれでも、少なくとも1つの画像のうちの単一の画像の中のそうした中レベル特徴に基づいてシーンの中のオブジェクトを特徴付けることができないという点で、高レベル特徴ではない。
図2は、車両が自動的に再び動き出すことを可能にするシステム100の一例を示す。システム100は、少なくとも1つのセンサシステム110と、図1に関して説明した車両が自動的に再び動き出すことを可能にする装置10を備える。装置10は、車両120内に配置されるように構成されている。少なくとも1つのセンサシステム110は、車両120内に配置されるように構成されており、少なくともセンサシステム110は、観察される車両の外部のシーンに関する少なくとも1つの画像を取得するように構成されている。
一例において、少なくとも1つのセンサシステム110は、入力ユニット20である。
図3は、基本的なステップにおいて車両が自動的に再び動き出すことを可能にする方法200を示す。方法200は、
ステップa)とも称される提供ステップ210において、処理ユニット30に少なくとも1つの画像であって、車両の外部のシーンに関する少なくとも1つの画像を提供することと;
ステップb)とも称される処理ステップ220において、処理ユニットを用いて、少なくとも1つの画像を処理して低レベル特徴であって、少なくとも1つのシーンのうちの単一の画像の中の少なくとも1つの低レベル特徴に基づいてシーンの中のオブジェクトを特徴付けることができないなものとして定義される低レベル特徴を抽出することと;
ステップc)とも称される判定ステップ230において、処理ユニットを用いて、オブジェクトの少なくとも一部がシーンの一部に存在するか否かの判定であって、低レベル特徴の分析を含む判定を行うこと;
ステップd)とも称される出力ステップ240において、出力ユニット40を用いて、シーンに何かが存在するという出力情報を出力することを含む。
一例において、ステップc)は、人工知能に基づくアルゴリズムを実施して低レベル特徴を分析することを含む。
一例において、ステップb)は、少なくとも1つの画像を処理して高レベル特徴であって、少なくとも1つの画像のうちの単一の画像の中の少なくとも1つの高レベル特徴に基づいてシーンの中のオブジェクトを特徴付けることができるものとして定義される高レベル特徴を抽出することを含み;ステップc)は、高レベル特徴の分析を含む。
一例において、高レベル特徴は、対象車両を含み、処理ユニットがオブジェクトの少なくとも一部が存在すると判定するように構成されているシーンの一部が、車両と対象車両の間の領域であると判定される。
一例において、ステップc)における低レベル特徴の分析は、潜在的なオブジェクトが関連する信頼度レベルを有するように、シーンの一部の中の少なくとも1つの潜在的なオブジェクトを判定することと、少なくとも1つの信頼度レベルを判定することを含み、潜在的なオブジェクトは、その潜在的なオブジェクトの信頼度レベルが閾値を超えている場合、オブジェクトの少なくとも一部であると判定される。
一例において、少なくとも1つの画像は、第1の画像と第2の画像を含み、第1の画像から判定される信頼度レベルが第2の画像から判定される信頼度レベルに基づいて更新される。
一例において、処理ユニットは、第1の画像と第2の画像を横断して潜在的なオブジェクトを追跡するように構成されている。
装置、システム、及び方法を図4〜5に関してさらに詳細に説明する。
図4は、自己車両と対象車両の間の監視領域に入ってくる任意オブジェクト(歩行者)の一例を示す。カメラをベースとするアプローチを使用して、自己車両に非常に接近する可能性があり、車両と対象車両の間の観察領域(又は間隙空間)にいるか、観察領域に入ろうとしているオブジェクトが検出される。レーダーをベースとするアプローチを利用することも可能であり、カメラとレーダーをベースとするアプローチを利用することも可能である。
低検出漏れ率でオブジェクトが観察領域に存在するか否か判定する本アプローチは、第1にADAS、例えば、実行すべき動作のために信頼度の高いオブジェクト(本明細書では、高レベルオブジェクト特徴と呼ぶ)を分類する強化型ブレーキアシスト(EBA)考えることによって最もよく理解することができる。オブジェクトの分類には使用できない低レベルオブジェクト特徴及び中レベルオブジェクト特徴であるとみなされる可能性があり、従って、EBAシステムでは考慮されないシーン内の情報が、本アプローチにおいては処理されて、オブジェクトが観察領域にいるのか、又は観察領域に入ろうとしているのかが判定される。従って、EBAシステムを考慮して、オブジェクト検出/特徴付けプロセスは、以下のように記載することができる:
1)一定のサイズのn個の区画を定義し、それを画像全体に亘ってスライドさせる。
2)区画のそれぞれの位置について、低レベル特徴、例えば色、エッジ、勾配などを抽出する。
3)特徴全てを適切な方法で配置して特徴記述子(中レベル特徴)を形成する。ここで、中レベル特徴は、低レベル特徴(モチーフ)、仮説、オプティックフロー、フロークラスタの組合せである。
4)この記述子を使用して区画が対象のオブジェクトを含む確率を計算する。区画は、この確率がある閾値(中レベル特徴)よりも大きい場合、仮説になる。
5)区画を画像全体に亘ってスライドさせるため、同じオブジェクトについて多くの仮説が生成される。a仮説に対して非最大値抑制を遂行し、理想的には検出すべきオブジェクトを表している確率値が最も高いもののみを保持する。
6)残った仮説の記述子を使用してオブジェクトを車両、歩行者などに分類し、そのオブジェクトが識別されたクラスに属する信頼度を計算する。
ただし、ここで、現在のアプローチにおいては、ステップ1〜4が実行され、新たなステップ5が低レベル特徴と中レベル特徴を取り上げて処理し、オブジェクトが存在い得るか否か判定する。換言すると、中間処理ステップと、完全ADAS解では使用されないそれらのステップで利用可能な情報がここで、間隙空間におけるオブジェクトの存在を示すために直接利用される。その結果、自己車両に非常に近い(例えば、2.5m未満)オブジェクト、全体が見えないオブジェクト、自己車両に重なっている/隠れているオブジェクト、一部がカメラの視野の外にあるオブジェクト、体が自己車両と重なったり自己車両によって見えなくなったりする子供のような非常に小さなオブジェクトを検出することができるようになる。これにより、そうしたオブジェクトが検出されている場合には、ACCシステムがACCオートゴーを抑制でき、逆に、そうしたオブジェクトが検出されていない場合には、完全なACCストップ・アンド・ゴー機能が有効になる。このようにして、間隙確認が低い検出漏れ率で確実に行われる。
図5は、ACCシステムにおいてドライバーからの更なる確認なしに自律的に最動き出しを可能とするアルゴリズムの単純化したフローチャートを示す。現在のアプローチで処理される画像を必要とするカメラシステムは、連続する2フレーム間のサイクルタイム期間を66msとし、毎秒16フレームのフレーム率で作動する。カメラによっては異なるサイクルタイムで作動する場合がある。先に検討したように、カメラシステム内のプロセッサ、又はカメラシステムからの画像を処理する別のプロセッサが、中間処理ステップの中及び低レベル特徴を明確に使用することによって、各サイクルにおいて近接オブジェクト検出を遂行し、間隙確認を計算する。次いで、間隙確認が、その領域に既に存在していたオブジェクトである場合、横切るオブジェクトが観察領域に侵入していないということを示すことを可能とする。
続けて図5を参照すると、間隙確認が以下の基本的なステップにおいて計算される:
1.対象車両の識別
a.進入する又は存在するオブジェクトを監視すべき観察領域を判定するための対象車両の識別
b.他の車両が自己車両と実際の対象車両との間に割り込む場合など、対象車両の変化を識別するために、運転中及び停止中の実際の対象車両も観察される
c.a及びbの一部として、現在追跡している対象車両の痕跡が監視され、ここで、痕跡は、時空間における車両の位置によって形成される、検出された車両の進路(経路)である。運転中及び停止中に中断した、又は完全に途切れた対象車両の痕跡が対象車両の変化の指標として使用される。
2.減速から停止、及びその後の自動的動き出しの潜在性を識別するための自己車両及び対象車両の動きの分析
3.停止後の観察領域の監視
a.先に検討したように、「高レベル」オブジェクトが検出されて分類され、それを例えばEBAシステムで使用することができる。しかし、先に検討したように、低レベル及び中レベルの情報を使用して潜在的なオブジェクト及び間隙空間が存在するか否か判定される。高レベルの情報又はオブジェクトもこのプロセスに使用することができる。
b.潜在的なオブジェクト検出の最終の結果は、観察領域(間隙空間)への侵入の指標として使用されるオブジェクトリストである。
c.オブジェクトリストは、高い信頼度で検出されたオブジェクトを含み、これは、先に検討したように、対象領域に関する情報及び対象車両に関する情報を判定するために使用することができる。この高信頼度情報は更に、間隙空間にオブジェクトが存在するか否か判定するために使用できる。
d.しかし、オブジェクトリストはここで、高信頼度には達しておらず、そのため、他のシステム機能、例えばEBAにとっては重要ではない「仮説」と呼ばれ得る追加のオブジェクトを含む。これらの仮説は、低信頼度分類応答を用いて新たに初期化(検出)されているか、更新されている(以前に検出された低又は中信頼度オブジェクトは、現在取得されているフレームに基づいて信頼度レベルが更新され得る)。
e.EBAに関し、仮説の信頼度レベルが、関連する分類応答(又はその欠如)に応じてサイクル毎に更新され、オブジェクト仮説は、分類応答によって補強されなくなると、高信頼度オブジェクトに昇格されるか、又は削除される。
f.しかし、低及び中レベル特徴、例えば低信頼度分類応答又はフロークラスタはここで、それらが間隙空間におけるオブジェクトであり得るか否か判定するために明確に使用される。従って、それ自体ではオブジェクトリストに含まれるオブジェクトの初期化をもたらさない低信頼度分類応答は、ある領域におけるこうした低信頼度分類応答の連続的存在に基づいて、間隙空間のその位置にオブジェクトが存在することを示すことができる。従って、一定期間の停止中に低信頼度分類応答が蓄積される。ある領域がこうした応答の明白なクラスタを含む場合、それは、間隙確認のための低レベル特徴であるとみなすことができる。換言すると、例えばEBAにおいて使用するにはオブジェクトを検出し分類するのに十分な信頼度を伴わない低及び中レベル情報を使用して、間隙空間に何かが存在する可能性があることをACCに知らせるのに役立てることができる。従って、オブジェクトが非常に小さく、及び/又は自己車両によって部分的に覆われており、全体としては分類できない場合でも、間隙空間への潜在的侵入を示す十分な仮説が存在する場合がある。
g.低レベルの特徴には、例えば領域から抽出された色、エッジ、勾配などの特徴が含まれ、中レベル特徴には、低レベル特徴の組合せ、仮説、フロー、フロークラスタなどが含まれる。従って、オプティカルフロー及びフロークラスタは、それらが間隙空間内のオブジェクトであり得るか否か判定するために、代わりに又は追加で使用される特徴の別の形態に過ぎない。オプティカルフロー及びフロークラスタの突然の存在は、(指向性)運動を示し、オブジェクトが危険な空間に進入しつつある可能性があることを示す。従って、フロークラスタは、クラスタ化された相違データの単カメラ同等物であるとみなすことができる。すぐ近くのフローベクトルが同様の方向と大きさを持ち、侵入するオブジェクトに合致するほど十分な画像領域をカバーしている場合、それらをクラスタ化して総称オブジェクト仮説を創出することができる。次いで、追跡された総称オブジェクトは、間隙確認のための低レベル特徴として使用することができる。
h.顕著性情報を特徴として使用して監視領域における潜在的な侵入オブジェクトを示す変化を識別することができる。
i.加えて、ステレオ情報が利用可能な場合、クラスタ化された相違データに基づく総称オブジェクト検出を上記に加えて使用することができる。
4.間隙確認の計算
a.次いで、取得した画像からの低信頼度出力がニューラルネットワーク機械学習アルゴリズム内で、オブジェクト又は潜在的なオブジェクトが間隙空間に存在するか否か判定するために使用される。ニューラルネットワークは、地上検証情報を用いて、換言すれば、人間によって既に分析された画像を用いて教育される。次いで、ニューラルネットワークは、ACCシステム内での間隙確認を実現するため、取得した画像に対してリアルタイムで作動して間隙空間に可能性のあるオブジェクトが存在するか否か判定する。先に検討したように、ニューラルネットワーク機械学習アルゴリズム内では、高信頼度情報も使用することができる。ニューラルネットワーク機械学習アルゴリズムを使用せずに、「手作りの」決定木アルゴリズムを利用することもできる。
b.誤判定率を好転させるため、デバウンシング機構が利用される。これは、検出された無特徴信頼性のタイプに応じて侵入オブジェクトが数サイクルに亘って観察される、及び/又は、リスク値が累積されることを意味する。ある閾値(手動で最適化された、又は機械学習された)に到達した場合のみ、車両運動の自動再開が無効にされる。
c.先に検討したように、「高レベル」オブジェクトリストを対象車両の直接観察に使用することができる。間隙検出及びそれに続くオートゴー機能の起動の前に、追跡されている現在の対象車両を識別する必要がある。対象車両が識別され停止操作が遂行され次第、対象車両は検出され続けるはずである。対象オブジェクトの追跡が失われた場合、対象車両が隠された(例えば自己車両のセンサの前を誰かが歩いているために)表れと解釈することができる。この場合、オートゴーの許可も拒絶される。
上記の方法で間隙確認を行うため、カメラセンサに加え、或いはこれに代えて、レーダー又は超音波のセンサを利用して潜在的なオブジェクトが間隙空間に存在するか否か判定することができる。
別の例示の実施形態において、適切なシステム上で先行する実施形態のうちの1つによる方法の方法ステップを実行するように構成されたことを特徴とするコンピュータプログラム又はコンピュータプログラム要素が提供される。
従って、コンピュータプログラム要素は、実施形態の一部ともなり得るコンピュータユニットに格納されてもよい。この計算ユニットは、上記の方法のステップを遂行する、又はその遂行を誘導するように構成されてもよい。加えて、上記の装置及び/又はシステムの構成要素を作動させるように構成されてもよい。計算ユニットは、自動的に作動する、及び/又はユーザの命令を実行するように構成することができる。コンピュータプログラムをデータプロセッサの作業メモリにロードしてもよい。すると、データプロセッサは、先行する実施形態のうちの1つによる方法を実行する能力を備えることができる。
本発明の更なる例示の実施形態によると、コンピュータ可読媒体、例えばCD−ROMが提示され、コンピュータ可読媒体は、コンピュータプログラム要素を格納し、そのコンピュータプログラム要素は、先行する段落で説明したものである。
なお、本発明の実施形態は、様々な主題を参照して記載される。特に、一部の実施形態は、方法型の請求項を参照して記載され、他の実施形態は、装置型の請求項を参照して記載される。しかし、当業者は、特に断りのない限り、1つの型の主題に属する特徴の任意の組合せに加え、異なる主題に関する特徴同士の任意の組合せも本願と共に開示されているとみなされることを、上記及び以下の記述から推測する。しかし、特徴は全て、特徴の単なる足し合わせを超える相乗効果を提供するように組み合わせることができる。
本発明を、図面及び上記説明において詳細に例示し説明したが、当該例示及び説明は、例示的であって、限定的であると見なすべきではない。本発明は、開示された実施形態に限定されない。開示された実施形態に対する他の変形態様は、図面、開示内容及び添付の請求項を検討することにより、請求項に係る発明を実施する際に当業者により理解され且つ実施され得る。
請求項において、「備える、含む(comprising)」という用語は、他の要素又はステップを排除するものではなく、また、不定冠詞「a」又は「an」は、複数を排除するものではない。単一のプロセッサ又は他のユニットが、請求項に記載される幾つかのアイテムの機能を実現し得る。ある手段が相互に異なる従属請求項に記載されるという事実だけで、これらの手段の組み合わせが有利に使用できないことを示すものではない。請求項におけるいかなる参照符号も範囲を限定するものとして解釈すべきではない。

Claims (14)

  1. 車両が停止後に自動的に再び前進させないようにすることを可能にする装置(10)であって、
    −入力ユニット(20)と;
    −処理ユニット(30)と;
    −出力ユニット(40)とを備え、
    前記入力ユニットは、前記処理ユニットに少なくとも1つの画像であって、車両の外部のシーンに関する少なくとも1つの画像を提供するように構成され;
    前記処理ユニットは、前記少なくとも1つの画像を処理して低レベル特徴であって、前記少なくとも1つの画像のうちの単一の画像の中の少なくとも1つの低レベル特徴に基づいて前記シーンの中のオブジェクトを特徴付けることができないものとして定義される低レベル特徴を抽出するように構成され;
    前記低レベル特徴が、色情報;エッジ;勾配;オプティックフロー;オプティックフロークラスタ、即ち、顕著性情報のうちの1つ以上を含み;
    前記処理ユニットは、オブジェクトの少なくとも一部が前記シーンの一部に存在するか否かの判定であって、前記低レベル特徴の分析を含む判定を行うように構成され;
    前記低レベル特徴の前記分析が、潜在的なオブジェクトが関連する信頼度レベルを有するように、前記シーンの前記一部の中の少なくとも1つの潜在的なオブジェクトを判定することと、少なくとも1つの信頼度レベルを判定することを含み、潜在的なオブジェクトは、その潜在的なオブジェクトの前記信頼度レベルが閾値を超えている場合、前記オブジェクトの前記少なくとも一部であると判定され;
    前記出力ユニット(40)は、前記シーンに何かが存在するという情報を出力するように構成されている、装置。
  2. 前記装置は、適応走行制御オートゴー装置である、請求項1に記載の装置。
  3. 前記処理ユニットが、人工知能に基づくアルゴリズムを実施して前記低レベル特徴を分析するように構成されている、請求項1に記載の装置。
  4. 前記処理ユニットが、前記少なくとも1つの画像を処理して高レベル特徴であって、前記少なくとも1つの画像のうちの単一の画像の中の少なくとも1つの高レベル特徴に基づいて前記シーンの中のオブジェクトを特徴付けることができるものとして定義される高レベル特徴を抽出するように構成され;オブジェクトの少なくとも一部が前記シーンに存在するか否かの前記判定が、前記高レベル特徴の分析を含む、請求項1に記載の装置。
  5. 前記高レベル特徴が対象車両を含み、前記処理ユニットがオブジェクトの少なくとも一部が存在すると判定するように構成されている前記シーンの前記一部が、前記車両と前記対象車両の領域として判定される、請求項4に記載の装置。
  6. 前記少なくとも1つの画像が、第1の画像と第2の画像を含み、前記第1の画像から判定される信頼度レベルが前記第2の画像から判定される信頼度レベルに基づいて更新される、請求項1に記載の装置。
  7. 前記処理ユニットが、前記第1の画像と第2の画像を横断して潜在的なオブジェクトを追跡するように構成されている、請求項6に記載の装置。
  8. 前記少なくとも1つの画像のうちの少なくとも1つが、少なくとも1台のカメラによって取得される、請求項1に記載の装置。
  9. 前記少なくとも1つの画像のうちの少なくとも1つが、レーダーセンサによって取得される、請求項1に記載の装置。
  10. 前記オブジェクトの前記少なくとも一部が、前記車両の外周から2.5m以内の距離にある、請求項1に記載の装置。
  11. 前記少なくとも1つの画像が、前記車両が停止中に撮影される、請求項1に記載の装置。
  12. 車両が自動的に再び動き出すことを可能にするシステム(100)であって、
    −少なくとも1つのセンサシステム(110)と;
    −請求項1から11のいずれか一項に記載の車両が停止後に自動的に再び前進させないようにすることを可能にする装置(10)とを備え、
    前記装置は、車両(120)内に配置されるように構成され;
    前記少なくとも1つのセンサシステムは、前記車両内に配置されるように構成され、前記少なくともセンサシステムは、観察される前記車両の外部のシーンに関する前記少なくとも1つの画像を取得するように構成されている、システム。
  13. 車両が停止後に自動的に再び前進させないようにすることを可能にする方法(200)であって、前記方法は、
    −a)処理ユニット(30)に少なくとも1つの画像であって、車両の外部のシーンに関する少なくとも1つの画像を提供すること(210)と;
    −b)前記処理ユニットを用いて、前記少なくとも1つの画像を処理して低レベル特徴であって、前記少なくとも1つのシーンのうちの単一の画像の中の少なくとも1つの低レベル特徴に基づいて前記シーンの中のオブジェクトを特徴付けることができないものとして定義される低レベル特徴を抽出すること(220)とを含み、前記低レベル特徴が、色情報;エッジ;勾配;オプティックフロー;オプティックフロークラスタ、即ち、顕著性情報のうちの1つ以上を含み;
    −c)前記方法は、前記処理ユニットを用いて、オブジェクトの少なくとも一部が前記シーンの一部に存在するか否かの判定であって、前記低レベル特徴の分析を含む判定を行うこと(230)を含み、前記低レベル特徴の分析は、潜在的なオブジェクトが関連する信頼度レベルを有するように、シーンの一部の中の少なくとも1つの潜在的なオブジェクトを判定することと、少なくとも1つの信頼度レベルを判定することを含み、潜在的なオブジェクトは、その潜在的なオブジェクトの信頼度レベルが閾値を超えている場合、オブジェクトの少なくとも一部であると判定され;
    −d)前記方法は、出力ユニット(40)を用いて、前記シーンに何かが存在するという出力情報を出力すること(240)を含む、方法。
  14. プロセッサによって実行されると請求項13に記載の方法を行うように構成されている、請求項1から11に記載の装置、及び/又は請求項12に記載のシステムを制御するコンピュータプログラム要素。
JP2018075233A 2017-04-18 2018-04-10 車両が停止後に自動的に再び前進させないようにすることを可能にする装置及び方法 Active JP7268959B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17166745.4A EP3392730B1 (en) 2017-04-18 2017-04-18 Device for enabling a vehicle to automatically resume moving
EP17166745.4 2017-04-18

Publications (3)

Publication Number Publication Date
JP2018177216A true JP2018177216A (ja) 2018-11-15
JP2018177216A5 JP2018177216A5 (ja) 2022-05-13
JP7268959B2 JP7268959B2 (ja) 2023-05-08

Family

ID=58709740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018075233A Active JP7268959B2 (ja) 2017-04-18 2018-04-10 車両が停止後に自動的に再び前進させないようにすることを可能にする装置及び方法

Country Status (3)

Country Link
US (1) US10719718B2 (ja)
EP (1) EP3392730B1 (ja)
JP (1) JP7268959B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021018465A (ja) * 2019-07-17 2021-02-15 トヨタ自動車株式会社 物体認識装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3129347B1 (fr) * 2021-11-22 2023-10-06 Psa Automobiles Sa Procédé de régulation de vitesse d’un véhicule à partir d’un objet cible.

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002329298A (ja) * 2001-05-02 2002-11-15 Nissan Motor Co Ltd 車両用走行制御装置
JP2004189031A (ja) * 2002-12-09 2004-07-08 Denso Corp 車両の安全装置およびプログラム
JP2006134035A (ja) * 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd 移動物体検出装置および移動物体検出方法
JP2006350699A (ja) * 2005-06-16 2006-12-28 Nissan Motor Co Ltd 画像処理装置及び方法
JP2008042779A (ja) * 2006-08-09 2008-02-21 Honda Motor Co Ltd 車両周辺監視システム、車両、車両周辺監視プログラム、車両周辺監視システムの構築システム
EP2028632A2 (de) * 2007-08-21 2009-02-25 Audi AG Verfahren zur automatischen Längsführung eines Kraftfahrzeugs mittels eines längsführenden Fahrerassistentsystems mit Stop&Go-Funktion
JP2016031660A (ja) * 2014-07-29 2016-03-07 クラリオン株式会社 車両制御装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
GB0115433D0 (en) * 2001-06-23 2001-08-15 Lucas Industries Ltd An object location system for a road vehicle
JP2006259895A (ja) * 2005-03-15 2006-09-28 Omron Corp 移動体の発進制御装置
DE102010056389A1 (de) * 2010-12-28 2012-06-28 GM Global Technology Operations LLC Verfahren und Überwachungsvorrichtung zum Überwachen eines Anfahrvorgangs eines Kraftfahrzeugs
US9910442B2 (en) * 2016-06-28 2018-03-06 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded area detection with static obstacle maps

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002329298A (ja) * 2001-05-02 2002-11-15 Nissan Motor Co Ltd 車両用走行制御装置
JP2004189031A (ja) * 2002-12-09 2004-07-08 Denso Corp 車両の安全装置およびプログラム
JP2006134035A (ja) * 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd 移動物体検出装置および移動物体検出方法
JP2006350699A (ja) * 2005-06-16 2006-12-28 Nissan Motor Co Ltd 画像処理装置及び方法
JP2008042779A (ja) * 2006-08-09 2008-02-21 Honda Motor Co Ltd 車両周辺監視システム、車両、車両周辺監視プログラム、車両周辺監視システムの構築システム
EP2028632A2 (de) * 2007-08-21 2009-02-25 Audi AG Verfahren zur automatischen Längsführung eines Kraftfahrzeugs mittels eines längsführenden Fahrerassistentsystems mit Stop&Go-Funktion
JP2016031660A (ja) * 2014-07-29 2016-03-07 クラリオン株式会社 車両制御装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021018465A (ja) * 2019-07-17 2021-02-15 トヨタ自動車株式会社 物体認識装置
JP7156195B2 (ja) 2019-07-17 2022-10-19 トヨタ自動車株式会社 物体認識装置

Also Published As

Publication number Publication date
EP3392730A1 (en) 2018-10-24
JP7268959B2 (ja) 2023-05-08
US10719718B2 (en) 2020-07-21
US20180300558A1 (en) 2018-10-18
EP3392730B1 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
EP3373243B1 (en) Object detection method and object detection system
US10421436B2 (en) Systems and methods for surveillance of a vehicle using camera images
US10046767B2 (en) Apparatus, method and computer program for enabling control of a vehicle
CN105292036B (zh) 边界检测系统
KR102178433B1 (ko) 긴급 제동 시스템 및 그의 보행자 인식 방법
US20150268338A1 (en) Tracking from a vehicle
CN111033510A (zh) 用于运行驾驶员辅助系统的方法和装置以及驾驶员辅助系统和机动车
US9280900B2 (en) Vehicle external environment recognition device
WO2018046015A1 (zh) 车辆报警方法、装置及终端
KR20170051196A (ko) 3채널 차량 상황 감시 장치 및 그 방법
US11557125B2 (en) Method for monitoring the environment of a vehicle
KR20170127036A (ko) 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치
US20150365810A1 (en) Vehicular emergency report apparatus and emergency report system
US20170043717A1 (en) System and Apparatus that Alert Car Drivers Approaching Obstacles in the Road
JP7459916B2 (ja) 物体追跡方法、物体追跡装置、及びプログラム
US20120155711A1 (en) Apparatus and method for analyzing video
JP6806920B2 (ja) 駐車場内に存在する隆起した物体を検出するための方法およびシステム
JP2018177216A (ja) 車両が自動的に再び動き出すことを可能にする装置
Rajendar et al. Prediction of stopping distance for autonomous emergency braking using stereo camera pedestrian detection
KR20210065177A (ko) 이미지 수집 기기 가림 상태 검출 방법, 장치, 기기 및 저장 매체
JP2018177216A5 (ja)
KR101611731B1 (ko) 블랙 박스에서 충격 감지 센서에 의해 감지된 잘못된 사고 영상을 구분하는 방법
US20170169704A1 (en) Method and device for triggering pedestrian protection means and/or pedestrian warning means
JP6641633B2 (ja) 移動体検知システムおよびそのデータ整合性判定方法
EP2851840B1 (en) Vision system and vision method for a motor vehicle

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220301

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230421

R150 Certificate of patent or registration of utility model

Ref document number: 7268959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150