DE102020211561A1 - Probabilistische entscheidungsunterstützung zur hinderniserkennung und -klassifizierung in einem arbeitsbereich - Google Patents
Probabilistische entscheidungsunterstützung zur hinderniserkennung und -klassifizierung in einem arbeitsbereich Download PDFInfo
- Publication number
- DE102020211561A1 DE102020211561A1 DE102020211561.3A DE102020211561A DE102020211561A1 DE 102020211561 A1 DE102020211561 A1 DE 102020211561A1 DE 102020211561 A DE102020211561 A DE 102020211561A DE 102020211561 A1 DE102020211561 A1 DE 102020211561A1
- Authority
- DE
- Germany
- Prior art keywords
- obstacle
- work
- priori
- work area
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims description 32
- 238000000034 method Methods 0.000 claims abstract description 46
- 238000012545 processing Methods 0.000 claims description 14
- 238000013500 data storage Methods 0.000 claims description 7
- 238000012544 monitoring process Methods 0.000 claims description 5
- 230000001105 regulatory effect Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 12
- 230000006854 communication Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 9
- 239000000463 material Substances 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K31/00—Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator
- B60K31/0008—Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator including means for detecting potential obstacles in vehicle path
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/26—Indicating devices
- E02F9/261—Surveying the work-site to be treated
- E02F9/262—Surveying the work-site to be treated with follow-up actions to control the work tool, e.g. controller
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/26—Indicating devices
- E02F9/264—Sensors and their calibration for indicating the position of the work tool
- E02F9/265—Sensors and their calibration for indicating the position of the work tool with follow-up actions (e.g. control signals sent to actuate the work tool)
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K31/00—Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator
- B60K31/0008—Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator including means for detecting potential obstacles in vehicle path
- B60K2031/0016—Identification of obstacles; Selection of a target vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2300/00—Indexing codes relating to the type of vehicle
- B60W2300/17—Construction vehicles, e.g. graders, excavators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Optics & Photonics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Structural Engineering (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mining & Mineral Resources (AREA)
- Civil Engineering (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Die hierin offenbarten Systeme und Verfahren bieten probabilistische Entscheidungsunterstützung in Bezug auf erkannte Hindernisse in einem Arbeitsbereich. Echtzeit-Datensätze werden von Hindernissensoren im Zusammenhang mit mindestens einem selbstfahrenden Arbeitsfahrzeug gesammelt, die dem erkannten Vorhandensein/Nichtvorhandensein von Hindernissen an bestimmten Orten innerhalb des Arbeitsbereichs entsprechen. Die empfangenen Echtzeit-Datensätze werden in einen Datenspeicher integriert, der A-priori-Datensätze umfasst, die dem Arbeitsbereich entsprechen, um einen oder mehrere neue A-priori-Datensätze zu erzeugen. Wahrscheinlichkeiten für das erkannte Vorhandensein oder Nichtvorhandensein des Hindernisses und für jede von einer oder mehreren Hinderniskategorien werden auf Grundlage des empfangenen Echtzeit-Datensatzes und mindestens eines A-priori-Datensatzes bestimmt, der dem Ort des Arbeitsfahrzeugs entspricht. Eine Ausgabe, die zumindest einer wahrscheinlichsten der bestimmten Wahrscheinlichkeiten entspricht, wird als Rückmeldung an eine Benutzerschnittstelle und/oder an relevante Maschinensteuereinheiten erzeugt.
Description
- GEBIET DER OFFENBARUNG
- Die vorliegende Offenbarung bezieht sich auf selbstfahrende Fahrzeuge, wie etwa Arbeitsmaschinen mit bordeigenen Hinderniserkennungssystemen, insbesondere auf Systeme und Verfahren zur Ergänzung der konventionellen Hinderniserkennung durch probabilistische Entscheidungsunterstützung auf der Grundlage einer A-priori-Wissensentwicklung und -schätzung.
- HINTERGRUND
- Arbeitsmaschinen, wie hierin erörtert, können beispielsweise Baggermaschinen, Lader und andere Geräte beinhalten, die das Gelände oder eine gleichwertige Arbeitsumgebung in irgendeiner Weise modifizieren. Diese Maschinen können mit Raupenketten oder Rädern versehene Bodeneingriffseinheiten aufweisen, die das Fahrgestell von der Bodenfläche abstützen, und können ferner ein oder mehrere Arbeitsanbaugeräte umfassen, die verwendet werden, um das Gelände in Abstimmung mit der Bewegung der Maschine zu modifizieren. Bei derartigen Maschinen ergeben sich verschiedene Situationen, in denen der menschliche Bediener die Bewegungen der Maschinenposition und/oder die relativen Positionen der Arbeitsanbaugeräte aufgrund von erkannten Hindernissen im Arbeitsbereich steuern muss, die für den Bediener möglicherweise nicht sichtbar sind.
- Hinderniserkennungssysteme sind bekannt, um dem Bediener Rückmeldungen über erkannte Hindernisse im Arbeitsbereich zu geben. Bei der Erstellung eines Hinderniserkennungssystems ist es vorteilhaft, ein System zu haben, das zwischen verschiedenen Arten von Objekten (z. B. sich bewegenden oder vorübergehenden Hindernissen wie Personen oder Fahrzeugen oder festen Hindernissen wie Strukturen oder Material) unterscheiden kann, da das System möglicherweise auf verschiedene Arten von Objekten in der Umgebung unterschiedlich reagieren möchte. Dementsprechend ist es auch wünschenswert, diese unterschiedlichen Objektklassen genau zu erkennen, so dass das System ein tatsächlich nicht vorhandenes Objekt nicht erkennt oder ein vorhandenes Objekt nicht erkennt oder einem Objekt noch eine falsche Klassifizierung zuordnet, die zu einem Fehlverhalten des menschlichen Bedieners oder des automatischen Maschinensteuersystems führt.
- ZUSAMMENFASSUNG DER OFFENBARUNG
- Die vorliegende Offenbarung stellt Verbesserungen bei der Erfassung und Implementierung von Daten bereit, die Arbeitsmaschinenaktionen im Laufe der Zeit entsprechen, um Hinderniserkennungs- und Klassifizierungsergebnisse zu verbessern.
- In einer Ausführungsform umfasst ein Verfahren zur probabilistischen Entscheidungsunterstützung in Bezug auf erkannte Hindernisse in einem Arbeitsbereich Folgendes: das Bereitstellen eines Datenspeichers, der einen oder mehrere A-priori-Datensätze umfasst, die einem Arbeitsbereich entsprechen; das Empfangen von Echtzeit-Datensätzen von einem oder mehreren Hindernissensoren, die mindestens einem selbstfahrenden Arbeitsfahrzeug zugeordnet sind, wobei die Echtzeit-Datensätze einem erkannten Vorhandensein oder Nichtvorhandensein eines Hindernisses an einem bestimmten Ort innerhalb des Arbeitsbereichs entsprechen; das Bestimmen von Wahrscheinlichkeiten für das erkannte Vorhandensein oder Nichtvorhandensein des Hindernisses und für jede von einer oder mehreren Hinderniskategorien auf Grundlage des empfangenen Echtzeit-Datensatzes und eines A-priori-Datensatzes, der dem bestimmten Ort entspricht, als eine Teilmenge des einen oder der mehreren A-priori-Datensätze, die dem Arbeitsbereich entsprechen, und das Erzeugen einer Ausgabe, die mindestens einer wahrscheinlichsten der bestimmten Wahrscheinlichkeiten entspricht.
- Eine weitere Ausführungsform des Verfahrens kann ferner das Integrieren der empfangenen Echtzeit-Datensätze in Datenspeicher umfassen, die A-priori-Datensätze umfassen, die dem Arbeitsbereich entsprechen, um einen oder mehrere neue A-priori-Datensätze zu erzeugen.
- Eine weitere Ausführungsform des Verfahrens kann ferner das Überwachen von Bewegungen einer oder mehrerer beweglicher Arbeitsfahrzeugkomponenten, die mindestens eines der Arbeitsanbaugeräte umfassen, und das Aktualisieren eines oder mehrerer des einen oder der mehreren A-priori-Datensätze mit Daten umfassen, die ein Hindernis an einem Ort innerhalb des Arbeitsbereichs auf Grundlage einer vorbestimmten Bewegungssequenz für die eine oder die mehreren Arbeitsfahrzeugkomponenten kategorisieren.
- In einem weiteren Ausführungsbeispiel des Verfahrens wird zum Aktualisieren des einen oder der mehreren A-priori-Datensätze ein erstes Hindernis basierend auf einer ersten vorbestimmten Bewegungssequenz kategorisiert, ein zweites Hindernis basierend auf einer zweiten vorbestimmten Bewegungssequenz kategorisiert und ferner eine Arbeitsfahrzeugroute zwischen dem ersten und dem zweiten Hindernis kategorisiert. Basierend auf einer festgelegten Arbeitsaufgabe können eines oder mehrere der ersten Hindernisse und der zweiten Hindernisse entweder als vorübergehendes Hindernis oder als permanentes Hindernis kategorisiert werden.
- Eine weitere Ausführungsform des Verfahrens kann ferner Vorhersagen einer Arbeitsfahrzeugroute auf Grundlage der überwachten Fahrzeugbewegung umfassen. Ein Hinderniserkennungsbereich kann ferner als eine Teilmenge des Arbeitsbereichs definiert werden, die der vorhergesagten Arbeitsfahrzeugroute entspricht. Der Abruf und die Verarbeitung von A-priori-Daten können in Bezug auf eine Teilmenge des Datenspeichers basierend auf dem definierten Hinderniserkennungsbereich dynamisch eingeschränkt sein.
- Eine weitere Ausführungsform des Verfahrens kann ferner für vorhergesagte und zuvor überquerte Arbeitsfahrzeugrouten, bei denen kein kategorisiertes permanentes Hindernis vorhanden ist, das Beschränken der nachfolgenden Bestimmung von Wahrscheinlichkeiten des erkannten Vorhandenseins oder Nichtvorhandenseins des Hindernisses nur auf vorübergehende Hindernisse umfassen.
- In einer Ausführungsform kann die Ausgabe einer Benutzerschnittstelle bereitgestellt werden, die sich in oder an dem Arbeitsfahrzeug befindet; und/oder einer Benutzerrechenvorrichtung. Ein oder mehrere vorhergesagte Hindernisse und zugehörige Kategorien auf der Benutzerschnittstelle können in einigen Ausführungsformen auf Grundlage der Ausgabe hervorgehoben werden. Ein oder mehrere Entscheidungsunterstützungswerkzeuge oder vom Benutzer manipulierbare Steuerungen können in einigen Ausführungsformen basierend auf der Ausgabe hervorgehoben werden, um eine manuelle Regelung von Arbeitsfahrzeugkomponenten zu veranlassen oder zu erleichtern, wie sie beispielsweise ein System zur Vermeidung oder Vermittlung von Hinderniskollisionen umfassen oder auf andere Weise in dieses integriert sein können.
- In einer Ausführungsform kann die Ausgabe mindestens ein Steuersignal beinhalten, das einer Fahrzeuglenksteuereinheit, einer Fahrzeuganbaugeräte-Positionierungssteuereinheit und/oder einer Fahrzeugantriebssteuereinheit bereitgestellt wird, zum automatisierten Regeln zugehöriger Arbeitsfahrzeugkomponenten, wie sie beispielsweise ein System zur Vermeidung oder Vermittlung von Hinderniskollisionen umfassen können oder anderweitig mit diesem integriert sein können.
- Eine manuelle und automatische Arbeitsmaschinensteuerung basierend auf erkannten Hindernissen, wie oben erörtert, ist in der Fachwelt bekannt, und konventionelle Steuerstruktur und -verfahren können implementiert werden, sind aber im Zusammenhang mit einer vorliegenden Erfindung nicht notwendigerweise weiter beschrieben. Ein System und Verfahren, wie hierin offenbart, ergänzt, komplettiert oder stellt anderweitig zusätzliche und wertvolle Rückmeldungen als Teil eines Hinderniserkennungssystems bereit, sei es zur Unterstützung von Bedienerentscheidungen oder automatisierten Hindernisvermittlungen, oder mit anderen Worten unabhängig von der Steuerantwort, sofern nicht anders angegeben. Die A-priori-Datenerzeugung und - implementierung ermöglicht es einem Hinderniserkennungssystem, Wahrscheinlichkeiten sicherer zu bestimmen, die zum Beispiel davon Abhängig sind, ob ein Hindernis tatsächlich vorhanden ist und/oder welche Art von Hindernis gegebenenfalls am wahrscheinlichsten vorhanden ist, so dass eine Reaktion entsprechend angepasst und nicht vollständig wie im Stand der Technik den Unsicherheiten ausgesetzt ist, die der jeweiligen Hinderniserkennungsvorrichtung und den Betriebsbedingungen inhärent sind.
- In einer Ausführungsform kann eines der vorgenannten Verfahren über ein selbstfahrendes Arbeitsfahrzeug mit einem oder mehreren Arbeitsanbaugeräten zum Bearbeiten eines Geländes, einem oder mehreren Hindernissensoren, einer Datenspeicherung, die einen oder mehrere A-priori-Datensätze umfasst, die einem Arbeitsbereich entsprechen, und einer Steuerung, die kommunikativ mit dem einen oder den mehreren Arbeitsanbaugeräten, dem einen oder den mehreren Hindernissensoren und der Datenspeicherung verbunden ist, durchgeführt werden.
- In einer Ausführungsform kann eines der vorgenannten Verfahren über ein System ausgeführt werden, das ein Servernetzwerk umfasst, das kommunikativ mit einer Vielzahl von selbstfahrenden Fahrzeugen verbunden ist, wobei jedes der selbstfahrenden Fahrzeuge mindestens ein Arbeitsanbaugerät zum Bearbeiten eines Geländes und einen oder mehrere Hindernissensoren umfasst, und eine Datenspeicherung, die einen oder mehrere A-priori-Datensätze umfasst, die einem Arbeitsbereich entsprechen, wobei zum Beispiel das jeweilige Verfahren in Bezug auf jedes der selbstfahrenden Fahrzeuge ausgeführt wird, die sich in dem Arbeitsbereich befinden.
- Zahlreiche Aufgaben, Merkmale und Vorteile der hierin dargelegten Ausführungsformen werden für Fachleute beim Lesen der folgenden Offenbarung in Verbindung mit den beigefügten Zeichnungen ohne weiteres ersichtlich.
- Figurenliste
-
-
1 ist eine Seitenansicht eines Raupenbaggers als Arbeitsmaschine, die eine Ausführungsform eines Systems, wie hierin offenbart, beinhaltet. -
2 ist ein Blockdiagramm, das ein beispielhaftes Steuersystem für die Arbeitsmaschine aus1 darstellt. -
3 ist eine schematische Draufsicht eines beispielhaften Arbeitsbereichs einschließlich Hindernissen und einer Arbeitsmaschine. -
4 ist ein grafisches Diagramm, das eine Ausführungsform eines verteilten Systems darstellt, wie hierin offenbart. -
5 ist ein Flussdiagramm, das eine beispielhafte Ausführungsform eines Verfahrens darstellt, wie hierin offenbart. - AUSFÜHRLICHE BESCHREIBUNG
- Unter Bezugnahme auf die Zeichnungen und insbesondere auf
1 wird ein repräsentatives Arbeitsfahrzeug gezeigt und allgemein mit der Nummer100 bezeichnet.1 zeigt eine Raupenbaggermaschine100 . Die hier offenbarten Systeme sind auf ähnliche oder anderweitig gleichwertige Fahrzeuge, Baggermaschinen, Lader und andere Arbeitsmaschinen des Typs mit einem oder mehreren Arbeitsanbaugeräten102 zum Modifizieren des nahen Geländes anwendbar. In bestimmten Ausführungsformen können Systeme und Verfahren, wie hierin offenbart, auch auf Fahrzeuge anwendbar sein, denen explizite Arbeitsanbaugeräte fehlen. Arbeitsfahrzeuge, wie hierin erörtert, können typischerweise Raupenketten- oder Radbodeneingriffseinheiten aufweisen, die das Fahrgestell von der Bodenoberfläche abstützen. - Die dargestellte und beispielhafte Arbeitsmaschine
100 umfasst ein Fahrgestell122 , das eine oder mehrere mit Raupenketten oder Rädern versehene Bodeneingriffseinheiten124 und mindestens einen Fahrmotor zum Antreiben der jeweiligen Bodeneingriffseinheiten beinhaltet. Ein Hauptrahmen132 wird von dem Fahrgestell122 über einen Drehkranz134 getragen, so dass der Hauptrahmen132 um eine Schwenkachse136 relativ zu dem Fahrgestell schwenkbar ist. Die Schwenkachse136 ist im Wesentlichen vertikal, wenn eine Bodenfläche138 , in die die Bodeneingriffseinheiten124 eingreifen, im Wesentlichen horizontal ist. Ein Schwenkmotor ist konfiguriert, um den Hauptrahmen132 auf dem Drehkranz134 um die Schwenkachse136 relativ zum Fahrgestell122 zu schwenken. - Eine Arbeitsmaschine, wie hierin offenbart, beinhaltet typischerweise ein oder mehrere Arbeitsanbaugeräte
102 , die, wie zum Beispiel in1 veranschaulicht, gemeinsam eine Auslegerbaugruppe definieren können, die einen Ausleger144 , einen Arm146 , der schwenkbar mit dem Ausleger144 verbunden ist, und ein Arbeitswerkzeug148 beinhaltet. Der Ausleger144 ist in dem vorliegenden Beispiel schwenkbar am Hauptrahmen132 angebracht, um eine im Allgemeinen horizontale Achse in Bezug auf den Hauptrahmen132 zu schwenken. Das Arbeitswerkzeug in dieser Ausführungsform ist eine Baggerschaufel oder Schaufel148 , die schwenkbar mit dem Arm146 verbunden ist. Die Auslegerbaugruppe102 erstreckt sich von dem Hauptrahmen132 entlang einer Arbeitsrichtung der Auslegerbaugruppe. Die Arbeitsrichtung kann auch als Arbeitsrichtung des Auslegers bezeichnet werden. - Am Hauptrahmen
132 kann sich eine Fahrerkabine befinden. Die Fahrerkabine und das eine oder die mehreren Arbeitsanbaugeräte102 können beide am Hauptrahmen montiert sein, so dass die Fahrerkabine in die Arbeitsrichtung der Arbeitsanbaugeräte zeigt. Eine Steuerstation, die eine Benutzerschnittstelle114 beinhaltet, kann sich in der Fahrerkabine befinden. - Wie schematisch in
2 dargestellt, beinhaltet die Arbeitsmaschine100 ein Steuersystem mit einer Steuerung112 . Die Steuerung kann Teil der Maschinensteuersystems der Arbeitsmaschine oder ein separates Steuermodul sein. Die Steuerung kann die Benutzerschnittstelle114 beinhalten und optional in der Fahrerkabine an einem Bedienfeld montiert werden. - Die Steuerung
112 ist konfiguriert, um Eingangssignale von einigen oder allen verschiedenen Sensoren zu empfangen, die gemeinsam ein Sensorsystem104 definieren. Bestimmte dieser Sensoren können bereitgestellt werden, um Betriebsbedingungen oder Positionierungen der Maschine zu erfassen, einschließlich zum Beispiel eines Ausrichtungssensors, Sensoren für ein globales Positionierungssystem (GPS), Fahrzeuggeschwindigkeitssensoren, Fahrzeugwerkzeugpositionierungssensoren und dergleichen, und während ein oder mehrere dieser Sensoren diskreter Natur sein können, kann sich das Sensorsystem ferner auf Signale beziehen, die von dem Maschinensteuersystem bereitgestellt werden. - Andere Sensoren im Sensorsystem
104 beziehen sich insbesondere auf eine Gruppe von Sensoren, die hierin als Hindernissensoren104 bezeichnet werden. Verschiedene Beispiele für Hindernissensoren sind konventionell bekannt und können Laserscanner, Wärmesensoren, Bildgebungsgeräte, strukturierte Lichtsensoren, Ultraschallsensoren und andere optische Sensoren beinhalten. Die Arten und Kombinationen von Hindernissensoren können für eine Art von Arbeitsmaschine, Arbeitsbereich und/oder Anwendung variieren, sind jedoch im Allgemeinen bereitgestellt und konfiguriert, um die Erkennung von Hindernissen in einer Arbeitsspur des Fahrzeugs zu optimieren. - Die Steuerung
112 kann typischerweise eine Ausgabe in Bezug auf Hinderniserkennung und -klassifizierung, wie nachstehend näher beschrieben, an die Benutzerschnittstelle114 zur Anzeige für den menschlichen Bediener erzeugen. Die Steuerung kann ferner oder alternativ Steuersignale zum Steuern des Betriebs jeweiliger Stellglieder oder Signale zur indirekten Steuerung über Zwischensteuereinheiten erzeugen, die einem Maschinenlenksteuersystem126 , einem Maschinenanbaugerätesteuersystem128 und einem Maschinenantriebssteuersystem130 zugeordnet sind. - Die Steuerung
112 beinhaltet einen Prozessor150 , ein computerlesbares Medium152 , eine Kommunikationseinheit154 , einen Datenspeicher156 , wie zum Beispiel ein Datenbanknetzwerk, und die zuvor erwähnte Benutzerschnittstelle114 oder das Bedienfeld114 mit einer Anzeige118 oder kann damit verbunden sein. Eine Eingabe-/Ausgabevorrichtung116 , wie etwa eine Tastatur, ein Joystick oder ein anderes Benutzerschnittstellentool, wird bereitgestellt, so dass der menschliche Bediener Anweisungen an die Steuerung eingeben kann. Es versteht sich, dass die hierin beschriebene Steuerung eine einzelne Steuerung sein kann, die die gesamte beschriebene Funktionalität aufweist, oder sie kann mehrere Steuerungen beinhalten, wobei die beschriebene Funktionalität auf die mehreren Steuerungen verteilt ist. - Verschiedene Vorgänge, Schritte oder Algorithmen, wie in Verbindung mit der Steuerung
112 beschrieben, können direkt in Hardware, in einem Computerprogrammprodukt, wie etwa einem Softwaremodul, das durch den Prozessor150 ausgeführt wird, oder in einer Kombination aus beiden verkörpert sein. Das Computerprogrammprodukt kann sich im RAM-Speicher, Flash-Speicher, ROM-Speicher, EPROM-Speicher, EEPROM-Speicher, in Registern, auf einer Festplatte, Wechselplatte oder einer beliebigen anderen in der Fachwelt bekannten Form eines computerlesbaren Mediums152 befinden. Ein beispielhaftes computerlesbares Medium kann mit dem Prozessor derart gekoppelt sein, dass der Prozessor Informationen von dem Speicher/Speichermedium lesen und Informationen auf dieses schreiben kann. Alternativ kann das Medium in den Prozessor integriert sein. Der Prozessor und das Medium können sich in einer anwendungsspezifischen integrierten Schaltung (ASIC) befinden. Die ASIC kann sich in einem Benutzerendgerät befinden. Alternativ können sich der Prozessor und das Medium als diskrete Komponenten in einem Benutzerendgerät befinden. - Der Begriff „Prozessor“, wie er hierin verwendet wird, kann sich auf zumindest universelle oder spezifische Verarbeitungsvorrichtungen und/oder -logik beziehen, wie Fachleute auf dem Gebiet verstehen können, einschließlich unter anderem auf einen Mikroprozessor, einen Mikrocontroller, eine Zustandsmaschine und dergleichen. Ein Prozessor kann auch als eine Kombination von Rechenvorrichtungen implementiert sein, z. B. eine Kombination aus einem DSP und einem Mikroprozessor, einer Vielzahl von Mikroprozessoren, einem oder mehreren Mikroprozessoren in Verbindung mit einem DSP-Kern oder einer beliebigen anderen derartigen Konfiguration.
- Die Kommunikationseinheit
154 kann Kommunikation zwischen der Steuerung und externen Systemen oder Vorrichtungen unterstützen oder bereitstellen und/oder eine Kommunikationsschnittstelle in Bezug auf interne Komponenten der Arbeitsmaschine unterstützen oder bereitstellen. Die Kommunikationseinheit kann drahtlose Kommunikationssystemkomponenten beinhalten (z. B. über ein Mobilfunkmodem, WLAN, Bluetooth oder dergleichen) und/oder kann ein oder mehrere drahtgebundene Kommunikationsendgeräte beinhalten, wie etwa universelle serielle Busanschlüsse. - Der Datenspeicher
156 , wie weiter unten beschrieben, kann konfiguriert sein, um zumindest Echtzeitdatensätze158 und frühere Datensätze160 in selektiv abrufbarer Form zu empfangen und zu speichern. Die hierin erörterte Datenspeicherung kann, sofern nicht anders angegeben, im Allgemeinen Hardware umfassen, wie etwa flüchtige oder nichtflüchtige Speichervorrichtungen, Laufwerke, Speicher oder andere Speichermedien, sowie eine oder mehrere Datenbanken, die sich darauf befinden. - Allgemein unter Bezugnahme auf die
1 -4 können beispielhafte Betriebsmodi ferner in Bezug auf die oben erwähnte Arbeitsmaschine beschrieben werden. Wie bereits erwähnt, sind Hinderniserkennungssensoren, Algorithmen und Steuerungen konventionell bekannt, es kann jedoch häufig schwierig sein, ein geeignetes Hinderniserkennungssignal zuverlässig von der Rauschcharakteristik typischer Arbeitsvorgänge zu unterscheiden. Ein optimales Hinderniserkennungssystem wäre nicht nur in der Lage, das Vorhandensein oder Nichtvorhandensein eines Objekts in der (tatsächlichen oder projizierten) Arbeitsspur der Maschine genau zu erkennen, sondern auch zwischen verschiedenen Arten von Objekten (z. B. Personen, Fahrzeuge, Strukturen) zu unterscheiden und eine entsprechende Rückmeldung bereitzustellen. - Ausführungsformen eines Entscheidungsunterstützungssystems und -verfahrens, wie hierin offenbart, können die Präsenz eines Objekts genauer erkennen und es durch die Verwendung von „Prioritäten“ oder A-priori-Wissensentwicklung genau einer Kategorie oder Klassifizierung zuordnen. Ein A-priori-Datensatz in diesem Zusammenhang kann sich allgemein auf Informationen beziehen, die das System vor der Durchführung der Klassifizierung gesammelt, generiert und/oder abgeleitet hat, und zwar in Bezug auf die Wahrscheinlichkeit, dass ein Objekt einer bestimmten Klasse an einem bestimmten Ort vorhanden ist. Es versteht sich, dass eine Verbesserung der Genauigkeit dieser Prioritäten im Laufe der Zeit auch die Leistung der Klassifizierung deutlich verbessern kann.
- Ferner können A-priori-Datensätze erzeugt werden, die einem Arbeitsbereich oder einer Betriebsumgebung für die Arbeitsmaschinen entsprechen. Ein Arbeitsbereich kann in einem Beispiel vorbestimmt werden, wie zum Beispiel über definierte Grenzen, Konfigurationen und dergleichen. Alternativ kann ein Arbeitsbereich allgemein in Bezug auf einen bestimmten Arbeitsmaschinenstandort definiert sein, wie etwa einen Bereich, der die Arbeitsmaschine umgibt und sich innerhalb eines bestimmten Abstands von ihr befindet. In bestimmten Ausführungsformen kann das System dementsprechend A-priori-Datensätze in Bezug auf einen spezifischen Arbeitsbereich erzeugen, der von mehreren Arbeitsmaschinen durchlaufen werden kann, oder A-priori-Datensätze in Bezug auf einen gegebenen festen Ort erzeugen, der später als Arbeitsbereich für eine gegebene Arbeitsmaschine auf Grundlage ihrer erfassten Position klassifiziert werden kann.
- Wie oben angemerkt, können Arbeitsmaschinen in der Regel ihre Umgebung auf irgendeine Weise modifizieren, zum Beispiel dadurch, dass Lader Materialstapel bewegen oder Bagger ein Loch an einem Ort graben und Schmutz an einem anderen Ort anhäufen können. Ein Hinderniserkennungssystem, wie hierin offenbart, ist teilweise darauf ausgerichtet, diese Objekte als Löcher oder Pfähle zu erkennen und zu klassifizieren, nicht nur aus Sicherheitsgründen, sondern auch für eine verbesserte Arbeitsautomatisierung, da es wichtig ist, eine Rückmeldung darüber zu geben, wo die Maschine Material laden und entladen soll.
- In bestimmten Ausführungsformen, wie hierin offenbart, kann ein System und Verfahren dementsprechend das Analysieren der Bewegungen der Arbeitsmaschine (z. B. der Arbeitsanbaugeräte) und daraus das Ableiten des Vorhandenseins von Löchern und Pfählen beinhalten, die die Maschine erzeugt. Diese Informationen werden weiter implementiert, um zuvor etabliertes A-priori-Wissen festzulegen oder zu integrieren und bessere Prioritäten für den Klassifizierer zu schaffen, um diese Elemente korrekt in der Umgebung zu erkennen und zu klassifizieren.
- Als ein Beispiel kann das System konfiguriert sein, um sich Orte zu merken, an denen ein Radladerausleger angehoben und die Schaufel abgesenkt wird, um ferner daraus zu schließen, dass der Bediener Material an diesem Ort abgelegt, und um dementsprechend den Vorrang für das Vorhandensein eines „Materialstapels“ an diesem Ort zu erhöhen. Der Stapel kann als eine bestimmter Ortstyp oder festes „Ziel“ bezeichnet werden, das späteren Iterationen einer vorhergesagten Arbeitsmaschinenroute zugeordnet ist. Alternativ kann das System Vorkenntnisse über ein Maschinenprojekt oder einen Maschinenauftrag haben, das/der das Beladen eines Muldenkippers beinhaltet, wobei das System konfiguriert ist, um den Vorrang für ein „Fahrzeug“ an diesem bestimmten Ort zu erhöhen. Dem Fahrzeug kann dabei einen bestimmten Ortstyp oder vorübergehendem „Ziel“ in Bezug auf spätere Iterationen einer prognostizierten Arbeitsmaschinenroute zugeordnet werden.
- Als ein weiteres Beispiel, das einem Rad- oder Raupenbagger als Arbeitsmaschine zugeordnet ist, kann das System konfiguriert sein, um Positionen zu überwachen und zu identifizieren, an denen der Ausleger unten ist und die Schaufel niedriger als die Raupenketten ist, und dementsprechend den Vorrang für ein „Loch“ an diesem Ort zu erhöhen. Das Loch kann beispielsweise als ein anderer bestimmter Ortstyp oder fester „Ursprung“ bezeichnet werden, der späteren Iterationen einer vorhergesagten Arbeitsmaschinenroute zugeordnet ist.
- Ein Fachmann kann verstehen, dass verschiedene zusätzliche oder alternative Kombinationen von Maschinen- und/oder Maschinenanbaugerätbewegungen in Verbindung mit relevanten Bezeichnungen vorbestimmt und durch das System zum Verbessern von Prioritäten und zugehörigen Klassifizierungen implementiert werden können, zum Beispiel abhängig von der Art der Arbeitsmaschine, der Art des Arbeitsbereichs, der Art des Projekts usw.
- Zusätzlich zur Überwachung und Analyse von Maschinenanbaugerätbewegungen zur Verbesserung von Prioritäten kann das System ferner (oder alternativ) die von der Arbeitsmaschine zurückgelegten Fahrwege berücksichtigen, um A-priori-Wissen für eine Klasse „Fahrbarkeit“ zu etablieren oder weiterzuentwickeln. In einem Beispiel, das einem Lader zugeordnet ist, kann die Arbeitsmaschine eine Reihe von Bewegungen ausführen, wie etwa das Einfahren in einen Stapel, das Aufnehmen von Material, das Zurücksetzen und dann, während des Drehens, das Vorwärtsfahren in Richtung eines Muldenkippers, das Entladen, das Rückwärtsfahren während des Drehens und dann das Wiederholen derselben. Das hierin offenbarte System kann A-priori-Wissen über den Arbeitsbereich entwickeln, indem es die Bewegungen der Arbeitsmaschine für kurze Zeit überwacht.
- Beispielsweise kann das System bestimmen, dass die Bereiche, über die die Arbeitsmaschine wiederholt gefahren wurde, von der Klasse „Fahrbar“ sind, und dass das System die nachfolgende Analyse auf diejenigen Objekte beschränken kann, die sich in diese Räume bewegen könnten (z. B. „vorübergehende“ Hindernisse, wie Personen und Fahrzeuge, anstatt „feste“ Hindernisse, wie Gebäude oder gleichwertige Strukturen).
- Ferner kann das System konfiguriert sein, um eine Route oder einen Pfad der Arbeitsmaschine auf Grundlage des Wissens, dass die Arbeitsmaschine kürzlich und erfolgreich auf diesem Pfad oder anderweitig durch eine Reihe von Orten gefahren ist, genau vorherzusagen. Dementsprechend kann das System einen wahrscheinlichsten Teil (Teilmenge) des Arbeitsbereichs, der von der Arbeitsmaschine durchfahren wird, bestimmen und den Fokus des Hinderniserkennungssystems im Allgemeinen in Bezug auf diese Teilmenge des Arbeitsbereichs oder noch genauer und sequentieller in Bezug auf bestimmte Orte entlang der vorhergesagten Route und nicht auf den größeren Arbeitsbereich als Ganzes einschränken. Dies kann in vielen Fällen den Suchraum und den damit verbundenen Datenverarbeitungsaufwand des Systems erheblich reduzieren, wodurch das System wesentlich schneller und genauer ausgeführt kann.
- Bezugnehmend zum Beispiel auf
3 kann ein System, wie hierin offenbart, konfiguriert sein, um ein erstes Hindernis302 in einem Arbeitsbereich300 zu erfassen und das Hindernis auf Grundlage einer ersten Kombination von einer oder mehreren überwachten Arbeitsmaschinenbewegungen als einen „Ursprung“ der Materialbeladung zu klassifizieren, und ferner ein zweites Hindernis304 in dem Arbeitsbereich zu erfassen und das Hindernis auf Grundlage einer zweiten Kombination von einer oder mehreren überwachten Arbeitsmaschinenbewegungen als ein „Ziel“ der Materialentladung klassifizieren. Das System kann ferner eine Arbeitsmaschinenroute306 zwischen dem ersten und zweiten Hindernis auf Grundlage einer überwachten und ereignislosen Überquerung der Route definieren. Dementsprechend kann das System in einer Ausführungsform eines Verfahrens, wie hierin offenbart, (zum Beispiel abhängig von einem bestimmten Auftrag oder einer anderen Bedingung) vorhersagen, dass die Arbeitsmaschine entlang der definierten Route fortfährt und die Hinderniserkennungsdatenverarbeitung und den zugehörigen A-priori-Datenabruf aus dem Speicher auf nur einen Teil des gesamten Arbeitsbereichs beschränkt, der der vorhergesagten Route entspricht. Dies kann zum Beispiel zuvor erkannte und klassifizierte „permanente“ (oder anderweitig z. B. „sehr wahrscheinlich“ permanente) Hindernisse308 ausnehmen, die nicht der vorhergesagten Route entsprechen oder sich mit ihr überschneiden. Dies kann das System ferner dabei unterstützen, ein Objekt310 , das entlang der vorhergesagten Route erfasst wird, als „vorübergehendes“ (oder „sehr wahrscheinlich“ vorübergehendes) Hindernis (z. B. Mensch oder Fahrzeug) zu klassifizieren und auf dieser Grundlage eine optimierte Rückmeldung und/oder Steuerantwort zu ermöglichen. - In einigen Ausführungsformen kann ein Hinderniserkennungsverfahren, das eine vorherige Datensatzerzeugung,ein selektives Abrufen und Verarbeiten von Daten und eine Rückmeldung oder Steuerantwort beinhaltet, von einer Steuerung oder einem Maschinensteuersystem implementiert werden, die/das einer einzelnen Arbeitsmaschine zugeordnet ist.
- In anderen Ausführungsformen, wie zum Beispiel in
4 veranschaulicht, kann ein verteiltes Hinderniserkennungssystem400 einen oder mehrere Remote-Server402 beinhalten, die mit Arbeitsmaschinen100a ,100b ,100c innerhalb eines Arbeitsbereichs300 verbunden oder diesem zugeordnet sind. Der Server kann für bidirektionale Kommunikation mit den Arbeitsmaschinen über ein Kommunikationsnetzwerk406 konfiguriert sein, um Hinderniserkennungsdatensätze von den Maschinen zu empfangen, und ferner mit dem Datenspeicher404 zum Speichern und selektiven Abrufen von A-priori-Daten basierend zumindest teilweise auf den Rohdaten von den Maschinen zu kommunizieren. - Der hierin verwendete Begriff „Kommunikationsnetzwerk“ in Bezug auf Datenkommunikation zwischen zwei oder mehr Einheiten (z. B. Server, Steuerung, Benutzerrechenvorrichtung) oder anderweitig zwischen Kommunikationsnetzwerkschnittstellen, die mit zwei oder mehr Einheiten assoziiert sind, kann sich auf eine oder eine Kombination von zwei oder mehr von Telekommunikationsnetzen (ob verdrahtet, drahtlos, zellular oder dergleichen), einem globalen Netzwerk wie etwa das Internet, lokalen Netzwerken, Netzwerkverbindungen, Internetdienstanbietern (Internet Service Providers - ISP's) und Zwischenkommunikationsschnittstellen beziehen.
- Das verteilte System, wie hierin offenbart, kann dadurch A-priori-Datensätze für die kollektive Datenverarbeitung und Rückmeldung basierend auf Eingaben von einer Anzahl von Arbeitsmaschinen erzeugen, die demselben Arbeitsbereich zugeordnet sind. In alternativen Ausführungsformen dieser Struktur können wahlweise verschiedene Datenverarbeitungsschritte zur Ausführung auf Serverebene, auf lokaler Arbeitsmaschinensteuerungsebene oder einer Kombination aus beiden ausgelegt sein.
-
5 stellt eine beispielhafte Ausführungsform eines Betriebsverfahrens500 , wie hierin offenbart, dar. Sofern nicht ausdrücklich anders vermerkt, können verschiedene Schritte des Verfahrens auf der Ebene einer lokalen Arbeitsmaschinensteuerung, auf der Ebene einer Rechenvorrichtung, die einem Bediener einer Arbeitsmaschine oder einem anderen Benutzer zugeordnet ist, und/oder auf der Ebene eines oder mehrerer Remote-Server, die kommunikativ damit verbunden sind, durchgeführt werden. - Das Verfahren
500 kann in Schritt502 mit dem Sammeln von Echtzeitdatensätzen von einem oder mehreren Hindernissensoren im Zusammenhang mit einer Arbeitsmaschine beginnen. Die gesammelten Datensätze können im Datenspeicher gespeichert werden, zum Beispiel an vorbestimmten Datenbankorten zum selektiven Abrufen und Verarbeiten von Daten in späteren Schritten. - Wie zuvor angemerkt, sind die „Hindernissensoren“, die für die Systemimplementierung verfügbar sind, nicht inhärent in ihrem Umfang eingeschränkt und können verschiedene konventionell bekannte Sensoren oder Kombinationen von Sensoren für ihren beabsichtigten Zweck umfassen, oder wie ansonsten von Fachleuten auf dem Gebiet als auf die Implementierung innerhalb der vorliegenden Offenbarung anwendbar verstanden werden kann.
- Die „Echtzeit“-Datensätze, auf die hier Bezug genommen wird, sind ebenfalls nicht inhärent im Umfang eingeschränkt, sofern nichts anderes angegeben ist, und können Rohdatensignale, die direkt von den Sensoren in Echtzeit zur Erzeugung von Datensätzen auf der Steuerungsebene übertragen werden, Sätze von Rohdatensignalen, die kollektiv von den Sensoren an die Steuerung nach vorbestimmten Zeiträumen anstatt momentan übertragen werden, ereignisgesteuerte Datensignale, die von den Sensoren an die Steuerung auf Grundlage von Schwellen- oder Nichtschwellenerfassungsereignissen übertragen werden, und dergleichen umfassen.
- Das Verfahren
500 kann in Schritt504 fortgesetzt werden, indem die gesammelten Hinderniserkennungsdatensätze integriert werden, um bekannte Prioritäten zu verbessern, wodurch neue A-priori-Datensätze in Datenspeicherung erzeugt werden. - Das Verfahren
500 kann optional in den Schritten506 und508 fortgesetzt werden, indem Bewegungen einer Arbeitsmaschine im Zeitverlauf überwacht werden, ein Pfad oder eine Route vorhergesagt wird, die von der Arbeitsmaschine durchquert werden soll, und ferner ein Hinderniserkennungsbereich zum entsprechenden Abrufen und Verarbeiten von A-priori-Daten definiert wird. Wie zuvor angemerkt, können bestimmte Ausführungsformen, einschließlich solcher Schritte, die Verarbeitungszeit, die durch das Verfahren benötigt wird, wesentlich verringern, indem nur eine begrenzte Teilmenge des gesamten Arbeitsbereichs zu einem bestimmten Zeitpunkt substanziell überprüft werden muss. - Das Verfahren
500 kann in Schritt510 durch Bestimmen einer Wahrscheinlichkeit eines tatsächlichen Vorhandenseins (oder Nichtvorhandenseins) eines Hindernisses an einem gegebenen Ort und in Schritt512 durch Bestimmen der jeweiligen Wahrscheinlichkeiten für Kategorien des Hindernisses fortgesetzt werden. Als ein Beispiel können Datensignale, die von einem herkömmlichen Hindernissensor (oder einer Kombination von Hindernissensoren) empfangen werden, anzeigen, dass ein Hindernis erkannt wurde. Das Abrufen und Verarbeiten von A-priori-Daten, das ferner beispielsweise die Integration der neuen Datensignale umfasst, kann verwendet werden, um eine Wahrscheinlichkeit zu bestimmen, dass ein Hindernis tatsächlich vorhanden ist. In Kontexten, in denen die Rohdatensignale relativ verrauscht sein können, kann die Implementierung von Vorgängern bestätigen, dass tatsächlich ein Hindernis vorhanden ist, oder stattdessen eine unangemessene Rückmeldungs- oder Steuerantwort verhindern (oder zumindest dämpfen oder verzögern), indem bestimmt wird, dass ein solches Hindernis relativ unwahrscheinlich ist. - Solche Schritte können beispielsweise das Erzeugen von Zustandsvektoren beinhalten, die einer Bedingung oder Kategorie entsprechen (z. B. das Vorhandensein oder Nichtvorhandensein eines Hindernisses), wobei Übergangsfunktionen oder dergleichen verwendet werden können, um die Wahrscheinlichkeitswerte, die den jeweiligen Vektoren zugeordnet sind, zu erzeugen und im Laufe der Zeit zu aktualisieren. Bei wiederholtem Durchfahren einer gegebenen Arbeitsmaschinenroute kann das System und Verfahren die einem festen Hindernis entlang der gegebenen Route zugeordneten Prioritäten verstärken, ohne beispielsweise die Möglichkeit eines vorübergehenden Hindernisses beim Einfahren in die Route ausdrücklich auszuschließen. Dementsprechend können die Wahrscheinlichkeitswerte, die den Zustandsvektoren zugeordnet sind, diese relativen Unterscheidungen widerspiegeln, und wenn ein Hindernis später über Signale von den Hinderniserkennungssensoren angezeigt wird, kann das System auf eine geringe Wahrscheinlichkeit schließen, dass ein festes Hindernis vorhanden ist, aber dass es eine Möglichkeit eines vorübergehenden Hindernisses entlang der Route geben kann.
- Allgemein kann die oben erörterte A-priori-Wissensentwicklung und - Implementierung in erster Linie auf erkannten Bewegungen des Arbeitsfahrzeugs und/oder zugehöriger Arbeitsanbaugeräte basieren und sich daher nicht auf Informationen von den Hindernissensoren selbst verlassen, um die Wahrscheinlichkeiten zu klassifizieren, dass beispielsweise ein Hindernis eines bestimmten Typs vorhanden ist. Jedoch können Daten von den Hinderniserkennungssensoren immer noch in verschiedene Ausführungsformen und/oder maschinelle Lernkontexte integriert sein, wie zum Beispiel, wo das System falschpositive Angaben im Laufe der Zeit von einem bestimmten Hindernissensor an einem bestimmten Ort erkennen kann. Das System kann ferner im Laufe der Zeit lernen, Signale von bestimmten Hinderniserkennungssensoren im Kontext als mehr oder weniger zuverlässig zu behandeln, wie zum Beispiel an bestimmten Orten im Arbeitsbereich oder in der Nähe einer zuvor überquerten Fahrzeugroute usw.
- In bestimmten Ausführungsformen können die A-priori-Datensätze, die einem Arbeitsbereich entsprechen, ausschließlich oder in erster Linie auf Grundlage von im Zeitverlauf erlernten Informationen in Bezug auf erkannte Bewegungen der Arbeitsfahrzeuge und/oder Anbaugeräte erzeugt werden.
- Alternativ können die A-priori-Datensätze vorbestimmte Informationen über den Arbeitsbereich integrieren, wie zum Beispiel abgebildete topographische Informationen, oder solche vorbestimmten Informationen können separat im Datenspeicher bereitgestellt werden, um von der Maschinensteuerung oder dem Server in Bezug auf die Hinderniserkennungssensordaten und die A-priori-Daten integriert zu werden.
- Das Verfahren
500 kann in Schritt514 fortgesetzt werden, indem eine oder mehrere Ausgaben an eine Benutzerschnittstelle (z. B. Bedienfeld in der Bedienerkabine, mobile Rechenvorrichtung, Remote-Anzeige) und/oder an Steuereinheiten, die der Arbeitsmaschine zugeordnet sind, erzeugt werden. Die Ausgaben können mit einer höchsten Wahrscheinlichkeit in Bezug auf Zustandsvektoren in einer gegebenen Beziehung assoziiert sein, wie zum Beispiel, ob ein Hindernis in unmittelbarer Nähe der Arbeitsmaschine vorhanden oder nicht vorhanden ist (oder ob das System diesbezüglich unsicher ist), oder ob ein erkanntes Hindernis fest oder vorübergehend, Mensch oder Maschine usw. ist. - In einem Zusammenhang dienen die Ausgaben nur zu Anzeigezwecken und werden dem menschlichen Bediener als Entscheidungshilfe für ein manuelles Steuerungsverhalten auf der Grundlage einer genaueren Darstellung möglicher Hindernisse im Pfad der Arbeitsmaschine dargestellt.
- In einem anderen Kontext können die Ausgaben für eine automatisierte Steuerantwort bereitgestellt werden, insbesondere zum Aktivieren, Deaktivieren, Dämpfen usw. einer Steuerantwort, die ansonsten auf Grundlage der rohen Hinderniserkennungssignale automatisch bereitgestellt werden kann. Beispielsweise können Steuersignale oder Befehle zum Regulieren der Hindernisvermeidung für ein Fahrzeuglenksystem, ein Fahrzeugantriebssystem (z. B. zum Bremsen und/oder Antreiben) oder dergleichen erzeugt werden.
- Unsicherheiten in den vom System erzeugten Wahrscheinlichkeitswerten können sich auch in den Ausgaben widerspiegeln, wie beispielsweise wenn die Ausgaben als Teil eines separaten Algorithmus für Steuerzwecke gewichtet werden, oder wenn dem Bediener angezeigte Ergebnisse präsentiert werden, die auf ein potenzielles Hindernis hinweisen, jedoch die relative Unsicherheit oder mangelndes Vertrauen widerspiegeln. Beispielsweise kann eine bestimmte Ausgabe bereitgestellt werden, um die Steuerung des Arbeitsfahrzeugs zu regeln, wenn das System bestimmt, dass ein Hindernis höchstwahrscheinlich in dem Pfad des Fahrzeugs vorhanden ist, wohingegen eine separate Ausgabe bereitgestellt werden kann, wenn das System in Bezug auf den Zustand eines erkannten Hindernisses unsicher ist, so dass eine andere Steuerantwort umsichtig oder anderweitig durch das Arbeitsfahrzeug erforderlich ist.
- Somit ist ersichtlich, dass die Vorrichtung und die Verfahren der vorliegenden Offenbarung leicht die genannten Ziele und Vorteile sowie die darin enthaltenen erreichen. Obwohl bestimmte bevorzugte Ausführungsformen der Offenbarung für vorliegende Zwecke veranschaulicht und beschrieben wurden, können zahlreiche Änderungen in der Anordnung und Konstruktion von Teilen und Schritten durch Fachleute vorgenommen werden, wobei diese Änderungen im Umfang und Geist der vorliegenden Offenbarung, wie in den beigefügten Ansprüchen definiert, enthalten sind. Jedes offenbarte Merkmal oder jede offenbarte Ausführungsform kann mit jedem der anderen offenbarten Merkmale oder Ausführungsformen kombiniert werden.
Claims (15)
- Computerimplementiertes Verfahren (500) zur probabilistischen Entscheidungsunterstützung in Bezug auf erkannte Hindernisse in einem Arbeitsbereich, das Verfahren umfassend: das Bereitstellen eines Datenspeichers (156), der einen oder mehrere A-priori-Datensätze (160) umfasst, die einem Arbeitsbereich entsprechen; das Empfangen von Echtzeit-Datensätzen (158) von einem oder mehreren Hindernissensoren im Zusammenhang mit mindestens einem selbstfahrenden Arbeitsfahrzeug (502), wobei die Echtzeit-Datensätze einem erkannten Vorhandensein oder Nichtvorhandensein eines Hindernisses an einem bestimmten Ort innerhalb des Arbeitsbereichs entsprechen; das Bestimmen von Wahrscheinlichkeiten für das erkannte Vorhandensein oder Nichtvorhandensein des Hindernisses (510) und für jede von einer oder mehreren Hinderniskategorien (512) auf Grundlage des empfangenen Echtzeitdatensatzes und eines A-priori-Datensatzes, der dem gegebenen Ort entspricht, als Teilmenge des einen oder der mehreren A-priori-Datensätze, die dem Arbeitsbereich entsprechen, und das Erzeugen einer Ausgabe, die mindestens einer wahrscheinlichsten der bestimmten Wahrscheinlichkeiten entspricht (514).
- Verfahren nach
Anspruch 1 , ferner umfassend: das Integrieren der empfangenen Echtzeitdatensätze in einen Datenspeicher, der A-priori-Datensätze umfasst, die dem Arbeitsbereich entsprechen, um einen oder mehrere neue A-priori-Datensätze zu erzeugen (504). - Verfahren nach einem der
Ansprüche 1 oder2 , ferner umfassend: das Überwachen von Bewegungen einer oder mehrerer beweglicher Komponenten des Arbeitsfahrzeugs, die mindestens eines der Arbeitsanbaugeräte umfassen; und das Aktualisieren eines oder mehrerer A-priori-Datensätze mit Daten, die ein Hindernis an einem Ort innerhalb des Arbeitsbereichs auf Grundlage einer vorbestimmten Bewegungssequenz für die eine oder mehreren Arbeitsfahrzeugkomponenten kategorisieren. - Verfahren nach
Anspruch 3 , wobei zum Aktualisieren des einen oder mehrerer A-priori-Datensätze: ein erstes Hindernis (302) auf Grundlage einer ersten vorbestimmten Bewegungssequenz kategorisiert wird, ein zweites Hindernis (304) auf Grundlage einer zweiten vorbestimmten Bewegungssequenz kategorisiert wird, und ferner eine Arbeitsfahrzeugroute (306) zwischen dem ersten und zweiten Hindernis kategorisiert wird. - Verfahren nach
Anspruch 4 , wobei auf der Grundlage einer bestimmten Arbeitsaufgabe ein oder mehrere der ersten Hindernisse und zweiten Hindernisse entweder als vorübergehendes Hindernis oder als permanentes Hindernis kategorisiert werden. - Verfahren nach einem der
Ansprüche 1 bis5 , ferner umfassend: das Vorhersagen einer Arbeitsfahrzeugroute auf Grundlage der überwachten Fahrzeugbewegung (506). - Verfahren nach
Anspruch 6 , ferner umfassend: das Definieren eines Hinderniserkennungsbereichs als eine Teilmenge des Arbeitsbereichs, die der vorhergesagten Arbeitsfahrzeugroute entspricht (508). - Verfahren nach
Anspruch 7 , ferner umfassend: das dynamische Begrenzen des Abrufs oder der Verarbeitung von A-priori Daten in Bezug auf eine Teilmenge des Datenspeichers auf Grundlage des definierten Hinderniserkennungsbereichs. - Verfahren nach einem der
Ansprüche 6 bis8 , weiter umfassend: für vorhergesagte und zuvor überquerte Arbeitsfahrzeugrouten, denen ein kategorisiertes permanentes Hindernis fehlt, Beschränken der nachfolgenden Bestimmung der Wahrscheinlichkeiten des erkannten Vorhandenseins oder Nichtvorhandenseins des Hindernisses nur auf vorübergehende Hindernisse. - Verfahren nach einem der
Ansprüche 1 bis9 , wobei die Ausgabe an eine Benutzerschnittstelle (114) bereitgestellt wird, die sich in oder an dem Arbeitsfahrzeug befindet. - Verfahren nach
Anspruch 10 , ferner umfassend: das Hervorheben eines oder mehrerer vorhergesagter Hindernisse und zugehöriger Kategorien auf der Benutzerschnittstelle auf Grundlage der Ausgabe von der Steuerung. - Verfahren nach
Anspruch 11 , ferner umfassend: das Hervorheben einer oder mehrerer Entscheidungsunterstützungswerkzeuge oder vom Benutzer manipulierbarer Steuerungen basierend auf der Ausgabe. - Verfahren nach einem der
Ansprüche 1 bis12 , wobei die Ausgabe mindestens ein Steuersignal beinhaltet, das einer Fahrzeuglenksteuereinheit (126), einer Fahrzeuganbaugerät-Positionierungssteuereinheit (128) und/oder einer Fahrzeugantriebssteuereinheit (130) zum Regulieren zugehöriger Arbeitsfahrzeugkomponenten bereitgestellt wird. - Selbstfahrendes Arbeitsfahrzeug (100) mit einem oder mehreren Arbeitsanbaugeräten (102) zum Bearbeiten eines Geländes, und einem oder mehreren Hindernissensoren (104), wobei das Arbeitsfahrzeug dadurch charakterisiert ist, dass es weiter umfasst: Datenspeicherung (156), umfassend einen oder mehrere A-priori-Datensätze (160), die einem Arbeitsbereich (300) entsprechen; und eine Steuerung (112), die kommunikativ mit dem einen oder den mehreren Arbeitsanbaugeräten, dem einen oder den mehreren Hindernissensoren und dem Datenspeicher verbunden und konfiguriert ist, um ein Verfahren nach einem der
Ansprüche 1 bis13 auszuführen. - System (400), umfassend ein Servernetzwerk (402), das kommunikativ mit einer Vielzahl von selbstfahrenden Fahrzeugen (100a, 100b, 100c) verbunden ist, wobei jedes der selbstfahrenden Fahrzeuge mindestens ein Arbeitsanbaugerät (102) zum Bearbeiten eines Geländes und einen oder mehrere Hindernissensoren (104) umfasst; wobei das System weiter dadurch gekennzeichnet ist, dass es eine Datenspeicherung umfasst, die einen oder mehrere A-priori-Datensätze (160) umfasst, die einem Arbeitsbereich (300) entsprechen; wobei der Server konfiguriert ist, um ein Verfahren nach einem der
Ansprüche 1 bis13 auszuführen, mit Bezug auf jedes der selbstfahrenden Fahrzeuge (100a, 100b, 100c), die sich in dem Arbeitsbereich befinden.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/665,340 US11320830B2 (en) | 2019-10-28 | 2019-10-28 | Probabilistic decision support for obstacle detection and classification in a working area |
US16/665,340 | 2019-10-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020211561A1 true DE102020211561A1 (de) | 2021-04-29 |
Family
ID=75379304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020211561.3A Pending DE102020211561A1 (de) | 2019-10-28 | 2020-09-15 | Probabilistische entscheidungsunterstützung zur hinderniserkennung und -klassifizierung in einem arbeitsbereich |
Country Status (4)
Country | Link |
---|---|
US (1) | US11320830B2 (de) |
CN (1) | CN112799392A (de) |
BR (1) | BR102020017345A2 (de) |
DE (1) | DE102020211561A1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113657674A (zh) * | 2021-08-18 | 2021-11-16 | 杭州华橙软件技术有限公司 | 任务规划调整方法和装置、存储介质及电子设备 |
CN113657674B (zh) * | 2021-08-18 | 2024-05-31 | 杭州华橙软件技术有限公司 | 任务规划调整方法和装置、存储介质及电子设备 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3587675B1 (de) * | 2017-02-22 | 2024-06-05 | Sumitomo (S.H.I.) Construction Machinery Co., Ltd. | Bagger |
JP7137328B2 (ja) * | 2018-03-19 | 2022-09-14 | 株式会社小松製作所 | 作業分析装置および作業分析方法 |
US10883256B2 (en) * | 2018-05-25 | 2021-01-05 | Deere & Company | Object responsive control system for a work machine |
EP3875697B1 (de) * | 2018-10-31 | 2023-12-06 | Sumitomo Construction Machinery Co., Ltd. | Bagger und baggerhilfssystem |
Family Cites Families (206)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7630806B2 (en) | 1994-05-23 | 2009-12-08 | Automotive Technologies International, Inc. | System and method for detecting and protecting pedestrians |
JPH08166448A (ja) | 1994-12-13 | 1996-06-25 | Honda Motor Co Ltd | 車両用周囲監視装置 |
JPH1088625A (ja) | 1996-09-13 | 1998-04-07 | Komatsu Ltd | 自動掘削機、自動掘削方法および自動積み込み方法 |
JPH10143659A (ja) | 1996-11-06 | 1998-05-29 | Komatsu Ltd | 物体検出装置 |
US6292725B1 (en) | 1997-04-04 | 2001-09-18 | Komatsu Ltd. | Interference preventing device for vehicle |
JP3642547B2 (ja) | 1997-08-22 | 2005-04-27 | 株式会社小松製作所 | 自走車両の車速制御装置 |
JPH11296229A (ja) | 1998-02-13 | 1999-10-29 | Komatsu Ltd | 車両の誘導装置 |
JPH11353593A (ja) | 1998-06-04 | 1999-12-24 | Daihatsu Motor Co Ltd | 歩行者検知システム |
JP2000090277A (ja) | 1998-09-10 | 2000-03-31 | Hitachi Denshi Ltd | 基準背景画像更新方法及び侵入物体検出方法並びに侵入物体検出装置 |
JP4197209B2 (ja) | 1999-05-21 | 2008-12-17 | 株式会社小松製作所 | 車両の無人走行システム |
DE19961731C2 (de) | 1999-12-21 | 2003-11-06 | Eckart Hiss | Erfassungssystem |
JP2002049403A (ja) | 2000-08-07 | 2002-02-15 | Shin Caterpillar Mitsubishi Ltd | 建設機械における音声機体制御装置 |
US6577269B2 (en) | 2000-08-16 | 2003-06-10 | Raytheon Company | Radar detection method and apparatus |
JP3574780B2 (ja) | 2000-08-29 | 2004-10-06 | 株式会社日立製作所 | 車両の安全運転支援システム |
DE10144689B4 (de) | 2001-09-11 | 2010-04-08 | Volkswagen Ag | Verfahren und Einrichtung zur Erfassung von Objekten |
US20060061008A1 (en) | 2004-09-14 | 2006-03-23 | Lee Karner | Mounting assembly for vehicle interior mirror |
US10144353B2 (en) | 2002-08-21 | 2018-12-04 | Magna Electronics Inc. | Multi-camera vision system for a vehicle |
KR100531198B1 (ko) | 2002-09-09 | 2005-11-25 | 권대웅 | 자동차의 후방상황 및 인체감지용 와닝시스템 인터페이스 |
GB2400353A (en) | 2003-04-09 | 2004-10-13 | Autoliv Dev | Pedestrian detecting system provided on a motor vehicle |
US20040217851A1 (en) | 2003-04-29 | 2004-11-04 | Reinhart James W. | Obstacle detection and alerting system |
US7263209B2 (en) | 2003-06-13 | 2007-08-28 | Sarnoff Corporation | Vehicular vision system |
US7047132B2 (en) | 2004-01-12 | 2006-05-16 | Steven Jacobs | Mobile vehicle sensor array |
JP4013900B2 (ja) | 2004-01-13 | 2007-11-28 | 株式会社デンソー | 歩行者検出装置 |
JP4376653B2 (ja) | 2004-02-17 | 2009-12-02 | 富士重工業株式会社 | 車外監視装置 |
US8050863B2 (en) | 2006-03-16 | 2011-11-01 | Gray & Company, Inc. | Navigation and control system for autonomous vehicles |
JP4996928B2 (ja) | 2007-01-05 | 2012-08-08 | 日立建機株式会社 | 作業機械の周囲監視装置 |
JP4847913B2 (ja) | 2007-03-30 | 2011-12-28 | 日立建機株式会社 | 作業機械周辺監視装置 |
US20090088979A1 (en) | 2007-09-27 | 2009-04-02 | Roger Dale Koch | Automated machine navigation system with obstacle detection |
JP2009169776A (ja) | 2008-01-18 | 2009-07-30 | Hitachi Ltd | 検出装置 |
US7984574B2 (en) | 2008-03-11 | 2011-07-26 | Deere & Company | Construction vehicle with rear object detection |
US8170787B2 (en) | 2008-04-15 | 2012-05-01 | Caterpillar Inc. | Vehicle collision avoidance system |
US20090259399A1 (en) | 2008-04-15 | 2009-10-15 | Caterpillar Inc. | Obstacle detection method and system |
US8280621B2 (en) | 2008-04-15 | 2012-10-02 | Caterpillar Inc. | Vehicle collision avoidance system |
US8917904B2 (en) | 2008-04-24 | 2014-12-23 | GM Global Technology Operations LLC | Vehicle clear path detection |
US8331195B1 (en) | 2008-10-20 | 2012-12-11 | The United States Of America As Represented By The Secretary Of The Army | Computer implemented sensor data analysis |
US20100100324A1 (en) | 2008-10-22 | 2010-04-22 | Toyota Motor Engineering & Manufacturing North America, Inc. | Communication based vehicle-pedestrian collision warning system |
JP2010112100A (ja) | 2008-11-07 | 2010-05-20 | Hitachi Constr Mach Co Ltd | 作業機械の監視装置 |
JP5227841B2 (ja) | 2009-02-27 | 2013-07-03 | 日立建機株式会社 | 周囲監視装置 |
JP4951639B2 (ja) | 2009-03-02 | 2012-06-13 | 日立建機株式会社 | 周囲監視装置を備えた作業機械 |
US8564502B2 (en) | 2009-04-02 | 2013-10-22 | GM Global Technology Operations LLC | Distortion and perspective correction of vector projection display |
US8164543B2 (en) | 2009-05-18 | 2012-04-24 | GM Global Technology Operations LLC | Night vision on full windshield head-up display |
WO2010144900A1 (en) | 2009-06-12 | 2010-12-16 | Magna Electronics Inc. | Scalable integrated electronic control unit for vehicle |
US8633810B2 (en) | 2009-11-19 | 2014-01-21 | Robert Bosch Gmbh | Rear-view multi-functional camera system |
US20110153169A1 (en) | 2009-12-18 | 2011-06-23 | Agco Corporation | Sensor-Based Implement Motion Interlock System |
DE102010007603A1 (de) | 2010-02-05 | 2011-08-11 | Kässbohrer Geländefahrzeug AG, 88471 | Arbeitsfahrzeug |
US8600606B2 (en) | 2010-02-11 | 2013-12-03 | GM Global Technology Operations LLC | Vehicle safety systems and methods |
US9633563B2 (en) | 2010-04-19 | 2017-04-25 | Caterpillar Inc. | Integrated object detection and warning system |
US20120050024A1 (en) | 2010-08-25 | 2012-03-01 | Delphi Technologies, Inc. | Vehicle camera system |
US9113047B2 (en) | 2010-10-22 | 2015-08-18 | Hitachi Construction Machinery Co., Ltd. | Peripheral monitoring device for working machine |
US8751103B2 (en) | 2010-11-22 | 2014-06-10 | Caterpillar Inc. | Object detection system having interference avoidance strategy |
US8744693B2 (en) | 2010-11-22 | 2014-06-03 | Caterpillar Inc. | Object detection system having adjustable focus |
US9001029B2 (en) | 2011-02-15 | 2015-04-07 | Basf Se | Detector for optically detecting at least one object |
US20120249342A1 (en) | 2011-03-31 | 2012-10-04 | Koehrsen Craig L | Machine display system |
US8688332B2 (en) | 2011-04-20 | 2014-04-01 | Caterpillar Inc. | Management system incorporating performance and detection data |
DE102011017707A1 (de) | 2011-04-28 | 2012-10-31 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera |
US20120287277A1 (en) | 2011-05-13 | 2012-11-15 | Koehrsen Craig L | Machine display system |
EP2524847B1 (de) | 2011-05-20 | 2017-04-19 | Autoliv Development AB | Fahrzeugsteueranordnung |
WO2012169352A1 (ja) | 2011-06-07 | 2012-12-13 | 株式会社小松製作所 | 作業車両の周辺監視装置 |
JP5722127B2 (ja) | 2011-06-07 | 2015-05-20 | 株式会社小松製作所 | 作業車両の周辺監視装置 |
KR20120140545A (ko) | 2011-06-21 | 2012-12-31 | 현대자동차주식회사 | 보행자 보호 시스템 및 그 방법 |
ES2945321T3 (es) | 2011-06-24 | 2023-06-30 | Surveillance Guard Co Ltd | Un sistema de prevención de accidentes y un vehículo que incluye el sistema de prevención de accidentes |
US9030332B2 (en) | 2011-06-27 | 2015-05-12 | Motion Metrics International Corp. | Method and apparatus for generating an indication of an object within an operating ambit of heavy loading equipment |
CA2744561A1 (en) | 2011-06-27 | 2012-12-27 | Motion Metrics International Corp. | Method and apparatus for generating an indication of an object within an operating ambit of heavy loading equipment |
KR20130021986A (ko) | 2011-08-24 | 2013-03-06 | 현대모비스 주식회사 | 환경 적응형 보행자 인식 장치 및 방법 |
CN103057459B (zh) | 2011-10-19 | 2017-06-13 | 现代摩比斯株式会社 | 车用灯具及其控制方法 |
KR101393343B1 (ko) | 2011-10-19 | 2014-05-09 | 현대모비스 주식회사 | 차량용 램프 장치 |
EP2808455B1 (de) | 2012-01-27 | 2018-05-30 | Doosan Infracore Co., Ltd. | Vorrichtung zur erhöhung der betriebsstabilität einer baumaschine |
JP5667594B2 (ja) | 2012-03-15 | 2015-02-12 | 株式会社小松製作所 | 障害物検出機構付きダンプトラックおよびその障害物検出方法 |
JP2013195086A (ja) | 2012-03-15 | 2013-09-30 | Komatsu Ltd | 障害物検出機構付きダンプトラック |
DE102012102236A1 (de) | 2012-03-16 | 2013-09-19 | Pilz Gmbh & Co. Kg | Verfahren und Vorrichtung zum Absichern eines gefährlichen Arbeitsbereichs einer automatisiert arbeitenden Maschine |
JP6029306B2 (ja) | 2012-03-29 | 2016-11-24 | 住友建機株式会社 | 作業機械用周辺監視装置 |
EP2679450B1 (de) | 2012-06-27 | 2016-07-20 | Volvo Car Corporation | System zum schutz von gefährdeten verkehrsteilnehmern, und verfahren zum betrieb des systems |
US9429650B2 (en) * | 2012-08-01 | 2016-08-30 | Gm Global Technology Operations | Fusion of obstacle detection using radar and camera |
JP5456123B1 (ja) | 2012-09-20 | 2014-03-26 | 株式会社小松製作所 | 作業車両用周辺監視システム及び作業車両 |
JP5324690B1 (ja) | 2012-09-21 | 2013-10-23 | 株式会社小松製作所 | 作業車両用周辺監視システム及び作業車両 |
JP5550695B2 (ja) | 2012-09-21 | 2014-07-16 | 株式会社小松製作所 | 作業車両用周辺監視システム及び作業車両 |
JP5411976B1 (ja) | 2012-09-21 | 2014-02-12 | 株式会社小松製作所 | 作業車両用周辺監視システム及び作業車両 |
CN202873034U (zh) | 2012-11-04 | 2013-04-10 | 黑龙江科技学院 | 基于行人检测的汽车喇叭音量控制系统 |
GB2507769A (en) | 2012-11-08 | 2014-05-14 | Sentinel Systems Ltd | Warning a person to move away from the side of a large vehicle |
KR102003562B1 (ko) | 2012-12-24 | 2019-07-24 | 두산인프라코어 주식회사 | 건설기계의 감지 장치 및 방법 |
US20140205139A1 (en) | 2013-01-18 | 2014-07-24 | Caterpillar Inc. | Object recognition system implementing image data transformation |
US9052393B2 (en) | 2013-01-18 | 2015-06-09 | Caterpillar Inc. | Object recognition system having radar and camera input |
US9142063B2 (en) | 2013-02-15 | 2015-09-22 | Caterpillar Inc. | Positioning system utilizing enhanced perception-based localization |
US9153144B2 (en) | 2013-08-05 | 2015-10-06 | Ford Global Technologies, Llc | Rapid approach detector |
US20150070498A1 (en) | 2013-09-06 | 2015-03-12 | Caterpillar Inc. | Image Display System |
KR101489836B1 (ko) | 2013-09-13 | 2015-02-04 | 자동차부품연구원 | 보행자 감지 및 충돌 회피 장치 및 방법 |
JP6284741B2 (ja) | 2013-10-24 | 2018-02-28 | 日立建機株式会社 | 後退支援装置 |
JP6272347B2 (ja) | 2013-11-08 | 2018-01-31 | 株式会社日立製作所 | 自律走行車両、及び自律走行システム |
US9809219B2 (en) | 2014-01-29 | 2017-11-07 | Continental Automotive Systems, Inc. | System for accommodating a pedestrian during autonomous vehicle operation |
JP6134668B2 (ja) | 2014-02-18 | 2017-05-24 | 日立建機株式会社 | 作業車両の障害物検知装置 |
JP6301702B2 (ja) * | 2014-03-27 | 2018-03-28 | 株式会社クボタ | 作業車協調システム |
US20170135277A1 (en) | 2014-03-28 | 2017-05-18 | Yanmar Co., Ltd. | Autonomously traveling work vehicle |
JP6178280B2 (ja) | 2014-04-24 | 2017-08-09 | 日立建機株式会社 | 作業機械の周囲監視装置 |
US9975485B2 (en) | 2014-04-25 | 2018-05-22 | Komatsu Ltd. | Surroundings monitoring system, work vehicle, and surroundings monitoring method |
JP6262068B2 (ja) | 2014-04-25 | 2018-01-17 | 日立建機株式会社 | 車体近傍障害物報知システム |
CN105339061B (zh) | 2014-04-25 | 2017-05-10 | 株式会社小松制作所 | 周边监视系统、作业车辆以及周边监视方法 |
KR101566963B1 (ko) | 2014-05-27 | 2015-11-06 | 주식회사 피엘케이 테크놀로지 | 작업 차량 상태를 고려하여 개체를 인식할 수 있는 어라운드 뷰 모니터링 방법, 이를 수행하는 어라운드 뷰 모니터링 장치 및 이를 저장하는 기록매체 |
KR102178433B1 (ko) | 2014-05-30 | 2020-11-16 | 주식회사 만도 | 긴급 제동 시스템 및 그의 보행자 인식 방법 |
JP6386794B2 (ja) | 2014-06-04 | 2018-09-05 | 日立建機株式会社 | 運搬車両 |
JP6378958B2 (ja) | 2014-07-17 | 2018-08-22 | 日立建機株式会社 | 鉱山用ダンプトラック |
US10444346B2 (en) | 2014-07-25 | 2019-10-15 | Robert Bosch Gmbh | Method for migrating radar sensor limitations with video camera input for active braking for pedestrians |
JP6204884B2 (ja) | 2014-07-25 | 2017-09-27 | 日立建機株式会社 | 旋回式作業機の周囲表示装置 |
CN105722570B (zh) | 2014-07-30 | 2017-10-20 | 株式会社小松制作所 | 搬运车辆、自卸车及搬运车辆的控制方法 |
WO2016016980A1 (ja) | 2014-07-30 | 2016-02-04 | 株式会社小松製作所 | 運搬車両及び運搬車両の制御方法 |
DE102014012825A1 (de) | 2014-08-28 | 2016-03-03 | Wirtgen Gmbh | Selbstfahrende Baumaschine und Verfahren zur Steuerung einer selbstfahrenden Baumaschine |
CA2884808C (en) | 2014-09-01 | 2019-05-07 | Komatsu Ltd. | Transporter vehicle and transporter vehicle control method |
US10049574B2 (en) | 2014-09-01 | 2018-08-14 | Komatsu Ltd. | Transporter vehicle, dump truck, and transporter vehicle control method |
JP6393123B2 (ja) | 2014-09-04 | 2018-09-19 | 日立建機株式会社 | 障害物検出システム及び運搬車両 |
JP6280850B2 (ja) | 2014-09-29 | 2018-02-14 | 日立建機株式会社 | 障害物回避システム |
US9834141B2 (en) | 2014-10-28 | 2017-12-05 | Nissan North America, Inc. | Vehicle object detection system |
US20160137125A1 (en) | 2014-11-17 | 2016-05-19 | Caterpillar Inc. | Imaging system using virtual projection geometry |
DE112014007249B4 (de) * | 2014-12-10 | 2022-11-03 | Mitsubishi Electric Corporation | Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm |
US9598843B2 (en) | 2014-12-16 | 2017-03-21 | Caterpillar Inc. | Real-time route terrain validity checker |
JP6352797B2 (ja) | 2014-12-19 | 2018-07-04 | 日立建機株式会社 | 作業機械の周囲監視装置 |
US9457718B2 (en) | 2014-12-19 | 2016-10-04 | Caterpillar Inc. | Obstacle detection system |
CN104871106A (zh) | 2014-12-26 | 2015-08-26 | 株式会社小松制作所 | 矿山机械、矿山机械的管理系统和矿山机械的管理方法 |
CN104655186B (zh) | 2015-01-26 | 2017-12-08 | 广东交通职业技术学院 | 车身环境监控系统 |
KR20160091585A (ko) | 2015-01-26 | 2016-08-03 | 엘지이노텍 주식회사 | 차량용 보행자 인지 표시 장치 |
CN204346505U (zh) | 2015-01-26 | 2015-05-20 | 广东交通职业技术学院 | 一种车身环境监控系统 |
JP2018054290A (ja) | 2015-01-29 | 2018-04-05 | 日立建機株式会社 | 運搬用車両の障害物検出装置 |
JP6456173B2 (ja) | 2015-02-04 | 2019-01-23 | 日立建機株式会社 | 車体外部移動物体検知装置 |
KR102338554B1 (ko) | 2015-03-16 | 2021-12-15 | 주식회사 만도모빌리티솔루션즈 | 자동 긴급 제동장치 및 그 제어방법 |
KR101684095B1 (ko) | 2015-04-09 | 2016-12-07 | 현대자동차주식회사 | 보행자 거리 추정장치 및 방법 |
EP3086196B1 (de) | 2015-04-21 | 2017-04-05 | Hexagon Technology Center GmbH | Verfahren und steuerungssystem zur überwachung und abbildung eines geländes während des betriebs einer planierraupe |
JP2016203836A (ja) | 2015-04-24 | 2016-12-08 | 日立建機株式会社 | 車両及び鉱山用運搬車両の運用システム |
WO2016179802A1 (en) | 2015-05-12 | 2016-11-17 | SZ DJI Technology Co., Ltd. | Apparatuses and methods of recognizing or detecting an obstacle |
MX2017014648A (es) | 2015-05-15 | 2018-04-11 | Airfusion Inc | Aparato portatil y metodo para apoyo de decision para fusion y analisis de datos de sensores multiples automatizados en tiempo real. |
JP2017030688A (ja) | 2015-08-06 | 2017-02-09 | 日立建機株式会社 | 作業機械の周囲監視装置 |
US9604639B2 (en) | 2015-08-28 | 2017-03-28 | Delphi Technologies, Inc. | Pedestrian-intent-detection for automated vehicles |
WO2017047688A1 (ja) | 2015-09-17 | 2017-03-23 | 株式会社日立国際電気 | 落下物検知追跡システム |
JP6401141B2 (ja) | 2015-10-15 | 2018-10-03 | 日立建機株式会社 | 車両周囲障害物検出装置 |
JP2017074870A (ja) | 2015-10-15 | 2017-04-20 | 日立建機株式会社 | 車両周囲障害物検出装置 |
JP2017074871A (ja) | 2015-10-15 | 2017-04-20 | 日立建機株式会社 | 車両周囲障害物検出装置 |
US20170113608A1 (en) | 2015-10-27 | 2017-04-27 | Caterpillar Inc. | System and method for operating a machine |
JP6662604B2 (ja) | 2015-10-28 | 2020-03-11 | 住友建機株式会社 | ショベル |
JP6909726B2 (ja) | 2015-10-30 | 2021-07-28 | 株式会社小松製作所 | 作業機械の制御システム、作業機械、作業機械の管理システム、及び作業機械の管理方法 |
KR102258475B1 (ko) | 2015-11-03 | 2021-06-01 | 현대자동차주식회사 | 보행자 시선을 고려한 차량의 자동긴급제동 시스템 및 방법 |
US20170146990A1 (en) | 2015-11-19 | 2017-05-25 | Caterpillar Inc. | Augmented communication and positioning using unmanned aerial vehicles |
JP6473685B2 (ja) | 2015-11-19 | 2019-02-20 | 日立建機株式会社 | 車両制御装置及び作業機械 |
US10344450B2 (en) | 2015-12-01 | 2019-07-09 | The Charles Machine Works, Inc. | Object detection system and method |
TWI570674B (zh) | 2015-12-17 | 2017-02-11 | 合盈光電科技股份有限公司 | 交通運輸工具之影像偵測系統 |
AU2015418445B2 (en) | 2015-12-25 | 2019-08-15 | Komatsu Ltd. | Control system for work machine, work machine, management system for work machine, and management method for work machine |
JP6580982B2 (ja) | 2015-12-25 | 2019-09-25 | 日立建機株式会社 | オフロードダンプトラック及び障害物判別装置 |
DE102016100064B4 (de) | 2016-01-04 | 2017-11-23 | Volkswagen Aktiengesellschaft | Adative Anzeige in B-Säule |
JP6475227B2 (ja) | 2016-02-01 | 2019-02-27 | 株式会社小松製作所 | 作業機械の制御システム、作業機械、及び作業機械の管理システム |
CA3010702A1 (en) | 2016-02-29 | 2017-09-08 | Komatsu Ltd. | Work machine management system and work machine |
US10119830B2 (en) | 2016-02-29 | 2018-11-06 | Komatsu Ltd. | Control system for work machine, work machine, and management system for work machine |
JP6407183B2 (ja) | 2016-03-11 | 2018-10-17 | 日立建機株式会社 | 障害物検知装置、作業機械、及び外界認識センサの検出軸調整方法 |
US10656265B2 (en) | 2016-03-14 | 2020-05-19 | Hitachi Construction Machinery Co., Ltd. | Mining work machine |
US10486592B2 (en) | 2016-03-21 | 2019-11-26 | David Earl Irby, SR. | Pedestrian detection system |
JP6585532B2 (ja) | 2016-03-24 | 2019-10-02 | 株式会社日立建機ティエラ | 小型の油圧ショベル |
US9535423B1 (en) | 2016-03-29 | 2017-01-03 | Adasworks Kft. | Autonomous vehicle with improved visual detection ability |
KR20170119059A (ko) | 2016-04-18 | 2017-10-26 | 현대자동차주식회사 | Aeb 센서융합 시스템 |
US9760806B1 (en) | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
US9925979B2 (en) | 2016-06-06 | 2018-03-27 | Robert Bosch Gmbh | Autonomous braking failure management in pedestrian protection |
US10768298B2 (en) | 2016-06-14 | 2020-09-08 | Magna Electronics Inc. | Vehicle sensing system with 360 degree near range sensing |
US10037033B2 (en) | 2016-06-15 | 2018-07-31 | Ford Global Technologies, Llc | Vehicle exterior surface object detection |
CN109565304B (zh) | 2016-07-08 | 2023-04-07 | 马格纳电子系统公司 | 用于车辆的2d mimo雷达系统 |
US10150414B2 (en) | 2016-07-08 | 2018-12-11 | Ford Global Technologies, Llc | Pedestrian detection when a vehicle is reversing |
US10239446B2 (en) | 2016-07-13 | 2019-03-26 | Magna Electronics Inc. | Vehicle sensing system using daisy chain of sensors |
WO2018026021A1 (ja) | 2016-08-05 | 2018-02-08 | 株式会社小松製作所 | 管理システム |
DE102016215102A1 (de) | 2016-08-12 | 2017-12-07 | Conti Temic Microelectronic Gmbh | Fußgängererkennung mittels Radar |
US10641867B2 (en) | 2016-08-15 | 2020-05-05 | Magna Electronics Inc. | Vehicle radar system with shaped radar antennas |
US10852418B2 (en) | 2016-08-24 | 2020-12-01 | Magna Electronics Inc. | Vehicle sensor with integrated radar and image sensors |
JP6646135B2 (ja) | 2016-08-31 | 2020-02-14 | 日立建機株式会社 | 周辺監視システム及び周辺監視装置 |
WO2018044191A1 (en) | 2016-08-31 | 2018-03-08 | Limited Liability Company "Topcon Positioning Systems" | Apparatus and method for providing vehicular positioning |
JP6718341B2 (ja) | 2016-09-13 | 2020-07-08 | 日立建機株式会社 | 鉱山用作業機械及びその後方監視方法 |
US10202115B2 (en) | 2016-09-13 | 2019-02-12 | Here Global B.V. | Method and apparatus for triggering vehicle sensors based on human accessory detection |
US10151830B2 (en) | 2016-09-14 | 2018-12-11 | Caterpillar Inc. | Systems and methods for detecting objects proximate to a machine utilizing a learned process |
ES2663655B1 (es) | 2016-09-14 | 2018-09-24 | Universidad De Huelva | Sistema y dispositivo autónomo de detección y señalización vial |
JP6599835B2 (ja) | 2016-09-23 | 2019-10-30 | 日立建機株式会社 | 鉱山用作業機械、障害物判別装置、及び障害物判別方法 |
KR20180041525A (ko) | 2016-10-14 | 2018-04-24 | 주식회사 만도 | 차량의 물체 트래킹 시스템 및 그 제어 방법 |
KR101967305B1 (ko) | 2016-10-14 | 2019-05-15 | 주식회사 만도 | 차량의 보행자 인식 방법 및 차량의 보행자 인식 시스템 |
DE102016012342A1 (de) | 2016-10-14 | 2017-04-27 | Daimler Ag | Vorrichtung zur Erfassung der Umgebung eines Fahrzeugs |
US20180105107A1 (en) | 2016-10-19 | 2018-04-19 | Novateur Research Solutions LLC | Pedestrian collision warning system for vehicles |
IT201600108172A1 (it) | 2016-10-26 | 2018-04-26 | Casagrande Spa | Dispositivo e metodo di monitoraggio di un'area operativa |
US10196058B2 (en) | 2016-11-28 | 2019-02-05 | drive.ai Inc. | Method for influencing entities at a roadway intersection |
KR101996418B1 (ko) | 2016-12-30 | 2019-07-04 | 현대자동차주식회사 | 센서 융합 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법 |
KR101996419B1 (ko) | 2016-12-30 | 2019-07-04 | 현대자동차주식회사 | 센서 융합 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법 |
WO2018136889A1 (en) | 2017-01-23 | 2018-07-26 | Built Robotics Inc. | Excavating earth from a dig site using an excavation vehicle |
CN110402371B (zh) | 2017-03-01 | 2023-12-01 | 御眼视觉技术有限公司 | 用于利用感测不确定性导航的系统和方法 |
CN206657493U (zh) | 2017-03-16 | 2017-11-21 | 李晔 | 一种行人车辆安全提示器用的检测电路 |
US10282999B2 (en) | 2017-03-17 | 2019-05-07 | GM Global Technology Operations LLC | Road construction detection systems and methods |
EP3566106B1 (de) | 2017-03-20 | 2024-03-06 | Mobileye Vision Technologies Ltd. | Trajektorieauswahl für ein autonomes fahrzeug |
US20180273030A1 (en) | 2017-03-27 | 2018-09-27 | Kevin Michael Weldon | Autonomous Vehicle having Pedestrian Protection Subsystem |
JP6862257B6 (ja) | 2017-04-14 | 2021-06-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 自動運転車両、自動運転車両の停車方法及びプログラム |
US10108867B1 (en) | 2017-04-25 | 2018-10-23 | Uber Technologies, Inc. | Image-based pedestrian detection |
EP3631503A4 (de) | 2017-05-23 | 2021-03-17 | D.R Roads A.I. Ltd. | Systeme und verfahren zur verkehrsüberwachung und -verwaltung |
CN107244324B (zh) | 2017-06-06 | 2020-04-17 | 龙岩学院 | 一种智能矿用猴车及其控制系统和控制方法 |
US10262528B2 (en) | 2017-07-21 | 2019-04-16 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle mode alert system for bystanders |
US20190047488A1 (en) | 2017-08-10 | 2019-02-14 | Gentex Corporation | Low cost camera |
WO2019043446A1 (en) | 2017-09-04 | 2019-03-07 | Nng Software Developing And Commercial Llc | METHOD AND APPARATUS FOR COLLECTING AND USING SENSOR DATA FROM A VEHICLE |
US10877148B2 (en) | 2017-09-07 | 2020-12-29 | Magna Electronics Inc. | Vehicle radar sensing system with enhanced angle resolution using synthesized aperture |
US10962641B2 (en) | 2017-09-07 | 2021-03-30 | Magna Electronics Inc. | Vehicle radar sensing system with enhanced accuracy using interferometry techniques |
US10489665B2 (en) | 2017-09-07 | 2019-11-26 | GM Global Technology Operations LLC | Systems and methods for determining the presence of traffic control personnel and traffic control signage |
US11150342B2 (en) | 2017-09-07 | 2021-10-19 | Magna Electronics Inc. | Vehicle radar sensing system with surface segmentation using interferometric statistical analysis |
US10962638B2 (en) | 2017-09-07 | 2021-03-30 | Magna Electronics Inc. | Vehicle radar sensing system with surface modeling |
DE102017216000A1 (de) | 2017-09-11 | 2019-03-14 | Conti Temic Microelectronic Gmbh | Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera |
US10459443B2 (en) | 2017-09-22 | 2019-10-29 | Erik Jertberg | Semi-autonomous farm transport vehicle for picked produce |
GB2567142A (en) | 2017-09-26 | 2019-04-10 | Cambridge Consultants | Delivery system |
US20180074506A1 (en) | 2017-11-21 | 2018-03-15 | GM Global Technology Operations LLC | Systems and methods for mapping roadway-interfering objects in autonomous vehicles |
US10147320B1 (en) | 2017-12-27 | 2018-12-04 | Christ G. Ellis | Self-driving vehicles safety system |
DE102018003788A1 (de) | 2018-05-09 | 2018-11-29 | Daimler Ag | Verfahren zum Identifizieren einer Person mittels eines Kraftfahrzeugs |
US10205457B1 (en) | 2018-06-01 | 2019-02-12 | Yekutiel Josefsberg | RADAR target detection system for autonomous vehicles with ultra lowphase noise frequency synthesizer |
CN208460034U (zh) | 2018-07-17 | 2019-02-01 | 江西精骏电控技术有限公司 | 一种全方位行人检测系统 |
JP2020040519A (ja) * | 2018-09-11 | 2020-03-19 | 株式会社小松製作所 | 端末装置、作業機械システム、情報処理方法、およびサーバ装置 |
-
2019
- 2019-10-28 US US16/665,340 patent/US11320830B2/en active Active
-
2020
- 2020-08-25 BR BR102020017345-6A patent/BR102020017345A2/pt unknown
- 2020-09-15 DE DE102020211561.3A patent/DE102020211561A1/de active Pending
- 2020-09-28 CN CN202011044750.0A patent/CN112799392A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113657674A (zh) * | 2021-08-18 | 2021-11-16 | 杭州华橙软件技术有限公司 | 任务规划调整方法和装置、存储介质及电子设备 |
CN113657674B (zh) * | 2021-08-18 | 2024-05-31 | 杭州华橙软件技术有限公司 | 任务规划调整方法和装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
US20210124364A1 (en) | 2021-04-29 |
US11320830B2 (en) | 2022-05-03 |
CN112799392A (zh) | 2021-05-14 |
BR102020017345A2 (pt) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102020211561A1 (de) | Probabilistische entscheidungsunterstützung zur hinderniserkennung und -klassifizierung in einem arbeitsbereich | |
DE102019211246A1 (de) | Maschinenstabilitätserfassung und -steuerung | |
DE112015003762T5 (de) | Verfahren zur Entwicklung eines Klassifikators für Maschinenoperationen unter Verwendung von maschinellem Lernen | |
EP1987371B1 (de) | Verfahren zur detektion von objekten mit einer schwenkbaren sensoreinrichtung | |
DE112019003156T5 (de) | Steuervorrichtung und steuerverfahren für eine arbeitsmaschine | |
EP3824247A1 (de) | Verfahren und system zum bestimmen einer position eines fahrzeugs | |
DE102019214363A1 (de) | STRAßENINSTANDHALTUNG UNTER VER WENDUNG GESPEICHERTER INSTANDHALTUNGSDURCHGÄNGE | |
WO2019228699A1 (de) | Verfahren zur automatisierten steuerung eines baggers | |
DE112019003165T5 (de) | Steuervorrichtung, lademaschine und steuerverfahren | |
WO2020200602A1 (de) | Verfahren und vorrichtung zum teleoperierten fahren eines fahrzeuges | |
DE102021200634A1 (de) | Maschinenkippkörper-steuerung mit objekterkennung | |
WO2020177958A1 (de) | Verfahren und steuereinheit zur erkennung eines ein- bzw. ausscherenden fahrzeugs | |
DE112018004344T5 (de) | Steuervorrichtung und steuerverfahren für eine lademaschine | |
DE102021202030A1 (de) | Verwendung generierter linien zur fahrzeugsteuerung und objektvermeidung | |
DE102020214893A1 (de) | Leistungserfassungs- und steuersystem für mobile arbeitsmaschinen | |
DE102021204257A1 (de) | Bodeneingriffswerkzeugsteuersystem und -verfahren | |
DE112019000236T5 (de) | Lader-maschine-steuer-vorrichtung und steuer-verfahren | |
DE102019115330A1 (de) | Echtzeit-Sicherheitspfaderzeugung für hochautomatisiertes Fahrzeugrückfallmanöver | |
DE112021002794T5 (de) | Aushub-Informationsverarbeitungsvorrichtung, Arbeitsmaschine, Aushubunterstützungsvorrichtung und Aushub-Informationsverarbeitungsverfahren | |
DE102020213294A1 (de) | Verfahren zur Überwachung eines Baustellenbereichs, Überwachungssystem, Computerprogramm und Speichermedium | |
DE102019219174A1 (de) | Zweidimensionale Anbaugerät-Planiersteuerung für ein Arbeitsfahrzeug | |
WO2020088926A1 (de) | Verfahren zum betrieb eines assistenzsystems eines fahrzeuges, vorrichtung zur durchführung des verfahrens und fahrzeug | |
DE102022202296A1 (de) | System und verfahren zur selektiven automatisierung von beladungsvorgangs-phasen für selbstfahrende arbeitsfahrzeuge | |
DE112022001908T5 (de) | Baumaschine und baumaschinen-unterstützungssystem | |
DE102021213706A1 (de) | Mobile planiermaschine mit verbessertem planiersteuersystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |