DE112018005907T5 - Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper - Google Patents

Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper Download PDF

Info

Publication number
DE112018005907T5
DE112018005907T5 DE112018005907.3T DE112018005907T DE112018005907T5 DE 112018005907 T5 DE112018005907 T5 DE 112018005907T5 DE 112018005907 T DE112018005907 T DE 112018005907T DE 112018005907 T5 DE112018005907 T5 DE 112018005907T5
Authority
DE
Germany
Prior art keywords
information
unit
vehicle
mobile object
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018005907.3T
Other languages
English (en)
Inventor
Ryo Watanabe
Masataka Toyoura
Takamori YAMAGUCHI
Ryo Takahashi
Keisuke Maeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE112018005907T5 publication Critical patent/DE112018005907T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • B60W2050/065Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot by reducing the computational load on the digital processor of the control computer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems

Abstract

Die Informationsverarbeitungsvorrichtung gemäß einem Aspekt der vorliegenden Technologie weist eine Abschätzungseinheit, eine Generierungseinheit und eine Frequenzsteuerungseinheit auf. Die Abschätzungseinheit schätzt mindestens eine von einer Position oder einer Stellung eines mobilen Gegenstands ab. Die Generierungseinheit generiert einen Bewegungsplan zum Bewegen des mobilen Gegenstands. Die Frequenzsteuerungseinheit steuert eine Aktualisierungsfrequenz des Bewegungsplans, die von der Generierungseinheit durchzuführen ist, auf Grundlage von Lastindexinformationen, die als ein Index einer Belastung der Abschätzungseinheit dienen.

Description

  • Gebiet der Technik
  • Die vorliegende Technologie betrifft eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren, ein Programm und einen mobilen Gegenstand zum Steuern einer Bewegung des mobilen Gegenstands.
  • Stand der Technik
  • Herkömmlicherweise wurden Technologien zum autonomen Steuern einer Bewegung eines mobilen Gegenstands, wie eines Fahrzeugs oder eines Roboters, entwickelt. Patentliteratur 1 beschreibt beispielsweise eine mobile Roboter-Leitsteuereinrichtung. Die Leitsteuereinrichtung plant eine Route an ein Ziel des Roboters unter Verwendung von Karteninformationen, die Informationen in Bezug auf einen Orientierungspunkt aufweisen, der eine Bewegungsumgebung kennzeichnet. Der Roboter wird entlang der Route bewegt und Positions-/Stellungsdaten des Roboters werden auf Grundlage eines Ausmaßes der Bewegung überwacht. Die Positions-/Stellungsdaten werden angemessen unter Verwendung eines Positions-/Stellungsschätzwerts aktualisiert, der aus einem Kamerabild abgeschätzt wird, das den Orientierungspunkt oder dergleichen erfasst. Als Nächstes wird die Route des Roboters auf Grundlage einer Position und einer Stellung des Roboters nach der Aktualisierung neu geplant. Es ist möglich, den Roboter durch Wiederholen des oben beschriebenen Zyklus an sein Ziel zu bewegen (siehe Absätze [0014], [0021], [0028], [0035], [0089], 1, 12 und dergleichen von Patentliteratur 1).
  • Entgegenhaltungsliste
  • Patentliteratur
  • Patentliteratur 1: JP H06-259131A
  • Offenbarung der Erfindung
  • Technische Aufgabe
  • Wie oben beschrieben werden verschiedene Arten von Prozessen, wie ein Prozess zum Abschätzen einer Position/einer Stellung eines mobilen Gegenstands und ein Prozess zum Planen einer Route des mobilen Objekts ausgeführt, um eine Bewegung des mobilen Objekts zu steuern. Eine Technologie zum Steuern einer Verarbeitungslast, die für die Bewegungssteuerung notwendig ist, und zum stabilen Steuern der Bewegung ist wünschenswert.
  • Angesichts der oben beschriebenen Sachlage ist es Zweck der vorliegenden Technologie, eine Informationsverarbeitungseinrichtung, ein Informationsverarbeitungsverfahren, ein Programm und einen mobilen Gegenstand bereitzustellen, die fähig sind, eine Verarbeitungslast zu steuern, die zur Bewegungssteuerung notwendig ist, und die Bewegung stabil zu steuern.
  • Lösung der Aufgabe
  • Um den oben beschriebenen Zweck zu erreichen, weist eine Informationsverarbeitungseinrichtung nach einem Gesichtspunkt der vorliegenden Technologie eine Abschätzungseinheit, eine Generierungseinheit und eine Frequenzsteuerungseinheit auf.
  • Die Abschätzungseinheit schätzt mindestens eine von einer Position oder einer Stellung eines mobilen Gegenstands ab.
  • Die Generierungseinheit generiert einen Bewegungsplan zum Bewegen des mobilen Gegenstands.
  • Die Frequenzsteuerungseinheit steuert eine Frequenz einer Aktualisierung des Bewegungsplans, die von der Generierungseinheit durchzuführen ist, auf Grundlage von Lastindexinformationen, die als ein Index einer Belastung der Abschätzungseinheit dienen.
  • Die Informationsverarbeitungseinrichtung steuert die Aktualisierungsfrequenz des Bewegungsplans des mobilen Gegenstands auf Grundlage der Lastindexinformationen, die als der Index der Last des Abschätzungsprozesses dienen, der mindestens eine von der Position oder von der Stellung des mobilen Gegenstands abschätzt. Dies ermöglicht eine Steuerung einer Verarbeitungslast, die zur Bewegungssteuerung notwendig ist, und eine stabile Steuerung der Bewegung.
  • Die Lastindexinformationen können einen Vertrauensgrad in ein Schätzergebnis der von der Abschätzungseinheit durchgeführten Abschätzung aufweisen. In diesem Fall kann die Frequenzsteuerungseinheit die Aktualisierungsfrequenz des Bewegungsplans auf Grundlage des Vertrauensgrades steuern.
  • Durch Verwendung des Grads des Vertrauens in die Position oder die Stellung des mobilen Gegenstands als einen Index ist es möglich, die für die Bewegungssteuerung notwendige Verarbeitungslast genau zu steuern und die Bewegung stabil zu steuern.
  • Die Frequenzsteuerungseinheit kann die Aktualisierungsfrequenz höher einstellen, wenn der Vertrauensgrad ansteigt, und kann die Aktualisierungsfrequenz niedriger einstellen, wenn der Vertrauensgrad sinkt.
  • Dies ermöglicht es, beispielsweise eine Verarbeitungslast des Positions-/Stellungsabschätzungsprozesses und einer Verarbeitungslast des Bewegungsplangenerierungsprozesses auszugleichen, und es ermöglicht, eine hinreichend stabile Bewegungssteuerung zu erzielen.
  • Die Frequenzsteuerungseinheit kann die Aktualisierungsfrequenz als Reaktion auf eine Änderung im Vertrauensgrad linear ändern.
  • Dies ermöglicht es, die Verarbeitungslast, die zur Bewegungssteuerung notwendig ist, leicht zu steuern und leicht eine stabile Steuerung der Bewegung zu erzielen.
  • Die Generierungseinheit kann einen globalen Bewegungsplan des mobilen Gegenstands und einen lokalen Bewegungsplan des mobilen Gegenstands generieren. In diesem Fall kann die Frequenzsteuerungseinheit die Aktualisierungsfrequenz des globalen Bewegungsplans auf Grundlage des Vertrauensgrades steuern.
  • Dies ermöglicht eine Steuerung einer Verarbeitungslast, die notwendig ist, um den globalen Bewegungsplan zu aktualisieren, und dies ermöglicht eine angemessene Steuerung der gesamten Verarbeitungslast der Bewegungssteuerung.
  • Der globale Bewegungsplan kann einen Routenplan des mobilen Gegenstands zu einem Ziel aufweisen.
  • Dies ermöglicht eine Steuerung der Aktualisierungsfrequenz des Routenplans und eine hinreichende Steuerung einer für die Bewegungssteuerung notwendigen Verarbeitungslast.
  • Der lokale Bewegungsplan kann einen Kursplan aufweisen, der eine Bewegungsrichtung des mobilen Gegenstands von einer aktuellen Position anzeigt.
  • Unter Verwendung des Kursplans ist es zum Beispiel möglich, die gesamte Verarbeitungslast ohne Anhalten des mobilen Gegenstands zu steuern, und es ist möglich, die Bewegung stabil und rasch zu steuern.
  • Der mobile Gegenstand kann einen Verhaltenssensor aufweisen, der Verhaltensinformationen in Bezug auf ein Verhalten des mobilen Gegenstands detektiert. In diesem Fall kann die Abschätzungseinheit einen Abschätzungsprozess durch eine autonome Navigation auf Grundlage der vom Verhaltenssensor erkannten Verhaltensinformationen ausführen und den Vertrauensgrad in das Schätzergebnis berechnen.
  • Durch Ausführen des Abschätzungsprozesses durch autonome Navigation wie oben beschrieben ist es leicht möglich, einen Grad des Vertrauens in die Positions-/Stellungsschätzergebnisse zu berechnen.
  • Der mobile Gegenstand kann einen Umgebungssensor aufweisen, der Umgebungsinformationen in Bezug auf ein Außenumfeld des mobilen Gegenstands erkennt. In diesem Fall kann die Abschätzungseinheit Korrekturreferenzinformationen zum Korrigieren des Schätzergebnisses durch Suchen nach einem oder mehreren Referenzinformationselementen, die mit dem Außenumfeld um den mobilen Gegenstand herum verbunden sind, auf Grundlage des Schätzergebnisses feststellen und einen Abgleichsprozess des einen oder der mehreren herausgesuchten Referenzinformationselemente und der vom Umgebungssensor erkannten Umgebungsinformationen ausführen.
  • Dies ermöglicht eine Korrektur der Position und der Stellung des mobilen Gegenstands unter Verwendung der Korrekturreferenzinformationen, und dies ermöglicht eine Verbesserung der Genauigkeit der Bewegungssteuerung.
  • Die Abschätzungseinheit kann einen Suchbereich der Referenzinformationen auf Grundlage des Vertrauensgrads festlegen.
  • Dies ermöglicht eine Festlegung eines angemessenen Suchbereichs in Übereinstimmung mit dem Vertrauensgrad in die Position und die Stellung des mobilen Gegenstands. Als Ergebnis ist es möglich, die Position und die Stellung des mobilen Objekts angemessen zu korrigieren.
  • Die Abschätzungseinheit kann den Suchbereich auf einen engeren Bereich festlegen, wenn der Vertrauensgrad ansteigt, und den Suchbereich auf einen breiteren Bereich festlegen, wenn der Vertrauensgrad sinkt.
  • Dies ermöglicht eine angemessene Korrektur der Position und der Stellung des mobilen Gegenstands, und dies ermöglicht eine Steuerung der Bewegung mit hoher Genauigkeit.
  • Die Lastindexinformationen können Ausführungsinformationen aufweisen, die anzeigen, ob auf Grundlage der Korrekturreferenzinformationen ein Korrekturprozess am Schätzergebnis auszuführen ist oder nicht.
  • Durch Verwendung der
  • Korrekturprozessausführungsinformationen als einen Index ist es möglich, die für die Bewegungssteuerung notwendige Verarbeitungslast genau zu steuern und die Bewegung stabil zu steuern.
  • Der Korrekturprozess kann ein Prozess zum Korrigieren eines aktuellen Schätzergebnisses und eines vergangenen Schätzergebnisses des mobilen Gegenstands sein.
  • Dies ermöglicht eine genaue Berechnung einer Route oder dergleichen, die der mobile Gegenstand durchlaufen hat, und es ist möglich, eine Karte der Umgebung des mobilen Gegenstands oder dergleichen genau zu generieren. Als Ergebnis ist es möglich, eine Bewegung mit hoher Genauigkeit zu steuern.
  • Die Frequenzsteuerungseinheit kann die Generierungseinheit davon abhalten, den Bewegungsplan auf Grundlage der Ausführungsinformationen zu aktualisieren.
  • Dies ermöglicht eine hinreichende Vermeidung von Auswirkungen oder dergleichen, die durch eine Erhöhung in der Verarbeitungslast aufgrund der Ausführung des Korrekturprozesses verursacht werden. Als Ergebnis ist es möglich, die Bewegungssteuerung des mobilen Gegenstands enorm zu stabilisieren.
  • Die Generierungseinheit kann einen globalen Bewegungsplan des mobilen Gegenstands und einen lokalen Bewegungsplan des mobilen Gegenstands generieren. In diesem Fall kann die Frequenzsteuerungseinheit die Generierungseinheit davon abhalten, den globalen Bewegungsplan auf Grundlage der Ausführungsinformationen zu aktualisieren.
  • Dies ermöglicht eine hinreichende Unterdrückung der Verarbeitungslast, die notwendig ist, um den globalen Bewegungsplan zu aktualisieren, und dies ermöglicht eine angemessene Steuerung der gesamten Verarbeitungslast der Bewegungssteuerung.
  • Die Abschätzungseinheit kann ermitteln, ob der Korrekturprozess auszuführen ist oder nicht, und kann den Korrekturprozess als Reaktion auf ein Ermittlungsergebnis ausführen.
  • Dies ermöglicht eine Ausführung des Korrekturprozesses mit einer angemessenen Zeitgebung. Als Ergebnis ist es möglich, einen unnötigen Prozess zu reduzieren und beispielsweise eine Verarbeitungslast zu unterdrücken.
  • In dem Fall, in dem ermittelt wird, den Korrekturprozess auszuführen, kann die Abschätzungseinheit Informationen an die Frequenzsteuerungseinheit als die Ausführungsinformationen ausgeben, wobei die Informationen anzeigen, dass der Korrekturprozess auszuführen ist.
  • Dies ermöglicht beispielsweise einen Beginn der Steuerung der Verarbeitungslast zu einem Zeitpunkt der Ermittlung, den Korrekturprozess auszuführen, und ermöglicht, die Bewegung stabil zu steuern, während eine Erhöhung der Verarbeitungslast aufgrund des Korrekturprozesses oder dergleichen vermieden wird.
  • Ein Informationsverarbeitungsverfahren nach einem Gesichtspunkt der vorliegenden Technologie wird von einem Computersystem ausgeführt und weist ein Abschätzen mindestens eine von einer Position oder einer Stellung eines mobilen Gegenstands auf.
  • Es wird ein Bewegungsplan zum Bewegen des mobilen Gegenstands generiert.
  • Die Frequenz zum Aktualisieren des Bewegungsplans wird auf Grundlage von Lastindexinformationen gesteuert, die als ein Index einer Last des Abschätzungsprozesses zum Abschätzen mindestens einer von der Position oder von der Stellung des mobilen Gegenstands dienen.
  • Ein Programm nach einem Gesichtspunkt der vorliegenden Technologie veranlasst ein Computersystem, Folgendes auszuführen:
    • einen Schritt zum Abschätzen mindestens einer von einer Position oder einer Stellung eines mobilen Gegenstands;
    • einen Schritt zum Generieren eines Bewegungsplans zum Bewegen des mobilen Gegenstands; und
    • einen Schritt zum Steuern der Aktualisierungsfrequenz des Bewegungsplans auf Grundlage von Lastindexinformationen, die als ein Index einer Last des Abschätzungsprozesses zum Abschätzen mindestens einer von der Position oder von der Stellung des mobilen Gegenstands dienen.
  • Ein mobiler Gegenstand nach einem Gesichtspunkt der vorliegenden Technologie weist eine Abschätzungseinheit, eine Generierungseinheit, eine Frequenzsteuerungseinheit und eine Bewegungssteuerungseinheit auf.
  • Die Abschätzungseinheit schätzt mindestens einer von einer Position oder einer Stellung des mobilen Gegenstands ab.
  • Die Generierungseinheit generiert einen Bewegungsplan zum Bewegen des mobilen Gegenstands.
  • Die Frequenzsteuerungseinheit steuert eine Frequenz einer Aktualisierung des Bewegungsplans, die von der Generierungseinheit durchzuführen ist, auf Grundlage von Lastindexinformationen, die als ein Index einer Belastung der Abschätzungseinheit dienen.
  • Die Bewegungssteuerungseinheit steuert eine Bewegung des mobilen Gegenstands auf Grundlage des generierten Bewegungsplans.
  • Vorteilhafte Wirkungen der Erfindung
  • Wie oben beschrieben ist es nach der vorliegenden Technologie möglich, eine Verarbeitungslast zu steuern, die zur Bewegungssteuerung notwendig ist, und die Bewegung stabil zu steuern. Es ist anzumerken, dass die hierin beschriebenen Wirkungen nicht notwendigerweise eingeschränkt sind und beliebige der in der vorliegenden Offenbarung beschriebenen Wirkungen sein können.
  • Figurenliste
    • [1] 1 ist eine externe Ansicht, die ein Ausbildungsbeispiel eines Fahrzeugs veranschaulicht, das eine autonome Fahrsteuerungseinheit nach einer ersten Ausführungsform der vorliegenden Technologie aufweist.
    • [2] 2 ist ein Blockdiagramm, das ein Ausbildungsbeispiel eines Fahrzeugsteuerungssystems veranschaulicht, das das Fahrzeug steuert.
    • [3] 3 ist ein Blockdiagramm, das Ausbildungsbeispiele einer Eigenpositionsabschätzungseinheit und einer Planungseinheit veranschaulicht, die in 2 illustriert sind.
    • [4] 4 ist eine Tabelle, die Beispiele von internen Sensoren und externen Sensoren anzeigt.
    • [5] 5 ist ein schematisches Diagramm, das ein Beispiel eines Routenplans veranschaulicht.
    • [6] 6 ist ein schematisches Diagramm, das Beispiele eines Kursplans veranschaulicht.
    • [7] 7 ist ein schematisches Diagramm, das eine Übersicht eines grundlegenden Verhaltens der Eigenpositionsabschätzungseinheit veranschaulicht.
    • [8] 8 ist ein schematisches Diagramm, das eine Übersicht eines grundlegenden Verhaltens der Planungseinheit veranschaulicht.
    • [9] 9 ist ein Ablaufdiagramm, das ein Beispiel einer Steuerung einer Aktualisierungsfrequenz eines globalen Bewegungsplans veranschaulicht.
    • [10] 10 ist ein schematisches Diagramm, das ein Beispiel für ein Verhalten des Fahrzeugs veranschaulicht.
    • [11] 11 ist ein schematisches Diagramm, das Beispiele eines Suchbereichs von Referenzinformationen beschreibt.
    • [12] 12 ist eine Tabelle, die Beziehungen zwischen den Aktualisierungsfrequenzen des globalen Bewegungsplans und CPU-Lastfaktoren in einer Phase des Suchens nach den Referenzinformationen anzeigt.
    • [13] 13 ist ein Diagramm, das ein Beispiel einer Beziehung zwischen Vertrauensgraden und Aktualisierungsfrequenzen veranschaulicht.
    • [14] 14 ist ein schematisches Diagramm, das ein Beispiel eines Korrekturprozesses unter Verwendung einer schleifenschließenden Funktion veranschaulicht.
    • [15] 15 ist eine Tabelle, die eine Beziehung zwischen der Aktualisierungsfrequenz des globalen Bewegungsplans und CPU-Lastfaktoren in einer Phase des Ausführens eines Schätzwertkorrekturprozesses anzeigt.
  • Modus bzw. Modi zum Ausführen der Erfindung
  • Hierin werden nachstehend Ausführungsformen der vorliegenden Technologie unter Bezugnahme auf die Zeichnungen beschrieben.
  • [Konfiguration des Fahrzeugsteuerungssystems]
  • 1 ist eine externe Ansicht, die ein Ausbildungsbeispiel eines Fahrzeugs veranschaulicht, das eine autonome Fahrsteuerungseinheit nach einer ersten Ausführungsform der vorliegenden Technologie aufweist. 1A ist eine perspektivische Ansicht, die ein Ausbildungsbeispiel eines Fahrzeugs 10 veranschaulicht. 1B ist ein schematisches Diagramm, das erhalten wird, wenn das Fahrzeug 10 von oben betrachtet wird. Das Fahrzeug 10 weist eine autonome Fahrfunktion auf, die fähig ist, automatisch an ein Ziel zu fahren. Es ist anzumerken, dass das Fahrzeug 10 ein Beispiel eines mobilen Gegenstands nach der vorliegenden Ausführungsform ist.
  • Das Fahrzeug 10 enthält verschiedene Arten von Sensoren 20, die zum autonomen Fahren verwendet werden. Als ein Beispiel veranschaulicht 1A schematisch eine Abbildungseinrichtung 21 und einen Distanzsensor 22, die zu einer Vorderseite des Fahrzeugs 10 zeigen, zum Beispiel. Die Abbildungseinrichtung 21 und der Distanzsensor 22 fungieren als externe Sensoren 25 (die später beschrieben werden). Darüber hinaus veranschaulicht 1B schematisch Rad-Drehgeber 23, die eine Drehung oder dergleichen von jeweiligen Rädern erkennen. Die Rad-Drehgeber 23 fungieren als interne Sensoren 24 (die später beschrieben werden). Darüber hinaus weist das Fahrzeug 10 abgesehen von den oben beschriebenen Sensoren verschiedene Arten von Sensoren 20 auf und eine Bewegung des Fahrzeugs 10 wird auf Grundlage der Ausgabe von den Sensoren 20 gesteuert.
  • 2 ist ein Blockdiagramm, das ein Ausbildungsbeispiel eines Fahrzeugsteuerungssystems 100 veranschaulicht, das das Fahrzeug 10 steuert. Das Fahrzeugsteuerungssystem 100 ist ein System, das im Fahrzeug 10 installiert ist und das das Fahrzeug 10 auf verschiedene Arten steuert. Es ist anzumerken, dass das Fahrzeug 10 hierin nachfolgend in dem Fall der Unterscheidung des Fahrzeugs 10 von anderen Fahrzeugen als ein Eigenautomobil oder ein Eigenfahrzeug bezeichnet wird.
  • Das Fahrzeugsteuerungssystem 100 weist eine Eingabeeinheit 101, eine Datenerfassungseinheit 102, eine Kommunikationseinheit 103, fahrzeuginterne Ausrüstung 104, eine Ausgabesteuerungseinheit 105, eine Ausgabeeinheit 106, eine Antriebsstrangsteuerungseinheit 107, ein Antriebsstrangsystem 108, eine Karosseriesteuerungseinheit 109, ein Karosseriesystem 110, eine Speichereinheit 111 und eine autonome Fahrsteuerungseinheit 112 auf. Die Eingabeeinheit 101, die Datenerfassungseinheit 102, die Kommunikationseinheit 103, die Ausgabesteuerungseinheit 105, die Antriebsstrangsteuerungseinheit 107, die Karosseriesteuerungseinheit 109, die Speichereinheit 111 und die autonome Fahrsteuerungseinheit 112 sind über ein Kommunikationsnetzwerk 121 miteinander verbunden. Das Kommunikationsnetzwerk 121 weist zum Beispiel einen Bus oder ein fahrzeugmontiertes Kommunikationsnetzwerk auf, das mit einem beliebigen Standard, wie Controller Area Network (CAN), Local Interconnect Network (LIN), einem lokalen Netzwerk (LAN), FlexRay (eingetragene Marke) oder dergleichen, kompatibel ist. Es ist anzumerken, dass die Einheiten des Fahrzeugsteuerungssystems 100 manchmal direkt miteinander verbunden sein können, ohne das Kommunikationsnetzwerk 121 zu verwenden.
  • Es ist anzumerken, dass hierin nachfolgend auf eine Beschreibung des Kommunikationsnetzwerks 121 in dem Fall verzichtet wird, in dem die Einheiten des Fahrzeugsteuerungssystems 100 miteinander über das Kommunikationsnetzwerk 121 kommunizieren. Es wird zum Beispiel eine offenbarte einfache Beschreibung gegeben, die anzeigt, dass die Eingabeeinheit 101 und die autonome Fahrsteuerungseinheit 112 miteinander kommunizieren, in dem Fall, in dem die Eingabeeinheit 101 und die autonome Fahrsteuerungseinheit 112 miteinander über das Kommunikationsnetzwerk 121 kommunizieren.
  • Die Eingabeeinheit 101 weist eine Einrichtung auf, die von einem Passagier verwendet wird, um verschiedene Arten von Daten, Anweisungen oder dergleichen einzugeben. Die Eingabeeinheit 101 weist zum Beispiel eine Betätigungsvorrichtung, wie einen Berührungsbildschirm, eine Taste, ein Mikrofon, einen Schalter oder einen Hebel, eine Betätigungsvorrichtung, die fähig ist, Informationen durch Schall, Gesten oder dergleichen einzugeben, die von einer manuellen Betätigung verschieden sind, oder dergleichen auf. Alternativ kann die Eingabeeinheit 101 beispielsweise eine externe Verbindungsausrüstung, wie eine Fernsteuerungseinrichtung unter Verwendung von Infrarot oder einer anderen Funkwelle, oder mobile Ausrüstung oder tragbare Ausrüstung sein, die mit einem Betrieb des Fahrzeugsteuerungssystems 100 kompatibel ist. Die Eingabeeinheit 101 generiert auf Grundlage von Daten, einer Anweisung oder einer ähnlichen Eingabe durch einen Passagier ein Eingangssignal und liefert das generierte Eingangssignal an die jeweiligen Einheiten des Fahrzeugsteuerungssystems 100.
  • Die Datenerfassungseinheit 102 weist verschiedene Arten von Sensoren oder dergleichen zum Erfassen von Daten auf, die bei Prozessen zu verwenden sind, die vom Fahrzeugsteuerungssystem 100 durchgeführt werden, und liefert die erfassten Daten an die jeweiligen Einheiten des Fahrzeugsteuerungssystems 100.
  • Die Datenerfassungseinheit 102 weist beispielsweise verschiedene Arten von Sensoren zum Erkennen eines Zustands oder dergleichen des Fahrzeugs 10 auf. Genauer weist die Datenerfassungseinheit 102 beispielsweise einen Gyroskopsensor, einen Beschleunigungssensor, eine inertiale Messeinheit (IMU) und Sensoren oder dergleichen zum Erkennen eines Betätigungsgrads eines Gaspedals, eines Betätigungsgrads eines Bremspedals, eines Lenkwinkels eines Lenkrads, die Anzahl der Umdrehungen eines Antriebs, die Anzahl der Umdrehungen eines Motors, Drehzahlen von Rädern und dergleichen auf.
  • Darüber hinaus weist die Datenerfassungseinheit 102 beispielsweise verschiedene Arten von Sensoren zum Erkennen von Informationen in Bezug auf das Äußere des Fahrzeugs 10 auf. Genauer weist die Datenerfassungseinheit 102 beispielsweise eine Abbildungseinheit, wie eine Laufzeitkamera (ToF-Kamera), eine Stereokamera, eine Einbildkamera, eine Infrarotkamera oder eine andere Kamera auf. Darüber hinaus weist die Datenerfassungseinheit 102 zum Beispiel einen Umfeldsensor zum Erkennen von Wetter, eines meteorologischen Phänomens oder dergleichen und einen Erkennungssensor für Umgebungsinformationen zum Erkennen von Gegenständen um das Fahrzeug 10 herum auf. Der Umfeldsensor weist zum Beispiel einen Regentropfensensor, einen Nebelsensor, einen Sonnenscheinsensor, einen Schneesensor oder dergleichen auf. Der Erkennungssensor für Umgebungsinformationen weist einen Ultraschallsensor, ein Radar, einen LiDAR-Sensor (Light Detection and Ranging, Laser Imaging Detection and Ranging), ein Sonar oder dergleichen auf.
  • Darüber hinaus weist die Datenerfassungseinheit 102 beispielsweise verschiedene Arten von Sensoren zum Erkennen einer aktuellen Position des Fahrzeugs 10 auf. Genauer weist die Datenerfassungseinheit 102 beispielsweise einen Empfänger des globalen Navigationssatellitensystems (GNSS) oder dergleichen auf. Der GNSS-Empfänger empfängt Satellitensignale (hierin nachfolgend als GNSS-Signale bezeichnet) von einem GNSS-Satelliten, der als ein Navigationssatellit dient.
  • Darüber hinaus weist die Datenerfassungseinheit 102 beispielsweise verschiedene Arten von Sensoren zum Erkennen von Informationen in Bezug auf das Innere des Fahrzeugs 10 auf. Genauer weist die Datenerfassungseinheit 102 beispielsweise eine Abbildungseinrichtung, die ein Bild eines Fahrers aufnimmt, einen biologischen Sensor, der biologische Informationen des Fahrers erkennt, ein Mikrofon, das Schall im Inneren des Fahrzeugs aufnimmt, oder dergleichen auf. Der biologische Sensor ist beispielsweise auf einer Sitzfläche, dem Lenkrad oder dergleichen angeordnet und erkennt biologische Informationen eines Passagiers, der in einem Sitz sitzt, oder des Fahrers, der das Lenkrad hält.
  • Die Kommunikationseinheit 103 kommuniziert mit der fahrzeuginternen Ausrüstung 104, verschiedenen Arten von Ausrüstung extern zum Fahrzeug, einem Server, einer Basisstation oder dergleichen, sendet von den jeweiligen Einheiten des Fahrzeugsteuerungssystems 100 gelieferte Daten und liefert die empfangenen Daten an die jeweiligen Einheiten des Fahrzeugsteuerungssystems 100. Es ist anzumerken, dass ein von der Kommunikationseinheit 103 unterstütztes Kommunikationsprotokoll nicht besonders eingeschränkt ist. Es ist möglich, dass die Kommunikationseinheit 103 eine Vielzahl von Typen von Kommunikationsprotokollen unterstützt.
  • Die Kommunikationseinheit 103 richtet zum Beispiel eine drahtlose Verbindung mit der fahrzeuginternen Ausrüstung 104 unter Verwendung eines drahtlosen LAN, Bluetooth (eingetragene Marke), Nahfeldkommunikation (NFC), drahtlosem USB (WUSB) oder dergleichen ein. Darüber hinaus richtet die Kommunikationseinheit 103 zum Beispiel eine verdrahtete Verbindung mit der fahrzeuginternen Ausrüstung 104 unter Verwendung von Universal Serial Bus (USB), High Definition Multimedia Interface (HDMI), Mobile High-Definition Link (MHL) oder dergleichen über einen Verbindungsanschluss (und bei Bedarf ein Kabel) (nicht veranschaulicht) ein.
  • Darüber hinaus kommuniziert die Kommunikationseinheit 103 zum Beispiel über eine Basisstation oder einen Zugangspunkt mit Ausrüstung (zum Beispiel einem Anwendungsserver oder einem Steuerungsserver), die in einem externen Netzwerk (zum Beispiel dem Internet, einem Cloud-Netzwerk oder einem unternehmensspezifischen Netzwerk) vorhanden ist. Darüber hinaus kommuniziert die Kommunikationseinheit 103 zum Beispiel unter Verwendung von Peer-zu-Peer(P2P)-Technologie mit einem Endgerät (zum Beispiel einem Endgerät eines Fußgängers oder eines Ladens oder einem Maschinentyp-Kommunikationsendgerät (MTC-Endgerät)), das in der Nähe des Fahrzeugs 10 vorhanden ist. Darüber hinaus führt die Kommunikationseinheit 103 zum Beispiel V2X-Kommunikation, wie eine Fahrzeug-zu-Fahrzeug-Kommunikation, eine Fahrzeug-zu-Infrastruktur-Kommunikation, eine Fahrzeug-Heim-Kommunikation zwischen dem Fahrzeug 10 und einem Heim, oder eine Fahrzeug-zu-Fußgänger-Kommunikation aus. Darüber hinaus weist die Kommunikationseinheit 103 zum Beispiel einen Bakenempfänger auf, empfängt eine Funkwelle oder eine elektromagnetische Welle, die von einer an einer Straße oder dergleichen installierten Funkstation gesendet wurde, und erfasst Informationen in Bezug auf die aktuelle Position, Verkehrsstauungen, Verkehrsregelung, notwendige Zeit oder dergleichen.
  • Die fahrzeuginterne Ausrüstung 104 weist zum Beispiel eine mobile Ausrüstung oder von einem Passagier besessene tragbare Ausrüstung, Informationsausrüstung, die in das Fahrzeug 10 getragen oder an diesem befestigt ist, eine Navigationseinrichtung, die nach einer Route zu einem beliebigen Ziel sucht, und dergleichen auf.
  • Die Ausgabesteuerungseinheit 105 steuert eine Ausgabe verschiedener Arten von Informationen an den Passagier des Fahrzeugs 10 oder an ein Äußeres des Fahrzeugs 10. Die Ausgabesteuerungseinheit 105 generiert beispielsweise ein Ausgangssignal, das mindestens eines von visuellen Informationen (wie Bilddaten) oder Audioinformationen (wie Tondaten) aufweist, liefert das Ausgangssignal an die Ausgabeeinheit 106 und steuert dadurch eine Ausgabe der visuellen Informationen und der Audioinformationen von der Ausgabeeinheit 106. Genauer kombiniert die Ausgabesteuerungseinheit 105 zum Beispiel Elemente von Bilddaten, die von unterschiedlichen Abbildungseinrichtungen aufgenommen wurden, die in der Datenerfassungseinheit 102 enthalten sind, generiert ein Bild aus der Vogelperspektive, ein Panoramabild oder dergleichen und liefert ein Ausgangssignal, das das generierte Bild aufweist, an die Ausgabeeinheit 106. Darüber hinaus generiert die Ausgabesteuerungseinheit 105 beispielsweise Tondaten, die einen Warnton, eine Warnmeldung oder dergleichen in Bezug auf eine Gefahr wie eine Kollision, einen Kontakt oder einen Eintritt in eine Gefahrenzone aufweisen, und liefert ein Ausgangssignal, das die generierten Tondaten aufweist, an die Ausgabeeinheit 106.
  • Die Ausgabeeinheit 106 weist eine Einrichtung auf, die fähig ist, die visuellen Informationen oder die Audioinformationen an den Passagier oder das Äußere des Fahrzeugs 10 auszugeben. Die Ausgabeeinheit 106 weist beispielsweise eine Anzeigeeinrichtung, ein Instrumentenfeld, einen Audiolautsprecher, Kopfhörer, eine tragbare Vorrichtung wie eine Anzeige vom Brillentyp, die vom Passagier getragen wird, oder dergleichen, eine Projektionseinheit, eine Lampe oder dergleichen auf. Anstatt einer Einrichtung, die eine übliche Anzeige aufweist, kann die Anzeigeeinrichtung, die in der Ausgabeeinheit 106 enthalten ist, beispielsweise eine Einrichtung sein, die die visuellen Informationen innerhalb eines Sichtfelds des Fahrers anzeigt, wie zum Beispiel eine Head-up-Anzeige, eine transparente Anzeige, eine Einrichtung mit einer erweiterten Realitätsfunktion (AR-Funktion).
  • Die Antriebsstrangsteuerungseinheit 107 generiert verschiedene Arten von Steuersignalen, liefert sie an das Antriebsstrangsystem 108 und steuert dadurch das Antriebsstrangsystem 108. Darüber hinaus liefert die Antriebsstrangsteuerungseinheit 107 bei Bedarf die Steuersignale an vom Antriebsstrangsystem 108 verschiedene strukturelle Elemente und benachrichtigt sie über einen Steuerzustand des Antriebsstrangsystems 108 oder dergleichen.
  • Das Antriebsstrangsystem 108 weist verschiedene Arten von Einrichtungen auf, die mit dem Antriebsstrang des Fahrzeugs 10 verbunden sind. Das Antriebsstrangsystem 108 weist zum Beispiel eine Antriebskraftgenerierungseinrichtung zum Generieren einer Antriebskraft eines internen Verbrennungsmotors, eines Antriebsmotors oder dergleichen, einen Antriebskraftübertragungsmechanismus zum Übertragen der Antriebskraft an Räder, einen Lenkmechanismus zum Anpassen des Lenkwinkels, eine Bremseinrichtung zum Generieren einer Bremskraft, ein Antiblockiersystem (ABS), ein elektronisches Stabilitätskontrollsystem (ESC-System), eine elektrische Servolenkeinrichtung oder dergleichen auf.
  • Die Karosseriesteuerungseinheit 109 generiert verschiedene Arten von Steuersignalen, liefert sie an das Karosseriesystem 110 und steuert dadurch das Karosseriesystem 110. Darüber hinaus liefert die Karosseriesteuerungseinheit 109 bei Bedarf die Steuersignale an vom Karosseriesystem 110 verschiedene strukturelle Elemente und benachrichtigt sie über einen Steuerzustand des Karosseriesystems 110 oder dergleichen.
  • Das Karosseriesystem 110 weist verschiedene Arten von Karosserieeinrichtungen auf, die an einer Fahrzeugkarosserie vorgesehen sind. Das Karosseriesystem 110 weist zum Beispiel ein schlüsselloses Zugangssystem, ein intelligentes Schlüsselsystem, eine Fensterhebereinrichtung, einen kraftbetriebenen Sitz, das Lenkrad, eine Klimaanlage, verschiedene Arten von Leuchten (wie Scheinwerfer, Heckleuchten, Bremsleuchten, Richtungsanzeigerleuchten und Nebelleuchten) und dergleichen auf.
  • Die Speichereinheit 111 weist beispielsweise schreibgeschützten Arbeitsspeicher (ROM), Arbeitsspeicher mit wahlfreiem Zugriff (RAM), eine magnetische Speichervorrichtung wie ein Festplattenlaufwerk (HDD) oder dergleichen, eine Halbleiter-Speichervorrichtung, eine optische Speichervorrichtung, eine magneto-optische Speichervorrichtung oder dergleichen auf. Die Speichereinheit 111 speichert verschiedene Arten von Programmen, Daten und dergleichen, die von jeweiligen Einheiten des Fahrzeugsteuerungssystems 100 verwendet werden. Die Speichereinheit 111 speichert beispielsweise Kartendaten wie eine dreidimensionale Karte hoher Genauigkeit, eine globale Karte und eine lokale Karte. Die Karte hoher Genauigkeit ist eine dynamische Karte oder dergleichen. Die globale Karte weist eine geringere Genauigkeit als die Karte hoher Genauigkeit auf, aber deckt ein breiteres Gebiet als die Karte hoher Genauigkeit ab. Die lokale Karte weist Informationen in Bezug auf die Umgebung des Fahrzeugs 10 auf.
  • Die autonome Fahrsteuerungseinheit 112 führt eine Steuerung in Bezug auf autonomes Fahren, wie autonome Fahrbewegung oder Fahrtassistenz durch. Genauer führt die autonome Fahrsteuerungseinheit 112 zum Beispiel eine zusammenwirkende Steuerung durch, die dazu gedacht ist, Funktionen eines erweiterten Fahrassistenzsystems (ADAS) zu implementieren, die Kollisionsvermeidung oder Schockdämpfung für das Fahrzeug 10, folgendes Fahren auf Grundlage einer Folgedistanz, Fahren unter Beibehaltung der Fahrzeuggeschwindigkeit, Kollisionswarnung des Fahrzeugs 10, Spurabweichwarnung des Fahrzeugs 10 oder dergleichen aufweisen. Darüber hinaus ist es zum Beispiel auch möglich, dass die autonome Fahrsteuerungseinheit 112 eine zusammenwirkende Steuerung durchführt, die für autonomes Fahren gedacht ist, die bewirkt, dass sich das Fahrzeug autonom fortbewegt, ohne von der Betätigung des Fahrers abzuhängen, oder dergleichen.
  • Die autonome Fahrsteuerungseinheit 112 entspricht einer Informationsverarbeitungseinrichtung nach der vorliegenden Ausführungsform und weist Hardware auf, die für einen Computer notwendig ist, wie beispielsweise eine CPU, RAM und ROM. Ein Informationsverarbeitungsverfahren nach der vorliegenden Technologie wird ausgeführt, wenn die CPU ein Programm nach der vorliegenden Technologie in den RAM lädt und das Programm ausführt. Das Programm ist vorab auf dem ROM oder dergleichen aufgezeichnet.
  • Die spezifische Konfiguration der autonomen Fahrsteuerungseinheit 112 ist nicht eingeschränkt. Beispielsweise ist es möglich, eine programmierbare Logikvorrichtung (PLD), wie ein feldprogrammierbares Gatearray (FPGA), oder eine andere Vorrichtung, wie einen anwendungsspezifischen integrierten Schaltkreis (ASIC), zu verwenden.
  • Wie in 2 veranschaulicht, weist die autonome Fahrsteuerungseinheit 112 eine Erkennungseinheit 131, eine Eigenpositionsabschätzungseinheit 132, eine Situationsanalyseeinheit 133, eine Planungseinheit 134 und eine Verhaltenssteuerungseinheit 135 auf. Jeder der funktionalen Blöcke ist beispielsweise konfiguriert, wenn eine CPU der autonomen Fahrsteuerungseinheit 112 ein vorbestimmtes Programm ausführt.
  • Die Erkennungseinheit 131 erkennt verschiedene Arten von Informationen, die notwendig sind, um autonomes Fahren zu steuern. Die Erkennungseinheit 131 weist eine Fahrzeugaußeninformationserkennungseinheit 141, eine Fahrzeuginneninformationserkennungseinheit 142 und eine Fahrzeugzustandserkennungseinheit 143 auf.
  • Die Fahrzeugaußeninformationserkennungseinheit 141 führt einen Prozess zum Erkennen von Informationen in Bezug auf ein Äußeres des Fahrzeugs 10 auf Grundlage von Daten oder Signalen von den jeweiligen Einheiten des Fahrzeugsteuerungssystems 100 durch. Die Fahrzeugaußeninformationserkennungseinheit 141 führt zum Beispiel einen Erkennungsprozess, einen Identifikationsprozess, einen Nachverfolgungsprozess von Gegenständen um das Fahrzeug 10 herum und einen Prozess zum Erkennen von Distanzen zu den Gegenständen aus. Beispiele des Erkennungszielgegenstands weisen ein Fahrzeug, eine Person, ein Hindernis, eine Struktur, eine Straße, eine Verkehrsampel, ein Verkehrsschild, ein Straßenschild und dergleichen auf. Darüber hinaus führt die Fahrzeugaußeninformationserkennungseinheit 141 beispielsweise einen Prozess zum Erkennen eines Außenumfelds um das Fahrzeug 10 herum aus. Beispiele des Außenumfelds um das Erkennungsziel weisen zum Beispiel Wetter, Temperatur, Luftfeuchtigkeit, Helligkeit, einen Straßenbelagszustand und dergleichen auf. Die Fahrzeugaußeninformationserkennungseinheit 141 liefert Daten, die Ergebnisse der Erkennungsprozesse anzeigen, an die Eigenpositionsabschätzungseinheit 132, eine Kartenanalyseeinheit 151, eine Verkehrsregelidentifikationseinheit 152 und eine Situationsidentifikationseinheit 153 der Situationsanalyseeinheit 133, eine Notfallereignisvermeidungseinheit 171 der Verhaltenssteuerungseinheit 135 und dergleichen.
  • Die Fahrzeuginneninformationserkennungseinheit 142 führt einen Prozess zum Erkennen von Informationen in Bezug auf ein Inneres des Fahrzeugs auf Grundlage von Daten oder Signalen von den jeweiligen Einheiten des Fahrzeugsteuerungssystems 100 durch. Die Fahrzeuginneninformationserkennungseinheit 142 führt beispielsweise einen Authentifizierungsprozess und einen Identifikationsprozess des Fahrers, einen Erkennungsprozess eines Zustands des Fahrers, einen Erkennungsprozess eines Passagiers, einen Erkennungsprozess einer Fahrzeuginnenumgebung und dergleichen durch. Beispiele des Zustands des Fahrers, der ein Erkennungsziel ist, weisen einen Gesundheitszustand, einen Bewusstseinsgrad, einen Konzentrationsgrad, einen Müdigkeitsgrad, eine Blickrichtung und dergleichen auf. Beispiele der Fahrzeuginnenumgebung, die ein Erkennungsziel ist, weisen Temperatur, Luftfeuchtigkeit, Helligkeit, Geruch und dergleichen auf. Die Fahrzeuginneninformationserkennungseinheit 142 liefert Daten, die Ergebnisse der Erkennungsprozesse anzeigen, an die Situationsidentifikationseinheit 153 der Situationsanalyseeinheit 133, die Notfallereignisvermeidungseinheit 171 der Verhaltenssteuerungseinheit 135 und dergleichen.
  • Die Fahrzeugzustandserkennungseinheit 143 führt einen Prozess zum Erkennen eines Zustands des Fahrzeugs 10 auf Grundlage von Daten oder Signalen von den jeweiligen Einheiten des Fahrzeugsteuerungssystems 100 durch. Beispiele des Zustands des Fahrzeugs 10, der ein Erkennungsziel ist, weisen Geschwindigkeit, Beschleunigung, einen Lenkwinkel, Vorhandensein/Fehlen einer Abnormität, ein Inhalt der Abnormität, einen Fahrbetriebszustand, eine Position und Neigung des kraftbetriebenen Sitzes, einen Zustand eines Türschlosses, Zustände von anderer fahrzeugmontierter Ausrüstung und dergleichen auf. Die Fahrzeugzustandserkennungseinheit 143 liefert Daten, die Ergebnisse der Erkennungsprozesse anzeigen, an die Situationsidentifikationseinheit 153 der Situationsanalyseeinheit 133, die Notfallereignisvermeidungseinheit 171 der Verhaltenssteuerungseinheit 135 und dergleichen.
  • Die Eigenpositionsabschätzungseinheit 132 führt einen Prozess zum Abschätzen einer Position, einer Stellung und dergleichen des Fahrzeugs 10 auf Grundlage von Daten oder Signalen von den jeweiligen Einheiten des Fahrzeugsteuerungssystems 100 durch, wie der Fahrzeugaußeninformationserkennungseinheit 141 und der Situationsidentifikationseinheit 153 der Situationsanalyseeinheit 133. Darüber hinaus generiert die Eigenpositionsabschätzungseinheit 132 bei Bedarf eine lokale Karte (die hierin nachfolgend als eine Eigenpositionsabschätzungskarte bezeichnet wird), die zum Abschätzen einer eigenen Position zu verwenden ist. Die Eigenpositionsabschätzungskarte kann zum Beispiel eine Karte hoher Genauigkeit unter Verwendung einer Technologie wie simultaner Positionsbestimmung und Kartenerstellung (SLAM) sein. Die Eigenpositionsabschätzungseinheit 132 liefert Daten, die ein Ergebnis des Abschätzungsprozesses anzeigen, an die Kartenanalyseeinheit 151, die Verkehrsregelidentifikationseinheit 152 und die Situationsidentifikationseinheit 153 der Situationsanalyseeinheit 133 und dergleichen. Darüber hinaus veranlasst die Eigenpositionsabschätzungseinheit 132 die Speichereinheit 111, die Eigenpositionsabschätzungskarte zu speichern.
  • Darüber hinaus greift die Eigenpositionsabschätzungseinheit 132 auf eine Referenzinformationsdatenbank 26 (siehe 3) zu, in der Referenzinformationen in Bezug auf das Außenumfeld um das Fahrzeug 10 herum aufgezeichnet ist, und führt einen Korrekturprozess zum Korrigieren des Schätzergebnisses der Position und der Stellung des Fahrzeugs 10 unter Verwendung der Referenzinformationen durch. Details der Eigenpositionsabschätzungseinheit 132 werden später in Bezug auf 3 und dergleichen beschrieben. Nach der vorliegenden Ausführungsform entspricht die Eigenpositionsabschätzungseinheit 132 einer Abschätzungseinheit.
  • Die Situationsanalyseeinheit 133 führt einen Prozess zum Analysieren einer Situation des Fahrzeugs 10 und einer Situation um das Fahrzeug 10 herum durch.
  • Die Situationsanalyseeinheit 133 weist die Kartenanalyseeinheit 151, die Verkehrsregelidentifikationseinheit 152, die Situationsidentifikationseinheit 153 und eine Situationsvorhersageeinheit 154 auf.
  • Die Kartenanalyseeinheit 151 führt einen Prozess zum Analysieren verschiedener Arten von Karten durch, die in der Speichereinheit 111 gespeichert sind, und konstruiert eine Karte, die Informationen aufweist, die für einen autonomen Fahrprozess notwendig sind, während sie bei Bedarf Daten oder Signale von den jeweiligen Einheiten des Fahrzeugsteuerungssystems 100 verwendet, wie der Eigenpositionsabschätzungseinheit 132 und der Fahrzeugaußeninformationserkennungseinheit 141. Die Kartenanalyseeinheit 151 liefert die konstruierte Karte an die Verkehrsregelidentifikationseinheit 152, die Situationsidentifikationseinheit 153, die Situationsvorhersageeinheit 154 und die Planungseinheit 134.
  • Die Verkehrsregelidentifikationseinheit 152 führt einen Prozess zum Identifizieren von Verkehrsregeln um das Fahrzeug 10 herum auf Grundlage von Daten oder Signalen von den jeweiligen Einheiten des Fahrzeugsteuerungssystems 100 durch, wie der Eigenpositionsabschätzungseinheit 132, der Fahrzeugaußeninformationserkennungseinheit 141 und der Kartenanalyseeinheit 151. Der Erkennungsprozess ermöglicht es beispielsweise, Positionen und Zustände von Verkehrsampeln um das Fahrzeug 10 herum, Inhalte einer Verkehrslenkung um das Fahrzeug 10 herum, einer fahrbaren Spur und dergleichen zu identifizieren. Die Verkehrsregelidentifikationseinheit 152 liefert Daten, die der Situationsvorhersageeinheit 154 und dergleichen ein Ergebnis des Identifikationsprozesses anzeigen.
  • Die Situationsidentifikationseinheit 153 führt einen Prozess zum Identifizieren von Situationen in Bezug auf das Fahrzeug 10 auf Grundlage von Daten oder Signalen von den jeweiligen Einheiten des Fahrzeugsteuerungssystems 100 durch, wie der Eigenpositionsabschätzungseinheit 132, der Fahrzeugaußeninformationserkennungseinheit 141, der Fahrzeuginneninformationserkennungseinheit 142, der Fahrzeugzustandserkennungseinheit 143 und der Kartenanalyseeinheit 151. Die Situationsidentifikationseinheit 153 führt zum Beispiel einen Prozess zum Erkennen einer Situation des Fahrzeugs 10, einer Situation um das Fahrzeug 10 herum, einer Situation des Fahrers des Fahrzeugs 10 und dergleichen aus. Darüber hinaus generiert die Situationsidentifikationseinheit 153 bei Bedarf eine lokale Karte (die hierin nachfolgend als eine Situationserkennungskarte bezeichnet wird), die zum Identifizieren der Situation um das Fahrzeug 10 herum zu verwenden ist. Die Situationserkennungskarte kann zum Beispiel eine Belegungsrasterkarte sein.
  • Beispiele der Situation des Fahrzeugs 10, das ein Identifikationsziel ist, weisen eine Position, eine Stellung und eine Bewegung (wie zum Beispiel Geschwindigkeit, Beschleunigung oder eine Bewegungsrichtung) des Fahrzeugs 10, ein Vorhandensein/Fehlen von Abnormität, Inhalte der Abnormität und dergleichen auf. Beispiele der Situation um das Fahrzeug 10 herum, die ein Identifikationsziel ist, weisen Typen und Positionen von umgebenden ruhenden Gegenständen, Typen, Positionen und Bewegung (wie zum Beispiel Geschwindigkeit, Beschleunigung und Bewegungsrichtungen) von umgebenden, sich bewegenden Gegenständen, Strukturen von umgebenden Straßen, Zustände von Straßenbelägen, Wetterbedingungen, Temperatur, Luftfeuchtigkeit, Helligkeit und dergleichen auf. Beispiele des Zustands des Fahrers, der ein Identifikationsziel ist, weisen einen Gesundheitszustand, einen Bewusstseinsgrad, einen Konzentrationsgrad, einen Müdigkeitsgrad, eine Bewegung des Blicks, Fahrtbetrieb und dergleichen auf.
  • Die Situationsidentifikationseinheit 153 liefert Daten, die der Eigenpositionsabschätzungseinheit 132, der Situationsvorhersageeinheit 154 und dergleichen ein Ergebnis des Identifikationsprozesses (einschließlich, bei Bedarf, der Situationsidentifikationskarte) anzeigen. Darüber hinaus veranlasst die Situationsidentifikationseinheit 153 die Speichereinheit 111, die Situationsidentifikationskarte zu speichern.
  • Die Situationsvorhersageeinheit 154 führt einen Prozess zum Vorhersagen einer mit dem Fahrzeug 10 verbundenen Situation auf Grundlage von Daten oder Signalen von den jeweiligen Einheiten des Fahrzeugsteuerungssystems 100 durch, wie der Kartenanalyseeinheit 151, der Verkehrsregelidentifikationseinheit 152 und der Situationsidentifikationseinheit 153. Die Situationsvorhersageeinheit 154 führt zum Beispiel einen Prozess zum Vorhersagen einer Situation des Fahrzeugs 10, einer Situation um das Fahrzeug 10 herum, einer Situation des Fahrers und dergleichen aus.
  • Beispiele der Situation des Fahrzeugs 10, die ein Vorhersageziel ist, weisen ein Verhalten des Fahrzeugs, ein Auftreten einer Abnormität, eine fahrbare Distanz und dergleichen auf. Beispiele der Situation um das Fahrzeug 10 herum, die ein Vorhersageziel ist, weisen ein Verhalten von beweglichen Gegenständen, eine Änderung in Zuständen von Verkehrsampeln, eine Änderung in Umgebungen wie Wetter und dergleichen um das Fahrzeug 10 herum auf. Beispiele der Situation des Fahrers, die ein Vorhersageziel ist, weisen einen Gesundheitszustand und dergleichen des Fahrers auf.
  • Die Situationsvorhersageeinheit 154 liefert Daten, die Ergebnisse der Vorhersageprozesse anzeigen, zusätzlich zu den Daten von der Verkehrsregelidentifikationseinheit 152 und der Situationsidentifikationseinheit 153 an die Planungseinheit 134.
  • Die Planungseinheit 134 generiert einen Bewegungsplan zum Bewegen des Fahrzeugs 10. Hier weist der Bewegungsplan verschiedene Arten von Plänen auf, die mit einer Route, einem Verhalten und dergleichen zum automatischen Fahren des Fahrzeugs 10 verbunden sind. Die Planungseinheit 134 plant die Route, das Verhalten und dergleichen (einen Bewegungsplan) des Fahrzeugs 10 auf Grundlage von Daten oder Signalen von den jeweiligen Einheiten des Fahrzeugsteuerungssystems 100, wie der Kartenanalyseeinheit 151 und der Situationsidentifikationseinheit 154. Darüber hinaus liefert die Planungseinheit 134 Daten, wie die Route und das Verhalten des Fahrzeugs 10, an eine Beschleunigungs-/Abbremssteuerungseinheit 172, eine Richtungssteuerungseinheit 173 und dergleichen der Verhaltenssteuerungseinheit 135. Details der Planungseinheit 134 werden später in Bezug auf 3 und dergleichen beschrieben. Nach der vorliegenden Ausführungsform entspricht die Planungseinheit 134 einer Generierungseinheit.
  • Die Verhaltenssteuerungseinheit 135 steuert ein Verhalten des Fahrzeugs 10. Die Verhaltenssteuerungseinheit 135 weist die Notfallereignisvermeidungseinheit 171, die Beschleunigungs-/Abbremssteuerungseinheit 172 und die Richtungssteuerungseinheit 173 auf.
  • Die Notfallereignisvermeidungseinheit 171 führt einen Prozess zum Erkennen einer Kollision, eines Kontakts, eines Eintritts in eine Gefahrenzone oder ein Notfallereignis wie eine Abnormität beim Fahrer oder eine Abnormität im Fahrzeug 10 auf Grundlage der Erkennungsergebnisse durch, die von der Fahrzeugaußeninformationserkennungseinheit 141, der Fahrzeuginneninformationserkennungseinheit 142 und der Fahrzeugzustandserkennungseinheit 143 erhalten wurden. In dem Fall, in dem ein Auftreten eines Notfallereignisses erkannt wird, plant die Notfallereignisvermeidungseinheit 171 ein Verhalten des Fahrzeugs 10, wie einen Schnellstopp oder ein schnelles Wenden zum Vermeiden des Notfallereignisses. Die Notfallereignisvermeidungseinheit 171 liefert Daten, die das geplante Verhalten des Fahrzeugs 10 anzeigen, an die Beschleunigungs-/Abbremssteuerungseinheit 172, die Richtungssteuerungseinheit 173 oder dergleichen.
  • Die Beschleunigungs-/Abbremssteuerungseinheit 172 steuert eine Beschleunigung/ein Abbremsen, um das Verhalten des Fahrzeugs 10 zu erreichen, das von der Planungseinheit 134 oder der Notfallereignisvermeidungseinheit 171 geplant ist. Die Beschleunigungs-/Abbremssteuerungseinheit 172 berechnet beispielsweise einen Steuerzielwert der Antriebskraftgenerierungseinrichtung oder der Bremseinrichtung, um die geplante Beschleunigung, Abbremsung oder den geplanten Schnellstopp zu erzielen, und liefert den berechneten Zielwert an die Antriebsstrangsteuerungseinheit 107.
  • Die Richtungssteuerungseinheit 173 steuert eine Richtung, um das Verhalten des Fahrzeugs 10 zu erreichen, das von der Planungseinheit 134 oder der Notfallereignisvermeidungseinheit 171 geplant ist. Die Richtungssteuerungseinheit 173 berechnet beispielsweise einen Steuerzielwert des Lenkmechanismus, um einen Fahrtkurs oder eine schnelle Wendung zu erzielen, die von der Planungseinheit 134 oder der Notfallereignisvermeidungseinheit 171 geplant sind, und liefert eine Steuerungsanweisung, die den berechneten Zielwert anzeigt, an die Antriebsstrangsteuerungseinheit 107. Nach der vorliegenden Ausführungsform ist es möglich, eine Bewegungssteuerungseinheit zu implementieren, wenn die Beschleunigungs-/Abbremssteuerungseinheit 172 und die Richtungssteuerungseinheit 173 miteinander zusammenarbeiten.
  • 3 ist ein Blockdiagramm, das Ausbildungsbeispiele der Eigenpositionsabschätzungseinheit 132 und der Planungseinheit 134 veranschaulicht, die in 2 illustriert sind. Wie in 3 veranschaulicht, liefern der interne Sensor 24, der externe Sensor 24 und die Referenzinformationsdatenbank 26 der Eigenpositionsabschätzungseinheit 132 Elemente von Informationen, die zum Abschätzen einer eigenen Position des Fahrzeugs notwendig sind. Der interne Sensor 24 und der externe Sensor 25 können die Sensoren 20 der Datenerfassungseinheit 102 aufweisen.
  • 4 ist eine Tabelle, die Beispiele des internen Sensors 24 und des externen Sensors 25 anzeigt. Die in 4 veranschaulichte Tabelle zeigt Typen von Identifikationseinheiten, physikalischen Größen, die unter Verwendung der Identifikationseinheiten erhalten werden, ob es möglich ist, Absolutbeträge von Positionen/Stellungen zu messen, und Erkennungsraten in Bezug auf jeden vom internen Sensor 24 und vom externen Sensor 25 an.
  • Der interne Sensor 24 ist ein Sensor, der Verhaltensinformationen in Bezug auf ein Verhalten des Fahrzeugs 10 detektiert. Nach der vorliegenden Ausführungsform werden physikalische Größen wie Geschwindigkeit, Beschleunigung, eine relative Position (ein Bewegungsausmaß) und eine Winkelgeschwindigkeit des Fahrzeugs 10 als die Verhaltensinformationen des Fahrzeugs 10 erkannt. Diese physikalischen Größen sind Beträge, die sequenziell mit hohen Erfassungsraten vom internen Sensor 24 als Reaktion auf eine Bewegung (ein Verhalten) des Fahrzeugs 10 erkennbar sind. Wie oben beschrieben kann festgestellt werden, dass der interne Sensor 24 keine Position (eine absolute Position) des Fahrzeugs 10 auf einer Karte oder eine Ausrichtung (eine absolute Stellung) des Fahrzeugs 10 misst, sondern einen Zustand des Fahrzeugs 10 selbst, das heißt einen internen Zustand erkennt. Nach der vorliegenden Ausführungsform entspricht der interne Sensor 24 einem Verhaltenssensor.
  • Wie in 4 veranschaulicht, weist der interne Sensor 24 einen Beschleunigungssensor, einen Gyroskopsensor, eine inertiale Messeinheit (IMU), die Rad-Drehgeber 23 und dergleichen auf. Darüber hinaus ist es auch möglich, ein Verhalten (ein Bewegungsausmaß und eine Bewegungsrichtung) und dergleichen des Fahrzeugs 10 unter Verwendung von visueller SLAM oder dergleichen zu erkennen. Die visuelle SLAM setzt Bilder ein, die von verschiedenen Kameraarten aufgenommen wurden. In diesem Fall weist der interne Sensor 24 auch die Kameras oder dergleichen auf. Darüber hinaus ist die Art des internen Sensors 24 nicht eingeschränkt. Sensoren, die einen Betätigungsgrad des Gaspedals, des Bremspedals, des Lenkrads und dergleichen erkennen, und Sensoren, die die Anzahl von Umdrehungen des Antriebs, die Anzahl die Anzahl der Umdrehungen des Motors und dergleichen erkennen, können angemessen verwendet werden.
  • Die von den internen Sensoren 24 erkannten Verhaltensinformationen werden über die Fahrzeugzustandserkennungseinheit 143 und die Situationsidentifikationseinheit 153 einer DR-Prozesseinheit 30 der Eigenpositionsabschätzungseinheit 132 geliefert, wie in 1 veranschaulicht. Es ist anzumerken, dass die Fahrzeugzustandserkennungseinheit 143 und die Situationsidentifikationseinheit 153 nicht in 3 veranschaulicht sind.
  • Der externe Sensor 25 ist ein Sensor, der Umgebungsinformationen in Bezug auf ein Außenumfeld um das Fahrzeug 10 herum erkennt. Nach der vorliegenden Ausführungsform werden Bildinformationen, Tiefeninformationen (Punktwolkendaten) und dergleichen von Straßen, Gebäuden und dergleichen um das Fahrzeug 10 herum als die Umgebungsinformationen des Fahrzeugs 10 erkannt. Absolutbeträge oder dergleichen der Position und der Stellung des Fahrzeugs 10 in einem Kartenkoordinatensystem werden durch Durchführen eines Ortsidentifikationsprozesses oder dergleichen auf Grundlage der Umgebungsinformationen erkannt. Details davon werden später beschrieben.
  • Wie in 4 veranschaulicht weist der externe Sensor 25 verschiedene Arten der Abbildungseinrichtungen 21 (wie die Stereokamera oder die Einbildkamera) zum Erkennen von Informationen in Bezug auf eine Außenseite des Fahrzeugs 10, den Distanzsensor 22 (wie den ToF-Sensor oder den LiDAR-Sensor) zum Erkennen von Gegenständen um das Fahrzeug 10 herum auf. Die Arten und dergleichen der externen Sensoren 25 sind nicht eingeschränkt. Ein beliebiger Sensor, der fähig ist, Umgebungsinformationen des Fahrzeugs 10 zu erkennen, kann zum Beispiel als der externe Sensor 25 verwendet werden.
  • Die von den externen Sensoren 25 erkannten Umgebungsinformationen werden über die Fahrzeugaußeninformationserkennungseinheit 141 einer Abgleichsprozesseinheit 31 der Eigenpositionsabschätzungseinheit 132 geliefert, wie in 1 veranschaulicht. Es ist anzumerken, dass die Fahrzeugaußeninformationserkennungseinheit 141 in 3 nicht veranschaulicht ist. Nach der vorliegenden Ausführungsform entspricht der externe Sensor 25 einem Umgebungs sensor.
  • Die Referenzinformationsdatenbank 26 ist eine Datenbank, die eine Vielzahl von Elementen von Referenzinformationen speichert, und ist in der Speichereinheit 111 installiert. Die Referenzinformationen sind Informationen, auf die die Eigenpositionsabschätzungseinheit 132 Bezug zu nehmen hat. Die Referenzinformationen werden erfasst, bevor ein Referenzprozess durchgeführt wird, und danach in der Referenzinformationsdatenbank 26 gespeichert.
  • Die Referenzinformationen sind Informationen, bei denen Bildinformationen, die eine Fahrumgebung aufnehmen, in der das Fahrzeug 10 oder dergleichen fährt, mit einer Bildaufnahmeposition und einer Bildaufnahmerichtung der Bildinformationen assoziiert ist, zum Beispiel. Darüber hinaus können beispielsweise Informationen, in denen Tiefeninformationen der Fahrumgebung mit einer Messposition und einer Messrichtung der Tiefeninformationen assoziiert sind, als die Referenzinformationen verwendet werden.
  • Darüber hinaus ist die spezifische Konfiguration der Referenzinformationen nicht eingeschränkt. Anstatt der Bildinformationen oder der Tiefeninformationen ist es beispielsweise möglich, Bildmerkmalspunkte (Positionen und Merkmalsgrößen der Merkmalspunkte), die in den Bildinformationen erkannt wurden, Punktwolkenregistrierungsinformationen, die in den Tiefeninformationen erkannt wurden, oder dergleichen zu speichern. Hierin werden nachfolgend manchmal die Bildinformationen, die Tiefeninformationen oder dergleichen, die als die Referenzinformationen gespeichert sind, als ein Schlüsselbild bezeichnet, eine Erfassungsposition der Bildinformationen und der Tiefeninformationen werden als eine Erfassungsposition des Schlüsselbilds bezeichnet, und eine Erfassungsrichtung der Bildinformationen und der Tiefeninformationen werden als eine Erfassungsrichtung des Schlüsselbilds bezeichnet.
  • Nach der vorliegenden Ausführungsform werden die Referenzinformationen durch ein vom Fahrzeug 10 verschiedenes Fahrzeug (das hierin nachfolgend als ein Kartengenerierungsfahrzeug bezeichnet wird) erfasst. Das Kartengenerierungsfahrzeug erfasst zum Beispiel das Schlüsselbild (die Bildinformationen und die Tiefeninformationen) einer Vorderseite des Kartengenerierungsfahrzeugs unter Verwendung einer Kamera oder dergleichen, die im Kartengenerierungsfahrzeug selbst installiert ist. Das erfasste Schlüsselbild wird in einen Server oder dergleichen zusammen mit einer Position und einer Stellung des Kartengenerierungsfahrzeugs im Kartenkoordinatensystem hochgeladen, die erhalten wurden, als das Schlüsselbild erfasst wurde.
  • Das Verfahren zum Erfassen der Position und der Stellung des Kartengenerierungsfahrzeugs ist nicht eingeschränkt. Die Position und die Stellung des Kartengenerierungsfahrzeugs kann zum Beispiel auf Grundlage mindestens eines oder mehrerer von einem Signal des globalen Navigationssatellitensystems (GNSS) (von einem GPS-Sensor ausgegeben), das ein Satellitensignal von einem Navigationssatelliten ist, einem geomagnetischen Sensor, Rad-Odometrie oder der SLAM erfasst werden. Darüber hinaus ist die Anzahl der Kartengenerierungsfahrzeuge oder dergleichen nicht eingeschränkt. Es ist möglich, ein oder mehrere Kartengenerierungsfahrzeuge angemessen zu verwenden.
  • Das Fahrzeug 10 konfiguriert die Referenzinformationsdatenbank 26 durch angemessenes Herunterladen der in den Server oder dergleichen hochgeladenen Referenzinformationen in die Speichereinheit 111. Es ist anzumerken, dass die vorliegende Technologie nicht auf den Fall eingeschränkt ist, in dem das Fahrzeug 10 die Referenzinformationsdatenbank 26 aufweist. Es ist beispielsweise möglich, die Referenzinformationsdatenbank 26 im Server oder dergleichen zu installieren. In diesem Fall greift das Fahrzeug 10 angemessen auf den Server oder dergleichen zu und nimmt auf ein notwendiges Element der Referenzinformationen Bezug oder lädt dieses herunter.
  • Wie in 3 veranschaulicht, weist die Eigenpositionsabschätzungseinheit 132 die Koppelnavigationsprozesseinheit (DR-Prozesseinheit) 30, die Abgleichsprozesseinheit 31, eine Ortsidentifikationsprozesseinheit 32 und eine Korrekturprozesseinheit 33. Hierin wird die Koppelnavigationsprozesseinheit 30 nachfolgend als die DR-Prozesseinheit 30 bezeichnet.
  • Nach der vorliegenden Ausführungsform führt die Eigenpositionsabschätzungseinheit 132 einen Prozess zum stochastischen Abschätzen von Zustandsgrößen einschließlich der Position und der Stellung des Fahrzeugs 10 aus. In diesem Fall werden die Zustandsgrößen des Fahrzeugs 10 als Zufallsvariablen behandelt, die durch eine Wahrscheinlichkeitsverteilung (Wahrscheinlichkeitsdichte) repräsentiert sind. Eine Wahrscheinlichkeit, dass sich das Fahrzeug 10 an einer bestimmten Position befindet, eine Wahrscheinlichkeit, dass das Fahrzeug 10 in eine bestimmte Richtung zeigt, und dergleichen werden zum Beispiel berechnet.
  • In Bezug auf die Zustandsgrößen des Fahrzeugs 10 sind eine Position (r = (x,y)) des Fahrzeugs 10 im Kartenkoordinatensystem (einem XY-Koordinatensystem) und eine Ausrichtung θ des Fahrzeugs 10 in einer XY-Ebene festgelegt (siehe 10). Die vorliegende Technologie ist nicht darauf beschränkt. Es ist beispielsweise auch möglich, eine Position z des Fahrzeugs in einer Höhenrichtung, Winkel, die die Stellung, wie eine Schwenkdrehung, eine Rolldrehung oder eine Gierdrehung anzeigen, und dergleichen als die Zustandsgrößen des Fahrzeugs 10 festzulegen. Darüber hinaus ist es auch möglich, Zustandsgrößen festzulegen, die andere Parameter, wie eine Geschwindigkeit des Fahrzeugs 10, aufweisen.
  • Beispielsweise wird ein Prozess, der einen Kalman-Filter, einen Partikel-Filter oder dergleichen verwendet, als ein Algorithmus zum Ausführen des stochastischen Abschätzprozesses verwendet. Ein derartiger Filter ist zum Beispiel in Übereinstimmung mit den Zustandsgrößen oder dergleichen, die als Schätzungsziele dienen, angemessen konstruiert. Natürlich ist die vorliegende Technologie nicht darauf beschränkt. Ein beliebiger Prozess oder dergleichen kann verwendet werden, solange es möglich ist, die eigene Position abzuschätzen. Hierin wird nachfolgend der Kalman-Filter als ein Beispiel verwendet.
  • Beim Prozess, der den Kalman-Filter verwendet, werden zum Beispiel ein Schätzwert Rn|m der Zustandsgröße und eine Fehlerkovarianzmatrix Pn|m, die eine Genauigkeit des Schätzwerts Rn|m anzeigt, berechnet. Hier repräsentiert Rn|m einen Schätzwert der Zustandsgröße der Zeit n, der zum Zeitpunkt m geschätzt wurde, und Pn|m repräsentiert eine Fehlerkovarianzmatrix des Zeitpunkts n, die zum Zeitpunkt m geschätzt wurde.
  • Darüber hinaus werden beim Kalman-Filtern ein Vorhersageprozess und ein Aktualisierungsprozess in jedem Zeitschritt durchgeführt. Der Vorhersageprozess ist ein Prozess zum Vorhersagen eines aktuellen Schätzwerts Rt|t-1 und einer aktuellen Fehlerkovarianzmatrix Pt|t-1 einer Zeitperiode vorher, auf Grundlage von Ergebnissen (Rt-1|t-1, Pt-1|t-1) die beispielsweise vor der einen Zeitperiode (Zeit t - 1) vor einer aktuellen Zeit (Zeit t) erhalten wurden. Der Aktualisierungsprozess ist zum Beispiel ein Prozess zum Aktualisieren der Ergebnisse (Rt|t-1, Pt|t-1) des Vorhersageprozesses auf Grundlage der mit der Zustandsgröße verbundenen Messwerte und zum Berechnen eines Schätzwerts Rt|t und einer Fehlerkovarianzmatrix Pt|t der aktuellen Zeit t.
  • Es wird zum Beispiel angenommen, dass die mit den Zustandsgrößen verbundenen Messwerte in einem bestimmten Zeitschritt erfasst werden. In diesem Fall werden der Vorhersageprozess und der Aktualisierungsprozess durchgeführt und der Schätzwert Rt|t und die Fehlerkovarianzmatrix Pt|t werden als Schätzergebnisse berechnet. Alternativ ist es zum Beispiel auch möglich, nur den Vorhersageprozess in dem Fall auszuführen, in dem die mit den Zustandsgrößen verbundenen Messwerte nicht erfasst werden, oder in anderen Fällen. In einem solchen Fall werden der Schätzwert Rt|t-1 und die Fehlerkovarianzmatrix Pt|t-1 als Schätzergebnisse berechnet.
  • Wie oben beschrieben ist es beim Prozess, der den Kalman-Filter verwendet, möglich, die jeweiligen Schätzergebnisse durch den Vorhersageprozess und den Aktualisierungsprozess je nach Situation angemessen zu berechnen. Hierin werden nachfolgend manchmal die Bezugszeichen des Schätzwerts Rn|m und der Fehlerkovarianzmatrix Pn|m weggelassen, und sie werden einfach als der Schätzwert und die Fehlerkovarianzmatrix bezeichnet.
  • Die DR-Prozesseinheit 30 schätzt die Position und die Stellung des Fahrzeugs 10 durch einen Koppelnavigationsprozess. Hier ist der Koppelnavigationsprozess ein Prozess zum Schätzen der Position und der Stellung des Fahrzeugs 10 auf Grundlage eines vom internen Sensor 24 erkannten Verhaltens (Verhaltensinformationen) des Fahrzeugs 10 selbst. Nach der vorliegenden Ausführungsform entspricht der Koppelnavigationsprozess der autonomen Navigation.
  • Ein Prozess zum Berechnen eines Bewegungsausmaßes von der Position des Fahrzeugs 10 zum Zeitpunkt t - 1 auf Grundlage des Drehbetrags der Räder, der von den Rad-Drehgebern 23 zum Zeitpunkt t erkannt wird, und zum Schätzen einer relativen Position des Fahrzeugs 10 zum Zeitpunkt t wird zum Beispiel ausgeführt. Es ist anzumerken, dass ein tatsächlicher Koppelnavigationsprozess verschiedene Arten von Verhaltensinformationen verwendet, die von jeweiligen Sensoren erkannt werden, die im internen Sensor 24 zusätzlich zu den Rad-Drehgebern 23 enthalten sind.
  • Nach der vorliegenden Ausführungsform ermöglicht der Koppelnavigationsprozess, den oben beschriebenen Vorhersageprozess unter Verwendung des Kalman-Filters zu erzielen. Deshalb ist es durch Durchführen des Koppelnavigationsprozesses möglich, den Prozess zum Vorhersagen des Schätzwerts der Zustandsgröße des Fahrzeugs 10 und der Fehlerkovarianzmatrix auszuführen.
  • Darüber hinaus berechnet die DR-Prozesseinheit 30 einen Vertrauensgrad in den Schätzwert der Zustandsgröße des Fahrzeugs 10 auf Grundlage der Fehlerkovarianzmatrix. Der Vertrauensgrad ist eine Größe, die eine Gewissheit des Schätzwerts der Zustandsgröße des Fahrzeugs 10 anzeigt. Wenn die Position r des Fahrzeugs 10 zum Beispiel einen kleineren Fehler (Streuung der Wahrscheinlichkeitsverteilung) aufweist, wird die Wahrscheinlichkeit größer, dass sich das Fahrzeug 10 an der geschätzten Position r befindet, und ein Vertrauensgrad in die Position r wird größer.
  • Nach der vorliegenden Ausführungsform wird ein Vertrauensgrad berechnet, der die Gewissheit der gesamten Zustandsgrößen repräsentiert. Es ist zum Beispiel möglich, Vertrauensgrad in jeweilige Zustandsvariablen (wie die Position r und die Ausrichtung 9), die in den Zustandsgrößen enthalten sind, aus diagonalen Elementen der Fehlerkovarianzmatrix zu berechnen. Der gesamte Vertrauensgrad wird auf Grundlage der Vertrauensgrade in die jeweiligen Zustandsgrößen berechnet. Alternativ ist es möglich, ein beliebiges Verfahren zu verwenden, solange es möglich ist, den Vertrauensgrad in den Schätzwert zu berechnen.
  • Wie oben beschrieben, führt die DR-Prozesseinheit 30 den Abschätzungsprozess unter Verwendung der Koppelnavigation auf Grundlage der vom internen Sensor 24 erkannten Verhaltensinformationen aus und berechnet den Vertrauensgrad in den Schätzwert. Der berechnete Schätzwert und der Vertrauensgrad werden der Abgleichsprozesseinheit 31 geliefert. Darüber hinaus wird der Vertrauensgrad einer Frequenzsteuerungseinheit 40 der Planungseinheit 134 geliefert (die später beschrieben wird).
  • Die Abgleichsprozesseinheit 31 sucht auf Grundlage des Schätzergebnisses (des Schätzwerts) der DR-Prozesseinheit 30 nach einem oder mehreren Elementen der Referenzinformationen, die mit dem Außenumfeld um das Fahrzeug 10 verbunden sind. Die Referenzinformationen werden zum Beispiel aus der Referenzinformationsdatenbank 26 herausgesucht, während die Position des Fahrzeugs 10, die vom Schätzwert bestimmt wird, als Kriterium verwendet wird. Als Ergebnis werden die Referenzinformationen, die in der Nähe der aktuellen Position des Fahrzeugs 10 erfasst wurden, herausgesucht.
  • Darüber hinaus entscheidet die Abgleichsprozesseinheit 31 über Korrekturreferenzinformationen zum Korrigieren des Schätzwerts durch Ausführen eines Prozesses zum Abgleichen eines oder mehrerer Elemente der herausgesuchten Referenzinformationen und der vom externen Sensor 25 erkannten Umgebungsinformationen. Ein Element der Referenzinformationen, dessen Übereinstimmungsrate eine vorbestimmte Bedingung erfüllt, wird zum Beispiel als die Korrekturreferenzinformationen bestimmt. Es ist anzumerken, dass die Korrekturreferenzinformationen manchmal in dem Fall nicht bestimmt werden können, in dem die Übereinstimmungsraten der jeweiligen Elemente der Referenzinformationen die vorbestimmte Bedingung nicht erfüllen.
  • Ein beliebiger Abgleichsprozess, wie Merkmalspunktabgleich, Vorlagenabgleich oder Bildabtastung, wird zum Beispiel als der Abgleichsprozess verwendet. Darüber hinaus ist ein spezifisches Verfahren des Abgleichsprozesses nicht eingeschränkt. Es ist zum Beispiel möglich, einen Abgleichsprozess unter Verwendung von maschinellem Lernen oder dergleichen angemessen auszuführen.
  • Die Ortsidentifikationsprozesseinheit 32 berechnet die aktuelle Position des Fahrzeugs 10 auf Grundlage der Korrekturreferenzinformationen und der Umgebungsinformationen. Der Ortserkennungsprozess wird zum Beispiel auf Grundlage eines Ergebnisses eines Abgleichs der Korrekturreferenzinformationen und der Umgebungsinformationen, einer Erfassungsposition und einer Erfassungsstellung der Korrekturreferenzinformationen und dergleichen ausgeführt, und die Absolutbeträge der Position und der Stellung des Fahrzeugs 10 im Kartenkoordinatensystem werden berechnet. Anders ausgedrückt kann gesagt werden, dass die Position und die Stellung des Fahrzeugs 10 auf Grundlage der Korrekturreferenzinformationen gemessen werden.
  • Nach der vorliegenden Ausführungsform ermöglicht der Ortserkennungsprozess, den oben beschriebenen Aktualisierungsprozess unter Verwendung des Kalman-Filters zu erzielen. Deshalb ist es durch Durchführen des Ortserkennungsprozesses möglich, den Prozess zum Aktualisieren des Schätzwerts der Zustandsgröße des Fahrzeugs 10 und der Fehlerkovarianzmatrix auszuführen. Der aktualisierte Schätzwert und die aktualisierte Fehlerkovarianzmatrix werden an die DR-Prozesseinheit 30 ausgegeben und werden für einen nachfolgenden Vorhersageprozess verwendet.
  • Es ist anzumerken, dass es auch möglich ist, dass die Ortsidentifikationsprozesseinheit 32 den Prozess zum Aktualisieren des Schätzwerts und der Fehlerkovarianzmatrix oder dergleichen auf Grundlage der eigenen Position oder dergleichen des Fahrzeugs 10 ausführt, der zum Beispiel vom GPS-Sensor oder dergleichen erkannt wurde. Es ist zum Beispiel möglich, eine Genauigkeit des Abschätzungsprozesses durch Verwenden sowohl der eigenen Position, der durch den Ortsidentifikationsprozess auf Grundlage der Korrekturreferenzinformationen erkannt wurde, als auch der vom GPS-Sensor erkannten eigenen Position dramatisch zu verbessern.
  • Die Korrekturprozesseinheit 33 führt einen Prozess zum Korrigieren der Schätzwerte der Position und der Stellung des Fahrzeugs 10 durch. Der Korrekturprozess ist ein Prozess zum Korrigieren des Abschätzungsprozesses, während beispielsweise die Position und die Stellung (die Absolutbeträge im Kartenkoordinatensystem) des Fahrzeugs 10, die aus den Korrekturreferenzinformationen berechnet wurden, als Kriterien verwendet werden. Anders ausgedrückt kann gesagt werden, dass die Korrekturprozesseinheit 33 die Schätzergebnisse auf Grundlage der Korrekturreferenzinformationen korrigiert.
  • Nach der vorliegenden Ausführungsform wird ein Prozess zum Korrigieren aktueller und vergangener Schätzwerte des Fahrzeugs 10 als der Korrekturprozess ausgeführt. Deshalb korrigiert die Korrekturprozesseinheit 33 Bahnen, die das Fahrzeug 10 vorher durchlaufen hat. Der oben beschriebene Korrekturprozess, der eine Korrektur von vergangenen Schätzwerten aufweist, wird allgemein als eine schleifenschließende Funktion (oder eine Schleifenschlussfunktion) bezeichnet. Details der schleifenschließenden Funktion werden später beschrieben. Die korrigierten Schätzwerte (Korrekturergebnisse) werden der DR-Prozesseinheit 30 geliefert und werden unter Verwendung des Kalman-Filters angemessen wieder in den Prozess eingespeist.
  • Es ist anzumerken, dass die Korrekturprozesseinheit 33 auf Grundlage einer vorbestimmten Ermittlungsbedingung ermittelt, ob der Korrekturprozess auszuführen ist oder nicht. Die vorbestimmte Ermittlungsbedingung wird auf eine solche Weise angemessen festgelegt, dass der Korrekturprozess beispielsweise mit einer angemessenen Zeitgebung in einer angemessenen Situation auszuführen ist. Darüber hinaus werden Informationen (Ermittlungsinformationen) in Bezug auf ein Ermittlungsergebnis, die anzeigen, ob der Korrekturprozess auszuführen ist oder nicht, der Frequenzsteuerungseinheit 40 der Planungseinheit 134 (die später beschrieben wird) geliefert. Nach der vorliegenden Ausführungsform entsprechen die Ermittlungsinformationen Ausführungsinformationen, die anzeigen, ob auf Grundlage der Korrekturreferenzinformationen der Korrekturprozess am Schätzergebnis auszuführen ist oder nicht.
  • Die Planungseinheit 134 weist die Frequenzsteuerungseinheit 40, eine globale Bewegungsplanungseinheit 41 und eine lokale Bewegungsplanungseinheit 42 auf.
  • Die Frequenzsteuerungseinheit 40 steuert eine Frequenz einer Aktualisierung eines Bewegungsplans, die von der Planungseinheit 134 durchzuführen ist, auf Grundlage von Lastindexinformationen. Hier sind die Lastindexinformationen Informationen, die als ein Index einer Belastung der Eigenpositionsabschätzungseinheit 132 dienen. Genauer sind die Lastindexinformationen Informationen, die als ein Index einer Verarbeitungslast dienen, die notwendig ist, damit der Abschätzungsprozess von der Eigenpositionsabschätzungseinheit 132 durchgeführt wird. Informationen, die zum Beispiel anzeigen, wie sehr die Verarbeitungslast des Abschätzungsprozesses ansteigt, werden als die Lastindexinformationen verwendet.
  • Der Grad des Vertrauens in das Schätzergebnis (den Schätzwert), das von der DR-Prozesseinheit 30 erhalten wurde, wird beispielsweise als die Lastindexinformationen verwendet. In diesem Fall steuert die Frequenzsteuerungseinheit 40 die Aktualisierungsfrequenz eines Bewegungsplans auf Grundlage des Vertrauensgrades. Darüber hinaus werden zum Beispiel die Ermittlungsinformationen, die mit dem von der Korrekturprozesseinheit 33 durchgeführten Korrekturprozess verbunden sind, als die Lastindexinformationen verwendet. Die Frequenzsteuerungseinheit 40 hält die Planungseinheit 134 davon ab, den Bewegungsplan auf Grundlage der Ermittlungsinformationen zu aktualisieren.
  • Es ist anzumerken, dass die Planungseinheit 134 einen globalen Bewegungsplan und einen lokalen Bewegungsplan als die jeweiligen Bewegungspläne generiert. Nach der vorliegenden Ausführungsform wird ein Prozess zum Steuern einer Aktualisierungsfrequenz des globalen Bewegungsplans auf Grundlage der oben beschriebenen Lastindexinformationen ausgeführt. Details der Aktualisierungsfrequenzsteuerung auf Grundlage der Lastindexinformationen (des Vertrauensgrads und der Ermittlungsinformationen) werden später beschrieben.
  • Die globale Bewegungsplanungseinheit 134 generiert den globalen Bewegungsplan und aktualisiert den globalen Bewegungsplan. Der globale Bewegungsplan ist ein Plan zum Bewegen des Fahrzeugs 10 in einem weiten Gebiet. Nach der vorliegenden Ausführungsform wird ein Routenplan zu einem Ziel des Fahrzeugs 10 als der globale Bewegungsplan generiert. Der Routenplan ist ein Plan, der Informationen aufweist, die einen Weg (einen Pfad) anzeigen, dem das Fahrzeug 10 folgen sollte, oder dergleichen. Der Routenplan ermöglicht es, Straßen zu bestimmen, durch die sich das Fahrzeug 10 von einer aktuellen Position zum Ziel bewegt, ob es an einer Kreuzung nach rechts oder nach links abbiegen soll, eine Richtung einer sich gabelnden Straße und dergleichen.
  • 5 ist ein schematisches Diagramm, das ein Beispiel des Routenplans veranschaulicht. 5 veranschaulicht eine geplante Route 52 des Fahrzeugs 10 von einer aktuellen Position 50 zu einem Ziel 51 schematisch. Die globale Bewegungsplanungseinheit 41 generiert den Routenplan zum Beispiel in Bezug auf die Position (die aktuelle Position 50) des Fahrzeugs 10 auf Grundlage der globalen Karte, die Informationen in Bezug auf eine Straße 53 von der aktuellen Position 50 des Fahrzeugs 10 zum Ziel 51 oder dergleichen aufweist. Darüber hinaus wird die Route in Übereinstimmung mit einer Bewegung des Fahrzeugs 10, Verkehrsstauinformationen in Bezug auf die geplante Route 52 und dergleichen geändert, das heißt, der Routenplan (der globale Bewegungsplan) wird in Übereinstimmung damit aktualisiert. Der aktualisierte Routenplan wird der lokalen Bewegungsplanungseinheit 42 geliefert.
  • Die lokale Bewegungsplanungseinheit 134 generiert den lokalen Bewegungsplan und aktualisiert den lokalen Bewegungsplan. Der lokale Bewegungsplan ist ein Plan zum Bewegen des Fahrzeugs 10 in einem engen Gebiet um das Fahrzeug 10 herum. Nach der vorliegenden Ausführungsform wird ein Kursplan als der lokale Bewegungsplan generiert. Der Kursplan zeigt eine Bewegungsrichtung des Fahrzeugs 10 von der aktuellen Position 50 an. In Bezug auf den Kursplan wird zum Beispiel ein Kurs des Fahrzeugs 10 geplant, der eine Bewegungsrichtung, eine Geschwindigkeit und dergleichen zum sicheren Bewegen des Fahrzeugs 10 in Übereinstimmung mit der geplanten Route 52 aufweist.
  • 6 ist ein schematisches Diagramm, das Beispiele des Kursplans veranschaulicht. 6 veranschaulicht Kandidaten für einen Kurs 54 des Fahrzeugs 10 an der aktuellen Position 50 schematisch, der in 5 illustriert ist. Die Kurse 54 des Fahrzeugs werden zum Beispiel auf eine derartige Weise berechnet, dass die Kurse 54 hergestellt werden, falls ein Lenkwinkel (ein Ausmaß der Drehung des Lenkrads) auf Grundlage der aktuellen Stellung (der Ausrichtung θ), der aktuellen Geschwindigkeit und dergleichen des Fahrzeugs 10 manipuliert wird. 6 veranschaulicht die Vielzahl von Kurskandidaten 54 mit verschiedenen Lenkwinkeln. Ein Kurs 54, der fähig ist, zu bewirken, dass das Fahrzeug 10 der geplanten Route 52 auf dem besten Weg folgt, wird angemessen aus den Kandidaten ausgewählt und der ausgewählte Kurs 54 wird als der Kursplan verwendet.
  • Es ist anzumerken, dass ein Verfahren zum Generieren des Kursplans nicht eingeschränkt ist. In dem Fall, in dem es ein Hindernis, ein anderes Fahrzeug oder dergleichen in der Nähe des Fahrzeugs 10 gibt, ist es beispielsweise möglich, einen Kurs 54 zum Vermeiden dieser angemessen zu berechnen. Darüber hinaus ist es beispielsweise auch möglich, einen Kurs 54 entlang von Linien auf einer Straße, durch die sich das Fahrzeug 10 bewegt, einen Kurs 54 zum Folgen eines weiteren Fahrzeugs voran, oder dergleichen zu berechnen.
  • Wie oben beschrieben muss der Kursplan zusätzlich zu einer Änderung in der Position und in der Stellung des Fahrzeugs 10 das Hindernis, die Verkehrssituation und dergleichen um das Fahrzeug 10 herum handhaben. Deshalb wird der Kursplan häufig aktualisiert. Der aktualisierte Aktivierungsplan wird der Beschleunigungs-/Abbremssteuerungseinheit 172 und der Richtungssteuerungseinheit 173 der Verhaltenssteuerungseinheit 135 geliefert, die in 1 veranschaulicht sind.
  • [Grundlegendes Verhalten der Eigenpositionsabschätzungseinheit und Planungseinheit]
  • 7 ist ein schematisches Diagramm, das eine Übersicht eines grundlegenden Verhaltens der Eigenpositionsabschätzungseinheit 132 veranschaulicht. 8 ist ein schematisches Diagramm, das eine Übersicht eines grundlegenden Verhaltens der Planungseinheit 134 veranschaulicht. 7 und 8 veranschaulichen schematisch jeweilige funktionale Blöcke, die in der Eigenpositionsabschätzungseinheit 132 und der Planungseinheit 134 enthalten sind, die in Bezug auf 3 beschrieben wurden, und Informationen, die zwischen den funktionalen Blöcken ausgetauscht werden.
  • Wie in 7 veranschaulicht, führt die DR-Prozesseinheit 30 der Eigenpositionsabschätzungseinheit 132 den Koppelnavigationsprozess wiederholt mit einer vorbestimmten Frequenz aus (mit einer vorbestimmten Verarbeitungsrate). In jeder Wiederholung werden die Schätzwerte der Zustandsgrößen (der Position und der Stellung) des Fahrzeugs 10 und der Vertrauensgrad (die Fehlerkovarianzmatrizen) berechnet.
  • Darüber hinaus führt die Abgleichungsprozesseinheit 31 unabhängig von der DR-Prozesseinheit 30 wiederholt den Abgleichsprozess aus. Zu diesem Zeitpunkt werden Informationen zum Suchen nach den Referenzinformationen, wie den Schätzwerten oder den Vertrauensgraden, angemessen von der DR-Prozesseinheit 30 erfasst. In dem Fall, in dem der Abgleich erfolgreich war, berechnet die Ortsidentifikationsprozesseinheit 32 die Absolutbeträge der Position und der Stellung des Fahrzeugs 10 und aktualisiert die Schätzwerte und die Fehlerkovarianzmatrizen.
  • Wenn der Ortsidentifikationsprozess abgeschlossen ist, ermittelt die Korrekturprozesseinheit 33, ob der Korrekturprozess auszuführen ist oder nicht. In dem Fall, in dem ermittelt wird, den Korrekturprozess auszuführen, wird der Korrekturprozess unter Verwendung der schleifenschließenden Funktion ausgeführt, während die aktualisierten Schätzwerte als Kriterien verwendet werden. Als Nächstes wird ein Ergebnis des Korrekturprozesses zurück in die DR-Prozesseinheit 30 eingespeist.
  • Wie in 8 veranschaulicht, führt die Planungseinheit 134 wiederholt einen Generierungsprozess für den globalen Bewegungsplan (einen globalen Pfadplaner) und einen Generierungsprozess für den lokalen Bewegungsplan (einen lokalen Pfadplaner) mit unabhängigen Frequenzen aus und aktualisiert die jeweiligen Bewegungspläne mit unterschiedlichen Frequenzen. Die Aktualisierungsfrequenz des lokalen Bewegungsplans ist zum Beispiel höher als die des globalen Bewegungsplans festgelegt.
  • Darüber hinaus, wie oben beschrieben, steuert die Frequenzsteuerungseinheit 40 eine Aktualisierungsfrequenz des globalen Bewegungsplans auf Grundlage von Indizes (Lastindexinformationen) von Verarbeitungslasten der jeweiligen Prozesse angemessen, die von der in Bezug auf 7 beschriebenen Eigenpositionsabschätzungseinheit 132 durchgeführt werden. Andererseits wird eine Aktualisierung des lokalen Bewegungsplans fortlaufend mit einer vorbestimmten Frequenz durchgeführt.
  • [Steuerung der Aktualisierungsfrequenz]
  • 9 ist ein Ablaufdiagramm, das ein Beispiel einer Steuerung der Aktualisierungsfrequenz des globalen Bewegungsplans veranschaulicht. Es ist anzumerken, dass dieser Prozess beispielsweise beginnt, wenn das Fahrzeug 10 aktiviert und eine Betätigung zum Starten des Fahrens durchgeführt wird, das heißt, wenn beispielsweise ein Zündschalter, ein Energieschalter, ein Startschalter oder dergleichen des Fahrzeugs 10 eingeschaltet wird. Darüber hinaus endet dieser Prozess beispielsweise, wenn eine Betätigung zum Beenden des Fahrens durchgeführt wird, das heißt, wenn beispielsweise der Zündschalter, der Energieschalter, der Startschalter oder dergleichen des Fahrzeugs 10 ausgeschaltet wird.
  • Zuerst werden Umgebungsinformationen des Fahrzeugs 10 unter Verwendung des externen Sensors 25 erkannt (Schritt 101). Die erkannten Umgebungsinformationen werden der Abgleichsprozesseinheit 31 geliefert.
  • Die DR-Prozesseinheit 30 berechnet Schätzwerte einer Position und einer Stellung (Zustandsgrößen) des Fahrzeugs 10 und Vertrauensgrade in die Schätzwerte (Schritt 102). Die DR-Prozesseinheit 30 erfasst Verhaltensinformationen in Bezug auf ein Verhalten des Fahrzeugs 10, die vom internen Sensor 24 erkannt werden, führt den Koppelnavigationsprozess aus und berechnet Schätzwerte, die eine aktuelle geschätzte Position (aktuelle Position) und eine aktuelle geschätzte Stellung des Fahrzeugs 10 anzeigen.
  • Es ist anzumerken, dass, wie in Bezug auf 7 beschrieben, die DR-Prozesseinheit 30 mit einer unabhängigen Verarbeitungsrate arbeitet. Deshalb kann gesagt werden, dass Schritt 102 ein Prozess zum Erfassen von Vertrauensgraden und der von der DR-Prozesseinheit 30 berechneten Schätzwerte beispielsweise als Reaktion auf den Abschluss von Schritt 101 ist. Wie oben beschrieben schätzt die DR-Prozesseinheit fortlaufend eine Position und eine Stellung des Fahrzeugs 10, die sich mit der Zeit ändern. Dementsprechend ist es möglich, einen Prozess auszuführen, der einen letzten Zustand des Fahrzeugs 10 unter Verwendung der Vertrauensgraden und der von der DR-Prozesseinheit 30 berechneten Schätzwerte widerspiegelt.
  • 10 ist ein schematisches Diagramm, das ein Beispiel für ein Verhalten des Fahrzeugs 10 veranschaulicht. 10 veranschaulicht schematisch das Fahrzeug 10, das sich in einer Ebene bewegt, die durch das Kartenkoordinatensystem repräsentiert wird (X-Koordinaten und Y-Koordinaten). Darüber hinaus wird ein Zustand des Fahrzeugs 10 im Kartenkoordinatensystem durch eine Position (r = (x,y)) des Fahrzeugs 10 und eine Ausrichtung θ des Fahrzeugs 10 in der XY-Ebene repräsentiert. Hier ist θ ein Winkel zwischen einer x-Koordinate und einer Bewegungsrichtung des Fahrzeugs 10.
  • Es wird angenommen, dass der interne Sensor 24 zum Beispiel Verhaltensinformationen (wie eine Beschleunigung) des Fahrzeugs 10 zum Zeitpunkt t erkennt. Ein Ausmaß und eine Richtung der Bewegung des Fahrzeugs 10 vom Zeitpunkt t - 1 zum Zeitpunkt t wird aus den Verhaltensinformationen berechnet. Der Zeitpunkt t - 1 ist eine Zeitspanne vor dem Zeitpunkt t. Der Zustand des Fahrzeugs 10 zum Zeitpunkt t wird auf Grundlage des Bewegungsausmaßes, der Bewegungsrichtung und des Zustands (der Schätzwerte der Position rund der Ausrichtung θ) des Fahrzeugs 10 zum Zeitpunkt t - 1 abgeschätzt.
  • 10 veranschaulicht schematisch Positionen r1 bis r5 des Fahrzeugs 10 zum Zeitpunkt T1 bis zum Zeitpunkt T5. Die Position r2 zum Zeitpunkt T2 ist beispielsweise ein Schätzwert, der auf Grundlage eines Bewegungsausmaßes und einer Bewegungsrichtung vom Zeitpunkt T1 zum Zeitpunkt T2 berechnet wird, während die Position r1 zum Zeitpunkt T1 als ein Kriterium verwendet wird. Es ist anzumerken, dass angenommen wird, dass die Position r und die Ausrichtung θ des Fahrzeugs 10 im Kartenkoordinatensystem zum Zeitpunkt T1 erfasst wurden.
  • Im Allgemeinen weisen die vom internen Sensor 24 erkannten Verhaltensinformationen Fehler auf. Deshalb erhöhen sich in dem Fall, in dem nur der Koppelnavigationsprozess wiederholt wird, die Fehler der Schätzwerte mit jeder Wiederholung des Schritts und kumulative Fehler häufen sich.
  • 10 veranschaulicht Fehlerbereiche, die den jeweiligen Positionen r1 bis r5 entsprechen, unter Verwendung von Fehlerellipsen 55. Die Fehlerellipse 55 repräsentiert einen Bereich, in dem das Fahrzeug 10 zum Beispiel mit einer beliebigen Wahrscheinlichkeit (wie einer Wahrscheinlichkeit von 90 % oder dergleichen) existiert. Wie in 10 veranschaulicht, erhöht sich die Größe der Fehlerellipse 55 mit der Zeit. Der Vertrauensgrad in die Schätzwerte verringert sich mit dem Anwachsen des Fehlers. Als Ergebnis gibt es die Möglichkeit, dass die durch den Schätzwert angezeigte Position allmählich von einer tatsächlichen Position des Fahrzeugs 10 abweicht.
  • Manchmal kann der Abschätzungsprozess nur unter Verwendung des Koppelnavigationsprozesses beispielsweise in einer Umgebung, in der eine Genauigkeit des GPS-Sensors gering ist, oder in einer Umgebung fortfahren, in der es unmöglich ist, den GPS-Sensor zu verwenden (wie in einem Tunnel, einem Keller, einer Straße zwischen Hochhäusern oder in einem Innenraum). In einem derartigen Fall besteht die Möglichkeit, dass sich die Größe der Fehlerellipse erhöht, die in 10 illustriert ist. Auch in einem derartigen Fall ist es möglich, durch Durchführen eines Prozesses zum Korrigieren (Aktualisieren) der Schätzwerte in Schritt 110 (der später beschrieben wird) die Fehler in den Schätzwerten zu reduzieren und den Vertrauensgrad zu erhöhen.
  • Zu 9 zurückkehrend, legt die Abgleichsprozesseinheit 31 einen Suchbereich zum Suchen nach den Referenzinformationen (Schritt 103) fest. Die Abgleichsprozesseinheit 31 sucht nach den Referenzinformationen, die in der Referenzinformationsdatenbank 26 gespeichert sind, auf Grundlage des Schätzwerts (der aktuellen Position des Fahrzeugs 10), der in Schritt 102 berechnet wurde. Der Suchbereich der Referenzinformationen dieses Zeitpunkts, das heißt, Bedingungen oder dergleichen zum Suchen nach den Referenzinformationen werden festgelegt.
  • 11 ist ein schematisches Diagramm, das Beispiele des Suchbereichs von Referenzinformationen beschreibt. 11A ist ein schematisches Diagramm, das die Beispiele des Suchbereichs der Referenzinformationen 60 beschreibt. 11B ist eine Tabelle, die ein spezifisches Beispiel der in 11A illustrierten Referenzinformationen 60 anzeigt.
  • 11A illustriert schematisch eine Erfassungsroute 61, die das Kartengenerierungsfahrzeug durchlaufen hat und die Referenzinformationen 60 in der Vergangenheit erfasst hat, und Erfassungspositionen 62a bis 62g von Elementen der Referenzinformationen 60. Darüber hinaus zeigen Pfeile schematisch Erfassungsrichtungen 63 der jeweiligen Elemente von Referenzinformationen 60. Es ist anzumerken, dass 11A beispielsweise Bildinformationen (ein Schlüsselbild 64) veranschaulicht, die an der Erfassungsposition 62g erfasst wurden. Darüber hinaus wird angenommen, dass sich das Fahrzeug 10 in der Nähe der Erfassungspositionen 62a und 62b unter den sieben Erfassungspositionen 62a bis 62g bewegt.
  • Wie in 11B veranschaulicht wird eine ID zum Identifizieren jedes Elements der Referenzinformationen 60 an jedem Element der Referenzinformationen 60 angebracht. Darüber hinaus werden die Elemente der Referenzinformationen 60 auf eine derartige Weise gespeichert, dass die Schlüsselbilder (wie zum Beispiel die Bildinformationen und die Tiefeninformationen), die Koordinaten (x,y) der Erfassungspositionen 62 und die Winkel (θ), die die Erfassungsrichtungen 63 anzeigen, miteinander assoziiert sind. Die Abgleichsprozesseinheit 31 sucht zum Beispiel nach einem Element der Referenzinformationen 60 durch angemessene Bezugnahme auf die Erfassungspositionen 62 und die Erfassungsrichtungen 63.
  • Wie in 11A veranschaulicht wird zum Beispiel ein Umgebungsbereich 66 des Fahrzeugs 10 als ein Suchbereich 65 der Referenzinformationen 60 festgelegt, während die aktuelle Position (ein Schätzwert) des Fahrzeugs 10 als ein Kriterium verwendet wird. 11A veranschaulicht kreisförmige Umgebungsbereiche 66 schematisch. Die Referenzinformationen 60, die in einem Umgebungsbereich 66 erfasst wurden, das heißt, die Referenzinformationen 60, deren Erfassungsposition 62 sich innerhalb des Umgebungsbereichs 66 befindet, werden zum Beispiel aus der Referenzinformationsdatenbank 26 herausgesucht.
  • Durch Festlegen des Umgebungsbereichs 66 wie oben beschrieben ist es möglich, nach den Referenzinformationen 60 zu suchen, die in einem gewünschten Bereich erfasst wurden. Es ist anzumerken, dass die vorliegende Technologie nicht auf den Fall der Verwendung des Umgebungsbereichs 66 beschränkt ist. Es ist zum Beispiel auch möglich, einen Suchbereich auf eine derartige Weise festzulegen, dass eine Anzahl von N Elementen von Referenzinformationen in der Reihenfolge der Nähe der Erfassungspositionen zur aktuellen Position des Fahrzeugs 10 erfasst wird. Alternativ kann der Suchbereich angemessen nicht nur in Übereinstimmung mit der Position r des Fahrzeugs 10, sondern auch der Ausrichtung 9 des Fahrzeugs 10 festgelegt werden.
  • Nach der vorliegenden Ausführungsform ist der Suchbereich 65 der Referenzinformationen (des Umgebungsbereichs 66) auf Grundlage des Vertrauensgrads festgelegt. 11A veranschaulicht einen Umgebungsbereich 66a mit einem hohen Vertrauensgrad und einen Umgebungsbereich 66b mit einem niedrigen Vertrauensgrad.
  • In dem Fall, in dem ein Vertrauensgrad in die aktuelle Position 50 des Fahrzeugs 10 zum Beispiel hoch ist, ist der Fehler in der aktuellen Position 50 des Fahrzeugs 10 gering (siehe 10). Anders ausgedrückt, wird eine Position, an der sich das Fahrzeug tatsächlich befindet (eine echte aktuelle Position) als nahe an einem vom Schätzwert angegebene Position angesehen. In diesem Fall ist es nur notwendig, Referenzinformationen innerhalb eines Bereichs zu erfassen, der nahe am Schätzwert liegt, und es ist nicht notwendig, Referenzinformationen an einer entfernten Position zu erfassen. Deshalb ist der Suchbereich 65 (der Umgebungsbereich 66a) auf einen engen Bereich festgelegt.
  • In dem Fall, in dem der Vertrauensgrad in die aktuelle Position des Fahrzeugs 10 hoch ist, wird der Umgebungsbereich 66a auf eine derartige Weise festgelegt, dass ein Bereich um das Fahrzeug 10 als ein Suchziel dient, wie in 11A veranschaulicht. Der Umgebungsbereich 66a weist die Erfassungspositionen 62a und 62b auf. Deshalb, wie in 11B veranschaulicht, weist ein Suchergebnis 67a, das im Fall des hohen Vertrauensgrades erhalten wurde, die Referenzinformationen 60a, die an der Erfassungsposition 62a erhalten wurden, und die Referenzinformationen 60b auf, die an der Erfassungsposition 62b erhalten wurden.
  • Andererseits, in dem Fall, in dem ein Vertrauensgrad in die aktuelle Position 50 des Fahrzeugs 10 niedrig ist, ist der Fehler in der aktuellen Position 50 des Fahrzeugs 10 groß. Anders ausgedrückt besteht die Möglichkeit, dass die echte aktuelle Position des Fahrzeugs 10 von der vom Schätzwert angegebenen Position entfernt ist. Deshalb werden im Fall des Suchens nach den Referenzinformationen nicht nur die Referenzinformationen innerhalb des Bereichs nahe am Schätzwert, sondern auch die Referenzinformationen an der entfernten Position erfasst. Deshalb ist der Suchbereich 65 (der Umgebungsbereich 66) auf einen breiten Bereich festgelegt.
  • In dem Fall, in dem der Vertrauensgrad in die aktuelle Position des Fahrzeugs 10 gering ist, wird der Umgebungsbereich 66b auf eine derartige Weise festgelegt, dass ein Bereich, der Positionen nahe am und vom Fahrzeug 10 entfernt aufweist, als ein Suchziel dient, wie in 11A veranschaulicht. Der Umgebungsbereich 66b weist alle Erfassungspositionen 62a bis 62g in 11A auf. Deshalb weist, wie in 11B veranschaulicht, ein Suchergebnis 67b, das im Fall des geringen Vertrauensgrads erhalten wurde, alle sieben Elemente der Bezugsinformationen 60a bis 60g auf.
  • Wie oben beschrieben wird der Suchbereich 65 nach der vorliegenden Ausführungsform auf einen engeren Bereich festgelegt, wenn der Vertrauensgrad ansteigt, und der Suchbereich 65 wird auf einen breiteren Bereich festgelegt, wenn der Vertrauensgrad sinkt. Als Ergebnis ist die Anzahl der Elemente der Referenzinformationen 60, die im Fall des hohen Vertrauensgrads herausgesucht werden, geringer als die Anzahl der Elemente der Referenzinformationen 60, die im Fall des geringen Vertrauensgrads herausgesucht werden. Anders ausgedrückt wird die Anzahl der Elemente der Referenzinformationen, die in einem Suchergebnis enthalten ist, mit höherem Vertrauensgrad geringer.
  • Wieder auf 9 Bezug nehmend, steuert die Frequenzsteuerungseinheit 40 die Aktualisierungsfrequenz des globalen Bewegungsplans auf Grundlage des Vertrauensgrades (Schritt 104). Die Frequenzsteuerungseinheit 40 legt zum Beispiel die Aktualisierungsfrequenz fest, die dem Wert des Vertrauensgrads entspricht, der in Schritt 102 berechnet wurde, und steuert ein Verhalten der globalen Bewegungsplanungseinheit 41 auf eine derartige Weise, dass der globale Bewegungsplan mit der festgelegten Aktualisierungsfrequenz aktualisiert wird.
  • 12 ist eine Tabelle, die Beziehungen zwischen den Aktualisierungsfrequenzen des globalen Bewegungsplans und CPU-Lastfaktoren in einer Phase des Suchens nach den Referenzinformationen anzeigt. Die Phase (eine Suchphase) des Suchens nach den Referenzinformationen ist eine Phase, bevor die Abgleichsprozesseinheit 31 zum Beispiel die Korrekturreferenzinformationen aus der Referenzinformationsdatenbank 26 bestimmt. Es ist anzumerken, dass Schritt 104 ein Prozess ist, der in der Phase des Suchens nach den Referenzinformationen ausgeführt wird.
  • Wie zum Beispiel in einer linken Spalte von 12 veranschaulicht, ist der Suchbereich 65 der Referenzinformationen im Fall eines hohen Vertrauensgrads auf einen engen Bereich festgelegt. Als Ergebnis verringert sich die Anzahl der Elemente der Referenzinformationen, die in einem Suchergebnis enthalten ist, das heißt, die Anzahl der Elemente der Referenzinformationen, die als ein Ziel eines Abgleichsprozesses dienen, der in Schritt 105 (der später beschrieben wird) durchgeführt wird. Deshalb wird angenommen, dass die Eigenpositionsabschätzungseinheit 132 den Abgleichsprozess mit einem niedrigen CPU-Lastfaktor ausführt.
  • Im Fall eines hohen Vertrauensgrads legt die Frequenzsteuerungseinheit 40 die Aktualisierungsfrequenz des globalen Bewegungsplans auf eine hohe Frequenz fest. Als Ergebnis wird der CPU-Lastfaktor hoch, der für den Prozess der Aktualisierung des globalen Bewegungsplans notwendig ist. Dies ermöglicht beispielsweise, eine Verarbeitungskapazität der CPU hinreichend einzusetzen. Darüber hinaus ist es auch möglich, eine Genauigkeit der Aktualisierung des globalen Bewegungsplans durch Aktualisierung des globalen Bewegungsplans mit dem hohen Vertrauensgrad zu verbessern.
  • Darüber hinaus, wie in einer rechten Spalte von 12 veranschaulicht, ist der Suchbereich 65 der Referenzinformationen im Fall eines niedrigen Vertrauensgrads auf einen breiten Bereich festgelegt. Als Ergebnis erhöht sich die Anzahl der Elemente der Referenzinformationen, die als Ziele des Abgleichsprozesses dienen, und es wird angesehen, dass die Eigenpositionsabschätzungseinheit 132 den Abgleichsprozess mit einem hohen CPU-Lastfaktor ausführt.
  • Im Fall eines geringen Vertrauensgrads legt die Frequenzsteuerungseinheit 40 die Aktualisierungsfrequenz des globalen Bewegungsplans auf eine niedrige Frequenz fest. Als Ergebnis wird der CPU-Lastfaktor gering, der für den Prozess der Aktualisierung des globalen Bewegungsplans notwendig ist. Deshalb ist es möglich, eine Erhöhung in der gesamten Verarbeitungslast auch in dem Fall hinreichend zu unterdrücken, in dem der CPU-Lastfaktor der Eigenpositionsabschätzungseinheit 132 ansteigt.
  • Wie oben beschrieben wird die Aktualisierungsfrequenz nach der vorliegenden Ausführungsform auf eine höhere Frequenz festgelegt, wenn der Vertrauensgrad ansteigt, und die Aktualisierungsfrequenz wird auf eine geringere Frequenz festgelegt, wenn der Vertrauensgrad sinkt. Dies ermöglicht es, beispielsweise eine Verarbeitungslast des Prozesses zum Abschätzen einer Position und einer Stellung des Fahrzeugs 10 und einer Verarbeitungslast des Prozesses zum Aktualisieren des globalen Bewegungsplans auszugleichen, und es ermöglicht, eine hinreichend stabile Bewegungssteuerung zu erzielen.
  • Darüber hinaus ist es unter Verwendung des Vertrauensgrads zum Beispiel möglich, die Aktualisierungsfrequenz in Übereinstimmung mit einem Ausmaß eines Anstiegs der CPU-Verarbeitungslast oder dergleichen zu steuern. Anders ausgedrückt kann festgestellt werden, dass der Vertrauensgrad hinreichend als ein Index (Lastindexinformationen) fungiert, der eine Änderung in der für den Abschätzungsprozess notwendigen Verarbeitungslast anzeigt.
  • 13 ist ein Diagramm, das ein Beispiel einer Beziehung zwischen den Vertrauensgraden und den Aktualisierungsfrequenzen veranschaulicht. Eine horizontale Achse im Diagramm repräsentiert den Vertrauensgrad in einen Schätzwert (eigene Position) und die Vertrauensgrade werden durch Werte von 0 % bis 100 % repräsentiert. Eine vertikale Achse im Diagramm repräsentiert die Aktualisierungsfrequenzen (Neuplanungsrate) des globalen Bewegungsplans und die Frequenzen der Aktualisierung werden durch Werte von 0 Hz bis 1 Hz repräsentiert. Es ist anzumerken, dass eine Aktualisierungsfrequenz von 0 Hz bedeutet, dass die Aktualisierung angehalten ist.
  • Wie in 13 veranschaulicht sind die Aktualisierungsfrequenzen auf eine derartige Weise festgelegt, dass die Beziehung zwischen dem Vertrauensgrad und den Aktualisierungsfrequenzen eine lineare Form bildet. Anders ausgedrückt ändert die Frequenzsteuerungseinheit 40 die Aktualisierungsfrequenz als Reaktion auf eine Änderung im Vertrauensgrad linear. Im in 13 veranschaulichten Beispiel sind die Aktualisierungsfrequenzen durch eine Linie durch den Ursprung repräsentiert. Die Aktualisierungsfrequenz ist zum Beispiel in dem Fall, in dem der Vertrauensgrad 0 % ist, auf 0 Hz (Stopp) gesetzt, und die Aktualisierungsfrequenz ist in dem Fall, in dem der Vertrauensgrad 100 % ist, auf 1 Hz gesetzt. Wie oben beschrieben ist es möglich, den Ausgleich zwischen Verarbeitungslasten leicht zu steuern, indem die Aktualisierungsfrequenzen in Bezug auf den Vertrauensgrad linear gesteuert werden.
  • Es ist anzumerken, dass eine Steigung des Diagramms, eine obere Grenze der Aktualisierungsfrequenzen und dergleichen angemessen festgelegt werden können. Darüber hinaus ist es auch möglich, eine Steuerung unter Verwendung einer nicht linearen Funktion oder dergleichen anstatt der linearen Steuerung der Aktualisierungsfrequenzen durchzuführen. Darüber hinaus ist das Verfahren zum Steuern der Aktualisierungsfrequenzen auf Grundlage des Vertrauensgrads nicht eingeschränkt. Ein beliebiges Verfahren kann zum Beispiel verwendet werden, solange es möglich ist, die Verarbeitungslasten auszugleichen.
  • Wieder auf 9 Bezug nehmend, wird ein Prozess zum Abgleichen der Referenzinformationen und der Umgebungsinformationen ausgeführt (Schritt 105), wenn die Steuerung über die Aktualisierungsfrequenzen abgeschlossen ist. Genauer führt die Abgleichsprozesseinheit 31 einen Prozess zum Abgleichen der in Schritt 101 erfassten Umgebungsinformationen und dem in Schritt S103 herausgesuchten einen oder den mehreren Elementen von Referenzinformationen aus.
  • Im Prozess zum Abgleichen der Umgebungsinformationen und der jeweiligen Elemente der Referenzinformationen werden Übereinstimmungsraten zwischen den Umgebungsinformationen und in den jeweiligen Elementen der Referenzinformationen enthaltenen Schlüsselbildern berechnet. Ein Element der Referenzinformationen, dessen Übereinstimmungsrate zum Beispiel einen vorbestimmten Schwellenwert überschreitet, wird ähnlich wie die Umgebungsinformationen als Referenzinformationen behandelt und wird als die Korrekturreferenzinformationen zum Korrigieren des Schätzwerts bestimmt. In diesem Fall ist es auch möglich, eine Vielzahl von Elementen von Korrekturreferenzinformationen zu bestimmten.
  • Es ist anzumerken, dass in dem Fall, in dem es keine Referenzinformationen gibt, deren Übereinstimmungsrate den vorbestimmten Schwellenwert überschreitet, keine den Umgebungsinformationen ähnlichen Referenzinformationen herausgesucht werden und keine Korrekturreferenzinformationen bestimmt werden.
  • Ein Verfahren zum Bestimmen der Korrekturreferenzinformationen durch den Abgleichsprozess ist nicht eingeschränkt. Es ist zum Beispiel möglich, einen Prozess zum Bestimmen eines Elements von Referenzinformationen mit der höchsten Übereinstimmungsrate unter den Elementen von Referenzinformationen, deren Übereinstimmungsraten den vorbestimmten Schwellenwert überschreiten, als die Korrekturreferenzinformationen zu bestimmen. Darüber hinaus ist es auch möglich, die Korrekturreferenzinformationen auf Grundlage einer vom Schwellenwert verschiedenen Bedingung (wie Wetter oder Zeit) zu bestimmen.
  • Wenn der Abgleichsprozess abgeschlossen ist, wird ermittelt, ob die Korrekturreferenzinformationen bestimmt sind oder nicht (Schritt 106). In dem Fall, in dem ermittelt wird, dass die Korrekturreferenzinformationen nicht bestimmt sind (Nein in Schritt 106), werden die Prozesse in Schritt 101 bis Schritt 105 wieder ausgeführt. Anders ausgedrückt werden wiederum Umgebungsinformationen erfasst und der Prozess zum Suchen nach den Referenzinformationen wird ausgeführt. Deshalb kann festgestellt werden, dass der Abschätzungsprozess, der von der Eigenpositionsabschätzungseinheit 132 durchgeführt wird, bevor die Korrekturreferenzinformationen gefunden werden, die Phase des Suchens nach den Referenzinformationen ist.
  • In der Suchphase wird eine eigene Position des Fahrzeugs 10 nur durch den Koppelnavigationsprozess, der vom internen Sensor 24, wie den Rad-Drehgebern oder dem IMU-Sensor, durchgeführt wird, identifiziert (ein Abschätzungsprozess wird durchgeführt). Falls die Zeit, die für die Suchphase gebraucht wird, länger wird, verringert sich der Vertrauensgrad in den Schätzwert allmählich. Als Ergebnis wird der Suchbereich der Referenzinformationen breiter und der für den Abgleichsprozess notwendige CPU-Lastfaktor erhöht sich.
  • Auch in einem derartigen Fall ist es möglich, CPU-Lastfaktoren des gesamten Systems auf eine ausgeglichene Weise anzupassen, durch angemessenes Steuern der Aktualisierungsfrequenz des globalen Bewegungsplans (Schritt 104). Dies ermöglicht ein stabiles Fortführen jeweiliger Prozesse, die zum Steuern der Bewegung des Fahrzeugs 10 notwendig sind.
  • Darüber hinaus ist es zum Beispiel möglich, eine rechnerische Ressource (Verarbeitungskapazität der CPU), die für den Abgleichsprozess notwendig ist, hinreichend zu sichern, und es ist möglich, die Verarbeitungszeit des Abgleichsprozesses zu verkürzen. Als Ergebnis ist es möglich, eine Situation hinreichend zu vermeiden, in der der Abgleichsprozess Zeit braucht, eine Unsicherheit der Position ansteigt und ein nächster Abgleichsprozess mehr Zeit benötigt.
  • In dem Fall, in dem ermittelt wird, dass die Korrekturreferenzinformationen bestimmt wurden (Ja in Schritt 106), führt die Ortsidentifikationsprozesseinheit 32 den Ortsidentifikationsprozess (Schritt 107) aus. Jeweilige Absolutbeträge der aktuellen Position und Stellung des Fahrzeugs 10 werden zum Beispiel aus einem Ergebnis (Abgleichsinformationen) des Abgleichs der Korrekturreferenzinformationen und der Umgebungsinformationen berechnet, in Bezug auf die Erfassungsposition und die Erfassungsrichtung der Korrekturreferenzinformationen. Dies ermöglicht, die Position und Stellung des Fahrzeugs 10 auf der globalen Karte zu erkennen.
  • Die Korrekturprozesseinheit 33 ermittelt auf Grundlage einer vorbestimmten Ermittlungsbedingung, ob der Korrekturprozess unter Verwendung der schleifenschließenden Funktion auszuführen ist oder nicht (Schritt 108). Auf Grundlage der vorbestimmten Ermittlungsbedingung ist es möglich, verschiedene Arten von Situationen zu ermitteln, wie zum Beispiel, ob der Korrekturprozess notwendig ist oder nicht, und ob es möglich ist oder nicht, den Korrekturprozess auszuführen.
  • Es wird zum Beispiel ermittelt, ob der Korrekturprozess innerhalb einer vorbestimmten Zeitspanne ausgeführt wird. In diesem Fall wird die vorbestimmte Zeitspanne als die Ermittlungsbedingung verwendet. In dem Fall, in dem der Korrekturprozess zum Beispiel innerhalb der vorbestimmten Zeitspanne ausgeführt wird, wird ermittelt, dass der Schätzwert bereits hinreichend korrigiert wurde, und der Korrekturprozess nicht notwendig ist (es wird ermittelt, den Korrekturprozess nicht auszuführen). Umgekehrt wird in dem Fall, in dem der Korrekturprozess nicht innerhalb der vorbestimmten Zeitspanne ausgeführt wird, ermittelt, dass die Möglichkeit besteht, dass der Fehler im Schätzwert angestiegen ist, und der Korrekturprozess notwendig ist (es wird ermittelt, den Korrekturprozess auszuführen). Darüber hinaus ist ein Verfahren oder dergleichen zum Festlegen der vorbestimmten Ermittlungsbedingung nicht eingeschränkt. Es ist möglich, eine beliebige Bedingung zum Ermitteln zu verwenden, ob der Korrekturprozess auszuführen ist oder nicht.
  • In dem Fall, in dem ermittelt wird, den Korrekturprozess nicht auszuführen (Nein in Schritt 108), kehrt der Prozess zu Schritt 101 zurück und Prozesse zum Suchen nach nächsten Korrekturreferenzinformationen (Schritt 101 bis Schritt 107) werden ausgeführt. Darüber hinaus werden Informationen, die anzeigen, dass der Korrekturprozess nicht auszuführen ist, an die Frequenzsteuerungseinheit 40 als Ermittlungsinformationen ausgegeben. In diesem Fall fährt die globale Bewegungsplanungseinheit 41 fort, den globalen Bewegungsplan mit einer zu diesem Zeitpunkt festgelegten Aktualisierungsfrequenz zu aktualisieren.
  • In dem Fall, in dem ermittelt wird, den Korrekturprozess (Ja in Schritt 108) auszuführen, werden Informationen, die anzeigen, dass der Korrekturprozess auszuführen ist, an die Frequenzsteuerungseinheit 40 als Ermittlungsinformationen ausgegeben. In diesem Fall wird der globale Bewegungsplan angehalten (Schritt 109). Wie oben beschrieben, hält die Frequenzsteuerungseinheit 40 die globale Bewegungsplanungseinheit 41 davon ab, den globalen Bewegungsplan auf Grundlage der Ermittlungsinformationen zu aktualisieren. Ein Prozess zum temporären Festlegen der Aktualisierungsfrequenz des globalen Bewegungsplans auf 0 Hz wird zum Beispiel zum Zeitpunkt zum Erfassen der Ermittlungsinformationen ausgeführt, die anzeigen, dass der Korrekturprozess auszuführen ist (siehe 13).
  • Es ist anzumerken, dass auch in dem Fall, in dem eine Bereitstellung des globalen Bewegungsplans angehalten wird, mit einer Aktualisierung des lokalen Bewegungsplans (des Kursplans, wie eine Geschwindigkeit und Drehung der Räder) fortgefahren wird. Die lokale Bewegungsplanungseinheit 42 generiert zum Beispiel einen Kursplan zum sicheren Bewegen des Fahrzeugs 10 auf Grundlage eines Schnappschusses (wie Bildinformationen und Tiefeninformationen) zur aktuellen Zeit, der vom externen Sensor 25 erfasst wurde, oder dergleichen. Dies ermöglicht ein Fortfahren der sicheren Bewegungssteuerung, während der globale Bewegungsplan angehalten ist.
  • Die Korrekturprozesseinheit 33 führt einen Prozess zum Korrigieren des Schätzwerts unter Verwendung der schleifenschließenden Funktion durch (Schritt 110). 14 ist ein schematisches Diagramm, das ein Beispiel des Korrekturprozesses unter Verwendung der schleifenschließenden Funktion veranschaulicht.
  • Beispielsweise werden Informationen in Bezug auf vergangene Durchlaufpositionen des Fahrzeugs 10 und Stellungen an den Durchlaufpositionen, die in der Speichereinheit 111 gespeichert sind, das heißt, Informationen in Bezug auf Bewegungsbahnen, die das Fahrzeug in der Vergangenheit durchlaufen hat, erfasst. Derartige Informationen sind Schätzwerte, die beispielsweise durch den Koppelnavigationsprozess abgeschätzt wurden. Nach der schleifenschließenden Funktion werden die vergangenen Durchlaufpositionen des Fahrzeugs 10 und die Stellungen an den jeweiligen Durchlaufpositionen unter Verwendung der Absolutbeträge der Position und der Stellung, die in Schritt 107 berechnet wurden, als Kriterien korrigiert.
  • 14 veranschaulicht vergangene Positionen R1 bis R3 des Fahrzeugs 10 und korrigierte Positionen R1' bis R3' des Fahrzeugs 10 schematisch. Es ist anzumerken, dass eine Position R4 eine Position ist, an der der Korrekturprozess in der Vergangenheit unter Verwendung der schleifenschließenden Funktion durchgeführt wurde. Wie in 14 veranschaulicht, ist es möglich, die Positionen, die das Fahrzeug in der Vergangenheit durchlaufen hat, und die Stellungen an den jeweiligen Positionen durch Durchführen des Korrekturprozesses zu korrigieren.
  • Dies ermöglicht, den Fehler oder dergleichen, der im Koppelnavigationsprozess aufgetreten ist, hinreichend zu reduzieren. Darüber hinaus ist es auch möglich, eine Karte mit sehr hoher Genauigkeit (eine lokale Karte, wie die Eigenpositionsabschätzungskarte) durch Durchführen des Korrekturprozesses einschließlich einer Korrektur der Bewegungsbahnen zu erstellen, die das Fahrzeug in der Vergangenheit durchlaufen hat. Die schleifenschließende Funktion wird unter Verwendung einer Technologie wie beispielsweise GraphSLAM erzielt.
  • 15 ist eine Tabelle, die eine Beziehung zwischen der Aktualisierungsfrequenz des globalen Bewegungsplans und CPU-Lastfaktoren in einer Phase des Ausführens eines Schätzwertkorrekturprozesses anzeigt. Im Fall des Ausführens des Schätzwertkorrekturprozesses wird erwogen, dass ein Vertrauensgrad in den Schätzwert gering ist, das heißt, der Korrekturprozess ist notwendig. Es ist anzumerken, dass die schleifenschließende Funktion manchmal auch in dem Fall ausgeführt werden kann, in dem der Vertrauensgrad in den Schätzwert hoch ist.
  • Wie in 15 illustriert, erhöht sich ein CPU-Lastfaktor temporär in einer Schätzwertkorrekturphase, das heißt, in einer Phase zum Korrigieren einer vergangenen Bewegungsbahn, die das Fahrzeug 10 durchlaufen hat. In der Schätzwertkorrekturphase wird jedoch eine Aktualisierung des globalen Bewegungsplans temporär angehalten und ein CPU-Lastfaktor, der notwendig ist, um den globalen Bewegungsplan zu aktualisieren, ist null.
  • Wie oben beschrieben, ist es in dem Fall des Ausführens des Korrekturprozesses möglich, eine hinreichende Rechenkapazität der CPU vorzubereiten, indem eine Aktualisierung des globalen Bewegungsplans angehalten wird. Dies ermöglicht, eine Fehlfunktion (wie eine Verzögerung oder ein Einfrieren in jedem Prozess), die beispielsweise durch eine Erhöhung in einer Durchsatzmenge verursacht wird, hinreichend zu vermeiden. Als Ergebnis ist es möglich, die Bewegungssteuerung des mobilen Gegenstands enorm zu stabilisieren. Dies ermöglicht eine sichere Steuerung der Bewegung mit hoher Genauigkeit.
  • Zu 9 zurückkehrend, wenn der Korrekturprozess abgeschlossen ist, wird die Aktualisierung des globalen Bewegungsplans wieder gestartet (Schritt 111). Die Frequenzsteuerungseinheit 40 legt zum Beispiel die Aktualisierungsfrequenz auf Grundlage des Vertrauensgrads in den korrigierten Schätzwert fest und startet die Aktualisierung des globalen Bewegungsplans neu. Dies ermöglicht eine Verbesserung der Genauigkeit der Aktualisierung des globalen Bewegungsplans.
  • Wenn Schritt 111 abgeschlossen ist, kehrt der Prozess zu Schritt 101 zurück und die oben beschriebenen Prozesse werden wiederholt.
  • Wie oben beschrieben führt die Eigenpositionsabschätzungseinheit 132 alternierend den Prozess (die Suchphase) des Suchens nach den Korrekturreferenzinformationen und den Korrekturprozess (die Korrekturphase) unter Verwendung der Korrekturreferenzinformationen durch. Darüber hinaus wird die Aktualisierungsfrequenz des globalen Bewegungsplans in Übereinstimmung mit CPU-Lastfaktoren in jeweiligen Phasen des Abschätzungsprozesses gesteuert, die von der Eigenpositionsabschätzungseinheit 132 durchgeführt werden. Als Ergebnis ist es möglich, Verarbeitungslasten des gesamten Systems während der Bewegungssteuerung angemessen beizubehalten, und es ist möglich, die Bewegung mit hinreichender Stabilität zu steuern.
  • Wie oben beschrieben steuert die autonome Fahrsteuerungseinheit 112 nach der vorliegenden Ausführungsform eine Aktualisierungsfrequenz von Bewegungsplänen des Fahrzeugs 10 auf Grundlage von Lastindexinformationen, die als ein Index einer Verarbeitungslast des Abschätzungsprozesses zum Abschätzen mindestens einer von einer Position oder einer Stellung des Fahrzeugs 10 dienen. Dies ermöglicht eine Steuerung einer Verarbeitungslast, die zur Bewegungssteuerung notwendig ist, und eine stabile Steuerung der Bewegung.
  • Als Verfahren zur Steuerung einer Bewegung des Fahrzeugs wird ein Verfahren zum Neuplanen einer Route in Übereinstimmung mit einer Änderung im Außenumfeld des Fahrzeugs erwogen. Die Position und die Stellung des Fahrzeugs werden beispielsweise angemessen in Übereinstimmung mit einer Änderung in Positionen von anderen Fahrzeugen, Fußgängern und dergleichen gesteuert. Eine neue Route wird in dem Fall neu geplant, in dem sich die Position oder die Stellung des Fahrzeugs in dieser Prozedur ändert. Nach diesem Verfahren werden verschiedene Arten von Prozessen, wie ein Prozess zum Erkennen und Identifizieren der anderen Fahrzeuge und dergleichen und ein Prozess zum Neuplanen der Route, zusätzlich zum Prozess zum Abschätzen der eigenen Position des Fahrzeugs ausgeführt. Deshalb besteht die Möglichkeit, dass sich eine Belastung der CPU erhöht und eine Fehlfunktion wie eine Verzögerung oder ein Einfrieren in einem Prozess auftritt.
  • Nach der vorliegenden Ausführungsform wird die Aktualisierungsfrequenz des globalen Bewegungsplans auf Grundlage der Lastindexinformationen gesteuert, die als ein Index einer Verarbeitungslast dienen, die für den von der Eigenpositionsabschätzungseinheit 132 durchgeführten Abschätzungsprozess notwendig ist. Dies ermöglicht ein angemessenes Steuern von Verarbeitungslasten am gesamten System in Übereinstimmung mit der für den Abschätzungsprozess notwendigen Verarbeitungslast. Als Ergebnis ist es möglich, Auswirkungen (wie eine Verzögerung oder ein Einfrieren) einer Erhöhung der Verarbeitungslast des Abschätzungsprozesses auf andere Prozesse hinreichend zu unterdrücken.
  • Der Abschätzungsprozess ist beispielsweise grob in jeweilige Phasen klassifiziert, einschließlich der Phase zum Suchen nach den Referenzinformationen in dem Fall, in dem ein Vertrauensgrad in den Schätzwert hoch ist, der Phase zum Suchen nach den Referenzinformationen in dem Fall, in dem ein Vertrauensgrad in den Schätzwert niedrig ist, und der Korrekturphase zum Korrigieren des Schätzwerts, in aufsteigender Reihenfolge von CPU-Lastfaktoren (siehe 12 und 15). Gesamtverarbeitungslasten werden durch Ändern der Aktualisierungsfrequenz des globalen Bewegungsplans in Bezug auf die CPU-Lastfaktoren in den jeweiligen Phasen angepasst.
  • In den Suchphasen wird die Aktualisierungsfrequenz gesteuert, während der Vertrauensgrad als ein Index verwendet wird. Unter Verwendung des Vertrauensgrads ist es zum Beispiel möglich, die Aktualisierungsfrequenz in Übereinstimmung mit einer Verarbeitungslast festzulegen, die für den Abgleichsprozess oder dergleichen notwendig ist. Darüber hinaus ist es möglich, einen Energieverbrauch zu unterdrücken, da der globale Bewegungsplan nicht mit einer bestimmten Rate redundant aktualisiert wird. Deshalb ist es möglich, eine Lebensdauer der Batterie oder dergleichen zu erhöhen.
  • Darüber hinaus wird die Aktualisierung in der Korrekturphase angehalten, während Auslöseinformationen als ein Index verwendet werden. Dies ermöglicht ein Sicherstellen einer Verarbeitungskapazität der CPU vorab, bevor sich der CPU-Lastfaktor aufgrund der schleifenschließenden Funktion oder dergleichen erhöht. Als Ergebnis ist es möglich, eine Fehlfunktion, wie ein Einfrieren, hinreichend zu verhindern, und es ist möglich, eine sichere und zuverlässige autonome Bewegungssteuerung zu erzielen.
  • Wie oben beschrieben, nach der vorliegenden Technologie, ist es möglich, mit der Abschätzung der eigenen Position des Fahrzeugs 10 auch in einer Umgebung fortzufahren, in der es unmöglich ist, den GPS-Sensor oder dergleichen zu verwenden (wie zum Beispiel in einem Tunnel oder einem Innenbereich). Als Ergebnis ist es möglich, die autonome Bewegungssteuerung auf eine derartige Weise zu erzielen, dass sich das Fahrzeug 10 in verschiedenen Umgebungen sicher bewegt.
  • <Andere Ausführungsformen>
  • Die vorliegende Erfindung ist nicht auf die oben beschriebene Ausführungsformen beschränkt. Es sind verschiedene andere Ausführungsformen möglich.
  • In der oben beschriebenen Ausführungsform wird die Referenzinformationsdatenbank unter Verwendung der Kartengenerierungsfahrzeuge konstruiert. Die vorliegende Technologie ist nicht darauf beschränkt. Es ist auch möglich, dass das Fahrzeug die Referenzinformationen selbst erfasst und die Referenzinformationsdatenbank konstruiert. Ein Schlüsselbild (wie Bildinformationen und Tiefeninformationen), das unter Verwendung des externen, im Fahrzeug installierten Sensors erfasst wird, und eine Position und eine Stellung des Fahrzeugs, die zum Zeitpunkt der Erfassung des Schlüsselbilds erhalten werden, werden zum Beispiel in der Referenzinformationsdatenbank als die Referenzinformationen gespeichert.
  • In diesem Fall werden Schätzwerte der aktuellen Position und Stellung des Fahrzeugs auf der Grundlage der Referenzinformationen korrigiert, die vom Fahrzeug selbst in der Vergangenheit erfasst wurden. Dementsprechend werden unter Verwendung des gleichen Sensors (des externen Sensors) erhaltene Schlüsselbilder miteinander verglichen und dies ermöglicht, die Schätzwerte genau zu korrigieren. Es ist anzumerken, dass es auch in dem Fall, in dem die Referenzinformationsdatenbank vom Fahrzeug selbst konstruiert wird, möglich ist, die Bewegung durch angemessenes Steuern der Aktualisierungsfrequenz des globalen Bewegungsplans stabil zu steuern.
  • Im in 9 veranschaulichten Ablaufdiagramm wird ein Prozess zum Anpassen der Aktualisierungsfrequenz des globalen Bewegungsplans ausgeführt, bevor der Abgleichsprozess beginnt. Die Zeitgebung oder dergleichen des Anpassens der Aktualisierungsfrequenz ist jedoch nicht eingeschränkt. Die Schätzwerte und der Vertrauensgrad werden zum Beispiel durch den Koppelnavigationsprozess berechnet, während der Abgleichsprozess ausgeführt wird. Es ist auch möglich, die Aktualisierungsfrequenz des globalen Bewegungsplans auf Grundlage der Vertrauensgrade anzupassen, während der Abgleichsprozess ausgeführt wird. Dies ermöglicht ein detailliertes Festlegen der Aktualisierungsfrequenz und dies ermöglicht ein Anpassen des CPU-Lastfaktors oder dergleichen mit hoher Genauigkeit.
  • Darüber hinaus wird in der oben beschriebenen Ausführungsform der Prozess zum Ermitteln ausgeführt, ob der Korrekturprozess auszuführen ist oder nicht (Schritt S108 in 9). Die vorliegende Technologie ist nicht darauf beschränkt. Der Prozess zum Ermitteln, ob der Korrekturprozess auszuführen ist, kann zum Beispiel nicht durchgeführt werden. In diesem Fall wird beispielsweise eine Aktualisierung des globalen Bewegungsplans zu einem Zeitpunkt der Entscheidung der Korrekturreferenzinformationen angehalten. Als Nächstes wird die Aktualisierung des globalen Bewegungsplans neu gestartet, nachdem der Korrekturprozess ausgeführt wurde. Der oben beschriebene Prozess kann zum Beispiel ausgeführt werden.
  • In der oben beschriebenen Ausführungsform steuert die Frequenzsteuerungseinheit die Aktualisierungsfrequenz des globalen Bewegungsplans auf Grundlage der Lastindexinformationen. Die vorliegende Technologie ist nicht darauf beschränkt. Es ist auch möglich, eine Aktualisierungsfrequenz des lokalen Bewegungsplans zu steuern. Darüber hinaus ist es möglich, einen Prozess zum Steuern der jeweiligen Aktualisierungsfrequenzen des globalen Bewegungsplans und des lokalen Bewegungsplans auszuführen. Wie oben beschrieben ist es möglich, die Verarbeitungsbelastung des gesamten Systems durch angemessenes Steuern der Aktualisierungsfrequenzen der jeweiligen Bewegungspläne angemessen beizubehalten.
  • Darüber hinaus kann es möglich sein, eine Situation des Aktualisierungsprozesses zu melden, wie zum Beispiel Informationen, die anzeigen, dass der globale Bewegungsplan „aktualisiert wird“, oder Informationen, die anzeigen, dass der globale Bewegungsplan „bereits aktualisiert wurde“. Ein vorbestimmtes Benachrichtigungsbild (wie ein Symbol), das eine Situation des Aktualisierungsprozesses anzeigt, wird zum Beispiel generiert und das vorbestimmte Benachrichtigungsbild wird angemessen auf einer Anzeige oder dergleichen angezeigt, die in der in 2 veranschaulichten Ausgabeeinheit 106 enthalten ist. Dies ermöglicht Passagieren beispielsweise, leicht zu prüfen, ob der globale Bewegungsplan aktualisiert wurde.
  • In der oben beschriebenen Ausführungsform führt die autonome Fahrsteuerungseinheit das Informationsverarbeitungsverfahren nach der vorliegenden Technologie aus, wobei das Informationsverarbeitungsverfahren eine Steuerung über die Aktualisierungsfrequenz der Bewegungspläne oder dergleichen aufweist. Die vorliegende Technologie ist nicht darauf beschränkt. Es ist auch möglich, dass ein Cloud-Server das Informationsverarbeitungsverfahren nach der vorliegenden Technologie ausführt. Anders ausgedrückt können die Funktionen der autonomen Fahrsteuerungseinheit im Cloud-Server installiert sein. In diesem Fall arbeitet der Cloud-Server als Informationsverarbeitungseinrichtung nach der vorliegenden Technologie.
  • Wenn darüber hinaus ein Computer (die autonome Fahrsteuerungseinheit), der im Fahrzeug installiert ist, und ein anderer Computer (der Cloud-Server), der zur Kommunikation über das Netzwerk oder dergleichen fähig ist, miteinander zusammenarbeiten, werden das Informationsverarbeitungsverfahren und das Programm nach der vorliegenden Technologie ausgeführt und dies ermöglicht, die Informationsverarbeitungseinrichtung nach der vorliegenden Technologie zu konfigurieren.
  • Anders ausgedrückt können das Informationsverarbeitungsverfahren und das Programm nach der vorliegenden Technologie nicht nur in einem durch einen einzelnen Computer konfigurierten Computersystem, sondern auch in einem Computersystem ausgeführt werden, in dem eine Vielzahl von Computern miteinander zusammenarbeitet. Es ist anzumerken, dass das System in der vorliegenden Offenbarung eine Anhäufung einer Vielzahl von Komponenten (wie Einrichtungen oder Module (Teile)) bedeutet und es egal ist, ob alle Komponenten im gleichen Gehäuse untergebracht sind oder nicht. Deshalb sind sowohl eine Vielzahl von Einrichtungen, die in separaten Gehäusen untergebracht sind und über ein Netzwerk miteinander verbunden sind, als auch eine einzelne Einrichtung mit einer Vielzahl von Modulen, die in einem einzigen Gehäuse untergebracht sind, beide das System.
  • Die Ausführung des Informationsverarbeitungsverfahrens und des Programms nach der vorliegenden Technologie durch das Computersystem weist zum Beispiel sowohl den Fall, in dem die Abschätzung mindestens einer von der Position oder der Stellung des Fahrzeugs, die Generierung der Bewegungspläne zum Bewegen des Fahrzeugs, die Steuerung der Aktualisierungsfrequenz der Bewegungspläne und dergleichen von einem einzelnen Computer ausgeführt werden, als auch den Fall auf, in dem diese Prozesse von verschiedenen Computern ausgeführt werden. Ferner weist die Ausführung der jeweiligen Prozesse durch einen vorbestimmten Computer ein Bewirken, dass ein anderer Computer einige oder alle dieser Prozesse ausführt, und ein Erfassen von Ergebnissen davon auf.
  • Anders ausgedrückt sind das Informationsverarbeitungsverfahren und das Programm nach der vorliegenden Technologie auch auf eine Cloudrechenkonfiguration anwendbar, in der eine Funktion von einer Vielzahl von Einrichtungen über ein Netzwerk gemeinsam genutzt und zusammenwirkend verarbeitet wird.
  • In den oben beschriebenen Ausführungsformen erfolgte die Beschreibung unter Verwendung des Fahrzeugs als ein Beispiel des mobilen Gegenstands. Die vorliegende Technologie ist jedoch auf einen beliebigen Typ von mobilem Gegenstand und dergleichen anwendbar. Ein autonomer mobiler Roboter oder dergleichen wird beispielsweise als der mobile Gegenstand erwogen. Als eine Bewegungsumgebung des autonomen mobilen Roboters werden verschiedene Umgebungen, wie ein Außenbereich wie eine Straße oder ein Park, ein Innenbereich wie ein Krankenhaus oder ein Einkaufszentrum und ein Raumbereich wie ein Büro oder ein Wohnzimmer angenommen. Der autonome mobile Roboter führt den Eigenpositionsabschätzungsprozess, den Bewegungsplangenerierungsprozess und dergleichen in Bezug auf eine Umgebung aus, in der sich der Roboter selbst bewegt, und bewegt sich an ein Ziel.
  • Es ist zum Beispiel möglich, die Verarbeitungslasten des gesamten Systems durch Steuern der Aktualisierungsfrequenz des Bewegungsplans auf Grundlage von Informationen, die als ein Index einer Verarbeitungslast dienen, die für einen Prozess zum Abschätzen der eigenen Position des autonomen mobilen Roboters notwendig ist, angemessen zu steuern. Dies ermöglicht, ein Einfrieren des autonomen mobilen Roboters oder dergleichen zu verhindern, und die Bewegung stabil zu steuern. Darüber hinaus ist es auch möglich, eine Energieversorgung der CPU oder dergleichen zu mindern, und es ist möglich, eine Betriebsdauer des autonomen mobilen Roboters zu erhöhen.
  • Darüber hinaus kann die Technologie nach der vorliegenden Offenbarung auf verschiedene Produkte angewandt werden. Die Technologie nach der vorliegenden Offenbarung kann zum Beispiel als eine Einrichtung realisiert sein, die in einer beliebigen Art von mobilem Gegenstand installiert ist, wie zum Beispiel in Fahrzeugen, Elektrofahrzeugen, Hybrid-Elektrofahrzeugen, Motorrädern, Fahrrädern, Personentransportern, Flugzeugen, Drohnen, Schiffen, Robotern, schwerer Ausrüstung, landwirtschaftlichen Maschinen (Traktoren) und dergleichen.
  • Von den Merkmalsteilen nach der oben beschriebenen vorliegenden Technologie können mindestens zwei Merkmalsteile kombiniert werden. Das heißt, die verschiedenen Merkmalsteile, die in den jeweiligen Ausführungsformen beschrieben wurden, können beliebig unabhängig von den Ausführungsformen kombiniert werden. Ferner sind verschiedene oben beschriebene Wirkungen nur Beispiele und sind nicht eingeschränkt und es können andere Wirkungen auftreten.
  • Von den Merkmalsteilen nach den oben beschriebenen Ausführungsformen können mindestens zwei Merkmalsteile kombiniert werden.
  • Es ist anzumerken, dass die vorliegende Technologie auch wie unten konfiguriert sein kann.
    • (1) Eine Informationsverarbeitungsvorrichtung, aufweisend:
      • eine Abschätzungseinheit, die mindestens eine von einer Position oder einer Stellung eines mobilen Gegenstands abschätzt;
      • eine Generierungseinheit, die einen Bewegungsplan zum Bewegen des mobilen Gegenstands generiert; und
      • eine Frequenzsteuerungseinheit, die eine Frequenz einer Aktualisierung des Bewegungsplans steuert, die von der Generierungseinheit durchzuführen ist, auf Grundlage von Lastindexinformationen, die als ein Index einer Belastung der Abschätzungseinheit dienen.
    • (2) Die Informationsverarbeitungsvorrichtung nach (1), wobei
      • die Lastindexinformationen einen Vertrauensgrad in ein Schätzergebnis der von der Abschätzungseinheit durchgeführten Abschätzung aufweisen und
      • die Frequenzsteuerungseinheit die Aktualisierungsfrequenz des Bewegungsplans auf Grundlage des Vertrauensgrades steuert.
    • (3) Die Informationsverarbeitungsvorrichtung nach (2), wobei die Frequenzsteuerungseinheit die Aktualisierungsfrequenz höher einstellt, wenn der Vertrauensgrad ansteigt, und die Aktualisierungsfrequenz niedriger einstellt, wenn der Vertrauensgrad sinkt.
    • (4) Die Informationsverarbeitungsvorrichtung nach (2) oder (3), wobei die Frequenzsteuerungseinheit die Aktualisierungsfrequenz als Reaktion auf eine Änderung im Vertrauensgrad linear ändert.
    • (5) Die Informationsverarbeitungsvorrichtung nach einem von (2) bis (4), wobei
      • die Generierungseinheit einen globalen Bewegungsplan des mobilen Gegenstands und einen lokalen Bewegungsplan des mobilen Gegenstands generiert und
      • die Frequenzsteuerungseinheit die Aktualisierungsfrequenz des globalen Bewegungsplans auf Grundlage des Vertrauensgrades steuert.
    • (6) Die Informationsverarbeitungsvorrichtung nach (5), wobei der globale Bewegungsplan einen Routenplan des mobilen Gegenstands zu einem Ziel aufweist.
    • (7) Die Informationsverarbeitungsvorrichtung nach (5) oder (6), wobei der lokale Bewegungsplan einen Kursplan aufweist, der eine Bewegungsrichtung des mobilen Gegenstands von einer aktuellen Position anzeigt.
    • (8) Die Informationsverarbeitungsvorrichtung nach einem von (2) bis (7), wobei
      • der mobile Gegenstand einen Verhaltenssensor aufweist, der Verhaltensinformationen in Bezug auf ein Verhalten des mobilen Gegenstands detektiert, und
      • die Abschätzungseinheit einen Abschätzungsprozess durch eine autonome Navigation auf Grundlage der vom Verhaltenssensor erkannten Verhaltensinformationen ausführt und den Vertrauensgrad in das Schätzergebnis berechnet.
    • (9) Die Informationsverarbeitungsvorrichtung nach einem von (2) bis (8), wobei
      • der mobile Gegenstand einen Umgebungssensor aufweist, der Umgebungsinformationen in Bezug auf ein Außenumfeld des mobilen Gegenstands erkennt, und
      • die Abschätzungseinheit Korrekturreferenzinformationen zum Korrigieren des Schätzergebnisses durch Suchen nach einem oder mehreren Referenzinformationselementen, die mit dem Außenumfeld um den mobilen Gegenstand herum verbunden sind, auf Grundlage des Schätzergebnisses beschließt und einen Abgleichsprozess des einen oder der mehreren herausgesuchten Referenzinformationselemente und der vom Umgebungssensor erkannten Umgebungsinformationen ausführt.
    • (10) Die Informationsverarbeitungsvorrichtung nach (9), wobei die Abschätzungseinheit einen Suchbereich der Referenzinformationen auf Grundlage des Vertrauensgrads festlegt.
    • (11) Die Informationsverarbeitungsvorrichtung nach (10), wobei die Abschätzungseinheit den Suchbereich auf einen engeren Bereich festlegt, wenn der Vertrauensgrad ansteigt, und den Suchbereich auf einen breiteren Bereich festlegt, wenn der Vertrauensgrad sinkt.
    • (12) Die Informationsverarbeitungsvorrichtung nach einem von (9) bis (11), wobei die Lastindexinformationen Ausführungsinformationen aufweisen, die anzeigen, ob auf Grundlage der Korrekturreferenzinformationen ein Korrekturprozess am Schätzergebnis auszuführen ist oder nicht.
    • (13) Die Informationsverarbeitungsvorrichtung nach (12), wobei der Korrekturprozess ein Prozess zum Korrigieren eines aktuellen Schätzergebnisses und eines vergangenen Schätzergebnisses des mobilen Gegenstands ist.
    • (14) Die Informationsverarbeitungsvorrichtung nach (12) oder (13), wobei die Frequenzsteuerungseinheit die Generierungseinheit davon abhält, den Bewegungsplan auf Grundlage der Ausführungsinformationen zu aktualisieren.
    • (15) Die Informationsverarbeitungsvorrichtung nach (12) oder (13), wobei
      • die Generierungseinheit einen globalen Bewegungsplan des mobilen Gegenstands und einen lokalen Bewegungsplan des mobilen Gegenstands generiert und
      • die Frequenzsteuerungseinheit die Generierungseinheit davon abhält, den globalen Bewegungsplan auf Grundlage der Ausführungsinformationen zu aktualisieren.
    • (16) Die Informationsverarbeitungsvorrichtung nach einem von (12) bis (15), wobei die Abschätzungseinheit ermittelt, ob der Korrekturprozess auszuführen ist oder nicht, und den Korrekturprozess als Reaktion auf ein Ermittlungsergebnis ausführt.
    • (17) Die Informationsverarbeitungsvorrichtung nach (16), wobei in dem Fall, in dem ermittelt wird, den Korrekturprozess auszuführen, die Abschätzungseinheit Informationen an die Frequenzsteuerungseinheit als die Ausführungsinformationen ausgibt, wobei die Informationen anzeigen, dass der Korrekturprozess auszuführen ist.
  • Bezugszeichenliste
  • 10
    Fahrzeug
    24
    interner Sensor
    25
    externer Sensor
    26
    Referenzinformationsdatenbank
    30
    DR-Prozesseinheit
    31
    Abgleichsprozesseinheit
    32
    Ortsidentifikationsprozesseinheit
    33
    Korrekturprozesseinheit
    40
    Frequenzsteuerungseinheit
    41
    globale Bewegungsplanungseinheit
    42
    lokale Bewegungsplanungseinheit
    52
    geplante Route
    54
    Kurs
    60, 60a bis 60g
    Referenzinformationen
    65
    Suchbereich
    102
    Datenerfassungseinheit
    112
    autonome Fahrsteuerungseinheit
    132
    Eigenpositionsabschätzungseinheit
    134
    Planungseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP H06259131 A [0003]

Claims (20)

  1. Informationsverarbeitungsvorrichtung, umfassend: eine Abschätzungseinheit, die mindestens eine von einer Position oder einer Stellung eines mobilen Gegenstands abschätzt; eine Generierungseinheit, die einen Bewegungsplan zum Bewegen des mobilen Gegenstands generiert; und eine Frequenzsteuerungseinheit, die eine Frequenz einer Aktualisierung des Bewegungsplans steuert, die von der Generierungseinheit durchzuführen ist, auf Grundlage von Lastindexinformationen, die als ein Index einer Belastung der Abschätzungseinheit dienen.
  2. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Lastindexinformationen einen Vertrauensgrad in ein Schätzergebnis der von der Abschätzungseinheit durchgeführten Abschätzung aufweisen und die Frequenzsteuerungseinheit die Aktualisierungsfrequenz des Bewegungsplans auf Grundlage des Vertrauensgrades steuert.
  3. Informationsverarbeitungsvorrichtung nach Anspruch 2, wobei die Frequenzsteuerungseinheit die Aktualisierungsfrequenz höher einstellt, wenn der Vertrauensgrad ansteigt, und die Aktualisierungsfrequenz niedriger einstellt, wenn der Vertrauensgrad sinkt.
  4. Informationsverarbeitungsvorrichtung nach Anspruch 2, wobei die Frequenzsteuerungseinheit die Aktualisierungsfrequenz als Reaktion auf eine Änderung im Vertrauensgrad linear ändert.
  5. Informationsverarbeitungsvorrichtung nach Anspruch 2, wobei die Generierungseinheit einen globalen Bewegungsplan des mobilen Gegenstands und einen lokalen Bewegungsplan des mobilen Gegenstands generiert und die Frequenzsteuerungseinheit die Aktualisierungsfrequenz des globalen Bewegungsplans auf Grundlage des Vertrauensgrades steuert.
  6. Informationsverarbeitungsvorrichtung nach Anspruch 5, wobei der globale Bewegungsplan einen Routenplan des mobilen Gegenstands zu einem Ziel aufweist.
  7. Informationsverarbeitungsvorrichtung nach Anspruch 5, wobei der lokale Bewegungsplan einen Kursplan aufweist, der eine Bewegungsrichtung des mobilen Gegenstands von einer aktuellen Position anzeigt.
  8. Informationsverarbeitungsvorrichtung nach Anspruch 2, wobei der mobile Gegenstand einen Verhaltenssensor aufweist, der Verhaltensinformationen in Bezug auf ein Verhalten des mobilen Gegenstands detektiert, und die Abschätzungseinheit einen Abschätzungsprozess durch eine autonome Navigation auf Grundlage der vom Verhaltenssensor erkannten Verhaltensinformationen ausführt und den Vertrauensgrad in das Schätzergebnis berechnet.
  9. Informationsverarbeitungsvorrichtung nach Anspruch 2, wobei der mobile Gegenstand einen Umgebungssensor aufweist, der Umgebungsinformationen in Bezug auf ein Außenumfeld um den mobilen Gegenstand herum erkennt, und die Abschätzungseinheit Korrekturreferenzinformationen zum Korrigieren des Schätzergebnisses durch Suchen nach einem oder mehreren Referenzinformationselementen, die mit dem Außenumfeld um den mobilen Gegenstand herum verbunden sind, auf Grundlage des Schätzergebnisses beschließt und einen Abgleichsprozess des einen oder der mehreren herausgesuchten Referenzinformationselemente und der vom Umgebungssensor erkannten Umgebungsinformationen ausführt.
  10. Informationsverarbeitungsvorrichtung nach Anspruch 9, wobei die Abschätzungseinheit einen Suchbereich der Referenzinformationen auf Grundlage des Vertrauensgrads festlegt.
  11. Informationsverarbeitungsvorrichtung nach Anspruch 10, wobei die Abschätzungseinheit den Suchbereich auf einen engeren Bereich festlegt, wenn der Vertrauensgrad ansteigt, und den Suchbereich auf einen breiteren Bereich festlegt, wenn der Vertrauensgrad sinkt.
  12. Informationsverarbeitungsvorrichtung nach Anspruch 9, wobei die Lastindexinformationen Ausführungsinformationen aufweisen, die anzeigen, ob auf Grundlage der Korrekturreferenzinformationen ein Korrekturprozess am Schätzergebnis auszuführen ist oder nicht.
  13. Informationsverarbeitungsvorrichtung nach Anspruch 12, wobei der Korrekturprozess ein Prozess zum Korrigieren eines aktuellen Schätzergebnisses und eines vergangenen Schätzergebnisses des mobilen Gegenstands ist.
  14. Informationsverarbeitungsvorrichtung nach Anspruch 12, wobei die Frequenzsteuerungseinheit die Generierungseinheit davon abhält, den Bewegungsplan auf Grundlage der Ausführungsinformationen zu aktualisieren.
  15. Informationsverarbeitungsvorrichtung nach Anspruch 12, wobei die Generierungseinheit einen globalen Bewegungsplan des mobilen Gegenstands und einen lokalen Bewegungsplan des mobilen Gegenstands generiert und die Frequenzsteuerungseinheit die Generierungseinheit davon abhält, den globalen Bewegungsplan auf Grundlage der Ausführungsinformationen zu aktualisieren.
  16. Informationsverarbeitungsvorrichtung nach Anspruch 12, wobei die Abschätzungseinheit ermittelt, ob der Korrekturprozess auszuführen ist oder nicht, und den Korrekturprozess als Reaktion auf ein Ermittlungsergebnis ausführt.
  17. Informationsverarbeitungsvorrichtung nach Anspruch 16, wobei in einem Fall, in dem ermittelt wird, den Korrekturprozess auszuführen, die Abschätzungseinheit Informationen an die Frequenzsteuerungseinheit als die Ausführungsinformationen ausgibt, wobei die Informationen anzeigen, dass der Korrekturprozess auszuführen ist.
  18. Informationsverarbeitungsverfahren, das ein Computersystem veranlasst: mindestens eine von einer Position oder einer Stellung eines mobilen Gegenstands abzuschätzen; einen Bewegungsplan zum Bewegen des mobilen Gegenstands zu generieren; und eine Frequenz zum Aktualisieren des Bewegungsplans auf Grundlage von Lastindexinformationen zu steuern, die als ein Index einer Last des Abschätzungsprozesses zum Abschätzen mindestens einer von der Position oder von der Stellung des mobilen Gegenstands dienen.
  19. Programm, das ein Computersystem veranlasst, Folgendes auszuführen: einen Schritt zum Abschätzen mindestens einer von einer Position oder einer Stellung eines mobilen Gegenstands; einen Schritt zum Generieren eines Bewegungsplans zum Bewegen des mobilen Gegenstands; und einen Schritt zum Steuern der Aktualisierungsfrequenz des Bewegungsplans auf Grundlage von Lastindexinformationen, die als ein Index einer Last des Abschätzungsprozesses zum Abschätzen mindestens einer von der Position oder von der Stellung des mobilen Gegenstands dienen.
  20. Mobiler Gegenstand, umfassend: eine Abschätzungseinheit, die mindestens eine von einer Position oder einer Stellung des mobilen Gegenstands abschätzt; eine Generierungseinheit, die einen Bewegungsplan zum Bewegen des mobilen Gegenstands generiert; eine Frequenzsteuerungseinheit, die eine Frequenz einer Aktualisierung des Bewegungsplans steuert, die von der Generierungseinheit durchzuführen ist, auf Grundlage von Lastindexinformationen, die als ein Index einer Belastung der Abschätzungseinheit dienen; und eine Bewegungssteuerungseinheit, die eine Bewegung des mobilen Gegenstands auf Grundlage des generierten Bewegungsplans steuert.
DE112018005907.3T 2017-11-20 2018-10-30 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper Pending DE112018005907T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017222961 2017-11-20
JP2017-222961 2017-11-20
PCT/JP2018/040213 WO2019098002A1 (ja) 2017-11-20 2018-10-30 情報処理装置、情報処理方法、プログラム、及び移動体

Publications (1)

Publication Number Publication Date
DE112018005907T5 true DE112018005907T5 (de) 2020-07-30

Family

ID=66538966

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018005907.3T Pending DE112018005907T5 (de) 2017-11-20 2018-10-30 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper

Country Status (3)

Country Link
US (1) US11661084B2 (de)
DE (1) DE112018005907T5 (de)
WO (1) WO2019098002A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022031164A1 (en) * 2020-08-01 2022-02-10 Richard Henricus Adrianus Van Lieshout Cultivation system equipped with a harvesting robot

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7171425B2 (ja) * 2018-12-27 2022-11-15 フォルシアクラリオン・エレクトロニクス株式会社 移動量推定装置
KR102634443B1 (ko) * 2019-03-07 2024-02-05 에스케이텔레콤 주식회사 차량용 센서의 보정 정보 획득 장치 및 방법
GB201904165D0 (en) * 2019-03-26 2019-05-08 Eygs Llp Vehicle position validation
CN115175841A (zh) * 2020-02-19 2022-10-11 辉达公司 自主车辆的行为规划
CN112325770B (zh) * 2020-10-26 2022-08-02 武汉中海庭数据技术有限公司 一种车端单目视觉测量相对精度置信度评估方法及系统
WO2022130618A1 (ja) * 2020-12-18 2022-06-23 三菱電機株式会社 位置・姿勢推定装置、位置・姿勢推定方法、及びプログラム
CN116912948B (zh) * 2023-09-12 2023-12-01 南京硅基智能科技有限公司 一种数字人的训练方法、系统及驱动系统
CN117079256B (zh) * 2023-10-18 2024-01-05 南昌航空大学 基于目标检测及关键帧快速定位的疲劳驾驶检测算法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259131A (ja) 1993-03-09 1994-09-16 Olympus Optical Co Ltd 移動ロボットの誘導制御装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3770541B2 (ja) * 2001-12-12 2006-04-26 株式会社日立製作所 車両走行経路推定装置、車両の走行経路を推定するシステム、車載端末、及び車両走行経路推定方法
JP5793851B2 (ja) * 2010-11-08 2015-10-14 富士通株式会社 位置推定方法、位置推定装置及びプログラム
JP2014202561A (ja) * 2013-04-03 2014-10-27 パイオニア株式会社 情報処理装置、情報処理方法及び情報処理用プログラム
CN113654561A (zh) * 2014-12-05 2021-11-16 苹果公司 自主导航系统
JP2017194527A (ja) 2016-04-19 2017-10-26 トヨタ自動車株式会社 環境地図のデータ構造、環境地図の作成システム及び作成方法、並びに、環境地図の更新システム及び更新方法
US10248124B2 (en) * 2016-07-21 2019-04-02 Mobileye Vision Technologies, Inc. Localizing vehicle navigation using lane measurements
WO2018131153A1 (ja) * 2017-01-16 2018-07-19 株式会社日立製作所 移動体制御装置および移動体の制御方法
JP6881369B2 (ja) * 2018-03-26 2021-06-02 トヨタ自動車株式会社 自車位置推定装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259131A (ja) 1993-03-09 1994-09-16 Olympus Optical Co Ltd 移動ロボットの誘導制御装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022031164A1 (en) * 2020-08-01 2022-02-10 Richard Henricus Adrianus Van Lieshout Cultivation system equipped with a harvesting robot
NL2026196B1 (nl) * 2020-08-01 2022-04-04 Richard Henricus Adrianus Lieshout Teeltsysteem voorzien van een oogstrobot

Also Published As

Publication number Publication date
US20200331499A1 (en) 2020-10-22
US11661084B2 (en) 2023-05-30
WO2019098002A1 (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
DE112018005907T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
US20200018618A1 (en) Systems and methods for annotating maps to improve sensor calibration
DE102020111682A1 (de) Systeme und verfahren zum implementieren einer autonomen fahrzeugreaktion auf ein sensorversagen
DE112019005425T5 (de) Redundanz in autonomen fahrzeugen
DE112019001046T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiler körper
DE102018120841A1 (de) Verfahren und vorrichtung zum überwachen eines autonomen fahrzeugs
DE102018106527A1 (de) Elektronische Steuereinheiten, Fahrzeuge und Verfahren zum Umschalten einer Fahrzeugsteuerung aus einem autonomen Fahrmodus
DE102019127058A1 (de) Fahrzeugwegplanung
DE112016007429T5 (de) Entferntes Betriebssystem, Transportsystem und entferntes Betriebsverfahren
DE112018005910T5 (de) Steuervorrichtung und steuerverfahren, programm und mobiler körper
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE112018004507T5 (de) Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
DE112020002287T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE112018004691T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und bewegter körper
DE112019001659T5 (de) Steuervorrichtung, steuerverfahren und programm
DE112018004904T5 (de) Informationsverarbeitungseinrichtung, selbstpositionsschätzverfahren und programm
DE102021124913A1 (de) Metrik-backpropagation für die beurteilung der leistung von untersystemen
DE102021125166A1 (de) Bestimmung von seitenwindrisiken
DE102021132737A1 (de) Manöverrealisator auf abtastbasis
DE102020122752A1 (de) Sensorlokalisierung anhand externer quelldaten
DE102021133739A1 (de) Steuern eines autonomen fahrzeugs unter verwendung einer näheregel
DE102020123587A1 (de) Betrieb eines autonomen fahrzeugs basierend auf der verfügbarkeit von navigationsinformationen
DE112022003364T5 (de) Komplementäres steuersystem für ein autonomes fahrzeug
WO2021153176A1 (ja) 自律移動装置、自律移動制御方法、並びにプログラム