DE112018005910T5 - Steuervorrichtung und steuerverfahren, programm und mobiler körper - Google Patents

Steuervorrichtung und steuerverfahren, programm und mobiler körper Download PDF

Info

Publication number
DE112018005910T5
DE112018005910T5 DE112018005910.3T DE112018005910T DE112018005910T5 DE 112018005910 T5 DE112018005910 T5 DE 112018005910T5 DE 112018005910 T DE112018005910 T DE 112018005910T DE 112018005910 T5 DE112018005910 T5 DE 112018005910T5
Authority
DE
Germany
Prior art keywords
unit
information
obstacle
route
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018005910.3T
Other languages
English (en)
Inventor
Dai Kobayashi
Takamori YAMAGUCHI
Ryo Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE112018005910T5 publication Critical patent/DE112018005910T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

Die vorliegende Offenbarung betrifft eine Steuervorrichtung und ein Steuerverfahren, ein Programm und einen mobilen Körper, die eine effiziente Suche nach Umfeldinformationen ermöglichen, wenn sich in einem unbestimmten Eigenpositionszustand befunden wird.Wenn sich in einem unbestimmten Eigenpositionszustand befunden wird, werden, auf Basis einer Eigenposition, von Hindernispositionsinformationen um sich selbst und Informationen eines möglichen Oberflächenerfassungsgebiets einer Oberflächenerfassungseinheit, die eine Stereokamera aufweist, zur Bestimmung der Eigenposition Informationen über einen oberflächenerfassten Bereich des Hindernisses aufgezeichnet, und eine Suchroute wird auf Basis der Informationen über den oberflächenerfassten Bereich des Hindernisses geplant. Die vorliegende Technologie kann bei einem mehrbeinigen Roboter, einem Flugkörper und einem fahrzeuginternen System angewendet werden, die sich autonom gemäß einem angebrachten Computer bewegen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft eine Steuervorrichtung und ein Steuerverfahren, ein Programm und einen mobilen Körper, und betrifft insbesondere eine Steuervorrichtung und ein Steuerverfahren, ein Programm und einen mobilen Körper, die in der Lage sind, das Umfeld effizient abzusuchen.
  • STAND DER TECHNIK
  • Um eine autonome Fortbewegung eines mobilen Körpers wie etwa eines Roboters zu erzielen, ist es notwendig, dessen Eigenposition zu erkennen und zu schätzen, was ein Startpunkt zur Planung einer Handlung ist. Dementsprechend wurde eine Technologie vorgeschlagen, um eine eigene umliegende Situation durch eine Vorrichtung wie etwa einen Sensor zu erkennen, die Eigenposition zu schätzen und eine autonome Fortbewegung zu planen.
  • In einem Fall von sequenzieller Schätzung der Eigenposition unter Verwendung von Informationen über Eigenpositionen, die kontinuierlich in der Vergangenheit detektiert wurden, falls sich aufgrund einer externen Kraft zu einer Eigenposition, die sich vollständig von einer vorherigen Eigenposition unterscheidet, fortbewegt wird, geht beispielsweise die Kontinuität mit Informationen über die Eigenposition in der Vergangenheit verloren, was die Eigenposition unerkennbar macht.
  • In einem derartigen Fall muss, um die Eigenposition neu zu schätzen, der mobile Körper das Umfeld absuchen, während er sich selbst fortbewegt, das Umfeld erfassen, um Informationen zu erhalten, und die Eigenposition aus den erhaltenen Umfeldinformationen schätzen.
  • Zu dieser Zeit kann der mobile Körper, falls er sich selbst zufällig fortbewegt, wiederholt einen Bereich erfassen, der schon erfasst wurde, und es ist möglich, dass das Umfeld nicht effizient abgesucht werden kann.
  • Dementsprechend ist es denkbar, eine Fortbewegungstechnik anzuwenden, während der der gesamte Bereich unter Verwendung eines Kartenerstellungsmoduls abgedeckt wird, die „nicht abgesucht“, „durchquert“, „Rand“ und „belegt“ angibt (siehe Patentdokument 1).
  • Ferner ist es denkbar, eine Technik zum Speichern von Innenraumstrukturdaten, die einen erfassten befahrbaren Bereich an einem schon abgesuchten Ort angeben, und zur sequenziellen Fortbewegung in eine befahrbare Richtung anzuwenden (siehe Patentdokument 2).
  • Darüber hinaus ist es denkbar, eine Technik zum Speichern eines Arbeitsablaufs zum Suchen nach einem Hindernis oder zum Speichern eines erfassten Bereichs anzuwenden, um einen Bereich zu erhalten, in dem sich die eigene Einrichtung fortbewegen kann (siehe Patentdokumente 3, 4).
  • ZITATLISTE
  • PATENTDOKUMENT
    • Patentdokument 1: Japanische Patentanmeldung, Offenlegungs-Nr. 2016-095858
    • Patentdokument 2: Japanische Patentanmeldung, Offenlegungs-Nr. 2010-217995
    • Patentdokument 3: Japanische Patentanmeldung, Nr. 2003 - 092347
    • Patentdokument 4: Japanische Patentanmeldung, Nr. 2002 - 073770
  • KURZDARSTELLUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEME
  • Durch die Technik des Patentdokuments 1, da sie eine Fortbewegungstechnik ist, während der gesamte Bereich abgedeckt wird, kann das Umfeld jedoch nicht effizient abgesucht werden.
  • Durch die Technik des Patentdokuments 2 wird ferner ein befahrbarer Bereich, der aus Informationen zu der Zeit der Suche erhalten wird, gespeichert, kann aber nicht als Informationen zum effizienten Absuchen des Umfelds verwendet werden.
  • Durch die Techniken der Patentdokumente 3, 4 wird darüber hinaus ein Arbeitsablauf zum Suchen nach einem Hindernis oder ein erfasster Bereich gespeichert, um einen Bereich zu erhalten, in dem sich die eigene Einrichtung fortbewegen kann, aber die Oberfläche des Hindernisses wird weder erfasst noch gespeichert, und das Umfeld kann nicht effizient gemäß des Oberflächenzustands des Hindernisses abgesucht werden.
  • Die vorliegende Offenbarung wurde angesichts derartiger Situationen vorgenommen, und wurde insbesondere vorgenommen, um eine effiziente Suche des Umfelds zu ermöglichen.
  • LÖSUNGEN DER PROBLEME
  • Eine Steuervorrichtung gemäß einem Aspekt der vorliegenden Offenbarung weist Folgendes auf: eine Eigenpositionsschätzungseinheit, die eine Eigenposition schätzt, eine Hindernispositionsinformationen-Erzeugungseinheit, die Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt, eine Oberflächenerfassungseinheit, die eine Oberfläche des Hindernisses erfasst, eine Oberflächenerfasster-Bereich-Aufzeichnungseinheit, die einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet, und eine Routenplanungseinheit, die eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant.
  • Die Oberflächenerfasster-Bereich-Aufzeichnungseinheit kann, als den oberflächenerfassten Bereich des Hindernisses, eine Oberfläche des Hindernisses innerhalb des möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit als den oberflächenerfassten Bereich des Hindernisses aufzeichnen.
  • In der Routenplanungseinheit kann die Routenplanungseinheit eine Prioritätsfestlegungseinheit aufweisen, die einen unvollständigen Bereich, bei dem die Oberflächenerfassung des Hindernisses nicht abgeschlossen wurde, auf Basis des oberflächenerfassten Bereichs des Hindernisses und der Hindernispositionsinformationen einstellt, einen aufgeteilten Bereich, der durch Aufteilen des unvollständigen Bereichs erhalten wird, als Wegpunkte setzt und Prioritäten für die Wegpunkte festlegt. Die Route über die Wegpunkte kann auf Basis der durch die Prioritätsfestlegungseinheit festgelegten Prioritäten geplant werden.
  • Die Prioritätsfestlegungseinheit kann die Prioritäten der Wegpunkte gemäß einer Durchlaufreihenfolge durch die Wegpunkte in einer Route, bei der Prioritätskosten, die auf Basis der Prioritätsbedingung gesetzte Kosten sind, die geringsten sind, unter Routen, die durch alle Wegpunkte laufen, festlegen.
  • Die Prioritätsbedingung kann eine Gesamtfahrdistanz oder ein Gesamtleistungsverbrauch sein und die Prioritätskosten können Kosten, die gemäß einer Fahrdistanz gesetzt werden, oder Kosten, die gemäß einem Leistungsverbrauch gesetzt werden, sein.
  • Die Prioritätsfestlegungseinheit kann die Prioritäten der Wegpunkte gemäß einer Durchlaufreihenfolge durch die Wegpunkte in einer Route, bei der Prioritätskosten, die auf Basis der Prioritätsbedingung und Körperbewegungsinformationen gesetzte Kosten sind, die geringsten sind, unter Routen, die durch alle Wegpunkte laufen, festlegen.
  • Die Körperbewegungsinformationen können Informationen über eine Maximalgeschwindigkeit, einen minimalen Wenderadius und eine Höhe einer überquerbaren Stufe auf einem Pfad sein, falls die Prioritätsbedingung eine Gesamtfahrdistanz ist, oder können Informationen über einen Leistungsverbrauch pro Distanzeinheit und eine Ladungskapazität einer Batterie sein, falls die Prioritätsbedingung ein Gesamtleistungsverbrauch ist.
  • Die Routenplanungseinheit kann die Route, die durch alle Wegpunkte läuft, auf Basis der Prioritäten, die jeweils für die Wegpunkte durch die Prioritätsfestlegungseinheit festgelegt werden, und einer Fahrbedingung planen.
  • Die Routenplanungseinheit kann für alle Routen, die durch alle Wegpunkte laufen, Routenkosten berechnen, die auf Basis der Prioritäten, die jeweils für die Wegpunkte durch die Prioritätsfestlegungseinheit festgelegt werden, und einer Fahrbedingung gesetzt werden, und kann eine Route auswählen, bei der die Routenkosten die niedrigsten sind.
  • Die Fahrbedingung kann eine Bedingung, dass die Wegpunkte in absteigender Prioritätsreihenfolge durchlaufen werden, eine Bedingung, dass die Fortbewegung in einer kürzesten Zeit selbst bei Ignorieren der Prioritäten der Wegpunkte durchgeführt wird, oder eine Bedingung, dass ein Wegpunkt mit einer höheren Priorität früher erreicht wird, einschließen.
  • Falls die Fortbewegungsbedingung die Bedingung ist, dass ein Wegpunkt mit einer höheren Priorität früher erreicht wird, kann die Routenplanungseinheit ein Produkt der Priorität und einer Zeit zum Erreichen des Wegpunkts als die Routenkosten setzen und eine Route auswählen, bei der die Routenkosten unter allen Routen die geringsten sind.
  • Die Eigenpositionsschätzungseinheit kann eine Zeitreiheninformationen-Eigenpositionsschätzungseinheit aufweisen, die die Eigenposition unter Verwendung von Zeitreiheninformationen einschließlich Sensorinformationen, die in Zeitreihe geliefert werden, schätzt und ein Schätzergebnis als eine Zeitreiheninformationen-Eigenposition ausgibt, und die Oberflächenerfasster-Bereich-Aufzeichnungseinheit kann den oberflächenerfassten Bereich des Hindernisses auf Basis der Zeitreiheninformationen-Eigenposition, der Hindernispositionsinformationen und des möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnen.
  • Die Zeitreiheninformationen können dreidimensionale Punktwolkeninformationen, die durch Lichtdetektion und
    • -entfernungsmessung, Laserbildgebungsdetektion und
    • -entfernungsmessung (LIDAR) detektiert werden, und Positionsinformationen, Stellung, Geschwindigkeit, Beschleunigung und Winkelbeschleunigung, die durch einen Radmessgeber detektiert werden, sein und die Hindernispositionsinformationen-Erzeugungseinheit kann auf Basis der dreidimensionalen Punktwolkeninformationen, Hindernispositionsinformationen einschließlich einer relativen Position und einer Richtung des Hindernisses im Umfeld erzeugen.
  • Die Eigenpositionsschätzungseinheit kann ferner eine Momentaninformationen-Eigenpositionsschätzungseinheit aufweisen, die die Eigenposition auf Basis momentaner Informationen einschließlich Sensorinformationen, die ein momentanes Erfassungsergebnis ausgeben, schätzt und ein Schätzergebnis als eine Momentaninformationen-Eigenposition ausgibt.
  • Die momentanen Informationen können ein Parallaxenbild sein, das durch die Oberflächenerfassungseinheit, die eine Stereokamera aufweist, abgebildet wird, die Momentaninformationen-Eigenpositionsschätzungseinheit kann ein Tiefenbild auf Basis eines Parallaxenbildes erzeugen, das die momentanen Informationen ist, eine Bildmerkmalsmenge aus dem Tiefenbild extrahieren, die Eigenposition auf Basis einer mit der Bildmerkmalsmenge assoziierten Position schätzen und ein Schätzergebnis als die Momentaninformationen-Eigenposition ausgeben, und die Eigenpositionsschätzungseinheit kann die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition integrieren und eine integrierte Position als die Eigenposition ausgeben.
  • Eine Position-Bildmerkmalsmenge-Speichereinheit, in der die Position und die Bildmerkmalsmenge in Verbindung zueinander gespeichert sind, kann ferner enthalten sein, in der, wenn die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition integriert werden und eine integrierte Position als die Eigenposition ausgegeben wird, die Eigenpositionsschätzungseinheit die Bildmerkmalsmenge, die der Momentaninformationen-Eigenposition entspricht, und die Eigenposition in Verbindung zueinander in der Position-Bildmerkmalsmenge-Speichereinheit speichert.
  • Falls sich die Eigenposition in einem unbestimmten Zustand befindet, kann die Oberflächenerfasster-Bereich-Aufzeichnungseinheit den oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und des möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnen.
  • Ein Steuerverfahren gemäß einem Aspekt der vorliegenden Offenbarung weist Folgendes auf: einen Eigenpositionsschätzungsprozess, der eine Eigenposition schätzt, einen Hindernispositionsinformationen-Erzeugungsprozess, der Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt, einen Oberflächenerfassungsprozess, der eine Oberfläche des Hindernisses erfasst, einen Oberflächenerfasster-Bereich-Aufzeichnungsprozess, der einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets des Oberflächenerfassungsprozesses aufzeichnet, und einen Routenplanungsprozess, der eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant.
  • Ein Programm gemäß einem Aspekt der vorliegenden Offenbarung weist Folgendes auf: eine Eigenpositionsschätzungseinheit, die eine Eigenposition schätzt, eine Hindernispositionsinformationen-Erzeugungseinheit, die Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt, eine Oberflächenerfassungseinheit, die eine Oberfläche des Hindernisses erfasst, eine Oberflächenerfasster-Bereich-Aufzeichnungseinheit, die einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet, und eine Routenplanungseinheit, die eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant.
  • Ein mobiler Körper gemäß einem Aspekt der vorliegenden Offenbarung weist Folgendes auf: eine Eigenpositionsschätzungseinheit, die eine Eigenposition schätzt, eine Hindernispositionsinformationen-Erzeugungseinheit, die Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt, eine Oberflächenerfassungseinheit, die eine Oberfläche des Hindernisses erfasst, eine Oberflächenerfasster-Bereich-Aufzeichnungseinheit, die einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet, eine Planungseinheit, die eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant, eine Handlungsplanerzeugungseinheit, die einen Handlungsplan auf Basis der durch die Planungseinheit geplanten Route erzeugt, und eine Steuereinheit, die einen Betrieb des mobilen Körpers auf Basis des durch die Handlungsplanerzeugungseinheit bestimmten Handlungsplans steuert.
  • In einem Aspekt der vorliegenden Offenbarung wird eine Eigenposition geschätzt, Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld werden erzeugt, eine Oberfläche des Hindernisses wird erfasst, ein oberflächenerfasster Bereich des Hindernisses wird auf Basis der Eigenposition, der Hindernispositionsinformationen und des möglichen Oberflächenerfassungsgebiets aufgezeichnet und eine Route wird auf Basis des oberflächenerfassten Bereichs des Hindernisses geplant.
  • EFFEKTE DER ERFINDUNG
  • Gemäß einem Aspekt der vorliegenden Offenbarung ist es insbesondere möglich, das Umfeld effizient abzusuchen.
  • Figurenliste
    • 1 ist ein Diagramm, das ein Konfigurationsbeispiel eines mobilen Körpers veranschaulicht und einen Überblick der vorliegenden Offenbarung beschreibt.
    • 2 ist ein Diagramm, das den Überblick der vorliegenden Offenbarung beschreibt.
    • 3 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines Mobilkörpersteuersystems beschreibt, das einen mobilen Körper steuert, gemäß der vorliegenden Offenbarung.
    • 4 ist ein detailliertes Blockdiagramm eines Konfigurationsbeispiels rund um eine Erkennungsverarbeitungseinheit und eine Handlungsplanverarbeitungseinheit gemäß der vorliegenden Offenbarung.
    • 5 ist ein Diagramm, das ein Hinderniserkennungsergebnis beschreibt.
    • 6 ist ein Diagramm, das ein mögliches Oberflächenerfassungsgebiet beschreibt.
    • 7 ist ein Diagramm, das einen oberflächenerfassten Bereich beschreibt.
    • 8 ist ein Diagramm, das ein Verfahren zum Festlegen von Prioritäten beschreibt.
    • 9 ist ein Flussdiagramm, das einen Eigenpositionsschätzungsprozess beschreibt.
    • 10 ist ein Flussdiagramm, das einen Zeitreiheninformationen-Eigenpositionsschätzungsprozess in 9 beschreibt.
    • 11 ist ein Flussdiagramm, das einen Momentaninformationen-Eigenpositionsschätzungsprozess in 9 beschreibt.
    • 12 ist ein Flussdiagramm, das einen Hinderniserkennungsprozess beschreibt.
    • 13 ist ein Flussdiagramm, das einen Oberflächenerfasster-Bereich-DB-Aufzeichnungsprozess beschreibt.
    • 14 ist ein Flussdiagramm, das einen Autonome-Fortbewegung-Steuerprozess beschreibt.
    • 15 ist ein Flussdiagramm, das einen Suchmodusprozess beschreibt.
    • 16 ist ein Diagramm, das einen oberflächenerfassten Bereich gemäß einem Modifikationsbeispiel unter Verwendung einer Stereokamera beschreibt.
    • 17 ist ein Diagramm, das ein Konfigurationsbeispiel eines Allzweckcomputers beschreibt.
  • AUSFÜHRUNGSWEISE DER ERFINDUNG
  • Nachfolgend werden bevorzugte Ausführungsformen der vorliegenden Offenbarung unter Bezugnahme auf die begleitenden Zeichnungen ausführlich beschrieben. Es ist anzumerken, dass in der vorliegenden Beschreibung und den vorliegenden Zeichnungen Komponenten, die im Wesentlichen die gleichen Funktionskonfigurationen aufweisen, mit den gleichen Bezugszeichen gegeben sind, wodurch duplizierende Beschreibungen weggelassen werden.
  • Nachfolgend werden Ausführungsformen zum Ausführen der vorliegenden Technologie beschrieben. Die Beschreibung erfolgt in der folgenden Reihenfolge.
    1. 1. Übersicht der vorliegenden Offenbarung
    2. 2. Bevorzugte Ausführungsform
    3. 3. Modifikationsbeispiel
    4. 4. Beispiel für eine Ausführung durch Software
  • «1. Übersicht der vorliegenden Offenbarung»
  • Ein mobiler Körper der vorliegenden Offenbarung ist ein mobiler Körper, der eine Erfassung durchführt, während er das Umfeld absucht, um Umfeldinformationen darüber zu erhalten, ob eine Eigenposition unbestimmt wird, wodurch ermöglicht wird, beim Schätzen einer neuen Eigenposition das Umfeld effizient abzusuchen.
  • 1 veranschaulicht ein Konfigurationsbeispiel, das ein Überblick eines mobilen Körpers 11 der vorliegenden Offenbarung ist.
  • Der mobile Körper 11 ist beispielsweise ein Roboter oder dergleichen und weist eine Sensorgruppe 21, eine Autonome-Fortbewegung-Steuereinheit 22 und eine Aktorgruppe 23 auf.
  • Die Sensorgruppe 21 weist Sensoren 21a-1 bis 21a-n auf, die verschiedene Arten von Informationen detektieren, die zum Erkennen von Situationen innerhalb des mobilen Körpers 11 und des Umfelds des mobilen Körpers 11 notwendig sind, und gibt ein Detektionsergebnis zu der Autonome-Fortbewegung-Steuereinheit 22 aus. Wenn es nicht notwendig ist, ausdrücklich die Sensoren 21a-1 bis 21a-n zu unterscheiden, werden die Sensoren 21a-1 bis 21a-n ferner einfach als Sensoren 21a bezeichnet, und auf andere Komponenten wird auch in ähnlicher Weise verwiesen.
  • Genauer gesagt weisen die Sensoren 21a-1 bis 21a-n beispielsweise Folgendes auf: eine Kamera, die das Umfeld des mobilen Körpers 11 abbildet, einen Beschleunigungssensor, der eine Bewegung des mobilen Körpers 11 detektiert, ein LIDAR, das den Abstand zu einem rund um den mobilen Körper 11 vorhandenen Objekt misst, einen Laufzeit(ToF)-Sensor, einen geomagnetischen Sensor, der eine Richtung detektiert, einen Gyrosensor, einen barometrischen Sensor, der eine Änderung des Umgebungsdrucks detektiert, einen Kontaktsensor, der das Vorhandensein oder Nichtvorhandensein eines Kontakts oder dergleichen detektiert, einen Temperatursensor, der eine Temperatur detektiert, einen Luftfeuchtigkeitssensor, der Luftfeuchtigkeit detektiert, einen Positionsempfindlicher-Detektor(PSD)-Entfernungsmessungssensor, ein globales Satellitennavigationssystem (GNSS), das eine Position auf der Erde detektiert, und dergleichen.
  • Die Autonome-Fortbewegung-Steuereinheit 22 erkennt eine umliegende Situation aus verschiedenen Detektionsergebnissen der Sensorgruppe 21, erzeugt einen Handlungsplan auf Basis eines Erkennungsergebnisses und betreibt verschiedene Arten von Aktoren 23a-1 bis 23a-n der Aktorgruppe 23, die den Roboter gemäß dem Handlungsplan antreiben. Wenn es nicht notwendig ist, ausdrücklich die Aktoren 23a-1 bis 23a-n zu unterscheiden, werden die Aktoren 23a-1 bis 23a-n ferner einfach als Aktoren 23a bezeichnet, und auf andere Komponenten wird auch in ähnlicher Weise verwiesen.
  • Genauer gesagt weist die Autonome-Fortbewegung-Steuereinheit 22 eine Erkennungsverarbeitungseinheit 31, eine Handlungsplanverarbeitungseinheit 32 und eine Handlungssteuerungsverarbeitungseinheit 33 auf.
  • Die Erkennungsverarbeitungseinheit 31 führt einen Erkennungsprozess auf Basis eines Detektionsergebnisses, das von der Sensorgruppe 21 geliefert wird, aus, um beispielsweise ein Bild, eine Person, ein Objekt, eine Ausdrucksweise, eine Position, ein Attribut und eine Position von sich selbst oder eines Hindernisses und dergleichen zu erkennen, und gibt ein Ergebnis als ein Erkennungsergebnis zu der Handlungsplanverarbeitungseinheit 32 aus. Ferner schätzt die Erkennungsverarbeitungseinheit 31 eine Eigenposition auf Basis eines Detektionsergebnisses einschließlich Zeitreiheninformationen, die von der Sensorgruppe 21 geliefert werden. Falls der mobile Körper 11 beispielsweise ein mobiles Spielzeug oder dergleichen ist, schaltet die Erkennungsverarbeitungseinheit 31 ferner einen Betriebsmodus zu einem Suchmodus um, wenn er in einen Zustand gebracht wird, bei dem die Eigenposition nicht auf Basis eines durch die Sensorgruppe 21 gelieferten Detektionsergebnisses geschätzt werden kann, wie etwa wenn er durch einen Benutzer hochgehalten wird. Im Suchmodus sucht die Erkennungsverarbeitungseinheit 31 das Umfeld ab, um eine effiziente Erfassung des Umfelds zu ermöglichen, und schätzt die Eigenposition aus Erfassungsergebnissen des Umfelds neu. Zu dieser Zeit speichert die Erkennungsverarbeitungseinheit 31 einen umliegenden erfassten Bereich auf Basis von durch die Suche detektierten Informationen und gibt die Informationen des erfassten Bereichs zu der Handlungsplanverarbeitungseinheit 32 aus, sodass ein nicht erfasster Bereich effizient erfasst werden kann.
  • Die Handlungsplanverarbeitungseinheit 32 erzeugt auf Basis des Erkennungsergebnisses einen Handlungsplan einer Fortbewegungsbahn, eine Zustandsänderung und eine Geschwindigkeit oder Beschleunigung und dergleichen einer Vorrichtung bezüglich der Fortbewegung des mobilen Körpers 11, die Handlungen des gesamten mobilen Körpers 11 sind, und liefert den Handlungsplan zu der Handlungssteuerungsverarbeitungseinheit 33. Im Suchmodus plant die Handlungsplanverarbeitungseinheit 32 ferner eine Route, die eine effiziente Erfassung des Umfelds ermöglicht, auf Basis von Informationen über den erfassten Bereich und erzeugt einen Handlungsplan, der der geplanten Route entspricht.
  • Die Handlungssteuerungsverarbeitungseinheit 33 erzeugt ein Steuersignal zum Steuern einer spezifischen Bewegung von jedem der Aktoren 23a-1 bis 23a-n der Aktorgruppe 23 auf Basis des von der Handlungsplanverarbeitungseinheit 32 gelieferten Handlungsplans, um die Aktorgruppe 23 zu betreiben.
  • Die Aktorgruppe 23 betreibt die Aktoren 23a-1 bis 23a-n, die spezifisch den mobilen Körper 11 betreiben, auf Basis des von der Handlungssteuerungsverarbeitungseinheit 33 gelieferten Steuersignals. Genauer gesagt lösen die Aktoren 23a-1 bis 23a-n Arbeitsabläufe eines Motors, eines Servomotors, einer Bremse und dergleichen aus, um eine spezifische Bewegung des mobilen Körpers 11 auf Basis des Steuersignals zu implementieren.
  • Ferner weisen die Aktoren 23a-1 bis 23a-n Komponenten zum Implementieren einer Ausdehnungs- oder Zusammenziehbewegung, einer Biege- oder Dehnbewegung, einer Drehbewegung oder dergleichen auf und weisen Komponenten wie etwa eine Anzeigeeinheit einschließlich einer Leuchtdiode (LED), einer Flüssigkristallanzeige (LCD) oder dergleichen zum Anzeigen von Informationen und einen Lautsprecher, der Ton ausgibt, auf. Durch das Steuern der Aktorgruppe 23 auf Basis des Steuersignals werden daher verschiedene Arbeitsabläufe von Vorrichtungen, die den mobilen Körper 11 antreiben, implementiert und werden Informationen angezeigt und wird Ton ausgegeben.
  • Das heißt, durch das Steuern der Aktoren 23a-1 bis 23a-n der Aktorgruppe 23 wird der Betrieb bezüglich der Fortbewegung des mobilen Körpers 11 gesteuert, und außerdem wird die Darstellung verschiedener Informationsarten wie etwa das Anzeigen von Informationen und die Ausgabe von Ton gesteuert.
  • <Überblick des Suchmodus der vorliegenden Offenbarung>
  • Der mobile Körper 11 schaltet den Betriebsmodus von Normalmodus zum Suchmodus um, falls die Eigenposition aus irgendeinem Grund unbestimmt wird, auf Basis eines Erfassungsergebnisses der Sensorgruppe 21.
  • Im Suchmodus bewegt sich der mobile Körper 11 fort, während er das Umfeld absucht, und die Sensorgruppe 21 erfasst die Oberfläche eines Hindernisses im Umfeld.
  • Hier zeichnet die Erkennungsverarbeitungseinheit 31 einen Bereich, der durch die Sensorgruppe 21 oberflächenerfasst wird, als eine Datenbank auf.
  • Das heißt, wie beispielsweise im linken Teil von 2 veranschaulicht, wenn die Fortbewegung von einem mobilen Körper 11-1 zu einem mobilen Körper 11-2 zwischen Hindernissen B1 bis B3 durchgeführt wird, erfasst die Sensorgruppe 21 Oberflächen der Hindernisse B1 bis B3 und die Erkennungsverarbeitungseinheit 31 zeichnet den erfassten Bereich auf, wie zum Beispiel durch erfasste Oberflächenbereiche R1 bis R3 angegeben.
  • Die Handlungsplanverarbeitungseinheit 32 plant eine Route und erzeugt einen Handlungsplan, sodass ein Bereich, der nicht erfasst wurde, effizient erfasst werden kann, auf Basis von Informationen über die aufgezeichneten erfassten Oberflächenbereiche R1 bis R3, wie im linken Teil von 2 veranschaulicht.
  • Genauer gesagt, wie im rechten Teil von 2 veranschaulicht, teilt die Handlungsplanverarbeitungseinheit 32 einen Bereich, der nicht erfasst wurde, in mehrere Bereiche auf, setzt die Bereiche beispielsweise als Wegpunkte P1 bis P4 und legt Prioritäten der Wegpunkte P1 bis P4 fest.
  • Dann plant die Handlungsplanverarbeitungseinheit 32 mehrere Routen, die durch jeden der Wegpunkte P1 bis P4 laufen, bestimmt eine Route auf Basis von Prioritäten, Bereichen, die durch die Sensorgruppe 21 des mobilen Körpers 11 erfasst werden können, und Bedingungen bezüglich der Fortbewegung und erzeugt einen Handlungsplan basierend auf der bestimmten Route.
  • Infolgedessen ist es möglich, selbst wenn die Eigenposition unbestimmt wird, die Eigenposition schnell durch Erfassen zu erhalten, während das Umfeld effizient abgesucht wird und effizient Umfeldinformationen erhalten werden, und es ist möglich, eine frühe Wiederaufnahme des Betriebs im Normalmodus zu erzielen.
  • <<Bevorzugte Ausführungsform>>
  • <Konfigurationsbeispiel eines Mobilkörpersteuersystems, das den mobilen Körper der vorliegenden Offenbarung steuert>
  • Ein Mobilkörpersteuersystem, das den mobilen Körper 11 zum Implementieren der oben beschriebenen Funktionen steuert, wird beschrieben.
  • 3 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer schematischen Funktion eines Mobilkörpersteuersystems 100 veranschaulicht, das den mobilen Körper 11 steuert, gemäß der vorliegenden Offenbarung. Es ist zu beachten, dass, obwohl das Mobilkörpersteuersystem 100 in 3 ein Beispiel eines Mobilkörpersteuersystems ist, das den mobilen Körper 11 einschließlich eines Roboters steuert, auf den die vorliegende Technologie angewendet werden kann, das Mobilkörpersteuersystem 100 auch als ein System angewendet werden kann, das andere mobile Körper steuert, zum Beispiel ein Luftfahrzeug, ein Schiff, ein Mehrfachrotor-Copter (eine Drohne) und dergleichen. Ferner kann der Roboter ein Rad-Roboter, ein autonom fahrendes Fahrzeug, in dem gesessen werden kann, oder ein mehrbeiniger gehender Roboter sein.
  • Das Mobilkörpersteuersystem 100 weist eine Eingabeeinheit 101, eine Datenerhalteeinheit 102, eine Kommunikationseinheit 103, eine Mobilkörperinnenvorrichtung 104, eine Ausgabesteuereinheit 105, eine Ausgabeeinheit 106, eine Antriebssystemsteuereinheit 107, ein Antriebssystem 108, eine Speichereinheit 109 und eine Autonome-Fortbewegung-Steuereinheit 110 auf. Die Eingabeeinheit 101, die Datenerhalteeinheit 102, die Kommunikationseinheit 103, die Ausgabesteuereinheit 105, die Antriebssystemsteuereinheit 107, die Speichereinheit 109 und die Autonome-Fortbewegung-Steuereinheit 110 sind über ein Kommunikationsnetzwerk 111 miteinander verbunden. Das Kommunikationsnetzwerk 111 ist zum Beispiel ein Lokalnetzwerk (LAN) wie etwa ein Controller Area Network (CAN), ein lokales Interconnect-Netzwerk (LIN) oder IEEE802.3 oder ein Kommunikationsnetzwerk oder ein Bus, das bzw. der einem beliebigen Standard wie etwa FlexRay (eingetragenes Markenzeichen) oder einem eindeutigen Kommunikationsverfahren, das nicht standardisiert ist, oder dergleichen entspricht. Es ist anzumerken, dass jeweilige Einheiten des Mobilkörpersteuersystems 100 auch direkt verbunden sein können, ohne durch das Kommunikationsnetzwerk 111 zu laufen.
  • Es ist zu beachten, dass nachfolgend, wenn jede Einheit des Mobilkörpersteuersystems 100 über das Kommunikationsnetzwerk 111 kommuniziert, die Beschreibung des Kommunikationsnetzwerks 111 weggelassen wird. Wenn zum Beispiel die Eingabeeinheit 101 und die Autonome-Fortbewegung-Steuereinheit 110 über das Kommunikationsnetzwerk 111 kommunizieren, wird beschrieben, dass die Eingabeeinheit 101 und die Autonome-Fortbewegung-Steuereinheit 110 einfach kommunizieren.
  • Die Eingabeeinheit 101 weist eine Vorrichtung auf, die von einem Insassen zum Eingeben verschiedener Daten, Anweisungen und dergleichen verwendet wird. Zum Beispiel weist die Eingabeeinheit 101 Bedienungsvorrichtungen, wie etwa ein Touchpanel, eine Taste, ein Mikrofon, einen Schalter und einen Hebel, und eine Bedienungsvorrichtung oder dergleichen, mit der eine Eingabe durch ein anderes Verfahren als eine manuelle Bedienung unter Verwendung von Sprache, einer Geste oder dergleichen vorgenommen werden kann, auf. Ferner kann die Eingabeeinheit 101 beispielsweise eine Fernsteuervorrichtung sein, die Infrarotstrahlen oder andere Funkwellen verwendet, oder kann eine extern verbundene Vorrichtung sein, wie etwa eine mobile Vorrichtung und eine tragbare Vorrichtung oder dergleichen, die dem Betrieb des Mobilkörpersteuersystems 100 entspricht. Die Eingabeeinheit 101 erzeugt ein Eingabesignal auf Basis von Daten, Anweisungen und dergleichen, die von einem Insassen eingegeben werden, und liefert das Eingabesignal an jede Einheit des Mobilkörpersteuersystems 100.
  • Die Datenerhalteeinheit 102 weist verschiedene Sensoren und dergleichen zum Erhalten von Daten auf, die zur Verarbeitung des Mobilkörpersteuersystems 100 verwendet werden, und liefert die erhaltenen Daten an jede Einheit des Mobilkörpersteuersystems 100.
  • Beispielsweise bildet die Datenerhalteeinheit 102 die Sensorgruppe 112, indem sie verschiedene Sensoren zum Detektieren eines Zustands des mobilen Körpers und dergleichen einschließt, und entspricht der Sensorgruppe 21 einschließlich der Sensoren 21a-1 bis 21a-n in 1. Genauer gesagt weist die Datenerhalteeinheit 102 beispielsweise Folgendes auf: einen Gyrosensor, einen Beschleunigungssensor, eine inertiale Messvorrichtung (IMU) und Sensoren zum Detektieren eines Betätigungsbetrags einer Beschleunigungseingabe eines Gaspedals oder dergleichen, eines Betätigungsbetrags einer Abbremsungseinheit, eines Betätigungsbetrags einer Richtungsanweisungseingabe, der Anzahl von Drehungen, der Eingabe-Ausgabe-Energie oder der Kraftstoffmenge einer Antriebseinrichtung wie etwa eines Verbrennungsmotors oder eines Motors, des Drehmomentbetrags eines Verbrennungsmotors, eines Motors oder dergleichen, oder der Drehgeschwindigkeit oder des Drehmoments eines Rads oder eines Gelenks und dergleichen.
  • Des Weiteren weist die Datenerhalteeinheit 102 zum Beispiel verschiedene Sensoren zum Detektieren von Außeninformationen des mobilen Körpers auf. Insbesondere weist die Datenerhalteeinheit 102 zum Beispiel eine Bildgebungsvorrichtung auf, wie etwa eine Laufzeit(ToF)-Kamera, eine Stereokamera, eine Monokularkamera, eine Infrarotkamera, eine Polarisationskamera und andere Kameras. Ferner weist die Datenerhalteeinheit 102 beispielsweise einen Umgebungssensor zur Wetter- oder meteorologischen Detektion und einen Umfeldinformationsdetektionssensor zum Detektieren eines Objekts rund um den mobilen Körper auf. Der Umgebungssensor weist beispielsweise einen Regensensor, einen Nebelsensor, einen Sonnenscheinsensor, einen Schneesensor und dergleichen auf. Der Umfeldinformationsdetektionssensor weist zum Beispiel einen Laserentfernungsmessungssensor, einen Ultraschallsensor, ein Radar, ein LiDAR (Lichtdetektion und -entfernungsmessung, Laserbildgebungsdetektion und -entfernungsmessung), ein Sonar und dergleichen auf.
  • Darüber hinaus weist die Datenerhalteeinheit 102 zum Beispiel verschiedene Sensoren zum Detektieren der momentanen Position des mobilen Körpers auf. Insbesondere weist die Datenerhalteeinheit 102 beispielsweise einen GNSS-Empfänger auf, der ein GNSS-Signal von einem GNSS-Satelliten (Global Navigation Satellite System - globales Satellitennavigationssystem) oder dergleichen empfängt.
  • Die Kommunikationseinheit 103 kommuniziert mit der Mobilkörperinnenvorrichtung 104 und verschiedenen Vorrichtungen, Servern, Basisstationen und dergleichen außerhalb des mobilen Körpers, und überträgt Daten, die von jeder Einheit des Mobilkörpersteuersystems 100 geliefert werden, und liefert empfangene Daten an jede Einheit des Mobilkörpersteuersystems 100. Es ist zu beachten, dass ein durch die Kommunikationseinheit 103 unterstütztes Kommunikationsprotokoll nicht speziell beschränkt ist und die Kommunikationseinheit 103 mehrere Arten von Kommunikationsprotokollen unterstützen kann.
  • Zum Beispiel führt die Kommunikationseinheit 103 eine drahtlose Kommunikation mit der Mobilkörperinnenvorrichtung 104 durch Wireless LAN, Bluetooth (eingetragenes Markenzeichen), Nahfeldkommunikation (NFC: Near Field Communication), Wireless USB(WUSB) oder dergleichen durch. Weiterhin führt die Kommunikationseinheit 103 zum Beispiel eine drahtgebundene Kommunikation mit der Mobilkörperinnenvorrichtung 104 durch einen Universal Serial Bus (USB), eine High-Definition Multimedia Interface (HDMI) (eingetragenes Markenzeichen), oder einen Mobile High-Definition Link (MHL) oder dergleichen über einen nicht veranschaulichten Verbindungsanschluss (und falls notwendig ein Kabel) durch.
  • Zudem kommuniziert die Kommunikationseinheit 103 zum Beispiel über eine Basisstation oder einen Zugangspunkt mit einer Vorrichtung (zum Beispiel einem Anwendungsserver oder einem Steuerserver), die in einem externen Netzwerk (zum Beispiel dem Internet, einem Cloud-Netzwerk oder einem betreiberspezifischen Netzwerk) vorhanden ist. Ferner führt die Kommunikationseinheit 103 beispielsweise eine Kommunikation mit einem Endgerät (zum Beispiel einem Fußgänger oder einem Geschäftsendgerät oder einem Maschinentypkommunikation(MTC)-Endgerät), das in der Nähe des mobilen Körpers vorhanden ist, unter Verwendung einer Peer-zu-Peer(P2P)-Technik durch. Falls zum Beispiel der mobile Körper 11 ein Fahrzeug ist, führt die Kommunikationseinheit 103 zudem eine V2X-Kommunikation durch, wie etwa eine Fahrzeug-zu-Fahrzeug-Kommunikation, eine Straße-zu-Fahrzeug(Fahrzeug-zu-Infrastruktur)-Kommunikation, eine Kommunikation zwischen einem mobilen Körper und einem Haus (Fahrzeug-zu-Haus) und eine Fahrzeug-zu-Fußgänger-Kommunikation. Ferner weist die Kommunikationseinheit 103 beispielsweise eine Beacon-Empfangseinheit zum Empfangen von Funkwellen oder elektromagnetischen Wellen auf, die von auf einer Straße installierten Drahtlosstationen und dergleichen übertragen werden, und erhält Informationen wie etwa die momentane Position, Verkehrsstaus, Verkehrsvorschriften oder erforderliche Zeit.
  • Die Mobilkörperinnenvorrichtung 104 weist zum Beispiel eine mobile Vorrichtung oder Wearable-Vorrichtung, die einem Insassen gehört, eine Informationsvorrichtung, die in dem mobilen Körper mitgeführt oder an diesem angebracht ist, eine Navigationsvorrichtung, die nach einer Route zu einem beliebigen Ziel sucht, und dergleichen auf.
  • Die Ausgabesteuereinheit 105 steuert die Ausgabe verschiedener Arten von Informationen zu einem Insassen des mobilen Körpers oder nach außerhalb des mobilen Körpers. Zum Beispiel erzeugt die Ausgabesteuereinheit 105 ein Ausgabesignal, das visuelle Informationen (zum Beispiel Bilddaten) und/oder akustische Informationen (zum Beispiel Tondaten) aufweist, und liefert das Ausgabesignal an die Ausgabeeinheit 106, wodurch die Ausgabe der visuellen Informationen und akustischen Informationen von der Ausgabeeinheit 106 gesteuert wird. Insbesondere erzeugt die Ausgabesteuereinheit 105 zum Beispiel ein Bild aus der Vogelperspektive oder ein Panoramabild oder dergleichen durch Kombinieren von Bilddaten, die durch verschiedene Bildgebungsvorrichtungen der Datenerhalteeinheit 102 abgebildet wurden, und liefert ein Ausgabesignal einschließlich des erzeugten Bildes an die Ausgabeeinheit 106. Ferner erzeugt die Ausgabesteuereinheit 105 zum Beispiel Tondaten einschließlich eines Warntons oder einer Warnnachricht oder dergleichen für eine Gefahr, wie etwa eine Kollision, einen Kontakt oder einen Eintritt in eine Gefahrenzone, und liefert ein Ausgabesignal einschließlich der erzeugten Tondaten an die Ausgabeeinheit 106.
  • Die Ausgabeeinheit 106 weist eine Vorrichtung auf, die dazu in der Lage ist, visuelle Informationen oder akustische Informationen zu einem Insassen des mobilen Körpers oder nach außerhalb des mobilen Körpers auszugeben. Zum Beispiel weist die Ausgabeeinheit 106 eine Anzeigevorrichtung, ein Instrumentenfeld, einen Audiolautsprecher, einen Kopfhörer, eine Wearable-Vorrichtung, wie etwa eine Anzeige vom Brillentyp, die von einem Insassen getragen wird, einen Projektor, eine Lampe und dergleichen auf. Die in der Ausgabeeinheit 106 enthaltene Anzeigevorrichtung kann neben einer Vorrichtung, die eine normale Anzeige aufweist, eine Anzeigevorrichtung sein, die visuelle Informationen in einem Sichtfeld eines Fahrers anzeigt, zum Beispiel ein Head-Up-Display, eine Anzeige vom Transmissionstyp, eine Vorrichtung mit einer AR-Anzeigefunktion (AR: Augmented Reality - erweiterte Realität) oder dergleichen. Es ist anzumerken, dass die Ausgabesteuereinheit 105 und die Ausgabeeinheit 106 nicht notwendige Komponenten zur Verarbeitung der autonomen Fortbewegung sind, und falls erforderlich weggelassen werden können.
  • Die Antriebssystemsteuereinheit 107 steuert das Antriebssystem 108 durch Erzeugen verschiedener Steuersignale und Liefern von diesen an das Antriebssystem 108. Des Weiteren liefert die Antriebssystemsteuereinheit 107 ein Steuersignal an jede Einheit außer dem Antriebssystem 108 nach Bedarf und meldet einen Steuerzustand des Antriebssystems 108 und dergleichen.
  • Das Antriebssystem 108 weist verschiedene Vorrichtungen auf, die mit dem Antriebssystem des mobilen Körpers in Zusammenhang stehen. Beispielsweise weist das Antriebssystem 108 Folgendes auf: einen Servomotor, der an jedem Gelenk von vier Beinen bereitgestellt ist und in der Lage ist, einen Winkel und ein Drehmoment zu designieren, eine Bewegungssteuerung, die eine Bewegung des Roboters selbst in Bewegungen von vier Beinen zerlegt und mit diesen ersetzt, und eine Rückkopplungssteuervorrichtung mit einem Sensor in jedem Motor oder einem Sensor in der Sohle eines Fußes.
  • In einem anderen Beispiel weist das Antriebssystem 108 Folgendes auf: einen Motor mit vier bis sechs Aufwärtspropellern am Körper und eine Bewegungssteuerung, die eine Fortbewegungsbewegung des Roboters selbst in die Rotationsbeträge jeweiliger Motoren zerlegt und mit diesen ersetzt.
  • In einem anderen Beispiel weist das Antriebssystem 108 darüber hinaus Folgendes auf: eine Antriebskrafterzeugungsvorrichtung zum Erzeugen einer Antriebskraft, wie etwa einen Verbrennungsmotor oder einen Antriebsmotor, einen Antriebskraftübertragungsmechanismus zum Übertragen der Antriebskraft auf Räder, einen Lenkmechanismus, der einen Lenkwinkel anpasst, eine Bremsvorrichtung, die eine Bremskraft erzeugt, ein Antiblockiersystem (ABS), eine elektronische Stabilitätskontrolle (ESC), und eine elektrische Servolenkvorrichtung und dergleichen. Es ist anzumerken, dass die Ausgabesteuereinheit 105, die Ausgabeeinheit 106, die Antriebssystemsteuereinheit 107 und das Antriebssystem 108 eine Aktorgruppe 113 bilden und der Aktorgruppe 23 einschließlich der Aktoren 23a-1 bis 23a-n in 1 entsprechen.
  • Die Speichereinheit 109 weist zum Beispiel eine Magnetspeichervorrichtung, wie etwa einen Nurlesespeicher (ROM), einen Direktzugriffsspeicher (RAM) und ein Festplattenlaufwerk (HDD), eine Halbleiterspeichervorrichtung, eine optische Speichervorrichtung und eine magnetooptische Speichervorrichtung und dergleichen auf. Die Speichereinheit 109 speichert verschiedene Programme, Daten und dergleichen, die durch jeweilige Einheiten des Mobilkörpersteuersystems 100 verwendet werden. Beispielsweise speichert die Speichereinheit 109 Kartendaten einer dreidimensionalen Karte mit hoher Genauigkeit, wie etwa eine dynamische Karte, eine globale Karte, die eine geringere Genauigkeit als die Karte mit hoher Genauigkeit aufweist und einen weiten Bereich abdeckt, und eine lokale Karte, die Umfeldinformationen eines mobilen Körpers beinhaltet, und dergleichen.
  • Die Autonome-Fortbewegung-Steuereinheit 110 führt eine Steuerung mit Bezug auf eine autonome Fortbewegung, wie etwa ein autonomes Fahren oder eine Fahrunterstützung, durch. Genauer gesagt führt die Autonome-Fortbewegung-Steuereinheit 110 beispielsweise eine kooperative Steuerung durch, die auf das Implementieren einer Funktion zum Vermeiden einer Kollision oder Mindern eines Aufpralls des mobilen Körpers, Folgefortbewegung auf Basis eines Abstands zwischen mobilen Körpern, geschwindigkeitsbeibehaltende Fortbewegung des mobilen Körpers oder eine Kollisionswarnung des mobilen Körpers abzielt. Ferner führt die Autonome-Fortbewegung-Steuereinheit 110 beispielsweise eine kooperative Steuerung durch, die auf die autonome Fortbewegung oder dergleichen abzielt, um sich ohne Abhängigkeit auf eine Bedienung durch einen Betreiber oder Benutzer autonom fortzubewegen. Die Autonome-Fortbewegung-Steuereinheit 110 weist eine Detektionseinheit 131, eine Eigenpositionsschätzungseinheit 132, eine Situationsanalyseeinheit 133, eine Planungseinheit 134 und eine Betriebssteuereinheit 135 auf. Unter diesen bilden die Detektionseinheit 131, die Eigenpositionsschätzungseinheit 132 und die Situationsanalyseeinheit 133 eine Erkennungsverarbeitungseinheit 121 und entsprechen der Erkennungsverarbeitungseinheit 31 in 1. Ferner bildet die Planungseinheit 134 eine Handlungsplanverarbeitungseinheit 122 und entspricht der Handlungsplanverarbeitungseinheit 32 in 1. Darüber hinaus bildet die Betriebssteuereinheit 135 die Handlungssteuerungsverarbeitungseinheit 123 und entspricht der Handlungssteuerungsverarbeitungseinheit 33 in 1.
  • Die Detektionseinheit 131 detektiert verschiedene Arten von Informationen, die zur Steuerung der autonomen Fortbewegung erforderlich sind. Die Detektionseinheit 131 weist eine Mobilkörper-Außeninformationsdetektionseinheit 141, eine Mobilkörper-Inneninformationsdetektionseinheit 142 und eine Mobilkörper-Zustandsdetektionseinheit 143 auf.
  • Die Mobilkörper-Außeninformationsdetektionseinheit 141 führt einen Detektionsprozess für Außeninformationen des mobilen Körpers auf Basis von Daten oder Signalen von jeder Einheit des Mobilkörpersteuersystems 100 durch. Zum Beispiel führt die Mobilkörper-Außeninformationsdetektionseinheit 141 einen Detektionsprozess, einen Erkennungsprozess und einen Verfolgungsprozess eines Objekts um den mobilen Körper herum und einen Detektionsprozess des Abstands zu dem Objekt durch. Objekte als Detektionsziele schließen zum Beispiel mobile Körper, Personen, Hindernisse, Strukturen, Straßen, Ampeln, Verkehrsschilder, Straßenmarkierungen und dergleichen ein. Des Weiteren führt die Mobilkörper-Außeninformationsdetektionseinheit 141 zum Beispiel einen Detektionsprozess für die umliegende Umgebung des mobilen Körpers durch. Die umliegende Umgebung als ein Detektionsziel schließt zum Beispiel Wetter, Temperatur, Luftfeuchtigkeit, Helligkeit und Straßenoberflächenzustände und dergleichen ein. Die Mobilkörper-Außeninformationsdetektionseinheit 141 liefert Daten, die ein Ergebnis des Detektionsprozesses angeben, an die Eigenpositionsschätzungseinheit 132, eine Kartenanalyseeinheit 151 und eine Situationserkennungseinheit 152 der Situationsanalyseeinheit 133, und die Betriebssteuereinheit 135 und dergleichen.
  • Die Mobilkörper-Inneninformationsdetektionseinheit 142 führt einen Detektionsprozess für Informationen innerhalb des mobilen Körpers auf Basis von Daten oder Signalen von jeder Einheit des Mobilkörpersteuersystems 100 durch. Beispielsweise führt die Mobilkörper-Inneninformationsdetektionseinheit 142 einen Authentifizierungsprozess und einen Erkennungsprozess eines Fahrers, einen Fahrerzustandsdetektionsprozess, einen Insassendetektionsprozess und einen Umgebungsdetektionsprozess innerhalb des mobilen Körpers und dergleichen durch. Der Zustand des Fahrers als ein Detektionsziel schließt beispielsweise die physische Verfassung, den Wachheitsgrad, den Konzentrationsgrad, den Ermüdungsgrad, die Blickrichtung und dergleichen ein. Die Umgebung innerhalb des mobilen Körpers als ein Detektionsziel schließt beispielsweise Temperatur, Luftfeuchtigkeit, Helligkeit, Geruch und dergleichen ein. Die Mobilkörper-Inneninformationsdetektionseinheit 142 liefert Daten, die ein Ergebnis eines Detektionsprozesses angeben, an die Situationserkennungseinheit 152 der Situationsanalyseeinheit 133, die Betriebssteuereinheit 135 und dergleichen.
  • Die Mobilkörper-Zustandsdetektionseinheit 143 führt einen Detektionsprozess des Zustands des mobilen Körpers auf Basis von Daten oder Signalen von jeder Einheit des Mobilkörpersteuersystems 100 durch. Der Zustand des mobilen Körpers als ein Detektionsziel schließt beispielsweise Geschwindigkeit, Beschleunigung, Lenkwinkel, Vorhandensein oder Nichtvorhandensein und Inhalt einer Anomalie, Fahrbetriebszustand, Position und Neigung eines elektrischen Sitzes, einen Türverriegelungszustand und Zustände anderer am mobilen Körper angebrachter Vorrichtungen und dergleichen ein. Die Mobilkörper-Zustandsdetektionseinheit 143 liefert Daten, die ein Ergebnis des Detektionsprozesses angeben, an die Situationserkennungseinheit 152 der Situationsanalyseeinheit 133, die Betriebssteuereinheit 135 und dergleichen.
  • Die Eigenpositionsschätzungseinheit 132 führt einen Schätzungsprozess einer Position und Stellung und dergleichen des mobilen Körpers auf Basis von Daten oder einem Signal von jeder Einheit des Mobilkörpersteuersystems 100, wie etwa der Mobilkörper-Außeninformationsdetektionseinheit 141 und der Situationserkennungseinheit 152 der Situationsanalyseeinheit 133, durch. Des Weiteren erzeugt die Eigenpositionsschätzungseinheit 132 eine lokale Karte (im Folgenden als Eigenpositionsschätzungskarte bezeichnet), die nach Bedarf zur Schätzung der Eigenposition verwendet wird. Die Eigenpositionsschätzungskarte ist zum Beispiel eine hochgenaue Karte, die eine Technik wie etwa SLAM (Simultaneous Localization and Mapping - simultane Positionierung und Kartenerstellung) verwendet. Die Eigenpositionsschätzungseinheit 132 liefert Daten, die ein Ergebnis des Schätzungsprozesses angeben, an die Kartenanalyseeinheit 151 und die Situationserkennungseinheit 152 der Situationsanalyseeinheit 133 und dergleichen. Ferner verursacht die Eigenpositionsschätzungseinheit 132, dass die Speichereinheit 109 die Eigenpositionsschätzungskarte speichert.
  • Darüber hinaus akkumuliert die Eigenpositionsschätzungseinheit 132 Zeitreiheninformationen, die in Zeitreihe von beispielsweise einem LIDAR oder einem Radmessgeber auf Basis eines von der Sensorgruppe 112 gelieferten Detektionsergebnisses geliefert werden, in einer Datenbank und schätzt eine Eigenposition auf Basis der Zeitreiheninformationen und gibt die Eigenposition als eine Zeitreiheninformationen-Eigenposition aus. Des Weiteren schätzt die Eigenpositionsschätzungseinheit 132 eine Eigenposition auf Basis beispielsweise eines von der Sensorgruppe 112 gelieferten momentanen Detektionsergebnisses, wie etwa eines Tiefenbildes, das auf Basis eines durch eine Stereokamera abgebildeten Parallaxenbildes erhalten wird, und gibt die Eigenposition als eine Momentaninformationen-Eigenposition aus. Darüber hinaus integriert die Eigenpositionsschätzungseinheit 132 die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition unter Verwendung beispielsweise eines Kalman-Filters, eines Partikel-Filters oder dergleichen und gibt das Ergebnis als ein Eigenpositionsschätzergebnis aus. Es ist anzumerken, dass sowohl die hier ausgegebene Zeitreiheninformationen-Eigenposition als auch die Momentaninformationen-Eigenposition die Eigenposition und Informationen über die Richtung des mobilen Körpers 11, die bei der Schätzung der Eigenposition erhalten werden, einschließen. Daher wird nachfolgend angenommen, wenn sich auf die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition und einfach die Eigenposition bezogen wird, dass sie zusammen Informationen über die Richtung des mobilen Körpers 11 einschließen, wenn die Eigenposition geschätzt wird.
  • Die Situationsanalyseeinheit 133 führt einen Analyseprozess der Situation des mobilen Körpers und des Umfelds durch. Ferner schaltet die Situationsanalyseeinheit 133 den Betriebsmodus vom Normalmodus zum Suchmodus auf Basis dessen um, ob sich im unbestimmten Eigenpositionszustand befunden wird oder nicht, und bewirkt, dass die Handlungsplanverarbeitungseinheit 122 einen Handlungsplanprozess im Suchmodus ausführt, um Handlungen zu planen, damit effizient nach Umfeldinformationen abgesucht wird. Die Situationsanalyseeinheit 133 weist die Kartenanalyseeinheit 151, die Situationserkennungseinheit 152 und eine Situationsvorhersageeinheit 153 auf.
  • Die Kartenanalyseeinheit 151 führt einen Analyseprozess verschiedener Karten durch, die in der Speichereinheit 109 gespeichert sind, während sie Daten oder Signale von jeder Einheit des Mobilkörpersteuersystems 100, wie etwa der Eigenpositionsschätzungseinheit 132 und der Mobilkörper-Außeninformationsdetektionseinheit 141, nach Bedarf verwendet, um eine Karte zu erstellen, die Informationen enthält, die zur Verarbeitung der autonomen Fortbewegung erforderlich sind. Die Kartenanalyseeinheit 151 liefert die erstellte Karte an die Situationserkennungseinheit 152 und die Situationsvorhersageeinheit 153 sowie eine Routenplanungseinheit 161, eine Handlungsplanungseinheit 162 und eine Betriebsplanungseinheit 163 der Planungseinheit 134 und dergleichen.
  • Die Situationserkennungseinheit 152 führt einen Prozess zum Erkennen einer auf den mobilen Körper bezogenen Situation auf Basis von Daten oder Signalen von jeder Einheit des Mobilkörpersteuersystems 100, wie etwa der Eigenpositionsschätzungseinheit 132, der Mobilkörper-Außeninformationsdetektionseinheit 141, der Mobilkörper-Inneninformationsdetektionseinheit 142, der Mobilkörper-Zustandsdetektionseinheit 143 und der Kartenanalyseeinheit 151, durch. Zum Beispiel führt die Situationserkennungseinheit 152 einen Erkennungsprozess der Situation des mobilen Körpers, der Situation um den mobilen Körper herum, der Situation eines Fahrers des mobilen Körpers und dergleichen durch. Weiterhin erzeugt die Situationserkennungseinheit 152 eine lokale Karte (im Folgenden als eine Situationserkennungskarte bezeichnet), die nach Bedarf zum Erkennen einer umliegenden Situation des mobilen Körpers verwendet wird. Die Situationserkennungskarte ist beispielsweise eine Belegtheitsgitterkarte, eine Straßenkarte (Fahrspurkarte) oder eine Punktwolkenkarte.
  • Die Situation des mobilen Körpers als ein Erkennungsziel schließt beispielsweise Position, Stellung, Bewegung (zum Beispiel Geschwindigkeit, Beschleunigung, Fahrtrichtung und dergleichen) des mobilen Körpers und Vorhandensein oder Nichtvorhandensein und Inhalt einer Anomalie und dergleichen ein. Die umliegende Situation des mobilen Körpers als ein Erkennungsziel schließt beispielsweise eine Art und Position eines stationären Objekts im Umfeld, eine Art, Position und Fortbewegung eines sich bewegenden Objekts im Umfeld (zum Beispiel Geschwindigkeit, Beschleunigung, Fahrtrichtung und dergleichen), eine Konfiguration einer umliegenden Straße und den Zustand einer Straßenoberfläche und Wetter, Temperatur, Luftfeuchtigkeit, Helligkeit und dergleichen des Umfelds ein. Der Zustand des Fahrers als ein Erkennungsziel schließt beispielsweise die physische Verfassung, den Wachheitsgrad, den Konzentrationsgrad, den Ermüdungsgrad, die Blickbewegung und den Fahrbetrieb und dergleichen ein.
  • Die Situationserkennungseinheit 152 liefert Daten, die ein Ergebnis des Erkennungsprozesses angeben (einschließlich einer Situationserkennungskarte, falls erforderlich), an die Eigenpositionsschätzungseinheit 132, die Situationsvorhersageeinheit 153 und dergleichen. Ferner verursacht die Situationserkennungseinheit 152, dass die Speichereinheit 109 die Situationserkennungskarte speichert. Des Weiteren bestimmt die Situationserkennungseinheit 152, ob sich im unbestimmten Eigenpositionszustand befunden wird oder nicht, auf Basis beispielsweise dessen, ob sie sich in einem Zustand unmittelbar nach dem Einschalten der Leistung befindet oder nicht, oder sie hochgehalten wird oder dergleichen. Falls sie sich im unbestimmten Eigenpositionszustand befindet, schaltet die Situationserkennungseinheit 152 hier den Betriebsmodus zum Suchmodus um. Wenn der Betriebsmodus zum Suchmodus umgeschaltet wird, bewirkt die Situationserkennungseinheit 152, dass die Handlungsplanverarbeitungseinheit 122 den Handlungsplanprozess im Suchmodus ausführt, um Handlungen zu planen, damit effizient nach Umfeldinformationen abgesucht wird. Genauer gesagt erzeugt die Situationserkennungseinheit 152 Informationen über einen erfassten Bereich auf Basis von Informationen, die durch die Sensorgruppe 112 geliefert werden, und falls sie in den Suchmodus übergeht, gibt sie die Informationen über den erfassten Bereich zu der Handlungsplanverarbeitungseinheit 122 aus, sodass Handlungen geplant werden, damit ein nicht erfasster Bereich im Umfeld effizient abgesucht wird.
  • Die Situationsvorhersageeinheit 153 führt einen Situationsvorhersageprozess bezüglich des mobilen Körpers auf Basis von Daten oder Signalen von jeder Einheit des Mobilkörpersteuersystems 100, wie etwa der Kartenanalyseeinheit 151 und der Situationserkennungseinheit 152, durch. Zum Beispiel führt die Situationsvorhersageeinheit 153 einen Vorhersageprozess der Situation des mobilen Körpers, der Situation um den mobilen Körper herum und der Situation des Fahrers und dergleichen durch.
  • Die Situation des mobilen Körpers als ein Vorhersageziel schließt beispielsweise ein Verhalten des mobilen Körpers, das Auftreten einer Anomalie und eine fahrbare Distanz und dergleichen ein. Die Situation um den mobilen Körper herum als ein Vorhersageziel schließt zum Beispiel ein Verhalten des sich bewegenden Objekts um den mobilen Körper herum, eine Änderung eines Signalzustands und eine Änderung der Umgebung, wie etwa des Wetters, und dergleichen ein. Die Situation des Fahrers als ein Vorhersageziel schließt zum Beispiel ein Verhalten und eine physische Verfassung und dergleichen des Fahrers ein.
  • Die Situationsvorhersageeinheit 153 liefert Daten, die ein Ergebnis des Vorhersageprozesses angeben, zusammen mit Daten von der Situationserkennungseinheit 152 an die Routenplanungseinheit 161, die Handlungsplanungseinheit 162 und die Betriebsplanungseinheit 163 der Planungseinheit 134, und dergleichen.
  • Die Routenplanungseinheit 161 plant eine Route zu einem Ziel auf Basis von Daten oder Signalen von jeder Einheit des Mobilkörpersteuersystems 100, wie etwa der Kartenanalyseeinheit 151 und der Situationsvorhersageeinheit 153. Zum Beispiel legt die Routenplanungseinheit 161 eine Route von der momentanen Position zu einem designierten Ziel auf Basis der globalen Karte fest. Darüber hinaus ändert die Routenplanungseinheit 161 zum Beispiel die Route auf Basis von Situationen eines Verkehrsstaus, eines Unfalls, einer Verkehrsbeschränkung, einer Baustelle und dergleichen und der physischen Verfassung des Fahrers und dergleichen auf angemessene Weise. Die Routenplanungseinheit 161 liefert Daten, die eine geplante Route angeben, an die Handlungsplanungseinheit 162 und dergleichen.
  • Die Handlungsplanungseinheit 162 plant Handlungen des mobilen Körpers, um sich sicher auf der durch die Routenplanungseinheit 161 geplanten Route innerhalb einer geplanten Zeit zu bewegen, auf Basis von Daten oder Signalen von jeder Einheit des Mobilkörpersteuersystems 100, wie etwa der Kartenanalyseeinheit 151 und der Situationsvorhersageeinheit 153. Zum Beispiel führt die Handlungsplanungseinheit 162 eine Planung zum Starten, Stoppen, der Fortbewegungsrichtung (zum Beispiel vorwärts, rückwärts, Linksabbiegen, Rechtsabbiegen, Richtungsänderung und dergleichen), der Fortbewegungsgeschwindigkeit und zum Überholen und dergleichen durch. Die Handlungsplanungseinheit 162 liefert Daten, die geplante Handlungen des mobilen Körpers angeben, an die Betriebsplanungseinheit 163 und dergleichen.
  • Genauer gesagt erzeugt die Handlungsplanungseinheit 162, als einen Handlungsplankandidaten, einen Kandidaten eines Handlungsplans des mobilen Körpers zur sicheren Fortbewegung innerhalb einer geplanten Zeit für jede Route, die jeweils durch die Routenplanungseinheit 161 geplant wird. Insbesondere erzeugt die Handlungsplanungseinheit 162 den Handlungsplankandidaten beispielsweise durch einen A*-Algorithmus (A-Star-Suchalgorithmus), der eine Umgebung in ein Gitter aufteilt und Ankunftsbestimmung und die Gewichtung eines Pfades optimiert, um einen besten Pfad zu erzeugen, einen Fahrbahnalgorithmus, der einen Pfad gemäß einer Straßenmittellinie festlegt, und einen RRT-Algorithmus (RRT: Rapidly-exploring Random Tree - schnell erkundender zufälliger Baum), der einen Pfad von seiner Eigenposition zu einem Ort verlängert, der inkrementell erreicht werden kann, während er zweckmäßig gekürzt wird, oder dergleichen.
  • Die Betriebsplanungseinheit 163 plant Arbeitsabläufe des mobilen Körpers, um die durch die Handlungsplanungseinheit 162 geplante Handlung auf Basis von Daten oder Signalen von jeder Einheit des Mobilkörpersteuersystems 100, wie etwa der Kartenanalyseeinheit 151 und der Situationsvorhersageeinheit 153, zu implementieren. Beispielsweise plant die Betriebsplanungseinheit 163 eine Beschleunigung, eine Abbremsung und eine Fahrspur und dergleichen. Die Betriebsplanungseinheit 163 liefert Daten, die die geplanten Arbeitsabläufe des mobilen Körpers angeben, an die Betriebssteuereinheit 135 und dergleichen.
  • Die Betriebssteuereinheit 135 steuert Arbeitsabläufe des mobilen Körpers.
  • Genauer gesagt führt die Betriebssteuereinheit 135 auf Basis von Detektionsergebnissen der Mobilkörper-Außeninformationsdetektionseinheit 141, der Mobilkörper-Inneninformationsdetektionseinheit 142 und der Mobilkörper-Zustandsdetektionseinheit 143 einen Detektionsprozess von Notfallsituationen wie etwa Kollision, Kontakt, Eintritt in eine Gefahrenzone, Anomalie des Fahrers und Anomalie des mobilen Körpers durch. Wenn das Auftreten einer Notfallsituation detektiert wird, plant die Betriebssteuereinheit 135 einen Betrieb des mobilen Körpers zum Vermeiden der Notfallsituation, wie etwa ein plötzliches Stoppen oder ein abruptes Abbiegen.
  • Weiterhin führt die Betriebssteuereinheit 135 eine Beschleunigung-Verlangsamung-Steuerung zum Implementieren des Betriebs des mobilen Körpers durch, die durch die Betriebsplanungseinheit 163 geplant wird. Beispielsweise berechnet die Betriebssteuereinheit 135 einen Steuerungssollwert der Antriebskrafterzeugungseinrichtung oder der Bremsvorrichtung zum Implementieren der geplanten Beschleunigung, Abbremsung oder des plötzlichen Stoppens und liefert einen Steuerbefehl, der den berechneten Steuerungssollwert angibt, an die Fahrsystemsteuereinheit 107.
  • Die Betriebssteuereinheit 135 führt eine Richtungssteuerung zum Implementieren des Betriebs des mobilen Körpers durch, der durch die Betriebsplanungseinheit 163 geplant wird. Beispielsweise berechnet die Betriebssteuereinheit 135 einen Steuersollwert des Lenkmechanismus zum Implementieren einer Fortbewegungsbahn oder eines abrupten Abbiegens, die durch die Betriebsplanungseinheit 163 geplant werden, und liefert einen Steuerbefehl, der den berechneten Steuersollwert angibt, an die Fahrsystemsteuereinheit 107.
  • <Detailliertes Konfigurationsbeispiel der Erkennungsverarbeitungseinheit>
  • Als Nächstes wird ein spezifisches Konfigurationsbeispiel der Erkennungsverarbeitungseinheit 121 der Autonome-Fortbewegung-Steuereinheit 110, die der Erkennungsverarbeitungseinheit 31 im Mobilkörpersteuersystem 100 von 3 entspricht, unter Bezugnahme auf 4 beschrieben.
  • Es ist anzumerken, dass, obwohl hier ein Beispiel beschrieben wird, in dem der mobile Körper ein mobiler Körper 11 einschließlich eines fahrbaren mobilen Roboters ist, der mobile Körper ein beliebiger anderer gehender Roboter, ein beliebiges anderes Fahrzeug oder dergleichen sein kann.
  • Die Sensorgruppe 112 weist ein LIDAR 201, einen Radmessgeber 202 und eine Stereokamera 203 auf. Selbstverständlich können andere Sensoren verwendet werden, solange der mobile Körper ein vierfüßiger gehender Roboter, ein Fahrzeug oder dergleichen ist.
  • Das LIDAR 201 erhält die Entfernung zu einem Objekt rund um den mobilen Körper 11 als dreidimensionale Punktwolkendaten und gibt die Daten als Zeitreiheninformationen über die Detektionseinheit 131 zu einer Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 der Eigenpositionsschätzungseinheit 132 und eine Hinderniserkennungseinheit 241 der Situationserkennungseinheit 152 aus.
  • Der Radmessgeber 202 detektiert Positionsinformationen (X, Y, Z), Stellung (Quaternion), Geschwindigkeit (dx, dy, dz), Beschleunigung (ax, ay, az) und Winkelgeschwindigkeit (wx, wy, wz) des mobilen Körpers 11 und gibt ein Ergebnis als Zeitreiheninformationen über die Detektionseinheit 131 zu der Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 aus.
  • Die Stereokamera 203 bildet ein Parallaxenbild rund um den mobilen Körper 11 ab und gibt das Parallaxenbild über die Detektionseinheit 131 zu einer Tiefenbilderzeugungseinheit 226 aus.
  • Die Eigenpositionsschätzungseinheit 132 weist die Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221, eine Zeitreiheninformationen-DB 222, eine Momentaninformationen-Eigenpositionsschätzungseinheit 223, eine Position-Bildmerkmalsmenge-DB 224 und eine Eigenpositionsschätzergebnis-Integrationseinheit 225 auf.
  • Die Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 speichert Zeitreiheninformationen der Eigenposition und der Position eines Hindernisses im Umfeld und dergleichen, die vom LIDAR 201 und vom Radmessgeber 202 geliefert werden, in der Zeitreiheninformationen-DB 222. Ferner liest die Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 nach Bedarf Zeitreiheninformationen von der Vergangenheit zur Gegenwart, schätzt die Eigenposition auf Basis der gelesenen Zeitreiheninformationen von der Vergangenheit zur Gegenwart und liefert ein Ergebnis an die Eigenpositionsschätzergebnis-Integrationseinheit 225. Hier schätzt die Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 die Eigenposition auf Basis beispielsweise von SLAM (simultane Positionierung und Kartenerstellung) auf Basis der gelesenen Zeitreiheninformationen von der Vergangenheit zur Gegenwart.
  • Für ein spezifisches Schätzverfahren der Eigenposition unter Verwendung der SLAM (simultane Positionierung und Kartenerstellung) durch die Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 siehe „Own Position Estimation and Environment Recognition of a Mobile Robot Using Extended Kalman Filter“, Yusuke Morimoto, Toru Seinamerikawa, „Simultaneous Localisation and Mapping (SLAM): Part I The Essential Algorithms Hugh Durrant-Whyte, Fellow, IEEE, and Tim Bailey“ und „Simultaneous Localisation and Mapping (SLAM): Part II State of the Art Tim Bailey and See Hugh Durrant-Whyte“. Es ist anzumerken, dass die durch die Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 auf Basis von Zeitreiheninformationen geschätzte Eigenposition als eine Zeitreiheninformationen-Eigenposition bezeichnet wird.
  • Die Momentaninformationen-Eigenpositionsschätzungseinheit 223 erzeugt ein Tiefenbild (Abstandsbild) auf Basis des von der Stereokamera 203 gelieferten Parallaxenbildes, extrahiert eine Bildmerkmalsmenge des Tiefenbildes, schätzt die Eigenposition auf Basis von Informationen über die Position, die der extrahierten Merkmalsmenge entspricht, aus der Position-Bildmerkmalsmenge-DB 224, in der Positionen und Bildmerkmalsmengen in Verbindung gespeichert sind, und liefert ein Schätzergebnis an die Eigenpositionsschätzergebnis-Integrationseinheit 225. Es ist anzumerken, dass die durch die Momentaninformationen-Eigenpositionsschätzungseinheit 223 auf Basis der momentanen Informationen geschätzte Eigenposition als eine Momentaninformationen-Eigenposition bezeichnet wird.
  • Die Eigenpositionsschätzergebnis-Integrationseinheit 225 integriert die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition gemäß einer Zuverlässigkeit oder dergleichen in Abhängigkeit von jeweiligen Situationen beispielsweise des LIDAR 201, des Radmessgebers 202 und der Stereokamera 203 und gibt eine integrierte Position an die Situationserkennungseinheit 152 als ein Eigenpositionsschätzergebnis aus. Es ist anzumerken, dass die Eigenpositionsschätzergebnis-Integrationseinheit 225 die erhaltenen Positionsinformationen und die Bildmerkmalsmenge des Tiefenbildes, die zu einem Zeitpunkt davon in Verbindung zueinander detektiert werden, in der Position-Bildmerkmalsmenge 224 registriert. Das heißt, durch das Registrieren der Merkmalsmenge des Tiefenbildes zum Zeitpunkt davon in Verbindung mit einer als die Eigenposition geschätzten Position besteht die Bildmerkmalsmenge des entsprechenden Tiefenbildes mit Sicherheit für eine zuvor durchfahrene Position, und somit ist es möglich, die Eigenposition mit hoher Genauigkeit zu schätzen.
  • Die Situationserkennungseinheit 152 weist eine Hinderniserkennungseinheit 241, eine Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242, eine Mögliches-Oberflächenerfassungsgebiet-Informationen-Speichereinheit 243, eine Oberflächenerfasster-Bereich-DB 244 und eine Suchmodusumschaltungseinheit 245 auf.
  • Die Hinderniserkennungseinheit 241 erkennt ein Hindernis rund um den mobilen Körper 11 auf Basis dreidimensionaler Punktwolkeninformationen über den Abstand zu einem Objekt wie etwa einem Hindernis rund um den mobilen Körper 11, der durch das LIDAR 201 detektiert wird, und gibt das Erkennungsergebnis zu der Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 aus.
  • Die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 erhält einen oberflächenerfassten Bereich eines Hindernisses durch die Stereokamera 203 auf Basis von Informationen über einen Sichtwinkel und eines Bildgebungsgebiets, das ein in der Mögliches-Oberflächenerfassungsgebiet-Informationen-Speichereinheit 243 gespeichertes Bildgebungsgebiet der Stereokamera 203 sein soll, Informationen über die Zeitreiheninformationen-Eigenposition einschließlich einer Richtung des mobilen Körpers 11 und ein Hinderniserkennungsergebnis und registriert das Ergebnis in der Oberflächenerfasster-Bereich-DB 244.
  • Das heißt, aus beispielsweise den Informationen der Zeitreiheninformationen-Eigenposition (einschließlich Informationen über die Richtung des mobilen Körpers 11 selbst) und dem Hinderniserkennungsergebnis wird eine Positionsbeziehung zwischen dem Hindernis B1 und dem mobilen Körper 11 selbst deutlich, wie in 5 veranschaulicht. Es ist anzumerken, dass in 5 die Positionsbeziehung zwischen dem mobilen Körper 11 und dem Hindernis B1 durch eine Belegtheitsgitterkarte angegeben wird, die eine andere Karte sein kann.
  • Darüber hinaus sind die Mögliches-Oberflächenerfassungsgebiet-Informationen beispielsweise Informationen zum Bestimmen eines Gebiets Z1, bei dem die Oberfläche des Hindernisses B1 durch die Stereokamera 203 (die Sensorgruppe 21 in 6) erfasst werden kann und das in 6 durch gestrichelte Linien angegeben ist. Hier ist das Gebiet Z1 in 6 ein Gebiet, das durch einen Blickwinkel 91 der Stereokamera 203 (der Sensorgruppe 21 in 6) und eine mögliche Bildgebungsentfernung d1 spezifiziert wird, und ist ein Gebiet, bei dem die Oberfläche des Hindernisses B1 durch die Stereokamera 203 erfasst werden kann.
  • Die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 erhält einen erfassten Bereich (Bereich am Hindernis B1, der als ein Parallaxenbild abgebildet wird) als einen oberflächenerfassten Oberflächenbereich auf Basis von Informationen über die Positionsbeziehung zwischen dem mobilen Körper 11 und dem Hindernis B1, sowie der Mögliches-Oberflächenerfassungsgebiet-Informationen. Das heißt, beispielsweise in einem Fall von 7, wird ein Bereich, der in dem durch gestrichelte Linien angegebenen möglichen Oberflächenerfassungsgebiet Z1 auf der Oberfläche des Hindernisses B1 enthalten ist, als ein oberflächenerfasster Oberflächenbereich R1 erhalten.
  • Dann zeichnet die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 Informationen über den erhaltenen oberflächenerfassten Bereich in der Oberflächenerfasster-Bereich-DB 244 in Verbindung mit einer geschätzten Zeitreiheninformationen-Position und Richtung des mobilen Körpers 11 und dem Hinderniserkennungsergebnis auf.
  • Die Suchmodusumschaltungseinheit 245 bestimmt, ob sich im unbestimmten Eigenpositionszustand befunden wird oder nicht, auf Basis dessen, ob sich unmittelbar nach dem Einschalten der Leistung befunden wird oder nicht, und falls sich nicht im unbestimmten Eigenpositionszustand befunden wird, arbeitet sie im Betriebsmodus durch den Normalmodus und gibt das Eigenpositionsschätzergebnis und das Hinderniserkennungsergebnis zu der Handlungsplanverarbeitungseinheit 122 aus. Es ist anzumerken, dass, obwohl hier ein Fall beschrieben wird, bei dem der unbestimmte Eigenpositionszustand unmittelbar nach dem Einschalten der Leistung auftritt, der unbestimmte Eigenpositionszustand ein beliebiger anderer Zustand sein kann. Der unbestimmte Eigenpositionszustand kann zum Beispiel ein beliebiger anderer Zustand sein, solange sich ein Selbstschätzungsergebnis schnell ändert und die Kontinuität von Informationen über die Eigenposition verloren geht, wie etwa eine Detektion eines Hochhaltezustands oder eines Fehltritts.
  • Die Handlungsplanverarbeitungseinheit 122 weist die Routenplanungseinheit 161, die Handlungsplanungseinheit 162 und die Betriebsplanungseinheit 163 auf und führt andere Prozesse im Suchmodus von jenen in einem Fall, bei dem der Betriebsmodus der Normalmodus ist, aus.
  • In einem Betrieb im Normalmodus plant die Routenplanungseinheit 161 eine Route zu einem Ziel auf Basis des Eigenpositionsschätzergebnisses und des Hinderniserkennungsergebnisses, die Handlungsplanungseinheit 162 erzeugt einen Handlungsplan auf Basis der geplanten Route und die Betriebsplanungseinheit 163 erzeugt einen Betriebsplan gemäß dem Handlungsplan und gibt den Betriebsplan zu der Handlungssteuerungsverarbeitungseinheit 123 aus.
  • Andererseits, wenn der Betrieb im Suchmodus von der Suchmodusumschaltungseinheit 245 angewiesen wird, ändert die Handlungsplanverarbeitungseinheit 122 den Betriebsmodus zum Suchmodus. Zu dieser Zeit liefert die Suchmodusumschaltungseinheit 245 Informationen über den in der Oberflächenerfasster-Bereich-DB 244 gespeicherten oberflächenerfassten Bereich an die Handlungsplanverarbeitungseinheit 122 und weist den Betrieb im Suchmodus an.
  • Wenn der Betriebsmodus der Suchmodus ist, da sich im unbestimmten Eigenpositionszustand befunden wird, ist es notwendig, Handlungen zu planen, sodass das Umfeld abgesucht werden kann und Positionen und dergleichen von Hindernissen im Umfeld effizient gesammelt werden können, um die Eigenposition neu zu bestimmen.
  • Die Routenplanungseinheit 161 stellt darüber, in welche Richtung und bei welchem Abstand ein Hindernis bezüglich der Position und der Richtung des mobilen Körpers 11 vorhanden ist, als die Eigenposition auf Basis der Informationen über den oberflächenerfassten Bereich über die Suchmodusumschaltungseinheit 245 fest.
  • Wie beispielsweise in 8 veranschaulicht, wird ein Fall in Betracht gezogen, bei dem Hindernisse B21 bis B23 um den mobilen Körper 11 herum vorhanden sind, und oberflächenerfasste Bereiche R21 bis R23, bei denen eine Oberflächenerfassung an den Hindernissen B21 bis B23 abgeschlossen ist, festgestellt werden können.
  • Die Routenplanungseinheit 161 teilt einen Bereich, bei dem die Oberflächenerfassung nicht abgeschlossen ist, in mehrere Bereiche auf und setzt die aufgeteilten Bereiche zum Beispiel einzeln als Wegpunkte. Beispielsweise in einem Fall von 8 setzt die Routenplanungseinheit 161 zum Beispiel Wegpunkte P1 bis P4 in jedem der aufgeteilten Bereiche und plant Routen aller Muster, die durch alle Wegpunkte P1 bis P4 laufen.
  • Die Routenplanungseinheit 161 weist eine Prioritätsbestimmungseinheit 281 auf und bewirkt, dass diese Einheit eine Priorität für jeden der Wegpunkte P1 bis P4 auf Basis von Informationen über die Routen aller Muster, die durch alle Wegpunkte P1 bis P4 laufen, und einer Prioritätsbedingung festlegt.
  • In 8 ist die Priorität beispielsweise ein Wert, der gemäß der Reihenfolge der Wegpunkte P1 bis P4 in einer Route, bei der Prioritätskosten, die durch die Prioritätsbedingung und Körperbewegungsinformationen erhalten werden, die niedrigsten sind, falls alle Routen in Betracht gezogen werden, die mit Sicherheit durch alle Wegpunkte P1 bis P4 laufen, gesetzt wird.
  • Hier ist die Prioritätsbedingung eine Bedingung, die beim Setzen einer Route die höchste Priorität haben muss, und ist eine Gesamtfortbewegungsdistanz, ein Gesamtleistungsverbrauch oder dergleichen, und verschiedene Bedingungen können gesetzt werden.
  • Ferner sind die Körperbewegungsinformationen des mobilen Körpers 11 Informationen bezüglich der Bewegungsdurchführung des mobilen Körpers 11 und schließen beispielsweise eine Maximalgeschwindigkeit, eine höchste Beschleunigung, einen minimalen Wenderadius und eine Höhe einer überquerbaren Stufe auf einem Pfad und dergleichen des mobilen Körpers 11 ein, falls die Prioritätsbedingung die Gesamtfortbewegungsdistanz ist. Darüber hinaus, falls die Prioritätsbedingung der Gesamtleistungsverbrauch ist, schließen die Körperbewegungsinformationen des mobilen Körpers 11 einen Leistungsverbrauch des mobilen Körpers 11 pro Distanzeinheit und eine Ladekapazität der Batterie und dergleichen ein.
  • Darüber hinaus sind die Prioritätskosten Kosten, die auf Basis der Prioritätsbedingung und der Körperbewegungsinformationen festgelegt werden, und sind Kosten bezüglich einer Fortbewegungsdistanz, falls die Prioritätsbedingung die Gesamtfortbewegungsdistanz ist, oder Kosten bezüglich eines Leistungsverbrauchs, falls die Prioritätsbedingung der Gesamtleistungsverbrauch ist. Die Prioritätsbestimmungseinheit 281 der Routenplanungseinheit 161 berechnet die Prioritätskosten für alle Routen und legt Prioritäten in einer Reihenfolge des Durchlaufens der Wegpunkte auf der Route, bei der die Prioritätskosten die niedrigsten sind, fest.
  • Beispielsweise gibt es in Betracht gezogene Prioritätskosten, wenn es eine erste zu fahrende Route in der Reihenfolge der Wegpunkte P1, P2, P3, P4 und eine zweite zu fahrende Route in der Reihenfolge der Wegpunkte P1, P3, P2, P4 gibt, und die Gesamtfortbewegungsdistanz bezüglich dieser beiden Routen ist die Prioritätsbedingung. Falls die zweite Route eine kürzere Gesamtfortbewegungsdistanz und niedrigere Prioritätskosten als die erste Route aufweist, werden die Prioritäten in der Reihenfolge des Durchlaufens der Wegpunkte in der zweiten Route festgelegt. Das heißt, gemäß der Reihenfolge der Wegpunkte P1 bis P4 in der zweiten Route, wird die Priorität des Wegpunktes P1 zu der ersten festgelegt, die Priorität des Wegpunktes P3 wird zu der zweiten festgelegt, die Priorität des Wegpunktes P2 wird zu der dritten festgelegt und die Priorität des Wegpunktes P4 wird zu der vierten festgelegt.
  • Dann plant die Routenplanungseinheit 161 alle Routen, die durch jeden der Wegpunkte P1 bis P4 laufen, berechnet Routenkosten für jede Route auf Basis der Prioritäten, Bereiche, in denen eine Erfassung durch die Sensorgruppe 21 des mobilen Körpers 11 möglich ist, und einer Fortbewegungsbedingung, wählt eine Route mit den niedrigsten Routenkosten aus und erzeugt einen Handlungsplan basierend auf der ausgewählten Route.
  • Hier ist die Fortbewegungsbedingung eine Bedingung mit einer Priorität bezüglich der Fortbewegung beim Setzen einer zu suchenden Route und ist eine Bedingung mit einer Priorität bezüglich der Fortbewegung, sodass beispielsweise Wegpunkte in absteigender Prioritätsreihenfolge durchlaufen werden oder die Fortbewegung in einer kürzesten Zeit selbst bei Ignorieren der Prioritäten der Wegpunkte durchgeführt wird, und kann frei gesetzt werden.
  • Ferner sind die Routenkosten ein Maß zum quantitativen repräsentieren relativer Vorteile und Nachteile von Routen in allen möglichen Routensätzen, die auf Basis der Prioritäten von Wegpunkten und der Fortbewegungsbedingung mit einer Priorität bei der Routensetzung festgelegt werden. Beispielsweise wird ein Fall des Setzens einer Route unter Verwendung eines A*(Star)-Algorithmus in Betracht gezogen, der einen Raum, der als eine Route auswählbar ist, in ein Gittermuster aufteilt, Ankunftsbestimmung durchführt und ferner die Gewichtung jeder Route optimiert, um den besten Pfad (die beste Route) festzulegen, die die Kosten minimiert.
  • Zu dieser Zeit, um eine Route zu setzen, die die Fortbewegungsbedingung erfüllt, dass ein Wegpunkt mit einer höheren Priorität früher erreicht wird, wird das Produkt der Priorität jedes Wegpunktes und einer Zeit zur Fortbewegung zu dem entsprechenden Wegpunkt als Routenkosten gesetzt, und eine Route, bei der die Routenkosten die niedrigsten sind, wird ausgewählt. Somit wird eine Route, bei der ein Wegpunkt mit einer höchsten Priorität früher erreicht wird, aus mehreren denkbaren Routen gesetzt.
  • Durch eine derartige Verarbeitung plant die Routenplanungseinheit 161 eine Route, die bei einer Suche zum effizienten Implementieren einer Oberflächenerfassung eines Hindernisses im Umfeld benötigt wird.
  • Selbst in einem Fall, bei dem sich im unbestimmten Eigenpositionszustand befunden wird, ist es somit möglich, die Umfeldinformationen effizient zu erhalten und die Eigenposition durch Durchführen einer Erfassung neu zu schätzen, während das Umfeld effizient abgesucht wird. Infolgedessen, selbst wenn in den unbestimmten Eigenpositionszustand eingetreten wird, ist es möglich, schnell zu einem Zustand zurückzukehren, bei dem die Eigenposition erhalten werden kann, und der Betriebsmodus kann vom Suchmodus zum Normalmodus zurückgesetzt werden.
  • <Eigenpositionsschätzungsprozess>
  • Als Nächstes wird ein Eigenpositionsschätzungsprozess unter Bezugnahme auf ein Flussdiagramm in 9 beschrieben.
  • In Schritt S11 führt die Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 einen Zeitreiheninformationen-Eigenpositionsschätzungsprozess zum Schätzen einer Zeitreiheninformationen-Eigenposition aus und gibt die Zeitreiheninformationen-Eigenposition zu der Eigenpositionsschätzergebnis-Integrationseinheit 225 und der Oberflächenerfasster-Bereich-Aufzeichnungseinheit aus. Es ist anzumerken, dass der Zeitreiheninformationen-Eigenpositionsschätzungsprozess später unter Bezugnahme auf das Flussdiagramm in 10 beschrieben wird.
  • In Schritt S12 führt die Momentaninformationen-Eigenpositionsschätzungseinheit 223 einen Momentaninformationen-Eigenpositionsschätzungsprozess zum Schätzen einer Momentaninformationen-Eigenposition aus und gibt die Momentaninformationen-Eigenposition zu der Eigenpositionsschätzergebnis-Integrationseinheit 225 aus. Es ist anzumerken, dass der Momentaninformationen-Eigenpositionsschätzungsprozess später unter Bezugnahme auf ein Flussdiagramm in 11 beschrieben wird.
  • In Schritt S13 integriert die Eigenpositionsschätzergebnis-Integrationseinheit 225 die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition durch beispielsweise einen Kalman-Filter oder einen Partikel-Filter und gibt Informationen der integrierten Eigenposition als ein Eigenpositionsschätzergebnis zu der Situationserkennungseinheit 152 aus.
  • In Schritt S14 registriert die Eigenpositionsschätzergebnis-Integrationseinheit 225 das Eigenpositionsschätzergebnis und eine Merkmalsmenge eines Tiefenbildes, das aus einem Parallaxenbild erhalten wird, das die zur Bestimmung des Eigenpositionsschätzergebnisses verwendeten momentanen Informationen ist, in Verbindung zueinander in der Position-Bildmerkmalsmenge-DB 224.
  • Das heißt, die als die Eigenposition geschätzte Position und die Merkmalsmenge des Tiefenbildes, das aus dem Parallaxenbild erhalten wird, das die zur Bestimmung der Position verwendeten momentanen Informationen ist, werden in Verbindung zueinander in der Position-Bildmerkmalsmenge-DB 224 registriert. Somit wird die Merkmalsmenge des Tiefenbildes, das aus dem Parallaxenbild erhalten wird, das die momentanen Informationen entsprechend einer zuvor durchfahrenen Position ist, als neue Informationen in Verbindung mit der Position akkumuliert. Demzufolge kann, wenn erneut durch dieselbe Position gefahren wird, die Eigenposition mit hoher Genauigkeit geschätzt werden.
  • Ferner werden durch den obigen Prozess die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition sequenziell erhalten, und eine gemeinsam integrierte Position wird als ein Eigenpositionsschätzergebnis ausgegeben.
  • <Zeitreiheninformationen-Eigenpositionsschätzungsprozess>
  • Als Nächstes wird der Zeitreiheninformationen-Eigenpositionsschätzungsprozess unter Bezugnahme auf das Flussdiagramm in 10 beschrieben.
  • In Schritt S31 detektiert das LIDAR 201 die Entfernung zu einem Objekt rund um den mobilen Körper 11 als dreidimensionale Punktwolkendaten und gibt die Zeitreiheninformationen als Zeitreiheninformationen über die Detektionseinheit 131 zu der Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 der Eigenpositionsschätzungseinheit 132 aus.
  • In Schritt S32 detektiert der Radmessgeber 202 die Positionsinformationen, Stellung, Geschwindigkeit, Beschleunigung und Winkelgeschwindigkeit des mobilen Körpers 11 und gibt sie als die Zeitreiheninformationen über die Detektionseinheit 131 zu der Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 aus.
  • In Schritt S33 erhält die Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 die jüngsten Zeitreiheninformationen und registriert die Informationen in der Zeitreiheninformationen-DB 222.
  • In Schritt S34 schätzt die Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 die Eigenposition aus den jüngsten Zeitreiheninformationen und vergangenen Zeitreiheninformationen, die in der Zeitreiheninformationen-DB 222 registriert sind, beispielsweise unter Verwendung eines Kalman-Filters oder eines Partikel-Filters. Dann gibt die Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 die Eigenposition, die ein Schätzergebnis ist, zu der Eigenpositionsschätzergebnis-Integrationseinheit 225 als Zeitreiheninformationen-Eigenpositionsinformationen aus.
  • Durch den obigen Prozess werden die durch das LIDAR 201 und den Radmessgeber 202 detektierten Zeitreiheninformationen sequenziell detektiert und sequenziell in der Zeitreiheninformationen-DB 222 akkumuliert und die Eigenposition wird auf Basis der in Zeitreihe akkumulierten Zeitreiheninformationen von der Vergangenheit zur Gegenwart akkumuliert in Zeitreihe geschätzt und wird als eine Zeitreiheninformationen-Eigenposition zu der Eigenpositionsschätzergebnis-Integrationseinheit 225 ausgegeben.
  • <Momentaninformationen-Eigenpositionsschätzungsprozess>
  • Als Nächstes wird die Momentaninformationen-Eigenpositionsschätzungsverarbeitung unter Bezugnahme auf das Flussdiagramm in 8 beschrieben.
  • In Schritt S51 bildet die Stereokamera 203 ein Parallaxenbild rund um den mobilen Körper 11 ab und gibt das Bild als momentane Informationen über die Detektionseinheit 131 zu der Momentaninformationen-Eigenpositionsschätzungseinheit 223 aus.
  • In Schritt S52 erzeugt die Momentaninformationen-Eigenpositionsschätzungseinheit 223 ein Tiefenbild (Abstandsbild) auf Basis des von der Stereokamera 203 gelieferten Parallaxenbildes.
  • In Schritt S53 extrahiert die Momentaninformationen-Eigenpositionsschätzungseinheit 223 eine Bildmerkmalsmenge auf Basis des erzeugten Tiefenbildes.
  • In Schritt S54 schätzt die Momentaninformationen-Eigenpositionsschätzungseinheit 223 die Eigenposition auf Basis von Informationen über eine Position entsprechend der extrahierten Bildmerkmalsmenge aus der Position-Bildmerkmalsmenge-DB 224, in der Positionen und Bildmerkmalsmengen in Verbindung zueinander gespeichert sind. Dann liefert die Momentaninformationen-Eigenpositionsschätzungseinheit 223 die Eigenposition, die ein Schätzergebnis ist, als die Momentaninformationen-Eigenposition zu der Eigenpositionsschätzergebnis-Integrationseinheit 225.
  • Durch den obigen Prozess wird das Parallaxenbild durch die Stereokamera 203 als momentane Informationen abgebildet, das Tiefenbild wird aus dem Parallaxenbild erzeugt, die Bildmerkmalsmenge des erzeugten Tiefenbildes wird extrahiert und die Momentaninformationen-Eigenposition wird auf Basis von Positionsinformationen, die in Verbindung mit der Bildmerkmalsmenge registriert sind, geschätzt und zu der Eigenpositionsschätzergebnis-Integrationseinheit 225 ausgegeben.
  • <Hinderniserkennungsprozess>
  • Als Nächstes wird eine Hinderniserkennungsverarbeitung unter Bezugnahme auf ein Flussdiagramm in 12 beschrieben.
  • In Schritt S71 detektiert das LIDAR 201 die Entfernung zu einem Objekt rund um den mobilen Körper 11 als dreidimensionale Punktwolkendaten und gibt die Daten als Zeitreiheninformationen über die Detektionseinheit 131 zu der Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221 der Eigenpositionsschätzungseinheit 132 aus. Es ist anzumerken, dass dieser Prozess dem mit Bezug auf das Flussdiagramm in 10 beschriebenen Prozess in Schritt S31 ähnelt.
  • In Schritt S72 erkennt die Hinderniserkennungseinheit 241 die Position eines Hindernisses rund um den mobilen Körper 11 auf Basis der dreidimensionalen Punktwolkendaten des Abstands zu dem Objekt rund um den mobilen Körper 11.
  • In Schritt S73 erzeugt die Hinderniserkennungseinheit 241 eine Gitterkarte auf Basis der Informationen über die Position eines erkannten Hindernisses rund um den mobilen Körper 11 und gibt die Gitterkarte zu der Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 und der Suchmodusumschaltungseinheit 245 aus.
  • Durch den obigen Prozess wird ein Hinderniserkennungsergebnis, das Informationen über die Position des Hindernisses rund um den mobilen Körper 11 repräsentiert, als beispielsweise eine Gitterkarte erzeugt, wie in 5 veranschaulicht, und wird zu der Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 und der Suchmodusumschaltungseinheit 245 ausgegeben.
  • <Oberflächenerfasster-Bereich-Aufzeichnungsprozess>
  • Als Nächstes wird ein Oberflächenerfasster-Bereich-Aufzeichnungsprozess unter Bezugnahme auf ein Flussdiagramm in 13 beschrieben. Es ist anzumerken, dass der Oberflächenerfasster-Bereich-Aufzeichnungsprozess ein Prozess ist, der ausgeführt wird, wenn ein Betriebsmodus, wie später beschrieben, der Suchmodus wird.
  • In Schritt S81 bestimmt die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242, ob der Start des Oberflächenerfasster-Bereich-Aufzeichnungsprozesses durch die Suchmodusumschaltungseinheit 245 angewiesen wurde oder nicht, und ein ähnlicher Prozess wird wiederholt, bis der Start angewiesen wird. Dann geht der Prozess bei Schritt S81, wenn der Start des Oberflächenerfasster-Bereich-Aufzeichnungsprozesses angewiesen wird, zu Schritt S82 über.
  • In Schritt S82 setzt die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 die Oberflächenerfasster-Bereich-DB 244 zurück.
  • In Schritt S93 erhält die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 ein Hinderniserkennungsergebnis von der Hinderniserkennungseinheit 241.
  • In Schritt S94 erhält die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 Informationen über die Zeitreiheninformationen-Eigenposition von der Zeitreiheninformationen-Eigenpositionsschätzungseinheit 221.
  • In Schritt S95 erhält die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 einen oberflächenerfassten Bereich, wie mit Bezug auf 7 beschrieben, auf Basis von Informationen über die Zeitreiheninformationen-Eigenposition, der Hindernisposition, die aus dem Hinderniserkennungsergebnis erhalten werden kann, und Informationen über das mögliche Oberflächenerfassungsgebiet, das in der Mögliches-Oberflächenerfassungsgebiet-Informationen-Speichereinheit 243 gespeichert ist, und zeichnet den oberflächenerfassten Bereich in der Oberflächenerfasster-Bereich-DB 244 auf.
  • In Schritt S96 bestimmt die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242, ob das Ende des Prozesses angewiesen wurde oder nicht, und wenn das Ende nicht angewiesen wurde, kehrt der Prozess zu Schritt S93 zurück. Das heißt, bis das Ende des Prozesses angewiesen wird, werden die Prozesse der Schritte S93 bis S96 wiederholt und Informationen über den oberflächenerfassten Bereich werden sequenziell in der Oberflächenerfasster-Bereich-DB 244 akkumuliert.
  • Dann, wenn in Schritt S95 das Ende des Prozesses angewiesen wird, endet der Prozess.
  • Durch den obigen Prozess werden im Suchmodus Informationen über den Bereich der Oberfläche eines Hindernisses, das durch die Stereokamera 203 im Umfeld des mobilen Körpers 11 abgebildet (erfasst) wurde, beispielsweise als die oberflächenerfassten Bereiche R21 bis R23 der Hindernisse B21 bis B23 akkumuliert, wie in 8 veranschaulicht.
  • <Autonome-Fortbewegung-Steuerprozess>
  • Als Nächstes wird ein Autonome-Fortbewegung-Steuerprozess im Mobilkörpersteuersystem 100 in 4 unter Bezugnahme auf ein Flussdiagramm in 14 beschrieben.
  • In Schritt S121 bestimmt die Suchmodusumschaltungseinheit 245, ob sich in einem unbestimmten Eigenpositionszustand befunden wird oder nicht. Beispielsweise bestimmt die Suchmodusumschaltungseinheit 245, ob sich im unbestimmten Eigenpositionszustand befunden wird oder nicht, auf Basis beispielsweise dessen, ob sich unmittelbar nach dem Einschalten der Leistung befunden wird oder nicht.
  • Falls in Schritt S121 bestimmt wird, dass sich nicht im unbestimmten Eigenpositionszustand befunden wird, geht der Prozess zu Schritt S122 über.
  • In Schritt S122 gibt die Suchmodusumschaltungseinheit 245 das Eigenpositionsschätzergebnis und das Hinderniserkennungsergebnis zu der Routenplanungseinheit 161 in der Planungseinheit 134 der Handlungsplanverarbeitungseinheit 122 aus.
  • In Schritt S123 plant die Routenplanungseinheit 161 eine Route zu einem Ziel und gibt die Route zu der Handlungsplanungseinheit 162 aus.
  • In Schritt S124 plant die Handlungsplanungseinheit 162 Handlungen auf Basis der Route zu dem Ziel und gibt die Handlungen als einen Handlungsplan zu der Betriebsplanungseinheit 163 aus.
  • In Schritt S125 plant die Betriebsplanungseinheit 163 Arbeitsabläufe auf Basis des von der Handlungsplanungseinheit 162 gelieferten Handlungsplans und gibt die Arbeitsabläufe als einen Betriebsplan zu der Handlungssteuerungsverarbeitungseinheit 123 aus.
  • In Schritt S126 steuert die Handlungssteuerungsverarbeitungseinheit 123 einen Betrieb von jedem der Aktoren 23a der Aktorgruppe 113, um eine Handlung des mobilen Körpers 11 auf Basis des Betriebsplans zu steuern.
  • In Schritt S127 wird bestimmt, ob das Ende angewiesen wurde oder nicht, und falls bestimmt wird, dass das Ende nicht angewiesen wurde, kehrt der Prozess zu Schritt S121 zurück. Das heißt, solange sich nicht im unbestimmten Eigenpositionszustand befunden wird, werden die Prozesse der Schritte S121 bis S127, das heißt die Prozesse, falls der Betriebszustand der Normalmodus ist, wiederholt, und der mobile Körper 11 fährt mit der autonomen Fortbewegung fort.
  • Andererseits, falls in Schritt S121 bestimmt wird, dass sich im unbestimmten Eigenpositionszustand befunden wird, geht der Prozess zu Schritt S128 über.
  • In Schritt S128 führt die Suchmodusumschaltungseinheit 245 eine Steuerung zum Umschalten des Betriebsmodus zum Suchmodus durch und führt einen Suchmodusprozess zum effizienten Absuchen des Umfelds des mobilen Körpers 11 aus, und somit können Umfeldinformationen schnell durch die Stereokamera erhalten werden. Dann wird die Verarbeitung im Suchmodus fortgesetzt, bis es möglich wird, die Momentaninformationen-Eigenposition zweckmäßig zu schätzen, und wenn es möglich wird, die Momentaninformationen-Eigenposition zu schätzen, wird der Betriebsmodus vom Suchmodus zum Normalmodus zurückgesetzt.
  • <Suchmodusprozess>
  • Als Nächstes wird ein Suchmodusprozess unter Bezugnahme auf ein Flussdiagramm in 15 beschrieben.
  • In Schritt S151 weist die Suchmodusumschaltungseinheit 245 die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 an, einen Oberflächenerfasster-Bereich-DB-Erzeugungsprozess zu starten. Mit dieser Anweisung wird der mit Bezug auf das Flussdiagramm in 13 beschriebene Oberflächenerfasster-Bereich-DB-Erzeugungsprozess gestartet.
  • In Schritt S152 gibt die Suchmodusumschaltungseinheit 245 Informationen über den oberflächenerfassten Bereich von der Oberflächenerfasster-Bereich-DB 244 zu der Routenplanungseinheit 161 in der Planungseinheit 134 der Handlungsplanverarbeitungseinheit 122 aus.
  • In Schritt S153 teilt die Routenplanungseinheit 161 einen nicht erfassten Bereich in mehrere Bereiche auf Basis der Informationen über den oberflächenerfassten Bereich auf und setzt jeden der aufgeteilten Bereiche als einen Wegpunkt.
  • In Schritt S154 plant die Routenplanungseinheit 161 alle Muster von Routen, die durch alle Wegpunkte laufen, die die jeweiligen aufgeteilten Bereiche enthalten.
  • In Schritt S155 steuert die Routenplanungseinheit 161 die Prioritätsbestimmungseinheit 218 dazu, Prioritätskosten für jede geplante Route gemäß der Prioritätsbedingung zu erhalten, und legt Prioritäten der Wegpunkte auf Basis einer Route, bei der die Priorität die niedrigste ist, fest, wie mit Bezug auf 8 beschrieben.
  • In Schritt S156 berechnet die Routenplanungseinheit 161 Routenkosten für alle Routen auf Basis der Prioritäten der Wegpunkte und der Fortbewegungsbedingung.
  • In Schritt S157 bestimmt die Routenplanungseinheit 161 eine Route, bei der die Routenkosten die niedrigsten sind, als eine Suchroute und gibt die Route zu der Handlungsplanungseinheit 162 aus.
  • In Schritt S158 plant die Handlungsplanungseinheit 162 Handlungen auf Basis der bestimmten Suchroute und gibt die Handlungen als einen Handlungsplan zu der Betriebsplanungseinheit 163 aus.
  • In Schritt S159 plant die Betriebsplanungseinheit 163 einen Arbeitsablauf auf Basis des von der Handlungsplanungseinheit 162 gelieferten Handlungsplans und gibt den Arbeitsablauf als einen Betriebsplan zu der Handlungssteuerungsverarbeitungseinheit 123 aus.
  • In Schritt S160 steuert die Handlungssteuerungsverarbeitungseinheit 123 einen Betrieb von jedem der Aktoren 23a der Aktorgruppe 113, um eine Handlung des mobilen Körpers 11 auf Basis des Betriebsplans zu steuern.
  • In Schritt S161 bestimmt die Suchmodusumschaltungseinheit 245, ob der Suchmodusprozess zu enden ist oder nicht, gemäß dessen, ob sich nicht mehr im unbestimmten Eigenpositionszustand befunden wird oder nicht. Falls der unbestimmte Eigenpositionszustand unmittelbar nach dem Einschalten der Leistung auftritt, kann, ob sich im unbestimmten Eigenpositionszustand befunden wird oder nicht, gemäß dessen bestimmt werden, ob eine vorbestimmte Zeit seit dem Einschalten der Leistung verstrichen ist oder nicht, ob eine vorbestimmte Anzahl oder mehr der Zeitreiheninformationen akkumuliert wird und die Zuverlässigkeit als die Zeitreiheninformationen erhöht ist oder nicht, oder dergleichen.
  • In Schritt S161, falls der unbestimmte Eigenpositionszustand fortfährt und der Suchmodusprozess nicht zu enden ist, kehrt der Prozess zu Schritt S152 zurück. Mit anderen Worten, solange der Suchmodusprozess fortgesetzt wird, werden die Prozesse der Schritte S152 bis S161 wiederholt, um die Suchroute im Suchmodus wiederholt auf Basis von Informationen über den oberflächenerfassten Bereich einzustellen, die sich ständig ändern, und der mobile Körper 11 fährt mit dem Suchen des Umfelds fort. Wenn sich nicht mehr im unbestimmten Eigenpositionszustand befunden wird, geht der Prozess zu Schritt S162 über.
  • In Schritt S162 weist die Suchmodusumschaltungseinheit 245 die Oberflächenerfasster-Bereich-Aufzeichnungseinheit 242 an, den Oberflächenerfasster-Bereich-DB-Erzeugungsprozess zu enden, und der Prozess endet.
  • Durch den obigen Prozess, wenn der unbestimmte Eigenpositionszustand eingetreten ist, wird der Betriebsmodus zum Suchmodus umgeschaltet, und es ist möglich, eine abzusuchende Suchroute so zu setzen, dass die Oberfläche eines Hindernisses, das nicht erfasst wird, das heißt nicht abgebildet wird, effizient vom oberflächenerfassten Bereich, der durch die Stereokamera 203 abgebildet wird, als Umfeldinformationen des mobilen Körpers 11 abgebildet wird.
  • Das heißt, im Suchmodus, da sich in einem Zustand befunden wird, bei dem eine Route zu einem Ziel aufgrund des unbestimmten Eigenpositionszustands nicht gesetzt werden kann, wird eine Route, bei der ein großer Wert auf ein effizientes Absuchen des Umfelds gelegt wird, anstelle einer Route zur Fortbewegung zu dem Ziel gesetzt.
  • Demzufolge ist es möglich, schnell vom Suchmodus zum Normalmodus umzuschalten, ist es möglich, schnell vom unbestimmten Eigenpositionszustand zu einem Zustand, dass die Eigenposition bestimmt werden kann, zu ändern, und ist es möglich, schnell zum Normalmodus zurückzukehren.
  • Es ist anzumerken, dass in der obigen Beschreibung ein Beispiel beschrieben wurde, bei dem beim Schätzen der Momentaninformationen-Eigenposition ein Tiefenbild auf Basis eines durch die Stereokamera 203 abgebildeten Parallaxenbildes als die momentanen Informationen erzeugt wird und die Bildmerkmalsmenge des erzeugten Tiefenbildes verwendet wird. Die momentanen Informationen können jedoch andere als das Parallaxenbild unter Verwendung der Stereokamera 203 sein, solange ein Tiefenbild erzeugt werden kann.
  • Als eine Komponente, die die momentanen Informationen detektiert, kann beispielsweise ein Laufzeit(ToF)-Sensor anstelle der Stereokamera 203 verwendet werden. Im Fall des Verwendens des ToF-Sensors wird das mögliche Oberflächenerfassungsgebiet durch einen Minimalabstand, einen Maximalabstand und einen Blickwinkel repräsentiert.
  • Ferner wurde oben ein Beispiel beschrieben, bei dem das mögliche Oberflächenerfassungsgebiet ein mögliches Gebiet und ein unerreichbares Gebiet einschließt, und wird beispielsweise durch Binärwerte von 0 und 1 ausgedrückt, aber das Gebiet kann durch Werte mit Schritten von drei oder mehr Werten ausgedrückt werden, zum Beispiel Gleitkommawerten mit Schritten zwischen 0 und 1. Mit einem derartigen Ausdruck kann das mögliche Oberflächenerfassungsgebiet ein Gebiet ausdrücken, das leicht zu erfassen ist, oder ein Gebiet, das schwierig zu erfassen ist, in Abhängigkeit von einem Erfassungszustand und einem Abstand oder einem Winkel zu einem Hindernis. Somit kann beispielsweise in einem Gebiet, in dem eine Oberflächenerfassung schwierig ist, eine Verarbeitung, die die Genauigkeit der Oberflächenerfassung gleich der in einem Gebiet, in dem eine Oberflächenerfassung einfach ist, machen kann, durch das Erhöhen der Anzahl von Malen der Oberflächenerfassung pro Zeiteinheit zu größer als in dem Gebiet, in dem die Oberflächenerfassung einfach ist, oder dergleichen durchgeführt werden.
  • Darüber hinaus wurde oben ein Beispiel des Ausdrückens des Hinderniserkennungsergebnisses unter Verwendung einer zweidimensionalen Belegtheitsgitterkarte, die durch einen Satz von Quadraten repräsentiert wird, wie in 5 veranschaulicht, beschrieben, aber das Hinderniserkennungsergebnis kann unter Verwendung einer dreidimensionalen Belegtheitsgitterkarte einschließlich eines Satzes von Würfeln ausgedrückt werden. Somit kann das mögliche Oberflächenerfassungsgebiet als ein Satz von Quadraten mit zweidimensionaler fester Größe in die horizontale und vertikale Richtung ausgedrückt werden oder kann als ein Satz von Würfeln mit dreidimensionaler fester Größe in die horizontale, vertikale und Höhenrichtung ausgedrückt werden.
  • Des Weiteren können Informationen des in der Oberflächenerfasster-Bereich-DB 243 registrierten oberflächenerfassten Bereichs zusammen mit dem Hinderniserkennungsergebnis gemäß einer Zeitdauer, für die ein aufgezeichneter Zustand fortgesetzt wurde, gelöscht werden.
  • Mit anderen Worten kann durch das Löschen von Informationen über den oberflächenerfassten Bereich zusammen mit Informationen über das Hinderniserkennungsergebnis, die in Verbindung damit registriert sind, wenn eine vorbestimmte Zeit verstreicht, ein einmal erfasster Bereich im Suchmodusprozess erneut oberflächenerfasst werden, und somit wird eine Route zur Oberflächenerfassung erneut gesetzt.
  • Auf diese Art und Weise kann durch das Löschen von Informationen über einen oberflächenerfassten Bereich mit einem Zeitablauf ein einmal oberflächenerfasster Bereich nach dem Verstreichen einer Zeit erneut oberflächenerfasst werden, und beispielsweise können Umfeldinformationen selbst in einer Situation, bei der sich eine Form oder Position eines umliegenden Hindernisses ändert, zweckmäßig erhalten werden.
  • Darüber hinaus können Informationen über den oberflächenerfassten Bereich beispielsweise gelöscht werden, sodass Werte davon mit der Zeit gemäß einer vorbestimmten Vergessensfunktion abnehmen, oder zum Beispiel in einem Fall, bei dem das Vorhandensein oder Nichtvorhandensein des oberflächenerfassten Bereichs als Binärwerte von 0 oder 1 ausgedrückt wird, können die Werte so gelöscht werden, dass sie 0 betragen.
  • Ferner kann die Vergessensfunktion ein Wert max(0, T - kt) sein (max(A, B) ist eine Funktion des Auswählens des größeren von A oder B), der durch Multiplizieren einer verstrichenen Zeit t nach dem Aufzeichnen und eines Maximalwerts T der Aufzeichnungszeit mit einem vorbestimmten Koeffizienten k erhalten wird, oder kann ein Wert kT/t sein, der durch Multiplizieren der verstrichenen Zeit t nach dem Aufzeichnen und des Maximalwerts T der Aufzeichnungszeit mit einem vorbestimmten Koeffizienten k erhalten wird.
  • Darüber hinaus kann die Vergessensfunktion T (0 < t < = B), 0 (B < t) unter Verwendung einer vorbestimmten Vergessenszeit B bezüglich der verstrichenen Zeit t nach dem Aufzeichnen und des Maximalwerts T des Aufzeichnens sein.
  • Ferner wurde oben ein Beispiel beschrieben, bei dem, falls der mobile Körper 11 ein mobiler Rad-Roboter ist, Informationen, die durch das LIDAR 201 und den Radmessgeber 202 detektiert werden, als die Zeitreiheninformationen verwendet werden und ein Parallaxenbild, das durch die Stereokamera 203 abgebildet wird, als die momentanen Informationen verwendet wird.
  • Die Zeitreiheninformationen und die momentanen Informationen sind jedoch nicht darauf beschränkt und können an die Form des mobilen Körpers 11 angepasst werden. Das heißt, falls der mobile Körper 11 eine Drohne ist, können die Zeitreiheninformationen Informationen sein, die durch ein LIDAR und eine inertiale Messvorrichtung (IMU) oder einen Beschleunigungssensor detektiert werden, und die momentanen Informationen können Informationen sein, die durch GNSS erhalten werden.
  • Ferner, falls der mobile Körper 11 ein Fahrzeug ist, können die Zeitreiheninformationen Informationen sein, die durch ein LIDAR detektiert werden, und die momentanen Informationen können Informationen sein, die durch GNSS erhalten werden. Darüber hinaus, falls der mobile Körper 11 ein mehrbeiniger gehender Roboter ist, können die Zeitreiheninformationen Informationen sein, die durch ein LIDAR, eine inertiale Messvorrichtung (IMU) und einen an einem Aktor angebrachten Sensor detektiert werden, und die momentanen Informationen können Informationen sein, die durch eine Stereokamera, eine inertiale Messvorrichtung (IMU) und einen an einem Aktor angebrachten Sensor erhalten werden.
  • Darüber hinaus können ein LIDAR und ein ToF-Sensor anstelle der Stereokamera 203 verwendet werden.
  • «3. Modifikationsbeispiel»
  • Im Obigen wurde ein Beispiel beschrieben, bei dem, wie im linken Teil von 16 veranschaulicht, das mögliche Oberflächenerfassungsgebiet der Stereokamera 203 mit dem Blickwinkel 91 und der abbildbaren Entfernung d1 fixiert ist, in einem Fall, bei dem die Stereokamera 203 mit einer Bildgebungsrichtung, die bezüglich der Fortbewegungsrichtung nach vorne gerichtet ist, in die Fortbewegungsrichtung des mobilen Körpers 11, die durch einen Pfeil angegeben wird, bereitgestellt ist.
  • Wie beispielsweise in einem mittleren Teil von 16 veranschaulicht, kann jedoch ein Betrieb ähnlich des Wendens des Kopfes (Schwenken) in eine horizontale Richtung in das Gebiet von der Stereokamera 203-102, deren Bildgebungsrichtung nach links von der Stereokamera 203-103 gerichtet ist, deren Bildgebungsrichtung nach rechts bezüglich einer Stereokamera 203-101 gerichtet ist, ermöglicht sein.
  • In diesem Fall ist das mögliche Oberflächenerfassungsgebiet Z ein Gebiet, das alle Gebiete jeweiliger möglicher Oberflächenerfassungsgebiete Z1-1 bis Z1-3 der Stereokameras 203-101 bis 203-103 einschließt.
  • Es ist anzumerken, dass im mittleren Teil von 16 ein Beispiel veranschaulicht ist, bei dem die Stereokamera 203 ähnlich zum Wenden eines Kopfes nach links und rechts in die horizontale Richtung (Schwenken) betrieben wird, aber falls ein Betrieb ähnlich des Wendens eines Kopfes in eine vertikale Richtung (Neigen) zusätzlich durchgeführt werden kann, kann das mögliche Oberflächenerfassungsgebiet zusätzlich erhöht werden. Darüber hinaus, falls die Stereokamera 203 mit einer Zoomfunktion in einem breiten Gebiet in die horizontale und vertikale Richtung ausgestattet ist, ist es möglich, die mögliche Bildgebungsentfernung weit zu erweitern, und somit kann das mögliche Oberflächenerfassungsgebiet zusätzlich erweitert werden.
  • Ferner, im Hinblick auf eine mögliche Bildgebungsentfernung der Stereokamera 203, wie beispielsweise im rechten Teil von 16 veranschaulicht, kann eine Beleuchtung 301, die ein Gebiet Z3 mit einem Blickwinkel θ3 und einer Entfernung d2 beleuchten kann, bereitgestellt sein, das ausreichend größer ist als das Gebiet Z1, das durch den Blickwinkel 91 des Oberflächenerfassungsgebiets Z1 und die Bildgebungsentfernung d1 der Stereokamera 203 gebildet wird. Mit einer derartigen Konfiguration, zum Beispiel wenn die Bildgebungsentfernung der Stereokamera 203 aufgrund der Lichtintensität beschränkt ist, kann die mögliche Bildgebungsentfernung zum Beispiel zu einer Entfernung d3 länger als die Entfernung d1 eingestellt werden, indem die Beleuchtungsstärke erhöht wird.
  • Darüber hinaus kann die Konfiguration des mittleren Teils und des rechten Teils in 16 kombiniert werden und ein Schwenken-Neigen der Beleuchtung 301 kann gemäß dem Schwenken-Neigen der Stereokamera 203 in die Bildgebungsrichtung durchgeführt werden. Auf diese Art und Weise ist es auch möglich, das mögliche Oberflächenerfassungsgebiet zu verbreitern.
  • Durch das Erhöhen des möglichen Oberflächenerfassungsgebiets auf diese Art und Weise erhöht sich die Informationsmenge, die vom Umfeld pro Zeiteinheit detektiert werden kann. Somit kann die Oberflächenerfassungsgeschwindigkeit erheblich erhöht werden und Kosten können zusätzlich zur Berechnung der Routenkosten reduziert werden. Demzufolge ist es möglich, die Rückkehr vom Suchmodus zum Normalmodus schneller zu gestalten.
  • «4. Beispiel für eine Ausführung durch Software»
  • Im Übrigen kann die oben beschriebene Folge von Prozessen durch Hardware ausgeführt werden, kann jedoch auch durch Software ausgeführt werden. In einem Fall, in dem die Folge von Prozessen durch Software ausgeführt wird, wird ein Programm, das die Software bildet, von einem Aufzeichnungsmedium auf einem Computer installiert, der zum Beispiel in dedizierter Hardware eingebaut ist, oder auf einem Allzweckcomputer, der in der Lage ist, verschiedene Funktionen durch Installieren verschiedener Programme auszuführen, oder dergleichen.
  • 17 veranschaulicht ein Konfigurationsbeispiel eines Allzweckcomputers. Dieser Personal Computer weist eine Zentralverarbeitungseinheit (CPU: Central Processing Unit) 1001 auf. Eine Eingabe-Ausgabe-Schnittstelle 1005 ist über einen Bus 1004 mit der CPU 1001 verbunden. Ein Nurlesespeicher (ROM: Read Only Memory) 1002 und ein Direktzugriffsspeicher (RAM: Random Access Memory) 1003 sind mit dem Bus 1004 verbunden.
  • Mit der Eingabe-Ausgabe-Schnittstelle 1005 sind eine Eingabeeinheit 1006 einschließlich einer Eingabevorrichtung, wie etwa einer Tastatur und einer Maus, mit der ein Benutzer Operationsbefehle eingibt, eine Ausgabeeinheit 1007, die einen Verarbeitungsoperationsbildschirm und ein Bild eines Verarbeitungsergebnisses an eine Anzeigevorrichtung ausgibt, eine Speichereinheit 1008, die ein Festplattenlaufwerk und dergleichen enthält und Programme und verschiedene Daten speichert, und eine Kommunikationseinheit 1009 einschließlich eines Lokalnetzwerk(LAN)-Adapters oder dergleichen, die einen Kommunikationsprozess über ein durch das Internet repräsentiertes Netzwerk ausführt, verbunden. Ferner ist ein Laufwerk 1010, das Daten von bzw. zu einem entfernbaren Medium 1011 liest und schreibt, wie etwa eine Magnetplatte (einschließlich einer flexiblen Platte), eine optische Platte (einschließlich einer Compact Disc Read Only Memory (CD-ROM) und einer Digital Versatile Disc (DVD)), eine magnetooptische Platte (einschließlich einer Minidisk (MD)), oder ein Halbleiterspeicher verbunden.
  • Die CPU 1001 führt verschiedene Prozesse gemäß einem in dem ROM 1002 gespeicherten Programm oder einem aus den entfernbaren Medien 1011, wie etwa einer Magnetplatte, einer optischen Platte, einer magnetooptischen Platte oder einem Halbleiterspeicher, gelesenen Programm aus, das in die Speichereinheit 1008 installiert ist und dann aus der Speichereinheit 1008 in den RAM 1003 geladen wird. Der RAM 1003 speichert außerdem zweckmäßig Daten, die für die CPU 1001 zur Ausführung verschiedener Prozesse und dergleichen notwendig sind.
  • In dem wie oben beschrieben konfigurierten Computer lädt die CPU 1001 beispielsweise das in der Speichereinheit 1008 gespeicherte Programm über die Eingabe-Ausgabe-Schnittstelle 1005 und den Bus 1004 in den RAM 1003 und führt das Programm aus, um dadurch die oben beschriebene Folge von Prozessen durchzuführen.
  • Das durch den Computer (die CPU 1001) ausgeführte Programm kann bereitgestellt werden, indem es beispielsweise auf einem entfernbaren Medium 1011 als ein Paketmedium oder dergleichen aufgezeichnet wird. Ferner kann das Programm über ein drahtgebundenes oder drahtloses Übertragungsmedium, wie etwa ein lokales Netzwerk, das Internet oder digitalen Satellitenrundfunk, bereitgestellt werden.
  • In dem Computer kann das Programm über die Eingabe-Ausgabe-Schnittstelle 1005 in der Speichereinheit 1008 installiert werden, indem das entfernbare Medium 1011 in das Laufwerk 1010 gemounted wird. Ferner kann das Programm durch die Kommunikationseinheit 1009 über ein drahtgebundenes oder drahtloses Übertragungsmedium empfangen und in der Speichereinheit 1008 installiert werden. Zusätzlich dazu kann das Programm im Voraus auf dem ROM 1002 oder der Speichereinheit 1008 installiert werden.
  • Es ist zu beachten, dass das durch den Computer ausgeführte Programm ein Programm zur Verarbeitung in Zeitreihe in der Reihenfolge, die in der vorliegenden Beschreibung beschrieben wird, sein kann oder ein Programm zur parallelen Verarbeitung oder zur Verarbeitung mit einem erforderlichen Timing, wie etwa wenn ein Aufruf erfolgt, sein kann.
  • Es ist zu beachten, dass die CPU 1001 in 17 die Funktionen der Autonome-Fortbewegung-Steuereinheit 110 in 3 implementiert. Weiterhin implementiert die Speichereinheit 1008 in 17 die Speichereinheit 109 in 3.
  • Ferner bedeutet in der vorliegenden Beschreibung ein System ein Satz einer Vielzahl von Komponenten (Vorrichtungen, Module (Teile) und dergleichen), und es spielt keine Rolle, ob sich alle Komponenten in demselben Gehäuse befinden oder nicht. Daher sind sowohl mehrere Vorrichtungen, die in getrennten Gehäusen untergebracht und über ein Netzwerk verbunden sind, als auch eine einzelne Vorrichtung, bei der mehrere Module in einem Gehäuse untergebracht sind, Systeme.
  • Es sei angemerkt, dass Ausführungsformen der vorliegenden Offenbarung nicht auf die oben beschriebenen Ausführungsformen beschränkt sind und verschiedene Modifikationen möglich sind, ohne von dem Schutzumfang der vorliegenden Offenbarung abzuweichen.
  • Beispielsweise kann die vorliegende Offenbarung eine Konfiguration von Cloud-Computing aufweisen, bei der eine Funktion von mehreren Vorrichtungen über ein Netzwerk gemeinsam genutzt und eine Verarbeitung in gemeinsamer Zusammenarbeit durchgeführt wird.
  • Des Weiteren kann jeder im oben beschriebenen Flussdiagramm beschriebener Schritt durch eine Vorrichtung ausgeführt werden oder kann auf gemeinsam genutzte Art und Weise durch mehrere Vorrichtungen ausgeführt werden.
  • Darüber hinaus kann, wenn eine Vielzahl von Prozessen in einem Schritt enthalten ist, die Vielzahl von Prozessen, die in dem einen Schritt enthalten ist, auf eine gemeinsam genutzte Art und Weise durch mehrere Vorrichtungen ausgeführt werden, zusätzlich dazu, dass sie durch eine Vorrrichtung ausgeführt wird.
  • Es ist zu beachten, dass die vorliegende Offenbarung auch die folgenden Konfigurationen aufweisen kann.
    • <1> Eine Steuervorrichtung, die Folgendes aufweist:
      • eine Eigenpositionsschätzungseinheit, die eine Eigenposition schätzt;
      • eine Hindernispositionsinformationen-Erzeugungseinheit, die Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt;
      • eine Oberflächenerfassungseinheit, die eine Oberfläche des Hindernisses erfasst;
      • eine Oberflächenerfasster-Bereich-Aufzeichnungseinheit, die einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet; und
      • eine Routenplanungseinheit, die eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant.
    • <2> Die Steuervorrichtung nach <1>, wobei die Oberflächenerfasster-Bereich-Aufzeichnungseinheit, als den oberflächenerfassten Bereich des Hindernisses, eine Oberfläche des Hindernisses innerhalb des möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet.
    • <3> Die Steuervorrichtung nach <2>, wobei die Routenplanungseinheit Folgendes aufweist:
      • eine Prioritätsfestlegungseinheit, die einen unvollständigen Bereich, bei dem die Oberflächenerfassung des Hindernisses nicht abgeschlossen wurde, auf Basis des oberflächenerfassten Bereichs des Hindernisses und der Hindernispositionsinformationen setzt, einen aufgeteilten Bereich, der durch Aufteilen des unvollständigen Bereichs erhalten wird, als Wegpunkte setzt und Prioritäten für die Wegpunkte festlegt, und
      • wobei die Route über die Wegpunkte auf Basis der durch die Prioritätsfestlegungseinheit festgelegten Prioritäten geplant wird.
    • <4> Die Steuervorrichtung nach <3>, wobei die Prioritätsfestlegungseinheit die Prioritäten der Wegpunkte gemäß einer Durchlaufreihenfolge durch die Wegpunkte in einer Route, bei der Prioritätskosten die geringsten sind unter Routen, die durch alle Wegpunkte laufen, festlegt, wobei die Prioritätskosten Kosten sind, die auf Basis der Prioritätsbedingung festgelegt werden.
    • <5> Die Steuervorrichtung nach <4>, wobei die Prioritätsbedingung eine Gesamtfortbewegungsdistanz oder ein Gesamtleistungsverbrauch ist, und die Prioritätskosten Kosten sind, die gemäß einer Fortbewegungsdistanz festgelegt werden, oder Kosten sind, die gemäß einem Leistungsverbrauch festgelegt werden.
    • <6> Die Steuervorrichtung nach <4>, wobei die Prioritätsfestlegungseinheit die Prioritäten der Wegpunkte gemäß einer Durchlaufreihenfolge durch die Wegpunkte in einer Route, bei der Prioritätskosten die geringsten sind unter Routen, die durch alle Wegpunkte laufen, festlegt, wobei die Prioritätskosten Kosten sind, die auf Basis der Prioritätsbedingung und Körperbewegungsinformationen festgelegt werden.
    • <7> Die Steuervorrichtung nach <6>, wobei die Körperbewegungsinformationen Folgendes sind:
      • Informationen über eine Maximalgeschwindigkeit, einen minimalen Wenderadius und eine Höhe einer überquerbaren Stufe auf einem Pfad, falls die Prioritätsbedingung eine Gesamtfortbewegungsdistanz ist, oder
      • Informationen über einen Leistungsverbrauch pro Distanzeinheit und eine Ladekapazität einer Batterie, falls die Prioritätsbedingung ein Gesamtleistungsverbrauch ist.
    • <8> Die Steuervorrichtung nach <3>, wobei die Routenplanungseinheit die Route, die durch alle Wegpunkte läuft, auf Basis der Prioritäten und einer Fortbewegungsbedingung plant, wobei die Prioritäten durch die Prioritätsfestlegungseinheit jeweils für die Wegpunkte festgelegt werden.
    • <9> Die Steuervorrichtung nach <3>, wobei die Routenplanungseinheit für alle Routen, die durch alle Wegpunkte laufen, Routenkosten berechnet, die auf Basis der Prioritäten und einer Fortbewegungsbedingung gesetzt werden, wobei die Prioritäten durch die Prioritätsfestlegungseinheit jeweils für die Wegpunkte festgelegt werden, und eine Route auswählt, bei der die Routenkosten die niedrigsten sind.
    • <10> Die Steuervorrichtung nach <9>, wobei die Fortbewegungsbedingung eine Bedingung, dass die Wegpunkte in absteigender Prioritätsreihenfolge durchlaufen werden, eine Bedingung, dass die Fortbewegung in einer kürzesten Zeit selbst bei Ignorieren der Prioritäten der Wegpunkte durchgeführt wird, oder eine Bedingung, dass ein Wegpunkt mit einer höheren Priorität früher erreicht wird, einschließt.
    • <11> Die Steuervorrichtung nach <10>, wobei, falls die Fortbewegungsbedingung die Bedingung ist, dass ein Wegpunkt mit einer höheren Priorität früher erreicht wird, die Routenplanungseinheit ein Produkt der Priorität und einer Zeit zum Erreichen des Wegpunkts als die Routenkosten setzt und eine Route auswählt, bei der die Routenkosten unter allen Routen die geringsten sind.
    • <12> Die Steuervorrichtung nach <1>, wobei die Eigenpositionsschätzungseinheit eine Zeitreiheninformationen-Eigenpositionsschätzungseinheit aufweist, die die Eigenposition unter Verwendung von Zeitreiheninformationen einschließlich Sensorinformationen, die in Zeitreihe geliefert werden, schätzt und ein Schätzergebnis als eine Zeitreiheninformationen-Eigenposition ausgibt, und die Oberflächenerfasster-Bereich-Aufzeichnungseinheit den oberflächenerfassten Bereich des Hindernisses auf Basis der Zeitreiheninformationen-Eigenposition, der Hindernispositionsinformationen und des möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet.
    • <13> Die Steuervorrichtung nach <12>, wobei die Zeitreiheninformationen dreidimensionale Punktwolkeninformationen, die durch Lichtdetektion und
      • -entfernungsmessung, Laserbildgebungsdetektion und
      • -entfernungsmessung (LIDAR) detektiert werden, und Positionsinformationen, Stellung, Geschwindigkeit, Beschleunigung und Winkelgeschwindigkeit, die durch einen Radmessgeber detektiert werden, sind, und
      die Hindernispositionsinformationen-Erzeugungseinheit Hindernispositionsinformationen einschließlich einer relativen Position und einer Richtung des Hindernisses im Umfeld auf Basis der dreidimensionalen Punktwolkeninformationen erzeugt.
    • <14> Die Steuervorrichtung nach <12>, wobei die Eigenpositionsschätzungseinheit ferner eine Momentaninformationen-Eigenpositionsschätzungseinheit aufweist, die die Eigenposition auf Basis momentaner Informationen einschließlich Sensorinformationen, die ein momentanes Erfassungsergebnis ausgeben, schätzt und ein Schätzergebnis als eine Momentaninformationen-Eigenposition ausgibt.
    • <15> Die Steuervorrichtung nach <14>, wobei die momentanen Informationen ein Parallaxenbild sind, das durch die Oberflächenerfassungseinheit, die eine Stereokamera aufweist, abgebildet wird, die Momentaninformationen-Eigenpositionsschätzungseinheit ein Tiefenbild auf Basis eines Parallaxenbildes, das die momentanen Informationen ist, erzeugt, eine Bildmerkmalsmenge aus dem Tiefenbild extrahiert, die Eigenposition auf Basis einer mit der Bildmerkmalsmenge assoziierten Position schätzt und ein Schätzergebnis als die Momentaninformationen-Eigenposition ausgibt, und die Eigenpositionsschätzungseinheit die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition integriert und eine integrierte Position als die Eigenposition ausgibt.
    • <16> Die Steuervorrichtung nach <15>, die ferner Folgendes aufweist:
      • eine Position-Bildmerkmalsmenge-Speichereinheit, in der die Position und die Bildmerkmalsmenge in Verbindung zueinander gespeichert sind, wobei,
      • wenn die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition integriert werden und eine integrierte Position als die Eigenposition ausgegeben wird, die Eigenpositionsschätzungseinheit die Bildmerkmalsmenge, die der Momentaninformationen-Eigenposition entspricht, und die Eigenposition in Verbindung zueinander in der Position-Bildmerkmalsmenge-Speichereinheit speichert.
    • <17> Die Steuervorrichtung nach einem von <1> bis <16>, wobei falls sich die Eigenposition in einem unbestimmten Zustand befindet, die Oberflächenerfasster-Bereich-Aufzeichnungseinheit den oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und des möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet.
    • <18> Ein Steuerverfahren, das Folgendes aufweist:
      • einen Eigenpositionsschätzungsprozess, der eine Eigenposition schätzt;
      • einen Hindernispositionsinformationen-Erzeugungsprozess, der Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt;
      • einen Oberflächenerfassungsprozess, der eine Oberfläche des Hindernisses erfasst;
      • einen Oberflächenerfasster-Bereich-Aufzeichnungsprozess, der einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets des Oberflächenerfassungsprozesses aufzeichnet; und
      • einen Routenplanungsprozess, der eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant.
    • <19> Ein Programm, das bewirkt, dass ein Computer als Folgendes fungiert:
      • eine Eigenpositionsschätzungseinheit, die eine Eigenposition schätzt;
      • eine Hindernispositionsinformationen-Erzeugungseinheit, die Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt;
      • eine Oberflächenerfassungseinheit, die eine Oberfläche des Hindernisses erfasst;
      • eine Oberflächenerfasster-Bereich-Aufzeichnungseinheit, die einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet; und
      • eine Routenplanungseinheit, die eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant.
    • <20> Ein mobiler Körper, der Folgendes aufweist:
      • eine Eigenpositionsschätzungseinheit, die eine Eigenposition schätzt;
      • eine Hindernispositionsinformationen-Erzeugungseinheit, die Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt;
      • eine Oberflächenerfassungseinheit, die eine Oberfläche des Hindernisses erfasst;
      • eine Oberflächenerfasster-Bereich-Aufzeichnungseinheit, die einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet;
      • eine Planungseinheit, die eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant;
      • eine Handlungsplanerzeugungseinheit, die einen Handlungsplan auf Basis der durch die Planungseinheit geplanten Route erzeugt; und
      • eine Steuereinheit, die einen Betrieb des mobilen Körpers auf Basis des durch die Handlungsplanerzeugungseinheit bestimmten Handlungsplans steuert.
  • Bezugszeichenliste
  • 11
    Mobiler Körper
    21
    Sensorgruppe
    21a, 21a-1 bis 21a-n
    Sensor
    22
    Autonome-Fortbewegung-Steuereinheit
    23
    Aktorgruppe
    23a, 23a-1 bis 23a-n
    Aktor
    31
    Erkennungsverarbeitungseinheit
    32
    Handlungsplanverarbeitungseinheit
    33
    Handlungssteuerungsverarbeitungseinheit
    41
    Routenplanungseinheit
    42
    Handlungsplanungseinheit
    43
    Betriebsplanungseinheit
    102
    Datenerhalteeinheit
    105
    Ausgabesteuereinheit
    106
    Ausgabeeinheit
    107
    Antriebssystemsteuereinheit
    108
    Antriebssystem
    110
    Autonome-Fortbewegung-Steuereinheit
    112
    Sensorgruppe
    113
    Aktorgruppe
    121
    Erkennungsverarbeitungseinheit
    122
    Handlungsplanverarbeitungseinheit
    123
    Handlungssteuerungsverarbeitungseinheit
    134
    Planungseinheit
    161
    Routenplanungseinheit
    162
    Handlungsplanungseinheit
    163
    Betriebsplanungseinheit
    201
    LIDAR
    202
    Radmessgeber
    203
    Stereokamera
    221
    Zeitreiheninformationen-Eigenpositionsschätzungseinheit
    222
    Zeitreiheninformationen-DB
    223
    Momentaninformationen-Eigenpositionsschätzungseinheit
    224
    Position-Bildmerkmalsmenge-DB
    225
    Eigenpositionsschätzergebnis-Integrationseinheit
    241
    Hinderniserkennungseinheit
    242
    Oberflächenerfasster-Bereich-Aufzeichnungseinheit
    243
    Mögliches-Oberflächenerfassungsgebiet-Informationen-Speichereinheit
    244
    Oberflächenerfasster-Bereich-DB
    245
    Suchmodusbeurteilungseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016095858 [0008]
    • JP 2010217995 [0008]
    • JP 2003 [0008]
    • JP 092347 [0008]
    • JP 2002 [0008]
    • JP 073770 [0008]

Claims (20)

  1. Steuervorrichtung, die Folgendes aufweist: eine Eigenpositionsschätzungseinheit, die eine Eigenposition schätzt; eine Hindernispositionsinformationen-Erzeugungseinheit, die Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt; eine Oberflächenerfassungseinheit, die eine Oberfläche des Hindernisses erfasst; eine Oberflächenerfasster-Bereich-Aufzeichnungseinheit, die einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet; und eine Routenplanungseinheit, die eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant.
  2. Steuervorrichtung nach Anspruch 1, wobei die Oberflächenerfasster-Bereich-Aufzeichnungseinheit, als den oberflächenerfassten Bereich des Hindernisses, eine Oberfläche des Hindernisses innerhalb des möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet.
  3. Steuervorrichtung nach Anspruch 2, wobei die Routenplanungseinheit Folgendes aufweist: eine Prioritätsfestlegungseinheit, die einen unvollständigen Bereich, bei dem die Oberflächenerfassung des Hindernisses nicht abgeschlossen wurde, auf Basis des oberflächenerfassten Bereichs des Hindernisses und der Hindernispositionsinformationen setzt, einen aufgeteilten Bereich, der durch Aufteilen des unvollständigen Bereichs erhalten wird, als Wegpunkte setzt und Prioritäten für die Wegpunkte festlegt, und wobei die Route über die Wegpunkte auf Basis der durch die Prioritätsfestlegungseinheit festgelegten Prioritäten geplant wird.
  4. Steuervorrichtung nach Anspruch 3, wobei die Prioritätsfestlegungseinheit die Prioritäten der Wegpunkte gemäß einer Durchlaufreihenfolge durch die Wegpunkte in einer Route, bei der Prioritätskosten die geringsten sind unter Routen, die durch alle Wegpunkte laufen, festlegt, wobei die Prioritätskosten Kosten sind, die auf Basis der Prioritätsbedingung festgelegt werden.
  5. Steuervorrichtung nach Anspruch 4, wobei die Prioritätsbedingung eine Gesamtfortbewegungsdistanz oder ein Gesamtleistungsverbrauch ist, und die Prioritätskosten Kosten sind, die gemäß einer Fortbewegungsdistanz festgelegt werden, oder Kosten sind, die gemäß einem Leistungsverbrauch festgelegt werden.
  6. Steuervorrichtung nach Anspruch 4, wobei die Prioritätsfestlegungseinheit die Prioritäten der Wegpunkte gemäß einer Durchlaufreihenfolge durch die Wegpunkte in einer Route, bei der Prioritätskosten die geringsten sind unter Routen, die durch alle Wegpunkte laufen, festlegt, wobei die Prioritätskosten Kosten sind, die auf Basis der Prioritätsbedingung und Körperbewegungsinformationen festgelegt werden.
  7. Steuervorrichtung nach Anspruch 6, wobei die Körperbewegungsinformationen Folgendes sind: Informationen über eine Maximalgeschwindigkeit, einen minimalen Wenderadius und eine Höhe einer überquerbaren Stufe auf einem Pfad, falls die Prioritätsbedingung eine Gesamtfortbewegungsdistanz ist, oder Informationen über einen Leistungsverbrauch pro Distanzeinheit und eine Ladekapazität einer Batterie, falls die Prioritätsbedingung ein Gesamtleistungsverbrauch ist.
  8. Steuervorrichtung nach Anspruch 3, wobei die Routenplanungseinheit die Route, die durch alle Wegpunkte läuft, auf Basis der Prioritäten und einer Fortbewegungsbedingung plant, wobei die Prioritäten durch die Prioritätsfestlegungseinheit jeweils für die Wegpunkte festgelegt werden.
  9. Steuervorrichtung nach Anspruch 3, wobei die Routenplanungseinheit für alle Routen, die durch alle Wegpunkte laufen, Routenkosten berechnet, die auf Basis der Prioritäten und einer Fortbewegungsbedingung gesetzt werden, wobei die Prioritäten durch die Prioritätsfestlegungseinheit jeweils für die Wegpunkte festgelegt werden, und eine Route auswählt, bei der die Routenkosten die niedrigsten sind.
  10. Steuervorrichtung nach Anspruch 9, wobei die Fortbewegungsbedingung eine Bedingung, dass die Wegpunkte in absteigender Prioritätsreihenfolge durchlaufen werden, eine Bedingung, dass die Fortbewegung in einer kürzesten Zeit selbst bei Ignorieren der Prioritäten der Wegpunkte durchgeführt wird, oder eine Bedingung, dass ein Wegpunkt mit einer höheren Priorität früher erreicht wird, einschließt.
  11. Steuervorrichtung nach Anspruch 10, wobei, falls die Fortbewegungsbedingung die Bedingung ist, dass ein Wegpunkt mit einer höheren Priorität früher erreicht wird, die Routenplanungseinheit ein Produkt der Priorität und einer Zeit zum Erreichen des Wegpunkts als die Routenkosten setzt und eine Route auswählt, bei der die Routenkosten unter allen Routen die geringsten sind.
  12. Steuervorrichtung nach Anspruch 1, wobei die Eigenpositionsschätzungseinheit eine Zeitreiheninformationen-Eigenpositionsschätzungseinheit aufweist, die die Eigenposition unter Verwendung von Zeitreiheninformationen einschließlich Sensorinformationen, die in Zeitreihe geliefert werden, schätzt und ein Schätzergebnis als eine Zeitreiheninformationen-Eigenposition ausgibt, und die Oberflächenerfasster-Bereich-Aufzeichnungseinheit den oberflächenerfassten Bereich des Hindernisses auf Basis der Zeitreiheninformationen-Eigenposition, der Hindernispositionsinformationen und des möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet.
  13. Steuervorrichtung nach Anspruch 12, wobei die Zeitreiheninformationen dreidimensionale Punktwolkeninformationen, die durch Lichtdetektion und -entfernungsmessung, Laserbildgebungsdetektion und -entfernungsmessung (LIDAR) detektiert werden, und Positionsinformationen, Stellung, Geschwindigkeit, Beschleunigung und Winkelgeschwindigkeit, die durch einen Radmessgeber detektiert werden, sind, und die Hindernispositionsinformationen-Erzeugungseinheit Hindernispositionsinformationen einschließlich einer relativen Position und einer Richtung des Hindernisses im Umfeld auf Basis der dreidimensionalen Punktwolkeninformationen erzeugt.
  14. Steuervorrichtung nach Anspruch 12, wobei die Eigenpositionsschätzungseinheit ferner eine Momentaninformationen-Eigenpositionsschätzungseinheit aufweist, die die Eigenposition auf Basis momentaner Informationen einschließlich Sensorinformationen, die ein momentanes Erfassungsergebnis ausgeben, schätzt und ein Schätzergebnis als eine Momentaninformationen-Eigenposition ausgibt.
  15. Steuervorrichtung nach Anspruch 14, wobei die momentanen Informationen ein Parallaxenbild sind, das durch die Oberflächenerfassungseinheit, die eine Stereokamera aufweist, abgebildet wird, die Momentaninformationen-Eigenpositionsschätzungseinheit ein Tiefenbild auf Basis eines Parallaxenbildes, das die momentanen Informationen ist, erzeugt, eine Bildmerkmalsmenge aus dem Tiefenbild extrahiert, die Eigenposition auf Basis einer mit der Bildmerkmalsmenge assoziierten Position schätzt und ein Schätzergebnis als die Momentaninformationen-Eigenposition ausgibt, und die Eigenpositionsschätzungseinheit die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition integriert und eine integrierte Position als die Eigenposition ausgibt.
  16. Steuervorrichtung nach Anspruch 15, die ferner Folgendes aufweist: eine Position-Bildmerkmalsmenge-Speichereinheit, in der die Position und die Bildmerkmalsmenge in Verbindung zueinander gespeichert sind, wobei, wenn die Zeitreiheninformationen-Eigenposition und die Momentaninformationen-Eigenposition integriert werden und eine integrierte Position als die Eigenposition ausgegeben wird, die Eigenpositionsschätzungseinheit die Bildmerkmalsmenge, die der Momentaninformationen-Eigenposition entspricht, und die Eigenposition in Verbindung zueinander in der Position-Bildmerkmalsmenge-Speichereinheit speichert.
  17. Steuervorrichtung nach Anspruch 1, wobei, falls sich die Eigenposition in einem unbestimmten Zustand befindet, die Oberflächenerfasster-Bereich-Aufzeichnungseinheit den oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und des möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet.
  18. Steuerverfahren, das Folgendes aufweist: einen Eigenpositionsschätzungsprozess, der eine Eigenposition schätzt; einen Hindernispositionsinformationen-Erzeugungsprozess, der Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt; einen Oberflächenerfassungsprozess, der eine Oberfläche des Hindernisses erfasst; einen Oberflächenerfasster-Bereich-Aufzeichnungsprozess, der einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets des Oberflächenerfassungsprozesses aufzeichnet; und einen Routenplanungsprozess, der eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant.
  19. Programm, das bewirkt, dass ein Computer als Folgendes fungiert: eine Eigenpositionsschätzungseinheit, die eine Eigenposition schätzt; eine Hindernispositionsinformationen-Erzeugungseinheit, die Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt; eine Oberflächenerfassungseinheit, die eine Oberfläche des Hindernisses erfasst; eine Oberflächenerfasster-Bereich-Aufzeichnungseinheit, die einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet; und eine Routenplanungseinheit, die eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant.
  20. Mobiler Körper, der Folgendes aufweist: eine Eigenpositionsschätzungseinheit, die eine Eigenposition schätzt; eine Hindernispositionsinformationen-Erzeugungseinheit, die Hindernispositionsinformationen einschließlich einer Position eines Hindernisses im Umfeld erzeugt; eine Oberflächenerfassungseinheit, die eine Oberfläche des Hindernisses erfasst; eine Oberflächenerfasster-Bereich-Aufzeichnungseinheit, die einen oberflächenerfassten Bereich des Hindernisses auf Basis der Eigenposition, der Hindernispositionsinformationen und eines möglichen Oberflächenerfassungsgebiets der Oberflächenerfassungseinheit aufzeichnet; eine Planungseinheit, die eine Route auf Basis des oberflächenerfassten Bereichs des Hindernisses plant; eine Handlungsplanerzeugungseinheit, die einen Handlungsplan auf Basis der durch die Planungseinheit geplanten Route erzeugt; und eine Steuereinheit, die einen Betrieb des mobilen Körpers auf Basis des durch die Handlungsplanerzeugungseinheit bestimmten Handlungsplans steuert.
DE112018005910.3T 2017-11-20 2018-11-06 Steuervorrichtung und steuerverfahren, programm und mobiler körper Pending DE112018005910T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-222457 2017-11-20
JP2017222457 2017-11-20
PCT/JP2018/041095 WO2019098082A1 (ja) 2017-11-20 2018-11-06 制御装置、および制御方法、プログラム、並びに移動体

Publications (1)

Publication Number Publication Date
DE112018005910T5 true DE112018005910T5 (de) 2020-07-30

Family

ID=66538592

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018005910.3T Pending DE112018005910T5 (de) 2017-11-20 2018-11-06 Steuervorrichtung und steuerverfahren, programm und mobiler körper

Country Status (4)

Country Link
US (1) US11537131B2 (de)
JP (1) JP7156305B2 (de)
DE (1) DE112018005910T5 (de)
WO (1) WO2019098082A1 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348269B1 (en) * 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
JP7353747B2 (ja) * 2018-01-12 2023-10-02 キヤノン株式会社 情報処理装置、システム、方法、およびプログラム
KR102106100B1 (ko) * 2018-02-02 2020-05-06 엘지전자 주식회사 이동 로봇
US11287826B2 (en) * 2018-10-12 2022-03-29 Boston Dynamics, Inc. Terrain aware step planning system
US11835960B2 (en) * 2019-01-28 2023-12-05 Zebra Technologies Corporation System and method for semantically identifying one or more of an object and a location in a robotic environment
CN112013844B (zh) * 2019-05-31 2022-02-11 北京小米智能科技有限公司 建立室内环境地图的方法及装置
CN112462805B (zh) * 2020-11-19 2022-11-29 西安理工大学 基于改进蚁群算法的5g网联无人机航迹规划方法
WO2024015030A1 (en) * 2022-07-11 2024-01-18 Delivers Ai Robotik Otonom Surus Bilgi Teknolojileri A.S. A delivery system and method for a delivery robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073770A (ja) 2000-09-05 2002-03-12 Ishida Co Ltd 商品情報印字システム
JP2003092347A (ja) 2002-07-10 2003-03-28 Mitsubishi Electric Corp 半導体デバイスのコンタクトホール形成方法
JP2010217995A (ja) 2009-03-13 2010-09-30 Mitsubishi Electric Corp 探索装置及び探索方法及び探索プログラム
JP2016095858A (ja) 2009-11-06 2016-05-26 アイロボット コーポレイション 自律ロボットにより表面を完全にカバーする方法およびシステム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4042517B2 (ja) 2002-10-09 2008-02-06 株式会社日立製作所 移動体およびその位置検出装置
JP5666322B2 (ja) 2010-01-20 2015-02-12 株式会社Ihiエアロスペース 経路生成装置と方法および経路生成装置を備える移動装置
US9221396B1 (en) * 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
JP6132659B2 (ja) 2013-02-27 2017-05-24 シャープ株式会社 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073770A (ja) 2000-09-05 2002-03-12 Ishida Co Ltd 商品情報印字システム
JP2003092347A (ja) 2002-07-10 2003-03-28 Mitsubishi Electric Corp 半導体デバイスのコンタクトホール形成方法
JP2010217995A (ja) 2009-03-13 2010-09-30 Mitsubishi Electric Corp 探索装置及び探索方法及び探索プログラム
JP2016095858A (ja) 2009-11-06 2016-05-26 アイロボット コーポレイション 自律ロボットにより表面を完全にカバーする方法およびシステム

Also Published As

Publication number Publication date
US11537131B2 (en) 2022-12-27
US20200333790A1 (en) 2020-10-22
JPWO2019098082A1 (ja) 2020-11-19
JP7156305B2 (ja) 2022-10-19
WO2019098082A1 (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
DE112018005910T5 (de) Steuervorrichtung und steuerverfahren, programm und mobiler körper
DE102020110458A1 (de) Fahrzeugpfadvorhersage
DE112019001657T5 (de) Signalverarbeitungsvorrichtung und signalverarbeitungsverfahren, programm und mobiler körper
CN107798699A (zh) 用立体图像进行深度图估计
DE112019001046T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiler körper
DE112018006730T5 (de) Steuervorrichtung und steuerverfahren, programm und mobiles objekt
DE112018005907T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE112020002287T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE112018004891T5 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren, programm und mobiler körper
DE112019001659T5 (de) Steuervorrichtung, steuerverfahren und programm
DE112018004691T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und bewegter körper
US11754415B2 (en) Sensor localization from external source data
DE112018004904T5 (de) Informationsverarbeitungseinrichtung, selbstpositionsschätzverfahren und programm
DE102021127118A1 (de) Identifizieren von Objekten mit LiDAR
US11200679B1 (en) System and method for generating a probability distribution of a location of an object
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
DE112021001882T5 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm
DE112019000515T5 (de) Steuervorrichtung, steuerverfahren, programm, und mobiles objekt
DE112022003364T5 (de) Komplementäres steuersystem für ein autonomes fahrzeug
DE112021006099T5 (de) Bordrückkopplungssystem für autonome Fahrzeuge
DE112020003708T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
DE102020134834A1 (de) Objektverfolgung zur unterstützung autonomer fahrzeugnavigation
DE112020003963T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US11238292B2 (en) Systems and methods for determining the direction of an object in an image

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000