DE112017006840B4 - Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung - Google Patents

Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung Download PDF

Info

Publication number
DE112017006840B4
DE112017006840B4 DE112017006840.1T DE112017006840T DE112017006840B4 DE 112017006840 B4 DE112017006840 B4 DE 112017006840B4 DE 112017006840 T DE112017006840 T DE 112017006840T DE 112017006840 B4 DE112017006840 B4 DE 112017006840B4
Authority
DE
Germany
Prior art keywords
point group
moving body
parking
key frame
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112017006840.1T
Other languages
English (en)
Other versions
DE112017006840T5 (de
Inventor
Shan Jiang
Sosuke Yamao
Shigeyuki Odashima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of DE112017006840T5 publication Critical patent/DE112017006840T5/de
Application granted granted Critical
Publication of DE112017006840B4 publication Critical patent/DE112017006840B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Abstract

Ein computerlesbares Speichermedium, welches ein Informationsverarbeitungsprogramm speichert, zum Veranlassen eines Computers, eine Verarbeitung auszuführen, umfassend:Erfassen (S11) eines Bilds, welches durch eine in einem ersten sich bewegenden Körper vorgesehene Abbildungsvorrichtung abgebildet ist;Erzeugen (S12) eines Schlüsselframes mit Bild- und Haltungsinformationen durch gleichzeitige Lokalisierung und Kartierung, SLAM, was ein erster Algorithmus ist, des Bildes;Abschätzen (S13) einer Position des ersten sich bewegenden Körpers basierend auf dem Schlüsselframe und Erzeugen einer ersten Punktgruppe, welche eine dreidimensionale Form um den ersten sich bewegenden Körper angibt;wenn anhand des Schlüsselframes und der ersten Punktgruppe festgestellt wird, dass der sich bewegende Körper zu einem selben Punkt zurückgekehrt ist, Korrigieren (S14) der ersten Punktgruppe auf der Grundlage der Position des ersten sich bewegenden Körpers, des Schlüsselframes und der ersten Punktgruppe, um eine Fahrkarte zu erzeugen oder zu aktualisieren;Bestimmen (S15), ob eine Bewegung des ersten sich bewegenden Körpers endet, basierend auf der Position des ersten sich bewegenden Körpers;Erzeugen (S16) einer zweiten Punktgruppe, welche die dreidimensionale Form angibt, durch Struktur-aus-Bewegung (SFM), was ein zweiter Algorithmus ist, auf der Grundlage des Schlüsselframes, wenn festgestellt wird, dass die Bewegung des ersten sich bewegenden Körpers endet;Zusammenführen (S17) der ersten Punktgruppe und der zweiten Punktgruppe, um eine dritte Punktgruppe zu erzeugen;Entnehmen (S18) einer Bereichspunktgruppe eines Parkplatzes aus der dritten Punktgruppe; undErzeugen (S19) einer Parkplatzkarte durch Teilen des Parkplatzes in Parkbereiche für entsprechende sich bewegende Körper, Mitteln von Breiten und Tiefen der Parkbereiche und Bestimmen eines jeden Parkbereichs.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Informationsverarbeitungsprogramm, ein Informationsverarbeitungsverfahren und eine Informationsverarbeitungsvorrichtung.
  • Stand der Technik
  • In den vergangenen Jahren wurden ein automatisches Fahren und eine autonome Navigation von Fahrzeugen, Robotern, Drohnen und etwas Ähnlichem unter Verwendung von verschiedenen Sensoren vorgeschlagen. Das automatische Fahren und etwas Ähnliches wird beispielsweise durch Abschätzen einer Selbstposition ausgeführt, während auf eine Karte Bezug genommen wird. Im Fall eines Autos sind beispielsweise Karten von verschiedenen Plätzen wie Autobahnen, privaten Parkplätzen und zusätzlich privaten Einrichtungen notwendig. Allerdings gibt es viele Fälle, wobei ein kleiner Parkplatz und etwas Ähnliches keine genaue Karte aufweist. Daher wurde beispielsweise ein Verfahren zum Abschätzen der Position der Fahrzeugposition während einem erzeugen einer Karte wie beispielsweise einer simultanen Lokalisation und Mapping (SLAM) vorgeschlagen.
  • Weiter wurde vorgeschlagen, dass eine Information wie beispielsweise eine Umgebung, eine Fahrzeugposition, eine Fahrzeugstellung und etwas Ähnliches, erkannt durch das SLAM und etwas Ähnlichem, in Verbindung mit einander gesammelt wird und eine Fahrroute aus einer Vielzahl von Routen eingestellt wird, auf welchen das Fahrzeug fahren kann, basierend auf der aktuellen Fahrzeugposition und Fahrzeugstellung und der gesammelten Information. Weiterhin wurde vorgeschlagen, um eine Positionierung auszuführen, durch Ausführen einer breiten Basislinien-Abstimmung relativ zu einem Erkennungsbild unter Verwendung von Merkmalbeschreibungselementen einer Karte für einen Fall, bei welchem ein Roboter zum Ausführen des SLAM eine Veränderung in einem Aussehen erfährt. Weiterhin wurde vorgeschlagen, um eine Parkplatzkarte zu erzeugen, durch Detektieren von weißen Linien in einem Parkbereich eines Parkplatzes durch eine Bildverarbeitung und führen des Fahrzeugs in dem Parkplatz basierend auf der erzeugten Parkplatzkarte, wenn das Fahrzeug erneut in den Parkplatz einfährt. Weiterhin wurde vorgeschlagen, zu bestimmen, ob ein Stellplatz vorhanden ist, unter Verwendung eines Ultraschallsensors und Erzeugen einer Karte, welche den Stellplatz angibt, basierend auf dem abgebildeten Bild, falls der Stellplatz existiert.
  • Literaturliste
  • Patentdokument
    • Patentdokument 1: japanische Patentveröffentlichungsschrift mit der Nummer 2012-118909
    • Patentdokument 2: japanische nationale Veröffentlichung der internationalen Patentanmeldung mit der Nummer 2007-535765
    • Patentdokument 3: japanische Patentveröffentlichungsschrift mit der Nummer 2007-315956
    • Patentdokument 4: japanische Patentveröffentlichungsschrift mit der Nummer 2002-170103
  • Nicht-Patendokumente
  • Lategahn, Henning; Geiger, Andreas; Kitt, Bernd: Visual SLAM for autonomous ground vehicles. In: 2011 IEEE International Conference on Robotics and Automation. IEEE, 2011. S. 1732-1737
    Schwesinger, Ulrich et al.: Automated valet parking and charging for e-mobility. In: 2016 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2016. S. 157-164.
  • Zusammenfassung der Erfindung
  • Technische Aufgabenstellung
  • Allerdings, wenn eine Karte unter Verwendung des SLAM erzeugt wird, wird eine spärliche Information, das heißt eine lose Information als eine Karte extrahiert. Daher ist es schwierig das SLAM beispielsweise zur Verwendung zum Erzeugen einer Karte eines Parkplatzes zu verwenden, was durch eine Person einfach verstanden werden kann, was eine Nutzung außer einer automatischen Fahrt ist. Zusätzlich gibt es einen Fall, bei welchem keine weißen Linien in einem Parkbereich eines kleinen Parkplatzes vorgesehen sind. Daher gibt es einen Fall, bei welchem es schwierig ist eine Karte eines Parkplatzes unter Verwendung eines Verfahrens zum Detektieren der weißen Linien zu erzeugen.
  • Ein Aspekt ist es ein Informationsverarbeitungsprogramm, ein Informationsverarbeitungsverfahren und eine Informationsverarbeitungsvorrichtung bereitzustellen, welche einen Parkbereich einfach bestimmen können.
  • Lösung der Aufgabenstellung
  • Das obige Problem wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Beispiele und technische Beschreibungen von Vorrichtungen, Produkten und/oder Verfahren in der Beschreibung und/oder den Zeichnungen, die nicht unter die Ansprüche fallen, werden nicht als Ausführungsformen der Erfindung dargestellt, sondern als Hintergrundwissen oder Beispiele, die für das Verständnis der Erfindung nützlich sind.
  • Gemäß einem Aspekt veranlasst ein Informationsverarbeitungsprogramm einen Computer dazu eine Verarbeitung zum Erfassen eines Bilds auszuführen, welches durch eine in einem ersten sich bewegenden Körper vorgesehene Abbildungsvorrichtung abgebildet ist. Das Informationsverarbeitungsprogramm veranlasst den Computer eine Verarbeitung zum Abschätzen einer Selbstposition des ersten sich bewegenden Körpers auszuführen, durch einen ersten Algorithmus basierend auf dem erfassten Bild und zum Erzeugen einer ersten Punktgruppe, welche eine dreidimensionale Form um den ersten sich bewegenden Körper angibt. Das Informationsverarbeitungsprogramm veranlasst den Computer eine Verarbeitung zum Erzeugen einer zweiten Punktgruppe auszuführen, welche die dreidimensionale Form angibt, durch einen zweiten Algorithmus, basierend auf in dem ersten Algorithmus verwendeten Daten. Das Informationsverarbeitungsprogramm veranlasst den Computer eine Verarbeitung zum Zusammenführen der erzeugten ersten Punktgruppe und zweiten Punktgruppe und zum Erzeugen einer dritten Punktgruppe auszuführen. Das Informationsverarbeitungsprogramm veranlasst den Computer eine Verarbeitung zum Extrahieren eines Raums (Parkplatzbereich) einer Bereichsgruppe auszuführen, bei welchem der zweite sich bewegende Körper geparkt ist, aus der dritten Punktgruppe basierend auf einer Bewegungsverfolgung des ersten sich bewegenden Körpers und einer Information bezüglich einer Größe des zweiten sich bewegenden Körpers. Das Informationsverarbeitungsprogramm veranlasst den Computer eine Verarbeitung zum Dividieren des entnommenen Raums und zum Bestimmen eines jeden Bereichs der Bereichsgruppe auszuführen.
  • Vorteilhafte Effekte der Erfindung
  • Ein Parkbereich kann einfach bestimmt werden.
  • Kurzbeschreibung der Figuren
    • 1 ist ein Diagramm, welches eine beispielhafte Konfiguration eines Informationsverarbeitungssystems gemäß einer Ausführungsform darstellt.
    • 2 ist ein Diagramm, welches einen Abriss von SLAM darstellt.
    • 3 ist ein Diagramm, welches ein Beispiel einer Ausgabe des SLAM darstellt.
    • 4 ist ein Diagramm, welches ein Beispiel von Umgebungseigenschaftspunkten darstellt.
    • 5 ist ein Diagramm, welches ein Beispiel einer Fahrkarte darstellt.
    • 6 ist ein Diagramm, welches ein Beispiel einer idealen Parkplatzkarte darstellt.
    • 7 ist ein Diagramm, welches ein Beispiel einer tatsächlichen Fahrroute darstellt.
    • 8 ist ein Diagramm, welches ein Beispiel einer Fahrroute und einer Fahrkarte gemäß den SLAM darstellt.
    • 9 ist ein Diagramm, welches ein Beispiel eines Umrisses einer funktionalen Konfiguration des Informationsverarbeitungssystems gemäß der Ausführungsform darstellt.
    • 10 ist ein Diagramm, welches einen Umriss der Verarbeitung des Informationsverarbeitungssystems gemäß der Ausführungsform darstellt.
    • 11 ist ein Blockdiagramm, welches ein Beispiel einer funktionalen Konfiguration einer Informationsverarbeitungsvorrichtung gemäß der Ausführungsform darstellt.
    • 12 ist ein Diagramm, welches ein Beispiel des Abrisses des SLAM, ein Bild und eine Unterhaltungsinformation in einem bestimmten Bereich eines Parkplatzes darstellt.
    • 13 ist ein Diagramm, welches ein Beispiel einer quasi-verdichteten dritten Punktgruppe darstellt.
    • 14 ist ein Diagramm, welches ein Beispiel einer Extraktion eines Stellplatzes darstellt.
    • 15 ist ein Diagramm, welches ein Beispiel der Division des Stellplatzes darstellt.
    • 16 ist ein Diagramm, welches ein Beispiel der Spezifikation eines Parkbereichs darstellt.
    • 17 ist ein Diagramm, welches ein Beispiel einer Korrektur der Fahrkarte basierend auf einer Breite und einer Tiefe des bestimmten Parkbereichs darstellt.
    • 18 ist ein Flussdiagramm, welches ein Beispiel der Parkplatzkartenerzeugungsverarbeitung gemäß der Ausführungsform darstellt.
    • 19 ist ein Diagramm, welches ein Beispiel eines Computers zum Ausführen eines Informationsverarbeitungsprogramm darstellt.
  • Beschreibung von Ausführungsformen
  • Ausführungsformen eines Informationsverarbeitungsprogramm, eines Informationsverarbeitungsverfahrens und einer Informationsverarbeitungsvorrichtung, welche in der vorliegenden Anmeldung offenbart sind, werden genau mit Bezug zu den beiliegenden Figuren nachstehend beschrieben. Die vorliegende Ausführungsform beschränkt die offenbarte Technologie nicht. Zusätzlich können die nachstehenden Ausführungsformen geeignet in einem Bereich kombiniert werden, bei welchen keine Inkonsistenzen auftreten.
  • [Ausführungsform]
  • 1 ist ein Diagramm, welches eine beispielhafte Konfiguration eines Informationsverarbeitungssystems gemäß einer Ausführungsform darstellt. Ein Informationsverarbeitungssystem 1, dargestellt in 1, umfasst eine in einem Fahrzeug 10 angebrachte Informationsverarbeitungsvorrichtung 100, welches ein Auto ist, und eine Cloud 200. Die Anzahl von Fahrzeugen 10 und die Anzahl von Informationsverarbeitungsvorrichtungen 100 sind nicht beschränkt und eine beliebige Anzahl von Fahrzeugen 10 und Informationsverarbeitungsvorrichtungen 100 kann umfasst sein. Die Informationsverarbeitungsvorrichtung 100 und die Cloud 200 sind miteinander über ein Netzwerk N kommunikativ verbunden. Ein beliebiger Typ eines Kommunikationsnetzwerks wie beispielsweise ein lokales Bereichsnetzwerk (LAN) und ein virtuelles privates Netzwerk (VPN) ebenso wie das Internet kann für das Netzwerk N angenommen werden, unbeachtlich davon, ob das Netzwerk verkabelt oder kabellos ist.
  • Das Informationsverarbeitungssystem 1 ist beispielsweise ein System zum Erzeugen einer Karte für eine automatische Fahrt in einem Parkplatz. Das Informationsverarbeitungssystem 1 sammelt beispielsweise eine Fahrzeugposition, eine Karteninformation, einen Fahrverlauf und etwas Ähnliches, was von der in dem Fahrzeug 10 angebrachten Informationsverarbeitungsvorrichtung 100 durch die Cloud 200 übertragen wird, und speichert verschiedene Informationen bezüglich des Parkplatzes in einer Datenbank. Die Datenbank der Cloud 200 speichert beispielsweise eine dynamische Information wie beispielsweise ein geparktes Fahrzeug in dem Parkplatz und etwas Ähnliches, eine Karte für eine Fahrplanung, eine Karte für eine Fahrzeug Positionsabschätzung. Wenn das Fahrzeug 10 auf dem Parkplatz fährt, erfasst die Informationsverarbeitungsvorrichtung 100 eine Umgebungsinformation unter Verwendung einer Kamera und schätzt die Fahrzeugposition ab und erzeugt eine Karte.
  • Die Informationsverarbeitungsvorrichtung 100 ist eine in dem Fahrzeug 10 angebrachte Informationsverarbeitungsvorrichtung und ist ein Computer, welcher eine Verarbeitung bezüglich eins automatischen Fahrens des Fahrzeugs 10 ausführt. Falls die Cloud 200 eine anfängliche Karte zum Fahren aufweist, erfasst die Informationsverarbeitungsvorrichtung 100 die anfängliche Karte zum Fahren von der Cloud 200. Die Informationsverarbeitungsvorrichtung 100 erfasst ein Bild, welches durch eine in dem Fahrzeug 10 vorgesehene Abbildungsvorrichtung abgebildet ist, welches ein erster sich bewegender Körper ist. Die Informationsverarbeitungsvorrichtung 100 schätzt eine Selbstposition des ersten sich bewegenden Körpers durch einen ersten Algorithmus basierend auf dem erfassten Bild ab und erzeugt eine erste Punktgruppe, welche eine dreidimensionale Form um den ersten sich bewegenden Körper angibt. Es wird darauf hingewiesen, dass in der nachstehenden Beschreibung, falls der erste sich bewegende Körper das Fahrzeug 10 ist, es einen Fall gibt, bei welchem eine Wiedergabe einer Fahrzeugposition anstelle der Selbstposition verwendet wird. Die Informationsverarbeitungsvorrichtung 100 erzeugt eine zweite Punktgruppe, welche eine dreidimensionale Form angibt, durch einen zweiten Algorithmus basierend auf in dem ersten Algorithmus verwendeten Daten. Die Informationsverarbeitungsvorrichtung 100 erzeugt eine dritte Punktgruppe durch Zusammenführen der erzeugten ersten Punktgruppe mit der erzeugten zweiten Punktgruppe. Die Informationsverarbeitungsvorrichtung 100 entnimmt einen Raum (Parkplatzbereich) einer Bereichsgruppe, bei welchem ein zweiter sich bewegender Körper geparkt ist, aus der dritten Punktgruppe basierend auf einer Bewegungsverfolgung des ersten sich bewegenden Körpers und eine Information bezüglich einer Größe des zweiten sich bewegenden Körpers. Die Informationsverarbeitungsvorrichtung 100 bestimmt jeden Bereich der Bereichsgruppe, das heißt einen Parkbereich, durch Dividieren des entnommenen Raums. Mit dieser Operation kann die Informationsverarbeitungsvorrichtung 100 den Parkbereich einfach bestimmen.
  • Die Cloud 200 ist ein Beispiel einer Parkplatzdynamik-Karten-Cloud, welche die Fahrzeugposition, die Karteninformation, den Fahrverlauf und etwas Ähnliches sammeln und verschiedene Informationen bezüglich des Parkplatzes in einer Datenbank speichert. Basierend auf verschiedenen Informationen bezüglich des Parkplatzes, gesammelt von einer oder mehreren Informationsverarbeitungsvorrichtungen 100, formt die Parkplatzdynamik Karten Cloud die Parkplatzkarte und korrigiert die Fahrkarte. Weiter sind verschiedene Informationen wie beispielsweise die Parkplatzkarte und etwas Ähnliches anderen Diensten der Cloud 200 bereitgestellt.
  • Hier wird mit Bezug zu den 2 bis 8 das SLAM, welches die Fahrzeugposition abschätzt, während eine Karte erzeugt wird, beschrieben. 2 ist ein Diagramm, welches einen Abriss des SLAM darstellt. 2 stellt einen Abriss einer Verarbeitung des visuellen SLAM dar, welches ein Beispiel ist, bei welchem das SLAM unter Verwendung eines durch eine Kamera erfassten Bildes ausgeführt wird. In 2 bewegt sich die Kamera, um Positionen 20a, 20b, 20c und 20d und Bild Umgebung Eigenschaftspunkte (nachfolgend als Orientierungspunkt bezeichnet) 21a und 21b ausgeführt wird, während eine Richtung der Kamera verändert wird, das heißt die Haltung. Das visuelle SLAM schätzt die Fahrzeugposition ab, während die Karte erzeugt wird, basierend auf der Position und der Haltung der Kamera und der Umgebungseigenschaftspunkte auf dem bei jeder Position abgebildeten Bild.
  • 3 ist ein Diagramm, welches ein Beispiel einer Ausgabe des SLAM darstellt. Das Ausgabe Beispiel in 3 umfasst eine aktuelle Position 22 der Kamera, einen Schlüsselframe 23 der Position, bei welcher das Bild durch die Kamera abgebildet wird, und eine Punktgruppe 24, welche dreidimensionale Umgebungseigenschaftspunkte angibt.
  • 4 ist ein Diagramm, welches ein Beispiel der Umgebungseigenschaftspunkte darstellt. Ein Bildschirm 25, dargestellt in 4, zeigt Umgebungseigenschaftspunkte 26 eines Bilds in einem bestimmten Schlüsselframe an. Die Umgebungseigenschaftspunkte 26 geben beispielsweise Ecken eines geparkten Fahrzeugs, Spitzen von Bäumen, Ecken von Gebäuden und etwas Ähnliches an. Es wird darauf hingewiesen, dass in 4 ein einzelner Umgebungseigenschaftspunkt 26 mit einem Bezugszeichen als ein repräsentativer Umgebungseigenschaftspunkt gekennzeichnet ist.
  • 5 ist ein Diagramm, welches ein Beispiel der Fahrkarte darstellt. Eine Fahrkarte 27, dargestellt in 5, ist eine Karte mit einer Punktgruppe der dreidimensionalen Umgebungseigenschaftspunkte, welche für eine automatische Fahrt in einem bestimmten Parkplatz verwendet werden. Die Fahrkarte 27 wird durch eine spärliche, das heißt eine lose, Punktgruppe der Umgebungseigenschaftspunkte wiedergegeben. Daher ist es schwierig die Fahrkarte 27 zu verwenden, falls eine Person auf die Fahrkarte 27 blickt oder für andere Dienste.
  • 6 ist ein Diagramm, welches ein Beispiel einer idealen Parkplatzkarte darstellt. Eine Parkplatzkarte 28, dargestellt in 6, ist ein Beispiel einer idealen Parkplatzkarte, welche einfach verwendet wird, falls eine Person auf die Parkplatzkarte 28 blickt oder für andere Dienste. Eine Karte, bei welcher ein Parkbereich mit einem Blick gefunden werden kann, wie die Parkplatzkarte 28, wird einfach verstanden, wenn eine Person auf die Karte blickt, und die Karte wird einfach für andere Dienste angewendet, beispielsweise ein Dienst zum Bereitstellen einer Information über eine Parkplatzverfügbarkeit.
  • 7 ist ein Diagramm, welches ein Beispiel einer tatsächlichen Fahrroute darstellt. 8 ist ein Diagramm, welches ein Beispiel einer Fahrroute und eine Fahrkarte durch das SLAM darstellt. Eine Fahrroute 30 in einem Parkplatz 29, dargestellt in 7, ist ein Beispiel der tatsächlichen Fahrroute. Weiter ist eine Fahrkarte 32 in 8 eine durch das visuelle SLAM erzeugte Fahrkarte. Im Vergleich mit der tatsächlichen Fahrroute 30 weist eine Fahrroute 33 in der Fahrkarte 32 einen Verschiebungsfehler in einem Bereich 34 in 8 auf, welche zu einem Bereich 31 in 7 gehört. In der Fahrkarte 32 wird eine Kartengenauigkeit aufgrund des Auftretens der Verschiebungsfehler in dem Parkplatz 29 verschlechtert. Die vorliegende Erfindung verbessert die Kartengenauigkeit durch Korrigieren der Fahrkarte durch Verwenden der erzeugten Parkplatzkarte mit Bezug zu solchen Verschiebungsfehlern.
  • Als Nächstes wird ein Umriss einer funktionalen Konfiguration und eine Verarbeitung des Informationsverarbeitungssystems 1 mit Bezug zu den 9 und 10 beschrieben. 9 ist ein Diagramm, welches ein Beispiel des Umrisses der funktionalen Konfiguration des Informationsverarbeitungssystems gemäß der Ausführungsform darstellt. Wie in 9 dargestellt, tauscht das Informationsverarbeitungssystem 1 verschiedene Informationen zwischen der Informationsverarbeitungsvorrichtung 100 und der Cloud 200. Die Informationsverarbeitungsvorrichtung 100 führt eine Verarbeitung wie beispielsweise eine Routenerzeugung, eine Fahrsteuerung und eine Hindernisdetektion zusätzlich zu einer SLAM Verarbeitung 150 aus. In der SLAM Verarbeitung 150 wird eine anfängliche Fahrkarte von der Cloud 200 erfasst und wird gespeichert und eine anfängliche Fahrzeugposition wird bestimmt. Danach, basierend auf von einer Boardfahrzeugkameragruppe eingegebenen Bildern, werden eine kontinuierliche Safe Positionsabschätzung Verarbeitung und eine Orientierungspunkt Kartenaktualisierung ausgeführt. Es wird darauf hingewiesen, dass eine Orientierungspunktkarte eine Fahrkarte ist, welches eine Punktgruppe der Umgebung Eigenschaftspunkte ist. Weiter werden in der SLAM Verarbeitung 150 die abgeschätzte Fahrzeugpositionsinformation und die Orientierungspunktaustausch Information an die Cloud 200 über das Netzwerk Beispielsweise unter Verwendung einer Mobiltelefonleitung und etwas Ähnlichem übertragen. Darüber hinaus überträgt die SLAM Verarbeitung 150 in einer ähnlichen Weise die aktualisierte Orientierungspunktkarte und den Fahrverlauf an die Cloud 200. Darüber hinaus führt die SLAM Verarbeitung 150 eine Erzeugungsverarbeitung einer Parkplatzkarte aus, was nicht dargestellt ist.
  • Die Cloud 200 umfasst eine Parkplatzdynamik Karten Cloud 210, welche eine Verarbeitung bezüglich der Erzeugung der Parkplatzkarte und der Erzeugung der Fahrkarte ausführt, und eine Dienstgruppen-Cloud 220, welche andere Servicegruppen/Dienstgruppen bereitstellt. Die Parkplatzdynamikkarten-Cloud 210 umfasst eine Steuereinheit 211, eine Dynamik Kartendatenbank (eine Datenbank wird nachstehend als DB bezeichnet) 212 und Anwendung Programmierschnittstellen (API) 213 und 214. Die Steuereinheit 211 führt eine Verarbeitung wie beispielsweise eine Registrierung von verschiedenen Informationen in der DB, ein Differenz Management und eine Kartenaktualisierung aus. Die Dynamikkarten DB 212 speichert statische und quasistatische Information zu einer dynamischen und quasidynamischen Information. Die Dynamikkarten DB 212 umfasst beispielsweise in einer Reihenfolge von einer statischen Information zu einer dynamischen Information, eine Karte zum Abschätzen der Fahrzeugposition, welche eine Fahrkarte (Orientierungspunkt-Information) ist, eine Routenkarte in einem Parkplatz, welche beispielsweise für den Anwender des Fahrzeugs 10 angezeigt wird (Fahrplan), und die dynamische Information (geparktes Fahrzeug, Hindernis und etwas Ähnliches). Die API 213 ist eine API, welche verschiedene Informationen mit der Informationsverarbeitungsvorrichtung 100 austauscht. Die API 214 ist eine API, welche verschiedene Informationen mit der Servicegruppen Cloud 220 austauscht.
  • 10 ist ein Diagramm, welches einen Umriss der Verarbeitung des Informationsverarbeitungssystems gemäß der Ausführungsform darstellt. 10 stellt einen Umriss einer Verarbeitung des Informationsverarbeitungssystems 1 dar, falls ein Datenfluss fokussiert ist. Ein Auto A, dargestellt in 10, ist ein Beispiel des Fahrzeugs 10. Die Informationsverarbeitungsvorrichtung 100 des Autos A erzeugt erst eine spärliche 3-D Punktgruppenkarte 41, welches die erste Punktgruppe ist, und einen Schlüsselframe 42, welcher ein Bild und eine Haltungsinformation umfasst, welche eine Position und eine Haltung der Kamera angibt, durch das visuelle SLAM (Schritt S1). Die spärliche 3-D Punktgruppenkarte 41 wird von der Fahrzeug Positionsabschätzung und der Fahrkarten Erzeugungsverarbeitung ausgegeben, welche Echtzeitverarbeitung sind. Die Informationsverarbeitungsvorrichtung 100 des Autos A führt eine Offlinestruktur von einer Bewegung (SFS: ebenso nachstehend als SfM bezeichnet) Verarbeitung aus, welches keine Echtzeitverarbeitung ist, relativ zu dem Schlüsselframe 42 und erzeugt eine dichte 3-D Punktgruppenkarte 43, welches die zweite Punktgruppe ist (Schritt S2).
  • Die Informationsverarbeitungsvorrichtung 100 des Autos A führt die 3-D Punktgruppenkarte zusammen. Das heißt, die Informationsverarbeitungsvorrichtung 100 des Autos A führt die spärliche 3-D Punktgruppenkarte 41 mit der dichten 3-D Punktgruppenkarte 43 zusammen, um eine quasi-verdichtete 3-D Punktgruppenkarte 44 zu erzeugen, welches die dritte Punktgruppe ist (Schritt S3). Das heißt, die Informationsverarbeitungsvorrichtung 100 des Autos A führt erst eine quasi-Verdichtungsverarbeitung 45 an einer spärlichen Punktgruppe aus. Die Information Verarbeitungsschaltung 100 des Autos A führt eine Filterverarbeitung zum Entnehmen eines Stellplatzes aus der erzeugten quasi-verdichteten 3-D Punktgruppenkarte 44 aus (Schritt S4). Die Informationsverarbeitungsvorrichtung 100 des Autos A dividiert den entnommenen Stellplatz in einzelne Parkbereiche basierend auf einer Fahrzeuggröße und etwas Ähnlichem und erzeugt eine Parkplatzkarte (Schritt S5). Die Informationsverarbeitungsvorrichtung 100 des Autos A überträgt die erzeugte Parkplatzkarte an die Cloud 200. Das heißt, die Informationsverarbeitungsvorrichtung 100 des Autos A führt eine Punktgruppen-Filterung und eine Divisionsverarbeitung 46 nachfolgend der spärlichen Punktgruppen quasi-Verdichtungsverarbeitung 45 aus.
  • Wenn die Parkplatzkarte empfangen wird, vergleicht die Cloud 200 die Parkplatzkarte mit einer Parkplatzkarte, welche bereits in der DB vorhanden ist, und formt die Parkplatzkarte in der DB mit der empfangenen Parkplatzkarte (Schritt S6). Das heißt beispielsweise wenn Parkplatzkarten desselben Parkplatzes von Autos B und C empfangen werden, formt die Cloud 200 die Parkplatzkarte in der DB sequenziell und verbessert die Genauigkeit der Karte. Darüber hinaus korrigiert die Cloud 200 die Fahrkarte in der DB basierend auf der geformten Parkplatzkarte (Schritt S7). Das heißt, da das Informationsverarbeitungssystem 1 eine Information in der DB aktualisiert, mit einer von jedem Fahrzeug 10 empfangenen Karteninformationen, kann die Genauigkeit verbessert werden, wenn sich die Anzahl von Fahrzeugen 10 erhöht. Weiterhin kann das Informationsverarbeitungssystem 1 eine Veränderung widerspiegeln, welche durch Einfahren und Ausfahren eines Fahrzeugs in und aus dem Parkplatz verursacht wird.
  • Nachfolgend wird eine funktionale Konfiguration der Informationsverarbeitungsvorrichtung 100 mit Bezug zu 11 beschrieben. 11 ist ein Blockdiagramm, welches ein Beispiel einer funktionellen Konfiguration der Informationsverarbeitungsvorrichtung gemäß der Ausführungsform darstellt. Wie in 11 dargestellt, umfasst die Informationsverarbeitungsvorrichtung 100 eine Kommunikationseinheit 110, eine Kamera 111, eine-Speichereinheit 120 und eine Steuereinheit 130. Es wird darauf hingewiesen, dass die Informationsverarbeitungsvorrichtung 100 verschiedene funktionale Einheiten umfassen kann, welche in einem Computer funktionale Einheiten beispielsweise umfassen, wie verschiedene Anzeigevorrichtungen, Eingabevorrichtungen, Audioausgabe Vorrichtungen und etwas Ähnliches, zusätzlich zu den in 11 dargestellten funktionalen Einheiten.
  • Die Kommunikationseinheit 110 wird beispielsweise durch eine Mobiltelefonleitung wie beispielsweise ein mobiles Kommunikationssystem der dritten Generation, die Long Term Evolution (LTE) und etwas Ähnliches, ein Kommunikationsmodul wie beispielsweise ein drahtloses LAN und etwas Ähnliches umgesetzt. Die Kommunikationseinheit 110 ist eine Kommunikationsschnittstelle, welche mit der Cloud 200 über das Netzwerk drahtlos verbunden ist und eine Kommunikation von Information mit der Cloud 200 verwaltet. Es wird darauf hingewiesen, dass, falls die Informationsverarbeitungsvorrichtung 100 und die Cloud 200 miteinander über eine drahtlose Basisstation wie beispielsweise einem Mobiltelefon Leitung verbunden sind, ist die drahtlose Basisstation mit der Cloud 200 drahtlos oder verdrahtet verbunden. Wenn die anfängliche Fahrkarte von der Cloud 200 empfangen wird, gibt die Kommunikationseinheit 110 die empfangene anfängliche Fahrkarte an die Steuereinheit 130 aus. Weiter gibt die Steuereinheit 130 eine Fahrzeugpositionsinformation, eine Orientierungspunktänderung Information, die Fahrkarte, den Fahrverlauf, die Parkplatzkarte und etwas Ähnliches an die Kommunikation 110 aus. Die Kommunikationseinheit 110 überträgt die eingegebene Fahrzeugpositionsinformation, Orientierungspunktänderung Information, Fahrkarte, Fahrverlauf, Parkplatzkarte und etwas Ähnliches an die Cloud 200.
  • Die Kamera 111 ist eine Abbildungsvorrichtung, welche eine Umgebung des Fahrzeugs 10 abbildet. Die Kamera 111 bildet ein Bild unter Verwendung beispielsweise eines Komplementär-Metalloxid-Halbleiter (CMOS) Bildsensor oder einer Ladungs-Gekoppelte-Vorrichtungen (CCD) Bildsensor als ein Abbildungselement ab. Die Kamera 111 wandelt durch das Abbildungselement empfangenes Laserlicht photoelektrisch um und führt eine analog/digital (A/D) Umwandlung aus, um ein abgebildetes Bild zu erzeugen. Die Kamera 111 gibt das erzeugte abgebildete Bild an die Steuereinheit 130 aus.
  • Die Speichereinheit 120 wird beispielsweise durch eine Speichervorrichtung wie beispielsweise ein Halbleiterspeicherelement wie beispielsweise einen Arbeitsspeicher (RAM), einen Flash-Speicher und etwas Ähnliches, eine Festplatte, eine optische Diskette und etwas Ähnliches umgesetzt. Die Speichereinheit 120 umfasst eine Fahrkarten-Speichereinheit 121, eine Fahrzeugposition-Speichereinheit 122, eine Schlüsselframe-Speichereinheit 123 und eine Parkplatzkarten-Speichereinheit 124. Weiterhin speichert die-Speichereinheit 120 eine für eine Verarbeitung durch die Steuereinheit 130 verwendete Information.
  • Die Fahrkarten-Speichereinheit 121 speichert die Fahrkarte, das heißt die erste Punktgruppe, welche die dreidimensionale Form angibt, als eine spärliche Punktgruppe der Umgebung Eigenschaftspunkte. Die Fahrkarten-Speichereinheit 121 wird durch das SLAM sequenziell aktualisiert, wenn das Fahrzeug 10 fährt.
  • Die Fahrzeugposition-Speichereinheit 122 speichert die Fahrzeugposition und den Fahrverlauf des Fahrzeugs 10. Wenn das Fahrzeug 10 fährt, wird die Fahrzeugposition-Speichereinheit 122 durch das SLAM sequenziell aktualisiert, ähnlich zu der Fahrkarten-Speichereinheit 121.
  • Die Schlüsselframe-Speichereinheit 123 speichert einen Schlüsselframe, welcher das durch die Kamera abgebildete Bild und die Position und die Stellung der Kamera angebende Stellung(Haltung)-Information umfasst. Der Schlüsselframe ist ein Datenteil, welcher für das SLAM verwendet wird, und wird erzeugt, wenn die erste Punktgruppe erzeugt wird. Wenn das Fahrzeug 10 fährt, wird die Schlüsselframe-Speichereinheit 123 durch das SLAM sequenziell aktualisiert, ähnlich zu der Fahrkarten-Speichereinheit 121.
  • Die Parkplatzkarten-Speichereinheit 124 speichert eine Parkplatzkarte, wobei jeder Parkbereich in einen Stellplatz bestimmt ist. Die Parkplatzkarten-Speichereinheit 124 speichert beispielsweise eine Parkplatzkarte, welche jedes Mal erzeugt wird, wenn das Fahrzeug 10 einmal in den Parkplatz fährt.
  • Die Beschreibung kehrt zu der Beschreibung von 11 zurück. Die Steuereinheit 130 wird beispielsweise durch Ausführen eines in einer internen Speichervorrichtung gespeicherten Programms durch eine zentrale Verarbeitungseinheit (CPU), eine Mikroverarbeitungseinheit (MPU) und etwas Ähnliches unter Verwendung des RAM als ein Arbeitsbereich umgesetzt. Weiterhin kann die Steuereinheit 130 beispielsweise durch einen integrierten Schaltkreis wie beispielsweise einen anwendungsspezifischen integrierten Schaltkreis (ASCIC), eine feldprogrammierbare Gate Anordnung (FPGA) und etwas Ähnliches umgesetzt werden. Die Steuereinheit 130 umfasst eine Erfassungseinheit 131, eine erste Erzeugungseinheit 132, eine zweite Erzeugungseinheit 133, eine dritte Erzeugungseinheit 134, eine Entnahmeeinheit 135, eine Spezifikationseinheit 136 und eine Übertragungssteuereinheit 137 und setzt Funktionen und Aktionen einer nachstehend beschriebenen Informationsverarbeitung um und führt diese aus. Es wird darauf hingewiesen, dass eine interne Konfiguration der Steuereinheit 130 nicht auf die in 11 dargestellte Konfiguration beschränkt ist und kann eine andere Konfiguration sein, solange die Konfiguration die später beschriebene Informationsverarbeitung ausführt.
  • Wenn das abgebildete Bild von der Kamera 111 empfangen wird, startet die Erfassungseinheit 130 damit das eingegebene abgebildete Bild zu erfassen. Das heißt, die Erfassungseinheit 131 startet damit das durch die Kamera 111 abgebildete Bild zu erfassen. Die Erfassungseinheit 131 gibt das erfasste Bild an die erste Erzeugungseinheit 132 aus.
  • Weiterhin kann die Erfassungseinheit 131 die anfängliche Fahrkarte von der Cloud 200 erfassen. Die Erfassungseinheit 131 überträgt beispielsweise eine Positionsinformation einer Positionsdetektionsvorrichtung und etwas Ähnliches, was nicht dargestellt ist, an die Cloud 200 über die Kommunikationseinheit 110 und das Netzwerk N. Falls die Cloud 200 die anfängliche Fahrkarte des Parkplatzes umfasst, in welchem sich das Fahrzeug 10 aufhält, empfängt die Erfassungseinheit 131 die anfängliche Fahrkarte von der Cloud 200 über das Netzwerk N und die Kommunikationseinheit 110 und erfasst diese. Die Erfassungseinheit 131 speichert die erfasste anfängliche Fahrkarte in der Fahrkarten-Speichereinheit 121.
  • Wenn das Bild von der Erfassungseinheit 131 empfangen wird, führt die erste Erzeugungseinheit 132 das SLAM basierend auf dem eingegebenen Bild aus. Als das SLAM kann beispielsweise eine Verkettung von Abschätzungsergebnissen durch eine 2-Ansichten SfM, eine sequenzielle Wiederherstellung unter Verwendung eines Bündelausgleichs, eine parallele Nachverfolgung und Mapping (PTAM), ein MonoSLAM und etwas Ähnliches verwendet werden. Es wird darauf hingewiesen, dass das PTAM ein Algorithmus ist, bei welchem ein Trekking und ein Mapping unter Verwendung des Schlüsselframes und eines Bündelausgleichs parallelisiert wird. Beispielsweise kann die erste Erzeugungseinheit 132 den Schlüsselframe erzeugen, welcher das eingegebene Bild und die Stellungsinformationen umfasst, welche die Position und die Haltung der Kamera 111 angibt, beispielsweise unter Verwendung des PTAM.
  • Die erste Erzeugungseinheit 132 erzeugt den Schlüsselframe, welcher das Bild und die Stellungsinformationen umfasst, welche die Position und die Haltung der Kamera 111 angibt, basierend auf dem eingegebenen Bild. Die erste Erzeugungseinheit 132 beginnt damit die Fahrzeugposition abzuschätzen und die erste Punktgruppe zu erzeugen, welche eine dreidimensionale Form um das Fahrzeug 10 angibt, basierend auf dem erzeugten Schlüsselframe. Das heißt, die erste Erzeugungseinheit 132 beginnt damit die Fahrzeugposition des Fahrzeugs 10 abzuschätzen und beginnt damit die Fahrkarte zu erzeugen. Es wird drauf hingewiesen, dass, falls die Fahrkarten-Speichereinheit 121 die anfängliche Fahrkarte speichert, die erste Erzeugungseinheit 132 damit anfängt die anfängliche Fahrkarte zu aktualisieren. Weiter führt zum Zeitpunkt der Erzeugung der Fahrkarte, wenn bestimmt ist, dass das Fahrzeug zu demselben Punkt zurückgekehrt ist, basierend auf dem Schlüsselframe und der ersten Punktgruppe, die erste Erzeugungseinheit 132 einen Bündelausgleich aus und korrigiert die erste Punktgruppe, das heißt die Fahrkarte. Das heißt, die erste Erzeugungseinheit 132 korrigiert die ursprüngliche erste Punktgruppe basierend auf der aktuellen Position des Fahrzeugs 10, dem Schlüsselframe und der ersten Punktgruppe und erzeugt oder aktualisiert die Fahrkarte.
  • Die erste Erzeugungseinheit 132 speichert die erzeugte erste Punktgruppe in der Fahrkarten-Speichereinheit 121 als die Fahrkarte. Weiter speichert die erste Erzeugungseinheit 132 die abgeschätzte Fahrzeugposition und den Fahrverlauf in der Fahrzeugposition-Speichereinheit 122. Darüber hinaus speichert die erste Erzeugungseinheit 132 den erzeugten Schlüsselframe in der Schlüsselframe-Speichereinheit 123. Es ist möglich, dass die Fahrkarten-Speichereinheit 121, die Fahrzeugposition-Speichereinheit 122 und die Schlüsselframe-Speichereinheit 123 als eine einzelne Speichereinheit integriert sind und die erste Punktgruppe, die Fahrzeugposition, der Fahrverlauf und der Schlüsselframe in der integrierten Speichereinheit gespeichert werden. Weiter beginnt die erste Erzeugungseinheit 132 damit die Fahrzeugpositionsinformation und die Orientierungspunkt Änderung Information auszugeben, welches die Ausgaben des SLAM sind, an die Übertragungssteuereinheit 137.
  • Mit anderen Worten schätzt die erste Erzeugungseinheit 132 die Selbstposition des ersten sich bewegenden Körpers durch den ersten Algorithmus basierend auf dem erfassten Bild ab und erzeugt die erste Punktgruppe, welche die dreidimensionale Form um den ersten sich bewegenden Körper angibt.
  • Die erste Erzeugungseinheit 132 bestimmt, ob die Fahrt des Fahrzeugs 10 endet oder nicht, basierend auf der abgeschätzten Fahrzeugposition, falls bestimmt wird, dass die Fahrt des Fahrzeugs 10 noch nicht beendet ist, schätzt die erste Erzeugungseinheit 132 kontinuierlich die Fahrzeugposition ab und erzeugt die Fahrkarte. Wenn bestimmt ist, dass die Fahrt des Fahrzeugs 10 beendet ist, gibt die erste Erzeugungseinheit 132 eine zweite Punktgruppen Erzeugungsanweisung an die zweite Erzeugungseinheit 133 aus.
  • hierbei wird die Ausgabe des SLAM, das Bild und die Stellungsinformationen mit Bezug zu 12 beschrieben. 12 ist ein Diagramm, welches ein Beispiel einer Ausgabe des SLAM, ein Bild und eine Stellungsinformationen einem bestimmten Bereich eines Parkplatzes darstellt. Ein Beispiel in 12 gibt eine Ausgabe des SLAM an, falls das Fahrzeug 10 in einem vorbestimmten Bereich 50 in den Parkplatz fährt. Eine Fahrkarte 51, welche zu dem vorbestimmten Bereich 50 gehört, gibt eine dreidimensionale Form eines Fahrzeugs an, welches in dem vorbestimmten Bereich 50 geparkt ist. Weiter ist eine aktuelle Position 52 eine Position des Fahrzeugs 10, welche ungefähr 1/3 Runde vorgefahren ist, nach einmaligen einer Fahrt um den vorbestimmten Bereich 50. In einer Fahrroute des Fahrzeugs 10 ist eine Vielzahl von Schlüsselframes 53 entlang der Fahrtroute angeordnet und der Bündelausgleich wird bei einem Startpunkt ausgeführt. In jedem Schlüsselframe 53 wird die Stellungsinformation, welche die Position und die Haltung der Kamera 111 angibt, mit einem RGB Bild bei der Position eines jeden Schlüsselframes 53 verknüpft. Die zweite Erzeugungseinheit 133 erhält eine Dichte Punktgruppe durch Verwenden des offline SF basierend auf diesen Teilen von Information.
  • Die Beschreibung kehrt zu der Beschreibung von 11 zurück. Wenn die zweite Punktgruppen Erzeugungsanweisung von der ersten Erzeugungseinheit 132 empfangen wird, nimm die zweite Erzeugungseinheit 133 Bezug auf die Schlüsselframe-Speichereinheit 123 und erfasst das Bild und die Stellungsinformationen eines jeden Schlüsselframes. Die zweite Erzeugungseinheit 133 führt eine Verarbeitung wie beispielsweise eine Konstruktion eines dreidimensionalen Modells, ein Einstellen eines Erdung Steuerpunkts (GCP) und etwas Ähnliches durch das SfM basierend auf dem erfassten Bild und der Stellungsinformationen aus. Weiterhin wandelt die erste Erzeugungseinheit 133 das konstruierte dreidimensionale Modell in ein Geländemodell um und gibt das Geländemodell an die dritte Erzeugungseinheit 134 als die zweite Punktgruppe aus. Das heißt, die zweite Erzeugungseinheit 133 erzeugt die zweite Punktgruppe basierend auf dem Schlüsselframe. Mit anderen Worten erzeugt die zweite Erzeugungseinheit 133 die zweite Punktgruppe, welche eine dreidimensionale Form angibt, durch den zweiten Algorithmus basierend auf in dem ersten Algorithmus verwendeten Daten. Es wird darauf hingewiesen, dass beispielsweise als das SfM Software wie beispielsweise Visual SFM und PMV2S/CMVS verwendet werden kann.
  • Das heißt, die zweite Erzeugungseinheit 133 erzeugt ein dreidimensionales Modell unter Verwendung aller in dem Parkplatz abgebildeten Bildern. Daher weist die zweite Punktgruppe, welche durch die zweite Erzeugungseinheit 133 ausgegeben wird, eine höhere Dichte als die erste Punktgruppe auf, welche eine Ausgabe der ersten Erzeugungseinheit 132 ist. Das heißt, obwohl die durch die erste Erzeugungseinheit 132 ausgegebene erste Punktgruppe eine Echtzeiteigenschaft aufweist, ist die erste Punktgruppe eine spärliche Punktgruppe. Obwohl die zweite Punktgruppe, welche durch die zweite Erzeugungseinheit 133 ausgegeben wird, keine Echtzeiteigenschaft aufweist, ist die zweite Punktgruppe eine Dichte Punktgruppe.
  • Wenn die zweite Punktgruppe von der zweiten Erzeugungseinheit 133 empfangen wird, nimmt die dritte Erzeugungseinheit 134 auf die Fahrkarten-Speichereinheit 121 Bezug und erfasst die erste Punktgruppe. Die dritte Erzeugungseinheit 134 führt die erste Punktgruppe mit der zweiten Punktgruppe zusammen, um die dritte Punktgruppe zu erzeugen. Das heißt, die dritte Erzeugungseinheit 134 halbverdichtet (halb-dicht) die erste Punktgruppe. Die dritte Erzeugungseinheit 134 gibt die erzeugte dritte Punktgruppe an die Entnahmeeinheit 135 aus.
  • Hierbei wird die quasi verdichtete dritte Punktgruppe mit Bezug zu 13 beschrieben. 13 ist ein Diagramm, welches ein Beispiel der quasi verdichteten dritten Punktgruppen darstellt. Eine in 13 dargestellte Punktgruppe 55 ist ein Beispiel einer dritten Punktgruppe in einem Parkplatz 56. Ein Bereich 57 gehört zu einem Bereich 58 und umfasst viele Eigenschaftspunkte eines Fahrzeugs, welches in dem Bereich 58 geparkt ist. Es wird darauf hingewiesen, dass Eigenschaftspunkte 59 in einem oberen Abschnitt der Punktgruppe 55 Eigenschaftspunkte eines Baums und etwas Ähnlichem sind, welcher in der Rückseite des Parkplatzes 56 positioniert ist. Eine Punktgruppe 60 ist eine Vergrößerung der Punktgruppe in dem Bereich 57 und gibt einen Umriss eines Fahrzeugs auf einer Eingangsseite wieder, welche durch eine Person zu erkennen ist.
  • Die Beschreibung kehrt zu der Beschreibung von 11 zurück. Wenn die dritte Punktgruppe von der dritten Erzeugungseinheit 134 empfangen wird, entnimmt die Entnahmeeinheit 135 einen Stellplatz aus der dritten Punktgruppe. Die Entnahmeeinheit 135 nimmt Bezug auf die Fahrzeugposition-Speichereinheit 122 und erfasst den Fahrverlauf des Fahrzeugs 10 auf dem Parkplatz, das heißt den Bewegungsverlauf. Die Entnahmeeinheit 135 erzeugt eine 3-D Begrenzung 60, basierend auf eine Information bezüglich einer Größe wie beispielsweise eine breite und eine Höhe eines Fahrzeugs, welche vor ab eingestellt wurde, und dem erfassten Bewegungsverlauf. Die Entnahmeeinheit 135 entnimmt dem Parkplatz von der dritten Punktgruppe Durchfiltern der dritten Punktgruppe unter Verwendung des erzeugten Begrenzungsrechtecks. Mit anderen Worten entnimmt die Entnahmeeinheit 135 einen Platz einer Bereichsgruppe, bei welchem der zweite sich bewegende Körper geparkt ist, aus der dritten Punktgruppe basierend auf dem Bewegungsverlauf des Fahrzeugs 10, welches der erste sich bewegende Körper ist, und der Information bezüglich der Größe des geparkten Fahrzeugs, welches der zweite sich bewegende Körper ist. Die Entnahmeeinheit 135 gibt die Punktgruppe des entnommenen Stellplatzes an die Spezifikationseinheit 136 aus.
  • Hierbei wird die Entnahme des Stellplatzes mit Bezug zu 14 beschrieben. 14 ist ein Diagramm, welches ein Beispiel der Entnahme des Stellplatzes darstellt. In dem Beispiel in 14 erzeugt die Entnahmeeinheit 135 eine Begrenzungsbox 62 basierend auf einem Bewegungsverlauf 61, welcher ein Fahrverlauf des Fahrzeugs 10 in dem Bereich 58 in dem Parkplatz 56 ist, und der Information bezüglich der Größe des Fahrzeugs, welche vorab eingestellt ist. Die Entnahmeeinheit 135 entnimmt eine Punktgruppe 63 Durchfiltern der Punktgruppe 55 unter Verwendung des Begrenzung Rechtecks 62. Es wird darauf hingewiesen, dass die Punktgruppe 63 einen Zustand des geparkten Fahrzeugs angibt, welcher von der Seite gesehen ist, und einen Zustand der Punktgruppe 63, welcher von einer Ansicht von oben gesehen ist, das heißt auf der Ebene ist, wie durch eine Punktgruppe 64 angegeben.
  • Die Beschreibung kehrt zu der Beschreibung von 11 zurück, wenn die Punktgruppe des Stellplatzes von der Entnahmeeinheit 135 empfangen wird, teilt die Spezifikationseinheit 136 den Stellplatz in Parkbereiche für entsprechende Fahrzeuge. Die Spezifikationseinheit 136 teilt die Punktgruppe des Stellplatzes in die Parkbereiche für die entsprechenden Fahrzeuge basierend auf einer Platzverteilung der Punktgruppe des Parkplatzes und der Information bezüglich der Größe wie beispielsweise der breite und der Höhe des Fahrzeugs, welche vorab eingestellt wurde. Die Spezifikationseinheit 136 mittelt die Breite und die Tiefe der entsprechenden geteilten Parkbereiche und bestimmt jeden Parkbereich. Das heißt, die Spezifikationseinheit 136 teilt den entnommenen Bereich, um jeden Bereich in der Bereichsgruppe zu bestimmen. Die Spezifikationseinheit 136 erzeugt eine Parkplatzkarte basierend auf jedem bestimmten Parkbereich. Die Spezifikationseinheit 136 speichert die erzeugte Parkplatzkarte in der Parkplatzkarten-Speichereinheit 124.
  • Hierbei wird die Teilung des Stellplatzes und die Spezifikation des Parkbereichs mit Bezug zu den 15 und 16 beschrieben. 15 ist ein Diagramm, welches ein Beispiel der Division des Stellplatzes darstellt. In dem Beispiel in 15 teilt die Spezifikationseinheit 136 eine Punktgruppe 65 in Parkbereiche 66, 67 und 68 basierend auf einer Platzverteilung der Punktgruppe 65, welche ein Teil der Punktgruppe 63 des Stellplatzes ist, und der Information bezüglich der Größe des Fahrzeugs. Die Spezifikationseinheit 136 teilt in einer ähnlichen Weise andere Teile der Punktgruppe 63 des Stellplatzes in Parkbereiche und erzeugt eine Parkbereichsgruppe 69 durch Anordnen der Parkbereiche in der Punktgruppe 64 auf der Ebene. Es wird drauf hingewiesen, dass, da die Punktgruppe 65 eine dreidimensionale Punktgruppe ist, können Abstände zwischen den geparkten Fahrzeugen einfacher gefunden werden, als diese in einem zweidimensionalen Bild.
  • 16 ist ein Diagramm, welches ein Beispiel der Spezifikation des Parkbereichs darstellt. In dem Beispiel in 16 berechnet die Spezifikationseinheit 136 einen Durchschnittswert da der Breiten d0 bis di-1 der entsprechenden Parkbereiche in der Parkbereichsgruppe 69, welche zu einer Punktgruppe 64a gehört, welche ein Teil der Punktgruppe 64 ist. Weiterhin berechnet die Spezifikationseinheit 136 einen Durchschnittswert La der tiefen L0 bis Li entsprechenden Parkbereiche. Die Spezifikationseinheit 136 bestimmt einen Parkbereich mit der breite da und der Tiefe La und erzeugt eine Parkbereichsgruppe 70 durch Kombinieren der Vielzahl von bestimmten Parkbereichen. Die Spezifikationseinheit 136 speichert die erzeugte Parkbereichsgruppe 70 in der Parkplatzkarten-Speichereinheit 124 als eine Parkplatzkarte. Mit anderen Worten berechnet die Spezifikationseinheit 136 Durchschnittswerte der Breiten und Tiefen von Bereichen der Bereichsgruppe in dem entnommenen Raum und teilt den Raum und bestimmt jeden Bereich der Bereichsgruppe basierend auf den berechneten Durchschnittswerten der breiten und der tiefen der entsprechenden Bereiche.
  • Weiterhin korrigiert die Spezifikationseinheit 136 die in der Fahrkarten-Speichereinheit 121 gespeicherte Fahrkarte basierend auf der erzeugten Parkplatzkarte. Die Spezifikationseinheit 136 erzeugt eine 3-dimensionale Vorlagenpunktgruppe basierend auf der erzeugten Parkplatzkarte. Die Spezifikationseinheit 136 korrigiert die von der Fahrkarten-Speichereinheit 121 erfasste Fahrkarte, das heißt die erste Punktgruppe durch eine nicht-feste Iterative-Nächste-Punkt (ICP) Anordnung beispielsweise unter Verwendung der erzeugten Vorlagenpunktgruppe als eine Vorlage. Das heißt, die Spezifikationseinheit 136 korrigiert die erste Punktgruppe, welches die Fahrkarte ist. Das heißt, die Spezifikationseinheit 136 korrigiert einen Verschiebungsfehler der Fahrkarte unter Verwendung der Parkplatzkarte. Mit anderen Worten korrigiert die Spezifikationseinheit 136 eine Verschiebung der ersten Punktgruppe durch Anordnen der ersten Punktgruppe basierend auf der Breite und der Tiefe eines jeden bestimmten Bereichs. Die Spezifikationseinheit 136 speichert die korrigierte Fahrkarte in der Fahrkarten-Speichereinheit 121. Wenn die korrigierte Fahrkarte in der Fahrkarten-Speichereinheit 121 gespeichert ist, gibt die Spezifikationseinheit 136 eine Kartenübertragungsanweisung an die Übertragungssteuereinheit 137 aus.
  • Hierbei wird die Korrektur der Fahrkarte mit Bezug zu 17 beschrieben. 17 ist ein Diagramm, welches ein Beispiel der Korrektur der Fahrkarte basierend auf der breite und der Tiefe des bestimmten Bereichs darstellt. Wie in 17 dargestellt, erzeugt die Spezifikationseinheit 136 eine 3-dimensionale Vorlagenpunktgruppe 71 basierend auf der Parkbereichsgruppe 70. Die Spezifikationseinheit 136 korrigiert den Verschiebungsfehler durch die Anordnung unter Verwendung eines nicht-festen ICP Algorithmus relativ zu einer ersten Punktgruppe 72 unter Verwendung der erzeugten Vorlagenpunktgruppe 71. Die Spezifikationseinheit 136 erzeugt beispielsweise die Vorlagenpunktgruppe 71 basierend auf der Parkbereichsgruppe 70, welches ein Teil des Parkplatzes ist, und wendet die erzeugte Punktgruppe auf andere Teile des Parkplatzes an, um einen Verschiebungsfehler des anderen Teils zu korrigieren.
  • Insbesondere ordnet die Spezifikationseinheit 136 die erste Punktgruppe 72 unter Verwendung der Vorlagenpunktgruppe 71 derart an, um den Verschiebungsfehler der ersten Punktgruppe 72 zu korrigieren. Das heißt, die Spezifikationseinheit 136 führt eine Korrektur durch Deformieren eines jeden Eigenschaftspunkts der ersten Punktgruppe 72 aus, um näher an einem zugehörigen Eigenschaftspunkt der Vorlagenpunktgruppe 71 zu sein. Die Spezifikationseinheit 136 speichert die erste Punktgruppe, bei welcher der Verschiebungsfehler korrigiert wurde, das heißt die Fahrkarte in der Fahrkarten-Speichereinheit 121.
  • Die Beschreibung kehrt zu der Beschreibung von 11 zurück. Wenn eine Eingabe der Fahrzeugpositionsinformation und der Orientierungspunktänderungsinformation von der ersten Erzeugungseinheit 132 gestartet ist, beginnt die Übertragungssteuereinheit 137 damit die Fahrzeugpositionsinformation und die Orientierungspunktänderung Information an die Cloud 200 über die Kommunikationseinheit 110 das Netzwerk N zu übertragen. Weiterhin, wenn die Karten Übertragungsanweisung von der Spezifikationseinheit 136 empfangen wird, nimmt die Übertragungssteuereinheit 137 Bezug auf die Fahrkarten-Speichereinheit 121 und die Parkplatzkarten-Speichereinheit 124 und überträgt die Fahrkarte und die Parkplatzkarte an die Cloud 200 über die Kommunikationseinheit 110 und das Netzwerk N. Es wird darauf hingewiesen, dass die Übertragungssteuereinheit 137 auf die Fahrzeugposition-Speichereinheit 122 Bezug nehmen kann und den Fahrverlauf des Fahrzeugs 10 an die Cloud 200 zusammen mit der Fahrkarte und der Parkplatzkarte übertragen kann.
  • Als Nächstes wird ein Betrieb der Informationsverarbeitungsvorrichtung 100 gemäß der Ausführungsform beschrieben. 18 ist ein Flussdiagramm, welches ein Beispiel einer Parkplatzkartenerzeugungsverarbeitung gemäß der Ausführungsform darstellt.
  • Die Erfassungseinheit 131 beginnt damit ein durch die Kamera 111 abgebildetes Bild zu erfassen (Schritt S11). Die Erfassungseinheit 131 gibt das erfasste Bild an die erste Erzeugungseinheit 132 aus. Wenn das Bild von der Erfassungseinheit 131 empfangen ist, führt die erste Erzeugungseinheit 132 das SLAM basierend auf dem eingegebenen Bild aus und erzeugt den Schlüsselframe, welcher das Bild und die Stellungsinformationen umfasst (Schritt S12). Die erste Erzeugungseinheit 132 beginnt damit die Fahrzeugposition abzuschätzen und die erste Punktgruppe zu erzeugen, basierend auf dem erzeugten Schlüsselframe (Schritt S13).
  • Die erste Erzeugungseinheit 132 korrigiert die ursprüngliche erste Punktgruppe basierend auf der aktuellen Position des Fahrzeugs 10, dem Schlüsselframe und der ersten Punktgruppe und erzeugt oder aktualisiert die Fahrkarte (Schritt S14). Die erste Erzeugungseinheit 132 speichert die erzeugte erste Punktgruppe in der Fahrkarten-Speichereinheit 121 als die Fahrkarte. Weiterhin speichert die erste Erzeugungseinheit 132 die abgeschätzte Fahrzeugposition und den Fahrverlauf in der Fahrzeugposition-Speichereinheit 122. Darüber hinaus speichert die erste Erzeugungseinheit 132 den erzeugten Schlüsselframe in der Schüsselframe-Speichereinheit 123.
  • Die erste Erzeugungseinheit 132 bestimmt, ob die Fahrt des Fahrzeugs 10 beendet ist oder nicht, basierend auf der abgeschätzten Fahrzeugposition (Schritt S15). Falls bestimmt wird, dass die Fahrt des Fahrzeugs 10 nicht beendet ist (Schritt S15: Nein), kehrt die erste Erzeugungseinheit 132 zu dem Schritt S14 zurück. Wenn bestimmt ist, dass die Fahrt des Fahrzeugs 10 beendet ist (Schritt S15: ja), gibt die erste Erzeugungseinheit 132 eine zweite Punktgruppen Erzeugungsanweisung an die zweite Erzeugungseinheit 133 aus.
  • Wenn die zweite Punktgruppen Erzeugungsanweisung von der ersten Erzeugungseinheit 132 empfangen wird, nimmt die zweite Erzeugungseinheit 133 auf die Schüssel Frame-Speichereinheit 123 Bezug und erfasst den Schüssel Frame. Die zweite Erzeugungseinheit 123 erzeugt zweite Punktgruppen basierend auf dem erfassten schlüsselfertigen und gibt die erzeugte zweite Punktgruppe an die dritte Erzeugungseinheit 134 aus (Schritt S16).
  • Wenn die zweite Punktgruppe von der zweiten Erzeugungseinheit 133 empfangen ist, nimmt die dritte Erzeugungseinheit 134 auf die Fahrkarten-Speichereinheit 121 Bezug und erfasst die erste Punktgruppe. Die dritte Erzeugungseinheit 134 führt die erste Punktgruppe mit der zweiten Punktgruppe derart zusammen, um die dritte Punktgruppe zu erzeugen (Schritt S17). Die dritte Erzeugungseinheit 134 gibt die erzeugte dritte Punktgruppe an die Entnahmeeinheit 135 aus.
  • Wenn die dritte Punktgruppe von der dritten Erzeugungseinheit 134 empfangen ist, entnimmt die Entnahmeeinheit 135 einen Stellplatz aus der dritten Punktgruppe (Schritt S18). Die Entnahmeeinheit 135 gibt die Punktgruppe des entnommenen Stellplatzes an die Spezifikationseinheit 136 aus. Wenn die Punktgruppe des Stellplatzes von der Entnahmeeinheit 135 empfangen ist, teilt die Spezifikationseinheit 136 den Stellplatz in Parkbereiche für entsprechende Fahrzeug. Die Spezifikationseinheit 136 mittelt die Breiten und die Tiefen der entsprechenden geteilten Parkbereiche und bestimmt jeden Parkbereich. Die Spezifikationseinheit 136 erzeugt eine Parkplatzkarte basierend auf jedem bestimmten Parkbereich (Schritt S19). Die Spezifikationseinheit 136 speichert die erzeugte Parkplatzkarte in der Parkplatzkarten-Speichereinheit 124.
  • Die Spezifikationseinheit 136 korrigiert die in der Fahrkarten-Speichereinheit 121 gespeicherte Fahrkarte basierend auf der erzeugten Parkplatzkarte (Schritt S20). Wenn die Fahrkarte korrigiert wird, gibt die Spezifikationseinheit 136 die Karten-Übertragungsanweisung an die Übertragungssteuereinheit 137 aus.
  • Wenn die Karten-Übertragungsanweisung von der Spezifikationseinheit 136 empfangen ist, nimmt die Übertragungssteuereinheit 137 Bezug auf die Fahrkarten-Speichereinheit 121 und die Parkplatzkarten-Speichereinheit 124 und überträgt die Fahrkarte und die Parkplatzkarte an die Cloud 200 (Schritt S21). Mit dieser Operation kann die Informationsverarbeitungsvorrichtung 100 den Parkbereich einfach bestimmen.
  • Auf diese Weise erfasste Informationsverarbeitungsvorrichtung 100 das durch die Kamera 111 abgebildetes Bild, das heißt eine in dem Fahrzeug 10 vorgesehene Abbildungsvorrichtung, wobei das Fahrzeug 10 der erste sich bewegende Körper ist. Weiterhin schätzt die Informationsverarbeitungsvorrichtung 100 die Selbstposition des ersten sich bewegenden Körpers durch den ersten Algorithmus basierend auf dem erfassten Bild ab und erzeugt die erste Punktgruppe, welche die 3-dimensionale Form um den ersten sich bewegenden Körper angibt. Weiterhin erzeugt die Informationsverarbeitungsvorrichtung 100 eine zweite Punktgruppe, welche eine dreidimensionale Form angibt, durch einen zweiten Algorithmus basierend auf in dem ersten Algorithmus verwendeten Daten. Weiterhin führt die Informationsverarbeitungsvorrichtung 100 die erzeugte erste Punktgruppe mit der erzeugten zweiten Gruppe Punktgruppe zusammen, um die dritte Punktgruppe zu erzeugen. Weiterhin entnimmt die Informationsverarbeitungsvorrichtung 100 den Bereich einer Bereichsgruppe, bei welchem der zweite sich bewegende Körper geparkt ist, aus der dritten Punktgruppe, basierend auf der Bewegungsverfolgung des ersten sich bewegenden Körpers und der Information bezüglich der Größe des zweiten sich bewegenden Körpers. Weiterhin teilt die Informationsverarbeitungsvorrichtung 100 den entnommenen Bereich und bestimmt jeden Bereich der Bereichsgruppe. Im Ergebnis kann die Informationsverarbeitungsvorrichtung Hunde den Parkbereich einfach bestimmen.
  • Weiterhin berechnet die Informationsverarbeitungsvorrichtung 100 die Durchschnittswerte der Breiten der Tiefen der entsprechenden Bereiche der Bereichsgruppe in dem entnommenen Bereich. Weiterhin teilt die Informationsverarbeitungsvorrichtung 100 den Bereich und bestimmt jeden Bereich der Bereichsgruppe basierend auf den berechneten Durchschnittswerten der Breiten und der Tiefen der entsprechenden Bereiche. Im Ergebnis kann Informationsverarbeitungsvorrichtung 100 einfach den Parkbereich bestimmen, selbst in einem Parkplatz, bei welchem Fahrzeuge mit unterschiedlichen Größen geparkt sind.
  • Weiterhin korrigiert Informationsverarbeitungsvorrichtung 100 die Verschiebung der ersten Punktgruppe durch Anordnen der ersten Punktgruppe basierend auf der Breiten und der Tiefe eines jeden bestimmten Bereichs. Im Ergebnis kann die Informationsverarbeitungsvorrichtung 100 den Verschiebungsfehler der Fahrkarte korrigieren.
  • Weiter ist eben der Informationsverarbeitungsvorrichtung 100 der zweite sich bewegende Körper ein Fahrzeug, das heißt ein Auto. Weiterhin teilt die Informationsverarbeitungsvorrichtung Hunde dem Bereich und bestimmt jeden Parkbereich der Bereichsgruppe, bei welchem das Fahrzeug geparkt ist. Im Ergebnis kann die Informationsverarbeitungsvorrichtung 100 den Parkbereich des Fahrzeugs einfach bestimmen.
  • Es wird darauf hingewiesen, dass das Fahrzeug 10 als ein sich bewegender Körper in der oben beschriebenen Ausführungsform verwendet wurde. Allerdings ist der sich bewegende Körper nicht darauf beschränkt. Beispielsweise kann ein Parkplatz durch Erfassen eines Bilds unter Verwendung einer sogenannten Drohne wie beispielsweise einem unbemannten Flugobjekt (UAV) und etwas Ähnlichem erzeugt werden.
  • Weiterhin wurde in der obigen Ausführungsform die Datenbank, welche verschiedene von der Vielzahl von Fahrzeugen 10 erfasste Informationen speichert als die Cloud 200 ausgebildet. Allerdings ist die Datenbank nicht darauf beschränkt. Beispielsweise können ein einzelner Server und eine Servergruppe statt der Cloud verwendet werden.
  • Zusätzlich muss nicht jede Komponente einer jeden dargestellten Einheit notwendigerweise wie dargestellt ausgebildet sein. Das heißt, bestimmte Aspekte einer Trennung und einer Integration der entsprechenden Einheiten sind nicht auf die dargestellten Formen beschränkt und alle oder ein Teil der Vorrichtung kann funktional oder physisch getrennt und integriert in beliebigen Einheiten gemäß verschiedenen Lasten und Nutzungszuständen sein. Beispielsweise kann die Entnahmeeinheit 135 und die Spezifikationseinheit 136 integriert sein weiter ist die Reihenfolge einer jeden dargestellten Verarbeitung nicht auf die oben beschriebene Reihenfolge beschränkt und die Verarbeitung kann gleichzeitig ausgeführt werden oder kann in einer geänderten Reihenfolge in einem Bereich ausgeführt werden, bei welchem die Verarbeitungsinhalte sich nicht widersprechen.
  • Weiter können alle oder ein beliebiger Teil von verschiedenen durch jede Vorrichtung ausgeführten Verarbeitungsfunktionen durch eine CPU (einen Mikrocomputer wie beispielsweise einen MPU und eine Mikrosteuereinheit (MCU)) ausgeführt werden. Weiterhin versteht es sich von selbst, dass alle oder ein beliebiger Teil der verschiedenen Verarbeitungsfunktionen durch ein Programm ausgeführt werden können, welches durch eine CPU (oder einen Mikrocomputer wie beispielsweise einen MPU und einen MCU) analysiert und ausgeführt wird, oder durch Hardware unter Verwendung einer verdrahteten Logik.
  • Die in der oben beschriebenen Ausführungsform beschriebenen verschiedene Verarbeitungen kann durch Ausführen des Programms umgesetzt werden, welches vorab durch einen Computer vorbereitet wurde. Daher wird in der nachstehenden Beschreibung ein Beispiel des Computers beschrieben, welcher ein Programm mit einer ähnlichen Funktion zu der obigen Ausführungsform ausführt. 19 ist ein Diagramm, welches ein Beispiel eines Computers zum Ausführen eines Informationsverarbeitungsprogramm darstellt.
  • Wie in 19 dargestellt, umfasst ein Computer 300 eine CPU 301, welche verschiedene Berechnung Verarbeitungen ausführt, eine Eingabevorrichtung 302, welche Daten Eingaben empfängt, und einen Monitor 303. Darüber hinaus umfasst der Computer 300 eine Mail Auslesevorrichtung 304, welche ein Programm und etwas Ähnliches von einem Speichermedium ausliest, eine Schnittstellenvorrichtung 305, welche verschiedene Vorrichtungen verbindet, und eine Kommunikationsvorrichtung 306, welche mit einer anderen Informationsverarbeitungsvorrichtung und etwas Ähnlichem verdrahtete oder drahtlos verbunden ist. Weiterhin umfasst der Computer 300 einen RAM 307, welche verschiedene Informationen zeitweise speichert, und eine Festplattenvorrichtung 308. Jede der Vorrichtung 301 bis 308 ist mit einem Bus 309 verbunden.
  • Die Festplattenvorrichtung 308 speichert Informationsverarbeitungsprogramm mit ähnlichen Funktionen zu Funktionen der entsprechenden Verarbeitungseinheiten der Erfassungseinheit 131, der ersten Erzeugungseinheit 132, der zweiten Erzeugungseinheit 133, der Listenerzeugungseinheit 134, der Entnahmeeinheit 135, der Spezifikationseinheit 136 und der Übertragungssteuereinheit 137, welche in 11 dargestellt sind. Weiter speichert die Festplattenvorrichtung 308 verschiedene Daten zum Realisieren der Fahrkarten-Speichereinheit 121, der Fahrzeugposition-Speichereinheit 122, der Schlüsselframe-Speichereinheit 123, der Parkplatzkarten-Speichereinheit 124 und das Informationsverarbeitungsprogramm. Beispielsweise empfängt die Eingabevorrichtung 302 Eingaben von verschiedenen Informationen wie beispielsweise einer Bitinformation von einem Anwender des Computers 300. Beispielsweise zeigt der Monitor 303 verschiedene Bildschirme wie beispielsweise einen Anzeigebildschirm dem Anwender des Computers 300 an. Beispielsweise ist die Schnittstellenvorrichtung 305 mit einer Kamera und etwas Ähnlichem verbunden. Die Kommunikationsvorrichtung 306 weist beispielsweise eine Funktion ähnlich zu der Kommunikationseinheit 110 auf, welche in 11 dargestellt ist, ist mit dem Netzwerk N verbunden und tauscht verschiedenen Informationen mit der Cloud 200 aus.
  • Die CPU 301 liest jedes in der Festplattenvorrichtung 308 gespeicherte Programm aus und entwickelt das Programm in dem RAM 307 und führt dieses aus, um verschiedene Verarbeitungen auszuführen. Weiterhin können diese Programme den Computer 300 dazu veranlassen als die Erfassungseinheit 131, die erste Erzeugungseinheit 132, die zweite Erzeugungseinheit 133, die dritte Erzeugungseinheit 134, die Entnahmeeinheit 135, die Spezifikationseinheit 136 und die Übertragungssteuereinheit 137 zu fungieren, welche in 11 dargestellt sind.
  • Es wird darauf hingewiesen, dass es nicht notwendig ist, dass das Informationsverarbeitungsprogramm in der Festplattenvorrichtung 308 gespeichert ist. Beispielsweise kann das Programm, welches in einem Speichermedium gespeichert ist, welches durch den Computer 300 ausgelesen werden kann, durch den Computer 300 ausgelesen und ausgeführt werden. Das Speichermedium, welches durch den Computer 300 ausgelesen werden kann, gehört beispielsweise zu einem tragbaren Speichermedium wie beispielsweise eine CD-ROM, eine DVD Diskette und ein Universalserienbus (USB), ein Halbleiterspeicher wie beispielsweise ein Flash-Speicher, einen Festplattenlaufwerk und etwas Ähnliches. Weiterhin ist es möglich, dass das Informationsverarbeitungsprogramm in einer Vorrichtung gespeichert ist, welche mit einer öffentlichen Leitung, dem Internet, einem LAN und etwas Ähnlichem verbunden ist, und der Computer 300 das Informationsverarbeitungsprogramm von der Vorrichtung ausliest und ausführt.
  • Bezugszeichenliste
  • 1
    Informationsverarbeitungssystem
    10
    Fahrzeug
    100
    Informationsverarbeitungsvorrichtung
    110
    Kommunikationseinheit
    111
    Kamera
    120
    Speichereinheit
    121
    Fahrkarten-Speichereinheit
    122
    Fahrzeugposition-Speichereinheit
    123
    Schlüsselframe-Speichereinheit
    124
    Parkplatzkarten-Speichereinheit
    130
    Steuereinheit
    131
    Erfassungseinheit
    132
    erste Erzeugungseinheit
    133
    zweite Erzeugungseinheit
    134
    dritte Erzeugungseinheit
    135
    Entnahmeeinheit 100
    136
    Spezifikationseinheit
    137
    Übertragungssteuereinheit
    200
    Cloud
    N
    Netzwerk

Claims (5)

  1. Ein computerlesbares Speichermedium, welches ein Informationsverarbeitungsprogramm speichert, zum Veranlassen eines Computers, eine Verarbeitung auszuführen, umfassend: Erfassen (S11) eines Bilds, welches durch eine in einem ersten sich bewegenden Körper vorgesehene Abbildungsvorrichtung abgebildet ist; Erzeugen (S12) eines Schlüsselframes mit Bild- und Haltungsinformationen durch gleichzeitige Lokalisierung und Kartierung, SLAM, was ein erster Algorithmus ist, des Bildes; Abschätzen (S13) einer Position des ersten sich bewegenden Körpers basierend auf dem Schlüsselframe und Erzeugen einer ersten Punktgruppe, welche eine dreidimensionale Form um den ersten sich bewegenden Körper angibt; wenn anhand des Schlüsselframes und der ersten Punktgruppe festgestellt wird, dass der sich bewegende Körper zu einem selben Punkt zurückgekehrt ist, Korrigieren (S14) der ersten Punktgruppe auf der Grundlage der Position des ersten sich bewegenden Körpers, des Schlüsselframes und der ersten Punktgruppe, um eine Fahrkarte zu erzeugen oder zu aktualisieren; Bestimmen (S15), ob eine Bewegung des ersten sich bewegenden Körpers endet, basierend auf der Position des ersten sich bewegenden Körpers; Erzeugen (S16) einer zweiten Punktgruppe, welche die dreidimensionale Form angibt, durch Struktur-aus-Bewegung (SFM), was ein zweiter Algorithmus ist, auf der Grundlage des Schlüsselframes, wenn festgestellt wird, dass die Bewegung des ersten sich bewegenden Körpers endet; Zusammenführen (S17) der ersten Punktgruppe und der zweiten Punktgruppe, um eine dritte Punktgruppe zu erzeugen; Entnehmen (S18) einer Bereichspunktgruppe eines Parkplatzes aus der dritten Punktgruppe; und Erzeugen (S19) einer Parkplatzkarte durch Teilen des Parkplatzes in Parkbereiche für entsprechende sich bewegende Körper, Mitteln von Breiten und Tiefen der Parkbereiche und Bestimmen eines jeden Parkbereichs.
  2. Computerlesbares Speichermedium gemäß Anspruch 1, welches weiter einen Computer dazu veranlasst, eine Verarbeitung auszuführen, umfassend: Korrigieren einer Verschiebung der ersten Punktgruppe durch Anordnen der ersten Punktgruppe basierend auf der Breite und Tiefe eines jeden der bestimmten Parkbereiche.
  3. Computerlesbares Speichermedium gemäß Anspruch 1, wobei der zweite sich bewegende Körper ein Auto ist.
  4. Ein Informationsverarbeitungsverfahren, wobei ein Computer eine Verarbeitung ausführt, umfassend: Erfassen (S11) eines Bilds, welches durch eine in einem ersten sich bewegenden Körper vorgesehenen Abbildungsvorrichtung abgebildet ist; Erzeugen (S12) eines Schlüsselframes mit Bild- und Haltungsinformationen durch gleichzeitige Lokalisierung und Kartierung, SLAM, was ein erster Algorithmus ist, des Bildes; Abschätzen (S13) einer Position des ersten sich bewegenden Körpers basierend auf dem Schlüsselframe und Erzeugen einer ersten Punktgruppe, welche eine dreidimensionale Form um den ersten sich bewegenden Körper angibt; wenn anhand des Schlüsselframes und der ersten Punktgruppe festgestellt wird, dass der sich bewegende Körper zu einem selben Punkt zurückgekehrt ist, Korrigieren (S14) der ersten Punktgruppe durch Korrigieren der ersten Punktgruppe auf der Grundlage der Position des ersten sich bewegenden Körpers, des Schlüsselframes und der ersten Punktgruppe, um eine Fahrkarte zu erzeugen oder zu aktualisieren; Bestimmen (S15), ob eine Bewegung des ersten sich bewegenden Körpers endet, basierend auf der Position des ersten sich bewegenden Körpers; Erzeugen (S16) einer zweiten Punktgruppe, welche die dreidimensionale Form durch Struktur-aus-Bewegung (SFM), was ein zweiter Algorithmus ist, auf der Grundlage des Schlüsselframes angibt, wenn festgestellt wird, dass die Bewegung des ersten sich bewegenden Körpers endet; Zusammenführen (S17) der erzeugten ersten Punktgruppe und des zweiten Punktgruppenbereichs, um eine dritte Punktgruppe zu erzeugen; Entnehmen (S18) einer Bereichspunktgruppe eines Parkplatzes aus der dritten Punktgruppe; und Erzeugen (S19) einer Parkplatzkarte durch Teilen des Parkplatzes in Parkbereiche für die jeweiligen sich bewegenden Körper, Mitteln von Breiten und Tiefen der Parkbereiche und Bestimmen eines jeden Parkbereichs.
  5. Eine Informationsverarbeitungsvorrichtung, umfassend: eine Erfassungseinheit (131), ausgebildet zum Erfassen (S11) eines Bilds, welches durch eine in einem ersten sich bewegenden Körper vorgesehene Abbildungsvorrichtung abgebildet ist; eine erste Erzeugungseinheit (132), ausgebildet zum Abschätzen einer Position des ersten sich bewegenden Körpers basierend auf dem Schlüsselframe, Erzeugen einer ersten Punktgruppe, welche eine dreidimensionale Form um den sich bewegenden Körper angibt, Erzeugen (S12) eines Schlüsselframes, der das Bild und die Haltungsinformationen umfasst, indem SLAM, Simultaneous-Localization-and-Mapping, was ein erster Algorithmus ist, an dem Bild ausgeführt wird, wenn anhand des Schlüsselframes und der ersten Punktgruppe festgestellt wird, dass der sich bewegende Körper zu einem selben Punkt zurückgekehrt ist, Korrigieren der ersten Punktgruppe durch Korrigieren der ersten Punktgruppe auf der Grundlage der Position des ersten sich bewegenden Körpers, des Schlüsselbildes und der ersten Punktgruppe, um eine Fahrkarte zu erzeugen oder zu aktualisieren, und Bestimmen (S15), ob eine Bewegung des ersten sich bewegenden Körpers auf der Grundlage der Position des ersten sich bewegenden Körpers endet; eine zweite Erzeugungseinheit (133), ausgebildet zum Erzeugen (S16) einer zweiten Punktgruppe, welche die dreidimensionale Form angibt, durch Struktur-aus-Bewegung (SFM), was ein zweiter Algorithmus ist, auf der Grundlage des Schlüsselframes, wenn festgestellt wird, dass die Bewegung des ersten sich bewegenden Körpers endet; eine dritte Erzeugungseinheit (134), ausgebildet zum Zusammenführen (S17) der erzeugten ersten Punktgruppe und der zweiten Punktgruppe, um eine dritte Punktgruppe zu erzeugen; eine Entnahmeeinheit (135), ausgebildet zum Entnehmen (S18) einer Bereichspunktgruppe eines Parkplatzes aus der dritten Punktgruppe; und eine Spezifikationseinheit (136), ausgebildet zum Erzeugen (S19) einer Parkplatzkarte durch Teilen des Parkplatzes in Parkbereiche für die jeweiligen sich bewegenden Körper, Mitteln der Breiten und Tiefen von Parkbereiche und Bestimmen eines jeden der Parkbereiche.
DE112017006840.1T 2017-01-16 2017-01-16 Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung Active DE112017006840B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/001265 WO2018131165A1 (ja) 2017-01-16 2017-01-16 情報処理プログラム、情報処理方法および情報処理装置

Publications (2)

Publication Number Publication Date
DE112017006840T5 DE112017006840T5 (de) 2019-09-26
DE112017006840B4 true DE112017006840B4 (de) 2023-11-02

Family

ID=62840339

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017006840.1T Active DE112017006840B4 (de) 2017-01-16 2017-01-16 Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung

Country Status (4)

Country Link
US (1) US10885357B2 (de)
JP (1) JP6699761B2 (de)
DE (1) DE112017006840B4 (de)
WO (1) WO2018131165A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473422B (zh) * 2019-07-16 2022-07-12 盐城工学院 一种室外公共区域地面停车位导航装置
TWI725681B (zh) * 2019-12-24 2021-04-21 財團法人工業技術研究院 無人載具語意地圖建置系統及其建置方法
CN111260661B (zh) * 2020-01-15 2021-04-20 江苏大学 一种基于神经网络技术的视觉语义slam系统及方法
JP7396123B2 (ja) 2020-03-02 2023-12-12 株式会社デンソー 走行支援制御装置、駐停車制限区間作成方法、走行支援制御プログラム
US20230135985A1 (en) * 2020-03-31 2023-05-04 Nec Corporation Road deterioration diagnosing device, road deterioration diagnosing method, and recording medium
US11443131B2 (en) * 2020-05-20 2022-09-13 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for creating a parking map
US11462021B2 (en) * 2021-01-13 2022-10-04 GM Global Technology Operations LLC Obstacle detection and notification for motorcycles
KR102577907B1 (ko) * 2021-03-02 2023-09-14 네이버랩스 주식회사 3차원 맵 생성 방법 및 시스템
JPWO2022186256A1 (de) * 2021-03-04 2022-09-09

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170103A (ja) 2000-12-01 2002-06-14 Nissan Motor Co Ltd 駐車スペース地図作成装置および駐車スペース地図表示装置
US7831094B2 (en) 2004-04-27 2010-11-09 Honda Motor Co., Ltd. Simultaneous localization and mapping using multiple view feature descriptors
JP4480083B2 (ja) * 2005-02-23 2010-06-16 アイシン精機株式会社 物体認識装置
JP4780385B2 (ja) * 2005-11-17 2011-09-28 アイシン精機株式会社 周辺監視システム
US8243994B2 (en) * 2006-05-09 2012-08-14 Nissan Motor Co., Ltd. Vehicle circumferential image providing device and vehicle circumferential image providing method
JP2007315956A (ja) 2006-05-26 2007-12-06 Aisin Aw Co Ltd 駐車場マップ作成方法、駐車場案内方法及びナビゲーション装置
JP2009193240A (ja) * 2008-02-13 2009-08-27 Toyota Motor Corp 移動ロボット及び環境地図の生成方法
US8698875B2 (en) * 2009-02-20 2014-04-15 Google Inc. Estimation of panoramic camera orientation relative to a vehicle coordinate frame
JP5782708B2 (ja) 2010-12-03 2015-09-24 日産自動車株式会社 走行支援装置
JP6079131B2 (ja) * 2012-10-25 2017-02-15 富士通株式会社 画像処理装置、方法、及びプログラム
US9082008B2 (en) * 2012-12-03 2015-07-14 Honeywell International Inc. System and methods for feature selection and matching
US10179543B2 (en) * 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
DE102013110291A1 (de) * 2013-03-06 2014-09-11 Heraeus Sensor Technology Gmbh Verfahren zur Herstellung eines Rußsensors mit einem Laserstrahl
NL2010463C2 (nl) * 2013-03-15 2014-09-16 Cyclomedia Technology B V Werkwijze voor het genereren van een panoramabeeld.
JP5886809B2 (ja) * 2013-09-27 2016-03-16 富士重工業株式会社 車外環境認識装置
JP6149676B2 (ja) * 2013-10-09 2017-06-21 富士通株式会社 画像処理装置、画像処理方法、及び、プログラム
EP3627446B1 (de) * 2013-12-19 2021-06-16 Apple Inc. System, verfahren und medium zum erstellen eines geometrischen modells
WO2015107623A1 (ja) * 2014-01-15 2015-07-23 パイオニア株式会社 管理システム及び位置特定方法
US9305219B2 (en) * 2014-01-23 2016-04-05 Mitsubishi Electric Research Laboratories, Inc. Method for estimating free space using a camera system
US10595003B2 (en) * 2014-10-24 2020-03-17 Kyocera Corporation Stereo camera apparatus and vehicle comprising the same
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
JP6618767B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP6724425B2 (ja) * 2016-03-04 2020-07-15 アイシン精機株式会社 駐車支援装置
JP6868805B2 (ja) * 2016-06-07 2021-05-12 パナソニックIpマネジメント株式会社 画像生成装置、画像生成方法、およびプログラム
JP6660595B2 (ja) * 2016-06-07 2020-03-11 パナソニックIpマネジメント株式会社 駐車空間探索装置、プログラムおよび記録媒体
CN106767706B (zh) * 2016-12-09 2019-05-14 中山大学 一种无人机勘查交通事故现场的航拍图像采集方法及系统
EP3551967A2 (de) * 2016-12-09 2019-10-16 TomTom Global Content B.V. Verfahren und system zur videobasierten positionierung und abbildung
SG10201700299QA (en) * 2017-01-13 2018-08-30 Otsaw Digital Pte Ltd Three-dimensional mapping of an environment
EP3633985B1 (de) * 2017-05-24 2023-02-15 Furuno Electric Co., Ltd. Videogenerator
WO2019000417A1 (en) * 2017-06-30 2019-01-03 SZ DJI Technology Co., Ltd. SYSTEMS AND METHODS OF GENERATING CARDS
JP7039879B2 (ja) * 2017-08-03 2022-03-23 株式会社アイシン 表示制御装置
JP7013751B2 (ja) * 2017-09-15 2022-02-01 株式会社アイシン 画像処理装置
US11009884B2 (en) * 2017-09-29 2021-05-18 Direct Current Capital LLC Method for calculating nominal vehicle paths for lanes within a geographic region
US10854011B2 (en) * 2018-04-09 2020-12-01 Direct Current Capital LLC Method for rendering 2D and 3D data within a 3D virtual environment
KR101930796B1 (ko) * 2018-06-20 2018-12-19 주식회사 큐픽스 이미지를 이용한 3차원 좌표 계산 장치, 3차원 좌표 계산 방법, 3차원 거리 측정 장치 및 3차원 거리 측정 방법
JP7222254B2 (ja) * 2019-01-25 2023-02-15 株式会社アイシン 周辺表示制御装置
DE102020107949A1 (de) * 2019-03-29 2020-10-01 Panasonic Intellectual Property Management Co., Ltd. Sichtfeldunterstützungsbild-Erzeugungsvorrichtung und Bildumwandlungsverfahren

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LATEGAHN, Henning; GEIGER, Andreas; KITT, Bernd: Visual SLAM for autonomous ground vehicles. In: 2011 IEEE International Conference on Robotics and Automation. IEEE, 2011. S. 1732-1737.
SCHWESINGER, Ulrich [et al.]: Automated valet parking and charging for e-mobility. In: 2016 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2016. S. 157-164.

Also Published As

Publication number Publication date
US20190318179A1 (en) 2019-10-17
US10885357B2 (en) 2021-01-05
JPWO2018131165A1 (ja) 2019-11-07
WO2018131165A1 (ja) 2018-07-19
DE112017006840T5 (de) 2019-09-26
JP6699761B2 (ja) 2020-05-27

Similar Documents

Publication Publication Date Title
DE112017006840B4 (de) Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung
DE102016201673B4 (de) Vorrichtung zur erfassung der oberfläche einer befahrenen strasse und verfahren zur erfassung der oberfläche einer befahrenen strasse
DE102017120112A1 (de) Tiefenkartenschätzung mit stereobildern
DE112018000605T5 (de) Informationsverarbeitungsvorrichtung, Datenverwaltungsvorrichtung, Datenverwaltungssystem, Verfahren und Programm
DE102019101938A1 (de) Erstellung kognitiver Karten für Fahrzeuge
DE102014222617B4 (de) Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem
DE102015201951A1 (de) System und Verfahren zum Kartieren, Lokalisieren und Korrigieren einer Raumlage
DE102012101014A1 (de) Fahrzeugdetektionsvorrichtung
DE102013208521A1 (de) Kollektives Erlernen eines hochgenauen Straßenmodells
WO2015173092A1 (de) Verfahren und vorrichtung zur kalibrierung eines kamerasystems eines kraftfahrzeugs
DE112018000107T5 (de) Fahrzeugkamerakalibrierungsvorrichtung und -Verfahren
DE102016208056A1 (de) Verfahren und Vorrichtung zur Verarbeitung von Bilddaten und Fahrerassistenzsystem für ein Fahrzeug
DE102019115059A1 (de) System zum ableiten eines autonomen fahrzeugs, das eine fahrbare karte ermöglicht
DE112015007054B4 (de) Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
DE102015001247A1 (de) Verfahren zur Bereitstellung von Information über zumindest ein Objekt in einem Umgebungsbereich eines Kraftfahrzeugs und System
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE112017001841T5 (de) Vorrichtung zum erfassen eines montagewinkels für eine fahrzeuginterne kamera, vorrichtung zum kalibrieren eines montagewinkels, und verfahren zur erfassung eines montagewinkels
DE102016220308A1 (de) System und Verfahren zur Erzeugung von digitalen Straßenmodellen aus Luft- oder Satellitenbildern und von Fahrzeugen erfassten Daten
DE102018212049A1 (de) Verfahren zur dreidimensionalen bildlichen Rekonstruktion eines Fahrzeugs
DE102019117559A1 (de) Verfahren und System zum Fusionieren von zweidimensionalen semantischen Informationen aus Bildern mit einer dreidimensionalen Punktwolke
DE102020133092A1 (de) Positionsschätzungseinrichtung und positionsschätzungsverfahren
DE102011118171A1 (de) Verfahren und Vorrichtung zur Schätzung einer Fahrbahnebene und zur Klassifikation von 3D-Punkten
DE102013017621A1 (de) Verfahren zur Auswertung von stereoskopisch erfassten Einzelbildern
DE102009052868A1 (de) Verfahren zum Betrieb eines Fahrassistenzsystems eines Fahrzeugs
DE102020206134A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: HOFFMANN - EITLE PATENT- UND RECHTSANWAELTE PA, DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division