DE112017003801T5 - Fahrzeugvideosystem - Google Patents

Fahrzeugvideosystem Download PDF

Info

Publication number
DE112017003801T5
DE112017003801T5 DE112017003801.4T DE112017003801T DE112017003801T5 DE 112017003801 T5 DE112017003801 T5 DE 112017003801T5 DE 112017003801 T DE112017003801 T DE 112017003801T DE 112017003801 T5 DE112017003801 T5 DE 112017003801T5
Authority
DE
Germany
Prior art keywords
vehicle
geolocation
user
images
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017003801.4T
Other languages
English (en)
Inventor
Jared A. CRAWFORD
Yingen Xiong
Marco Pontil
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE112017003801T5 publication Critical patent/DE112017003801T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Abstract

Bilder werden unter Verwendung von Kameras, die an einem Fahrzeug montiert sind, erlangt, und mindestens ein Teil der erlangten Bilder wird auf einem Bildschirm angezeigt. Die Bewegung des Fahrzeugs kann derart gesteuert werden, dass es sich zu einem physischen Ziel bewegt, das aus Bildern ausgewählt wird, die unter Verwendung von Kameras, die an einem Fahrzeug montiert sind, erlangt werden.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht den Vorteil der am 22. September 2016 eingereichten vorläufigen US-Patentanmeldung Nr. 62/398,125 mit dem Titel „Vehicle Video System“, deren Inhalt durch Bezugnahme in ihrer Gesamtheit für alle Zwecke hierin eingeschlossen wird.
  • TECHNISCHES GEBIET
  • Die Anmeldung betrifft allgemein die Verarbeitung und Verwendung von Videoinhalten, die von einem Fahrzeug erzeugt werden.
  • HINTERGRUND
  • Automatisierte Steuersysteme für Fahrzeuge können zu einem allgemeinen Bereich navigieren. Beispielsweise können automatisierte Steuersysteme zu einem allgemeinen Bereich navigieren, wie er durch einen Punkt auf einer Karte bestimmt wird. Eine Navigation unter Verwendung von Informationen, wie Karten, ist nicht gut geeignet, um ein Ziel an einem sehr spezifischen Ort zu bestimmen, wie die Stelle einer Eingangstür zu einem Gebäude oder einen Ort, an dem eine Person steht.
  • ZUSAMMENFASSUNG
  • Ein Aspekt der Offenbarung ist ein Verfahren, das ein Erlangen von Bildern unter Verwendung von einer oder mehreren Kameras, die an einem Fahrzeug montiert sind, ein Senden von Daten, die mindestens einen Teil der erlangten Bilder darstellen, an eine Anzeigevorrichtung, ein Empfangen von Daten, die einen ausgewählten Teil der erlangten Bilder darstellen, ein Korrelieren des ausgewählten Teils der erlangten Bilder mit einer Geolokation und ein Bewegen des Fahrzeugs in Richtung der Geolokation einschließt.
  • Ein weiterer Aspekt der Offenbarung ist ein Fahrzeug, das eine oder mehrere Kameras, die an dem Fahrzeug montiert sind, einen oder mehrere Prozessoren und einen Antriebsstrang einschließt. Der eine oder die mehreren Prozessoren sind dazu ausgelegt, Bilder unter Verwendung der einen oder mehreren Kameras zu erlangen, Daten, die mindestens einen Teil der erlangten Bilder darstellen, an eine Anzeigevorrichtung zu senden, Daten, die einen ausgewählten Teil der erlangten Bilder darstellen, zu empfangen und den ausgewählten Teil der erlangten Bilder mit einer Geolokation zu korrelieren. Der Antriebsstrang ist dazu ausgelegt, das Fahrzeug in Richtung der Geolokation zu bewegen.
  • Ein weiterer Aspekt der Offenbarung ist eine nicht-flüchtige computerlesbare Speichervorrichtung mit computerausführbaren Programmbefehlen, die durch einen oder mehrere Prozessoren eines Fahrzeugs ausführbar sind. Die computerausführbaren Programmbefehle bewirken, wenn sie ausgeführt werden, dass der eine oder die mehreren Prozessoren Bilder unter Verwendung von einer oder mehreren Kameras, die an dem Fahrzeug montiert sind, erlangen, Daten, die mindestens einen Teil der erlangten Bilder darstellen, an eine Anzeigevorrichtung senden, Daten, die einen ausgewählten Teil der erlangten Bilder darstellen, empfangen, den ausgewählten Teil der erlangten Bilder mit einer Geolokation korrelieren und bewirken, dass sich das Fahrzeug in Richtung der Geolokation bewegt.
  • Figurenliste
    • 1 ist ein Flussdiagramm eines beispielhaften Prozesses zum interaktiven Darstellen von Bildern aus einem Video, das durch ein Fahrzeug erzeugt wird.
    • 2 ist ein Flussdiagramm eines beispielhaften Prozesses zum Einstellen eines Treffpunkts, um ein Abholen durch ein Fahrzeug zu ermöglichen.
    • 3 ist ein Blockdiagramm eines beispielhaften Fahrzeugs.
    • 4 ist ein Blockdiagramm einer beispielhaften Hardwarekonfiguration für eine Fahrzeugsteuerung.
    • 5 ist ein Blockdiagramm einer beispielhaften Hardwarekonfiguration für eine Anzeigevorrichtung.
    • 6 ist eine Darstellung eines beispielhaften Fahrzeugabholszenarios.
  • DETAILLIERTE BESCHREIBUNG
  • Dieses Dokument beschreibt Systeme und Verfahren zum Erlangen, Beibehalten und Verteilen eines Fahrzeugvideos (d. h. eines Videos, das mit einer oder mehreren Kameras, die an einem Fahrzeug montiert sind, erlangt wird). In einigen Implementierungen kann ein Benutzer, der sich in einem Fahrzeug befindet, diese interaktive Oberfläche verwenden, um einen Ort aus der Umgebung des Fahrzeugs, beispielsweise eine gewünschte Absetzstelle, anzuzeigen oder auszuwählen, wobei er einen Parkplatz auswählt oder ein zu vermeidendes Objekt anzeigt.
  • In einigen Implementierungen wird es einem Benutzer ermöglicht, sein Fahrzeugvideo an einem entfernten Ort zu betrachten oder zu teilen. Beispielsweise kann es einem entfernten Benutzer ermöglicht werden, die Umgebung des Fahrzeugs zu betrachten, als ob er ein Passagier des Fahrzeugs wäre. Das Fahrzeugvideo kann in einer Vielfalt von Weisen an einem entfernten Ort betrachtet oder geteilt werden. Beispielsweise kann ein Panoramastandbild aus dem Fahrzeugvideo als ein herkömmliches Bild oder in einer interaktiven Panoramaanzeige, die es dem Betrachter ermöglicht, die Umgebung der Szene anzusehen, betrachtet werden. Beispielsweise kann ein Standbild, das eine Ansicht aus einer durch einen ersten Benutzer (z. B. den Teilenden) ausgewählten Perspektive zeigt, einem zweiten Benutzer präsentiert werden. Beispielsweise kann ein Fahrzeugvideo (z. B. ein Panoramafahrzeugvideo) interaktiv betrachtet werden, was es dem Betrachter ermöglicht, die Umgebung der Szene wie gewünscht anzusehen. Beispielsweise kann ein Fahrzeugvideo (z. B. ein Panoramafahrzeugvideo) interaktiv geteilt werden, was es dem Teilenden ermöglicht, die durch einen anderen Benutzer gesehene Perspektive zu steuern. Beispielsweise kann ein von einem Fahrzeugvideo stammendes Video, das eine feste Ansicht aus einer durch den Teilenden ausgewählten Perspektive zeigt, einem anderen Benutzer angezeigt werden. Beispielsweise kann ein von einem Fahrzeugvideo stammendes Video, das eine automatisch gesteuerte Videoperspektive zeigt (z. B. Verfolgen eines externen Objekts), einem anderen Benutzer angezeigt werden. Das Teilen von Teilen eines Fahrzeugvideos kann beispielsweise durch ein Auswählen, ein Fahrzeugvideo durch eine Messaging-App zu teilen, ein Umschalten zu einem Fahrzeugvideo während eines aktiven Videokonferenzanrufs (z. B. in derselben Art und Weise, in der nach vorne oder nach hinten gerichtete Kameras auf einem Smartphone ausgewählt werden) oder durch ein permanentes oder temporäres Teilen eines Fahrzeugvideos über eine Oberfläche für soziales Netzwerken initiiert werden.
  • Für Fahrzeuge, die unterwegs sind, um einen Passagier abzusetzen oder abzuholen, insbesondere ein autonom fahrendes Fahrzeug, wäre es hilfreich, wenn das Fahrzeug sein Kameravideo mit dem Passagier teilt, während es sich einer Absetz- oder Abholstelle nähert. Das Betrachten von Teilen eines Fahrzeugvideos kann dem Passagier dabei helfen, ein besseres Gefühl dafür zu haben, wo sich das Fahrzeug befindet, die Ursache für Verzögerungen zu verstehen und/oder das Fahrzeug zu leiten, um dessen aktuellen Kurs oder Treffpunkt zu ändern, um das Abholen zu ermöglichen. Beispielsweise kann ein Passagier, der ein Fahrzeugvideo betrachtet und feststellt, dass sich das Fahrzeug der Tür 1 in der „Ankunftsspur“ an einem Flughafen nähert, die interaktive Oberfläche verwenden, um das Fahrzeug zu leiten, um dessen konfigurierten Treffpunkt stattdessen auf einen anderen Ort, wie die Tür 3, einzustellen.
  • In diesem Dokument wird der Begriff „Video“ verwendet, um auf eine Sequenz von einem oder mehreren Bildern Bezug zu nehmen, die durch einen Bildsensor, wie eine Kamera, erlangt werden. Es ist zu beachten, dass das eine oder die mehreren Bilder in der Sequenz (die auch als Einzelbilder bezeichnet werden können) zu regelmäßigen oder unregelmäßigen Zeitpunkten erlangt werden können. Beispielsweise kann ein Video eine Sequenz von Bildern einschließen, die regelmäßig bei 24 Hz erlangt werden, oder kann ein Video eine Sequenz von einem oder mehreren Bildern einschließen, die beim Eintreten asynchroner Ereignisse (z. B., wenn ein Fahrzeug stoppt) erlangt werden.
  • 1 zeigt ein beispielhaftes Verfahren 100 zum interaktiven Darstellen von Bildern aus einem Video, das durch ein Fahrzeug erzeugt wird. Ein Fahrzeugvideo wird in der Operation 110 von einer oder mehreren Kameras, die an einem Fahrzeug montiert sind, erlangt. Das Fahrzeugvideo kann ein zusammengesetztes Video sein, das durch Zusammenführen von Bildern bestimmt ist, die mit mehreren Kameras, die an dem Fahrzeug montiert sind, erfasst werden. Beispielsweise können die Kameras derart in einer Anordnung angeordnet sein, dass sich die Sichtfelder für die Kameras überlappen und gemeinsam Perspektiven entlang eines Bogens überspannen. In einigen Implementierungen können Bilder mit überlappenden Sichtfeldern von mehreren Kameras zusammengefügt werden (z. B. unter Verwendung von Software zum Zusammenfügen von Bildern), um ein zusammengesetztes Video mit einem Sichtfeld, das diesen Bogen überspannt, zu bilden. In einigen Implementierungen ist das resultierende zusammengesetzte Video ein Panoramavideo in dem Sinne, dass das Sichtfeld des zusammengesetzten Videos einen 360-Grad-Bogen um das Fahrzeug überspannt. In einigen Implementierungen kann das Fahrzeugvideo in der Operation 110 von einer einzigen Kamera, die an dem Fahrzeug montiert ist, erlangt werden. Beispielsweise kann ein Fahrzeugvideo von einer oder mehreren omnidirektionalen Kameras erlangt werden. In einigen Implementierungen kann das Fahrzeugvideo in der Operation 110 von einer oder mehreren Kameras mit einem Weitwinkelobjektiv oder einem Fischaugenobjektiv, die an dem Fahrzeug montiert sind, erlangt werden. Beispielsweise können Bilder, die unter Verwendung eines Fischaugenobjektivs oder eines anderen Verzerrungsobjektivs erfasst werden, verarbeitet werden, um das Bild zu transformieren und von dem Objektiv stammende Verzerrungseffekte zu reduzieren. Beispielsweise kann ein Fahrzeugvideo in der Operation 110 durch eine Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3) basierend auf Bildern erlangt werden, die von einer Anordnung von Kameras (z. B. Kameraanordnung 350 von 3), die an einem Fahrzeug montiert sind, erfasst werden.
  • In der Operation 120 kann ein Fahrzeugvideo in einem Puffer gespeichert werden. In einigen Implementierungen kann das Fahrzeugvideo in dem Puffer in einem komprimierten Format (z. B. MPEG-4) codiert sein. Einzelbilder des Fahrzeugvideos, die in dem Puffer codiert sind, können mit einem Zeitstempel oder einem Versatz gegenüber einer aktuellen Zeit assoziiert sein. Beispielsweise kann eine Datenstruktur in dem Puffer, der das Fahrzeugvideo speichert, ein oder mehrere Felder einschließen, die angeben, wann ein Einzelbild des Fahrzeugvideos in der Operation 110 erlangt wurde. In einigen Implementierungen können Einzelbilder des Fahrzeugvideos, die in dem Puffer codiert sind, mit einem Ort assoziiert sein, der durch das Fahrzeug belegt war, als das/die Bild(er), auf denen ein Einzelbild basiert war, in der Operation 110 erlangt wurden. In einigen Implementierungen kann das Fahrzeugvideo in der Operation 120 mit zugehörigen Benutzergenehmigungen, die nur einem spezifischen Benutzer oder spezifischen Benutzern Zugriff auf Teile des Fahrzeugvideos gewähren, sicher gespeichert werden. Beispielsweise kann ein Fahrzeugvideo in der Operation 120 durch eine Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3) in einem Puffer, der auf einer Datenspeichereinrichtung (z. B. Datenspeichereinrichtung 420 von 4) implementiert ist, gespeichert werden.
  • Eine Bildauswahleingabe von einem Benutzer kann in der Operation 130 empfangen werden. Die Auswahleingabe kann einen Teil (z. B. ein oder mehrere Bilder) eines Fahrzeugvideos angeben, der für einen Benutzer von Interesse ist. In einigen Implementierungen schließt eine Auswahleingabe einen oder mehrere Parameter ein, die einen Betrachtungswinkel in einem verfügbaren Fahrzeugvideo angeben. Beispielsweise kann ein Benutzer, der einen Teil des Fahrzeugvideos auf einer in der Hand gehaltenen Anzeigevorrichtung betrachtet, einen Betrachtungswinkel in dem Fahrzeugvideo durch Drehen der in der Hand gehaltenen Anzeigevorrichtung auswählen. Durch Drehen der in der Hand gehaltenen Anzeigevorrichtung kann der Benutzer eine Ansicht des Fahrzeugvideos schwenken. Diese Drehung der in der Hand gehaltenen Vorrichtung kann durch Sensoren in der Vorrichtung (z. B. Beschleunigungsmesser, Gyroskop und/oder Magnetometer) erfasst werden und in einen Betrachtungswinkel oder eine Einstellung auf einen Betrachtungswinkel umgewandelt und an ein Bildverarbeitungssystem (z. B. Bildverarbeitungseinheit 360 in 3), das das Fahrzeugvideo beibehält und/oder verteilt, weitergeleitet werden. Beispielsweise kann ein Benutzer den Betrachtungswinkel durch Kippen oder Drehen eines Kopfs des Benutzers auswählen, während der Benutzer eine am Kopf befestigte Anzeigevorrichtung (z. B. eine Virtual-Reality-Brille) trägt. Durch Kippen oder Drehen seines Kopfs, während eine am Kopf befestigte Anzeigevorrichtung getragen wird, kann der Benutzer eine Ansicht in dem Fahrzeugvideo schwenken. In einigen Implementierungen schließt eine Auswahleingabe Gesten auf einem Touchscreen ein, der einen Teil (z. B. ein oder mehrere Bilder) des Fahrzeugvideos, das einem Benutzer präsentiert wird, anzeigt.
  • Beispielsweise kann eine Bildauswahleingabe in der Operation 130 von einem Benutzer, der sich in dem Fahrzeug befindet, empfangen werden. In einigen Implementierungen kann der Betrachtungswinkel für einen Benutzer, der sich in einem Fahrzeug befindet, basierend auf einer relativen Ausrichtung einer persönlichen Vorrichtung des Benutzers zu einem Körper und/oder einer Kameraanordnung des Fahrzeugs bestimmt werden. Die relative Ausrichtung der persönlichen Vorrichtung zum Fahrzeug kann von Zeit zu Zeit dadurch synchronisiert werden, dass der Benutzer die persönliche Vorrichtung ausrichtet, sodass diese auf ein Referenzobjekt oder in eine Richtung weist (z. B., indem die Vorrichtung geradeaus in die Bewegungsrichtung des Fahrzeugs gerichtet wird), und gleichzeitig angibt, dass die Synchronisation erfolgen soll (z. B. durch Drücken einer „Neu zentrieren“-Schaltfläche auf einer Benutzeroberfläche oder Ausführen einer „Neu zentrieren“-Geste auf einer Benutzeroberfläche). Zwischen Synchronisationsereignissen kann die relative Ausrichtung verfolgt werden, indem beispielsweise Sensoren verwendet werden, um die Entwicklung der Ausrichtung des Fahrzeugs und der persönlichen Vorrichtung zu verfolgen. In einigen Implementierungen kann ein Teil (z. B. ein oder mehrere Bilder) des Fahrzeugvideos, der zur Darstellung basierend auf dieser relativen Ausrichtungsauswahleingabe ausgewählt wird, eine Ansicht von dem Fahrzeug in einer Richtung parallel zu einer Achse senkrecht zu einer Anzeigefläche der Anzeigevorrichtung darstellen. Diese Angabe des Betrachtungswinkels kann es dem Benutzer ermöglichen, unter Verwendung seiner persönlichen Vorrichtung, die Teile des Fahrzeugvideos anzeigt, scheinbar durch den Körper des Fahrzeugs hindurch den Bereich um das Fahrzeug zu betrachten. Ein Teil des betrachteten Fahrzeugvideos kann aktuell (z. B. die neuesten verfügbaren Einzelbilder) oder älter (z. B. von einer vorherigen Fahrt, als das Fahrzeug den aktuellen Ort passiert hat) sein.
  • In einigen Implementierungen kann eine Auswahleingabe einen Zeitversatz angeben, beispielsweise einen Zeitversatz gegenüber dem neuesten Einzelbild eines Fahrzeugvideos. Beispielsweise kann ein Benutzer einen Teil des Fahrzeugvideos auf einer persönlichen Vorrichtung betrachten und kann die Anzeige der persönlichen Vorrichtung einen Scrub-Balken überlagern. Der Benutzer kann ein Symbol entlang des Scrub-Balkens auf seiner Anzeige verschieben, um einen Zeitversatz anzugeben, bei dem er Teile des Fahrzeugvideos betrachten möchte. Daten, die diesen Zeitversatz angeben, können an ein Bildverarbeitungssystem (z. B. Bildverarbeitungseinheit 360 in 3), das Teile des Fahrzeugvideos beibehält und/oder verteilt, weitergeleitet werden.
  • Ein Benutzer kann wünschen, dass seine Ansicht ein in dem Fahrzeugvideo erscheinendes Objekt verfolgt, wenn sich das Objekt und/oder das Fahrzeug weiter relativ zueinander bewegen. In einigen Implementierungen wird ein Objekt basierend auf einer Auswahleingabe von einem Benutzer, der Teile eines Fahrzeugvideos betrachtet, zur Verfolgung ausgewählt. Beispielsweise kann ein Benutzer ein Objekt auswählen, indem er auf das Objekt tippt oder das Objekt auf einer Touchscreen-Oberfläche, die Teile des Fahrzeugvideos anzeigt, umrandet, um eine Teilmenge von Pixeln in dem Teil (z. B. ein oder mehrere dargestellte Bilder) zu identifizieren, die dem gesamten oder einem Teil des Objekts entspricht. Daten, die diese Teilmenge von Pixeln und/oder das Objekt identifizieren, können an ein Bildverarbeitungssystem (z. B. Bildverarbeitungseinheit 360 in 3), das Teile des Fahrzeugvideos beibehält und/oder verteilt, weitergeleitet werden.
  • Ein Benutzer kann eine einfache vordefinierte Ansicht aus dem Fahrzeugvideo auswählen wollen. In einigen Implementierungen kann eine vordefinierte nach vorne gerichtete Perspektive in dem Fahrzeugvideo basierend auf der Eingabe von dem Benutzer ausgewählt werden, beispielsweise kann ein Benutzer auf ein Symbol oder eine Schaltfläche für eine „Frontkamera“ tippen. In einigen Implementierungen kann eine vordefinierte nach hinten gerichtete Perspektive in dem Fahrzeugvideo basierend auf der Eingabe von dem Benutzer ausgewählt werden, beispielsweise kann ein Benutzer auf ein Symbol oder eine Schaltfläche für eine „Rückkamera“ tippen. Daten, die die Auswahl einer vordefinierten Ansicht widerspiegeln, können an ein Bildverarbeitungssystem (z. B. Bildverarbeitungseinheit 360 in 3), das Teile des Fahrzeugvideos beibehält und/oder verteilt, weitergeleitet werden.
  • Beispielsweise kann ein Fahrzeugvideo von einem Benutzer (d. h. dem Teilenden) mit Zugriffsgenehmigungen für dieses Fahrzeugvideo mit einem anderen Benutzer (z. B. dem Betrachter), der Teile des Fahrzeugvideos betrachten wird, geteilt werden. Der Teilende kann steuern wollen, welche Teile des Fahrzeugvideos dem Betrachter präsentiert werden. In einigen Implementierungen ist ein aus dem Fahrzeugvideo ausgewählter Teil (z. B. ein oder mehrere Bilder) ein Teil eines Panoramastandbilds und wird der Teil basierend auf einem durch den Teilenden ausgewählten Betrachtungswinkel bestimmt. In einigen Implementierungen ist ein aus dem Fahrzeugvideo ausgewählter Teil (z. B. ein oder mehrere Bilder) ein Video, das eine Ansicht von dem Fahrzeug bei einem Betrachtungswinkel zeigt, der basierend auf einer Eingabe von dem Teilenden ausgewählt wird. Beispielsweise kann eine Auswahleingabe in der Operation 130 in drahtlosen Kommunikationssignalen von einer Vorrichtung, die durch den Teilenden betrieben wird, empfangen werden.
  • In einigen Implementierungen kann eine Auswahleingabe in der Operation 130 in drahtlosen Kommunikationssignalen von einer Vorrichtung, die durch einen Benutzer betrieben wird, empfangen werden. In einigen Implementierungen kann sich der Benutzer, der eine Auswahleingabe bereitstellt, entfernt von dem Fahrzeug befinden. Beispielsweise kann ein entfernter Benutzer, der sich mit dem Fahrzeug trifft, den Fortschritt dieses Fahrzeugs durch Betrachten von Teilen des Fahrzeugvideos prüfen, während das Fahrzeug zu einem Treffpunkt fährt.
  • In einigen Implementierungen kann eine Auswahleingabe von einem Benutzer in der Operation 130 durch eine Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3) über eine drahtlose Schnittstelle (z. B. drahtlose Netzwerkschnittstelle 370 von 3) empfangen werden.
  • Ein Teil (z. B. ein oder mehrere Bilder) des Fahrzeugvideos kann in der Operation 140 ausgewählt werden. Es kann vorteilhaft sein, einen Teil des Fahrzeugvideos, der zur Anzeige für einen bestimmten Benutzer geeignet ist, beispielsweise basierend auf dessen Betrachtungsoberfläche, dessen Interessen, dessen Zugriffsrechten und/oder Befehlen von einem Teilenden auszuwählen. In einigen Implementierungen wird ein Teil eines Fahrzeugvideos in der Operation 140 teilweise basierend auf einem von einem Benutzer angegebenen Betrachtungswinkel ausgewählt. In einigen Implementierungen wird ein Teil eines Fahrzeugvideos in der Operation 140 teilweise basierend auf einem von einem Benutzer angegebenen Zeitversatz ausgewählt. In einigen Implementierungen wird ein Teil eines Fahrzeugvideos in der Operation 140 teilweise basierend auf einem von einem Benutzer angegebenen Ort ausgewählt. Beispielsweise kann ein aus dem Fahrzeugvideo ausgewählter Teil (z. B. ein oder mehrere Bilder) ein Panoramastandbild sein. Beispielsweise kann ein Teil des Fahrzeugvideos in der Operation 140 durch eine Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3) ausgewählt werden.
  • Beispielsweise kann ein Benutzer daran interessiert sein, einen Bereich links von dem Fahrzeug, der zwei Minuten zuvor passiert wurde, zu betrachten. Eine diesbezügliche Auswahleingabe kann durch den Benutzer durch die Oberfläche des Benutzers angegeben werden und dann in einem geeigneten Format an eine Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3), die das Fahrzeugvideo beibehält und/oder verteilt, weitergeleitet werden. Der Zeitversatz von 2 Minuten vor dem aktuellen oder neuesten Einzelbild eines Fahrzeugvideos kann verwendet werden, um ein relevantes Einzelbild oder relevante Einzelbilder aus dem Puffer, in dem das Fahrzeugvideo gespeichert ist, zu identifizieren und abzurufen. Der in der Auswahleingabe angegebene Betrachtungswinkel (z. B. 90 Grad links von der Richtung der Fahrzeugbewegung) kann zum Schwenken innerhalb des relevanten Einzelbilds oder der relevanten Einzelbilder verwendet werden, um die Ansicht in der Richtung, die für den Benutzer interessant ist, zu zentrieren. In einigen Implementierungen kann das dem Benutzer präsentierte Sichtfeld aufgrund von Begrenzungen bei der Bandbreite einer Kommunikationsverbindung zu einer Benutzervorrichtung und/oder Begrenzungen der Benutzeranzeige (z. B. eine Tablet- oder Smartphone-Anzeige) begrenzt sein (z. B. auf ein 120-Grad-Sichtfeld). Somit kann in diesem Beispielszenario ein Teil des Fahrzeugvideos in der Operation 140 als ein Teilstück eines größeren (z. B. Panorama-) Fahrzeugvideos ausgewählt werden, wobei der Teil ein 120-Grad-Sichtfeld aufweist und in einer Richtung 90 Grad links von der Bewegungsrichtung des Fahrzeugs zentriert ist. Dieser Teil (z. B. ein oder mehrere Bilder) des Fahrzeugvideos kann Teilstücke von einem oder mehreren Einzelbildern des Fahrzeugs mit Zeitstempeln in der Nähe des angegebenen Zeitversatzes von vor 2 Minuten einschließen. In einigen Implementierungen kann der in der Operation 140 ausgewählte Teil ein Standbild sein, das von einem oder mehreren dieser Teilstücke stammt.
  • In einigen Implementierungen schließt das Auswählen eines Teils des Fahrzeugvideos in der Operation 140 ein Verfolgen eines in dem Fahrzeugvideo dargestellten Objekts und ein automatisches Ändern einer Perspektive in dem Fahrzeugvideo ein, um das Auswählen von Bildern des Objekts zur Präsentation für einen Benutzer fortzusetzen. Beispielsweise kann das Objekt basierend auf einer Auswahleingabe von einem Benutzer zur Verfolgung ausgewählt werden. In einigen Implementierungen werden Daten, die eine Teilmenge von Pixeln in einem präsentierten Teil des Fahrzeugvideos, den der Benutzer als dem Objekt entsprechend angegeben hat, identifizieren, in eine Bilderkennungssoftware eingegeben, um den entsprechenden Teil des Fahrzeugvideos zu analysieren und das Objekt zur Verfolgung zu identifizieren. In einigen Implementierungen wird ein Objekt (z. B. ein Schild, eine Ampel, ein Fahrzeug oder ein Fußgänger) automatisch erkannt und zur Verfolgung ausgewählt. Beispielsweise kann ein in der Operation 140 ausgewählter Teil (z. B. ein oder mehrere Bilder) aus dem Fahrzeugvideo ein Video sein, das eine Ansicht zeigt, die ein Objekt darstellt, das automatisch verfolgt wird, wenn sich das Fahrzeug in Bezug auf das Objekt bewegt.
  • In einigen Implementierungen kann ein Teil des in der Operation 140 ausgewählten Fahrzeugvideos darauf beschränkt sein, nur Teile einzuschließen, für die der Benutzer Zugriffsrechte hat. Wenn sich beispielsweise zwei Benutzer ein Fahrzeug teilen, kann ein Fahrzeugvideo in der Operation 120 sicher und vertraulich in den Puffer gespeichert werden und kann einem bestimmten Benutzer standardmäßig Zugriff nur auf Teile des Fahrzeugvideos, die während des Betriebs des geteilten Fahrzeugs durch den jeweiligen Benutzer erlangt werden, gewährt werden.
  • Ein ausgewählter Teil (z. B. ein oder mehrere Bilder) des Fahrzeugvideos kann einem Benutzer in der Operation 150 präsentiert werden. In einigen Implementierungen wird der Teil des Fahrzeugvideos in der Operation 150 durch Übertragen (z. B. über die drahtlose Netzwerkschnittstelle 370 von 3) von Bilddaten, die den Teil des Fahrzeugvideos darstellen, an eine persönliche Vorrichtung (z. B. ein Tablet, ein Smartphone, eine am Kopf befestigte Anzeige) eines Benutzers, die zum Anzeigen des Teils konfiguriert ist, präsentiert. In einigen Implementierungen kann eine persönliche Vorrichtung des Benutzers dazu ausgelegt sein, es dem Benutzer zu ermöglichen, Bilder aus dem Teil des angezeigten Fahrzeugvideos zu speichern. Beispielsweise kann eine persönliche Vorrichtung des Benutzers dazu ausgelegt sein, den Teil des Fahrzeugvideos auf einer Oberfläche anzuzeigen, die eine „Fotografieren“-Schaltfläche oder ein „Fotografieren“-Symbol einschließt, die/das, wenn sie/es gedrückt wird, bewirkt, dass die persönliche Vorrichtung ein Bild von dem Teil des Fahrzeugvideos speichert, das in einem digitalen Fotoformat angezeigt wird. Dieses Bild kann auf der persönlichen Vorrichtung des Benutzers gespeichert werden und/oder Signale können an das Fahrzeug übertragen werden, was bewirkt, dass das Bild in einer Speichereinrichtung in dem Fahrzeug gespeichert wird, zum Beispiel als eine mit dem Benutzer assoziierte Datei.
  • In einigen Implementierungen kann eine persönliche Vorrichtung des Benutzers dazu ausgelegt sein, es dem Benutzer zu ermöglichen, einen Videoausschnitt aus dem Teil des angezeigten Fahrzeugvideos zu speichern. Beispielsweise kann eine persönliche Vorrichtung des Benutzers dazu ausgelegt sein, den Teil des Fahrzeugvideos auf einer Oberfläche anzuzeigen, die eine „Aufzeichnen“-Schaltfläche oder ein „Aufzeichnen“-Symbol einschließt, die/das, wenn sie/es gedrückt wird, bewirkt, dass die persönliche Vorrichtung ein oder mehrere Einzelbilder von dem Teil des Fahrzeugvideos speichert, das in einem digitalen Fotoformat angezeigt wird. Dieser Videoausschnitt kann auf der persönlichen Vorrichtung des Benutzers gespeichert werden und/oder Signale können an das Fahrzeug übertragen werden, was bewirkt, dass der Videoausschnitt in einer Speichereinrichtung in dem Fahrzeug gespeichert wird, zum Beispiel als eine mit dem Benutzer assoziierte Datei.
  • In einigen Implementierungen kann das Fahrzeugvideo auf einer Benutzervorrichtung auf einer Oberfläche angezeigt werden, die einer herkömmlichen Smartphone-Kameraanwendungsoberfläche ähnelt. Beispielsweise kann die Oberfläche Symbole oder Schaltflächen zum Bewirken, dass ein angezeigter Teil eines Fahrzeugvideos gespeichert wird (z. B. als eine Fotodatei oder als eine Videodatei), einschließen. Beispielsweise kann es die Oberfläche einem Benutzer ermöglichen, digital auf einen angezeigten Teil eines Fahrzeugvideos einzuzoomen oder auszuzoomen, indem beispielsweise eine Zoom-Geste (z. B. eine Klemmen-zum-Zoomen-Geste auf einem Touchscreen) durchgeführt wird.
  • Beispielsweise kann der ausgewählte Teil (z. B. ein oder mehrere Bilder) des Fahrzeugvideos in der Operation 140 einem Benutzer präsentiert werden, der sich in einem Notfallfahrzeug befindet, um eine Reaktion auf Notfälle, zum Beispiel Fahrzeugunfälle oder Brand, zu ermöglichen. Fahrzeugvideos von Fahrzeugen, die sich während oder nach dem Eintreten des Unfalls in der Nähe des Unfallorts befanden, können zu diesem Zweck mit Notfallhilfebenutzern geteilt werden. Dies kann Notfallhilfebenutzern dabei helfen, auf einen Notfall zu reagieren, beispielsweise durch vorheriges Betrachten des Unfallorts, während sich das Notfallfahrzeug dem Ort nähert.
  • In einigen Implementierungen kann der ausgewählte Teil des Fahrzeugvideos in der Operation 140 durch Anzeigen des Teils auf einer Anzeige, die in dem Fahrzeug montiert ist, präsentiert werden. Beispielsweise kann die Anzeige über eine verdrahtete oder drahtlose Verbindung mit einer Bildverarbeitungseinheit in dem Fahrzeug (z. B. Bildverarbeitungseinheit 360 von 3), die das Fahrzeugvideo beibehält und/oder verteilt, verbunden sein.
  • Eine Fahrzeugvideopräsentationssitzung kann in der Operation 160 durch den Benutzer oder ein anderes Ereignis oder einen anderen Befehl (z. B. das Abschalten des Fahrzeugs oder einen Befehl von einem anderen Benutzer (z. B. einem Teilenden), der den Zugriff auf das Fahrzeugvideo steuert), das/der durch eine Bildverarbeitungseinheit des Fahrzeugs verarbeitet wird, beendet werden. Wenn in der Operation 155 die Fahrzeugvideopräsentationssitzung nicht beendet wird, kann eine Bildverarbeitungseinheit weiterhin in der Operation 130 eine zusätzliche Auswahleingabe von einem Benutzer empfangen und/oder in der Operation 150 einem Benutzer zusätzliche Teile des Fahrzeugvideos präsentieren.
  • 2 zeigt ein beispielhaftes Verfahren 200 zum Einstellen eines Treffpunkts, um das Abholen durch ein Fahrzeug zu ermöglichen. Eine Rufnachricht kann in der Operation 210 empfangen werden. Eine Rufnachricht kann von einer Anzeigevorrichtung eines Benutzers stammen, der von einem Fahrzeug abgeholt werden möchte. Beispielsweise kann eine Rufnachricht als Reaktion auf eine von einer Anzeigevorrichtung eines Benutzers empfangene Nachricht durch eine Zwischenstation (z. B. einen Fahrgemeinschaftsdienst) formatiert werden. Eine Rufnachricht kann einen Treffpunkt angeben, an dem das Abholen stattfinden wird. In einigen Implementierungen kann eine Rufnachricht einen abzuholenden Benutzer und/oder eine persönliche Vorrichtung des Benutzers angeben. Beispielsweise kann eine Rufnachricht in der Operation 210 von einem Fahrzeug (z. B. Fahrzeug 300 von 3) über eine drahtlose Schnittstelle (z. B. drahtlose Netzwerkschnittstelle 370 von 3) empfangen werden.
  • Als Reaktion auf eine in der Operation 210 empfangene Rufnachricht kann ein Fahrzeug in der Operation 212 eine Einladung zum Betrachten der Bilddaten basierend auf einem Fahrzeugvideo an eine Anzeigevorrichtung, die aus der Rufnachricht stammt oder darin identifiziert ist, übertragen. Die Einladung zum Betrachten kann den Aufbau einer Fahrzeugvideopräsentationssitzung mit der Anzeigevorrichtung des Benutzers ermöglichen. Beispielsweise kann die Einladung zum Betrachten eine Verbindung einschließen, die durch einen Benutzer ausgewählt werden kann, um eine Fahrzeugvideopräsentationssitzung mit dem Fahrzeug zu initiieren. Beispielsweise kann eine Einladung zum Betrachten von Bilddaten basierend auf einem in der Operation 212 durch ein Fahrzeug (z. B. Fahrzeug 300 von 3) über eine drahtlose Schnittstelle (z. B. drahtlose Netzwerkschnittstelle 370 von 3) übertragen werden.
  • In der Operation 220 kann das Fahrzeug mit dem Erlangen eines Fahrzeugvideos von einer oder mehreren Kameras, die an einem Fahrzeug montiert sind, fortfahren oder beginnen. Das Fahrzeugvideo kann ein zusammengesetztes Video sein, das durch Zusammenführen von Bildern bestimmt ist, die mit mehreren Kameras, die an dem Fahrzeug montiert sind, erfasst werden. Beispielsweise können die Kameras derart in einer Anordnung angeordnet sein, dass sich die Sichtfelder für die Kameras überlappen und gemeinsam Perspektiven entlang eines Bogens überspannen. In einigen Implementierungen können Bilder mit überlappenden Sichtfeldern von mehreren Kameras zusammengefügt werden (z. B. unter Verwendung von Software zum Zusammenfügen von Bildern), um ein zusammengesetztes Video mit einem Sichtfeld, das diesen Bogen überspannt, zu bilden. In einigen Implementierungen ist das resultierende zusammengesetzte Video ein Panoramavideo in dem Sinne, dass das Sichtfeld des zusammengesetzten Videos einen 360-Grad-Bogen um das Fahrzeug überspannt. In einigen Implementierungen kann das Fahrzeugvideo in der Operation 220 von einer einzigen Kamera, die an dem Fahrzeug montiert ist, erlangt werden. Beispielsweise kann ein Fahrzeugvideo von einer oder mehreren omnidirektionalen Kameras erlangt werden. In einigen Implementierungen kann das Fahrzeugvideo in der Operation 220 von einer oder mehreren Kameras mit einem Weitwinkelobjektiv oder einem Fischaugenobjektiv, die an dem Fahrzeug montiert sind, erlangt werden. Beispielsweise können Bilder, die unter Verwendung eines Fischaugenobjektivs oder eines anderen Verzerrungsobjektivs erfasst werden, verarbeitet werden, um das Bild zu transformieren und von dem Objektiv stammende Verzerrungseffekte zu reduzieren. Beispielsweise kann ein Fahrzeugvideo in der Operation 220 durch eine Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3) basierend auf Bildern erlangt werden, die von einer Anordnung von Kameras (z. B. Kameraanordnung 350 von 3), die an einem Fahrzeug montiert sind, erfasst werden.
  • Einzelbilder des Fahrzeugvideos können in der Operation 230 mit einem Ort des Fahrzeugs assoziiert werden. Ein Ort des Fahrzeugs kann zu einem Zeitpunkt bestimmt werden, zu dem ein Einzelbild des Fahrzeugvideos in der Operation 220 erlangt wird. Dieser bestimmte Ort kann in der Operation 230 mit diesem Einzelbild eines Fahrzeugvideos assoziiert werden. In einigen Implementierungen wird ein Ort in der Operation 230 mit einem Einzelbild eines Fahrzeugvideos assoziiert, indem ein Datensatz erstellt wird, der Daten enthält, die den Ort codieren, und der Daten enthält, die das Einzelbild oder einen Zeiger auf Daten, die das Einzelbild des Fahrzeugvideos codieren, codieren. In einigen Implementierungen wird ein Ort in der Operation 230 mit einem Einzelbild eines Fahrzeugvideos assoziiert, indem ein Datensatz erstellt wird, der Daten enthält, die das Einzelbild codieren, und der einen Zeiger auf Daten, die den Ort codieren, enthält.
  • In einigen Implementierungen wird ein Ort als Koordinaten, die eine Position angeben, gespeichert. In einigen Implementierungen können Ortsinformationen in Bins quantisiert werden, die mit bestimmten Orientierungspunkten, Straßenadressen, Straßen, Gebäuden oder anderen Objekten, die in Kartendaten dargestellt sind, assoziiert sind. Beispielsweise kann ein Bereich von Koordinaten entlang einer Straße, die vor einem Gebäude mit einer Straßenadresse vorbeiführt, einem Identifikator für diese Straßenadresse zugeordnet werden.
  • In einigen Implementierungen können Fahrzeugausrichtungsinformationen (z. B. ein Kurs für das Fahrzeug) bestimmt werden (z. B. unter Verwendung eines GPS-Empfängers, eines Gyroskops und/oder eines Beschleunigungsmessers) und mit einem oder mehreren Einzelbildern des Fahrzeugvideos assoziiert werden.
  • Eine Bildauswahleingabe von einem Benutzer kann in der Operation 240 empfangen werden. In einigen Implementierungen kann eine Auswahleingabe in der Operation 240 in drahtlosen Kommunikationssignalen von einer Vorrichtung, die durch einen Benutzer betrieben wird, empfangen werden. Die Auswahleingabe kann einen Teil (z. B. ein oder mehrere Bilder) eines Fahrzeugvideos angeben, der für einen Benutzer von Interesse ist. In einigen Implementierungen kann sich der Benutzer, der eine Auswahleingabe bereitstellt, entfernt von dem Fahrzeug befinden. Beispielsweise kann in der Operation 240 eine Bildauswahleingabe von der Anzeigevorrichtung des Benutzers, der abgeholt wird, empfangen werden. Der Benutzer, der von dem Fahrzeug abgeholt werden soll, kann den Fortschritt dieses Fahrzeugs durch Betrachten von Teilen des Fahrzeugvideos prüfen, während das Fahrzeug zu dem Treffpunkt fährt.
  • In einigen Implementierungen schließt eine Auswahleingabe einen oder mehrere Parameter ein, die einen Betrachtungswinkel in einem verfügbaren Fahrzeugvideo angeben. Beispielsweise kann ein Benutzer, der einen Teil des Fahrzeugvideos auf einer in der Hand gehaltenen Anzeigevorrichtung betrachtet, einen Betrachtungswinkel in dem Fahrzeugvideo durch Drehen der in der Hand gehaltenen Anzeigevorrichtung auswählen. Durch Drehen der in der Hand gehaltenen Anzeigevorrichtung kann der Benutzer eine Ansicht des Fahrzeugvideos schwenken. Diese Drehung der in der Hand gehaltenen Vorrichtung kann durch Sensoren in der Vorrichtung (z. B. Beschleunigungsmesser, Gyroskop und/oder Magnetometer) erfasst werden und in einen Betrachtungswinkel oder eine Einstellung auf einen Betrachtungswinkel umgewandelt und an ein Bildverarbeitungssystem (z. B. Bildverarbeitungseinheit 360 in 3), das das Fahrzeugvideo beibehält und/oder verteilt, weitergeleitet werden. Beispielsweise kann ein Benutzer den Betrachtungswinkel durch Kippen oder Drehen eines Kopfs des Benutzers auswählen, während der Benutzer eine am Kopf befestigte Anzeigevorrichtung (z. B. eine Virtual-Reality-Brille) trägt. Durch Kippen oder Drehen seines Kopfs, während eine am Kopf befestigte Anzeigevorrichtung getragen wird, kann der Benutzer eine Ansicht in dem Fahrzeugvideo schwenken. In einigen Implementierungen schließt eine Auswahleingabe Gesten auf einem Touchscreen ein, der einen Teil (z. B. ein oder mehrere Bilder) des Fahrzeugvideos, das einem Benutzer präsentiert wird, anzeigt.
  • In einigen Implementierungen kann eine Auswahleingabe einen Zeitversatz angeben, beispielsweise einen Zeitversatz gegenüber dem neuesten Einzelbild eines Fahrzeugvideos. Beispielsweise kann ein Benutzer einen Teil des Fahrzeugvideos auf einer persönlichen Vorrichtung betrachten und kann die Anzeige der persönlichen Vorrichtung einen Scrub-Balken überlagern. Der Benutzer kann ein Symbol entlang des Scrub-Balkens auf seiner Anzeige verschieben, um einen Zeitversatz anzugeben, bei dem er Teile des Fahrzeugvideos betrachten möchte. Daten, die diesen Zeitversatz angeben, können an ein Bildverarbeitungssystem (z. B. Bildverarbeitungseinheit 360 in 3), das Teile des Fahrzeugvideos beibehält und/oder verteilt, weitergeleitet werden.
  • Ein Benutzer kann wünschen, dass seine Ansicht ein in dem Fahrzeugvideo erscheinendes Objekt verfolgt, wenn sich das Objekt und/oder das Fahrzeug weiter relativ zueinander bewegen. In einigen Implementierungen wird ein Objekt basierend auf einer Auswahleingabe von einem Benutzer, der Teile eines Fahrzeugvideos betrachtet, zur Verfolgung ausgewählt. Beispielsweise kann ein Benutzer ein Objekt auswählen, indem er auf das Objekt tippt oder das Objekt auf einer Touchscreen-Oberfläche, die Teile des Fahrzeugvideos anzeigt, umrandet, um eine Teilmenge von Pixeln in dem Teil (z. B. ein oder mehrere dargestellte Bilder) zu identifizieren, die dem gesamten oder einem Teil des Objekts entspricht. Daten, die diese Teilmenge von Pixeln und/oder das Objekt identifizieren, können an ein Bildverarbeitungssystem (z. B. Bildverarbeitungseinheit 360 in 3), das Teile des Fahrzeugvideos beibehält und/oder verteilt, weitergeleitet werden.
  • Ein Benutzer kann eine einfache vordefinierte Ansicht aus dem Fahrzeugvideo auswählen wollen. In einigen Implementierungen kann eine vordefinierte nach vorne gerichtete Perspektive in dem Fahrzeugvideo basierend auf der Eingabe von dem Benutzer ausgewählt werden, beispielsweise kann ein Benutzer auf ein Symbol oder eine Schaltfläche für eine „Frontkamera“ tippen. In einigen Implementierungen kann eine vordefinierte nach hinten gerichtete Perspektive in dem Fahrzeugvideo basierend auf der Eingabe von dem Benutzer ausgewählt werden, beispielsweise kann ein Benutzer auf ein Symbol oder eine Schaltfläche für eine „Rückkamera“ tippen. Daten, die die Auswahl einer vordefinierten Ansicht widerspiegeln, können an ein Bildverarbeitungssystem (z. B. Bildverarbeitungseinheit 360 in 3), das Teile des Fahrzeugvideos beibehält und/oder verteilt, weitergeleitet werden.
  • Beispielsweise kann ein Fahrzeugvideo von einem Benutzer (d. h. dem Teilenden) mit Zugriffsgenehmigungen für dieses Fahrzeugvideo mit einem anderen Benutzer (z. B. dem Betrachter), der Teile des Fahrzeugvideos betrachten wird, geteilt werden. Der Teilende kann steuern wollen, welche Teile des Fahrzeugvideos dem Betrachter präsentiert werden. In einigen Implementierungen ist ein aus dem Fahrzeugvideo ausgewählter Teil (z. B. ein oder mehrere Bilder) ein Teil eines Panoramastandbilds und wird der Teil basierend auf einem durch den Teilenden ausgewählten Betrachtungswinkel bestimmt. In einigen Implementierungen ist ein aus dem Fahrzeugvideo ausgewählter Teil (z. B. ein oder mehrere Bilder) ein Video, das eine Ansicht von dem Fahrzeug bei einem Betrachtungswinkel zeigt, der basierend auf einer Eingabe von dem Teilenden ausgewählt wird. Beispielsweise kann eine Auswahleingabe in der Operation 240 in drahtlosen Kommunikationssignalen von einer Vorrichtung, die von dem Teilenden betrieben wird, empfangen werden.
  • In einigen Implementierungen kann eine Auswahleingabe in der Operation 240 von einem Benutzer durch eine Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3) über eine drahtlose Schnittstelle (z. B. drahtlose Netzwerkschnittstelle 370 von 3) empfangen werden.
  • Ein Teil (z. B. ein oder mehrere Bilder) des Fahrzeugvideos kann in der Operation 250 ausgewählt werden. Beispielsweise kann ein Teil des Fahrzeugvideos in der Operation 250 basierend auf einer Auswahleingabe von dem Benutzer, der abgeholt wird, ausgewählt werden. Es kann dem Benutzer ermöglicht werden, die Umgebung des Fahrzeugs, während es sich dem Treffpunkt nähert, interaktiv zu betrachten, um den Fortschritt des Fahrzeugs zu prüfen und Orientierungspunkte zu finden, die ein Abholen ermöglichen können.
  • In einigen Implementierungen wird ein Teil eines Fahrzeugvideos in der Operation 250 teilweise basierend auf einem von einem Benutzer angegebenen Betrachtungswinkel ausgewählt. In einigen Implementierungen wird ein Teil eines Fahrzeugvideos in der Operation 250 teilweise basierend auf einem von einem Benutzer angegebenen Zeitversatz ausgewählt. In einigen Implementierungen wird ein Teil eines Fahrzeugvideos in der Operation 250 teilweise basierend auf einem von einem Benutzer angegebenen Ort ausgewählt. Beispielsweise kann ein aus dem Fahrzeugvideo ausgewählter Teil (z. B. ein oder mehrere Bilder) ein Panoramastandbild sein. Beispielsweise kann ein Teil des Fahrzeugvideos in der Operation 250 durch eine Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3) ausgewählt werden.
  • In einigen Implementierungen schließt das Auswählen eines Teils des Fahrzeugvideos in der Operation 250 ein Verfolgen eines in dem Fahrzeugvideo dargestellten Objekts und ein automatisches Ändern einer Perspektive in dem Fahrzeugvideo ein, um das Auswählen von Bildern des Objekts zur Darstellung für einen Benutzer fortzusetzen. Beispielsweise kann das Objekt basierend auf einer Auswahleingabe von einem Benutzer zur Verfolgung ausgewählt werden. In einigen Implementierungen werden Daten, die eine Teilmenge von Pixeln in einem präsentierten Teil des Fahrzeugvideos, den der Benutzer als dem Objekt entsprechend angegeben hat, identifizieren, in eine Bilderkennungssoftware eingegeben, um den entsprechenden Teil des Fahrzeugvideos zu analysieren und das Objekt zur Verfolgung zu identifizieren. In einigen Implementierungen wird ein Objekt (z. B. ein Schild, eine Ampel, ein Fahrzeug oder ein Fußgänger) automatisch erkannt und zur Verfolgung ausgewählt. Beispielsweise kann ein in der Operation 250 ausgewählter Teil (z. B. ein oder mehrere Bilder) aus dem Fahrzeugvideo ein Video sein, das eine Ansicht zeigt, die ein Objekt darstellt, das automatisch verfolgt wird, wenn sich das Fahrzeug in Bezug auf das Objekt bewegt.
  • In einigen Implementierungen kann ein Teil des in der Operation 250 ausgewählten Fahrzeugvideos darauf beschränkt sein, nur Teile einzuschließen, für die der Benutzer Zugriffsrechte hat.
  • Eine Anzeigen, auf einem Bildschirm, eines Teils (z. B. eines oder mehrerer Bilder), der in der Operation 250 aus dem Fahrzeugvideo ausgewählt wird, kann in der Operation 260 veranlasst werden. Beispielsweise kann eine Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3) auf einem Bildschirm der Anzeigevorrichtung des Benutzers, der abgeholt wird, das Anzeigen von Bildern der Umgebung des Fahrzeugs, während es sich dem Treffpunkt nähert, veranlassen. Beispielsweise kann die Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3) das Anzeigen veranlassen, indem sie Bilddaten basierend auf dem in der Operation 250 aus dem Fahrzeugvideo ausgewählten Teil (z. B. einem oder mehreren Bildern) an die Anzeigevorrichtung des Benutzers, der abgeholt wird, überträgt. Es kann dem Benutzer ermöglicht werden, die Umgebung des Fahrzeugs, während es sich dem Treffpunkt nähert, interaktiv zu betrachten, um den Fortschritt des Fahrzeugs zu prüfen und Orientierungspunkte zu finden, die ein Abholen ermöglichen können.
  • In einigen Implementierungen wird das Anzeigen in der Operation 260 durch Übertragen (z. B. über die drahtlose Netzwerkschnittstelle 370 von 3) von Bilddaten, die den Teil des Fahrzeugvideos darstellen, an eine persönliche Vorrichtung (z. B. ein Tablet, ein Smartphone, eine am Kopf befestigte Anzeige) eines Benutzers (z. B. des Benutzers, der abgeholt wird), der zum Anzeigen des Teils konfiguriert ist, veranlasst. Beispielsweise kann das Anzeigen dadurch veranlasst werden, dass Daten, die mindestens einen Teil des erhaltenen Fahrzeugvideos darstellen, an eine Vorrichtung außerhalb des Fahrzeugs gesendet werden. In einigen Implementierungen kann eine persönliche Vorrichtung des Benutzers dazu ausgelegt sein, es dem Benutzer zu ermöglichen, Bilder aus dem Teil des angezeigten Fahrzeugvideos zu speichern.
  • Beispielsweise kann eine persönliche Vorrichtung des Benutzers dazu ausgelegt sein, den Teil des Fahrzeugvideos auf einer Oberfläche anzuzeigen, die eine „Fotografieren“-Schaltfläche oder ein „Fotografieren“-Symbol einschließt, die/das, wenn sie/es gedrückt wird, bewirkt, dass die persönliche Vorrichtung ein Bild von dem Teil des Fahrzeugvideos speichert, das in einem digitalen Fotoformat angezeigt wird. Dieses Bild kann auf der persönlichen Vorrichtung des Benutzers gespeichert werden und/oder Signale können an das Fahrzeug übertragen werden, was bewirkt, dass das Bild in einer Speichereinrichtung in dem Fahrzeug gespeichert wird, zum Beispiel als eine mit dem Benutzer assoziierte Datei.
  • In einigen Implementierungen kann eine persönliche Vorrichtung (z. B. die Anzeigevorrichtung des Benutzers, der abgeholt wird) des Benutzers dazu ausgelegt sein, es dem Benutzer zu ermöglichen, einen Videoausschnitt aus dem Teil des angezeigten Fahrzeugvideos zu speichern. Beispielsweise kann eine persönliche Vorrichtung des Benutzers dazu ausgelegt sein, den Teil des Fahrzeugvideos auf einer Oberfläche anzuzeigen, die eine „Aufzeichnen“-Schaltfläche oder ein „Aufzeichnen“-Symbol einschließt, die/das, wenn sie/es gedrückt wird, bewirkt, dass die persönliche Vorrichtung ein oder mehrere Einzelbilder von dem Teil des Fahrzeugvideos speichert, das in einem digitalen Fotoformat angezeigt wird. Dieser Videoausschnitt kann auf der persönlichen Vorrichtung des Benutzers gespeichert werden und/oder Signale können an das Fahrzeug übertragen werden, was bewirkt, dass der Videoausschnitt in einer Speichereinrichtung in dem Fahrzeug gespeichert wird, zum Beispiel als eine mit dem Benutzer assoziierte Datei.
  • In einigen Implementierungen kann das Fahrzeugvideo auf einer Benutzervorrichtung (z. B. der Anzeigevorrichtung des Benutzers, der abgeholt wird) auf einer Oberfläche angezeigt werden, die einer herkömmlichen Smartphone-Kameraanwendungsoberfläche ähnelt. Beispielsweise kann die Oberfläche Symbole oder Schaltflächen zum Bewirken, dass ein angezeigter Teil eines Fahrzeugvideos gespeichert wird (z. B. als eine Fotodatei oder als eine Videodatei), einschließen. Beispielsweise kann es die Oberfläche einem Benutzer ermöglichen, digital auf einen angezeigten Teil eines Fahrzeugvideos einzuzoomen oder auszuzoomen, indem beispielsweise eine Zoom-Geste (z. B. eine Klemmen-zum-Zoomen-Geste auf einem Touchscreen) durchgeführt wird.
  • Zieldaten können in der Operation 270 empfangen werden. Die Zieldaten können eine beabsichtigte Einstellung eines Benutzers auf einen Treffpunkt widerspiegeln, zum Beispiel können die Zieldaten einen Ort angeben, dem sich das Fahrzeug zum Abholen nähern soll. In einigen Implementierungen können die Zieldaten ein Bild eines Objekts identifizieren, das sich an einem gewünschten Treffpunkt, der in dem Fahrzeugvideo erscheint, oder in dessen Nähe befindet. Die Zieldaten können eine Benutzerauswahl eines Teils des angezeigten Teils des erlangten Fahrzeugvideos darstellen. Beispielsweise können die Zieldaten eine Teilmenge von Pixeln aus den Bilddaten identifizieren, die durch einen Benutzer (z. B. den Benutzer, der abgeholt wird) ausgewählt wurden.
  • Beispielsweise können die Zieldaten in der Operation 270 durch eine Bildverarbeitungseinheit (z. B. Bildverarbeitungseinheit 360 von 3) über eine drahtlose Schnittstelle (z. B. drahtlose Netzwerkschnittstelle 370 von 3) empfangen werden. Die Zieldaten können in der Operation 270 von einer externen Vorrichtung (z. B. einem Smartphone, einem Tablet oder einer am Kopf befestigten Anzeige), die sich außerhalb des Fahrzeugs befindet, empfangen werden. Beispielsweise können die Zieldaten in der Operation 270 von der Anzeigevorrichtung des Benutzers, der abgeholt wird, empfangen werden.
  • In einigen Implementierungen kann ein ausgewählter Teil des angezeigten Teils des erlangten Fahrzeugvideos mit einem Objekt, das in dem erlangten Fahrzeugvideo dargestellt ist, assoziiert sein. Beispielsweise kann eine durch einen Benutzer ausgewählte Teilmenge von Pixeln mit einem Objekt (z. B. einem Schild, einem Fahrzeug, einem Gehweg oder einem Zebrastreifen, einer Person), das in dem Fahrzeugvideo dargestellt ist, assoziiert sein. In einigen Implementierungen kann ein Benutzer ein Objekt auswählen, indem er auf das Objekt tippt oder das Objekt auf einer Touchscreen-Oberfläche, die Teile des Fahrzeugvideos anzeigt, umrandet, um eine Teilmenge von Pixeln in dem Teil (z. B. ein oder mehrere dargestellte Bilder) zu identifizieren, die einem Teil oder der Gesamtheit des Objekts entspricht. Daten, die diese Teilmenge von Pixeln und/oder das Objekt identifizieren, können an ein Bildverarbeitungssystem (z. B. Bildverarbeitungseinheit 360 in 3), das das Fahrzeugvideo beibehält und/oder verteilt, weitergeleitet werden.
  • Wenn in der Operation 275 die in der Operation 270 empfangenen Zieldaten neue Zieldaten einschließen, dann wird in der Operation 280 basierend auf den Zieldaten ein Zielort bestimmt. Der Zielort kann sich in der Nähe des Orts des Benutzers befinden, wo der Benutzer bevorzugt, dass das Fahrzeug zum Abholen ankommt. Beispielsweise kann es ein Benutzer, der ein Restaurant verlässt, bevorzugen, einige Schritte von der Eingangstür des Restaurants entfernt abgeholt zu werden. In einigen Implementierungen schließt das Bestimmen des Zielorts in der Operation 280 ein Korrelieren eines von einem Benutzer ausgewählten Teils des Fahrzeugvideos, der durch die Zieldaten dargestellt ist, mit einer Geolokation ein. Diese Geolokation kann als ein physisches Ziel für das Fahrzeug bezeichnet werden. In einigen Fällen schließt das Korrelieren des ausgewählten Teils mit dem physischen Ziel ein Bestimmen eines Orts eines Objekts, das in dem von einem Benutzer ausgewählten Teil gezeigt ist, ein. In einigen Implementierungen schließt das Bestimmen des Orts des Objekts ein Vergleichen von mindestens zwei Teilen des erlangten Fahrzeugvideos von zwei oder mehr Kameras, die an dem Fahrzeug montiert sind, ein, um einen Abstand von einem Fahrzeugort, an dem die mindestens zwei Teile der erlangten Bilder erlangt wurden, zu dem Objekt zu schätzen.
  • In einigen Implementierungen schließt das Bestimmen des Zielorts in der Operation 280 ein Bestimmen eines Orts eines Objekts ein, das in einer Teilmenge von Pixeln in dem Fahrzeugvideo, die durch die Zieldaten identifiziert werden, gezeigt ist. Pixel in dem Fahrzeugvideo können natürlich mit einer Richtung oder einem Winkel bezogen auf das Fahrzeug (z. B. bezogen auf einen zugehörigen Kurs des Fahrzeugs) assoziiert sein, und der Ort des Fahrzeugs kann auch mit dem Einzelbild bzw. den Einzelbildern des Fahrzeugvideos, auf denen die Pixel basierten, assoziiert sein. Beispielsweise können stereoskopische Computer-Vision-Techniken eingesetzt werden, um einen Abstand von dem Fahrzeugort zu dem Objekt, das in der Teilmenge von identifizierten Pixeln dargestellt ist, zu schätzen. Ein beabsichtigter Treffpunkt kann basierend auf dieser Information bestimmt werden. In einigen Implementierungen umfasst das Bestimmen des Orts des Objekts ein Vergleichen von Bildern, auf denen das Einzelbild basierte, von zwei oder mehreren der Kameras, die an dem Fahrzeug montiert sind, um einen Abstand von dem Ort des mit dem Einzelbild assoziierten Fahrzeugs zu dem Objekt zu schätzen.
  • In einigen Implementierungen kann der Zielort als ein Ort nahe (z. B. benachbart zu) dem Fahrzeug in der gleichen Richtung wie der angegebene Treffpunkt bestimmt werden. Das Fahrzeug kann langsam in diese Richtung weiterfahren, wobei es basierend auf der Verfolgung des angegebenen Objekts in seinem Fahrzeugvideo regelmäßig den Zielort aktualisiert, bis das Fahrzeug durch ein Hindernis (z. B. ein anderes Auto, einen Bordstein oder den Benutzer, der abgeholt wird) gestoppt wird.
  • In einem Beispielszenario kann der Benutzer, der abgeholt wird, Pixel auf seiner Anzeigeoberfläche auswählen, die ein Schild (z. B. ein Schild für einen Flughafenvorplatz) in der Nähe seines beabsichtigten Treffpunkts darstellen. Die von der Anzeigevorrichtung des Benutzers empfangenen Zieldaten können die Teilmenge von Pixeln in dem Teil des Fahrzeugvideos, der dem Benutzer angezeigt wurde, identifizieren. Der Ort des Schilds kann teilweise durch Bestimmen einer Richtung des Schilds von dem Ort des Fahrzeugs bestimmt werden, der mit dem Einzelbild bzw. den Einzelbildern assoziiert ist, auf denen der angezeigte Teil des Fahrzeugvideos basierte.
  • In einigen Implementierungen kann das Bestimmen des Zielorts in der Operation 280 ein Bestimmen einschließen, dass der Zielort ein zulässiger Fahrzeugort ist, der dem Ort des Objekts am nächsten ist. In einigen Fällen ist der anscheinend beabsichtigte Treffpunkt kein zulässiger Ort für ein Fahrzeug. Beispielsweise kann der Benutzer eine Teilmenge von Pixeln auswählen, die den Benutzer darstellen, der auf einem Gehweg steht und auf das Fahrzeug wartet. Das Fahrzeug darf sich nicht auf den Gehweg bewegen. Ein auf geeignete Weise konfiguriertes Navigationssystem kann verhindern, dass sich das Fahrzeug zu diesem Ort bewegt. In einigen Implementierungen kann ein Fahrzeug in der Operation 250 bestimmen, dass der Zielort mit dem angegebenen Treffpunkt (z. B. dem Ort des Benutzers, der in dem aktuellen Beispiel auf dem Gehweg steht) identisch ist. Das Fahrzeug kann den kürzesten Weg zu dem angegebenen Treffpunkt nehmen, bis es durch sein Navigationssystem gestoppt wird (z. B. an einem Bordstein gestoppt wird). In einigen Fällen endet jedoch der kürzeste Weg zu dem angegebenen Treffpunkt nicht bei dem dem Treffpunkt am nächsten gelegenen zulässigen Ort. Beispielsweise kann an einem Flughafen mit mehreren Spuren, die durch Mittelstreifen geteilt sind, der kürzeste Weg auf der falschen Spur stoppen, die weit entfernt vom Treffpunkt sein kann. Das Erreichen des nächsten zulässigen Orts kann beinhalten, dass das Fahrzeug im Kreis herum fährt, um auf die nächste Spur zu wechseln. In einigen Implementierungen können detaillierte Straßenkarteninformationen des Bereichs mit einem angegebenen Treffpunkt verglichen werden, um den nächsten zulässigen Fahrzeugort zu finden. Dieser nächste zulässige Fahrzeugort kann dann in der Operation 280 als der Zielort für das Fahrzeug bestimmt werden. Beispielsweise können Fahrzeugnavigationstechniken dann verwendet werden, um eine Route von dem aktuellen Ort des Fahrzeugs zu dem am nächsten gelegenen zulässigen Fahrzeugort zu bestimmen.
  • Die Bewegung des Fahrzeugs kann in der Operation 282 gesteuert werden. Beispielsweise kann ein Zielort an eine Fahrzeugsteuereinheit (z. B. der automatisierten Steuereinheit 340 von 3) geleitet werden, die die Fahrzeugbewegung zur Bewegung in Richtung des Zielorts steuern kann. Der Zielort kann einem physischen Ort entsprechen. In einigen Implementierungen steuert eine Fahrzeugsteuereinheit (z. B. die automatisierte Steuereinheit 340 von 3) in dem Fahrzeug das Fahrzeug in der Operation 282, indem Steuersignale an ein Energiequellen- und Getriebesystem, ein Lenksystem und/oder ein Bremssystem des Fahrzeugs ausgegeben werden, um zu bewirken, dass sich das Fahrzeug zu dem Zielort bewegt. In einigen Implementierungen kann ein Zielort aktualisiert werden (z. B. periodisch), wenn sich das Fahrzeug in Richtung des angegebenen Treffpunkts bewegt. In einigen Implementierungen kann sich das Fahrzeug weiter zu einem Zielort bewegen, bis es den Zielort erreicht oder bis es durch ein Hindernis (z. B. einen Bordstein, ein anderes Fahrzeug, eine Person), das seinen Weg blockiert, gestoppt wird. Wenn beispielsweise das Fahrzeug an dem Zielort oder in dessen Nähe stoppt, kann der Benutzer in das Fahrzeug einsteigen, um das Abholen abzuschließen. Somit kann der Prozess 200 in einigen Implementierungen ein Empfangen von Daten, die ein Ziel für das Fahrzeug darstellen, und ein Bewegen des Fahrzeugs zu dem Ziel einschließen, wobei das Erlangen der Bilder unter Verwendung der einen oder mehreren Kameras, die an dem Fahrzeug montiert sind, ein Erlangen der Bilder umfasst, wenn sich das Fahrzeug innerhalb eines Schwellenabstands von dem Ziel befindet.
  • Eine Fahrzeugvideopräsentationssitzung kann in der Operation 290 durch den Benutzer oder ein anderes Ereignis oder einen anderen Befehl (z. B. das Abschalten des Fahrzeugs oder einen Befehl von einem anderen Benutzer (z. B. einem Teilenden), der den Zugriff auf das Fahrzeugvideo steuert), das/der durch eine Bildverarbeitungseinheit des Fahrzeugs verarbeitet wird, beendet werden. Wenn in der Operation 285 die Fahrzeugvideopräsentationssitzung nicht beendet wird, kann eine Bildverarbeitungseinheit weiterhin in der Operation 240 eine zusätzliche Auswahleingabe von einem Benutzer empfangen, in der Operation 260 das Anzeigen zusätzlicher Teile des Fahrzeugvideos für einen Benutzer veranlassen und/oder in der Operation 270 neue Zieldaten empfangen.
  • Der Prozess 100, der Prozess 200 und andere hierin offenbarte Systeme und Verfahren beinhalten die Übertragung und/oder Speicherung von persönlichen Informationen, wie Bildern, Videos und Ortsinformationen. Benutzer können die Verwendung von persönlichen Daten oder den Zugriff auf solche selektiv sperren. Ein System, das einige oder alle der hierin beschriebenen Technologien enthält, kann Hardware und/oder Software einschließen, die den Zugriff auf solche persönlichen Daten verhindert oder sperrt. Beispielsweise kann es das System Benutzern ermöglichen, der Teilnahme an der Sammlung persönlicher Daten oder von Teilen von Teilen davon zuzustimmen oder diese abzulehnen. Ebenso können Benutzer auswählen, keine Ortsinformationen bereitzustellen oder die Bereitstellung allgemeiner Ortsinformationen (z. B. einer geographischen Region oder Zone), aber keiner präzisen Ortsinformationen zu erlauben.
  • Entitäten, die für die Sammlung, Analyse, Offenlegung, Übertragung, Speicherung oder andere Verwendung solcher persönlicher Daten verantwortlich sind, sollten eingerichtete Datenschutzrichtlinien und/oder -praktiken einhalten. Solche Entitäten sollten den Zugriff auf solche persönlichen Daten schützen und sichern und sicherstellen, dass andere mit Zugriff auf die persönlichen Daten diese Richtlinien ebenfalls einhalten. Solche Entitäten sollten Datenschutzrichtlinien und -praktiken implementieren, die industrielle oder behördliche Anforderungen zur Wahrung des Datenschutzes und der Sicherheit von persönlichen Daten erfüllen oder über diese hinausgehen. Beispielsweise sollte eine Entität persönliche Daten von Benutzern für rechtmäßige und angemessene Zwecke sammeln und die Daten nicht außerhalb dieser rechtmäßigen Zwecke teilen oder verkaufen. Eine solche Sammlung sollte erst nach dem Empfang einer Einwilligung nach erfolgter Aufklärung des Benutzers erfolgen. Außerdem können Dritte diese Entitäten bewerten, um deren Einhaltung eingerichteter Datenschutzrichtlinien und -praktiken zu zertifizieren.
  • 3 zeigt ein beispielhaftes Fahrzeug 300, das zum Beibehalten und Verteilen eines Fahrzeugvideos ausgelegt ist. Das Fahrzeug 300 schließt eine Fahrzeugkarosserie 310 ein, die die anderen Systeme und Komponenten des Fahrzeugs 300 enthält oder an diesen befestigt ist. Das Fahrzeug 300 schließt Räder 320 ein, die dazu in der Lage sind, als eine Schnittstelle zwischen dem Fahrzeug und einer Straße zu dienen. Die Räder stellen Steuerflächen bereit, die verwendet werden können, um das Fahrzeug entlang Pfaden auf einer Straße zu führen. Das Fahrzeug 300 schließt auch ein Energiequellen- und Getriebesystem 322, einschließlich beispielsweise einer Energiequelle, die mit den Rädern 320 des Fahrzeugs 300 durch ein Getriebe verbunden ist, ein. Als Beispiele kann das Energiequellen- und Getriebesystem 320 einen Verbrennungsmotor oder einen Elektromotor, der durch eine Batterie mit Leistung versorgt wird, einschließen. Das Energiequellen- und Getriebesystem 322 ist dazu in der Lage, eine Drehung der Räder 320 zu bewirken, um das Fahrzeug entlang einer Straße oder einer anderen Oberfläche zu beschleunigen. Das Energiequellen- und Getriebesystem 322 kann hierin als ein Antriebsstrang bezeichnet werden. Das Fahrzeug 300 schließt auch ein Lenksystem 324 ein, das dazu in der Lage ist, die Räder 320 in Bezug auf die Fahrzeugkarosserie 310 zu drehen, um die Bewegung des Fahrzeugs 300 zu lenken, z. B. durch Steuern des Gierwinkels und der Winkelgeschwindigkeit oder der Kurvenkrümmung des Fahrzeugs. Das Fahrzeug 300 schließt eine Sensorgruppe 330 ein, die dazu ausgelegt ist, den Zustand des Fahrzeugs und dessen Umgebung zu erfassen. Das Fahrzeug 300 schließt auch eine automatisierte Steuereinheit 340 ein, die dazu ausgelegt ist, Daten von einer Bildverarbeitungseinheit 360, der Sensorgruppe 330 und möglicherweise anderen Quellen (z. B. einer Fahrzeugpassagier/-betreiberbedienoberfläche) zu empfangen und die Daten zu verarbeiten, um eine automatisierte Steuerung der Bewegung des Fahrzeugs 300 zu implementieren, indem Steuersignale an das Energiequellen- und Getriebesystem 322, das Lenksystem 324 und das Bremssystem 326 gesendet werden, die durch diese Systeme über die Räder 320 betätigt werden.
  • Die Sensorgruppe 330 kann eine Ortungsvorrichtung 334 einschließen, die dazu ausgelegt ist, einen aktuellen Ort des Fahrzeugs zu bestimmen. Beispielsweise kann die Ortungsvorrichtung 334 einen GPS-Empfänger und/oder andere Sensoren (z. B. Kilometerzähler, Beschleunigungsmesser, Gyroskop) einschließen, die verwendet werden können, um das Vornehmen von Feineinstellungen an einer Schätzung des aktuellen Orts zu ermöglichen. In einigen Implementierungen kann die Ortungsvorrichtung 334 einen Fahrzeugort ausgeben, der in Koordinaten (z. B. Länge, Breite, Höhe) ausgedrückt ist. In einigen Implementierungen kann die Ortungsvorrichtung 334 verwendet werden, um Ausrichtungsinformationen für das Fahrzeug zu bestimmen, beispielsweise kann sie einen Kurs für das Fahrzeug 300 bestimmen. Beispielsweise kann ein Präzisionsgyroskop (z. B. ein faseroptisches Gyroskop) verwendet werden, um kleine Kursänderungen zu verfolgen.
  • Die Sensorgruppe 330 schließt eine Kameraanordnung 350 ein. Die Kameraanordnung 350 kann eine oder mehrere Kameras einschließen, die in Bezug aufeinander in einer festen Ausrichtung angeordnet sind, um ein gewünschtes Sichtfeld für das Fahrzeug zu überspannen. In einigen Implementierungen können Kameras in der Kameraanordnung 350 so angeordnet sein, dass sich ihre jeweiligen Sichtfelder überlappen, um ein Zusammenfügen von Bildern von den Kameras zu zusammengesetzten Bildern der Umgebung zu ermöglichen. In einigen Implementierungen überspannt das Sichtfeld für die Kameraanordnung 350 einen 360-Grad-Bogen um das Fahrzeug herum (d. h. um eine vertikale Achse, wenn das Fahrzeug auf flachem Untergrund auf seinen Rädern ruht). Beispielsweise kann die Kameraanordnung 350 vier Kameras, jeweils mit einem 120-Grad-Sichtfeld, einschließen, die so angeordnet sind, dass eine nach vorne gerichtet ist, eine nach links gerichtet ist, eine nach rechts gerichtet ist und eine auf den Bereich hinter dem Fahrzeug gerichtet ist. In einigen Implementierungen sind eine oder mehrere der Kameras in der Kameraanordnung 350 omnidirektionale Kameras. In einigen Implementierungen weisen eine oder mehrere der Kameras in der Kameraanordnung 350 ein Weitwinkelobjektiv auf. In einigen Implementierungen weisen eine oder mehrere der Kameras in der Kameraanordnung 350 ein Fischaugenobjektiv auf.
  • Die Bildverarbeitungseinheit 360 kann Bilder von der Kameraanordnung 350 mit einer gewünschten Bildrate (z. B. 24 Hz) erhalten. Beispielsweise kann die Bildverarbeitungseinheit 360 die Bilder unter Verwendung von Computer-Vision-Techniken verarbeiten, um Änderungen in der Umgebung des Fahrzeugs zu erfassen (z. B. andere Fahrzeuge und Hindernisse zu erfassen) und Modelle der Umgebung und/oder Alarme zu erzeugen, die an die automatisierte Steuereinheit 340 weitergeleitet werden können, um ein sicheres Manövrieren des Fahrzeugs zu ermöglichen. Bilder, die von der Kameraanordnung 350 erlangt werden, können auch als ein Fahrzeugvideo codiert und in einem Videopuffer 362 gespeichert werden. In einigen Implementierungen können Einzelbilder des Fahrzeugvideos mit einer Zeit, einem Kurs und/oder einem Ort assoziiert werden, wann und/oder wo die Bilder, auf denen dieses Einzelbild basiert, erlangt wurden.
  • Auf ein Fahrzeugvideo kann durch einen Benutzer, der sich in dem Fahrzeug befindet, oder durch einen Benutzer an einem entfernten Ort zugegriffen werden. In einigen Implementierungen wird ein Teil des Fahrzeugvideos einem Benutzer präsentiert, indem Daten, die den Teil codieren, über die drahtlose Netzwerkschnittstelle 370 an eine Anzeigevorrichtung des Benutzers übertragen werden. Beispielsweise kann die drahtlose Netzwerkschnittstelle 370 dazu ausgelegt sein, Signale gemäß einem Drahtlosnetzwerkstandard (z. B. Wi-Fi oder WiMAX) zu senden und zu empfangen. Beispielsweise kann die Bildverarbeitungseinheit 360 dazu ausgelegt sein, den Prozess 100 zu implementieren, wie in Bezug auf 1 beschrieben. Beispielsweise kann die Bildverarbeitungseinheit 360 dazu ausgelegt sein, den Prozess 200 zu implementieren, wie in Bezug auf 2 beschrieben. Die Bildverarbeitungseinheit 360 kann spezialisierte Bildverarbeitungshardware und/oder -software einschließen, die auf einer Datenverarbeitungseinrichtung mit zusätzlichen Fähigkeiten ausgeführt wird.
  • Die verschiedenen Einheiten, die in Bezug auf 3 und an anderer Stelle in diesem Dokument beschrieben sind, wie die automatisierte Steuereinheit 340 und die Bildverarbeitungseinheit 360, können Recheneinheiten sein. Recheneinheiten können eine beliebige Art von Rechenvorrichtung sein, die zum Erzeugen einer Ausgabe in Reaktion auf eine Eingabe gemäß Befehlen betreibbar ist. Beispiele für Strukturen, die verwendet werden können, um Recheneinheiten zu implementieren, schließen Prozessoren mit Speichervorrichtungen, anwenderprogrammierbare Gatteranordnungen (Field Programmable Gate Arrays, FPGA) und anwendungsspezifische integrierte Schaltungen ein. Befehle können beispielsweise in Form von ausführbarem Computerprogrammcode bereitgestellt werden, der bewirkt, dass die jeweilige Einheit die Funktionen durchführt, die hierin beschrieben sind.
  • 4 zeigt eine beispielhafte Hardwarekonfiguration für eine Fahrzeugsteuerung 400, die dazu ausgelegt ist, ein Fahrzeug zu manövrieren und zusätzliche Dienste bereitzustellen, die die Beibehaltung und Verteilung eines Fahrzeugvideos einschließen. Die Hardwarekonfiguration kann eine Datenverarbeitungseinrichtung 410, eine Datenspeichereinrichtung 420, eine drahtlose Schnittstelle 430, eine Steuerungsoberfläche 440 und eine Verschaltung 450, durch die die Datenverarbeitungseinrichtung 410 auf die anderen Komponenten zugreifen kann, einschließen. Die Datenverarbeitungseinrichtung 410 ist betreibbar, um Befehle auszuführen, die in einer Datenspeichereinrichtung 420 gespeichert wurden. In einigen Implementierungen ist die Datenverarbeitungseinrichtung 410 ein Prozessor mit Direktzugriffsspeicher zum temporären Speichern von Befehlen, die von der Datenspeichereinrichtung 420 gelesen werden, während die Befehle ausgeführt werden. Beispielsweise kann die Datenspeichereinrichtung 420 eine nicht-flüchtige Informationsspeichervorrichtung, wie ein Festplattenlaufwerk oder ein Halbleiterlaufwerk, sein. Die drahtlose Schnittstelle 430 ermöglicht die Kommunikation mit anderen Vorrichtungen, beispielsweise einer persönlichen Vorrichtung eines Benutzers. Beispielsweise kann die drahtlose Schnittstelle 430 die Kommunikation über ein Wi-Fi-Netzwerk des Fahrzeugs mit einer Tablet-Vorrichtung, die von einem Passagier in dem Fahrzeug gehalten wird, ermöglichen. Beispielsweise kann die drahtlose Schnittstelle 430 die Kommunikation über ein WiMAX-Netzwerk mit einer Smartphone-Vorrichtung, die von einem Benutzer an einem externen Ort gehalten wird, ermöglichen. Die Steuerungsoberfläche 440 ermöglicht die Eingabe und Ausgabe von Informationen in bzw. an andere Systeme in einem Fahrzeug, um eine automatisierte Steuerung des Fahrzeugs zu ermöglichen. Beispielsweise kann die Steuerungsoberfläche 440 serielle Anschlüsse (z. B. RS-232 oder USB) einschließen, die verwendet werden, um Steuersignale an Stellglieder in dem Fahrzeug auszugeben und Sensordaten von einer Sensorgruppe zu empfangen. Beispielsweise kann die Verschaltung 450 ein Systembus oder ein verdrahtetes oder drahtloses Netzwerk sein.
  • 5 zeigt eine beispielhafte Hardwarekonfiguration für eine Anzeigevorrichtung 500, die dazu ausgelegt ist, ein Fahrzeugvideo, das von einem Fahrzeug erlangt wird, interaktiv anzuzeigen, basierend auf einem Fahrzeugvideo und einer Benutzereingabe Zieldaten zu bestimmen, die verwendet werden können, um die Bewegung des Fahrzeugs zu lenken, und Zieldaten an das Fahrzeug zu übertragen. Die Hardwarekonfiguration kann eine Datenverarbeitungseinrichtung 510, eine Datenspeichereinrichtung 520, eine drahtlose Schnittstelle 530, eine Benutzeroberfläche 540 und eine Verschaltung 550, durch die die Datenverarbeitungseinrichtung 510 auf die anderen Komponenten zugreifen kann, einschließen. Die Datenverarbeitungseinrichtung 510 ist betreibbar, um Befehle auszuführen, die in einer Datenspeichereinrichtung 520 gespeichert wurden. In einigen Implementierungen ist die Datenverarbeitungseinrichtung 510 ein Prozessor mit Direktzugriffsspeicher zum temporären Speichern von Befehlen, die von der Datenspeichereinrichtung 520 gelesen werden, während die Befehle ausgeführt werden. Beispielsweise kann die Datenspeichereinrichtung 520 eine nicht-flüchtige Informationsspeichervorrichtung, wie ein Festplattenlaufwerk oder ein Halbleiterlaufwerk, sein. Die drahtlose Schnittstelle 530 ermöglicht die Kommunikation mit anderen Vorrichtungen, beispielsweise einem Fahrzeug. Beispielsweise kann die drahtlose Schnittstelle 530 die Kommunikation über ein Wi-Fi-Netzwerk des Fahrzeugs mit einer Fahrzeugsteuerung ermöglichen. Beispielsweise kann die drahtlose Schnittstelle 530 die Kommunikation über ein WiMAX-Netzwerk mit einem Fahrzeug an einem entfernten Ort ermöglichen. Die Benutzeroberfläche 540 ermöglicht die Eingabe und Ausgabe von Informationen von/zu einem Benutzer. Beispielsweise kann die Benutzeroberfläche 540 einen Touchscreen einschließen. Beispielsweise kann die Benutzeroberfläche 540 eine am Kopf befestigte Anzeige (z. B. eine Virtual-Reality-Brille oder Augmented-Reality-Brille) einschließen. Beispielsweise kann die Benutzeroberfläche 540 Sensoren (z. B. einen Beschleunigungsmesser, ein Gyroskop und/oder ein Magnetometer) zum Erfassen einer Bewegung der Anzeigevorrichtung einschließen. Beispielsweise kann die Verschaltung 550 ein Systembus oder ein verdrahtetes oder drahtloses Netzwerk sein.
  • Beim Implementieren von Techniken, die durch die in Bezug auf 1-4 beschriebenen Systeme und Prozesse beispielhaft erläutert werden, kann es wünschenswert sein, mehr Netzwerkbandbreite und Verarbeitungszeit und Leistung auf der Anzeigevorrichtung zu verwenden, um die Latenz bei der interaktiven Betrachtung eines Fahrzeugvideos durch einen Benutzer zu verringern. In einigen Implementierungen kann ein Fahrzeugvideo durch die Anzeigevorrichtung 500 in einem vollständigeren Format erlangt werden (z. B. von einem Fahrzeug über die drahtlose Schnittstelle 530) und kann mehr von der Verarbeitung der Fahrzeugvideodaten für die interaktive Anzeige lokal durch die Anzeigevorrichtung durchgeführt werden. Beispielsweise kann ein vollständiges Fahrzeugvideo zu einer Anzeigevorrichtung gestreamt werden und kann eine Bildverarbeitungseinheit, ähnlich der Bildverarbeitungseinheit 360 von 3, auf der Anzeigevorrichtung 500 (z. B. als Software, die durch die Datenverarbeitungseinrichtung 510 ausgeführt wird) implementiert werden. Diese Bildverarbeitungseinheit kann Teile des Fahrzeugvideos zur Präsentation für den Benutzer über die Benutzeroberfläche 540 basierend auf einer Benutzerauswahleingabe, die über die Benutzeroberfläche 540 empfangen wird, auswählen. Eine lokale Durchführung dieser Bildverarbeitungsvorgänge kann die Latenz für ein interaktives Betrachten des Fahrzeugvideos (z. B. Schwenken, um verschiedene Untermengen eines im Fahrzeugvideo verfügbaren Sichtfelds zu sehen) verringern.
  • 6 veranschaulicht ein beispielhaftes Fahrzeugabholszenario 600. Ein Fahrzeug 610 fährt, um einen Benutzer der Anzeigevorrichtung 620 abzuholen. Eine Rufnachricht kann von der Anzeigevorrichtung 620 stammen und von dem Fahrzeug 610 empfangen worden sein, um den Abholvorgang zu initiieren. Die Rufnachricht kann einen Treffpunkt angegeben haben (z. B. als eine Adresse eines Flughafengebäudes), aber die Angabe kann für einen großen und überfüllten Bereich gelten. Das Fahrzeug 610 beginnt eine Fahrzeugvideopräsentationssitzung mit der Anzeigevorrichtung 620 und fährt basierend auf den bereitgestellten Ortsinformationen zum Flughafen zum Abholen entlang der Route 630. Jedoch endet die Route 632 auf der anderen Seite des Mittelstreifens 640 in Bezug auf den Benutzer, der mit der Anzeigevorrichtung 620 auf einem Gehweg an einem Bordstein 642 wartet. Dieser vorgegebene Treffpunkt kann für den Benutzer ungünstig oder unsicher sein.
  • Während der Fahrt präsentiert das Fahrzeug 610 dem Benutzer über die Anzeigevorrichtung 620 ein Fahrzeugvideo 650. Der Benutzer betrachtet das Fahrzeugvideo 650 auf der Anzeigevorrichtung 620, um den Fortschritt des Fahrzeugs 610 zu verfolgen. Der Benutzer bemerkt aus Ansichten der Umgebung des Fahrzeugs, dass das Fahrzeug 610 auf der falschen Spur zum Abholen fährt. In Reaktion darauf kann der Benutzer Befehl(e) durch die Benutzeroberfläche auf der Anzeigevorrichtung 620 eingeben, um eine Darstellung eines Objekts 660 (z. B. eines Schilds) auszuwählen, das sich in der Nähe in dem auf der Anzeigevorrichtung 620 betrachteten Fahrzeugvideo befindet, um anzuzeigen, dass sich das Objekt in der Nähe eines beabsichtigten neuen Treffpunkts befindet. Die Zieldaten 670 werden basierend auf der Auswahl des Benutzers eines Teils des Fahrzeugvideos entsprechend dem Objekt 660 bestimmt. Die Zieldaten 670 können von der Anzeigevorrichtung 620 an das Fahrzeug 610 übertragen werden. Teilweise basierend auf den Zieldaten 670 ist das Fahrzeug dazu in der Lage, einen neuen Zielort in der Nähe des Objekts 660 zu bestimmen und einen neuen Kurs für die Route 632 zu dem neuen Ziel auf der richtigen Spur zu planen. Das Fahrzeug 610 kann dann zu dem neuen Ziel manövriert werden und das Abholen des Benutzers abschließen.
  • Ein weiterer Aspekt der Offenbarung ist ein Fahrzeug, das eine Anordnung von Kameras, die an dem Fahrzeug montiert sind, eine drahtlose Netzwerkschnittstelle, eine Bildverarbeitungseinheit und eine automatisierte Steuereinheit einschließt. Die Bildverarbeitungseinheit ist dazu ausgelegt, ein erstes Video basierend auf Bildern zu bestimmen, die mit der Anordnung von Kameras erfasst werden, Einzelbilder des ersten Videos mit Orten des Fahrzeugs zu assoziieren und über die drahtlose Netzwerkschnittstelle Bilddaten basierend auf dem ersten Video an eine Anzeigevorrichtung zu übertragen, die dazu ausgelegt ist, die Bilddaten anzuzeigen. Die Bildverarbeitungseinheit ist ferner dazu ausgelegt, über die drahtlose Netzwerkschnittstelle Zieldaten von der Anzeigevorrichtung zu empfangen, in denen die Zieldaten eine Teilmenge von Pixeln aus den ausgewählten Bilddaten identifizieren, und einen Zielort mindestens teilweise basierend auf den Zieldaten und einem mit einem Einzelbild, von dem die Teilmenge von Pixeln abgeleitet wurde, assoziierten Ort des Fahrzeugs zu bestimmen. Die automatisierte Steuereinheit ist dazu ausgelegt, das Fahrzeug derart zu steuern, dass das Fahrzeug den Zielort einnimmt.
  • In einigen Implementierungen ist die Anordnung von Kameras derart montiert, dass alle Winkel um eine Achse senkrecht zu einer Oberfläche, über die das Fahrzeug fährt, innerhalb von Sichtfeldern von mindestens zwei Kameras in der Anordnung von Kameras erscheinen.
  • In einigen Implementierungen umfasst das Bestimmen des Zielorts ein Bestimmen eines Orts eines Objekts, das in der Teilmenge von Pixeln gezeigt ist, und ein Bestimmen, dass der Zielort ein zulässiger Fahrzeugort ist, der dem Ort des Objekts am nächsten gelegen ist. In einigen Implementierungen umfasst das Bestimmen des Orts des Objekts ein Vergleichen von Bildern, auf denen das Einzelbild basierte, von zwei oder mehreren Kameras in der Anordnung von Kameras, um einen Abstand von dem Ort des mit dem Einzelbild assoziierten Fahrzeugs zu dem Objekt zu schätzen. In einigen Implementierungen ist die Teilmenge von Pixeln mit einem Objekt assoziiert, das in dem ersten Video dargestellt ist.
  • In einigen Implementierungen befindet sich die Anzeigevorrichtung außerhalb des Fahrzeugs.
  • In einigen Implementierungen ist das Fahrzeug dazu ausgelegt, über die drahtlose Netzwerkschnittstelle eine Rufnachricht zu empfangen, die von der Anzeigevorrichtung stammt, und in Reaktion auf die Rufnachricht über die drahtlose Netzwerkschnittstelle eine Einladung zum Betrachten der Bilddaten basierend auf dem ersten Video an die Anzeigevorrichtung zu übertragen.
  • Ein weiterer Aspekt der Offenbarung ist ein Verfahren, das ein Erlangen eines ersten Videos basierend auf Bildern, die mit einer oder mehreren an einem Fahrzeug montierten Kameras erfasst werden, und ein Präsentieren von einem oder mehreren Bildern, die aus dem ersten Video ausgewählt sind, für einen ersten Benutzer einschließt. In einigen Implementierungen des Verfahrens werden das eine oder die mehreren Bilder, die dem ersten Benutzer präsentiert werden, basierend auf einer Eingabe von dem ersten Benutzer ausgewählt. Der erste Benutzer kann sich in dem Fahrzeug befinden. Die Eingabe von dem ersten Benutzer kann eine Ausrichtung einer Anzeigevorrichtung angeben, die durch den ersten Benutzer betrachtet wird, und die Ausrichtung der Anzeigevorrichtung kann bestimmt werden, indem eine relative Ausrichtung der Anzeigevorrichtung relativ zu der einen oder den mehreren an dem Fahrzeug montierten Kameras bestimmt wird und das eine oder die mehreren dargestellten Bilder basierend auf der relativen Ausrichtung ausgewählt werden, wobei das eine oder die mehreren dargestellten Bilder eine Ansicht von dem Fahrzeug in einer Richtung parallel zu einer Achse senkrecht zu einer Anzeigefläche der Anzeigevorrichtung darstellen.
  • In einigen Implementierungen schließt die Eingabe von dem ersten Benutzer ein Drehen einer in der Hand gehaltenen Anzeigeeinrichtung ein, um eine Ansicht innerhalb des ersten Videos zu schwenken. In einigen Implementierungen umfasst die Eingabe von dem ersten Benutzer ein Kippen oder Drehen eines Kopfs des ersten Benutzers, während der erste Benutzer eine am Kopf befestigte Anzeigevorrichtung trägt, um eine Ansicht innerhalb des ersten Videos zu schwenken. In einigen Implementierungen schließt die Eingabe von dem ersten Benutzer Gesten auf einem Touchscreen ein, der das eine oder die mehreren Bilder anzeigt, die dem ersten Benutzer präsentiert werden. Eine vordefinierte nach vorne gerichtete Perspektive in dem Video kann basierend auf der Eingabe von dem ersten Benutzer ausgewählt werden. Eine vordefinierte nach hinten gerichtete Perspektive in dem Video kann basierend auf der Eingabe von dem ersten Benutzer ausgewählt werden.
  • In einigen Implementierungen schließt das Präsentieren des einen oder der mehreren Bilder ein Übertragen von Bilddaten, die das eine oder die mehreren Bilder darstellen, an eine persönliche Vorrichtung, die mit dem ersten Benutzer verbunden ist, ein.
  • In einigen Implementierungen schließt das Verfahren ein Verfolgen eines Objekts, das in dem ersten Video dargestellt ist, und ein automatisches Ändern einer Perspektive in dem ersten Video ein, um das Auswählen von Bildern des Objekts zur Darstellung für den ersten Benutzer fortzusetzen. Das Objekt kann automatisch erkannt und zur Verfolgung ausgewählt werden. Das Objekt kann basierend auf einer Eingabe von dem ersten Benutzer zur Verfolgung ausgewählt werden.
  • In einigen Implementierungen wählt der erste Benutzer aus dem einen oder den mehreren dargestellten Bildern einen Parkplatz aus, der in dem ersten Video dargestellt ist. Das Verfahren kann auch ein automatisches Parken des Fahrzeugs auf dem Parkplatz einschließen.
  • In einigen Implementierungen wählt der erste Benutzer aus dem einen oder den mehreren dargestellten Bildern eine Absetzstelle aus, die in dem ersten Video dargestellt ist. Das Verfahren kann auch ein automatisches Steuern des Fahrzeugs einschließen, sodass das Fahrzeug die Absetzstelle einnimmt.
  • In einigen Implementierungen befindet sich der erste Benutzer an einem entfernten Ort relativ zu dem Fahrzeug. In einigen Implementierungen befindet sich der erste Benutzer in einem Notfallfahrzeug.
  • Das eine oder die mehreren Bilder, die aus dem ersten Video ausgewählt werden, können ein Panoramastandbild sein. Das eine oder die mehreren Bilder, die aus dem ersten Video ausgewählt werden, können ein Teil eines Panoramastandbilds sein, wobei der Teil basierend auf einem Betrachtungswinkel bestimmt wird, der durch einen zweiten Benutzer ausgewählt wird. Das eine oder die mehreren Bilder, die aus dem ersten Video ausgewählt werden, können ein Video sein, das eine Ansicht von dem Fahrzeug in einem Betrachtungswinkel zeigt, der basierend auf einer Eingabe von dem ersten Benutzer ausgewählt wird. Das eine oder die mehreren Bilder, die aus dem ersten Video ausgewählt werden, können ein Video sein, das eine Ansicht von dem Fahrzeug in einem Betrachtungswinkel zeigt, der basierend auf einer Eingabe von einem zweiten Benutzer ausgewählt wird. Das eine oder die mehreren Bilder, die aus dem ersten Video ausgewählt werden, können ein Video sein, das eine Ansicht zeigt, die ein Objekt darstellt, das automatisch verfolgt wird, wenn sich das Fahrzeug in Bezug auf das Objekt bewegt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62398125 [0001]

Claims (23)

  1. Verfahren, umfassend: Erlangen von Bildern unter Verwendung von einer oder mehreren Kameras, die an einem Fahrzeug montiert sind; Senden von Daten, die mindestens einen Teil der erlangten Bilder darstellen, an eine Anzeigevorrichtung; Empfangen von Daten, die einen ausgewählten Teil der erlangten Bilder darstellen; Korrelieren des ausgewählten Teils der erlangten Bilder mit einer Geolokation und Bewegen des Fahrzeugs in Richtung der Geolokation.
  2. Verfahren nach Anspruch 1, wobei das Korrelieren des ausgewählten Teils der erlangten Bilder mit der Geolokation ein Bestimmen einer Geolokation eines Objekts, das in dem ausgewählten Teil der erlangten Bilder dargestellt ist, umfasst.
  3. Verfahren nach Anspruch 2, wobei das Bestimmen der Geolokation des Objekts ein Bestimmen eines Abstands zu dem Objekt unter Verwendung mindestens von Teilen von erlangten Bildern von zwei oder mehr der Kameras, die an dem Fahrzeug montiert sind, einschließt.
  4. Verfahren nach Anspruch 3, wobei das Bestimmen der Geolokation des Objekts ein Bestimmen von Geolokationen, aus denen die erlangten Bilder erlangt wurden, einschließt.
  5. Verfahren nach Anspruch 2, wobei das Bewegen des Fahrzeugs zu der Geolokation ein Erlangen zusätzlicher Bilder unter Verwendung der einen oder mehreren Kameras, die an dem Fahrzeug montiert sind, wenn sich das Fahrzeug zu der Geolokation bewegt, und ein Bestimmen eines Abstands zu dem Objekt unter Verwendung der zusätzlichen Bilder umfasst.
  6. Verfahren nach Anspruch 1, wobei das Senden von Daten, die mindestens den Teil der erlangten Bilder darstellen, an die Anzeigevorrichtung ein Senden der Daten über drahtlose Kommunikation an eine Anzeigevorrichtung außerhalb des Fahrzeugs umfasst.
  7. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen, ob die Geolokation ein Parken erlaubt, und gemäß einer Bestimmung, dass die Geolokation ein Parken erlaubt, Stoppen des Fahrzeugs bei der Geolokation.
  8. Fahrzeug, umfassend: eine oder mehrere Kameras, die an dem Fahrzeug montiert sind; einen oder mehrere Prozessoren, die zu Folgendem ausgelegt sind: Erlangen von Bildern unter Verwendung der einen oder mehreren Kameras, Senden von Daten, die mindestens einen Teil der erlangten Bilder darstellen, an eine Anzeigevorrichtung, Empfangen von Daten, die einen ausgewählten Teil der erlangten Bilder darstellen, und Korrelieren des ausgewählten Teils der erlangten Bilder mit einer Geolokation; und einen Antriebsstrang, der dazu ausgelegt ist, das Fahrzeug in Richtung der Geolokation zu bewegen.
  9. Fahrzeug nach Anspruch 8, wobei der eine oder die mehreren Prozessoren ferner zu Folgendem ausgelegt sind: Korrelieren des ausgewählten Teils der erlangten Bilder mit einer Geolokation durch Bestimmen einer Geolokation eines Objekts, das in dem ausgewählten Teil der erlangten Bilder dargestellt ist.
  10. Fahrzeug nach Anspruch 9, wobei der eine oder die mehreren Prozessoren ferner zu Folgendem ausgelegt sind: Bestimmen der Geolokation des Objekts durch Bestimmen eines Abstands zu dem Objekt unter Verwendung mindestens von Teilen von erlangten Bildern von zwei oder mehr der Kameras, die an dem Fahrzeug montiert sind.
  11. Fahrzeug nach Anspruch 10, wobei der eine oder die mehreren Prozessoren ferner zu Folgendem ausgelegt sind: Bestimmen der Geolokation des Objekts durch Bestimmen von Geolokationen, aus denen die erlangten Bilder erlangt wurden.
  12. Fahrzeug nach Anspruch 9, wobei der eine oder die mehreren Prozessoren ferner zu Folgendem ausgelegt sind: Erlangen zusätzlicher Bilder unter Verwendung der einen oder mehreren Kameras, die an einem Fahrzeug montiert sind, wenn sich das Fahrzeug zu der Geolokation bewegt, und Bestimmen eines Abstands zu dem Objekt unter Verwendung der zusätzlichen Bilder.
  13. Fahrzeug nach Anspruch 8, ferner umfassend: eine drahtlose Netzwerkschnittstelle, die dazu ausgelegt ist, Daten, die mindestens einen Teil der erlangten Bilder darstellen, an eine Anzeigevorrichtung außerhalb des Fahrzeugs zu übertragen.
  14. Fahrzeug nach Anspruch 8, wobei der eine oder die mehreren Prozessoren ferner zu Folgendem ausgelegt sind: Bestimmen, ob die Geolokation ein Parken erlaubt, und gemäß einer Bestimmung, dass die Geolokation ein Parken erlaubt, Bewirken, dass das Fahrzeug das Fahrzeug bei der Geolokation stoppt.
  15. Nicht-flüchtige computerlesbare Speichervorrichtung mit computerausführbaren Programmbefehlen, die durch einen oder mehrere Prozessoren eines Fahrzeugs ausführbar sind, wobei die computerausführbaren Programmbefehle, wenn sie ausgeführt werden, den einen oder die mehreren Prozessoren zu Folgendem veranlassen: Erlangen von Bildern unter Verwendung von einer oder mehreren Kameras, die an einem Fahrzeug montiert sind, Senden von Daten, die mindestens einen Teil der erlangten Bilder darstellen, an eine Anzeigevorrichtung, Empfangen von Daten, die einen ausgewählten Teil der erlangten Bilder darstellen, Korrelieren des ausgewählten Teils der erlangten Bilder mit einer Geolokation und Bewirken, dass sich das Fahrzeug in Richtung der Geolokation bewegt.
  16. Nicht-flüchtige computerlesbare Speichervorrichtung nach Anspruch 15, wobei die computerausführbaren Programmbefehle den einen oder die mehreren Prozessoren des Fahrzeugs ferner dazu veranlassen, den ausgewählten Teil der erlangten Bilder mit einer Geolokation zu korrelieren, indem eine Geolokation eines Objekts bestimmt wird, das in dem ausgewählten Teil der erlangten Bilder dargestellt ist.
  17. Nicht-flüchtige computerlesbare Speichervorrichtung nach Anspruch 16, wobei die computerausführbaren Programmbefehle den einen oder die mehreren Prozessoren des Fahrzeugs ferner dazu veranlassen, die Geolokation des Objekts zu bestimmen, indem ein Abstand zu dem Objekt unter Verwendung mindestens von Teilen von erlangten Bildern von zwei oder mehr der Kameras, die an dem Fahrzeug montiert sind, bestimmt wird.
  18. Nicht-flüchtige computerlesbare Speichervorrichtung nach Anspruch 17, wobei die computerausführbaren Programmbefehle den einen oder die mehreren Prozessoren des Fahrzeugs ferner dazu veranlassen, die Geolokation des Objekts zu bestimmen, indem Geolokationen, aus denen die erlangten Bilder erhalten wurden, bestimmt werden.
  19. Nicht-flüchtige computerlesbare Speichervorrichtung nach Anspruch 16, wobei die computerausführbaren Programmbefehle den einen oder die mehreren Prozessoren des Fahrzeugs ferner dazu veranlassen, das Fahrzeug in Richtung der Geolokation zu bewegen, indem zusätzliche Bilder unter Verwendung der einen oder mehreren Kameras, die an einem Fahrzeug montiert sind, erlangt werden, wenn sich das Fahrzeug zu der Geolokation bewegt, wobei die zusätzlichen Bilder jeweils eine Darstellung des Objekts einschließen.
  20. Nicht-flüchtige computerlesbare Speichervorrichtung nach Anspruch 19, wobei die computerausführbaren Programmbefehle den einen oder die mehreren Prozessoren des Fahrzeugs ferner dazu veranlassen, das Fahrzeug in Richtung der Geolokation zu bewegen, indem ein Abstand zu dem Objekt unter Verwendung der zusätzlichen Bilder bestimmt wird.
  21. Nicht-flüchtige computerlesbare Speichervorrichtung nach Anspruch 15, wobei die computerausführbaren Programmbefehle den einen oder die mehreren Prozessoren des Fahrzeugs ferner dazu veranlassen, eine Route zu der Geolokation zu bestimmen.
  22. Nicht-flüchtige computerlesbare Speichervorrichtung nach Anspruch 15, wobei die Anzeigevorrichtung außerhalb des Fahrzeugs ist und das Senden von Daten, die mindestens einen Teil der erlangten Bilder darstellen, an eine Anzeigevorrichtung ein Senden der Daten über drahtlose Kommunikation an die Anzeigevorrichtung umfasst.
  23. Nicht-flüchtige computerlesbare Speichervorrichtung nach Anspruch 15, wobei die computerausführbaren Programmbefehle den einen oder die mehreren Prozessoren ferner dazu veranlassen, zu bestimmen, ob die Geolokation ein Parken erlaubt, und gemäß einer Bestimmung, dass die Geolokation ein Parken erlaubt, das Fahrzeug bei der Geolokation zu stoppen.
DE112017003801.4T 2016-09-22 2017-09-22 Fahrzeugvideosystem Pending DE112017003801T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662398125P 2016-09-22 2016-09-22
US62/398,125 2016-09-22
PCT/US2017/052871 WO2018057839A1 (en) 2016-09-22 2017-09-22 Vehicle Video System

Publications (1)

Publication Number Publication Date
DE112017003801T5 true DE112017003801T5 (de) 2019-07-18

Family

ID=60083435

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017003801.4T Pending DE112017003801T5 (de) 2016-09-22 2017-09-22 Fahrzeugvideosystem

Country Status (4)

Country Link
US (3) US10810443B2 (de)
CN (1) CN109644256B (de)
DE (1) DE112017003801T5 (de)
WO (1) WO2018057839A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201405527D0 (en) * 2014-03-27 2014-05-14 Mill Facility The Ltd A driveable vehicle unit
US10810443B2 (en) * 2016-09-22 2020-10-20 Apple Inc. Vehicle video system
CN109417767B (zh) * 2017-04-27 2020-09-18 北京嘀嘀无限科技发展有限公司 用于确定预估到达时间的系统和方法
US10606767B2 (en) * 2017-05-19 2020-03-31 Samsung Electronics Co., Ltd. Ethernet-attached SSD for automotive applications
JP7048357B2 (ja) * 2018-03-06 2022-04-05 東芝インフラシステムズ株式会社 撮影画像事前確認システム及び撮影画像事前確認方法
US11846514B1 (en) * 2018-05-03 2023-12-19 Zoox, Inc. User interface and augmented reality for representing vehicles and persons
US10837788B1 (en) 2018-05-03 2020-11-17 Zoox, Inc. Techniques for identifying vehicles and persons
US10809081B1 (en) 2018-05-03 2020-10-20 Zoox, Inc. User interface and augmented reality for identifying vehicles and persons
US10839522B2 (en) * 2018-05-11 2020-11-17 Toyota Research Institute, Inc. Adaptive data collecting and processing system and methods
CN110032633B (zh) * 2019-04-17 2021-03-23 腾讯科技(深圳)有限公司 多轮对话处理方法、装置和设备
US11645629B2 (en) * 2019-09-12 2023-05-09 GM Cruise Holdings LLC. Real-time visualization of autonomous vehicle behavior in mobile applications
US11722705B2 (en) * 2020-03-26 2023-08-08 Toyota Motor Engineering & Manufacturing North America, Inc. Camera support by a vehicular micro cloud for remote driving
US20220381898A1 (en) * 2021-06-01 2022-12-01 Qualcomm Incorporated Controlling device and processing settings based on radio frequency sensing
US20230142544A1 (en) * 2021-11-11 2023-05-11 Argo AI, LLC System and Method for Mutual Discovery in Autonomous Rideshare Between Passengers and Vehicles

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961571A (en) 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
JP3156646B2 (ja) * 1997-08-12 2001-04-16 日本電信電話株式会社 検索型景観ラベリング装置およびシステム
US6871077B2 (en) * 2001-10-09 2005-03-22 Grayson Wireless System and method for geolocating a wireless mobile unit from a single base station using repeatable ambiguous measurements
CN1706195A (zh) 2002-10-18 2005-12-07 沙诺夫股份有限公司 使用多个摄像机以允许全景可视的方法和系统
US6738314B1 (en) * 2003-01-31 2004-05-18 L3 Communications Corporation Autonomous mine neutralization system
JP2005191962A (ja) 2003-12-25 2005-07-14 Sharp Corp 移動体周囲監視装置および移動体
JP4606336B2 (ja) 2005-02-21 2011-01-05 株式会社オートネットワーク技術研究所 車両周辺視認装置
US20080285886A1 (en) 2005-03-29 2008-11-20 Matthew Emmerson Allen System For Displaying Images
JP4246195B2 (ja) * 2005-11-01 2009-04-02 パナソニック株式会社 カーナビゲーションシステム
US8942483B2 (en) * 2009-09-14 2015-01-27 Trimble Navigation Limited Image-based georeferencing
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
CN101467454A (zh) 2006-04-13 2009-06-24 科汀科技大学 虚拟观测器
US20080043020A1 (en) 2006-08-18 2008-02-21 Microsoft Corporation User interface for viewing street side imagery
JP2008077628A (ja) 2006-08-21 2008-04-03 Sanyo Electric Co Ltd 画像処理装置並びに車両周辺視界支援装置及び方法
US8094182B2 (en) 2006-11-16 2012-01-10 Imove, Inc. Distributed video sensor panoramic imaging system
US20120229596A1 (en) 2007-03-16 2012-09-13 Michael Kenneth Rose Panoramic Imaging and Display System With Intelligent Driver's Viewer
US7688229B2 (en) 2007-04-30 2010-03-30 Navteq North America, Llc System and method for stitching of video for routes
US8244469B2 (en) * 2008-03-16 2012-08-14 Irobot Corporation Collaborative engagement for target identification and tracking
WO2009120303A1 (en) 2008-03-24 2009-10-01 Google Inc. Panoramic images within driving directions
US8242884B2 (en) * 2008-09-24 2012-08-14 Denso International America, Inc. Car finder by cell phone
US8502860B2 (en) 2009-09-29 2013-08-06 Toyota Motor Engineering & Manufacturing North America (Tema) Electronic control system, electronic control unit and associated methodology of adapting 3D panoramic views of vehicle surroundings by predicting driver intent
US9497581B2 (en) * 2009-12-16 2016-11-15 Trimble Navigation Limited Incident reporting
US8447136B2 (en) 2010-01-12 2013-05-21 Microsoft Corporation Viewing media in the context of street-level images
JP5377668B2 (ja) * 2010-01-26 2013-12-25 三菱電機株式会社 ナビゲーション装置、車両情報表示装置、車両情報表示システム、車両情報表示制御プログラムおよび車両情報表示制御方法
WO2011121741A1 (ja) 2010-03-30 2011-10-06 富士通株式会社 画像生成装置、画像生成プログラム、合成テーブル生成装置および合成テーブル生成プログラム
US9204040B2 (en) 2010-05-21 2015-12-01 Qualcomm Incorporated Online creation of panoramic augmented reality annotations on mobile platforms
US8933986B2 (en) 2010-05-28 2015-01-13 Qualcomm Incorporated North centered orientation tracking in uninformed environments
JP5472026B2 (ja) * 2010-06-29 2014-04-16 トヨタ自動車株式会社 駐車支援装置
DE102010053895A1 (de) 2010-12-09 2012-06-14 Eads Deutschland Gmbh Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
US8989700B2 (en) 2011-03-17 2015-03-24 The Cordero Group Method and system for an interactive community alert network
CN102679993A (zh) 2011-03-18 2012-09-19 阿尔派株式会社 导航装置及其行驶中引导方法
US8817067B1 (en) 2011-07-29 2014-08-26 Google Inc. Interface for applying a photogrammetry algorithm to panoramic photographic images
EP2563008B1 (de) 2011-08-23 2021-04-28 Samsung Electronics Co., Ltd. Verfahren und Vorrichtung zur Durchführung von Videokommunikation auf einem tragbaren Endgerät
JP5857224B2 (ja) * 2012-03-30 2016-02-10 パナソニックIpマネジメント株式会社 駐車支援装置、及び駐車支援方法
US9055216B1 (en) 2012-11-19 2015-06-09 A9.Com, Inc. Using sensor data to enhance image data
JP6463598B2 (ja) * 2012-11-20 2019-02-06 三星電子株式会社Samsung Electronics Co.,Ltd. 着用式電子デバイスからのプロセッシングの委任
US9241103B2 (en) 2013-03-15 2016-01-19 Voke Inc. Apparatus and method for playback of multiple panoramic videos with control codes
US9798928B2 (en) * 2013-07-17 2017-10-24 James L Carr System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability
CN105814604B (zh) * 2013-10-07 2019-07-02 苹果公司 用于提供位置信息或移动信息以用于控制车辆的至少一种功能的方法和系统
US20150166009A1 (en) * 2013-11-11 2015-06-18 Chris Outwater System and Method for Wirelessly Rostering a Vehicle
CN104851315A (zh) 2014-02-18 2015-08-19 厦门歌乐电子企业有限公司 一种停车管理方法和系统、以及车载装置和服务器
IL231111A (en) * 2014-02-24 2016-06-30 Ori Afek Flash detection
US20150296140A1 (en) 2014-04-11 2015-10-15 Grey Matter Fusion, Inc. Panoramic view blind spot eliminator system and method
US9870707B2 (en) * 2014-06-23 2018-01-16 Hi-Park Solutions Ltd. Method and system for locating vacant parking places
JP6446925B2 (ja) * 2014-09-05 2019-01-09 アイシン精機株式会社 画像表示制御装置および画像表示システム
CN105526940B (zh) 2014-09-30 2019-08-16 高德软件有限公司 车辆导航方法和装置、电子地图展示方法和装置
US9377315B2 (en) * 2014-10-22 2016-06-28 Myine Electronics, Inc. System and method to provide valet instructions for a self-driving vehicle
EP3026654A1 (de) * 2014-11-25 2016-06-01 Gemalto Sa Verfahren zur Verwaltung von Parkplätzen auf öffentlichen Straßen
US10275788B2 (en) * 2014-12-02 2019-04-30 Operr Technologies, Inc. Method and system for avoidance of parking violations
US9997071B2 (en) * 2014-12-02 2018-06-12 Operr Technologies, Inc. Method and system for avoidance of parking violations
KR101844032B1 (ko) 2014-12-26 2018-05-14 주식회사 케이티 파노라믹 비디오 영상의 관심 영역의 영상 전송 방법, 장치 및 디바이스
CN107409051B (zh) * 2015-03-31 2021-02-26 深圳市大疆创新科技有限公司 用于生成飞行管制的认证系统和方法
CN107850902B (zh) * 2015-07-08 2022-04-08 深圳市大疆创新科技有限公司 可移动物体上的相机配置
US9904286B2 (en) * 2015-10-13 2018-02-27 Nokia Technologies Oy Method and apparatus for providing adaptive transitioning between operational modes of an autonomous vehicle
US9830713B1 (en) * 2015-12-17 2017-11-28 Rockwell Collins, Inc. Surveillance imaging system and method
WO2017106497A1 (en) * 2015-12-17 2017-06-22 Counterfy Llc Displayed identifier for a ridesharing service
US20170235018A1 (en) * 2016-01-08 2017-08-17 Pictometry International Corp. Systems and methods for taking, processing, retrieving, and displaying images from unmanned aerial vehicles
US9836057B2 (en) * 2016-03-24 2017-12-05 Waymo Llc Arranging passenger pickups for autonomous vehicles
US10810443B2 (en) * 2016-09-22 2020-10-20 Apple Inc. Vehicle video system
US10262537B1 (en) * 2018-01-22 2019-04-16 Toyota Jidosha Kabushiki Kaisha Autonomous optimization of parallel parking space utilization

Also Published As

Publication number Publication date
WO2018057839A1 (en) 2018-03-29
US11341752B2 (en) 2022-05-24
US20210027070A1 (en) 2021-01-28
US10810443B2 (en) 2020-10-20
US20220270374A1 (en) 2022-08-25
CN109644256B (zh) 2021-04-09
US11756307B2 (en) 2023-09-12
CN109644256A (zh) 2019-04-16
US20180082135A1 (en) 2018-03-22

Similar Documents

Publication Publication Date Title
DE112017003801T5 (de) Fahrzeugvideosystem
DE102015118489B4 (de) Fernbedienung eines autonomen Fahrzeugs in einer unerwarteten Umgebung
DE112017007050B4 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
DE112020002666T5 (de) Systeme und verfahren für die fahrzeugnavigation
DE60020420T2 (de) Situationsdarstellungs-Anzeigesystem
DE112016007429T5 (de) Entferntes Betriebssystem, Transportsystem und entferntes Betriebsverfahren
DE102015201053A1 (de) System und verfahren für verbesserte zeitraffervideoerzeugung unter nutzung von panoramabildmaterial
DE102018215344A1 (de) System und verfahren für fahrzeugkonvois
DE102019131701A1 (de) Verfahren und einrichtung für verbesserte ortsentscheidungen auf grundlage der umgebung
DE102019133847A1 (de) Verfahren und vorrichtung für bessere standortentscheidungen auf grundlage der umgebung
DE112010005944T5 (de) Stereoskopische Dreidimensionen-Anzeigevorichtung
DE102019122266A1 (de) Systeme und Verfahren zur Parkverwaltung
DE102018112233B4 (de) Bereitstellung eines verkehrsspiegelinhalts für einen fahrer
DE102016212688A1 (de) Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs
DE112020001255T5 (de) Tiefes neurales netzwerk mit niedrigem leistungsverbrauch zur gleichzeitigen objekterkennung und semantischen segmentation in bildern auf einem mobilen rechengerät
DE102017212227A1 (de) Verfahren und System zur Fahrzeugdatensammlung und Fahrzeugsteuerung im Straßenverkehr
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
WO2020048718A1 (de) Konzept zum überwachen und planen einer bewegung eines fortbewegungsmittels
DE102021131820A1 (de) Zusammenführen von lidar-informationen und kamerainformationen
DE102019204939A1 (de) Verfahren und Vorrichtung zum Steuern eines Fahrzeuges durch einen Teleoperator
US11297371B1 (en) Vehicle video system
DE112019000515T5 (de) Steuervorrichtung, steuerverfahren, programm, und mobiles objekt
DE102016119729A1 (de) Steuern eines Personenbeförderungsfahrzeugs mit Rundumsichtkamerasystem
DE112018003025T5 (de) Bildgebungssystem für ein fahrzeug, serversystem und bildgebungsverfahren für ein fahrzeug
DE102022126407A1 (de) Verfahren und vorrichtungen für dynamische cloud-basierte fahrzeugentsendung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication