DE102022105155A1 - Vehicle and control device and procedures for operating the vehicle - Google Patents
Vehicle and control device and procedures for operating the vehicle Download PDFInfo
- Publication number
- DE102022105155A1 DE102022105155A1 DE102022105155.2A DE102022105155A DE102022105155A1 DE 102022105155 A1 DE102022105155 A1 DE 102022105155A1 DE 102022105155 A DE102022105155 A DE 102022105155A DE 102022105155 A1 DE102022105155 A1 DE 102022105155A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- control device
- representation
- dimensional
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000003190 augmentative effect Effects 0.000 claims abstract description 11
- 230000001133 acceleration Effects 0.000 claims description 20
- 238000013507 mapping Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Navigation (AREA)
Abstract
Steuerungsgerät (102) und Fahrzeug (100), das durch das Steuerungsgerät (102) mit erweiterter Realität ansteuerbar ist, wobei das Fahrzeug (100) und das Steuerungsgerät (102) ausgebildet sind ein Verfahren zum Bedienen des Fahrzeugs (100) mit dem Steuerungsgerät (102) auszuführen.Control device (102) and vehicle (100), which can be controlled by the control device (102) with augmented reality, the vehicle (100) and the control device (102) being designed a method for operating the vehicle (100) with the control device ( 102) to execute.
Description
Die Erfindung geht aus von einem Fahrzeug und einem Steuerungsgerät sowie einem Verfahren zum Bedienen des Fahrzeugs.The invention is based on a vehicle and a control device as well as a method for operating the vehicle.
Durch die Verfahren, das Steuerungsgerät und das Fahrzeug nach den unabhängigen Ansprüchen wird ein verbessertes Bedienkonzept erreicht.An improved operating concept is achieved by the method, the control device and the vehicle according to the independent claims.
Ein Verfahren zum Bedienen eines autonomen Fahrzeugs in einem Steuerungsgerät mit erweiterter Realität sieht vor, dass eine Repräsentation einer Umgebung des Steuerungsgeräts mit wenigstens einem Sensor des Steuerungsgeräts erfasst wird, eine, mit wenigstens einem Sensor des Fahrzeugs erfasste Repräsentation einer Umgebung des Fahrzeugs bereitgestellt wird, dreidimensionale Koordinaten einer dreidimensionalen Kartenrepräsentation der Umgebung des autonomen Fahrzeugs, insbesondere eine Punktewolke oder ein Netz, abhängig von der Repräsentation der Umgebung des Steuerungsgeräts und der Repräsentation der Umgebung des Fahrzeugs insbesondere mit einer kollaborativen, simultanen Positionsbestimmung und Kartierung durch das Steuerungsgerät und das autonome Fahrzeug bestimmt wird, auf Basis derer mit einer semantischen Segmentierung der dreidimensionalen Koordinaten vom Fahrzeug befahrbare Flächen erkennbar sind, auf einer Anzeige des Steuerungsgeräts eine zweidimensionale Darstellung einer Umgebung des autonomen Fahrzeugs dargestellt wird, und entweder eine Nutzereingabe erkannt wird, die in der zweidimensionalen Darstellung einem Punkt zugeordnet ist, der eine Zielposition für das autonome Fahrzeug repräsentiert, wobei der Punkt aus der zweidimensionalen Darstellung auf eine der dreidimensionalen Koordinaten der Kartenrepräsentation abgebildet wird, und wobei die dreidimensionale Koordinate zur Ansteuerung des Fahrzeugs insbesondere mit einem Kommunikationsmodul des Steuerungsgeräts an das Fahrzeug gesendet wird, oder eine Nutzereingabe erkannt wird, die in der zweidimensionalen Darstellung einer Menge von Punkten zugeordnet ist, die eine Trajektorie repräsentieren, auf der sich das autonome Fahrzeugbewegen soll, wobei wenigstens ein Punkt aus der Menge aus der zweidimensionalen Darstellung auf eine der dreidimensionalen Koordinaten der Kartenrepräsentation abgebildet wird, und wobei die dreidimensionale Koordinate zur Ansteuerung des Fahrzeugs insbesondere mit einem Kommunikationsmodul des Steuerungsgeräts an das Fahrzeug gesendet wird.A method for operating an autonomous vehicle in a control device with augmented reality provides that a representation of an environment of the control device is captured with at least one sensor of the control device, a representation of an environment of the vehicle captured with at least one sensor of the vehicle is provided, three-dimensional Coordinates of a three-dimensional map representation of the environment of the autonomous vehicle, in particular a point cloud or a network, is determined depending on the representation of the environment of the control device and the representation of the environment of the vehicle, in particular with a collaborative, simultaneous position determination and mapping by the control device and the autonomous vehicle , on the basis of which surfaces that can be driven on by the vehicle can be identified with a semantic segmentation of the three-dimensional coordinates, a two-dimensional representation of an environment of the autonomous vehicle is shown on a display of the control device, and either a user input is recognized which is assigned to a point in the two-dimensional representation , which represents a target position for the autonomous vehicle, the point from the two-dimensional representation being mapped onto one of the three-dimensional coordinates of the map representation, and the three-dimensional coordinate for controlling the vehicle being sent to the vehicle in particular with a communication module of the control device, or a User input is recognized, which is assigned to a set of points in the two-dimensional representation, which represent a trajectory on which the autonomous vehicle is to move, wherein at least one point from the set from the two-dimensional representation is mapped to one of the three-dimensional coordinates of the map representation, and wherein the three-dimensional coordinate for controlling the vehicle is sent to the vehicle in particular with a communication module of the control device.
Vorzugsweise werden dreidimensionale Koordinaten einer vom Fahrzeug geplanten Trajektorie insbesondere vom Fahrzeug empfangen, wobei die dreidimensionalen Koordinaten auf Punkte der zweidimensionalen Darstellung der Umgebung des Fahrzeugs abgebildet werden, die die Trajektorie repräsentieren, wobei die zweidimensionale Darstellung auf der Anzeige des Steuerungsgeräts angezeigt wird, wobei die Trajektorie der zweidimensionalen Darstellung überlagert auf der Anzeige des Steuerungsgeräts angezeigt wird.Preferably, three-dimensional coordinates of a trajectory planned by the vehicle are received in particular by the vehicle, the three-dimensional coordinates being mapped to points in the two-dimensional representation of the area surrounding the vehicle, which represent the trajectory, the two-dimensional representation being displayed on the display of the control device, the trajectory superimposed on the two-dimensional representation on the display of the control device.
Vorzugsweise umfasst der wenigstens eine Sensor eine Kamera, wobei mit der Kamera ein digitales Bild erfasst wird, und wobei die Repräsentation der Umgebung des Steuerungsgeräts abhängig von dem digitalen Bild bestimmt wird. Die Pixel des digitalen Bildes repräsentieren die Umgebung des Steuerungsgeräts besonders gut.The at least one sensor preferably includes a camera, with the camera capturing a digital image, and with the representation of the environment of the control device being determined as a function of the digital image. The pixels of the digital image represent the surroundings of the control device particularly well.
Vorzugsweise ist der wenigstens eine Sensor des Steuerungsgeräts ausgebildet, eine Beschleunigung und/oder eine Geschwindigkeit und/oder eine Lage des Steuerungsgeräts zu erfassen, wobei eine Position des Steuerungsgeräts in der dreidimensionalen Kartenrepräsentation und/oder die dreidimensionalen Koordinaten der dreidimensionalen Kartenrepräsentation abhängig von der Beschleunigung und/oder der Geschwindigkeit und/oder der Lage des Steuerungsgeräts bestimmt wird. Dies verbessert die Genauigkeit der Zuordnung von Pixel des digitalen Bildes zu den dreidimensionalen Koordinaten der Kartenrepräsentation.The at least one sensor of the control device is preferably designed to detect an acceleration and/or a speed and/or a position of the control device, with a position of the control device in the three-dimensional map representation and/or the three-dimensional coordinates of the three-dimensional map representation depending on the acceleration and /or the speed and/or the position of the control device is determined. This improves the accuracy of mapping pixels of the digital image to the three-dimensional coordinates of the map representation.
Ein Verfahren zum Bedienen eines autonomen Fahrzeugs im Fahrzeug sieht vor, dass eine, mit wenigstens einem Sensor eines Steuerungsgeräts für das Fahrzeug erfasste Repräsentation einer Umgebung des Steuergeräts bereitgestellt wird, eine Repräsentation einer Umgebung des Fahrzeugs mit wenigstens einem Sensor des Fahrzeugs erfasst wird, dreidimensionale Koordinaten einer dreidimensionalen Kartenrepräsentation der Umgebung des autonomen Fahrzeugs, insbesondere eine Punktewolke oder ein Netz, abhängig von der Repräsentation der Umgebung des Steuerungsgeräts und der Repräsentation der Umgebung des Fahrzeugs insbesondere mit einer kollaborativen, simultanen Positionsbestimmung und Kartierung durch das Steuerungsgerät und das autonome Fahrzeug bestimmt wird, mit einer semantischen Segmentierung der dreidimensionalen Koordinaten vom Fahrzeug befahrbare Flächen erkannt werden, eine der dreidimensionalen Koordinaten insbesondere vom Steuerungsgerät empfangen wird, die einem Punkt zugeordnet ist, der auf einer Anzeige des Steuerungsgeräts in einer zweidimensionalen Darstellung einer Umgebung des autonomen Fahrzeugs eine Zielposition für das autonome Fahrzeug repräsentiert, wobei abhängig von der dreidimensionalen Koordinate und den befahrbaren Flächen insbesondere in einem Steuergerät des Fahrzeugs eine Trajektorie zur Ansteuerung des Fahrzeugs zum Erreichen der Zielposition bestimmt wird, und eine Motorik des Fahrzeugs abhängig von der Trajektorie zum Bewegen des Fahrzeugs auf der Trajektorie zum Erreichen der Zielposition angesteuert wird, oder wenigstens eine der dreidimensionalen Koordinaten insbesondere vom Steuerungsgerät empfangen wird, die einem Punkt einer Menge von Punkten zugeordnet ist, die auf einer Anzeige des Steuerungsgeräts in einer zweidimensionalen Darstellung einer Umgebung des autonomen Fahrzeugs eine Trajektorie für das autonome Fahrzeug repräsentieren, wobei abhängig von der dreidimensionalen Koordinate und den befahrbaren Flächen insbesondere in einem Steuergerät des Fahrzeugs eine Trajektorie zur Ansteuerung des Fahrzeugs zum Erreichen der Zielposition bestimmt wird, und eine Motorik des Fahrzeugs abhängig von der Trajektorie zum Bewegen des Fahrzeugs auf der Trajektorie zum Erreichen der Zielposition angesteuert wird.A method for operating an autonomous vehicle in the vehicle provides that a representation of an environment of the control unit captured with at least one sensor of a control device for the vehicle is provided, a representation of an environment of the vehicle is captured with at least one sensor of the vehicle, three-dimensional coordinates a three-dimensional map representation of the surroundings of the autonomous vehicle, in particular a point cloud or a network, is determined depending on the representation of the surroundings of the control device and the representation of the surroundings of the vehicle, in particular with a collaborative, simultaneous position determination and mapping by the control device and the autonomous vehicle, with a semantic segmentation of the three-dimensional coordinates areas that can be driven on by the vehicle are recognized, one of the three-dimensional coordinates is received in particular by the control device, which is assigned to a point which, on a display of the control device in a two-dimensional representation of an environment of the autonomous vehicle, is a target position for the autonomous vehicle Vehicle represents, depending on the three-dimensional coordinate and the trafficable areas in particular in a control unit of the vehicle Tra jectory for controlling the vehicle to reach the target position is determined, and a motor system of the vehicle is controlled depending on the trajectory for moving the vehicle on the trajectory to reach the target position, or at least one of the three-dimensional coordinates is received in particular from the control device, which is a point is assigned to a set of points that represent a trajectory for the autonomous vehicle on a display of the control device in a two-dimensional representation of an area surrounding the autonomous vehicle, with a trajectory for activation depending on the three-dimensional coordinate and the surfaces that can be driven on, in particular in a control unit of the vehicle of the vehicle to reach the target position is determined, and a motor system of the vehicle is controlled depending on the trajectory for moving the vehicle on the trajectory to reach the target position.
Vorzugsweise werden dreidimensionale Koordinaten der vom Fahrzeug geplanten Trajektorie insbesondere mit einem Kommunikationsmodul des Fahrzeugs an das Steuerungsgerät gesendet. Dadurch ist die geplante Route in der Anzeige im Steuerungsgerät überlagert darstellbar.Three-dimensional coordinates of the trajectory planned by the vehicle are preferably sent to the control device, in particular using a communication module in the vehicle. As a result, the planned route can be superimposed on the display in the control device.
Vorzugsweise umfasst der wenigstens eine Sensor eine Kamera, wobei mit der Kamera ein digitales Bild erfasst wird, und wobei die Repräsentation der Umgebung des Fahrzeugs abhängig vom digitalen Bild bestimmt wird. Die Pixel des digitalen Bildes repräsentieren die Umgebung des Fahrzeugs besonders gut.The at least one sensor preferably includes a camera, with the camera capturing a digital image and with the representation of the surroundings of the vehicle being determined as a function of the digital image. The pixels of the digital image represent the surroundings of the vehicle particularly well.
Vorzugsweise ist der wenigstens eine Sensor des Fahrzeugs ausgebildet, eine Beschleunigung und/oder eine Geschwindigkeit und/oder eine Lage des Fahrzeugs zu erfassen, wobei eine Position des Fahrzeugs in der dreidimensionalen Kartenrepräsentation und/oder die dreidimensionalen Koordinaten der dreidimensionalen Kartenrepräsentation abhängig von der Beschleunigung und/oder der Geschwindigkeit und/oder der Lage des Fahrzeugs bestimmt wird. Dies verbessert die Genauigkeit der Zuordnung von Pixel des digitalen Bildes zu den dreidimensionalen Koordinaten der Kartenrepräsentation.The at least one sensor of the vehicle is preferably designed to detect an acceleration and/or a speed and/or a position of the vehicle, with a position of the vehicle in the three-dimensional map representation and/or the three-dimensional coordinates of the three-dimensional map representation depending on the acceleration and /or the speed and/or the position of the vehicle is determined. This improves the accuracy of mapping pixels of the digital image to the three-dimensional coordinates of the map representation.
Ein Steuerungsgerät zum Bedienen eines autonomen Fahrzeugs mit erweiterter Realität umfasst eine Anzeige, wenigstens einen Sensor und ein Kommunikationsmodul, wobei die Anzeige ausgebildet ist, eine zweidimensionale Darstellung einer Umgebung des Fahrzeugs anzuzeigen, wobei der wenigstens eine Sensor ausgebildet ist, eine zweidimensionale Darstellung einer Umgebung des Steuerungsgeräts zu erfassen, wobei das Kommunikationsmodul ausgebildet ist, mit einem korrespondierenden Kommunikationsmodul des Fahrzeugs zu kommunizieren, wobei die Anzeige, der wenigstens eine Sensor und das Kommunikationsmodul ausgebildet sind, Schritte im Verfahren auszuführen.A control device for operating an autonomous vehicle with augmented reality comprises a display, at least one sensor and a communication module, the display being designed to display a two-dimensional representation of an environment of the vehicle, the at least one sensor being designed to display a two-dimensional representation of an environment of the vehicle To detect control device, wherein the communication module is designed to communicate with a corresponding communication module of the vehicle, wherein the display, the at least one sensor and the communication module are designed to perform steps in the method.
Der wenigstens eine Sensor umfasst vorzugsweise eine Kamera oder ist ausgebildet, eine Beschleunigung und/oder eine Geschwindigkeit und/oder eine Lage des Steuerungsgeräts zu erfassen.The at least one sensor preferably includes a camera or is designed to detect an acceleration and/or a speed and/or a position of the control device.
Ein Fahrzeug, das durch ein Steuerungsgeräts mit erweiterter Realität ansteuerbar ist, umfasst ein Steuergerät, eine Motorik, wenigstens einen Sensor und ein Kommunikationsmodul, wobei der wenigstens eine Sensor ausgebildet ist, eine zweidimensionale Darstellung einer Umgebung des Fahrzeugs zu erfassen, wobei das Steuergerät, das Kommunikationsmodul, und der wenigstens eine Sensor ausgebildet sind, Schritte im Verfahren zum Bestimmen einer Trajektorie auszuführen, wobei das Steuergerätausgebildet ist, die Motorik dazu anzusteuern, das Fahrzeugentlang der Trajektorie zu bewegen.A vehicle that can be controlled by a control device with augmented reality comprises a control unit, a motor system, at least one sensor and a communication module, with the at least one sensor being designed to capture a two-dimensional representation of an area surrounding the vehicle, with the control unit, the Communication module, and the at least one sensor are designed to perform steps in the method for determining a trajectory, wherein the control unit is designed to control the motor system to move the vehicle along the trajectory.
Der wenigstens eine Sensor umfasst vorzugsweise eine Kamera oder ist ausgebildet, eine Beschleunigung und/oder eine Geschwindigkeit und/oder eine Lage des Fahrzeugs zu erfassen.The at least one sensor preferably includes a camera or is designed to detect an acceleration and/or a speed and/or a position of the vehicle.
Weitere vorteilhafte Ausführungsformen sind der folgenden Beschreibung und der Zeichnung entnehmbar. In der Zeichnung zeigt:
-
1 eine schematische Darstellung eines Fahrzeugs und eines Steuerungsgeräts dafür, -
2 ein Sequenzdiagramm eines Verfahrens zum Bedienen des Fahrzeugs.
-
1 a schematic representation of a vehicle and a control device for it, -
2 a sequence diagram of a method for operating the vehicle.
In
Das Fahrzeug 100 ist durch das Steuerungsgerät 102 mit erweiterter Realität ansteuerbar. Erweiterte Realität bedeutet beispielsweise, dass ein digitales Bild, das von einer Kamera aufgenommen wird, mit berechneter Zusatzinformation überlagert dargestellt wird oder dass eine Nutzereingabe mit der der Nutzer eine Pixel oder mehrere Pixel des digitalen Bildes auswählt, erfasst wird. Das digitale Bild repräsentiert vorzugsweise ein Szenario, dass sich in dem Moment, in dem der Nutzer über die Auswahl entscheidet und/oder die Nutzereingabe eingibt, in der realen Welt stattfindet. Statt das Szenario durch das aufgenommene digitale Bild selbst darzustellen, kann auch eine andere zweidimensionale Darstellung des Szenarios vorgesehen sein, insbesondere eine aus verschiedenen, dasselbe Szenario zur im Wesentlichen selben Zeit repräsentierenden, digitalen Bildern errechnete perspektivische Ansicht oder Aufsicht auf das Szenario. Die Nutzereingabe wird beispielsweise dadurch ermöglicht, dass ein Pixel des digitalen Bildes in Reaktion auf die Nutzereingabe als Punkt bestimmt wird, wobei das Pixel erkannt wird, das ein Nutzer durch Antippen des digitalen Bildes auf einer berührungsempfindlichen Anzeige während das digitale Bild angezeigt wird, auswählt.The
Das Fahrzeug 100 umfasst ein Steuergerät 104, eine Motorik 106, wenigstens eine Kamera 108, wenigstens einen Sensor 110, der ausgebildet ist eine Beschleunigung des Fahrzeugs 100 zu erfassen, wenigstens einen Sensor 112, der ausgebildet ist eine Geschwindigkeit des Fahrzeugs 100 zu erfassen, wenigstens einen Sensor 114, der ausgebildet ist eine Lage des Fahrzeugs 100 zu erfassen.
Die Kamera 108 ist ausgebildet, ein digitales Bild der Umgebung des Fahrzeugs 100 zu erfassen. Das bedeutet, das Fahrzeug 100 umfasst wenigstens einen Sensor, der ausgebildet ist, eine zweidimensionale Darstellung einer Umgebung des Fahrzeugs 100 zu erfassen.Camera 108 is designed to capture a digital image of the surroundings of
Das Steuergerät 104 ist ausgebildet, abhängig vom digitale Bild der Umgebung des Fahrzeugs eine Repräsentation einer Umgebung des Fahrzeugs zu bestimmen.
Das Fahrzeug 100 umfasst ein Kommunikationsmodul 116, das ausgebildet ist, mit dem Steuerungsgerät 102 zu kommunizieren.
Das Steuergerät 104, das Kommunikationsmodul 116 und der wenigstens eine Sensor sind ausgebildet, Schritte in einem im folgenden beschriebenen Verfahren zum Bestimmen einer Trajektorie auszuführen, auf der sich das Fahrzeug 100 insbesondere autonom bewegen soll.
Das Steuergerät 104 ist ausgebildet, die Motorik 106 dazu anzusteuern, das Fahrzeug 100 insbesondere autonom entlang der Trajektorie zu bewegen.
Das Steuerungsgerät 102 zum Bedienen des autonomen Fahrzeugs 100 mit erweiterter Realität umfasst eine Anzeige 118, wenigstens eine Kamera 120, wenigstens einen Sensor 122 zum Erfassen einer Beschleunigung des Steuerungsgeräts 102, wenigstens einen Sensor 124 zum Erfassen einer Geschwindigkeit des Steuerungsgeräts 102 und wenigstens einen Sensor 126 zum Erfassen einer Lage des Steuerungsgeräts 102.
Die Kamera 120 ist ausgebildet, ein digitales Bild einer Umgebung des Steuerungsgeräts 102 zu erfassen. Das bedeutet, das Steuerungsgerät 102 umfasst wenigstens einen Sensor, der ausgebildet ist, eine zweidimensionale Darstellung einer Umgebung des Steuerungsgeräts 102 zu erfassen.The
Das Steuerungsgerät 102 umfasst ein Kommunikationsmodul 128, das ausgebildet ist, mit dem Fahrzeug 100 zu kommunizieren.
Die Anzeige 118 ist ausgebildet, eine zweidimensionale Darstellung einer Umgebung des Fahrzeugs 100 anzuzeigen. Im Beispiel wird das Fahrzeug 100 selbst in der Anzeige 118 mit dargestellt. Es kann auch vorgesehen sein, dass eine Sicht aus dem Fahrzeug 100 auf seine Umgebung dargestellt wird.The
Das Steuergerät 104 ist ausgebildet, mit der Motorik 106 den Sensoren 108, 110, 112, 114 und dem Kommunikationsmodul 116 über eine Datenverbindung 134 zu kommunizieren.
Die Anzeige 118, der wenigstens eine Sensor und das Kommunikationsmodul 116 sind ausgebildet, Schritte in dem im Folgenden beschriebenen Verfahren auszuführen.The
Die Anzeige 118 ist in einem Beispiel ausgebildet, eine Nutzereingabe zu erkennen, die in der zweidimensionalen Darstellung einem Punkt 130 zugeordnet ist, der eine Zielposition für das autonome Fahrzeug 100 repräsentiert.In one example, the
Die Anzeige 118 ist in einem Beispiel ausgebildet, eine Nutzereingabe zu erkennen, die in der zweidimensionalen Darstellung einer Menge von Punkten 132 zugeordnet ist, die eine Trajektorie repräsentieren, auf der sich das autonome Fahrzeug 100 bewegen soll.In one example, the
Das Steuerungsgerät 102 und das Fahrzeug 100 sind im Beispiel ausgebildet, dreidimensionale Koordinaten einer dreidimensionalen Kartenrepräsentation der Umgebung des autonomen Fahrzeugs 100 zu bestimmen.In the example, the
Die dreidimensionale Kartenrepräsentation umfasst beispielsweise eine Punktewolke der dreidimensionalen Koordinaten oder ein Netz durch das diese einander zugeordnet sind.The three-dimensional map representation includes, for example, a point cloud of the three-dimensional coordinates or a network through which these are associated with one another.
Das Steuerungsgerät 102 und das Fahrzeug 100 sind im Beispiel ausgebildet, die dreidimensionalen Kartenrepräsentation abhängig von der Repräsentation der Umgebung des Steuerungsgeräts 102 und der Repräsentation der Umgebung des Fahrzeugs 100 mit einer kollaborativen, simultanen Positionsbestimmung und Kartierung zu bestimmen.In the example, the
Das Steuerungsgerät 102 umfasst wenigstens einen Prozessor 138.
Der Prozessor 138 ist beispielsweise ausgebildet, den Punkt 130 aus der zweidimensionalen Darstellung auf eine der dreidimensionalen Koordinaten der Kartenrepräsentation abzubilden. Das Kommunikationsmodul 128 ist zum Beispiel ausgebildet, die dreidimensionale Koordinate zur Ansteuerung des Fahrzeugs 100 an das Fahrzeug 100 zu senden.The
Der Prozessor 138 ist beispielsweise ausgebildet wenigstens einen Punkt aus der Menge 132 aus der zweidimensionalen Darstellung auf eine der dreidimensionalen Koordinaten der Kartenrepräsentation abzubilden.The
Das Kommunikationsmodul 128 ist zum Beispiel ausgebildet, die dreidimensionale Koordinate zur Ansteuerung des Fahrzeugs 100 in an das Fahrzeug 100 zu senden.The communication module 128 is designed, for example, to send the three-dimensional coordinates to the
Das Kommunikationsmodul 128 ist im Beispiel ausgebildet, mit dem korrespondierenden Kommunikationsmodul 116 des Fahrzeugs 100 über eine Kommunikationsverbindung 136 zu kommunizieren. Prozessor 138 ist im Beispiel ausgebildet, mit den Sensoren 120, 122, 124, 126 und dem Kommunikationsmodul 128 über eine Datenverbindung 140 zu kommunizierenIn the example, the communication module 128 is designed to communicate with the
Das Verfahren zum Bedienen des autonomen Fahrzeugs 100 läuft im Beispiel teilweise im Steuerungsgerät 102 mit erweiterter Realität und teilweise im Fahrzeug 100 ab.In the example, the method for operating the
In einem Schritt 200 wird eine Repräsentation einer Umgebung des Steuerungsgeräts 102 mit wenigstens einem Sensor 120, 122, 124, 126 des Steuerungsgeräts 102 erfasst.In a
In einem Schritt 202 wird mit wenigstens einem Sensor 108, 110, 112, 114 des Fahrzeugs 100 eine Repräsentation einer Umgebung des Fahrzeugs 100 erfasst. Beispielsweise wird mit der Kamera 120 ein digitales Bild erfasst.In a
Es kann vorgesehen sein, dass eine Beschleunigung und/oder eine Geschwindigkeit und/oder eine Lage des Steuerungsgeräts 102 erfasst wird.Provision can be made for an acceleration and/or a speed and/or a position of the
In einem Schritt 204 werden die Repräsentation der Umgebung des Fahrzeugs 100 dem Steuerungsgerät 102 und/oder die Repräsentation der Umgebung des Steuerungsgeräts 102 dem Fahrzeug 102 bereitgestellt.In a
Im Beispiel werden diese Schritte als Teile einer kollaborativen, simultanen Positionsbestimmung und Kartierung 206 durch das Steuerungsgerät 102 und das autonome Fahrzeug 100 wiederholt ausgeführt. Beispielsweise wird die Repräsentation der Umgebung des Steuerungsgeräts 102 abhängig von dem digitalen Bild bestimmt. Es kann vorgesehen sein, dass eine Position des Steuerungsgeräts 102 in der dreidimensionalen Kartenrepräsentation und/oder die dreidimensionalen Koordinaten der dreidimensionalen Kartenrepräsentation abhängig von der Beschleunigung und/oder der Geschwindigkeit und/oder der Lage des Steuerungsgeräts 102 bestimmt wird.In the example, these steps are repeatedly executed as parts of a collaborative, simultaneous position determination and
Es kann vorgesehen sein, dass eine Beschleunigung und/oder eine Geschwindigkeit und/oder eine Lage des Fahrzeugs 100 erfasst wird. Es kann vorgesehen sein, dass eine Position des Fahrzeugs 100 in der dreidimensionalen Kartenrepräsentation und/oder die dreidimensionalen Koordinaten der dreidimensionalen Kartenrepräsentation abhängig von der Beschleunigung und/oder der Geschwindigkeit und/oder der Lage des Fahrzeugs 100 bestimmt wird.Provision can be made for an acceleration and/or a speed and/or a position of the
Im Verfahren werden die dreidimensionale Koordinaten der dreidimensionalen Kartenrepräsentation der Umgebung des autonomen Fahrzeugs 100 abhängig von der Repräsentation der Umgebung des Steuerungsgeräts 102 und der Repräsentation der Umgebung des Fahrzeugs 100 bestimmt. Es kann vorgesehen sein, dass die dreidimensionalen Koordinaten abhängig von der Beschleunigung und/oder der Geschwindigkeit und/oder der Lage und/oder der Position des Fahrzeugs 100 insbesondere zu einem Zeitpunkt zu dem vom wenigstens einen Sensor Daten erfasst wurden, die für die Bestimmung der Repräsentation der Umgebung des Steuerungsgeräts 102 verwendet werden, bestimmt wird. Es kann vorgesehen sein, dass die dreidimensionalen Koordinaten abhängig von der Beschleunigung und/oder der Geschwindigkeit und/oder der Lage und/oder der Position des Steuerungsgeräts 102 insbesondere zu einem Zeitpunkt zu dem vom wenigstens einen Sensor die Daten erfasst wurden, die für die Bestimmung der Repräsentation der Umgebung des Steuerungsgeräts 102 verwendet werden, bestimmt wird.In the method, the three-dimensional coordinates of the three-dimensional map representation of the area surrounding
In einem Schritt 208 werden auf Basis der dreidimensionalen Koordinaten oder der dreidimensionalen Kartenrepräsentation mit einer semantischen Segmentierung der dreidimensionalen Koordinaten vom Fahrzeug 100 befahrbare Flächen bestimmt.In a
In einem Schritt 210 wird auf der Anzeige 118 des Steuerungsgeräts 102 eine zweidimensionale Darstellung einer Umgebung des autonomen Fahrzeugs 100 dargestellt. Das bedeutet, die zweidimensionale Darstellung wird auf der Anzeige 118 des Steuerungsgeräts 102 angezeigt.In a
In einem Schritt 212 wird eine Nutzereingabe erkannt.In a
In einem ersten Beispiel wird die Nutzereingabe erkannt, die in der zweidimensionalen Darstellung dem Punkt 130 zugeordnet ist, der die Zielposition für das autonome Fahrzeug 100 repräsentiert.In a first example, the user input associated with the
In einem zweiten Beispiel wird die Nutzereingabe erkannt, die in der zweidimensionalen Darstellung einer Menge von Punkten 132 zugeordnet ist, die die Trajektorie repräsentieren, auf der sich das autonome Fahrzeug 100 bewegen soll.In a second example, the user input is recognized, which is associated in the two-dimensional representation with a set of
Anschließend wird ein Schritt 214 ausgeführt.A
Im Schritt 214 wird im ersten Beispiel der Punkt 130 aus der zweidimensionalen Darstellung auf eine der dreidimensionalen Koordinaten der Kartenrepräsentation abgebildet. Dazu wird z.B. Raycasting eingesetzt.In
Im Schritt 214 wird im zweiten Beispiel wenigstens ein Punkt aus der Menge 132 aus der zweidimensionalen Darstellung auf eine der dreidimensionalen Koordinaten der Kartenrepräsentation abgebildet.In
Anschließend wird ein Schritt 216 ausgeführt.A
Im Schritt 216 wird wenigstens eine dreidimensionale Koordinate zur Ansteuerung des Fahrzeugs 100 an das Fahrzeug 100 gesendet.In
Im ersten Beispiel wird die dreidimensionale Koordinate gesendet, die dem Punkt 130 zugeordnet ist, der auf einer Anzeige des Steuerungsgeräts 102 in der zweidimensionalen Darstellung der Umgebung des autonomen Fahrzeugs 100 die Zielposition für das autonome Fahrzeug 100 repräsentiert.In the first example, the three-dimensional coordinate assigned to the
Im zweiten Beispiel wird zumindest eine der dreidimensionalen Koordinaten gesendet, die einem der Punkte aus der Menge von Punkten 132 zugeordnet ist. In the second example, at least one of the three-dimensional coordinates associated with one of the points from the set of
Im zweiten Beispiel kann vorgesehen sein, die dreidimensionalen Koordinaten mehrerer oder aller Punkte der Menge der Punkte 132 zu bestimmen und zur Ansteuerung des Fahrzeugs 100 an das Fahrzeug 100 zu senden. Das bedeutet, die vom Nutzer gewünschte Trajektorie wird teilweise oder ganz übertragen.In the second example, it can be provided that the three-dimensional coordinates of several or all points of the set of
Anschließend wird ein Schritt 218 ausgeführt.A
Im Schritt 218 wird die Trajektorie zur Ansteuerung des Fahrzeugs 100 zum Erreichen der Zielposition abhängig von der dreidimensionalen Koordinate und den befahrbaren Flächen insbesondere im Steuergerät 104 des Fahrzeugs 100 bestimmt.In
Im zweiten Beispiel kann vorgesehen sein, dass die Trajektorie abhängig von den übertragenen der dreidimensionalen Koordinaten der vom Nutzer gewünschte Trajektorie und den befahrbaren Flächen bestimmt wird.In the second example, it can be provided that the trajectory is determined as a function of the transmitted three-dimensional coordinates of the trajectory desired by the user and the surfaces that can be driven on.
In einem Schritt 220 werden dreidimensionale Koordinaten der vom Fahrzeug 100 geplanten Trajektorie zum Erreichen des Zielpunkts vom Fahrzeug 100 an das Steuerungsgerät 102 übertragen. Im Beispiel werden dreidimensionale Koordinaten der vom Fahrzeug 100 geplanten Trajektorie insbesondere mit dem Kommunikationsmodul 116 des Fahrzeugs 100 an das Steuerungsgerät 102 gesendet.In a
In einem Schritt 222 werden die dreidimensionalen Koordinaten auf Punkte der zweidimensionalen Darstellung der Umgebung des Fahrzeugs 100 abgebildet, die die Trajektorie repräsentieren.In a
In einem Schritt 224 wird die Trajektorie der zweidimensionalen Darstellung wird überlagert auf der Anzeige 118 des Steuerungsgeräts 102 angezeigt.In a
In einem Schritt 226 wird die Motorik 106 des Fahrzeugs 100 abhängig von der Trajektorie zum Bewegen des Fahrzeugs 100 auf der Trajektorie zum Erreichen der Zielposition angesteuert.In a
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 20190220002 A1 [0002]US20190220002A1[0002]
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022105155.2A DE102022105155A1 (en) | 2022-03-04 | 2022-03-04 | Vehicle and control device and procedures for operating the vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022105155.2A DE102022105155A1 (en) | 2022-03-04 | 2022-03-04 | Vehicle and control device and procedures for operating the vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022105155A1 true DE102022105155A1 (en) | 2023-09-07 |
Family
ID=87572299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022105155.2A Pending DE102022105155A1 (en) | 2022-03-04 | 2022-03-04 | Vehicle and control device and procedures for operating the vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022105155A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190220002A1 (en) | 2016-08-18 | 2019-07-18 | SZ DJI Technology Co., Ltd. | Systems and methods for augmented stereoscopic display |
-
2022
- 2022-03-04 DE DE102022105155.2A patent/DE102022105155A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190220002A1 (en) | 2016-08-18 | 2019-07-18 | SZ DJI Technology Co., Ltd. | Systems and methods for augmented stereoscopic display |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018215826B4 (en) | Robot system and workpiece gripping method | |
DE102016211182A1 (en) | A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map | |
CN109358614A (en) | Automatic Pilot method, system, device and readable storage medium storing program for executing | |
DE102019211681B4 (en) | Method of a vehicle for automated parking | |
DE112008003424B4 (en) | Navigation device using video images from a camera | |
DE102012219280A1 (en) | Driver assistance system for motor car, has evaluating device selecting and displaying information of objects located outside of vehicle through display device in response to detected eye and pointing gesture of hand and/or finger of person | |
EP2922384B1 (en) | Autonomous locomotion device | |
EP3380391A1 (en) | System for parking a vehicle | |
DE102014008152A1 (en) | Method and device for augmented presentation of at least one additional information in at least one image of an environment | |
DE102019208788A1 (en) | Motor vehicle | |
DE102016201389A1 (en) | Method for recognizing objects, in particular of three-dimensional objects | |
EP2813999A2 (en) | Augmented reality system and method of generating and displaying augmented reality object representations for a vehicle | |
DE102022105155A1 (en) | Vehicle and control device and procedures for operating the vehicle | |
DE102021203589A1 (en) | Method and control device for recognizing a driving style | |
DE102021203588A1 (en) | Method and controller for estimating a behavior of a system | |
DE102018006824A1 (en) | Method for assisting a passenger and vehicle with a device for carrying out the method | |
DE102022001569A1 (en) | Method for detecting and selecting a parking space | |
DE102021201774A1 (en) | Augmented Reality Recognition for the Localization of Autonomous Vehicles | |
EP3596428B1 (en) | Method and device for updating a digital map for vehicle navigation | |
CN109948656A (en) | A kind of information processing method, device and storage medium | |
DE102019208712A1 (en) | Method for displaying an identified vehicle in an environment and a mobile device for this purpose | |
DE102019104231B4 (en) | METHOD AND DEVICE FOR IMPROVING VEHICLE BEHAVIOR | |
DE102022201799B3 (en) | Method and control device for monitoring a working environment of a work machine and work machine | |
DE102019210758B4 (en) | Provision and transmission of position data of the surroundings of a motor vehicle | |
DE102018008973B4 (en) | Estimation device, driving assistance device, method and computer program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |