DE102020207488A1 - System und Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug - Google Patents

System und Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug Download PDF

Info

Publication number
DE102020207488A1
DE102020207488A1 DE102020207488.7A DE102020207488A DE102020207488A1 DE 102020207488 A1 DE102020207488 A1 DE 102020207488A1 DE 102020207488 A DE102020207488 A DE 102020207488A DE 102020207488 A1 DE102020207488 A1 DE 102020207488A1
Authority
DE
Germany
Prior art keywords
vehicle
passenger
information
interior image
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020207488.7A
Other languages
English (en)
Inventor
Eun Young Choi
Dong Il YANG
Jin Su Jeong
Ki Seok Seong
Min Sang YU
Hyeong Jin Ham
Rosali Sun Pyun
Pil Cheon Jang
Woo Jin Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Motors Corp filed Critical Hyundai Motor Co
Publication of DE102020207488A1 publication Critical patent/DE102020207488A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services
    • G06Q30/015Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
    • G06Q30/016After-sales
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G19/00Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups
    • G01G19/08Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups for incorporation in vehicles
    • G01G19/12Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups for incorporation in vehicles having electrical weight-sensitive devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/085Payment architectures involving remote charge determination or related payment systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/32Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
    • G06Q20/322Aspects of commerce using mobile devices [M-devices]
    • G06Q20/3224Transactions dependent on location of M-devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/32Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
    • G06Q20/327Short range or proximity payments by means of M-devices
    • G06Q20/3278RFID or NFC payments by means of M-devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4015Transaction verification using location information
    • G06Q20/40155Transaction verification using location information for triggering transactions
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • G07B15/02Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points taking into account a variable factor such as distance or time, e.g. for passenger transport, parking systems or car rental systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G19/00Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups
    • G01G19/40Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight
    • G01G19/413Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight using electromechanical or electronic computing means
    • G01G19/414Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight using electromechanical or electronic computing means using electronic computing means only
    • G01G19/4142Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight using electromechanical or electronic computing means using electronic computing means only for controlling activation of safety devices, e.g. airbag systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q2240/00Transportation facility access, e.g. fares, tolls or parking

Abstract

Ein System zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug und ein Server. Das Fahrzeug beinhaltet einen Sichtsensor, der eingerichtet ist, ein erstes Fahrzeuginnenraumbild bzw. ein zweites Fahrzeuginnenraumbild aufzunehmen, wenn ein Fahrgast in das Fahrzeug einsteigt und aus diesem aussteigt. Das Fahrzeug ist eingerichtet, das aufgenommene erste Fahrzeuginnenraumbild und zweite Fahrzeuginnenraumbild an den Server zu senden. Der Server ist eingerichtet, das erste Fahrzeuginnenraumbild mit dem zweiten Fahrzeuginnenraumbild zu vergleichen und Informationen über den verloren gegangenen Gegenstand an den Fahrgast zu senden, wenn der verloren gegangene Gegenstand in dem Fahrzeug sensiert wird.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft ein System und ein Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug.
  • HINTERGRUND
  • Im Zuge der Entwicklung eine Technologie zum autonomen Fahren kamen ein Shared-Mobility-Dienst wie beispielsweise ein Robotertaxi und ein Spezialfahrzeug (Purpose Built Vehicle, PBV) auf. Da der Shared-Mobility-Dienst eine große Anzahl nicht genau angegebener Einzelpersonen anspricht, ist der Schutz personenbezogener Informationen zu einem Problem geworden. Während der Dienstverrichtung eines Fahrzeugs, das möglicherweise von einer großen Anzahl nicht genau angegebener Einzelpersonen genutzt wird, wie etwa dem Robotertaxi oder dem PBV, kann das Fahrzeug unbemannt ohne gesonderten Administrator betrieben werden, obgleich die Verwaltung eines verloren gegangenen Gegenstands eines Insassen in dem Fahrzeug, Hygiene des Fahrzeugs und dergleichen notwendig ist.
  • DARSTELLUNG
  • Die vorliegende Offenbarung erfolgte in dem Bestreben, die vorgenannten aus dem Stand der Technik bekannten Probleme zu lösen und dabei Vorteile, die im Stand der Technik erzielt wurden, aufrechtzuhalten.
  • Ein Aspekt der vorliegenden Offenbarung stellt ein System und ein Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug bereit, die einen Innenraum des Fahrzeugs überwachen, damit Privatsphäre-Vorschriften bei der Bereitstellung eines „Shared-Mobility-Dienstes“ nicht verletzt werden, um den verloren gegangenen Gegenstand zu sensieren und Folgemaßnahmen für den sensierten, verloren gegangenen Gegenstand zu ergreifen.
  • Die durch den vorliegenden Erfindungsgedanken zu lösenden technischen Aufgaben sind nicht auf die vorgenannten Aufgaben beschränkt, und weitere technische Aufgaben, die hier nicht erwähnt werden, können von einem Fachmann auf dem Gebiet klar aus der nachfolgenden Beschreibung nachvollzogen werden.
  • Gemäß einem Aspekt der vorliegenden Offenbarung weist ein System zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug das Fahrzeug mit einem Sichtsensor, der eingerichtet ist, ein erstes Fahrzeuginnenraumbild bzw. ein zweites Fahrzeuginnenraumbild aufzunehmen, wenn ein Fahrgast in das Fahrzeug einsteigt und aus diesem aussteigt, und das aufgenommene erste Fahrzeuginnenraumbild und zweite Fahrzeuginnenraumbild an einen Server zu senden; und den Server auf, der eingerichtet ist, das erste Fahrzeuginnenraumbild mit dem zweiten Fahrzeuginnenraumbild zu vergleichen und Informationen über einen verloren gegangenen Gegenstand an ein Nutzerendgerät zu senden, das dem Fahrgast zugeordnet ist, wenn der verloren gegangene Gegenstand in dem Fahrzeug sensiert wird.
  • Das Fahrzeug kann eingerichtet sein, auf Grundlage dessen, ob der Fahrgast zugestimmt hat, einen Zeitpunkt vor dem Einsteigen oder nach dem Einsteigen als ersten Aufnahmezeitpunkt zu bestimmen, und einen Zeitpunkt nach dem Aussteigen oder vor dem Aussteigen als einen zweiten Aufnahmezeitpunkt zu bestimmen.
  • Das Fahrzeug kann eingerichtet sein, einen Bereich, der mit einem Einsteigestandort eines weiteren Fahrgasts übereinstimmt, in dem ersten Fahrzeuginnenraumbild in einem Zustand, bei dem der weitere Fahrgast eingestiegen ist, an dem ersten Aufnahmezeitpunkt zu verschleiern oder zu löschen.
  • Das Fahrzeug kann eingerichtet sein, einen Bereich, der mit einem Einsteigestandort eines weiteren Fahrgasts übereinstimmt, in dem zweiten Fahrzeuginnenraumbild in einem Zustand, bei dem der weitere Fahrgast in das Fahrzeug eingestiegen ist, an dem zweiten Aufnahmezeitpunkt zu verschleiern oder zu löschen.
  • Das Fahrzeug kann eingerichtet sein, auf Grundlage eines Fahrzeugstandorts zu bestimmen, ob das Fahrzeug an einem Rufort eingetroffen ist oder nicht.
  • Das Fahrzeug kann eingerichtet sein, zusätzlich auf Grundlage einer Fahrzeuggeschwindigkeit und/oder einer Bremszustandsinformation zu bestimmen, ob das Fahrzeug an dem Rufort eingetroffen ist.
  • Das Fahrzeug kann eingerichtet sein, einen Zeitpunkt vor dem Einsteigen des Fahrgastes auf Grundlage von Türzustandsinformationen zu bestimmen.
  • Das Fahrzeug kann eingerichtet sein, den Fahrgast auf Grundlage von Informationen zu sensieren, die von einem Gewichtssensor und/oder dem Sichtsensor und/oder einer Kamera und/oder einem Ultraschallsensor und/oder einem Radar bereitgestellt werden.
  • Das Fahrzeug kann eingerichtet sein, ein Dienstende des Fahrgastes auf Grundlage des Abschlusses einer Dienstgebührenzahlung und Insassenstandortinformationen zu bestimmen.
  • Das Fahrzeug kann eingerichtet sein, einen Zeitpunkt nach dem Aussteigen des Fahrgastes auf Grundlage von Türzustandsinformationen und/oder dem Signal eines externen Knopfs und/oder von Informationen, die von einem Gewichtssensor bereitgestellt werden, und/oder von Informationen, die von einem Ultraschallsensor bereitgestellt werden, und/oder von Informationen, die von einem Radar bereitgestellt werden, und/oder von Informationen, die von dem Sichtsensor bereitgestellt werden, zu bestimmen.
  • Der Server kann eingerichtet sein, die Informationen über den verloren gegangenen Gegenstand an einen Dienstbetreiber zu senden, wenn der verloren gegangene Gegenstand in dem Fahrzeug sensiert wird.
  • Bei dem verloren gegangenen Gegenstand in dem Fahrzeug kann es sich um Habseligkeiten des Fahrgastes und/oder Müll und/oder Abfall handeln.
  • Gemäß einem Aspekt der vorliegenden Offenbarung umfasst ein Verfahren zur Handhabung eines verloren gegangenen Gegenstand in einem autonomen Fahrzeug einen ersten Schritt des Empfangens, durch einen Server, eines ersten Fahrzeuginnenraumbilds und eines zweiten Fahrzeuginnenraumbilds, die jeweils durch einen Sichtsensor aufgenommen werden, wenn ein Fahrgast in das Fahrzeug einsteigt und aus diesem aussteigt, einen zweiten Schritt des Vergleichens, durch den Server, des ersten Fahrzeuginnenraumbilds mit dem zweiten Fahrzeuginnenraumbild, und um den verloren gegangenen Gegenstand in dem Fahrzeug zu sensieren; und einen dritten Schritt des Sendens, durch den Server, von Informationen über den verloren gegangenen Gegenstand an ein dem Fahrgast zugeordnetes Endgerät.
  • Der erste Schritt kann das Bestimmen eines Zeitpunkts vor dem Einsteigen oder nach dem Einsteigen als ersten Aufnahmezeitpunkt auf Grundlage dessen, ob der ob der Fahrgast zugestimmt hat, aufgenommen zu werden, und das Bestimmen eines Zeitpunkts nach dem Aussteigen oder vor dem Aussteigen als einen zweiten Aufnahmezeitpunkt auf Grundlage dessen, ob der Fahrgast zugestimmt hat, aufgenommen zu werden, umfassen.
  • Der erste Schritt kann ein Verschleiern oder Löschen eines Bereichs, der mit einem Einsteigestandort eines weiteren Fahrgastes übereinstimmt, in dem ersten Fahrzeuginnenraumbild umfassen, wenn der weitere Fahrgast an dem ersten Aufnahmezeitpunkt in dem Fahrzeug vorhanden ist.
  • Der erste Schritt kann ein Verschleiern oder Löschen eines Bereichs, der mit einem Einsteigestandort eines weiteren Fahrgastes übereinstimmt, in dem zweiten Fahrzeuginnenraumbild umfassen, in einem Zustand, bei dem der weitere Fahrgast an dem zweiten Aufnahmezeitpunkt in das Fahrzeug eingestiegen ist.
  • Der erste Schritt kann das Bestimmen, durch das Fahrzeug, auf Grundlage eines Fahrzeugstandorts umfassen, ob das Fahrzeug an einem Rufort eingetroffen ist.
  • Der erste Schritt kann ferner das Bestimmen, durch das Fahrzeug, auf Grundlage einer Fahrzeuggeschwindigkeit und/oder Bremszustandsinformationen umfassen, ob das Fahrzeug an dem Rufort eingetroffen ist.
  • Der erste Schritt kann das Sensieren, durch das Fahrzeug, eines Zeitpunkts vor dem Einsteigen des Fahrgastes auf Grundlage von Türzustandsinformationen umfassen.
  • Der erste Schritt kann das Sensieren, durch das Fahrzeug, des Fahrgastes auf Grundlage von Informationen, die von einem Gewichtssensor und/oder dem Sichtsensor und/oder einer Kamera und/oder einem Ultraschallsensor und/oder einem Radar bereitgestellt werden, umfassen.
  • Der erste Schritt kann das Bestimmen, durch das Fahrzeug, eines Dienstendes des Fahrgastes auf Grundlage des Abschlusses einer Dienstgebührenzahlung und Insassenstandortinformationen umfassen.
  • Der erste Schritt kann ferner das Sensieren, durch das Fahrzeug, eines Zeitpunkts nach dem Aussteigen des Fahrgastes basierend auf einer Türzustandsinformation und/oder einem Signal eines externen Knopfs und/oder Informationen, die von einem Gewichtssensor bereitgestellt werden, und/oder Informationen, die von einem Ultraschallsensor bereitgestellt werden, und/oder Informationen, die von einem Radar bereitgestellt werden, und/oder Informationen, die von dem Sichtsensor bereitgestellt werden, umfassen.
  • Der erste Schritt kann ferner das Senden, durch den Server, der Informationen über den verloren gegangenen Gegenstand an einen Dienstbetreiber umfassen, wenn der verloren gegangene Gegenstand in dem Fahrzeug sensiert wird.
  • Bei dem verloren gegangenen Gegenstand in dem Fahrzeug kann es sich um Habseligkeiten des Fahrgastes und/oder Müll und/oder Abfall handeln.
  • Figurenliste
  • Die obigen und weitere Aufgaben, Merkmale und Vorteile der vorliegenden Offenbarung werden aus der nachfolgenden ausführlichen Beschreibung in Zusammenschau mit den nachfolgenden Zeichnungen besser ersichtlich, in denen:
    • 1 ein Konfigurationsdiagramm ist, das ein System zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt;
    • 2 ein Blockdiagramm eines in 1 dargestellten Fahrzeugs ist;
    • 3 ein Ablaufdiagramm ist, das ein Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug gemäß einer Ausführungsform der vorliegenden Offenbarung veranschaulicht;
    • 4 und 5 beispielhafte Ansichten sind, um ein Verfahren zur Verarbeitung eines Bildes, das mit der vorliegenden Offenbarung in Beziehung steht, zu veranschaulichen; und
    • 6 ein Blockdiagramm ist, das ein Rechensystem veranschaulicht, welches ein Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug gemäß einer Ausführungsform der vorliegenden Offenbarung veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Nachfolgend werden einige Ausführungsformen der vorliegenden Offenbarung ausführlich unter Bezugnahme auf die beispielhaften Zeichnungen beschrieben. Wenn Bauteile jeder Zeichnung mit Bezugszeichen versehen werden, sei angemerkt, dass gleiche oder gleichwertige Bauteile mit identischen Bezugszeichen versehen sind, selbst wenn diese in anderen Zeichnungen auftauchen. Ferner entfällt bei der Beschreibung der Ausführungsform der vorliegenden Offenbarung eine ausführliche Beschreibung der Ausgestaltungen oder Funktionen der verwandten Technik, wenn festgestellt wird, dass dies das Verständnis der Ausführungsform der vorliegenden Offenbarung stört.
  • Bei der Beschreibung der Bauteile der vorliegenden Erfindung kann es sein, dass Begriffe wie erstes/zweites, A, B, (a), (b) und dergleichen verwendet werden. Diese Begriffe dienen lediglich der Unterscheidung der Bauteile voneinander, und die Begriffe beschränken nicht das Wesen, die Reihenfolge oder Abfolge der Bauteile. Falls nicht anderweitig definiert haben alle hier verwendeten Begriffe einschließlich technischer oder wissenschaftlicher Begriffe die gleiche Bedeutung, wie sie gemeinhin von einem Fachmann auf dem Gebiet verstanden werden würde. Es wird ferner angemerkt, dass Begriffe, wie jene, die in üblichen Lexika definiert sind, dahingehend interpretiert werden sollten, als dass sie eine Bedeutung haben, die mit ihrer Bedeutung im Kontext der relevanten Technik übereinstimmt und nicht in idealisierter oder übermäßig formaler Weise interpretiert werden, es sei denn, dies ist vorliegend ausdrücklich so definiert.
  • 1 ist ein Konfigurationsdiagramm, das das ein System zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt. Ferner ist 2 ein Blockdiagramm des in 1 dargestellten Fahrzeugs. Bei der vorliegenden Ausführungsform wird beispielhaft ein Fall beschrieben, bei dem ein Shared-Mobility-Dienst mithilfe eines autonomen Fahrzeugs bereitgestellt wird (beispielsweise eines Robotertaxis, eines PBV oder dergleichen).
  • Ein System zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug umfasst ein Nutzerendgerät 100, ein Fahrzeug 200 und einen Server 300.
  • Das Nutzerendgerät 100 ist eine Vorrichtung, die im Besitz eines Nutzers (beispielsweise eine Person, die einsteigen soll, eine Person, die eine Reservierung getätigt hat, ein Fahrgast, ein Besitzer und ein Insasse) ist und die zu kabelloser oder kabelgebundener Kommunikation in der Lage ist. Das Nutzerendgerät 100 kann als Vorrichtung verwirklicht sein, etwa als Smartphone, als Tablet, als persönlicher digitaler Assistent (PDA), als tragbarer Multimedia-Player (PMP) oder als Laptop-Computer. Obgleich in den Zeichnungen nicht gezeigt, beinhaltet ein solches Nutzerendgerät 100 ein Kommunikationsmodul, ein Nutzereingabemodul, ein Ausgabemodul, einen Prozessor und einen Speicher.
  • Das Nutzerendgerät 100 kann eine Reservierung zur Nutzung des Shared-Mobility-Dienst , also der Nutzung eines „Shared Vehicle“, auf dem Server 300 durch spezifische Software oder eine von einem Dienstanbieter bereitgestellte Anwendung vornehmen. Das bedeutet, das Nutzerendgerät 100 fordert eine Einstiegsreservierung (ein Fahrzeugruf) an dem Server 300 basierend auf einer Nutzereingabe an. Beim Anfordern der Einstiegsreservierung überträgt das Nutzerendgerät 100 Einstiegreservierungsinformationen mit einem Einsteigestandort (beispielsweise einen Fahrtort und einen Abfahrtspunkt), einem Ziel (beispielsweise einen Ausstiegsort), einer Einstiegszeit, Informationen über die Person, die die Reservierung vorgenommen hat (beispielsweise einen Namen, eine Kontaktadresse und dergleichen), der Anzahl der Personen, die einsteigen sollen, ob der Nutzer zugestimmt hat, fotografiert zu werden, oder Zahlungsinformationen (einschließlich eines Zahlungsschemas oder Zahlungsmittels) und dergleichen.
  • Wenn der Nutzer (die Person, die die Reservierung vorgenommen hat) einsteigt oder aus dem Fahrzeug 200 aussteigt, kann das Nutzerendgerät 100 Nutzeridentifizierungsinformationen, beispielsweise eine Nutzerkennung, eine Telefonnummer, eine Emailadresse, Zahlungsschemainformationen oder eine eindeutige Endgerätenummer und dergleichen an das Fahrzeug 200 senden. Die Nutzeridentifizierungsinformationen werden von dem Fahrzeug 200 verwendet, um einen einsteigenden/aussteigenden Fahrgast zu identifizieren.
  • Das Fahrzeug 200, bei dem es sich um das „Shared Vehicle“ handelt, das von einer großen Anzahl nicht genau angegebener Einzelpersonen genutzt werden kann, kann als Robotertaxi oder Spezialfahrzeug (PBV) verwirklicht sein, das in der Lage ist, autonom bzw. selbstständig zu fahren. Obgleich in 1 nur ein Fahrzeug dargestellt ist, können zwei oder mehr „Shared Vehicles“ vorhanden sein. Unter Bezugnahme auf 2 beinhaltet das Fahrzeug 200 eine Standortmessvorrichtung 210 (oder eine Standortsensiervorrichtung), eine Detektionseinrichtung 220, einen Fahrgastsensor 230, eine Kommunikationsvorrichtung 240, einen Sichtsensor 250, Speicher 260 und einen Prozessor 270.
  • Die Standortmessvorrichtung 210 misst oder sensiert einen aktuellen Standort des Fahrzeugs 200. Die Standortmessvorrichtung 210 misst einen Fahrzeugstandort mithilfe von zumindest einer Positionsbestimmungstechnik wie etwa einem Globalen Positionsbestimmungssystem (GPS), einer Koppelnavigation (DR), einem Differential-GPS (DGPS) oder einem Trägerphasen-Differential-GPS (CDPGPS).
  • Die Detektionseinrichtung 220 erhält Fahrzeuginformationen von Sensoren, die an dem Fahrzeug montiert sind, oder einem elektronischen Steuergerät (ECU). Die Fahrzeuginformationen können eine Fahrzeuggeschwindigkeit, Bremszustandsinformationen oder Türzustandsinformationen (beispielsweise, ob ein Türöffnungsknopf bedient wird oder ob ein Türhebel bedient wird) umfassen. Die Sensoren können als Geschwindigkeitssensor, als Bremspedalortsensor, als Türsensor, als Gewichtsensor oder als Sichtsensor verwirklicht sein. Das elektronische Steuergerät kann als Fahrzeugtürsystem, als elektronische Stabilitätskontrolle (ESC), als Transaktionssteuersystem (TCS) oder als Antiblockierbremssystem (ABS) verwirklicht sein.
  • Der Fahrgastsensor 230 sensiert den Fahrgast, der in das Fahrzeug 200 eingestiegen ist, mithilfe einer Fahrgastsensiertechnologie unter Verwendung des Gewichtsensors, des Sichtsensors (beispielsweise einer Kamera), einem Ultraschallsensor oder einem Radar. Der Fahrgastsensor 230 kann einen Einstiegs(sitz)-Standort des Fahrgastes (also des Insassen), der in das Fahrzeug eingestiegen (gefahren) ist, oder die Anzahl von eingestiegenen Personen erlangen. Der Fahrgastsensor 230 sensiert den Fahrgast (den Nutzer), der in das Fahrzeug 200 einsteigt oder aus diesem aussteigt. Der Fahrgastsensor 230 kann ferner einen Sitzwechsel des Fahrgastes in dem Fahrzeug 200 sensieren.
  • Die Kommunikationsvorrichtung 240 ermöglicht es dem Fahrzeug 200, Drahtloskommunikation mit dem Nutzerendgerät 100 oder dem Server 300 durchzuführen. Die Kommunikationsvorrichtung 240 kann eine Kommunikationstechnologie wie Wi-Fi, Bluetooth, Nahfeldkommunikation (NFC), Long-Term-Evolution (LTE), internationale mobile Telekommunikation (IT)-2020, Ethernet oder Vehicle-to-Everything (V2X) und dergleichen verwenden.
  • Der Sichtsensor 250 ist im Innenraum (innerhalb) des Fahrzeugs 200 installiert und nimmt einen voreingestellten Fahrgasteinstiegsraum auf. Der Sichtsensor 250 kann als zumindest ein Bildsensor unter einem Bildsensor einer ladungsgekoppelten Vorrichtung (CCD), einem Bildsensor eines komplementären Metalloxidhalbleiters (CMOS), einem Bildsensor eines Zündsatzes (CPD) oder einem Bildsensor einer Ladungsinjektionsvorrichtung (CID) implementiert sein. Der Sichtsensor 250 kann ein Bild einer Gesamtheit des Innenraums (innerhalb) des Fahrzeugs durch einen einzeln an einem vorderen Abschnitt des Innenraums des Fahrzeugs 200 verbauten Bildsensor erhalten, oder kann ein Fahrzeuginnenraumbild für jeden Sitz durch jeden Bildsensor erhalten, der für jeden Sitz verbaut ist. Ist der Bildsensor für jeden Sitz installiert, ist jede Linse, die an einem vorderen Abschnitt für jeden Bildsensor positioniert ist, dahingehend installiert, einem passenden Sitz zugewandt zu sein. Der Sichtsensor 250 kann einen Bildprozessor aufweisen, der eine Bildverarbeitung wie etwa Rauschentfernung, Farbreproduktion, Dateikomprimierung, Bildqualitätsanpassung, Sättigungsanpassung und dergleichen an dem durch den Bildsensor erhaltenen Bild durchführt.
  • Der Speicher 260 kann an dem Prozessor 270 montiert sein und Software speichern, die programmiert ist, um eine voreingestellte Operation durchzuführen. Der Speicher 260 kann Kartendaten speichern, und der Speicher 260 kann das Bild/die Bilder speichern, die von dem Sichtsensor 250 erlangt wurden. Der Speicher 260 kann als Speichermedium (Aufzeichnungsmedium) wie etwa Flash-Speicher und/oder eine Festplatte und/oder eine Secure Digital Card (SD-Karte) und/oder ein Direktzugriffsspeicher (RAM) und/oder ein statischer Direktzugriffsspeicher (SRAM) und/oder ein Festwertspeicher (ROM) und/oder ein programmierbarer Festwertspeicher (PROM) und/oder ein elektrisch löschbarer programmierbarer ROM (EEPROM) oder als Register verwirklicht sein.
  • Der Prozessor 270 steuert einen Gesamtbetrieb (beispielsweise das autonome Fahren) des Fahrzeugs 200. Der Prozessor 270 kann als anwendungsspezifische integrierte Schaltung (ASCI) und/oder Digitalsignalprozessor (DSP) und/oder programmierbare Logikvorrichtung (PLD) und/oder als programmierbares Gate-Array (FPGA) und/oder als Hauptprozessor (CPU) und/oder als Mikrocontroller und/oder Mikroprozessor verwirklicht sein.
  • Der Prozessor 270 empfängt Fahrzeugrufinformationen durch die Kommunikationsvorrichtung 240. Die Fahrzeugrufinformationen umfassen einen Rufort (Rufort), einen Ausstiegsort, die Einstiegszeit, die Anzahl an Personen, die einsteigen sollen, ob der Nutzer zugestimmt hat, aufgenommen zu werden, die Zahlungsinformationen, oder die Informationen über die Person, die die Reservierung getätigt hat. Der Prozessor 270 kann einen Aufnahmezeitpunkt basierend darauf, ob der Nutzer zugestimmt hat, aufgenommen zu werden, in den Fahrzeugrufinformationen bestimmen. Mit anderen Worten kann der Prozessor 270 dann, wenn die Person, die die Reservierung getätigt hat (der Nutzer), zugestimmt hat, aufgenommen zu werden, einen Zeitpunkt unmittelbar nach dem Einsteigen als Aufnahmezeitpunkt beim Einsteigen bestimmen (einen ersten Aufnahmezeitpunkt) und einen Zeitpunkt unmittelbar vor dem Aussteigen als einen Aufnahmezeitpunkt beim Aussteigen bestimmen (einen zweiten Aufnahmezeitpunkt). Ferner kann dann, wenn die Person, die die Reservierung getätigt hat (der Nutzer), einer Aufnahme nicht zugestimmt hat, der Prozessor 270 einen Zeitpunkt unmittelbar vor dem Einsteigen als ersten Aufnahmezeitpunkt festlegen und einen Zeitpunkt unmittelbar nach dem Aussteigen als zweiten Aufnahmezeitunkt festlegen. Ein Zeitpunkt „unmittelbar“ vor oder nach einem Ereignis kann bedeuten, dass ein Zeitpunkt ein vorgegebener Zeitraum vor oder nach einem solchen Ereignis ist. Der vorgegebene Zeitraum kann durch den Hersteller des Fahrzeugs vorgegeben sein, oder kann durch den Administrator des Fahrzeugs festgelegt werden.
  • Der Prozessor 270 legt den Rufort, der in den Fahrzeugrufinformationen enthalten ist, als Ziel fest und sucht nach einer Fahrtoute an den Zielort basierend auf dem Fahrzeugstandort, der von der Standortmessvorrichtung 210 gemessen wurde und den in dem Speicher 260 gespeicherten Kartendaten. Der Prozessor 270 steuert das autonome Fahren des Fahrzeugs 200 entlang der ermittelten Fahrtroute. Der Prozessor 270 vergleicht den Fahrzeugstandort, der von der Standortmessvorrichtung 210 gemessen wurde, mit dem Rufort, während das Fahrzeug 200 sich autonom fortbewegt. Der Prozessor 270 ermittelt, ob das Fahrzeug 200 den Rufort erreicht hat, auf Grundlage des Vergleichsergebnisses von Fahrzeugstandort und Rufort. Zusätzlich ermittelt der Prozessor 270, wenn das Fahrzeug 200 den Rufort erreicht hat, ob das Fahrzeug 200 den Rufort erreicht hat, indem basierend auf der Fahrzeuggeschwindigkeit oder den Bremszustandsinformationen ermittelt wird, ob das Fahrzeug 200 angehalten wird. Hat das Fahrzeug 200 am Rufort angehalten, kann der Prozessor 270 durch Drahtloskommunikation mit dem Nutzerendgerät 100 ermitteln, ob sich die Person, die die Reservierung vorgenommen hat, in der Umgebung des Fahrzeugs 200 befindet.
  • Wenn die Person, die die Reservierung vorgenommen hat, in der Umgebung des Fahrzeugs 200 identifiziert wird, ermittelt der Prozessor 270, ob der Fahrgast demnächst einsteigt. Der Prozessor 270 kann den Zeitpunkt unmittelbar vor dem Einsteigen des Fahrgastes (vor dem Einsteigen des Fahrgastes) basierend auf den Betätigungsinformationen des Türhebels oder des Türöffnungsknopfs, also den Türstatusinformationen, sensieren. Der Prozessor 270 kann zudem die Fahrgastinformationen nutzen, die von dem Fahrgastsensor 230 erlangt werden, um zu bestimmen, ob der Fahrgast kurz vor dem Einstieg steht. Wenn der Fahrgast kurz vor dem Einstieg steht, bedient der Prozessor 270 den Sichtsensor 250, um das Bild des Innenraums des Fahrzeugs 200 (ein erstes Fahrzeuginnenraumbild) aufzunehmen. Ist in dem Fahrzeug 200 vor dem Einsteigen des Fahrgastes ein anderer Insasse (Fahrgast), blockiert, verschleiert oder löscht der Prozessor 270 einen Bereich, der einem Einsteigestandort des entsprechenden anderen Insassen in dem ersten Fahrzeuginnenraumbild entspricht. Hat der Fahrgast einer Aufnahme zugestimmt, erlangt der Prozessor 270 das erste Fahrzeuginnenraumbild durch den Sichtsensor 250, nachdem der Fahrgast in das Fahrzeug 200 eingestiegen ist. In diesem Zusammenhang erlangt der Prozessor 270 wahlweise ein Bild eines Sitzplatzes (dem Einstiegsraum) des eingestiegenen Fahrgastes (das erste Fahrzeuginnenraumbild). Anders gesagt kann der Prozessor 270 dann, wenn es in dem Fahrzeug 200 einen weiteren Fahrgast gibt, bei dem es sich nicht um den eingestiegenen Fahrgast handelt, personenbezogene Informationen eines weiterer Fahrgasts durch Verschleiern oder Löschen des Bereichs, der mit dem Einsteigestandort des entsprechenden weiteren Fahrgastes übereinstimmt, in dem ersten Fahrzeuginnenraumbild, welches von dem Sichtsensor 250 aufgenommen wurde, schützen. Der Prozessor 270 sendet das erste Fahrzeuginnenraumbild durch die Kommunikationsvorrichtung 240 an den Server 300.
  • Wenn der Fahrgast in das Fahrzeug 200 einsteigt, identifiziert der Prozessor 270 einen Fahrgast-Einsteigestandort oder die Anzahl eingestiegener Fahrgäste durch den Fahrgastsensor 230. Beispielsweise kann der Prozessor 270 den Fahrgast sensieren, der in das Fahrzeug 200 eingestiegen ist, basierend auf Informationen, die von dem Gewichtssensor und/oder dem Sichtsensor und/oder der Kamera und/oder dem Ultraschallsensor und/oder dem Radar bereitgestellt wurden. Der Prozessor 270 kann ermitteln, ob es sich bei der eingestiegenen Person um die Person handelt, die die Reservierung getätigt hat (einen Anrufer). Beispielsweise kann der Prozessor 270 die Nutzeridentifizierungsinformationen von dem Nutzerendgerät 100 durch Bluetooth, NFC und dergleichen empfangen und die empfangenen Nutzeridentifizierungsinformationen mit den Informationen über die Person vergleichen, die die Reservierung der Fahrzeugrufinformationen getätigt hat, um den Insassen zu identifizieren.
  • Hat der Fahrgast das Einsteigen in das Fahrzeug 200 abgeschlossen, legt der Prozessor 270 basierend auf den Fahrzeugrufinformationen eine Fahrtroute fest, indem der Ausstiegsort als Zielort festgelegt wird. Der Prozessor 270 steuert zudem das autonome Fahren des Fahrzeugs 200 zum Zielort entlang der festgelegten Fahrtroute. Der Prozessor 270 kann eine von bekannten autonomen Fahrtechnologien verwenden.
  • Wenn das Fahrzeug 200 den Zielort erreicht, führt der Prozessor 270 ein Dienstnutzungsbeendigungsverfahren des Nutzers durch (des aussteigenden Fahrgastes). Der Prozessor 270 ermittelt, ob das Fahrzeug 200 den Zielort erreicht hat, basierend auf dem Fahrzeugstandort, der von der Standortmessvorrichtung 210 gemessen wurde, den in dem Speicher 250 gespeicherten Kartendaten, und Zielortinformationen der Fahrzeugrufinformationen. Der Prozessor 270 bestimmt ferner, ob das Fahrzeug 200 angehalten wird, basierend auf der Fahrzeuggeschwindigkeit oder den Bremszustandsinformationen. Der Prozessor 270 kann die Informationen über den Insassenstandort in dem Fahrzeug 200 durch den Fahrgastsensor 230 erkennen, um zu ermitteln, ob der Fahrgast ausgestiegen ist und einen Fahrgastausstiegsstandort (Sitz) oder die Anzahl ausgestiegener Personen zu erkennen. Mit anderen Worten kann der Prozessor 270 das Dienstnutzungsende entweder basierend darauf, ob der Zielort erreicht wurde, ob das Fahrzeug angehalten wurde, auf Grundlage der Insassenstandortinformationen, oder darauf, ob die Bezahlung der Dienstgebühr abgeschlossen wurde, bestimmen.
  • Wenn die Bezahlung der Dienstgebühren nach dem Eintreffen am Zielort abgeschlossen ist, nimmt der Prozessor 270 ein Bild des Innenraums des Fahrzeugs 200 (ein zweites Fahrzeuginnenraumbild) auf, indem der Bildsensor 200 am zweiten Aufnahmezeitpunkt betrieben wird, basierend darauf, ob der aussteigende Fahrgast einer Aufnahme zugestimmt hat. Wenn der aussteigende Fahrgast einer Aufnahme zugestimmt hat, erlangt der Prozessor 270 das zweite Fahrzeuginnenraumbild durch den Sichtsensor 250 unmittelbar vor dem Aussteigen des Fahrgastes. Wenn der aussteigende Fahrgast einer Aufnahme nicht zugestimmt hat, erlangt der Prozessor 270 das zweite Fahrzeuginnenraumbild durch den Sichtsensor 250 nach dem Aussteigen des Fahrgastes. Der Prozessor 270 kann den Zeitpunkt unmittelbar nach dem Aussteigen des Fahrgastes auf Grundlage der Türstatusinformationen und/oder dem Signal eines externen Knopfs und/oder Informationen, die von dem Gewichtssensor bereitgestellt werden und/oder Informationen, die von dem Ultraschallsensor bereitgestellt werden und/oder Informationen, die von dem Radar bereitgestellt werden und/oder Informationen, die von dem Sichtsensor bereitgestellt werden, sensieren. Gibt es einen weiteren Fahrgast, bei dem es sich nicht um den aussteigenden Fahrgast in dem Fahrzeug 200 handelt, wenn das zweite Fahrzeuginnenraumbild aufgenommen wird, kann der Prozessor 270 personenbezogene Informationen weiterer Fahrgäste durch Verschleiern oder Löschen eines Bereichs, der mit einem Einsteigestandort des entsprechenden weiteren Fahrgastes in dem Bild, das von dem Sichtsensor 250 aufgenommen wurde, übereinstimmt, verschleiern. Der Prozessor 270 sendet das aufgenommene zweite Fahrzeuginnenraumbild an den Server 300.
  • Bei Empfang der Anforderung der Einstiegsreservierung für das Fahrzeug 200, also der Nutzung des Shared-Mobility-Dienstes von dem Nutzerendgerät 100 ordnet der Server 300 das Fahrzeug 200 zu, erzeugt Fahrzeugzuordnungsinformationen basierend auf der Zuordnung des Fahrzeugs, und sendet die erzeugten FahrzeugzuordnungsInformationen an das Nutzerendgerät 100. Das Nutzerendgerät 100 zeigt die Fahrzeugzuordnungsinformationen auf einer Bildschirmanzeige an, um es dem Nutzer zu ermöglichen, die Fahrzeugzuordnungsinformationen zu erkennen. Die Fahrzeuginformationen umfassen ein Kennzeichen des zugeordneten Fahrzeugs, ein Fahrzeugmodell oder dergleichen. Der Server 300 erzeugt die Fahrzeuganforderungsinformationen basierend auf den Einstiegsreservierungsinformationen von dem Nutzerendgerät 100 und sendet die Fahrzeuganforderungsinformationen an das zugeordnete Fahrzeug 200.
  • Bei Empfang des ersten Fahrzeuginnenraumbilds und des zweiten Fahrzeuginnenraumbilds, die von dem Fahrzeug 200 gesendet werden, speichert der Server 300 das erste Fahrzeuginnenraumbild und das zweite Fahrzeuginnenraumbild in einer Datenbank (DB). Das Fahrzeug 200 kann das erste Fahrzeuginnenraumbild bzw. das zweite Fahrzeuginnenraumbild unmittelbar an den Zeitpunkten senden, an denen das erste Fahrzeuginnenraumbild bzw. das zweite Fahrzeuginnenraumbild aufgenommen wurden, oder kann das erste Fahrzeuginnenraumbild und das zweite Fahrzeuginnenraumbild gleichzeitig nach dem Aufnehmen senden.
  • Der Server 300 vergleicht und analysiert das erste Fahrzeuginnenraumbild und das zweite Fahrzeuginnenraumbild, um zu bestimmen (sensieren), ob in dem Fahrzeug ein verloren gegangener Gegenstand ist. In diesem Zusammenhang kann es sich bei dem verloren gegangenen Gegenstand um die Habseligkeiten eines Fahrgastes, Abfall oder Müll handeln. Wenn es sich bei dem sensierten verloren gegangenen Gegenstand um die Habseligkeiten eines ausgestiegenen Fahrgastes handelt, sendet der Server 300 Informationen über den verloren gegangenen Gegenstand einschließlich der Tatsache, dass der verloren gegangene Gegenstand sensiert wurde, einer Art des verloren gegangenen Gegenstands, ein Bild des verloren gegangenen Gegenstands, oder ein Verfahren zum Finden des verloren gegangenen Gegenstands und dergleichen an das Nutzerendgerät 100 des Fahrgastes, der gerade ausgestiegen ist. Zu diesem Zeitpunkt kann der Server 300 die Informationen über den verloren gegangenen Gegenstand auch an einen Betreiber senden. Der Server 300 kann die Informationen über den verloren gegangenen Gegenstand ferner in einer Fundstellen-Datenbank hinterlegen. Der Sever 300 kann eine Benachrichtigung, die die Entsorgung des Abfalls oder Mülls fordert, nur dann an den Betreiber senden, wenn es sich bei dem verloren gegangenen Gegenstand um Abfall oder Müll handelt.
  • 3 ist ein Ablaufdiagramm, das ein Verfahren zur Überwachung in einem Fahrzeug gemäß einer Ausführungsform der vorliegenden Offenbarung zeigt.
  • Unter Bezugnahme auf 3 empfängt das Fahrzeug 200 den Fahrzeugruf, der von dem Server 300 übertragen wurde (S110). Das Nutzerendgerät 100 kann die Verwendung eines Shared-Mobility-Dienstes am Server 300 basierend auf der Nutzereingabe anfordern. Mit anderen Worten kann sich der Nutzer durch das Nutzerendgerät 100 mit dem Server 300 verbinden, um die Reservierung zum Einsteigen des „Shared Vehicle“ vorzunehmen. Das Nutzerendgerät 100 sendet die Einstiegsreservierungs-Informationen an den Server 300, wenn die Reservierung zum Einsteigen in das Shared Vehicle vorgenommen wird. Der Server 300 ordnet das Fahrzeug 200 auf Grundlage der Anforderung des Nutzerendgeräts 100 zu, d.h. den Einstiegsreservierungsinformationen, und sendet die Fahrzeugzuordnungsinformationen (beispielsweise das Kennzeichen, das Fahrzeugmodell, und dergleichen) an das Nutzerendgerät 100. Zusätzlich erzeugt der Server 300 die Fahrzeugrufinformationen basierend auf den Einstiegsreservierungsinformationen und sendet die Fahrzeugrufinformationen an das zugeordnete Fahrzeug 200.
  • Bei Ankunft am Rufort des Nutzers (der Person, die einsteigen soll) (S120), nimmt das Fahrzeug 200 das erste Fahrzeuginnenraumbild mithilfe des Sichtsensors 250 auf, wenn der Nutzer in das Fahrzeug 200 einsteigt (S130). Das Fahrzeug 200 trifft am Rufort ein, hält, und nimmt dann am ersten Aufnahmezeitpunkt das erste Fahrzeuginnenraumbild auf. Das Fahrzeug 200 kann durch die Detektionseinrichtung 220 und den Fahrgastsensor 230 den ersten Aufnahmezeitunkt bestimmen. Ist in dem Fahrzeug 200 ein weiterer Fahrgast vorhanden ist, kann das Fahrzeug 200 die personenbezogenen Informationen weiterer Fahrgäste durch Verschleiern oder Löschen des Bereichs, der mit dem entsprechenden weiteren Fahrgast in dem ersten Fahrzeuginnenraumbild übereinstimmt, das von dem Sichtsensor 250 aufgenommen wurde, schützen. Ferner kann das Fahrzeug 200 dann, wenn der Fahrgast in das Fahrzeug 200 einsteigt, durch Drahtloskommunikation mit dem Nutzerendgerät 100 des Fahrgastes bestimmen, ob der entsprechende Fahrgast die Person ist, die die Reservierung vorgenommen hat.
  • Das Fahrzeug 200 sendet das aufgenommene erste Fahrzeuginnenraumbild an den Server 300 (S140). Der Server 300 empfängt das erste Fahrzeuginnenraumbild und speichert das empfangene erste Fahrzeuginnenraumbild in der Datenbank (DB) (S145).
  • Wenn der Fahrgast in das Fahrzeug 200 einsteigt (mitfährt), bewegt sich das Fahrzeug 200 entlang der Fahrtroute zum Zielort (S150). Wenn der Fahrgast in das Fahrzeug 200 einsteigt, sucht das Fahrzeug 200, auf Grundlage der Standortmessvorrichtung 210 und den Kartendaten, nach der Fahrtoute zum Zielort und fährt autonom entlang der ermittelten Fahrtroute.
  • Bei Eintreffen am Zielort (S160) nimmt das Fahrzeug 200 das zweite Fahrzeuginnenraumbild auf (S170). Das Fahrzeug 200 kann mithilfe der Standortmessvorrichtung 210 und den Kartendaten ermitteln, ob der Zielort erreicht wurde. Das Fahrzeug 200 kann ferner auf Grundlage der Geschwindigkeit des Fahrzeugs oder den Bremsinformationen ermitteln, ob das Fahrzeug angehalten wurde. Das Fahrzeug 200 bestimmt, dass der Zielort erreicht wurde, wenn ein Haltstandort dem Zielort entspricht. Bei Ankunft am Zielstandort nimmt das Fahrzeug 200 das zweite Fahrzeuginnenraumbild zum zweiten Aufnahmezeitpunkt auf. Das Fahrzeug 200 kann durch die Detektionseinrichtung 220 und den Fahrgastsensor 230 den zweiten Aufnahmezeitpunkt bestimmen. Gibt es in dem Fahrzeug 200 einen anderen Fahrgast als den aussteigenden Fahrgast, verschleiert oder löscht das Fahrzeug 200 den Bereich, der mit dem entsprechenden anderen Fahrgast in dem zweiten Fahrzeuginnenraumbild übereinstimmt, das von dem Sichtsensor 250 aufgenommen wurde.
  • Das Fahrzeug 200 sendet das aufgenommene zweite Fahrzeuginnenraumbild an den Server 300 (S180). Der Server 300 empfängt das zweite Fahrzeuginnenraumbild und speichert das empfangene zweite Fahrzeuginnenraumbild in der Datenbank (DB) (S185). Bei der vorliegenden Ausführungsform wird beschrieben, dass das Fahrzeug 200 unmittelbar das erste Fahrzeuginnenraumbild und das zweite Fahrzeuginnenraumbild an den Server 300 sendet, wenn das erste Fahrzeuginnenraumbild und das zweite Fahrzeuginnenraumbild erlangt werden, die vorliegende Offenbarung ist jedoch nicht hierauf beschränkt. Das Fahrzeug 200 kann dahingehend verwirklicht sein, das erste Fahrzeuginnenraumbild und das zweite Fahrzeuginnenraumbild gleichzeitig an den Server 300 zu senden, nachdem sowohl das erste Fahrzeuginnenraumbild als auch das zweite Fahrzeuginnenraumbild erlangt wurden.
  • Der Server 300 vergleicht und analysiert das erste Fahrzeuginnenraumbild und das zweite Fahrzeuginnenraumbild, um zu ermitteln, ob sich in dem Fahrzeug der verloren gegangene Gegenstand befindet (S190). In diesem Zusammenhang kann es sich bei dem verloren gegangenen Gegenstand um Habseligkeiten des Fahrgastes, Müll oder Abfall handeln.
  • Der Server 300 sendet die Informationen über den verloren gegangenen Gegenstand an das Nutzerendgerät 100 des aussteigenden Fahrgastes, wenn in dem Fahrzeug der verloren gegangene Gegenstand sensiert wird (S200). Handelt es sich bei dem sensierten, verloren gegangenen Gegenstand um die Habseligkeiten des aussteigenden Fahrgastes, sendet der Server 300 die Informationen über den verloren gegangenen Gegenstand einschließlich der Tatsache, dass der verloren gegangene Gegenstand sensiert wurde, die Art des verloren gegangenen Gegenstands, das Bild des verloren gegangenen Gegenstands oder das Verfahren zum Finden des verloren gegangenen Gegenstands und dergleichen an das Nutzerendgerät 100 des Fahrgastes (einen Eigentümer des verloren gegangenen Gegenstands), der vor kurzem ausgestiegen ist. Der Server 300 kann beispielsweise in der DB die Informationen über den verloren gegangenen Gegenstand in der Fundstelle registrieren. Der Server 300 kann die Benachrichtigung, die die Entsorgung des Mülls oder des Abfalls anfordert, an den Betreiber schicken, wenn es sich bei dem sensierten, verloren gegangenen Gegenstand um Müll oder Abfall handelt. Bei der vorliegenden Ausführungsform wird beschrieben, dass die Benachrichtigung nur dann an den Dienstbetreiber gesendet wird, wenn es sich bei dem verloren gegangenen Gegenstand in dem Fahrzeug um Müll oder Abfall handelt. Es kann jedoch implementiert sein, dass die Informationen über den verloren gegangenen Gegenstand an den Betreiber zusammen mit dem Nutzerendgerät 100 des aussteigenden Fahrgastes gesendet werden, wenn der verloren gegangene Gegenstand in dem Fahrzeug, also Habseligkeiten des Fahrgastes und/oder Müll und/oder Abfall sensiert werden.
  • Die 4 und 5 sind beispielhafte Ansichten zum Beschreiben eines Verfahrens zur Verarbeitung eines Bildes, das mit der vorliegenden Offenbarung in Beziehung steht. Die vorliegende Ausführungsform beschreibt ein Verfahren zum Aufnehmen und Verarbeiten (Filtern) des Fahrzeuginnenraumbilds, um die personenbezogenen Informationen eines weiteren Fahrgastes zu schützen, wenn in dem Fahrzeug ein weiterer Fahrgast vorhanden ist, wenn der Fahrgast aussteigt.
  • Bezugnehmend auf 4 nimmt das Fahrzeug 200 durch den Sichtsensor 250 ein Fahrzeuginnenraumbild in einem Zustand, bei dem sechs Fahrgäste, also ein Fahrgast 1, ein Fahrgast 2, ein Fahrgast 3, ein Fahrgast 4, ein Fahrgast 5 und ein Fahrgast 6 in das Fahrzeug 200 eingestiegen sind, wenn Fahrgast 6 aussteigt auf. In diesem Zusammenhang kann der Sichtsensor 250 Fahrgast 1, Fahrgast 2, Fahrgast 3, Fahrgast 4 und Fahrgast 5 blockieren, um lediglich raumbezogene Informationen eines Ortes auszuwählen, an dem Fahrgast 6 eingestiegen ist.
  • Unter Bezugnahme auf 5, wenn drei Fahrgäste, also Fahrgast 2, Fahrgast 5 und Fahrgast 6 aus dem Fahrzeug 200 in einem Zustand aussteigen, bei dem die 6 Fahrgäste in das Fahrzeug 200 eingestiegen sind, ermittelt das Fahrzeug 200, ob in dem Fahrzeug weitere Fahrgäste vorhanden sind. Sind in dem Fahrzeug weitere Fahrgäste vorhanden, identifiziert das Fahrzeug 100 Einsteigestandorte der entsprechenden Fahrgäste, also des Fahrgasts 1, des Fahrgasts 3 und des Fahrgasts 4. Das Fahrzeug 200 sperrt Bereiche, die den Einsteigestandorten weiterer Fahrgäste entsprechen, die in einem Fahrzeuginnenraumbild identifiziert wurden, das von dem Sichtsensor 250 erlangt wurde.
  • 6 ist ein Blockdiagramm, das ein Rechensystem veranschaulicht, welches ein Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug gemäß einer Ausführungsform der vorliegenden Offenbarung ausführt.
  • Unter Bezugnahme auf 6 kann ein Rechensystem 1000 zumindest einen Prozessor 1100, einen Speicher 1300, eine Nutzerschnittstelleneingabevorrichtung 140, eine Nutzerschnittstellenausgabevorrichtung 1500, einen Speicher 1600 und eine Netzwerkschnittstelle 1700 umfassen, die über einen Bus 1200 verbunden sind.
  • Der Prozessor 1100 kann ein Hautprozessor (CPU) oder eine Halbleitervorrichtung sein, die Verarbeitung auf Befehlen ausführt, die in dem Speicher 1300 oder dem Speicher 1600 gespeichert sind. Der Speicher 1300 und der Speicher 1600 können verschiedene Arten flüchtiger oder nicht-flüchtiger Speichermedien umfassen. Beispielsweise kann der Speicher 1300 ROM (Festwertspeicher) 1310 und RAM (Direktzugriffsspeicher) 1320 aufweisen.
  • Somit können die Operationen des Verfahrens oder des Algorithmus, der in Zusammenhang mit den hier offenbarten Ausführungsformen beschrieben wurde, unmittelbar als Hardware oder als Softwaremodul, das von dem Prozessor 1100 ausgeführt wird, oder in einer Kombination dieser ausgeführt sein. Das Softwaremodul kann sich auf einem Speichermedium befinden (also dem Speicher 1300 oder dem Speicher 1600), wie etwa einem RAM, einem Flash-Speicher, einem ROM, einem EPROM, einem EEPROM, einem Register, einer Festplatte, einer entnehmbaren Platte, einer CD-ROM. Das Speichermedium kann ein nicht-flüchtiges Speichermedium sein. Das beispielhafte Speichermedium ist an den Prozessor 1100 gekoppelt, der Informationen aus dem Speichermedium auslesen und dieses mit Informationen beschreiben kann. Bei einem weiteren Verfahren kann das Speichermedium integral mit dem Prozessor 1100 sein. Der Prozessor und das Speichermedium können innerhalb einer anwendungsspezifischen integrierten Schaltung liegen (ASIC). Die ASIC kann innerhalb des Nutzerendgeräts liegen. Bei einem anderen Verfahren können der Prozessor und das Speichermedium als Einzelbauteile in dem Nutzerendgerät liegen.
  • Die obige Beschreibung ist lediglich beispielhaft für den technischen Gedanken der vorliegenden Offenbarung, und verschiedene Modifikationen und Änderungen können von einem Fachmann vorgenommen werden, ohne von den wesentlichen Eigenschaften der vorliegenden Offenbarung abzuweichen. Daher ist nicht beabsichtigt, dass die hier offenbarten Ausführungsformen den technischen Gedanken der vorliegenden Offenbarung beschränken, sondern die vorliegende Offenbarung veranschaulichen, und der Schutzumfang der vorliegenden Offenbarung wird nicht durch die Ausführungsformen beschränkt. Der Schutzumfang der vorliegenden Offenbarung sollte dahingehend ausgelegt werden, als dass er von den beigefügten Ansprüchen umfasst wird, und alle technischen Gedanken, die innerhalb des Schutzumfangs der Ansprüche liegen, sollen dahingehend ausgelegt werden, als dass sie im Schutzumfang der vorliegenden Offenbarung umfasst sind.
  • Gemäß der vorliegenden Offenbarung werden die Fahrzeuginnenraumbilder erhalten und miteinander verglichen, bevor der Fahrgast einsteigt und nachdem der Fahrgast aus dem Fahrzeug aussteigt, so dass der verloren gegangene Gegenstand in dem Fahrzeug sensiert werden kann, indem der Innenraum des Fahrzeugs derart überwacht wird, dass Privatsphäre-Vorschriften nicht verletzt werden.
  • Ferner wird gemäß der vorliegenden Offenbarung dann, wenn in dem Fahrzeug ein weiterer Insasse vorhanden ist, wenn der Fahrgast in das Fahrzeug ein- oder aus diesem aussteigt, der Bereich, in dem der andere Insasse vorhanden ist, gesperrt, so dass die personenbezogenen Informationen eines weiteren Insassen geschützt werden können.
  • Ferner werden gemäß der vorliegenden Ausführungsform, wenn der verloren gegangene Gegenstand in dem Fahrzeug sensiert wird, die Informationen des verloren gegangenen Gegenstands dem Eigentümer des sensierten, verloren gegangenen Gegenstands bereitgestellt. Somit kann der verloren gegangene Gegenstand derart gehandhabt werden, dass der Shared-Mobility-Dienst unbemannt betrieben werden kann.
  • Obenstehend, obgleich die vorliegende Offenbarung unter Bezugnahme auf Ausführungsbeispiele und die beigefügten Zeichnungen beschrieben wurde, ist die vorliegende Offenbarung nicht hierauf beschränkt, sondern kann von einem Fachmann, auf den sich die vorliegende Offenbarung bezieht, auf verschiedene Weise modifiziert und verändert werden, ohne vom Geist und Schutzumfang der vorliegenden Offenbarung abzuweichen, wie er in den beigefügten Ansprüchen definiert ist.
  • Bezugszeichenliste
  • 100:
    NUTZERENDGERÄT
    200:
    FAHRZEUG
    210:
    STANDORTMESSVORRICHTUNG
    220:
    DETEKTIONSEINRICHTUNG
    230:
    FAHRGASTSENSOR
    240:
    KOMMUNIKATIONSVORRICHTUNG
    250:
    SICHTSENSOR
    260:
    SPEICHER
    270:
    PROZESSOR
    300:
    SERVER
    1100:
    PROZESSOR
    1300:
    SPEICHER
    1400:
    NUTZERSCHNITTSTELLENEINGABEVORRICHTUNG
    1500:
    NUTZERSCHNITTSTELLENAUSGABEVORRICHTUNG
    1600:
    SPEICHER
    1700:
    NETZWERKSCHNITTSTELLE

Claims (24)

  1. System zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug, wobei das System aufweist: das Fahrzeug mit einem Sichtsensor, der eingerichtet ist, ein erstes Fahrzeuginnenraumbild bzw. ein zweites Fahrzeuginnenraumbild aufzunehmen, wenn ein Fahrgast in das Fahrzeug einsteigt und aus diesem aussteigt, wobei das Fahrzeug eingerichtet ist, das aufgenommene erste Fahrzeuginnenraumbild und zweite Fahrzeuginnenraumbild an einen Server zu senden; und den Server, der eingerichtet ist, das erste Fahrzeuginnenraumbild mit dem zweiten Fahrzeuginnenraumbild zu vergleichen und Informationen über den verloren gegangenen Gegenstand an ein Nutzerendgerät zu senden, das dem Fahrgast zugeordnet ist, wenn der verloren gegangene Gegenstand in dem Fahrzeug sensiert wird.
  2. System nach Anspruch 1, wobei das Fahrzeug eingerichtet ist, auf Grundlage dessen, ob der Fahrgast zugestimmt hat, einen Zeitpunkt vor dem Einsteigen oder nach dem Einsteigen als ersten Aufnahmezeitpunkt zu bestimmen, und einen Zeitpunkt nach dem Aussteigen oder vor dem Aussteigen als zweiten Aufnahmezeitpunkt zu bestimmen.
  3. System nach Anspruch 1 oder 2, wobei das Fahrzeug eingerichtet ist, einen Bereich, der mit einem Einsteigestandort eines weiteren Fahrgasts übereinstimmt, in dem ersten Fahrzeuginnenraumbild in einem Zustand, bei dem ein weiterer Fahrgast eingestiegen ist, an dem ersten Aufnahmezeitpunkt zu verschleiern oder zu löschen.
  4. System nach einem der vorhergehenden Ansprüche, wobei das Fahrzeug eingerichtet ist, einen Bereich, der mit einem Einsteigestandort eines weiteren Fahrgasts übereinstimmt, in dem zweiten Fahrzeuginnenraumbild in einem Zustand, bei dem der weitere Fahrgast in das Fahrzeug eingestiegen ist, an dem zweiten Aufnahmezeitpunkt zu verschleiern oder zu löschen.
  5. System nach einem der vorhergehenden Ansprüche, wobei das Fahrzeug eingerichtet ist, auf Grundlage eines Fahrzeugstandorts zu bestimmen, ob das Fahrzeug an einem Rufort eingetroffen ist.
  6. System nach einem der vorhergehenden Ansprüche, wobei das Fahrzeug eingerichtet ist, auf Grundlage einer Fahrzeuggeschwindigkeit und/oder einer Bremszustandsinformation zu bestimmen, ob das Fahrzeug an dem Rufort eingetroffen ist.
  7. System nach einem der vorhergehenden Ansprüche, wobei das Fahrzeug eingerichtet ist, basierend auf Türzustandsinformationen einen Zeitpunkt vor dem Einsteigen des Fahrgastes zu sensieren.
  8. System nach einem der vorhergehenden Ansprüche, wobei das Fahrzeug eingerichtet ist, basierend auf Informationen, die von einem Gewichtssensor und/oder dem Sichtsensor und/oder einer Kamera und/oder einem Ultraschallsensor und/oder einem Radar bereitgestellt werden, den Fahrgast zu sensieren.
  9. System nach einem der vorhergehenden Ansprüche, wobei das Fahrzeug eingerichtet ist, ein Dienstleistungsende des Fahrgastes auf Grundlage des Abschlusses einer Dienstgebührenzahlung und Insassen-Standortinformationen zu bestimmen.
  10. System nach einem der vorhergehenden Ansprüche, wobei das Fahrzeug eingerichtet ist, einen Zeitpunkt nach dem Aussteigen des Fahrgastes auf Grundlage von Türzustandsinformationen und/oder dem Signal eines externen Knopfs und/oder von Informationen, die von einem Gewichtssensor bereitgestellt werden und/oder von Informationen, die von einem Ultraschallsensor bereitgestellt werden und/oder von Informationen, die von einem Radar bereitgestellt werden und/oder von Informationen, die von dem Sichtsensor bereitgestellt werden, zu bestimmen.
  11. System nach einem der vorhergehenden Ansprüche, wobei der Server eingerichtet ist, die Informationen über den verloren gegangenen Gegenstand an einen Betreiber zu senden, wenn der verloren gegangene Gegenstand in dem Fahrzeug sensiert wird.
  12. System nach einem der vorhergehenden Ansprüche, wobei es sich bei dem verloren gegangenen Gegenstand um Habseligkeiten des Fahrgastes und/oder Abfall und/oder Müll handelt.
  13. Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug, wobei das Verfahren umfasst: einen ersten Schritt des Empfangens, durch einen Server, eines ersten Fahrzeuginnenraumbilds und eines zweiten Fahrzeuginnenraumbilds, die jeweils durch einen Sichtsensor aufgenommen werden, wenn ein Fahrgast in das Fahrzeug einsteigt und aus diesem aussteigt; einen zweiten Schritt des Vergleichens, durch den Server, des ersten Fahrzeuginnenraumbilds mit dem zweiten Fahrzeuginnenraumbild, und um den verloren gegangenen Gegenstand in dem Fahrzeug zu sensieren; und einen dritten Schritt des Sendens, durch den Server, von Informationen über den verloren gegangenen Gegenstand an ein dem Fahrgast zugeordnetes Nutzerendgerät.
  14. Verfahren nach Anspruch 13, wobei der erste Schritt umfasst: Bestimmen eines Zeitpunkts vor dem Einsteigen oder nach dem Einsteigen als ersten Aufnahmezeitpunkt auf Grundlage dessen, ob der Fahrgast zugestimmt hat, aufgenommen zu werden; und Bestimmen eines Zeitpunkts nach dem Aussteigen oder vor dem Aussteigen als zweiten Aufnahmezeitpunkt auf Grundlage dessen, ob der Fahrgast zugestimmt hat, aufgenommen zu werden.
  15. Verfahren nach Anspruch 13 oder 14, wobei der erste Schritt umfasst: Verschleiern oder Löschen eines Bereichs, der mit einem Einsteigestandort eines weiteren Fahrgastes übereinstimmt, in dem ersten Fahrzeuginnenraumbild, wenn der weitere Fahrgast in dem Fahrzeug an dem ersten Aufnahmezeitpunkt vorhanden ist.
  16. Verfahren nach einem der Ansprüche 13 bis 15, wobei der erste Schritt umfasst: Verschleiern oder Löschen eines Bereichs, der mit einem Einsteigestandort eines weiteren Fahrgastes übereinstimmt, in dem zweiten Fahrzeuginnenraumbild in einem Zustand, bei dem der weitere Fahrgast an dem zweiten Aufnahmezeitpunkt in das Fahrzeug eingestiegen ist.
  17. Verfahren nach einem der Ansprüche 13 bis 16, wobei der erste Schritt umfasst: Bestimmen, durch das Fahrzeug, basierend auf einem Fahrzeugstandort, ob das Fahrzeug an einem Rufort eingetroffen ist.
  18. Verfahren nach einem der Ansprüche 13 bis 17, wobei der erste Schritt ferner umfasst: Bestimmen, durch das Fahrzeug, ob das Fahrzeug an dem Rufort eingetroffen ist, zusätzlich basierend auf einer Fahrzeuggeschwindigkeit und/oder Bremszustandsinformationen.
  19. Verfahren nach einem der Ansprüche 13 bis 18, wobei der erste Schritt umfasst: Sensieren, durch das Fahrzeug, eines Zeitpunkts vor dem Einsteigen des Fahrgastes auf Grundlage von Türzustandsinformationen.
  20. Verfahren nach einem der Ansprüche 13 bis 19, wobei der erste Schritt umfasst: Sensieren, durch das Fahrzeug, des Fahrgastes auf Grundlage von Informationen, die von einem Gewichtssensor und/oder dem Sichtsensor und/oder einer Kamera und/oder einem Ultraschallsensor und/oder einem Radar bereitgestellt werden.
  21. Verfahren nach einem der Ansprüche 13 bis 20, wobei der erste Schritt umfasst: Bestimmen, durch das Fahrzeug, eines Dienstleistungsendes des Fahrgastes auf Grundlage des Abschlusses der Dienstgebührenzahlung und der Insassenstandortinformationen.
  22. Verfahren nach einem der Ansprüche 13 bis 21, wobei der erste Schritt ferner umfasst: Sensieren, durch das Fahrzeug, eines Zeitpunkts nach dem Aussteigen des Fahrgastes basierend auf einer Türzustandsinformation und/oder einem Signal eines externen Knopfs und/oder Informationen, die von einem Gewichtssensor bereitgestellt werden, und/oder Informationen, die von einem Ultraschallsensor bereitgestellt werden, und/oder Informationen, die von einem Radar bereitgestellt werden, und/oder Informationen, die von dem Sichtsensor bereitgestellt werden.
  23. Verfahren nach einem der Ansprüche 13 bis 22, wobei der erste Schritt ferner umfasst: Senden, durch den Server, der Informationen über den verloren gegangenen Gegenstand an einen Betreiber, wenn der verloren gegangene Gegenstand in dem Fahrzeug sensiert wird.
  24. Verfahren nach einem der Ansprüche 13 bis 23, wobei es sich bei dem verloren gegangenen Gegenstand um Habseligkeiten des Fahrgastes und/oder Abfall und/oder Müll handelt.
DE102020207488.7A 2020-03-03 2020-06-17 System und Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug Pending DE102020207488A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200026645A KR20210111932A (ko) 2020-03-03 2020-03-03 자율주행차량 내 분실물 처리 시스템 및 방법
KR10-2020-0026645 2020-03-03

Publications (1)

Publication Number Publication Date
DE102020207488A1 true DE102020207488A1 (de) 2021-09-09

Family

ID=77389130

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020207488.7A Pending DE102020207488A1 (de) 2020-03-03 2020-06-17 System und Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug

Country Status (4)

Country Link
US (1) US11507960B2 (de)
KR (1) KR20210111932A (de)
CN (1) CN113343741A (de)
DE (1) DE102020207488A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10795356B2 (en) * 2017-08-31 2020-10-06 Uatc, Llc Systems and methods for determining when to release control of an autonomous vehicle
JP2022094839A (ja) * 2020-12-15 2022-06-27 トヨタ自動車株式会社 情報処理装置、情報処理システム、およびプログラム
CN116612615A (zh) * 2023-04-21 2023-08-18 中国第一汽车股份有限公司 一种车辆内遗落物品提醒方法、系统、电子设备、存储介质及车辆

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338535A (ja) * 2005-06-03 2006-12-14 Matsushita Electric Ind Co Ltd 車内忘れ物防止方法及び装置
US20210209517A1 (en) * 2018-06-18 2021-07-08 Nissan Motor Co., Ltd. System for operating commercial vehicles
KR20210101367A (ko) * 2020-02-07 2021-08-19 부산대학교 산학협력단 자율주행차량 내 분실물 및 위험물 감지 시스템 및 방법

Also Published As

Publication number Publication date
US11507960B2 (en) 2022-11-22
US20210279740A1 (en) 2021-09-09
CN113343741A (zh) 2021-09-03
KR20210111932A (ko) 2021-09-14

Similar Documents

Publication Publication Date Title
DE102018130589A1 (de) System und verfahren zur raucherkennung und -meldung in einem fahrzeug für carsharing- und fahrgemeinschaftsfahrzeuge
DE102020207488A1 (de) System und Verfahren zur Handhabung eines verloren gegangenen Gegenstands in einem autonomen Fahrzeug
EP1454285B1 (de) Videoüberwachungssystem mit objektmaskierung
DE102017220027A1 (de) Verfahren zur Schadenkontrolle bei Kraftfahrzeugen
DE112018003031T5 (de) Mitfahrmanagementsystem, mitfahrmanagementverfahren und programm
DE102013209055A1 (de) Datenquellenidentifizierung, Datensammlung und Datenspeicherung für Verkehrsereignisse
DE112017007189T5 (de) Bordhilfsvorrichtung, verfahren und programm
DE102017106685A1 (de) Systeme und verfahren zur entdeckung von objekten in einem fahrzeug
WO2016066360A1 (de) Vorrichtung und verfahren zum betreiben eines parkplatzes
DE102020122757A1 (de) Systeme und verfahren für mitfahrgelegenheiten unter verwendung von blockchain
DE102014224079A1 (de) Verfahren und Vorrichtung zum Überwachen eines sich innerhalb eines Parkplatzes befindenden Fahrzeugs
DE102019203345A1 (de) Verfahren zur Überwachung des Umfelds eines Fahrzeugs
DE112012005212T5 (de) Identitätsnachweisverfahren, Identitätsnachweissystem und Identitätsnachweisprogramm
DE102017113121A1 (de) Verfahren und Einrichtung für die automatische Übertragung medizinischer Daten
DE102016216522A1 (de) Verfahren zum Bereitstellen wenigstens einer Information über einen Unfall zwischen mindestens zwei Verkehrsteilnehmern
DE102015205978A1 (de) Dokumentieren eines Kraftfahrzeug-Zustands
DE112018003045T5 (de) Kartenaktualisierungsvorrichtung, kartenaktualisierungssystem, kartenaktualisierungsverfahren und programm
DE102017219818A1 (de) Vorrichtung, verfahren und system zum überwachen eines fahrzeugumfelds eines parkenden fahrzeugs sowie fahrzeug
DE102018209158B3 (de) Verfahren und Fahrzeugsystem zur Optimierung von Parkvorschlägen
DE102018008683A1 (de) Verfahren zum Ermöglichen der Identifizierung eines rücksichtslosen Fahrers eines Straßenfahrzeugs, System, Computerprogramm, computerlesbares Medium und Fahrzeug
DE102018002944A1 (de) Verfahren zum Betrieb eines Fahrzeuges
DE102018121110A1 (de) Verfahren und Vorrichtung zur Dokumentation eines Status eines autonomen Roboters
DE102020004792A1 (de) Verfahren und Vorrichtung zur Erkennung und Meldung von Parkunfällen für Fahrzeuge
DE102019204849A1 (de) Erkennung eines durch Personen ausgehenden Gefahrenpotentials
EP3734557A1 (de) Verfahren zur bereitstellung von trainingsdaten für adaptierbare situationserkennungsalgorithmen sowie verfahren zur automatisierten situationserkennung von betriebssituationen eines fahrzeugs zur öffentlichen personenbeförderung

Legal Events

Date Code Title Description
R012 Request for examination validly filed