DE102022004652A1 - System für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug und Verfahren davon - Google Patents

System für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug und Verfahren davon Download PDF

Info

Publication number
DE102022004652A1
DE102022004652A1 DE102022004652.0A DE102022004652A DE102022004652A1 DE 102022004652 A1 DE102022004652 A1 DE 102022004652A1 DE 102022004652 A DE102022004652 A DE 102022004652A DE 102022004652 A1 DE102022004652 A1 DE 102022004652A1
Authority
DE
Germany
Prior art keywords
context
entity
vehicle
seat
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022004652.0A
Other languages
English (en)
Inventor
Shihabudheen Muhammed
Varunjith Vijayan
Harisanker Madai
Supreeta Gudi S
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Publication of DE102022004652A1 publication Critical patent/DE102022004652A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/02246Electric motors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • B60N2/0248Non-manual adjustments, e.g. with electrical operation with logic circuits with memory of positions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • B60N2/0268Non-manual adjustments, e.g. with electrical operation with logic circuits using sensors or detectors for adapting the seat or seat part, e.g. to the position of an occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • B60N2/0273Non-manual adjustments, e.g. with electrical operation with logic circuits taking into account user data, e.g. knee height or physical state
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2210/00Sensor types, e.g. for passenger detection systems or for controlling seats
    • B60N2210/10Field detection presence sensors
    • B60N2210/16Electromagnetic waves
    • B60N2210/22Optical; Photoelectric; Lidar [Light Detection and Ranging]
    • B60N2210/24Cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2220/00Computerised treatment of data for controlling of seats
    • B60N2220/20Computerised treatment of data for controlling of seats using a deterministic algorithm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2230/00Communication or electronic aspects
    • B60N2230/30Signal processing of sensor data

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Ein System und Verfahren für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug wird offenbart, das eine Steuereinheit 106 umfasst, die an einer 3D-Kamera 304 und einem CAN-Modul 302 angebracht ist. Jedes von der Kamera 304 aufgenommene Einzelbild wird verarbeitet, um 3D-Informationen aus dem Bild zu extrahieren und ferner identifiziert die Steuereinheit 106 den Kontext des Innenraums und bildet aus den 3D-Informationen ein Körperskelett, um eine ergonomische Position für den Insassen zu identifizieren. Gemäß der identifizierten ergonomischen Position sendet das System 100 die Informationen für die Sitzanpassung über das CAN-Modul 302, um den Motor 310 zu betätigen.

Description

  • Die vorliegende Offenbarung bezieht sich auf Systeme und Verfahren für die auf künstlicher Intelligenz (KI) basierende Anpassung von Sitzen in einem Kraftfahrzeug. Insbesondere stellt die vorliegende Offenbarung ein System für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug und ein Verfahren davon bereit.
  • Die Fahrzeugsitze sind elektronisch in mehrere Richtungen anpassbar, einschließlich der Anpassung von Sitzkissen, Rückenlehne, Kopfstütze und Beinauflage. Die richtige Sitzposition ist für eine bequeme und gesunde Fahrt im Auto wichtig. Die Sitzposition sollte die normalen Körperfunktionen und den Bewegungsapparat für eine gesunde Fahrt entspannen. Die derzeitigen Systeme sind nicht in der Lage, eine ergonomische Sitzposition auf Grundlage des Kontexts und der physischen Merkmale eines Insassen bereitzustellen. Aus diesem Grund wählen die meisten Insassen eine unergonomische Haltung, was zu gesundheitlichen Problemen führen könnte.
  • Das Patentdokument DE102018211831A1 offenbart ein Verfahren zum Bestimmen einer Sitzanpassung eines Sitzes eines Kraftfahrzeugs, bei dem folgende Schritte durchgeführt werden: - Bereitstellen eines Körpermaßes eines Benutzers des Kraftfahrzeugs; eines visuellen Merkmals des Sitzes des Kraftfahrzeugs; Bereitstellen eines künstlichen neuronalen Netzes, das mit wenigstens einem Referenzsubjektmerkmal, wenigstens einem Referenzkörpermaß und wenigstens einer Referenzsitzanpassung trainiert wird; und Bestimmen der Sitzanpassung durch Eingabe des Körpermaßes und der Subjekteigenschaft in das künstliche neuronale Netz.
  • Das Patentdokument CN111942236A offenbart ein automatisches Anpassungsverfahren für einen Kraftfahrzeugsitz und den Kraftfahrzeugsitz. Der Kraftfahrzeugsitz umfasst einen Sitzkörper, einen horizontalen Lichtvorhang, der über dem Sitz angeordnet ist, einen vertikalen Lichtvorhang, der vor dem Sitz angeordnet ist, einen horizontalen Servomotor, der verwendet wird, um den Sitzkörper anzutreiben, sich vor- und zurückzubewegen, einen vertikalen Servomotor, der verwendet wird, um eine Sitzlehne anzutreiben, sich vor- und zurückzubewegen, und eine zentrale Verarbeitungseinheit, die verwendet wird, um den Antrieb des horizontalen Servomotors und des vertikalen Servomotors zu realisieren. Die Erfindung kann die automatische Anpassung der vorderen und hinteren Positionen des Kraftfahrzeugsitzes und der Sitzlehne gemäß den unterschiedlichen Bedingungen des Fahrers realisieren, ist bequem zu verwenden und verbessert die Erfahrung der Kunden.
  • Während die zitierten Referenzen verschiedene Verfahren zum automatischen Anpassen eines Sitzes in einem Fahrzeug offenbaren, stellt keine von ihnen irgendwelche Lehren in Bezug auf eine kontextbezogene Sitzanpassung bereit, die zum Verbessern des Komforts des Insassen beitragen kann.
  • Es besteht daher die Notwendigkeit, eine effiziente und kostengünstige Lösung bereitzustellen, die die vorstehend genannten Einschränkungen beseitigt und eine genaue und effiziente Lösung für die kontextbezogene Anpassung von Sitzen eines Fahrzeugs ermöglicht.
  • Eine allgemeine Aufgabe der vorliegenden Offenbarung ist es, ein genaues und effektives System und Verfahren bereitzustellen, das die vorstehend erwähnten Einschränkungen beseitigt und dadurch bei der kontextbezogenen Anpassung von Sitzen eines Fahrzeugs hilft.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und ein Verfahren zum automatischen Anpassen der Autositze gemäß den ergonomischen Standards unter Verwendung der Körpereigenschaften des Insassen und im Kontext der Kabine bereitzustellen.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und Verfahren bereitzustellen, das den Insassen in eine vordefinierte Klasse von Kontexten klassifiziert, indem es ein bildgestütztes Insassenüberwachungssystem verwendet, das den Insassen mit dem Fahrzeug in einer 3D-Koordinatenumgebung in Beziehung setzt.
  • Eine weitere Aufgabe der vorliegenden Offenbarung ist es, ein System und ein Verfahren bereitzustellen, bei dem die Informationen über die Autokomponenten mit den Informationen über die Körperhaltung verschmolzen werden, um einen fahrzeuginternen Kontext des Insassen zu erstellen.
  • Aspekte der vorliegenden Offenbarung beziehen sich auf Systeme und Verfahren für die auf künstlicher Intelligenz (KI) basierende Anpassung von Sitzen in einem Kraftfahrzeug. Insbesondere stellt die vorliegende Offenbarung ein System für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug und ein Verfahren davon bereit.
  • Ein Aspekt der vorliegenden Offenbarung betrifft ein System für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug, wobei das System umfasst: eine Bilderfassungseinheit, die dazu konfiguriert ist, mehrere Einzelbilder eines Bereichs von Interesse (AOI) innerhalb des Fahrzeugs aufzunehmen; und eine Steuereinheit, die mit der Bilderfassungseinheit gekoppelt ist, wobei die Steuereinheit einen oder mehrere Prozessoren umfasst, die betriebsfähig mit einem Speicher gekoppelt sind, wobei der Speicher Anweisungen speichert, die von dem einen oder den mehreren Prozessoren ausgeführt werden können, zum: Empfangen der aufgenommenen Einzelbilder des AOI von der Bilderfassungseinheit und Erkennen einer Entität, die auf einem Sitz des Fahrzeugs sitzt, und entsprechendes Extrahieren eines Satzes von physischen Attributen der erkannten Entität aus den empfangenen Einzelbildern; Identifizieren auf Grundlage des extrahierten Satzes von physischen Attributen von Gelenken des Körperskeletts der erkannten Entität; Bilden durch Verknüpfen der identifizierten Gelenke eines oder mehrerer Vektoren und entsprechendes Vorhersagen einer Sitzposition der erkannten Entität durch Verstehen des einen oder der mehreren gebildeten Vektoren; Definieren auf Grundlage eines Nachweises einer Verfolgung der erkannten Entität von den empfangenen Einzelbildern eines Kontexts der erkannten Entität; und Bestimmen unter Berücksichtigung der vorhergesagten Sitzposition und des definierten Kontexts einer ergonomischen Position für die erkannte Entität und entsprechendes Ermöglichen einer gesteuerten Anpassung des Sitzes des Fahrzeugs.
  • In einem Aspekt weist die Steuereinheit ein oder mehrere Objekte nach, die der erkannten Entität zugeordnet sind, und extrahiert die Kopforientierung der erkannten Entität aus den empfangenen Einzelbildern; wobei das System durch Zuordnen des einen oder der mehreren nachgewiesenen Objekte und der extrahierten Kopforientierung mit der nachgewiesenen Verfolgung der erkannten Entität den Kontext der erkannten Entität definiert.
  • In einem anderen Aspekt erfasst das System Informationen über die Fahrzeugkomponenten und die Körperhaltung der Entität und verschmilzt die erfassten Informationen über die Fahrzeugkomponenten und die Körperhaltung mit einem oder mehreren nachgewiesenen Objekten, um den Kontext der erkannten Entität zu definieren.
  • In einem Aspekt klassifiziert das System die Faktoren für die Definition des Kontexts in Hauptkontextfaktoren und Nebenkontextfaktoren, definiert das System den Kontext unter Bezugnahme auf die Hauptkontextfaktoren und verfeinert dann den definierten Kontext unter Berücksichtigung der Nebenkontextfaktoren.
  • In einem Aspekt gleicht das System die vorhergesagte Sitzposition für jeden definierten Kontext mit einem Referenzdatensatz ab, der vorab gespeicherte ergonomische Positionen umfasst.
  • In einem Aspekt werden die vorgespeicherten ergonomischen Positionen als ein Vektor gespeichert, der die einzelnen Gelenke im 3D-Raum miteinander verbindet, zusammen mit einer Beziehung des Vektors zu 3D-Referenzebenen.
  • In einem weiteren Aspekt stellt das System der Entität über eine Benutzerschnittstelle Flexibilität bereit, um die Anpassung auf eine bevorzugte ergonomische Position zu ermöglichen, wobei dadurch die Entität ein oder mehrere Gelenke wechseln kann, und wobei persönliche Präferenzen in Profildaten gespeichert werden, die es dem System ermöglichen, in Zukunft sofort zu reagieren.
  • In einem Aspekt umfasst das System eine Lernmaschine, die betriebsfähig mit der Steuereinheit gekoppelt ist, wobei die Lernmaschine eine Architektur für maschinelles Sehen umfasst und die Vorhersage der Sitzposition und die Definition des Kontexts der Entität erleichtert.
  • In einem anderen Aspekt umfasst die Bilderfassungseinheit eine dreidimensionale (3D) Erfassungsvorrichtung, und wobei eine IR-fähige 3D-Kamera in der Erfassungsvorrichtung konfiguriert ist.
  • Ein weiterer Aspekt der vorliegenden Offenbarung betrifft ein Verfahren zum kontextbasierten Anpassen von Sitzen in einem Fahrzeug, wobei das Verfahren umfasst: Aufnehmen mehrerer Einzelbilder eines Bereichs von Interesse (AOI) innerhalb des Fahrzeugs durch eine Bilderfassungseinheit; Empfangen der aufgenommenen Einzelbilder des AOI von der Bilderfassungseinheit an einer Steuereinheit, und Erkennen einer auf einem Sitz des Fahrzeugs sitzenden Entität, und entsprechendes Extrahieren eines Satzes von physischen Attributen der erkannten Entität aus den aufgenommenen Einzelbildern; Identifizieren an der Steuereinheit von Gelenken des Körperskeletts der erkannten Entität auf Grundlage des extrahierten Satzes physischer Attribute; Definieren an der Steuereinheit auf Grundlage eines Nachweises einer Verfolgung der erkannten Entität von den empfangenen Einzelbildern eines Kontexts der erkannten Entität; und Bestimmen an der Steuereinheit unter Berücksichtigung der vorhergesagten Sitzposition und des definierten Kontexts einer ergonomischen Position für die Entität und entsprechendes Ermöglichen einer gesteuerten Anpassung des Sitzes des Fahrzeugs.
  • Verschiedene Aufgaben, Merkmale, Aspekte und Vorteile des Erfindungsgegenstandes werden aus der folgenden ausführlichen Beschreibung bevorzugter Ausführungsformen zusammen mit den beigefügten Zeichnungen, in denen gleiche Ziffern gleiche Komponenten darstellen, deutlicher.
  • Die beigefügten Zeichnungen sind beinhaltet, um ein weiteres Verständnis der vorliegenden Offenbarung bereitzustellen, und sind in diese Patentschrift einbezogen und bilden einen Teil dieser. Die Zeichnungen veranschaulichen beispielhafte Ausführungsformen der vorliegenden Offenbarung und dienen zusammen mit der Beschreibung für die Erläuterung der Grundsätze der vorliegenden Offenbarung.
    • 1 veranschaulicht eine beispielhafte Architektur des vorgeschlagenen Systems für kontextbasierte Anpassung von Sitzen in einem Fahrzeug, um seine allgemeine Funktionsweise in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung zu veranschaulichen.
    • 2 veranschaulicht beispielhafte Funktionseinheiten einer Steuereinheit des vorgeschlagenen Systems in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung.
    • 3 veranschaulicht ein Blockdiagramm, das verschiedene Komponenten des vorgeschlagenen Systems zum Berechnen eines kontextbasierten Referenzwinkels in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung darstellt.
    • 4 veranschaulicht ein Flussdiagramm, das die interne Struktur der ECU, die in der 3 dargestellt wird, in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung darstellt.
    • 5 veranschaulicht ein Blockdiagramm des vorgeschlagenen Systems für die Ermöglichung einer referenzwinkelbasierten Sitzanpassung in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung.
    • 6 veranschaulicht ein Diagramm, in dem verschiedene Vektoren und Kontextklassen in Übereinstimmung mit einer beispielhaften Ausführungsform der vorliegenden Offenbarung dargestellt sind.
    • 7 veranschaulicht ein Flussdiagramm des vorgeschlagenen Verfahrens zum kontextbasierten Anpassen von Sitzen in einem Fahrzeug in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung.
  • Es folgt eine ausführliche Beschreibung der in den beigefügten Zeichnungen dargestellten Ausführungsformen der Offenbarung. Die Ausführungsformen sind so ausführlich, um die Offenbarung klar zu vermitteln. Es ist jedoch nicht beabsichtigt, durch die Menge der angebotenen Details die vorhersehbaren Variationen von Ausführungsformen einzuschränken; im Gegenteil, die Absicht ist, alle Modifikationen, Äquivalente und Alternativen abzudecken, die in den Geist und den Umfang der vorliegenden Offenbarungen fallen, wie durch die beigefügten Ansprüche definiert.
  • Die hierin erläuterten Ausführungsformen beziehen sich auf Systeme und Verfahren für die auf künstlicher Intelligenz (KI) basierende Anpassung von Sitzen in einem Kraftfahrzeug. Insbesondere stellt die vorliegende Offenbarung ein System für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug und ein Verfahren davon bereit. Das vorgeschlagene System ist ein kontextbewusstes System, auf eine solche Weise, dass es die aktuelle Aktivität eines Insassen, wie Lesen, Schlafen, Essen und dergleichen erkennt und dann dieselben verwendet, um die geeignete Sitzposition abzuleiten.
  • Unter Bezugnahme auf 1 kann das vorgeschlagene System 100 (im Folgenden austauschbar als System 100 bezeichnet) in einem Fahrzeug implementiert werden, wodurch es die Anpassung eines Sitzes in dem Fahrzeug auf Grundlage des Kontexts einer auf dem Sitz sitzenden Entität erleichtern kann. In einer Ausführungsform beinhaltet das System 100 eine Bilderfassungseinheit 102, die dazu konfiguriert werden kann, mehrere Bilder eines Bereichs von Interesse (AOI) im Fahrzeug aufzunehmen, wobei der AOI einen Bereich im Fahrzeug beinhalten kann, der alle Sitze des Fahrzeugs beinhaltet. In einer anderen Ausführungsform können die von der Bilderfassungseinheit 102 aufgenommenen mehreren Einzelbilder weiter übertragen werden. In einer beispielhaften Ausführungsform kann die Bilderfassungseinheit 102 eine dreidimensionale (3D) Erfassungsvorrichtung beinhalten, die ferner eine IR-fähige 3D-Kamera zum Aufnehmen mehrerer Einzelbilder beinhalten kann.
  • In einer Ausführungsform beinhaltet das System 100 eine Steuereinheit 106, die mit der Bilderfassungseinheit 102 gekoppelt ist, und die Steuereinheit 106 kann ebenso mit einer Lernmaschine 110 gekoppelt sein, wobei die Lernmaschine 110 eine Architektur für maschinelles Sehen beinhalten kann, die unter Verwendung eines faltenden neuronalen Netzes (Convolutional Neural Network, CNN) und rekurrentes neuronales Netz (Recurrent Neural Network, RNN) implementiert werden kann.
  • In einer Ausführungsform kann die Steuereinheit 106 dazu konfiguriert sein, die aufgenommenen Einzelbilder des AOI zu empfangen, die von der Bilderfassungseinheit 102 übertragen werden. In einer anderen Ausführungsform kann die Steuereinheit 106 auf Grundlage der empfangenen Einzelbilder eine Entität erkennen, die auf einem Sitz des Fahrzeugs sitzt. In einer anderen Ausführungsform kann die Steuereinheit 106 einen Satz physischer Attribute der erkannten Entität aus den empfangenen Einzelbildern extrahieren.
  • In einer Ausführungsform kann die Steuereinheit 106 Gelenke des Körperskeletts der erkannten Entität identifizieren, und ferner kann die Steuereinheit 106 durch Verknüpfung der identifizierten Gelenke einen oder mehrere Vektoren bilden. In einer anderen Ausführungsform kann die Steuereinheit 106 den oder die erzeugten Vektoren auf eine vordefinierte Weise verstehen und entsprechend eine Sitzposition der erkannten Entität vorhersagen.
  • In einer Ausführungsform kann die Steuereinheit 106 die Verfolgung der erkannten Entität von den empfangenen Einzelbildern nachweisen, d. h. Aktivitäten, die von der Entität durchgeführt werden. Ferner kann die Steuereinheit 106 einen Kontext der erkannten Entität definieren, der auf dem Nachweis der Verfolgung der erkannten Entität basiert. In einer Ausführungsform kann die Steuereinheit 106 ein oder mehrere Objekte erkennen, die der erkannten Entität zugeordnet sind, wie Bücher, Zeitungen, Smartphones und Lebensmittel. In einer anderen Ausführungsform kann die Steuereinheit 106 eine Kopforientierung der erkannten Entität aus den empfangenen Einzelbildern extrahieren. Die Steuereinheit 106 kann ferner das eine oder die mehreren nachgewiesenen Objekte und die extrahierte Kopforientierung mit der nachgewiesenen Verfolgung der erkannten Entität abbilden, um den Kontext der erkannten Entität zu definieren, beispielsweise ob die Entität die nachgewiesenen Objekte betrachtet, ein Buch liest, sich mit anderen Personen unterhält oder die Entität aus dem Fenster starrt und andere ähnliche Aktivitäten.
  • In einer Ausführungsform kann die Steuereinheit 106 eine ergonomische Position für die erkannte Entität unter Berücksichtigung der vorhergesagten Sitzposition und des definierten Kontexts bestimmen. Ferner kann die Steuereinheit 106 eine gesteuerte Anpassung des Sitzes des Fahrzeugs auf Grundlage der ergonomischen Position, die bestimmt wird, ermöglichen. Das vorgeschlagene System 100 ist ein sichtbasiertes System, das das Körperskelett der Entität (des Insassen) für die aktuelle Sitzposition nachweist und dasselbe mit einem Körperskelett für eine ergonomische Sitzposition vergleicht, die für den aktuellen Kontext des Insassen und die physischen Eigenschaften des Insassen geeignet ist, um den Sitz anzupassen.
  • Gemäß einer Ausführungsform kann das System 100 die Steuereinheit 106 beinhalten, die über ein Netz 104 mit der Bilderfassungseinheit 102 und dem Lernmodul 110 kommunizieren kann. Ferner kann das Netzwerk 104 ein drahtloses Netz, ein kabelgebundenes Netz oder eine Kombination davon sein, das/die als eine der verschiedenen Arten von Netze implementiert werden kann, wie Intranet, lokales Netz (LAN), Weitverbundnetz (WAN), Internet und dergleichen. Ferner kann das Netz 104 entweder ein dediziertes Netz oder ein gemeinsam genutztes Netz sein. Das gemeinsame Netz kann eine Zuordnung verschiedener Arten von Netzen darstellen, die eine Vielzahl von Protokollen verwenden können, beispielsweise Hypertext-Übertragungsprotokoll (HTTP), Übertragungssteuerungsprotokoll/Internetprotokoll (TCPIIP), drahtloses Anwendungsprotokoll (WAP) und dergleichen.
  • In einer Ausführungsform kann das System 100 unter Verwendung beliebiger oder einer Kombination von Hardwarekomponenten und Softwarekomponenten implementiert werden, wie einer Cloud, eines Servers 108, eines Rechensystems, einer Rechenvorrichtung, einer Netzwerkvorrichtung und dergleichen. Ferner kann das System 100 mit der Bilderfassungseinheit 102 über eine Website oder eine Anwendung interagieren, die sich in dem vorgeschlagenen System 100 befinden kann. In einer Implementierung kann über eine Website oder eine Anwendung auf das System 100 zugegriffen werden, die mit einem beliebigen Betriebssystem konfiguriert werden kann, einschließlich, jedoch ohne darauf beschränkt zu sein, Android™, iOS™ und dergleichen.
  • Unter Bezugnahme auf 2 und 4, können beispielhafte Funktionseinheiten der Steuereinheit 106 (hierin ebenso als ECU bezeichnet) einen oder mehrere Prozessoren 202 beinhalten. Der/die Prozessor(en) 202 kann/können als ein oder mehrere Mikroprozessoren, Mikrocomputer, Mikrocontroller, digitale Signalprozessoren, zentrale Verarbeitungseinheiten, Logikschaltungen und/oder beliebige Vorrichtungen, die Daten auf Grundlage von Betriebsanweisungen verarbeiten, implementiert werden. Neben anderen Fähigkeiten sind der/die Prozessor(en) 202 dazu konfiguriert, computerlesbare Anweisungen abzurufen und auszuführen, die in einem Speicher 204 der Steuereinheit 106 gespeichert sind. Der Speicher 204 kann eine oder mehrere computerlesbare Anweisungen oder Routinen speichern, die abgerufen und ausgeführt werden können, um die Dateneinheiten über einen Netzdienst zu erstellen oder gemeinsam zu nutzen. Der Speicher 204 kann eine beliebige nichtflüchtige Sekundärspeichervorrichtung beinhalten, beispielsweise einschließlich eines flüchtigen Primärspeichers wie RAM oder eines nichtflüchtigen Primärspeichers wie EPROM, Flash-Primärspeicher und dergleichen.
  • In einer Ausführungsform kann die Steuereinheit 106 ebenso eine Schnittstelle(n) 206 beinhalten. Die Schnittstelle(n) 206 kann/können eine Mehrzahl von Schnittstellen beinhalten, beispielsweise Schnittstellen für Dateneingabe- und -ausgabevorrichtungen, die als E/A-Vorrichtungen bezeichnet werden, Sekundärspeichervorrichtungen und dergleichen. Die Schnittstelle(n) 206 kann/können die Kommunikation der Steuereinheit 106 mit verschiedenen Vorrichtungen, die mit der Steuereinheit 106 gekoppelt sind, erleichtern. Die Schnittstelle(n) 206 kann/können ebenso einen Kommunikationsweg für eine oder mehrere Komponenten der Steuereinheit 106 bereitstellen. Beispiele für solche Komponenten beinhalten, ohne jedoch darauf beschränkt zu sein, Verarbeitungsmaschine(n) 208 und die Datenbank 210.
  • In einer Ausführungsform kann/können die Verarbeitungsmaschine(n) 208 als eine Kombination aus Hardware und Programmierung (beispielsweise programmierbare Anweisungen) implementiert werden, um eine oder mehrere Funktionalitäten der Verarbeitungsmaschine(n) 208 zu implementieren. In den hierin beschriebenen Beispielen können solche Kombinationen von Hardware und Programmierung auf verschiedene Weise realisiert werden. Beispielsweise kann die Programmierung für das/die Verarbeitungsmodul(e) 208 aus prozessorausführbaren Anweisungen bestehen, die auf einem nichtflüchtigen, maschinenlesbaren Sekundärspeichermedium gespeichert sind, und kann die Hardware für das/die Verarbeitungsmodul(e) 208 eine Verarbeitungsressource (beispielsweise einen oder mehrere Prozessoren) beinhalten, um solche Anweisungen auszuführen. In den vorliegenden Beispielen kann das maschinenlesbare Sekundärspeichermedium Anweisungen speichern, die, wenn sie von der Verarbeitungsressource ausgeführt werden, das/die Verarbeitungsmodul(e) 208 implementieren. In solchen Beispielen kann die Steuereinheit 106 das maschinenlesbare Sekundärspeichermedium, auf dem die Anweisungen gespeichert sind, und die Verarbeitungsressource für die Ausführung der Anweisungen beinhalten, oder kann das maschinenlesbare Sekundärspeichermedium separat sein, jedoch für das System 100 und die Verarbeitungsressource zugänglich sein. In anderen Beispielen kann/können das/die Verarbeitungsmodul(e) 208 durch elektronische Schaltungen implementiert werden. Die Datenbank 210 kann Daten beinhalten, die entweder gespeichert oder als ein Ergebnis von Funktionalitäten erzeugt werden, die von einer der Komponenten der Verarbeitungsmaschine(n) 208 implementiert werden. In einer Ausführungsform kann/können die Verarbeitungseinheit(en) 208 eine Körperhaltungs- und Objektsidentifizierungseinheit 212, eine Kontexterkennungseinheit 214, eine ergonomische Positionsnachweiseinheit 216, eine Benutzerprofileinstellungseinheit 218, eine Sitzpositionsnachweiseinheit 220 und andere Einheiten 222 beinhalten. Die andere(n) Einheit(en) 222 kann/können Funktionen implementieren, die die von der Steuereinheit 106 ausgeführten Anwendungen/Funktionen ergänzen.
  • In einer Ausführungsform kann die Körperhaltungs- und Objektsidentifizierungseinheit 212 (hierin ebenso als Körperhaltungs- und Objektidentifikation 212 bezeichnet) einen Satz physischer Attribute der erkannten Entität aus den empfangenen Einzelbilder extrahieren. Ferner kann die Körperhaltungs- und Objektidentifikationseinheit 212 Gelenke des Körperskeletts der erkannten Entität auf Grundlage des extrahierten Satzes physischer Attribute identifizieren, und dann kann die Körperhaltungs- und Objektidentifikationseinheit 212 durch Verknüpfung der identifizierten Gelenke einen oder mehrere Vektoren bilden. In einer anderen Ausführungsform kann die Körperhaltungs- und Objektsidentifizierungseinheit 212 eine Sitzposition der erkannten Entität vorhersagen, indem sie den einen oder die mehreren gebildeten Vektoren versteht.
  • In einer anderen Ausführungsform kann die Körperhaltungs- und Objektsidentifizierungseinheit 212 ein oder mehrere Objekte nachweisen, die der erkannten Entität zugeordnet sind, und kann ferner die Kopforientierung der erkannten Entität aus den empfangenen Einzelbilder extrahieren. In einer weiteren Ausführungsform kann die Körperhaltungs- und Objektsidentifizierungseinheit 212 Informationen über Fahrzeugkomponenten und die Körperhaltung der Entität erfassen. In einer beispielhaften Ausführungsform kann die Körperhaltungs- und Objektsidentifizierungseinheit 212 die Körperhaltung der Entität unter Berücksichtigung der vorhergesagten Sitzposition, der extrahierten Kopforientierung und dergleichen berechnen.
  • In einer Ausführungsform kann die Kontextidentifizierungseinheit 214 (hierin ebenso als Kontextidentifizierung 214 bezeichnet) einen Kontext der erkannten Entität auf Grundlage des Nachweises der Verfolgung der erkannten Entität aus den empfangenen Einzelbilder definieren. In einer anderen Ausführungsform kann die Kontextidentifizierungseinheit 214 den Kontext der erkannten Entität definieren, indem sie das eine oder die mehreren nachgewiesenen Objekte und die extrahierte Kopforientierung mit der nachgewiesenen Verfolgung der erkannten Entität abbildet. In einer anderen Ausführungsform kann die Kontextidentifizierungseinheit 214 die erfassten Fahrzeugkomponenteninformationen und die Körperhaltung mit dem einen oder den mehreren nachgewiesenen Objekten verschmelzen, um den Kontext der erkannten Entität zu definieren.
  • In einer Ausführungsform kann die Kontextidentifizierungseinheit 214 Faktoren zum Definieren des Kontexts in Hauptkontextfaktoren und Nebenkontextfaktoren klassifizieren, wobei der Kontext auf Grundlage der Hauptkontextfaktoren definiert wird und der definierte Kontext dann unter Berücksichtigung der Nebenkontextfaktoren weiter verfeinert wird.
  • In einer Ausführungsform kann die Nachweiseinheit 216 für die ergonomische Position (hierin ebenso als Erkennung 216 der ergonomischen Position bezeichnet) eine ergonomische Position für die erkannte Entität unter Berücksichtigung der vorhergesagten Sitzposition und des definierten Kontexts bestimmen.
  • In einer Ausführungsform kann die Benutzerprofileinstellungseinheit 218 (hierin ebenso als Benutzerprofileinstellungen 218 bezeichnet) der Entität über eine Benutzerschnittstelle die Flexibilität bereitstellen, persönliche Präferenzen einzugeben, beispielsweise ein oder mehrere Gelenke zu ändern, und wobei die eingegebenen persönlichen Präferenzen in Profildaten gespeichert werden, die es dem System 100 ermöglichen können, in Zukunft sofort zu reagieren.
  • In einer Ausführungsform kann die Sitzpositionsnachweiseinheit 220 (hierin ebenso als Sitzpositionsnachweis 218 bezeichnet) die vorhergesagte Sitzposition für jeden definierten Kontext mit einem Referenzdatensatz abgleichen, der vorgespeicherte ergonomische Positionen beinhaltet, wobei die vorgespeicherten ergonomischen Positionen als ein Vektor gespeichert werden können, der jedes Gelenk im 3D-Raum zusammen mit einer Beziehung des Vektors zu 3D-Referenzebenen verbindet. Ferner kann das System 100 auf Grundlage der Ergebnisse des von der Sitzpositionsnachweiseinheit 220 durchgeführten Abgleichs die Anpassung des von der Entität belegten Sitzes ermöglichen, sodass dieser auf eine bevorzugte ergonomische Position angepasst werden kann.
  • Auf diese Weise kann das vorgeschlagene System 100 den Sitz automatisch auf eine solche Weise anpassen, dass er dem Insassen (der Entität) eine ergonomische Sitzposition bereitstellen kann, und zwar auf Grundlage des Kontexts in der Kabine, d. h. der Fahrzeugkomponenteninformationen zusammen mit dem definierten Kontext und dem Satz physischer Attribute (physischer Merkmale) des Insassen. Ferner kann das vorgeschlagene System 100 den Prozess der manuellen Sitzanpassung erleichtern und gleichzeitig eine ergonomisch geeignete Sitzposition für verschiedene Kontexte bereitstellen. Wenn sich der Benutzer gemäß seinem durch das System nachgewiesenen Kontext nicht in einer ergonomischen Position befindet, kann das vorgeschlagene System 100 die Entität (den Benutzer) über die Benutzerschnittstelle (UI) auffordern, eine automatische Anpassung in eine ergonomische Position zu ermöglichen, mit der Flexibilität das Gelenk/die Gelenke nach seinen/ihren persönlichen Vorlieben zu wählen. Diese persönlichen Präferenzen können in Profildaten gespeichert werden, was es dem System 100 ermöglicht, beim nächsten Mal sofort zu reagieren.
  • In einer Ausführungsform kann das vorgeschlagene System 100 maschinelles Sehen verwenden, um den Kontext des Insassen für jeden Sitz nachzuweisen, und es kann ebenso ein vollständiges Körperskelett des Insassen unter Verwendung verschiedener Körpergelenke nachweisen und bilden. Ferner verwendet das System 100 einen fortschrittlichen Mechanismus, um das Skelettmodell der ergonomischen Sitzposition für jeden Kontext mit dem aktuellen Skelettmodell des Insassen zu vergleichen, und verwendet dann ein einzigartiges Verfahren, um die Vergleichsausgabe in die relevante Sitzposition und Sitzanpassungsanforderungen umzuwandeln.
  • Unter Bezugnahme auf 3 und 4 kann das System 100 in ein Auto eingebaut werden, wobei die Steuereinheit 106 (ECU 106) einen Mikrocontroller beinhalten kann, der über einen physischen seriellen Kommunikationsanschluss mit der 3D-Erfassungsvorrichtung verbunden ist. In einer beispielhaften Ausführungsform kann der Mikrocontroller über ein Controlled Area Network (CAN-) Modul 302 (hierin ebenso als Fahrzeug-CAN-Netz 302 bezeichnet) mit dem Fahrzeug verbunden sein und dadurch Nachrichten an andere Mikrocontroller oder Rechenvorrichtungen, die in dem Fahrzeug vorhanden sind, unter Verwendung des CAN-Moduls 302 senden oder von diesen empfangen.
  • In einer anderen beispielhaften Ausführungsform könnte die 3D-Erfassungsvorrichtung eine IR-fähige 3D-Kamera 304 (hierin ebenso als Kamera 304 bezeichnet) sein, die die Bilder des Fahrzeuginnenraums mit einer Rate von 30 Einzelbildern pro Sekunde aufnehmen kann, wobei jedes Bild in dem Mikrocontroller verarbeitet werden kann, um 3D-Informationen aus dem Bild zu extrahieren, und dann für die weitere Verarbeitung an die Funktionseinheiten (Module) der Steuereinheit 106 übertragen werden kann. In noch einer weiteren beispielhaften Ausführungsform können die extrahierten 3D-Informationen aus 3D-Daten der Körpergelenke des Insassen bestehen, wie Schulter, Handmitte, Ellbogen, Knie, Winkel, Nasenwurzelpunkt, Hüfte, unterer Hals und dergleichen.
  • In einer Ausführungsform kann die Kontextidentifizierung 214 den Kontext des Innenraums identifizieren und ferner das Körperskelett aus den 3D-Informationen erstellen, um eine ergonomische Position für den Insassen zu identifizieren. Ferner kann das System 100 entsprechend der identifizierten ergonomischen Position die dem Sitz zugeordneten Sitzanpassungsinformationen über das CAN-Modul 302 an die Steuereinheit 106 senden. In einer anderen Ausführungsform kann die Körperhaltungs- und Objektidentifizierung 212 Objektinformationen aus dem Bild extrahieren, um das Vorhandensein bestimmter Objekte zu identifizieren, wie Handgeräte, Zeitungen und Bücher, ohne jedoch darauf beschränkt zu sein. Ferner kann das System 100 ebenso die Kopforientierung des Insassen auf eine solche Weise extrahieren, dass es identifiziert, wohin der Insasse schaut.
  • In einer Ausführungsform kann das System 100 Informationen über die Körperteile der Entität (des Individuums) extrahieren und kann dementsprechend eine Skelettmodellbildung ausführen. Bei diesem Prozess werden benachbarte Gelenke unter Verwendung eines Vektors miteinander verbunden, der durch die im 3D-Raum gekennzeichneten Gelenke verläuft. So kann beispielsweise das Schultergelenk mit dem Ellbogengelenk (ArmVektor) und das Ellbogengelenk mit den Handgelenken (UnterarmVektor) verbunden werden. Diese Vektoren können zusammen das Skelettmodell des Insassen in einem 3D-Raum ausbilden. In einer beispielhaften Ausführungsform stehen 3D-Informationen der Körpergelenke aus einem Bildverarbeitungsverfahren zur Verfügung, das 3D-Bilder von der Kamera als Eingabe verwendet.
  • In einer Ausführungsform kann die Bildverarbeitungstechnik eine erste Technik beinhalten, die das Nachweisen der Körpergelenke unter Verwendung einer 3D-Erfassungsvorrichtung und das Umwandeln der entsprechenden Werte in die Werte eines Autokoordinatensystems beinhaltet. In einer beispielhaften Ausführungsform können die nachgewiesenen Gelenke Nasenwurzelpunkt (Nasenwurzelpunkt_X/Y/Z), unterer Hals (UntererHals_X/Y/Z), Schultern (Schultern_X/Y/Z), Ellbogen (Ellbogen_X/Y/Z), Handzentrum, Hüfte (Hüfte_X/Y/Z), Knie (Knie_X/Y/Z) und Knöchel (Knöchel_X/Y/Z) sein, ohne jedoch darauf beschränkt zu sein.
  • Ferner kann sie das Bilden von Vektoren zwischen den wichtigsten Körpergelenken und dann das Messen der entsprechenden Vektorlänge in jeder Achse des Koordinatensystems beinhalten. Beispielweise: KopfVektor _ X/Y/Z = Nasenwurzelpunkt _ X/Y/Z UntererHals _ X/Y/Z
    Figure DE102022004652A1_0001
    K o ¨ rperVektor _ X/Y/Z = UntererHals _ X/Y/Z H u ¨ fte _ X/Y/Z
    Figure DE102022004652A1_0002
    OberschenkelVektor _ X/Y/Z = H u ¨ fte _ X/Y/Z Knie _ X/Y/Z
    Figure DE102022004652A1_0003
    BeinVektor _ X/Y/Z = Knie _ X/Y/Z Kn o ¨ chel _ X/Y/Z
    Figure DE102022004652A1_0004
    ArmVektor _ X/Y/Z = Schulter _ X/Y/Z Ellbogen _ X/Y/Z
    Figure DE102022004652A1_0005
    UnterarmVektor _ X/Y/Z = Ellenbogen _ X/Y/Z Hand _ X/Y/Z
    Figure DE102022004652A1_0006
  • Darüber hinaus kann die erste Technik das Bilden eines Winkels zwischen jedem Vektor mit Referenzpunkten parallel zu der X-, Y- und Z-Achse beinhalten und wird unter Verwendung von eindeutigen Elementen dargestellt: cos ( ϕ ) = Vektor z / | Vektor |
    Figure DE102022004652A1_0007
    ϕ = cos ( 1 ) ( Vektor z / | Vektor | )
    Figure DE102022004652A1_0008
    < Vektorname > ϕ ( x/y/z ) = c o s 1 ( IVektor  ' x \ y \ z | IVektor  ' | )
    Figure DE102022004652A1_0009
    Beispielsweise für Körpervektor: K o ¨ rperVektor ϕ x \ y \ z = c o s 1 ( K o ¨ rperVektor  ' x \ y \ z | , K o ¨ rperVektor  , | )
    Figure DE102022004652A1_0010
     
    Figure DE102022004652A1_0011
  • Diese benachbarten Vektoren bilden zusammen das Skelettmodell des Passagiers im 3D-Raum aus.
  • Ferner kann die erste Technik den Prozess der Bildung einer Körperhaltung aus den einzelnen Körperteilen und ihren Merkmalen beinhalten. Sobald das Skelettmodell gebildet ist, muss die Körperhaltung bestimmt werden. Das Körperskelettmodell und die Segmentvektoren in dem Skelettmodell werden mit dem Auto in Beziehung gesetzt, indem ein Konzept der parallelen Ebenen verwendet wird, bei dem 3 parallele Ebenen aus eine solche Weise berücksichtigt werden, dass eine Ebene parallel zu der x-Koordinatenachse (von vorne nach hinten), die zweite Ebene parallel zu der y-Koordinatenachse (von links nach rechts) und die dritte Ebene parallel zu der z-Koordinatenachse von unten nach oben verläuft. Ferner werden die segmentierten Merkmale mit ihren Referenzebenen verglichen, um die Körperhaltung zu bilden. So können beispielsweise der Armvektor und der Unterarmvektor mit der Referenzebene verglichen werden, um die Handhaltung zu ermitteln. Auf ähnliche Weise soll die Sammlung der einzelnen Körpersegmente und ihrer Merkmale wie in Tabelle 1 gezeigt erhalten werden. Tabelle 1
    Körpersegment Merkmale
    Gesicht/Kopf Nach unten gebeugt (KopfVektor ϕx < HSchwelle) und (Nasenwurzelpunkt_X < UntererHalsX)
    Nach oben (KopfVektor ϕx < HSchwelle) und (Nasenwurzelpunkt_X > UntererHalsX)
    Geradeaus (KopfVektor ϕz < HSchwelle) und (Nasenwurzelpunkt_X ~= UntererHalsX)
    Links (KopfVektor ϕy < HSchwelle) und (Nasenwurzelpunkt_X ~= UntererHalsX) und (LinkeSchulter_Y ~=Nasenwurzelpunkt_Y)
    Rechts (KopfVektor ϕy < HSchwelle) und (Nasenwurzelpunkt_X ~= UntererHalsX) Und (RechteSchutter_Y ~=Nasenwurzelpunkt_Y)
    Arm/Hand Arm gebeugt FürArm ϕx!=0 und HandVektor ϕx!=0
    Arm ausgestreckt FürArm ϕx~=0 und HandVeltor ϕx~=0
    Oberkörper Geradeaus (KörperVektor ϕ_x < ObereSchwelle)&& KörperVektor ϕ_z < UntereSchwelle)
    Nach vorne geneigt KörperVektor ϕx)< Schwelle und UntererHals_X < Hüfte_X
    Nach hinten geneigt KörperVektor ϕx> Schwelle und UntererHals_X < Hüfte_X
    Unterkörper Gebeugte Beine BeinVektor(ϕz) < Schwelle Und BeinVektor Z > Schwelle
    Beine gestreckt BeinVektor (ϕx) < Schwelle Und BeinVektor Z > Schwelle
  • In einer anderen Ausführungsform kann die Bildverarbeitungstechnik eine zweite Technik beinhalten, die das Ableiten der Körpersegmenthaltung unter Verwendung der relevanten Körpergelenkvektoren und ihrer Beziehung zu der Referenzebene für eine vordefinierte Körperhaltung beinhaltet (siehe Tabelle 1). Beispielweise:
    1. a. Die Gesichts-/Kopfhaltung kann unter Verwendung der 3D-Positionen des Nasenwurzelpunkts, des unteren Halses und der Schulter nachgewiesen werden
    2. b. Die Arm-/Handhaltung kann unter Verwendung der 3D-Positionen der Schulter, Ellbogen, Fingerspitzen und Handgelenke nachgewiesen werden
    3. c. Die Haltung des Oberkörpers kann unter Verwendung der 3D-Positionen der Schulter, des unteren Nackens und der Hüftgelenke nachgewiesen werden
    4. d. Die Haltung des Unterkörpers kann unter Verwendung der 3D-Positionen der Hüft-, Knie- und Fußgelenke nachgewiesen werden.
  • In einer Ausführungsform kann das System 100 einen vordefinierten Satz von Kontexten beinhalten, die auf den möglichen Aktivitäten des Insassen in dem Auto wie Schlafen, Lesen, Essen und dergleichen basieren. Jeder dieser Kontexte kann durch bestimmte Parameter gekennzeichnet werden, die aus verschiedenen Quellen zusammengetragen werden. Ferner kann der Kontext unter Verwendung von zwei Faktoren definiert/gebildet werden, nämlich dem Hauptkontextfaktor und dem Nebenkontextfaktor.
  • In einer Ausführungsform kann der Hauptkontextfaktor anhand des Körperskelettmodells identifiziert werden und den Kontext des Insassen weiter bestimmen. Unter Verwendung eines Skelettmodells des gesamten Körpers kann das System 100 die Körperhaltung des Insassen in eine definierte Hauptkontextklasse definieren, wie in Tabelle 2.1 gezeigt. Tabelle 2.1
    Hauptkontextklasse Merkmale
    Klasse „Entspannend“ Schlafend
    Klasse „Aktivität“ Buch lesen, Anzeige bedienen, mit Beifahrer sprechen, essen
    Klasse „Stellenbetrachtung“ Aus dem Fenster blicken
    Klasse „Faulenzend“
  • Sobald die Körperhaltung der einzelnen Körperteile erhalten wurde, klassifiziert das System 100 die erhaltene Körperhaltung einer bestimmten Kontextklasse zu, wie Schlafhaftung, Lesehaltung und dergleichen. Dies kann durch eine kollektive Analyse der erhaltenen einzelnen Körperhaltung erfolgen. Beispielsweise: Wenn KOPF_RUNTER und der Körper nach hinten geneigt ist und der Arm gestreckt ist, kann es als Klasse „SCHLAFEND“ klassifiziert werden. Dann werden die Haltung des Körpersegments mit den Referenzwerten verglichen und die Hauptkontextklasse gemäß Tabelle 2.2 klassifiziert. Die vorstehenden Schritte werden so lange wiederholt, bis ein gültiger Kontext bestimmt wurde. Tabelle 2.2
    Hauptkontextl Klasse Merkmal
    Entspannend Schlafend (Körperhaltung == nach hinten gelehnt) &&(Kopfhaltung == nach oben ODER Kopfhaltung == nach unten) && (Beinhaltung== gestreckt)
    Aktivität Buch lesen/Smartphone verwenden/Laptop verwenden/Essen (Körperhaltung = Gerade) && (Armhaltung = ArmGebeugt)
    Anzeige betreiben (Körperhaltung = Gerade) && (Armhaltung = ArmGerade)
    Stellen betrachten Aus dem Fenster blicken (Kopfhaftung = Links/Rechts )&&(Körperhaltung = Gerade)
  • Ferner hilft der Nebenkontextfaktor bei der Verfeinerung des Kontexts, indem er die Unterklasse der Aktivitäten innerhalb der Hauptkontextklasse identifiziert. Er verwendet die Körperorientierung des Insassen, die in der Kabine nachgewiesenen Objekte und die Daten der Fahrzeugschnittstelle, wie den Status der Leseleuchte, um den endgültigen Kontext des Insassen zu bestimmen.
  • In einer Ausführungsform kann die Sitzposition mit gespeicherten ergonomischen Positionsdaten für jeden Kontext verglichen werden, um zu prüfen, ob der Insasse eine ergonomische Position einnimmt oder nicht. Die Referenzdaten werden als ein Vektor gespeichert, der die einzelnen Körpergelenke im 3D-Raum mit ihrer Beziehung zu den 3D-Bezugsebenen verbindet. Derselbe Datensatz kann aus dem Skelettmodell abgeleitet und mit den Referenzdaten verglichen werden. Je nach Fahrzeugkonfiguration können bestimmte Komponenten des Sitzes in Bezug auf die Bezugsebenen ausgerichtet werden, und auf Grundlage der erforderlichen Änderungen der einzelnen Sitzkomponenten können die Sitze angepasst werden.
  • Zunächst erhält das System 100 in Block 402 die Referenzkörpervektoren und Referenzkörpervektorenwinkel/Referenzwinkel, die dem identifizierten Insassenkontext entsprechen. Dann leitet es den tatsächliche Neigungs- oder Bewegungswinkel ab, der erforderlich ist, um den tatsächlichen und den Referenzkörpervektor für jede Komponente zu erzeugen. Neigungswinkel ( ϕ ) = Referenzk o ¨ rpervektorwinkel ( ϕ R e f ) Tats a ¨ chlicher K o ¨ rpervektorwinkel ( ϕ tats a ¨ chlich )
    Figure DE102022004652A1_0012
    ϕ x = ϕ R e f X ϕ tats a ¨ chlich  X
    Figure DE102022004652A1_0013
    ϕ y = ϕ R e f Y ϕ tats a ¨ chlich  Y
    Figure DE102022004652A1_0014
    ϕ z = ϕ R e f Z ϕ tats a ¨ chlich  Z
    Figure DE102022004652A1_0015
  • In einer Ausführungsform kann auf Grundlage des Winkels die diskrete PID-Steuervorrichtung 306 (hierin ebenso als Sitzsteuervorrichtung 306 bezeichnet) betätigt werden. Der Ausgang der diskreten PID-Steuervorrichtung 306 kann zusammen mit einer Eingangsstörung aus Block 308 einem Motor 310 zugeführt werden. In einer beispielhaften Ausführungsform kann das System 100 gemäß dem Neigungswinkel einen Steuerimpuls an den Motor 310 senden, der ein DC-Schrittmotor sein kann, wie in 5 gezeigt. In einer Ausführungsform das System 100 wiederholt, bis der Neigungswinkel in allen x-, y- und z-Richtungen Null wird. Darüber hinaus kann das Sensorrauschen aus Block 312 in Block 314 mit dem Ausgang des Motors 310 gemischt werden, und entsprechend wird die Geschwindigkeit des Motors 310 gemessen, und die entsprechenden Signale werden dann dem A/D-Wandler 316 zugeführt, der seinerseits ein Rückkopplungssignal bereitstellt, das in Block 320 gemischt wird, wobei dadurch der gesamte Prozess verfeinert wird.
  • Ferner können die Körpervektoren und -winkel des Insassen fortlaufend berechnet werden, um sicherzustellen, dass eine ergonomische Sitzposition gemäß dem veränderten Kontext des Insassen/Passagiers erreicht wird.
  • In einer beispielhaften Ausführungsform kann der erforderliche Neigungswinkel als Fehler für die Sitzanpassung betrachtet werden, und daher wird die erforderliche Bewegung an jedem anpassbaren Teil des Sitzes durchgeführt, um den Neigungswinkelfehler auf Null zu bringen.
  • Unter Bezugnahme auf 6, wenn das System 100 mit einer 3D-Kamera in einem Pkw mit zwei hinteren Insassen gekoppelt ist, sodass das System 100 programmiert ist, um den Kontext „Insasse bedient Anzeige“ nachzuweisen, während der Insasse die RSU HMI verwendet. Ferner kann die 3D-Kamera mit der Steuereinheit (ECU) mit 8-Bit-Mikrocontroller und FPGA-Block verbunden werden, um die Computersichtverarbeitung zu berechnen. Das Canoe-Logging-System kann in einer x86-Maschine eingesetzt werden, die über Ethernet mit der ECU verbunden ist. Nehmen wir an, der Insasse befindet sich in einer Ruheposition und der Sitz ist vollständig nach hinten gelehnt. Nach einiger Zeit bewegt sich der Insasse vorwärts, um die RSU HMI zu bedienen.
  • Dann kann das System 100 erfolgreich die Kontextklasse „Betreiben der Anzeige“ und „Ruhend“ nachweisen und die Sitzbewegungen ableiten, die erforderlich sind, um die ergonomische Referenzposition unter Verwendung des Körpervektors zu erreichen, der aus dem Gelenk des unteren Nackens und dem Hüftgelenk abgeleitet wird, und der Kontextklasse „Fahrgastanzeige“, die gemäß Tabelle 1 und Tabelle 2.2 identifiziert wurde.
  • Unter Bezugnahme auf 7 kann das vorgeschlagene Verfahren 700 (hierin als Verfahren 700 bezeichnet) bei 702 das Aufnehmen mehrerer Bilder eines Bereichs von Interesse (AOI) innerhalb des Fahrzeugs durch eine Bilderfassungseinheit beinhalten.
  • In einer Ausführungsform kann das Verfahren 700 bei 704 das Empfangen der aufgenommenen Einzelbilder des AOI von der Bilderfassungseinheit an einer Steuereinheit, und das Erkennen einer auf einem Sitz des Fahrzeugs sitzenden Entität, und das entsprechende Extrahieren eines Satzes von physischen Attributen der erkannten Entität aus den aufgenommenen Einzelbildern; und bei 706 das Identifizieren an der Steuereinheit von Gelenken des Körperskeletts der erkannten Entität auf Grundlage des extrahierten Satzes physischer Attribute beinhalten. Ferner kann das Verfahren 700 bei 708 das Definieren an der Steuereinheit auf Grundlage eines Nachweises einer Verfolgung der erkannten Entität von den empfangenen Einzelbildern eines Kontexts der erkannten Entität beinhalten. Das Verfahren 700 kann ebenso bei 710 Bestimmen an der Steuereinheit unter Berücksichtigung der vorhergesagten Sitzposition und des definierten Kontexts einer ergonomischen Position für die Entität und entsprechendes Ermöglichen einer gesteuerten Anpassung des Sitzes des Fahrzeugs beinhalten.
  • Es wird daher von Durchschnittsfachleuten erkannt, dass die Diagramme, Schemata, Veranschaulichungen und dergleichen konzeptionelle Ansichten oder Prozesse darstellen, die Systeme und Verfahren für das Verkörpern dieser Erfindung veranschaulichen. Die Funktionen der verschiedenen in den Figuren gezeigten Elemente können sowohl durch die Verwendung spezieller Hardware als auch durch Hardware, die die zugeordnete Software ausführen kann, bereitgestellt werden. Ebenso sind alle in den Figuren gezeigten Schalter nur konzeptionell. Ihre Funktion kann durch den Betrieb von Programmlogik, durch spezielle Logik, durch das Zusammenwirken von Programmsteuerung und spezieller Logik oder sogar manuell ausgeführt werden, wobei die bestimmte Technik von der diese Erfindung implementierenden Entität ausgewählt werden kann. Fachleute verstehen ferner, dass die hierin beschriebene beispielhafte Hardware, Software, Prozesse, Verfahren und/oder Betriebssysteme nur für veranschaulichende Zwecke dienen und daher nicht auf eine bestimmte genannte beschränkt sein sollen.
  • Während das Vorstehende verschiedene Ausführungsformen der Erfindung beschreibt, können andere und weitere Ausführungsformen der Erfindung formuliert werden, ohne von dem grundsätzlichen Umfang davon abzuweichen. Der Umfang der Erfindung wird durch die Ansprüche bestimmt, die folgen. Die Erfindung ist nicht auf die beschriebenen Ausführungsformen, Varianten oder Beispiele beschränkt, die beinhaltet sind, um es einem Durchschnittsfachmann zu ermöglichen, die Erfindung herzustellen und zu verwenden, wenn sie mit den Informationen und Kenntnissen kombiniert werden, die dem Durchschnittsfachmann zur Verfügung stehen.
  • Die vorliegende Offenbarung stellt ein System und ein Verfahren zum automatischen Anpassen der Autositze gemäß den ergonomischen Standards unter Verwendung der Körpereigenschaften des Insassen und im Kontext der Kabine bereit.
  • Die vorliegende Offenbarung stellt ein System und Verfahren bereit, das den Insassen in eine vordefinierte Klasse von Kontexten klassifiziert, indem es ein bildgestütztes Insassenüberwachungssystem verwendet, das den Insassen mit dem Fahrzeug in einer 3D-Koordinatenumgebung in Beziehung setzt.
  • Die vorliegende Offenbarung stellt ein System und ein Verfahren bereit, bei dem die Informationen über die Autokomponenten mit den Informationen über die Körperhaltung verschmolzen werden, um einen fahrzeuginternen Kontext des Insassen zu erstellen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018211831 A1 [0003]
    • CN 111942236 A [0004]

Claims (10)

  1. System (100) für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug, wobei das System (100) umfasst: eine Bilderfassungseinheit (102), die dazu konfiguriert ist, mehrere Bilder eines Bereichs von Interesse (AOI) innerhalb des Fahrzeugs aufzunehmen; und eine Steuereinheit (106), die mit der Bilderfassungseinheit (102) gekoppelt ist, wobei die Steuereinheit (106) einen oder mehrere Prozessoren umfasst, die betriebsfähig mit einem Speicher gekoppelt sind, wobei der Speicher Anweisungen speichert, die von dem einen oder den mehreren Prozessoren ausgeführt werden können, zum: Empfangen der aufgenommenen Einzelbilder des AOI von der Bilderfassungseinheit (102) und Erkennen einer Entität, die auf einem Sitz des Fahrzeugs sitzt, und entsprechendes Extrahieren eines Satzes von physischen Attributen der erkannten Entität aus den empfangenen Einzelbildern; Identifizieren auf Grundlage des extrahierten Satzes von physischen Attributen von Gelenken des Körperskeletts der erkannten Entität; Bilden durch Verknüpfen der identifizierten Gelenke eines oder mehrerer Vektoren und entsprechendes Vorhersagen einer Sitzposition der erkannten Entität durch Verstehen des einen oder der mehreren gebildeten Vektoren; Definieren auf Grundlage eines Nachweises einer Verfolgung der erkannten Entität von den empfangenen Einzelbildern eines Kontexts der erkannten Entität; und Bestimmen unter Berücksichtigung der vorhergesagten Sitzposition und des definierten Kontexts einer ergonomischen Position für die erkannte Entität und entsprechendes Ermöglichen einer gesteuerten Anpassung des Sitzes des Fahrzeugs.
  2. System (100) nach Anspruch 1, wobei die Steuereinheit (106) ein oder mehrere der erkannten Entität zugeordneten Objekte nachweist und die Kopforientierung der erkannten Entität aus den empfangenen Einzelbilder extrahiert; wobei das System (100) den Kontext der erkannten Entität definiert, indem es das eine oder die mehreren erkannten Objekte und die extrahierte Kopforientierung mit der nachgewiesenen Verfolgung der erkannten Entität abbildet.
  3. System (100) nach Anspruch 2, wobei das System (100) Informationen über die Fahrzeugkomponenten und die Körperhaltung der Entität erfasst und die erfassten Informationen über die Fahrzeugkomponenten und die Körperhaltung mit einem oder mehreren nachgewiesenen Objekten verschmilzt, um den Kontext der erkannten Entität zu definieren.
  4. System (100) nach Anspruch 1, wobei das System (100) Faktoren für die Definition des Kontexts in Hauptkontextfaktoren und Nebenkontextfaktoren klassifiziert, das System (100) den Kontext unter Bezugnahme auf die Hauptkontextfaktoren definiert und dann den definierten Kontext unter Berücksichtigung der Nebenkontextfaktoren verfeinert.
  5. System (100) nach Anspruch 1, wobei das System (100) die vorhergesagte Sitzposition für jeden definierten Kontext mit einem Referenzdatensatz abgleicht, der vorgespeicherte ergonomische Positionen umfasst.
  6. System (100) nach Anspruch 5, wobei die vorgespeicherten ergonomischen Positionen als ein Vektor gespeichert werden, der die einzelnen Gelenke im 3D-Raum miteinander verbindet, zusammen mit einer Beziehung des Vektors zu 3D-Referenzebenen.
  7. System (100) nach Anspruch 1, wobei das System (100) der Entität über eine Benutzerschnittstelle Flexibilität bereitstellt, um die Anpassung auf eine bevorzugte ergonomische Position zu ermöglichen, wobei dadurch die Entität ein oder mehrere Gelenke wechseln kann, und wobei persönliche Präferenzen in Profildaten gespeichert werden, die es dem System (100) ermöglichen, in Zukunft sofort zu reagieren.
  8. System (100) nach Anspruch 1, wobei das System (100) eine Lernmaschine (110) umfasst, die betriebsfähig mit der Steuereinheit (106) gekoppelt ist, wobei die Lernmaschine (110) eine Architektur für maschinelles Sehen umfasst und das Vorhersagen der Sitzposition und das Definieren des Kontexts der Entität erleichtert.
  9. System (100) nach Anspruch 1, wobei die Bilderfassungseinheit (102) eine dreidimensionale (3D) Erfassungsvorrichtung umfasst, und wobei eine IR-fähige 3D-Kamera in der Erfassungsvorrichtung konfiguriert ist.
  10. Verfahren (700) zum kontextbasierten Anpassen von Sitzen in einem Fahrzeug, wobei das Verfahren (700) umfasst: Aufnehmen (702) mehrerer Bilder eines Bereichs von Interesse (AOI) innerhalb des Fahrzeugs durch eine Bilderfassungseinheit. Empfangen (704) der aufgenommenen Einzelbilder des AOI von der Bilderfassungseinheit an einer Steuereinheit und Erkennen einer auf einem Sitz des Fahrzeugs sitzenden Entität und entsprechendes Extrahieren eines Satzes von physischen Attributen der erkannten Entität aus den aufgenommenen Einzelbildern; Identifizieren (706) von Gelenken des Körperskeletts der erkannten Entität in der Steuereinheit auf Grundlage des extrahierten Satzes von physischen Attributen. Definieren (708) eines Kontexts der erkannten Entität in der Steuereinheit auf Grundlage des Nachweises der Verfolgung der erkannten Entität aus den empfangenen Einzelbilder; und Bestimmen (710) einer ergonomischen Position für die Entität in der Steuereinheit unter Berücksichtigung der vorhergesagten Sitzposition und des definierten Kontexts und entsprechendes Ermöglichen einer gesteuerten Anpassung des Sitzes des Fahrzeugs.
DE102022004652.0A 2021-12-16 2022-12-12 System für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug und Verfahren davon Pending DE102022004652A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN202111058775 2021-12-16
IN202111058775 2021-12-16

Publications (1)

Publication Number Publication Date
DE102022004652A1 true DE102022004652A1 (de) 2023-06-22

Family

ID=86606220

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022004652.0A Pending DE102022004652A1 (de) 2021-12-16 2022-12-12 System für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug und Verfahren davon

Country Status (1)

Country Link
DE (1) DE102022004652A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018211831A1 (de) 2018-07-17 2019-12-05 Conti Temic Microelectronic Gmbh Verfahren zum Bestimmen einer Sitzeinstellung eines Sitzes eines Kraftfahrzeugs, Computerprogrammprodukt, Servereinrichtung, Kommunikationsendgerät und Kraftfahrzeug
CN111942236A (zh) 2020-08-25 2020-11-17 湖南汽车工程职业学院 一种汽车座椅自动调节控制方法及汽车座椅

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018211831A1 (de) 2018-07-17 2019-12-05 Conti Temic Microelectronic Gmbh Verfahren zum Bestimmen einer Sitzeinstellung eines Sitzes eines Kraftfahrzeugs, Computerprogrammprodukt, Servereinrichtung, Kommunikationsendgerät und Kraftfahrzeug
CN111942236A (zh) 2020-08-25 2020-11-17 湖南汽车工程职业学院 一种汽车座椅自动调节控制方法及汽车座椅

Similar Documents

Publication Publication Date Title
DE102019134141B4 (de) Sicherheitsgurt-Zustandsbestimmungsverfahren
CN106994915B (zh) 一种基于驾驶人身体特征的驾驶座椅自适应调节装置
EP3374225B1 (de) Vorrichtung und verfahren zum steuern einer anzeigeeinrichtung in einem kraftfahrzeug
DE102008019731B4 (de) Verfahren und Vorrichtung zur Fahrer-Beifahrer-Unterscheidung
DE112017003692T5 (de) Informationsabschätzungssystem, Informationsabschätzungsverfahren und Programm
DE202013002800U1 (de) Steuerung für einen Automobilsitz
DE112018007120T5 (de) Physis-Ermittlungseinrichtung und Physis-Ermittlungsverfahren
AT523045B1 (de) Verfahren und Vorrichtung zur Sitzgurterkennung
US20230316783A1 (en) Computer-implemented method for analysing the interior of a vehicle
CN111717147A (zh) 车辆座椅自动调节系统及方法
DE102020208191A1 (de) Erfassung und Verarbeitung von Fahrzeuginsassendaten mittels künstlicher Intelligenz
DE102018131805A1 (de) Vorrichtung zum erfassen einer gesichtsposition
DE112014004150T5 (de) Sitzzustandskorrektursystem, Sitzzustandskorrekturverfahren und Sitzzustandskorrekturprogramm
DE102020117555A1 (de) Verfahren und vorrichtung zur insassenklassifizierung
DE102020115632A1 (de) Erfassungsvorrichtung, erfassungsverfahren, erzeugungsverfahren, computerprogramm und speichermedium
DE102019212396A1 (de) System zum erstellen und ausgeben eines personalisierten angebots für einen fahrzeuginsassen in einem fahrzeug
DE102017201728A1 (de) Steuervorrichtung zum Erzeugen von Steuerdaten für Aktuatoren zum Konfigurieren einer Innenraumsituation eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Betreiben einer Steuervorrichtung
DE102018211831A1 (de) Verfahren zum Bestimmen einer Sitzeinstellung eines Sitzes eines Kraftfahrzeugs, Computerprogrammprodukt, Servereinrichtung, Kommunikationsendgerät und Kraftfahrzeug
DE102022004652A1 (de) System für die kontextbasierte Anpassung von Sitzen in einem Fahrzeug und Verfahren davon
EP3802204B1 (de) Computerprogrammprodukt zum elektrischen einstellen eines fahrzeugsitzes, einstellsystem und fahrzeug
EP4193298A1 (de) Verfahren und vorrichtung zum automatischen schätzen eines körpergewichts einer person
DE112020004823T5 (de) Bildverarbeitungsvorrichtung und nicht-vorübergehendes computerlesbares Medium
DE102018214445A1 (de) Verfahren zur Ermittlung eines Insassenmodells und Bildaufnahmeeinrichtung
DE112021007146T5 (de) Körperbaubestimmungsvorrichtung und Körperbaubestimmungsverfahren
DE102013021929B4 (de) Kraftfahrzeug mit Kameras und Bildanalyseeinrichtungen