DE112019007569T5 - Operator judging device and operator judging method - Google Patents
Operator judging device and operator judging method Download PDFInfo
- Publication number
- DE112019007569T5 DE112019007569T5 DE112019007569.1T DE112019007569T DE112019007569T5 DE 112019007569 T5 DE112019007569 T5 DE 112019007569T5 DE 112019007569 T DE112019007569 T DE 112019007569T DE 112019007569 T5 DE112019007569 T5 DE 112019007569T5
- Authority
- DE
- Germany
- Prior art keywords
- occupant
- section
- inferred
- physique
- inference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 9
- 230000001815 facial effect Effects 0.000 claims abstract description 44
- 210000003128 head Anatomy 0.000 claims description 59
- 238000011156 evaluation Methods 0.000 claims description 6
- 210000001747 pupil Anatomy 0.000 claims description 6
- 238000012854 evaluation process Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 210000001503 joint Anatomy 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/149—Instrument input by detecting viewing direction not otherwise provided for
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Die vorliegende Erfindung macht es sich zur Aufgabe eine Bediener-Beurteilungsvorrichtung und ein Bediener-Beurteilungsverfahren bereitzustellen, durch die ein Insasse, der ein in einem Fahrzeug installiertes Gerät bedient, korrekt beurteilt werden kann. Die Bediener-Beurteilungsvorrichtung gemäß der vorliegenden Erfindung umfasst eine Bilderwerbssektion zum Erwerben eines Bildes des Insassen in einem Fahrzeug, das durch eine Kamera aufgenommen wurde, eine Gesichtsmerkmal-Folgerungssektion, die basierend auf dem Bild Gesichtsmerkmale des Insassen folgert, eine Kopfposition-Folgerungssektion, die basierend auf den Gesichtsmerkmalen die relative Position des Kopfes des Insassen zur Kamera folgert, eine Körperteil-Folgerungssektion, die basierend auf dem Bild die Größe einer Vielzahl von Körperteilen des Insassen in dem Bild folgert, eine Physis-Folgerungssektion, die basierend auf der relativen Position des Kopfes des Insassen und der Größe der jeweiligen Körperteile die Physis des Insassen folgert, eine Prädiktionsbedienung-Folgerungssektion, die basierend auf einer Bewegung der Physis eine Prädiktionsbedienung folgert, die eine Prädiktion der Bedienung eines in dem Fahrzeug installierten Geräts durch den Insassen anzeigt, und eine Bediener-Beurteilungssektion, die basierend auf der Prädiktionsbedienung den das Gerät bedienenden Insassen beurteilt.It is an object of the present invention to provide an operator judging apparatus and method by which an occupant operating an apparatus installed in a vehicle can be correctly judged. The operator judging device according to the present invention includes an image acquisition section for acquiring an image of the occupant in a vehicle picked up by a camera, a facial feature inference section that infers facial features of the occupant based on the image, a head position inference section that based inferring the relative position of the occupant's head to the camera based on the facial features, a body part inference section inferring, based on the image, the size of a plurality of body parts of the occupant in the image, a physique inference section, inferring based on the relative position of the head of the occupant and the size of the respective body parts infers the physique of the occupant, a predictive operation inferring section that infers a predictive operation indicating a prediction of the occupant's operation of a device installed in the vehicle based on a movement of the physique, and an operation ener judging section that judges the occupant operating the device based on the predicted operation.
Description
[Technisches Gebiet][Technical Field]
Die vorliegende Erfindung betrifft eine Bediener-Beurteilungsvorrichtung und ein Bediener-Beurteilungsverfahren zur Beurteilung eines Insassen, der ein in einem Fahrzeug installiertes Gerät bedient.The present invention relates to an operator judging device and an operator judging method for judging an occupant who operates an apparatus installed in a vehicle.
[Hintergrundtechnologie][background technology]
Es gibt bisher eine Technologie, bei der während der Fahrt eines Fahrzeugs die Bedienung von in dem Fahrzeug installierten Geräten wie einer Navigationsvorrichtung usw. durch den Fahrer deaktiviert wird. Bei dieser Technologie besteht die Problematik, dass nicht nur eine Bedienung durch den Fahrer sondern auch durch andere Insassen einschließlich des Insassen auf dem Beifahrersitz deaktiviert wird, wodurch die Zweckmäßigkeit des Geräts leidet.There has hitherto been a technology in which the driver's manipulation of devices installed in the vehicle, such as a navigation device, etc., is disabled while driving a vehicle. With this technology, there is a problem that not only an operation by the driver but also by other occupants including the occupant on the front passenger seat is disabled, thereby degrading the convenience of the device.
Als Maßnahme gegen dieses Problem ist eine Technologie offenbart (vgl. z. B. Patentdokument 1), bei der mittels eines durch eine Kamera aufgenommenen Bildes die Bewegung der Hand eines Bedieners prognostiziert wird, und basierend auf der Bewegung der betreffenden Hand der Bediener beurteilt wird. Ferner ist eine Technologie offenbart (vgl. z. B. Patentdokument 2), bei welcher ein Bediener basierend auf der Position des Arms des Bedieners in einem durch eine Kamera aufgenommenen Bild beurteilt wird. Durch eine derartige Beurteilung des Insassen kann während der Fahrt eines Fahrzeugs die Bedienung des Fahrers deaktiviert und die Bedienung anderer Insassen aktiviert werden.As a countermeasure against this problem, there is disclosed a technology (e.g., see Patent Document 1) in which movement of an operator's hand is predicted using an image picked up by a camera, and based on the movement of the hand concerned, the operator is judged . Further, a technology is disclosed (see, e.g., Patent Document 2) in which an operator is judged based on the position of the operator's arm in an image captured by a camera. Such an assessment of the occupant can disable the driver's operation while driving a vehicle and enable the operation of other occupants.
[Dokumente des Standes der Technik][Prior Art Documents]
[Patentdokumente][patent documents]
-
[Patentdokument 1] Patentveröffentlichung Nr.
JP 2014-58268 A JP 2014-58268 A -
[Patentdokument 2] Patentveröffentlichung Nr.
JP 2005-274409 A JP 2005-274409 A
[Übersicht über die Erfindung][Outline of the Invention]
[Durch die Erfindung zu lösende Aufgabe][Problem to be solved by the invention]
Bei der Technologie, die in den Patentdokumenten 1 und 2 offenbart ist, wird die Hand oder der Arm eines Bedieners mittels Bildverarbeitung eines Bildes detektiert, das durch eine Kamera aufgenommen wurde. Beinhaltet das durch die Kamera aufgenommene Bild jedoch ein anderes Objekt als eine Hand oder einen Arm, kann das betreffende Objekt als Hand oder Arm fehldetektiert werden. In diesem Fall besteht die Möglichkeit einer Fehlbeurteilung des Bedieners. Es kann daher nicht gesagt werden, dass der Bediener, der ein in einem Fahrzeug installiertes Gerät bedient, gemäß dem Stand der Technik korrekt beurteilt wird.In the technology disclosed in
Die vorliegende Erfindung erfolgte zur Lösung dieser Problematik und macht es sich zur Aufgabe eine Bediener-Beurteilungsvorrichtung und ein Bediener-Beurteilungsverfahren bereitzustellen, durch die ein Bediener, der ein in einem Fahrzeug installiertes Gerät bedient korrekt beurteilt werden kann.The present invention has been made to solve this problem and has as an object to provide an operator judging apparatus and method by which an operator who operates an apparatus installed in a vehicle can be correctly judged.
[Mittel zum Lösen der Aufgabe][means for solving the task]
Um die vorstehende Aufgabe zu lösen, umfasst die Bediener-Beurteilungsvorrichtung gemäß der vorliegenden Erfindung eine Bilderwerbssektion zum Erwerben eines Bildes des Insassen in einem Fahrzeug, das durch eine Kamera aufgenommen wurde, eine Gesichtsmerkmal-Folgerungssektion, die basierend auf dem durch die Bilderwerbssektion erworbenen Bild Gesichtsmerkmale des Insassen folgert, eine Kopfposition-Folgerungssektion, die basierend auf durch die Gesichtsmerkmal-Folgerungssektion gefolgerten Gesichtsmerkmalen die relative Position des Kopfes des Insassen zur Kamera folgert, eine Körperteil-Folgerungssektion, die basierend auf dem durch die Bilderwerbssektion erworbenen Bild die Größe einer Vielzahl von Körperteilen des Insassen in dem Bild folgert, eine Physis-Folgerungssektion, die basierend auf der durch die Kopfposition-Folgerungssektion gefolgerten relativen Position des Kopfes des Insassen und der durch die Körperteil-Folgerungssektion gefolgerten Größe der jeweiligen Körperteile die Physis des Insassen folgert, eine Prädiktionsbedienung-Folgerungssektion, die basierend auf einer Bewegung der durch die Physis-Folgerungssektion gefolgerten Physis eine Prädiktionsbedienung folgert, die eine Prädiktion der Bedienung eines in dem Fahrzeug installierten Geräts durch einen Insassen anzeigt, und eine Bediener-Beurteilungssektion, die basierend auf der durch die Prädiktionsbedienung-Folgerungssektion gefolgerten Prädiktionsbedienung den das Gerät bedienenden Insassen beurteilt.In order to achieve the above object, the operator judging device according to the present invention includes an image acquisition section for acquiring an image of the occupant in a vehicle picked up by a camera, a facial feature inference section that derives facial features based on the image acquired by the image acquisition section of the occupant, a head position inference section inferring the relative position of the occupant's head to the camera based on facial features inferred by the facial feature inference section, a body part inference section inferring the size of a plurality of body parts based on the image acquired by the image acquisition section of the occupant in the image, a physique inference section which, based on the relative position of the head of the occupant inferred by the head position inference section and the size of the respective body parts di. inferred by the body part inference section e physique of the occupant infers, a predicted operation inferring section that infers a predicted manipulation indicating a prediction of the manipulation of a device installed in the vehicle by an occupant based on a movement of the physique inferred by the physique inferred section, and an operator judging section, which judges the occupant operating the device based on the predicted operation inferred by the predicted operation inference section.
[Effekte der Erfindung][Effects of the Invention]
Der vorliegenden Erfindung zufolge umfasst die Bediener-Beurteilungsvorrichtung eine Physis-Folgerungssektion, die basierend auf der durch die Kopfposition-Folgerungssektion gefolgerten relativen Position des Kopfes eines Insassen und der durch die Körperteil-Folgerungssektion gefolgerten Größe der jeweiligen Körperteile die Physis des Insassen folgert, eine Prädiktionsbedienung-Folgerungssektion, die basierend auf einer Bewegung der durch die Physis-Folgerungssektion gefolgerten Physis eine Prädiktionsbedienung folgert, die eine Prädiktion der Bedienung eines in dem Fahrzeug installierten Geräts durch einen Insassen anzeigt, und eine Bediener-Beurteilungssektion, die basierend auf der durch die Prädiktionsbedienung-Folgerungssektion gefolgerten Prädiktionsbedienung den das Gerät bedienenden Insassen beurteilt, wodurch eine korrekte Beurteilung des Bedieners, der das in dem Fahrzeug installierte Gerät bedient, ermöglicht wird.According to the present invention, the operator judging device includes a physique inference section that infers the physique of the occupant based on the relative position of an occupant's head inferred by the head position inference section and the size of the respective body parts inferred by the body part inference section, a prediction operation - an inference section that infers, based on a movement of the physique inferred by the physique inference section, a prediction operation indicating a prediction of an occupant's operation of a device installed in the vehicle, and an operator judging section that judges the occupant operating the device based on the predicted operation inferred by the predicted operation inferring section, thereby enabling correct judgment of the operator operating the device installed in the vehicle.
Aufgabe, Charakteristik, Aspekte und Vorteile der vorliegenden Erfindung werden aus der folgenden detaillierten Erläuterung und den angefügten Figuren deutlicher.The object, characteristics, aspects and advantages of the present invention will become clearer from the following detailed explanation and attached figures.
Figurenlistecharacter list
-
[
1 ]1 ist ein Blockbild, das ein Beispiel des Aufbaus einer Bediener-Beurteilungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.[1 ]1 14 is a block diagram showing an example of the configuration of an operator judgment device according to an embodiment of the present invention. -
[
2 ]1 ist ein Blockbild, das ein Beispiel des Aufbaus einer Bediener-Beurteilungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.[2 ]1 14 is a block diagram showing an example of the configuration of an operator judgment device according to an embodiment of the present invention. -
[
3 ]3 ist eine Ansicht, die ein Beispiel der Ausgabe eines Beurteilungsergebnisses der Bediener-Beurteilungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.[3 ]3 14 is a view showing an example of outputting a judgment result of the operator judgment device according to an embodiment of the present invention. -
[
4 ]4 ist eine Ansicht, die ein Beispiel der Ausgabe eines Beurteilungsergebnisses der Bediener-Beurteilungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.[4 ]4 14 is a view showing an example of outputting a judgment result of the operator judgment device according to an embodiment of the present invention. -
[
5 ]5 ist ein Ablaufdiagramm, das ein Beispiel des Betriebs einer Bediener-Beurteilungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.[5 ]5 12 is a flow chart showing an example of the operation of an operator judgment device according to an embodiment of the present invention. -
[
6 ]6 ist ein Ablaufdiagramm, das ein Beispiel des Betriebs einer Bediener-Beurteilungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.[6 ]6 12 is a flow chart showing an example of the operation of an operator judgment device according to an embodiment of the present invention. -
[
7 ]7 ist ein Blockbild, das ein Beispiel des Hardware-Aufbaus einer Bediener-Beurteilungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.[7 ]7 Fig. 12 is a block diagram showing an example of the hardware construction of an operator judgment device according to an embodiment of the present invention. -
[
8 ]8 ist ein Blockbild, das ein Beispiel des Hardware-Aufbaus einer Bediener-Beurteilungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.[8th ]8th Fig. 12 is a block diagram showing an example of the hardware construction of an operator judgment device according to an embodiment of the present invention. -
[
9 ]9 ist ein Blockbild, das ein Beispiel des Aufbaus eines Bediener-Beurteilungssystems gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.[9 ]9 14 is a block diagram showing an example of the structure of an operator judgment system according to an embodiment of the present invention.
[Formen zur Ausführung der Erfindung][Forms for carrying out the invention]
Im Folgenden werden Formen zur Ausführung der vorliegenden Erfindung anhand der Figuren erläutert.In the following, forms for carrying out the present invention are explained with reference to the figures.
<Ausführungsformen><Embodiments>
<Aufbau><structure>
Wie in
Die Bilderwerbskomponente 2 erwirbt ein durch die Kamera 9 aufgenommenes Bild des Insassen in einem Fahrzeug. Die Gesichtsmerkmal-Folgerungssektion 3 folgert basierend auf dem durch die Bilderwerbskomponente 2 erworbenen Bild Gesichtsmerkmale des Insassen. Die Kopfposition-Folgerungssektion 4 folgert basierend auf den durch die Gesichtsmerkmal-Folgerungssektion 3 gefolgerten Gesichtsmerkmalen die relative Position des Kopfes des Insassen zu der Kamera 9. Die Körperteil-Folgerungssektion 5 folgert basierend auf dem durch die Bilderwerbskomponente 2 erworbenen Bild die Größe einer Vielzahl von Körperteilen des Insassen in dem Bild.The
Die Physis-Folgerungssektion 6 folgert basierend auf der durch die Kopfposition-Folgerungssektion 4 gefolgerten relativen Position des Kopfes des Insassen und der durch die Körperteil-Folgerungssektion 5 gefolgerte Größe der jeweiligen Körperteile die Physis des Insassen. Die Prädiktionsbedienung-Folgerungssektion 7 folgert basierend auf einer Bewegung der durch die Physis-Folgerungssektion 6 gefolgerten Physis eine Prädiktionsbedienung, die eine Prädiktion der Bedienung eines in dem Fahrzeug installierten Geräts durch einen Insassen anzeigt. Die Bediener-Beurteilungssektion 8 beurteilt basierend auf der durch die Prädiktionsbedienung-Folgerungssektion 7 gefolgerten Prädiktionsbedienung, den Insassen, der das Gerät bedient.The
Als Nächstes wird ein anderer Aufbau einer Bediener-Beurteilungsvorrichtung erläutert, welche die in
Wie in
Die Bilderwerbskomponente 2 erwirbt ein durch die Kamera 9 aufgenommenes Bild des Insassen in einem Fahrzeug. Die Aufnahme durch die Kamera 9 erfolgt derart, dass zumindest die Insassen, die jeweils auf dem Fahrersitz und dem Beifahrersitz sitzen, beinhaltet sind. Die Aufnahme durch die Kamera 9 kann auch derart erfolgen, dass nicht nur die Insassen, die auf dem Fahrersitz und dem Beifahrersitz sitzen, sondern auch Insassen, die auf dem Rücksitz sitzen, beinhaltet sind.The
Die Gesichtsmerkmal-Folgerungssektion 3 folgert basierend auf dem durch die Bilderwerbskomponente 2 erworbenen Bildes Gesichtsmerkmale des Insassen. Konkreter vergleicht die Gesichtsmerkmal-Folgerungssektion 3 das durch die Bilderwerbssektion 2 erworbene Bild mit einem vorbereiteten Lernlexikon (nicht dargestellt), und folgert Merkmale der Gesichter, die die Position des Gesichts, der Augen, der Nase usw. des Insassen zeigen, die in dem durch die Bilderwerbssektion 2 erworbenen Bild beinhaltet sind. Beispielsweise folgert die Gesichtsmerkmal-Folgerungssektion 3 als Merkmale der Gesichter die Position und Größe der Pupillen, den Abstand der beiden Augen, bei dem es sich um den Abstand zwischen den Zentren der jeweiligen Pupille der beiden Augen handelt, die Position der beiden Enden der Augenbrauen, die Position der beiden Enden der Augen, die Position der Nasenspitze, die Position der beiden Enden des Mundes usw. des Insassen, wobei hierauf keine Beschränkung besteht und auch andere Merkmale der Gesichter gefolgert werden können. In dem Lernlexikon sind die Gesichtsmerkmale einer Vielzahl von Menschen aufgezeichnet. Beinhaltet das Bild eine Vielzahl von Insassen, folgert die Gesichtsmerkmal-Folgerungssektion 3 die Gesichtsmerkmale der jeweiligen Insassen.The facial
Die Kopfposition-Folgerungssektion 4 folgert basierend auf den durch die Gesichtsmerkmal-Folgerungssektion 3 gefolgerten Gesichtsmerkmalen die relative Position des Kopfes des Insassen zu der Kamera 9. Konkreter folgert die Kopfposition-Folgerungssektion 4 basierend auf dem Abstand der beiden Augen oder der Größe der Pupillen des Insassen, die durch die Gesichtsmerkmal-Folgerungssektion 3 gefolgert wurden, die physikalische relative Position des Kopfes des Insassen zu der Kamera 9. Das heißt, die Kopfposition-Folgerungssektion 4 folgert den Abstand zwischen der Kamera 9 und dem Kopf des Insassen.The head
Bei der vorliegenden Ausführungsform wird basierend auf dem Abstand der beiden Augen oder der Größe der Pupillen des Insassen, bei welchen eine Beeinflussung durch Körperbauunterschiede gering ist, die relative Position des Kopfes des Insassen zu der Kamera 9 gefolgert. Infolgedessen kann ungeachtet des Körperbaus des Insassen die relative Position des Kopfes des Insassen zu der Kamera 9 präzise gefolgert werden. Ferner kann auch bei einer Änderung der Sitzposition, in der die Insassen sitzen, der Änderung entsprechend die relative Position des Kopfes des Insassen zu der Kamera 9 präzise gefolgert werden.In the present embodiment, the relative position of the occupant's head to the
Die Körperteil-Folgerungssektion 5 folgert basierend auf dem durch die Bilderwerbskomponente 2 erworbenen Bild die Größe einer Vielzahl von Körperteilen des Insassen in dem Bild. Konkreter vergleicht die Körperteil-Folgerungssektion 5 das durch die Bilderwerbssektion 2 erworbene Bild mit einem vorbereiteten Lernlexikon (nicht dargestellt), und folgert die Größe und Position in dem Bild der jeweiligen Körperteile wie Hals, Schultern, Arme, Hände, Oberkörper usw. des Insassen, die in dem durch die Bilderwerbssektion 2 erworbenen Bild beinhaltet sind. In dem Lernlexikon sind die Größe und Position in dem Bild der jeweiligen Körperteile einer Vielzahl von Menschen aufgezeichnet. Beinhaltet das Bild eine Vielzahl von Insassen, folgert die Körperteil-Folgerungssektion 5 die Größe einer Vielzahl von Körperteilen der jeweiligen Insassen. Die Einheit der Größe der jeweiligen Körperteile des Insassen in dem Bild, die durch die Körperteil-Folgerungssektion 5 gefolgert wird, ist pix (Pixel).The body
Die Körperbau-Folgerungssektion 6 folgert basierend auf der durch die Kopfposition-Folgerungssektion 4 gefolgerten relativen Position des Kopfes des Insassen zu der Kamera 9 und der durch die Körperteil-Folgerungssektion 5 gefolgerte Größe der jeweiligen Körperteile des Insassen in dem Bild den Körperbau des Insassen. Konkreter konvertiert die Physis-Folgerungssektion 6 zunächst die Größe der jeweiligen Körperteile des Insassen in dem Bild, die durch die Körperteil-Folgerungssektion 5 gefolgert wurde, in die tatsächliche Größe der jeweiligen Körperteile des Insassen. Bei einer Vielzahl von Insassen folgert die Physis-Folgerungssektion 6 die tatsächliche Größe der jeweiligen Körperteile der jeweiligen Insassen.The
Das Verfahren, mit dem die Physis-Folgerungssektion 6 die Schulterbreite eines Insassen in dem Bild, die durch die Körperteil-Folgerungssektion 5 gefolgert wurde, in die tatsächliche Schulterbreite konvertiert, wird nun erläutert. Die Physis-Folgerungssektion 6 berechnet eine tatsächliche Schulterbreite d mittels des folgenden Ausdrucks (1).
[Gleichung 1]
[Equation 1]
Im Ausdruck (1) zeigt n die Größe der Schulterbreite in dem Bild an. M zeigt die Querbreite des Bildes an und wird durch den Bildwinkel θ der Kamera 9 bestimmt. Durch x wird der Abstand zwischen der Kamera 9 und dem Kopf des Insassen angezeigt, und entspricht der durch die Kopfposition-Folgerungssektion 4 gefolgerten relativen Position des Kopfes des Insassen zu der Kamera 9. Auf diese Weise konvertiert die Physis-Folgerungssektion 6 die Größe der jeweiligen Körperteile in dem Bild, die durch die Körperteil-Folgerungssektion 5 gefolgert wurde, durch eine Korrektur mittels der relativen Position des Kopfes des Insassen, die durch die Kopfposition-Folgerungssektion 4 gefolgert wurde, in die tatsächliche Größe der jeweiligen Körperteile des Insassen.In expression (1), n indicates the size of the shoulder width in the image. M indicates the transverse width of the image and is determined by the angle of view θ of the
Wie Ausdruck (1) zeigt, berechnet die Physis-Folgerungssektion 6 mittels der durch die Kopfposition-Folgerungssektion 4 gefolgerten relativen Position des Kopfes des Insassen zu der Kamera 9 die tatsächliche Größe der jeweiligen Körperteile des Insassen. Infolgedessen kann die Physis-Folgerungssektion 6 auch bei einer Änderung der Sitzposition, in der die Insassen sitzen, die tatsächliche Größe der jeweiligen Körperteile des Insassen korrekt berechnen. Vorstehend wurde die Berechnung der Schulterbreite eines Insassen erläutert, eine gleichartige Berechnung kann jedoch auch bezüglich anderer Körperteile eines Insassen erfolgen. Beispielsweise kann die Physis-Folgerungssektion 6 auch die Größe des Insassen im Sitzen, die Größe des Gesichts und die Länge der Arme berechnen.As expression (1) shows, the
Eine Konversion der Größe der jeweiligen Körperteile eines Insassen in dem Bild in die tatsächliche Größe der jeweiligen Körperteile des Insassen ist möglich, da anzunehmen ist, dass sich an der relativen Position des Kopfes des Insassen zu der Kamera 9 sämtliche Körperteile des Insassen befinden. Dabei ist es zwar vorstellbar, dass sich Schultern, Wirbelsäule und Gesicht im Wesentlichen an derselben Stelle befinden wie die relative Position des Kopfes des Insassen zu der Kamera 9, da die Arme jedoch um die Schultern herum umfangreich bewegt werden können, besteht hierauf keine Beschränkung. Bezüglich der Arme kann die Körperteil-Folgerungssektion 5 auch, wenn durch eine Änderung im chronologischen Verlauf der Bilder die Größe der Arme maximal geworden ist, die betreffende maximal gewordene Größe der Arme als Größe der Arme des Insassen folgern. In diesem Fall konvertiert die Physis-Folgerungssektion 6 die Größe der Arme des Insassen in dem Bild, die durch die Körperteil-Folgerungssektion 5 gefolgert wurde, in die tatsächliche Größe der Arme des Insassen.Conversion of the size of each occupant's body part in the image to the actual size of each occupant's body part is possible because the relative position of the occupant's head to the
Als Nächstes folgert die Physis-Folgerungssektion 6 basierend auf der tatsächlichen Größe der jeweiligen Körperteile des Insassen die Physis des Insassen. Konkreter gibt die Physis-Folgerungssektion 6 in ein (nicht dargestelltes) Lerngerät, das einen Lernprozess abgeschlossen hat, bei dem ein mechanisches Lernen zur Folgerung der Physis eines Insassen erfolgt ist, die tatsächliche Größe der jeweiligen Körperteile des Insassen ein und erwirbt von dem Lerngerät durch das Ausführen einer Rechenverarbeitung des Lerngerätes ein Folgerungsergebnis der Physis des Insassen. Bei einer Vielzahl von Insassen folgert die Physis-Folgerungssektion 6 die Physis der jeweiligen Insassen.Next, the
Das Lerngerät weist ein Lernlexikon (nicht dargestellt) auf, in dem die tatsächliche Größe der jeweiligen Körperteile einer Vielzahl von Menschen mit der Physis der jeweiligen Menschen in Verbindung gesetzt aufgezeichnet ist. Wurde beispielsweise von der Physis-Folgerungssektion 6 in das Lerngerät die Sitzhöhe, die Schulterbreite, die Größe des Gesichts und die Länge der Arme eingegeben, vergleicht das Lerngerät die tatsächliche Größe der eingegebenen Körperteile mit dem Lernlexikon und folgert die Physis mit der höchsten Wahrscheinlichkeit als Physis des Insassen der eingegebenen jeweiligen Körperteile. Auf diese Weise liegt eine Korrelation zwischen der tatsächlichen Größe der jeweiligen Körperteile des Insassen mit der Physis des Insassen vor. Die Physis-Folgerungssektion 6 erwirbt das Folgerungsergebnis der Physis des Insassen von dem Lerngerät.The learning device has a learning dictionary (not shown) in which the actual size of the respective body parts of a large number of people is recorded in connection with the physique of the respective people. For example, when the seat height, shoulder width, face size, and arm length are input from the
Die Prädiktionsbedienung-Folgerungssektion 7 folgert basierend auf einer Bewegung der durch die Physis-Folgerungssektion 6 gefolgerten Physis eines Insassen eine Prädiktionsbedienung, die eine Prädiktion der Bedienung des CID 12 durch den Insassen anzeigt. Beispielsweise folgert die Prädiktionsbedienung-Folgerungssektion 7 eine Prädiktionsbedienung des CID 12 durch den Insassen, wenn es sich bei der Bewegung der Physis des Insassen von der Schulter bis zur Hand um eine zu dem CID 12 gerichtete Bewegung handelt.The predicted
Bei der Prädiktionsbedienung-Folgerungssektion 7 besteht keine Beschränkung auf eine Bewegung der Physis des Insassen von der Schulter bis zur Hand, sodass auch eine Prädiktionsbedienung basierend auf einer Bewegung der Physis eines anderen Körperteils des Insassen gefolgert werden kann. Ferner besteht bei der Prädiktionsbedienung-Folgerungssektion 7 keine Beschränkung auf eine zu dem CID 12 gerichtete Bewegung, sodass auch basierend auf einer anderen Bewegung eine Prädiktionsbedienung gefolgert werden kann.The prediction
Die Prädiktionsbedienung-Folgerungssektion 7 kann nicht nur basierend auf einer Bewegung der Physis eines Insassen, sondern auch basierend auf einer Bewegung der Gelenke des Insassen eine Prädiktionsbedienung folgern. Beispielsweise ist eine Beugung des Ellenbogengelenks des Insassen zur Innenseite möglich, während eine Beugung zur Außenseite nicht möglich ist. Da somit der Bewegungsbereich der Gelenke beschränkt ist, kann dadurch, dass nicht nur eine Bewegung der Physis sondern auch eine Bewegung der Gelenke berücksichtigt wird, die Präzision der Prädiktionsbedienung verbessert werden.The predicted
Bei der Prädiktionsbedienung-Folgerungssektion 7 besteht keine Beschränkung auf eine Bewegung der Physis eines Insassen, sondern es ist auch die Folgerung einer Prädiktionsbedienung basierend auf der Blickrichtung und der Gesichtsrichtung eines Insassen möglich. Die Blickrichtung und die Gesichtsrichtung eines Insassen können auch durch eine Bildverarbeitung eines durch die Bilderwerbssektion 2 erworbenen Bildes detektiert werden. Beispielsweise kann die Prädiktionsbedienung-Folgerungssektion 7 folgern, dass es sich bei dem Insassen um keine Prädiktionsbedienung handelt, wenn die Bewegung der Physis des betreffenden Insassen zwar zu dem CID 12 gerichtet ist, aber die Blickrichtung und die Gesichtsrichtung des Insassen nicht zu dem CID 12 gerichtet sind. Da somit nicht nur eine Bewegung der Physis sondern auch die Blickrichtung und die Gesichtsrichtung des Insassen berücksichtigt werden, kann die Präzision der Prädiktionsbedienung verbessert werden. Es ist auch möglich, dass die Prädiktionsbedienung-Folgerungssektion 7 nur entweder die Blickrichtung oder die Gesichtsrichtung des Insassen berücksichtigt. Ferner kann die Prädiktionsbedienung-Folgerungssektion 7 auch unter Berücksichtigung einer Bewegung der Gelenke eine Prädiktionsbedienung folgern.In the prediction
Die Prädiktionsbedienung-Folgerungssektion 7 kann auch mittels eines Lernlexikons (nicht dargestellt) eine Prädiktionsbedienung folgern. In diesem Fall folgert die Prädiktionsbedienung-Folgerungssektion 7 eine Prädiktionsbedienung eines Geräts durch den Insassen durch einen Vergleich der Bewegung einer durch die Physis-Folgerungssektion 6 gefolgerten Physis mit dem Lernlexikon. In dem Lernlexikon ist eine Prädiktionsbedienung von Geräten durch eine Vielzahl von Menschen aufgezeichnet.The prediction
Die Bediener-Beurteilungssektion 8 beurteilt basierend auf der durch die Prädiktionsbedienung-Folgerungssektion 7 gefolgerten Prädiktionsbedienung, den Insassen, der das CID 12 bedient. Beispielsweise wird von einem Fahrzeug ausgegangen, dessen Lenkrad sich in Fahrtrichtung auf der rechten Seite befindet. Handelt es sich in diesem Fall bei der Bewegung von der Schulter bis zur Hand der rechten Seite eines Insassen um eine zu dem CID 12 gerichtete Bewegung, beurteilt die Bediener-Beurteilungssektion 8, dass es sich bei dem Bediener des CID 12 um den Insassen des Beifahrersitzes handelt. Handelt es sich ferner bei der Bewegung von der Schulter bis zur Hand der linken Seite eines Insassen um eine zu dem CID 12 gerichtete Bewegung, beurteilt die Bediener-Beurteilungssektion 8, dass es sich bei dem Bediener des CID 12 um den Insassen des Beifahrersitzes handelt.The
Vorstehend wurde ein Beispiel erläutert, bei dem ein Insasse anhand einer Bewegung von der Schulter bis zur Hand des Insassen beurteilt wird, wobei hierauf keine Beschränkung besteht. Wie vorstehend erläutert, handelt es sich bei einer Prädiktionsbedienung, die durch die Prädiktionsbedienung-Folgerungssektion 7 gefolgert wurde, nicht nur um eine Bewegung der Physis eines Insassen, sondern beinhaltet auch eine Bewegung der Gelenke des Insassen, die Blickrichtung des Insassen und die Gesichtsrichtung des Insassen. Die Bediener-Beurteilungssektion 8 beurteilt den Bediener eines Geräts basierend auf einer durch die Prädiktionsbedienung-Folgerungssektion 7 gefolgerten Prädiktionsbedienung, d. h. der Bewegung eines Insassen, die durch die Prädiktionsbedienung-Folgerungssektion 7 gefolgert wurde. Hierdurch kann die Bediener-Beurteilungssektion 8 beurteilen, ob ein Insasse, der entweder auf dem Fahrersitz, dem Beifahrersitz oder dem Rücksitz sitzt, das CID 12 bedient hat.The above explained an example in which an occupant is judged by a movement from the occupant's shoulder to the hand, but is not limited to this. As explained above, a predictive operation inferred by the predictive
Die Beurteilungsergebnis-Ausgabesektion 11 gibt an das CID 12 ein Beurteilungsergebnis aus, das den Insassen anzeigt, von dem die Bediener-Beurteilungssektion 8 beurteilt hat, dass er das CID 12 bedient.The judgment
Das CID 12 führt entsprechend dem Insassen, der das betreffende CID 12 bedient, eine die Bedienung aktivierende oder deaktivierende Steuerung durch. Beispielsweise wird für den Fall, dass der Fahrer das CID 12 bedient, wie in
In
Vorstehend wurde der Fall erläutert, dass die Beurteilungsergebnis-Ausgabesektion 11 das Beurteilungsergebnis an das CID 12 ausgibt, wobei hierauf keine Beschränkung besteht. Im Folgenden wird ein Ausgabebeispiel des Beurteilungsergebnisses erläutert.The case where the judgment
Beispielsweise kann die Beurteilungsergebnis-Ausgabesektion 11 das Beurteilungsergebnis auch an eine in dem Fahrzeug installierte Klimaanlage ausgeben. In diesem Fall kann die Klimaanlage bei einer Bedienung der Klimaanlage durch den Fahrer die betreffende Bedienung deaktivieren, und bei einer Bedienung der Klimaanlage durch den Insassen des Beifahrersitzes die betreffende Bedienung aktivieren. Ferner kann die Klimaanlage auch die Windrichtung zu dem Bediener der betreffenden Klimaanlage hin ändern.For example, the judgment
Die Beurteilungsergebnis-Ausgabesektion 11 kann das Beurteilungsergebnis auch an ein in dem Fahrzeug installiertes Audiogerät ausgeben. In diesem Fall kann das Audiogerät bei einer Bedienung des Audiogeräts durch den Fahrer die betreffende Bedienung deaktivieren, und bei einer Bedienung des Audiogeräts durch den Insassen des Beifahrersitzes die betreffende Bedienung aktivieren. Ferner kann das Audiogerät auch ein dem Geschmack des betreffenden Bedieners des Audiogeräts entsprechendes Musikstück wiedergeben.The judgment
<Arbeitsweise><How it works>
In Schritt S11 erwirbt die Bilderwerbskomponente 2 ein Bild des Insassen eines Fahrzeugs, das durch die Kamera 9 aufgenommen wurde. In Schritt S12 folgert die Gesichtsmerkmal-Folgerungssektion 3 basierend auf dem durch die Bilderwerbskomponente 2 erworbenen Bildes Gesichtsmerkmale des Insassen.In step S<b>11 , the
In Schritt S13 folgert die Kopfposition-Folgerungssektion 4 basierend auf den durch die Gesichtsmerkmal-Folgerungssektion 3 gefolgerten Gesichtsmerkmalen die relative Position des Kopfes des Insassen zu der Kamera 9. In S14 folgert die Körperteil-Folgerungssektion 5 basierend auf dem durch die Bilderwerbskomponente 2 erworbenen Bild die Größe einer Vielzahl von Körperteilen des Insassen in dem Bild.In step S13, the head
In Schritt S15 folgert die Physis-Folgerungssektion 6 basierend auf der durch die Kopfposition-Folgerungssektion 4 gefolgerten relativen Position des Kopfes des Insassen und der durch die Körperteil-Folgerungssektion 5 gefolgerten Größe der jeweiligen Körperteile die Physis des Insassen. In Schritt S16 folgert die Prädiktionsbedienung-Folgerungssektion 7 basierend auf einer Bewegung der durch die Physis-Folgerungssektion 6 gefolgerten Physis eines Insassen eine Prädiktionsbedienung, die eine Prädiktion der Bedienung eines in dem Fahrzeug installierten Geräts durch einen Insassen anzeigt. In Schritt S17 beurteilt die Bediener-Beurteilungssektion 8 basierend auf der durch die Prädiktionsbedienung-Folgerungssektion 7 gefolgerten Prädiktionsbedienung, den Insassen, der das Gerät bedient.In step S15, based on the relative position of the occupant's head inferred by the head
In Schritt S28 gibt die Beurteilungsergebnis-Ausgabesektion 11 an ein Gerät ein Beurteilungsergebnis aus, das den Insassen anzeigt, von dem die Bediener-Beurteilungssektion 8 beurteilt hat, dass er das CID 12 bedient.In step S<b>28 , the judgment
<Wirkungen><Effects>
Den vorliegenden Ausführungsformen zufolge kann die Kopfposition-Folgerungssektion 4 basierend auf dem Abstand der beiden Augen oder der Größe der Pupillen des Insassen, bei welchen eine Beeinflussung durch Körperbauunterschiede gering ist, die relative Position des Kopfes des Insassen zu der Kamera 9 präzise folgern. Die Physis-Folgerungssektion 6 kann mittels der präzise gefolgerten relativen Position des Insassen die Physis des Insassen präzise folgern. Die Prädiktionsbedienung-Folgerungssektion 7 kann basierend auf einer Bewegung der exakten Physis eines Insassen eine Prädiktionsbedienung präzise folgern. Auf diese Weise kann die Bediener-Beurteilungsvorrichtung 1, 10 selbst bei einer Änderung der Sitzposition, an der die Insassen sitzen, den Bediener, der ein in dem Fahrzeug installiertes Gerät bedient, präzise beurteilen.According to the present embodiments, the head
<Hardware-Aufbau><Hardware structure>
Die jeweiligen Funktionen der Bilderwerbssektion 2, der Gesichtsmerkmal-Folgerungssektion 3, der Kopfposition-Folgerungssektion 4, der Körperteil-Folgerungssektion 5, der Physis-Folgerungssektion 6, der Prädiktionsbedienung-Folgerungssektion 7, der Bediener-Beurteilungssektion 8 und der Beurteilungsergebnis-Ausgabesektion 11 bei der vorstehend erläuterten Bediener-Beurteilungsvorrichtung 10 werden mittels einer Verarbeitungsschaltung realisiert. Das heißt, die Bediener-Beurteilungsvorrichtung 1, 10 umfasst eine Verarbeitungsschaltung zum Erwerben eines Bildes des Insassen in einem Fahrzeug, das durch eine Kamera aufgenommen wurde, zum Folgern der Gesichtsmerkmale des Insassen, zum Folgern der relativen Position des Kopfes des Insassen zur Kamera, zum Folgern der Größe einer Vielzahl von Körperteilen des Insassen in dem Bild, zum Folgern der Physis des Insassen, zum Folgern einer Prädiktionsbedienung des Insassen und zur Beurteilung des Bedieners. Die Verarbeitungsschaltung kann eine spezielle Hardware sein, sie kann jedoch auch mittels eines Prozessors (auch als CPU (Central Processing Unit), Verarbeitungsvorrichtung, Rechenvorrichtung, Mikroprozessor, Mikrocomputer, DSP (Digital Signal Processor) bezeichnet) gebildet sein, der in einem Speicher abgelegte Programme ausführt.The respective functions of the
Handelt es sich bei der Verarbeitungsschaltung um eine spezielle Hardware, entspricht die Verarbeitungsschaltung 13, wie in
Handelt es sich bei der Verarbeitungsschaltung 13 um einen Prozessor 14, wie in
Bezüglich der jeweiligen Funktionen der Bilderwerbssektion 2, der Gesichtsmerkmal-Folgerungssektion 3, der Kopfposition-Folgerungssektion 4, der Körperteil-Folgerungssektion 5, der Physis-Folgerungssektion 6, der Prädiktionsbedienung-Folgerungssektion 7, der Bediener-Beurteilungssektion 8 und der Beurteilungsergebnis-Ausgabesektion 11 ist es auch möglich, dass ein Teil der Funktionen mittels einer speziellen Hardware realisiert wird, und andere Funktionen durch eine Software oder Firmware realisiert werden.Regarding the respective functions of the
Hierbei kann die Verarbeitungsschaltung die vorstehend beschriebenen jeweiligen Funktionen durch eine Hardware, Software, Firmware oder deren Kombination realisieren.Here, the processing circuit can realize the respective functions described above by hardware, software, firmware, or a combination thereof.
<Systemaufbau><system structure>
Die vorstehend erläuterte Bediener-Beurteilungsvorrichtung kann nicht nur auf eine Onboard-Navigationsvorrichtung, d. h. eine Autonavigationsvorrichtung, sondern auch auf eine Navigationsvorrichtung, die als System aufgebaut ist, bei dem ein in ein Fahrzeug einbaubares PND (Portable Navigation Device) und ein außerhalb des Fahrzeugs vorgesehener Server usw. in geeigneter Weise kombiniert sind, oder auf eine andere Vorrichtung als eine Navigationsvorrichtung angewendet werden. In diesem Fall können die jeweiligen Funktionen der Bediener-Beurteilungsvorrichtung oder die jeweiligen Bestandteile verteilt auf die jeweiligen Funktionen, aus denen das System aufgebaut ist, angeordnet werden.The operator evaluation device explained above can be applied not only to an onboard navigation device, i. H. a car navigation device, but also to a navigation device constructed as a system in which a vehicle-mountable PND (Portable Navigation Device) and a vehicle-provided server, etc. are appropriately combined, or a device other than one Navigation device are applied. In this case, the respective functions of the operator judgment device or the respective constituent parts can be distributed to the respective functions constituting the system.
Konkret kann als ein Beispiel die Funktion der Bediener-Beurteilungsvorrichtung auf einem Server angeordnet werden. Wie in
Somit können selbst bei einem Aufbau, bei dem die jeweiligen Funktionen der Bediener-Beurteilungsvorrichtung auf die jeweiligen das System bildenden Funktionen verteilt angeordnet sind, die gleichen Effekte wie bei der vorstehenden Ausführungsform erzielt werden.Thus, even with a structure in which the respective functions of the operator judgment device are distributed to the respective functions constituting the system, the same effects as the above embodiment can be obtained.
Die Software zum Ausführen des Betriebs bei der vorstehenden Ausführungsform kann beispielsweise auch auf einem Server installiert werden. Bei dem Bediener-Beurteilungsverfahren, das durch das Ausführen dieser Software durch den Server realisiert wird, wird ein Bild des Insassen in einem Fahrzeug erworben, das durch eine Kamera aufgenommen wurde, basierend auf dem erworbenen Bild werden Gesichtsmerkmale des Insassen gefolgert, basierend auf den gefolgerten Gesichtsmerkmalen wird die relative Position des Kopfes des Insassen zur Kamera gefolgert, basierend auf dem erworbenen Bild wird die Größe einer Vielzahl von Körperteilen des Insassen in dem Bild gefolgert, basierend auf der relativen Position des Kopfes des Insassen und der Größe der jeweiligen Körperteile wird die Physis des Insassen gefolgert, basierend auf einer Bewegung der gefolgerten Physis wird eine Prädiktionsbedienung gefolgert, die eine Prädiktion der Bedienung eines in dem Fahrzeug installierten Geräts durch einen Insassen anzeigt, und basierend auf der gefolgerten Prädiktionsbedienung wird der das Gerät bedienende Insasse beurteilt.The software for executing the operation in the above embodiment can also be installed on a server, for example. In the operator judgment method realized by executing this software through the server, an image of the occupant in a vehicle picked up by a camera is acquired based on the acquired image, facial features of the occupant are inferred based on the inferred ones Facial features infer the relative position of the occupant's head to the camera, based on the acquired image, the size of a variety of occupant's body parts in the image is inferred, based on the relative position of the occupant's head and the size of each body part becomes the physique of the occupant, based on a movement of the inferred physique, a prediction operation indicating a prediction of operation of an apparatus installed in the vehicle by an occupant is inferred, and based on the inferred prediction operation, the occupant operating the apparatus is judged.
Auf diese Weise werden dadurch, dass die Software zum Ausführen des Betriebs bei der vorstehenden Ausführungsform auf einem Server installiert und betrieben wird, die gleichen Effekte wie bei der vorstehenden Ausführungsform erzielt.In this way, since the software for executing the operation in the above embodiment is installed and operated on a server, the same effects as in the above embodiment are obtained.
Bei der vorliegenden Erfindung ist es innerhalb des Bereichs der Erfindung möglich, Formen der Ausführung in geeigneter Weise abzuwandeln oder wegzulassen.In the present invention, it is possible to appropriately modify or omit forms of embodiment within the scope of the invention.
Die vorliegende Erfindung wurde detailliert erläutert, wobei die vorstehende Erläuterung in sämtlichen Aspekten eine beispielhafte Darstellung ist, und die Erfindung nicht hierauf beschränkt ist. Auch unzählige abgewandelte Beispiele, die nicht beispielhaft dargestellt sind, werden als ohne Abweichung von dem Bereich dieser Erfindung vorstellbar aufgefasst.The present invention has been explained in detail, and the above explanation is an example in all aspects, and the invention is not limited thereto. Also innumerable modified examples not illustrated by way of example are contemplated as conceivable without departing from the scope of this invention.
BezugszeichenlisteReference List
- 11
- Bediener-Beurteilungsvorrichtungoperator evaluation device
- 22
- Bilderwerbssektionimage acquisition section
- 33
- Gesichtsmerkmal-FolgerungssektionFacial Feature Inference Section
- 44
- Kopfposition-FolgerungssektionHead position inference section
- 55
- Körperteil-FolgerungssektionBody part inference section
- 66
- Physis-FolgerungssektionPhysis Inference Section
- 77
- Prädiktionsbedienung-Folgerungssektionprediction operation inference section
- 88th
- Bediener-BeurteilungssektionOperator Judgment Section
- 99
- Kameracamera
- 1010
- Bediener-Beurteilungsvorrichtungoperator evaluation device
- 1111
- Beurteilungsergebnis-Ausgabesektionjudgment result output section
- 1212
- CIDCID
- 1313
- Verarbeitungsschaltungprocessing circuit
- 1414
- Prozessorprocessor
- 1515
- SpeicherStorage
- 1616
- Serverserver
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- JP 2014058268 A [0003]JP 2014058268 A [0003]
- JP 2005274409 A [0003]JP2005274409A [0003]
Claims (9)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/034914 WO2021044567A1 (en) | 2019-09-05 | 2019-09-05 | Operator determination apparatus and operator determination method |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112019007569T5 true DE112019007569T5 (en) | 2022-04-28 |
Family
ID=74853086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112019007569.1T Pending DE112019007569T5 (en) | 2019-09-05 | 2019-09-05 | Operator judging device and operator judging method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7003335B2 (en) |
DE (1) | DE112019007569T5 (en) |
WO (1) | WO2021044567A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11983952B2 (en) | 2019-09-05 | 2024-05-14 | Mitsubishi Electric Corporation | Physique determination apparatus and physique determination method |
WO2024004195A1 (en) * | 2022-07-01 | 2024-01-04 | 三菱電機株式会社 | Operation determining device and operation determining method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005274409A (en) | 2004-03-25 | 2005-10-06 | Sanyo Electric Co Ltd | Car navigation system |
JP2014058268A (en) | 2012-09-19 | 2014-04-03 | Alps Electric Co Ltd | Motion prediction device and input device using the same |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5217754B2 (en) * | 2008-08-06 | 2013-06-19 | 株式会社デンソー | Action estimation device, program |
JP2015118404A (en) * | 2013-12-16 | 2015-06-25 | 株式会社オートネットワーク技術研究所 | Driving support device |
JP6443393B2 (en) * | 2016-06-01 | 2018-12-26 | トヨタ自動車株式会社 | Action recognition device, learning device, method and program |
JP2018131110A (en) * | 2017-02-16 | 2018-08-23 | パナソニックIpマネジメント株式会社 | Estimation device, estimation method, and estimation program |
DE102017113781B4 (en) * | 2017-06-21 | 2023-10-05 | SMR Patents S.à.r.l. | Method for operating a display device for a motor vehicle and motor vehicle |
-
2019
- 2019-09-05 JP JP2021543880A patent/JP7003335B2/en active Active
- 2019-09-05 DE DE112019007569.1T patent/DE112019007569T5/en active Pending
- 2019-09-05 WO PCT/JP2019/034914 patent/WO2021044567A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005274409A (en) | 2004-03-25 | 2005-10-06 | Sanyo Electric Co Ltd | Car navigation system |
JP2014058268A (en) | 2012-09-19 | 2014-04-03 | Alps Electric Co Ltd | Motion prediction device and input device using the same |
Also Published As
Publication number | Publication date |
---|---|
WO2021044567A1 (en) | 2021-03-11 |
JP7003335B2 (en) | 2022-01-20 |
JPWO2021044567A1 (en) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE202014101703U1 (en) | System for mapping a driver of a vehicle | |
DE102014214516A1 (en) | Apparatus and method for reproducing data in augmented reality for an occupant of a vehicle | |
DE102018105169A1 (en) | Display system for vehicle and control method therefor | |
DE102014214514A1 (en) | Apparatus and method for exchanging data between vehicles for setting up a convoy | |
DE112019007569T5 (en) | Operator judging device and operator judging method | |
EP3392111A1 (en) | Method and device for determining a visual deflection of a driver of a vehicle | |
DE102015201406A1 (en) | CHARACTER DETECTION DEVICE AND METHOD FOR DETERMINING LEFT OR RIGHT TRAFFIC AND THE ROUTE UNIT INDEX | |
DE102019204892A1 (en) | Method and control device for detecting drowsiness of a driver for a driver assistance system for a vehicle | |
DE102018131805A1 (en) | DEVICE FOR DETECTING A FACIAL POSITION | |
DE102018216409A1 (en) | Method, device and means of transportation for a kinetose-avoiding representation of a liquid in a display in a means of transportation | |
DE112020006670T5 (en) | Direction of attention judging apparatus and direction of attention judging method | |
DE112016006769T5 (en) | Sign language input to a user interface of a vehicle | |
DE102016001054A1 (en) | Method for entering a command in a control unit of a vehicle | |
DE112017007247T5 (en) | IMAGING DEVICE | |
EP3695268B1 (en) | Portable device for reducing simulator sickness-induced impairments during the use of electronic augmented reality glasses in a vehicle | |
DE102018007577A1 (en) | Method for displaying a traffic light in a vehicle | |
EP4061666A1 (en) | Method for displaying an object through a head-up display display system and a head-up display display system | |
DE102016011016A1 (en) | Method for operating an assistance system | |
DE102016206311B4 (en) | Procedure for a vehicle | |
DE102018004277A1 (en) | Method for operating a driver camera of a vehicle | |
DE102017212031A1 (en) | A method for reducing kinetosis-related symptoms of an occupant in a vehicle | |
DE102015007243A1 (en) | Procedure for performing an eye test | |
DE102018208833A1 (en) | System and method for controlling the map navigation of a vehicle | |
DE102018121523A1 (en) | Method of preventing or reducing travel sickness and device | |
DE102018002224A1 (en) | Method and system for determining spatial coordinates of landmarks of a person's head |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R084 | Declaration of willingness to licence | ||
R016 | Response to examination communication |