DE112017006982T5 - Bedienungseignungsbeurteilungsvorrichtung,bedienungseignungsbeurteilungsverfahren undbedienungseignungsbeurteilungsprogramm - Google Patents

Bedienungseignungsbeurteilungsvorrichtung,bedienungseignungsbeurteilungsverfahren undbedienungseignungsbeurteilungsprogramm Download PDF

Info

Publication number
DE112017006982T5
DE112017006982T5 DE112017006982.3T DE112017006982T DE112017006982T5 DE 112017006982 T5 DE112017006982 T5 DE 112017006982T5 DE 112017006982 T DE112017006982 T DE 112017006982T DE 112017006982 T5 DE112017006982 T5 DE 112017006982T5
Authority
DE
Germany
Prior art keywords
user
perceptual
movement
perception
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112017006982.3T
Other languages
English (en)
Inventor
Jumpei Hato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112017006982T5 publication Critical patent/DE112017006982T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0863Inactivity or incapacity of driver due to erroneous selection or response of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/227Position in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Educational Technology (AREA)
  • Automation & Control Theory (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Ophthalmology & Optometry (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Eine Bedienungseignungsbeurteilungsvorrichtung (130) ist eine Vorrichtung, die ein Bedienungseignungsniveau beurteilt, das angibt, in einem wie geeigneten Zustand sich ein Benutzer zum Durchführen einer geplanten Bedienung, die ausgeführt werden sollte, befindet, einschließlich: einer Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit (132), die einen Wahrnehmungsschwierigkeiten-Raum detektiert, in dem ein Wahrnehmungsobjekt als ein Objekt, das der Benutzer wahrnehmen sollte, wenn der Benutzer die geplante Bedienung durchführt, für den Benutzer schwierig wahrzunehmen ist, basierend auf Nachbarschaftsobjektinformationen, die von einer Nachbarschaftsobjekt-Detektionsvorrichtung (110) erfasst werden, die ein Nachbarschaftsobjekt detektiert, das in der Nachbarschaft des Benutzers vorhanden ist; einer Benutzerwahrnehmungsbewegung-Detektionseinheit (131), die eine Benutzerwahrnehmungsbewegung als eine Bewegung des Benutzers detektiert, wenn der Benutzer versucht, das Wahrnehmungsobjekt wahrzunehmen, basierend auf Benutzerbewegungsinformationen, die von einer Benutzerbewegung-Detektionsvorrichtung (120) erfasst werden, die eine Bewegung des Benutzers detektiert; und einer Bedienungseignungsniveau-Berechnungseinheit (133), die das Bedienungseignungsniveau des Benutzers basierend auf dem Wahrnehmungsschwierigkeiten-Raum und der Benutzerwahrnehmungsbewegung berechnet.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Bedienungseignungsbeurteilungsvorrichtung, ein Bedienungseignungsbeurteilungsverfahren und ein Bedienungseignungsbeurteilungsprogramm zum Beurteilen eines Bedienungseignungsniveaus, das angibt, in einem wie geeigneten Zustand sich ein Benutzer zum Durchführen einer Bedienung befindet, die ausgeführt werden sollte.
  • Hintergrund
  • Herkömmlicherweise wurden verschiedene Technologien zum Beurteilen davon vorgeschlagen, in einem wie geeigneten Zustand sich ein Fahrer als ein Benutzer (Bediener) eines Kraftfahrzeugs für das Fahren des Kraftfahrzeugs als eine Bedienung, die ausgeführt werden sollte, befindet.
  • Zum Beispiel schlägt die Nichtpatentreferenz 1 ein System vor, das eine für ein Smartphone dedizierte Anwendung, welches mit einem Schläfrigkeitsdetektionsalgorithmus und einem anziehbaren Pulsmessgerät zum Messen des Pulses eines Fahrers ausgestattet ist, verwendet, eine Schläfrigkeit des Fahrers basierend auf dem Puls detektiert und eine Warnung an den Fahrer ausgibt, während eine Warnung an einen Manager des Fahrers mittels E-Mail gesendet wird.
  • Die Patentreferenz 1 schlägt eine Technologie zum Bestimmen eines Objekts, das visuell erkannt werden sollte, zum Detektieren, ob ein Fahrer das Objekt, das visuell erkannt werden sollte, erkannt hat oder nicht, basierend auf der Sichtlinie des Fahrers, die basierend auf einem Gesichtsbild des Fahrers detektiert wird, und zum Beurteilen eines Bedienungseignungsniveaus des Fahrers vor. Hier ist das Objekt, das visuell erkannt werden sollte, zum Beispiel ein Verkehrszeichen, ein Verkehrssignal, ein Fahrzeug, ein Hindernis oder ein sich bewegendes Objekt, wie etwa ein Fußgänger.
  • REFERENZ DES STANDS DER TECHNIK NICHTPATENTREFERENZ
  • Nichtpatentreferenz 1: NTT Data MSE Corporation, Kyoto University, Kumamoto University, NTT DoCoMo, Inc., Presseerklärung „Demonstration Experiment Started for Sleepiness Detection System for Drivers Utilizing hitoe" [online], 10. Mai 2016, Internet, URL: https://www.nttdocomo.co.jp/info/news_release/2016/05/10_00.html
  • Nichtpatentreferenz 2: Keisuke Morishima und fünf andere, „Measurement of Useful Field of View in Eye and Head-Free Condition while Driving", Transactions of the Japan Society of Mechanical Engineers (Teil C), Okt. 2013, Bd. 79, Nr. 806, S. 272 - 284 (S. 3561 - 3573)
  • PATENTREFERENZ
  • Patentreferenz 1: Japanische Patentanmeldung mit der Veröffentlichungs-Nr. 2009-69885
  • KURZDARSTELLUNG DER ERFINDUNG DURCH DIE ERFINDUNG ZU LÖSENDES PROBLEM
  • Jedoch muss der Fahrer bei der durch die Nichtpatentreferenz 1 vorgeschlagenen Technologie aufpassen, dass er nicht vergisst, das anziehbare Pulsmessgerät anzuziehen, und für den Fahrer kann es lästig sein, das anziehbare Pulsmessgerät anzuziehen, oder er kann das anziehbare Pulsmessgerät als unangenehm empfinden, nachdem er das anziehbare Pulsmessgerät angezogen hat. Dementsprechend besteht ein Problem der Belastung des Fahrers.
  • Die durch die Patentreferenz 1 vorgeschlagene Technologie weist das folgende Problem auf:
    • Allgemein führt ein Benutzer als ein Bediener eine geplante Bedienung durch das Wiederholen einer Aktivität aus, die Folgendes beinhaltet:
      • (Handlung 1) Sammeln von Informationen, die zum angemessenen Ausführen der geplanten Bedienung notwendig sind, aus der umliegenden Umgebung oder dergleichen (d. h. Erkennen notwendiger Informationen),
      • (Handlung 2) Erwägen anzufangen, welche Art von Bewegung ermöglicht, die Bedienung angemessen auszuführen, basierend auf den gesammelten Informationen (d. h. Beurteilen), und
      • (Handlung 3) Umsetzen der Bedienung (d. h. Steuerhandlung) gemäß den Inhalten der Erwägung (d. h. Ergebnis der Beurteilung).
      • Daher ist eine Beurteilung möglich, dass der Benutzer in der Lage ist, die Bedienung angemessen auszuführen, falls sich der Benutzer in einem Zustand befindet, bei dem er in der Lage ist, (Handlung 1) bis (Handlung 3) angemessen durchzuführen.
  • In dem Verfahren, das das „Erkennen notwendiger Informationen“, das in (Handlung 1) angegeben wird, als ein Beurteilungskriterium einsetzt (als ein „erkennungsbasiertes Eignungsbeurteilungsverfahren“ bezeichnet), ist eine Bestätigung notwendig, dass der Benutzer die notwendigen Informationen erkannt hat. Die Erkennung ist jedoch eine interne Aktivität des Benutzers und die Messung der Erkennung ist schwierig. Selbst wenn zum Beispiel das Verhalten eines Sinnesorgans des Benutzers beobachtet wird, ist es schwierig, präzise zu unterscheiden, ob das Verhalten des Sinnesorgans ein Ergebnis einer reflexartigen Reaktion auf ein Wahrnehmungsobjekt, das heißt ein Objekt, das wahrgenommen werden sollte, ist (d. h. eine reflexartige Handlung, die noch nicht in Erkennung übergegangen ist) oder ein Ergebnis ist, das basierend auf einer Erkennung des Wahrnehmungsobjekts erhalten wird (d. h. eine Handlung, die basierend auf Erkennung durchgeführt wird). Daher ist es schwierig, präzise zu unterscheiden, ob eine Bewegung der Sichtlinie als das Benutzerverhalten, das bei der in der Patentreferenz 1 beschriebenen Technologie eingesetzt wird, eine reflexartige Handlung aufgrund der hohen Ausgeprägtheit des Wahrnehmungsobjekts am Ende der Sichtlinie oder eine basierend auf Erkennung durchgeführte Handlung ist. Somit besteht ein Problem darin, dass das Bedienungseignungsniveau nicht präzise beurteilt werden kann.
  • Ein Ziel der vorliegenden Erfindung, die zum Lösen der oben beschriebenen Probleme vorgenommen worden ist, besteht darin, eine Bedienungseignungsbeurteilungsvorrichtung und ein Bedienungseignungsbeurteilungsverfahren bereitzustellen, mit der bzw. dem das Bedienungseignungsniveau, das angibt, in einem wie geeigneten Zustand sich der Benutzer zum Durchführen einer geplanten Bedienung befindet, präzise beurteilt werden kann, ohne den Fahrer zu belasten, und ein Bedienungseignungsbeurteilungsprogramm bereitzustellen, das eine Ausführung des Bedienungseignungsbeurteilungsverfahrens ermöglicht.
  • MITTEL ZUR LÖSUNG DES PROBLEMS
  • Eine Bedienungseignungsbeurteilungsvorrichtung gemäß einem Aspekt der vorliegenden Erfindung ist eine Vorrichtung, die ein Bedienungseignungsniveau beurteilt, das angibt, in einem wie geeigneten Zustand sich ein Benutzer zum Durchführen einer geplanten Bedienung, die ausgeführt werden sollte, befindet, und die Folgendes beinhaltet:
    • eine Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit, die detektiert, dass ein Wahrnehmungsschwierigkeiten-Raum, in dem ein Wahrnehmungsobjekt als ein Objekt, das der Benutzer wahrnehmen sollte, wenn der Benutzer die geplante Bedienung durchführt, für den Benutzer schwierig wahrzunehmen ist, basierend auf Nachbarschaftsobjektinformationen, die von einer Nachbarschaftsobjekt-Detektionsvorrichtung erfasst werden, die ein Nachbarschaftsobjekt detektiert, das in der Nachbarschaft des Benutzers vorhanden ist; eine Benutzerwahrnehmungsbewegung-Detektionseinheit, die eine Benutzerwahrnehmungsbewegung als eine Bewegung des Benutzers, wenn der Benutzer versucht, das Wahrnehmungsobjekt wahrzunehmen, basierend auf Benutzerbewegungsinformationen detektiert, die von einer Benutzerbewegung-Detektionsvorrichtung erfasst werden, die eine Bewegung des Benutzers detektiert; und eine Bedienungseignungsniveau-Berechnungseinheit, die das Bedienungseignungsniveau des Benutzers basierend auf dem durch die Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit detektierten Wahrnehmungsschwierigkeiten-Raum und der durch die Benutzerwahrnehmungsbewegung-Detektionseinheit detektierten Benutzerwahrnehmungsbewegung berechnet.
  • Ein Bedienungseignungsbeurteilungsverfahren gemäß einem anderen Aspekt der vorliegenden Erfindung ist ein Verfahren zum Beurteilen eines Bedienungseignungsniveaus, das angibt, in einem wie geeigneten Zustand sich ein Benutzer zum Durchführen einer geplanten Bedienung, die ausgeführt werden sollte, befindet, wobei das Verfahren Folgendes beinhaltet: Detektieren, dass ein Wahrnehmungsschwierigkeiten-Raum, in dem ein Wahrnehmungsobjekt als ein Objekt, das der Benutzer wahrnehmen sollte, wenn der Benutzer die geplante Bedienung durchführt, für den Benutzer schwierig wahrzunehmen ist, basierend auf Nachbarschaftsobjektinformationen, die von einer Nachbarschaftsobjekt-Detektionsvorrichtung erfasst werden, die ein Nachbarschaftsobjekt detektiert, das in der Nachbarschaft des Benutzers vorhanden ist; Detektieren einer Benutzerwahrnehmungsbewegung als eine Bewegung des Benutzers, wenn der Benutzer versucht, das Wahrnehmungsobjekt wahrzunehmen, basierend auf Benutzerbewegungsinformationen, die von einer Benutzerbewegung-Detektionsvorrichtung erfasst werden, die eine Bewegung des Benutzers detektiert; und Berechnen des Bedienungseignungsniveaus des Benutzers basierend auf dem detektierten Wahrnehmungsschwierigkeiten-Raum und der detektierten Benutzerwahrnehmungsbewegung.
  • AUSWIRKUNG DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung wird ein Vorteil insofern erhalten, dass das Bedienungseignungsniveau, das angibt, in einem wie geeigneten Zustand sich der Benutzer zum Durchführen einer Bedienung befindet, präzise beurteilt werden kann, ohne den Benutzer zu belasten.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das schematisch eine Konfiguration einer Bedienungseignungsbeurteilungsvorrichtung gemäß einer ersten und zweiten Ausführungsform der vorliegenden Erfindung darstellt.
    • 2 ist ein Diagramm, das schematisch eine Hardwarekonfiguration der Bedienungseignungsbeurteilungsvorrichtung gemäß der ersten und zweiten Ausführungsform darstellt.
    • 3 ist ein Diagramm, das ein Beispiel für Daten darstellt, die durch eine Nachbarschaftsobjekt-Detektionsvorrichtung gesammelt werden.
    • 4 ist ein Diagramm, das ein anderes Beispiel für Daten darstellt, die durch eine Nachbarschaftsobjekt-Detektionsvorrichtung gesammelt werden.
    • 5 ist ein Abfolgediagramm, das einen grundlegenden Prozess darstellt, der durch die Bedienungseignungsbeurteilungsvorrichtung gemäß der ersten und zweiten Ausführungsform ausgeführt wird.
    • 6 ist ein Abfolgediagramm, das Einzelheiten eines internen Prozesses eines Hauptschleifenprozesses in der Bedienungseignungsbeurteilungsvorrichtung gemäß der ersten Ausführungsform darstellt.
    • 7 ist ein Diagramm, das einen konkreten Wahrnehmungsschwierigkeiten-Raum-Detektionsprozess bezüglich der Wahrnehmung mittels des Sehsinnes darstellt.
    • 8 ist ein Diagramm, das ein Beispiel für ein Verfahren zum Beurteilen der Wichtigkeit eines Wahrnehmungsschwierigkeiten-Raumes darstellt.
    • 9 ist ein Diagramm, das ein anderes Beispiel für das Verfahren zum Beurteilen der Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes darstellt.
    • 10 ist ein Diagramm, das eine Situation darstellt, bei der ein Wahrnehmungsschwierigkeiten-Raum, der durch ein Nachbarschaftsobjekt verursacht wird, bezüglich einer Blickpunktposition eines Benutzers als ein Referenzpunkt vorhanden ist.
    • 11 ist ein Diagramm, das ein Beispiel für ein Wahrnehmungswichtigkeitsniveau bezüglich jeder Position auf einer Ebenenfläche einschließlich eines Liniensegments, das durch zwei Punkte auf dem Nachbarschaftsobjekt läuft, darstellt.
    • 12 ist ein Diagramm, das eine Situation darstellt, bei der das Nachbarschaftsobjekt in 10 ein anderes Fahrzeug ist und ein Wahrnehmungsschwierigkeiten-Raum, der durch das Nachbarschaftsobjekt verursacht wird, bezüglich der Blickpunktposition des Benutzers als ein Referenzpunkt vorhanden ist.
    • 13 ist ein Diagramm, das ein Beispiel für das Wahrnehmungswichtigkeitsniveau bezüglich jeder Position auf der Ebenenfläche einschließlich des Liniensegments, das durch zwei Punkte auf dem Nachbarschaftsobjekt in der Situation von 12 läuft, darstellt.
    • 14 ist ein Abfolgediagramm, das Einzelheiten eines internen Prozesses eines Hauptschleifenprozesses in einer Bedienungseignungsbeurteilungsvorrichtung gemäß der zweiten Ausführungsform darstellt.
    • 15 ist ein Diagramm zum Erläutern eines Wahrnehmungsobjekt-Detektionsprozesses in 14.
    • 16 ist ein Diagramm zum Erläutern eines Benutzerwahrnehmungsobjekt-Beurteilungsprozesses in 14.
  • DURCHFÜHRUNGSWEISE DER ERFINDUNG
  • Bedienungseignungsbeurteilungsvorrichtungen, Bedienungseignungsbeurteilungsverfahren und Bedienungseignungsbeurteilungsprogramme gemäß Ausführungsformen der vorliegenden Erfindung werden unten unter Bezugnahme auf die begleitenden Zeichnungen beschrieben. In einer ersten und zweiten Ausführungsform wird die Beschreibung hauptsächlich für Fälle gegeben, bei denen die Bedienung ein Fahren eines Kraftfahrzeugs ist und ein Benutzer, der die Bedienung durchführt, ein Fahrer des Kraftfahrzeugs ist. Die folgenden Ausführungsformen sind jedoch lediglich Beispiele und eine Vielfalt von Modifikationen sind innerhalb des Schutzumfangs der vorliegenden Erfindung möglich.
  • Erste Ausführungsform
  • Allgemeiner Überblick
  • 1 stellt schematisch eine Konfiguration einer Bedienungseignungsbeurteilungsvorrichtung 130 gemäß der ersten Ausführungsform dar. Die Bedienungseignungsbeurteilungsvorrichtung 130 ist eine Vorrichtung, die in der Lage ist, ein Bedienungseignungsbeurteilungsverfahren gemäß der ersten Ausführungsform auszuführen. Das Bedienungseignungsbeurteilungsverfahren kann durch ein Bedienungseignungsbeurteilungsprogramm als Software, die in der Bedienungseignungsbeurteilungsvorrichtung oder einem Server gespeichert ist, ausgeführt werden.
  • Die Bedienungseignungsbeurteilungsvorrichtung 130 ist eine Vorrichtung, die ein Bedienungseignungsniveau beurteilt, das angibt, in einem wie geeigneten Zustand sich der Benutzer zum Durchführen einer geplanten Bedienung, die ausgeführt werden sollte, befindet. Die Bedienungseignungsbeurteilungsvorrichtung 130 erfasst Nachbarschaftsobjektinformationen, die durch das Detektieren eines oder mehrerer Objekte in der Nachbarschaft des Benutzers (in einem umliegenden Gebiet des Benutzers oder um den Benutzer herum) von einer Nachbarschaftsobjekt-Detektionsvorrichtung 110 erhalten werden, und erfasst Benutzerbewegungsinformationen, die durch das Detektieren einer Bewegung des Benutzers von einer Benutzerbewegung-Detektionsvorrichtung 120 erhalten werden. Die Bedienungseignungsbeurteilungsvorrichtung 130 berechnet das Bedienungseignungsniveau des Benutzers unter Verwendung der erfassten Nachbarschaftsobjektinformationen und Benutzerbewegungsinformationen und stellt einer Informationsdarstellungseinheit 140 das berechnete Bedienungseignungsniveau bereit. Die Informationsdarstellungseinheit 140 ist in der Lage, den Benutzer darüber zu informieren, wie geeignet oder wie ungeeignet der gegenwärtige Zustand zum Durchführen der geplanten Bedienung ist.
  • Wie in 1 dargestellt, beinhaltet die Bedienungseignungsbeurteilungsvorrichtung 130 eine Benutzerwahrnehmungsbewegung-Detektionseinheit 131, eine Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit 132 und eine Bedienungseignungsniveau-Berechnungseinheit 133. Die Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit 132 detektiert einen Wahrnehmungsschwierigkeiten-Raum, in dem ein Wahrnehmungsobjekt als ein Objekt, das der Benutzer wahrnehmen sollte, wenn der Benutzer eine geplante Bedienung durchführt, für den Benutzer schwierig wahrzunehmen ist, unter Verwendung der Nachbarschaftsobjektinformationen, die von der Nachbarschaftsobjekt-Detektionsvorrichtung 110 erfasst werden. Die Benutzerwahrnehmungsbewegung-Detektionseinheit 131 detektiert eine Benutzerwahrnehmungsbewegung als eine Bewegung des Benutzers, wenn der Benutzer versucht, das Wahrnehmungsobjekt wahrzunehmen, unter Verwendung der Benutzerbewegungsinformationen, die von der Benutzerbewegung-Detektionsvorrichtung 120 erfasst werden. Die Bedienungseignungsniveau-Berechnungseinheit 133 berechnet das Bedienungseignungsniveau des Benutzers basierend auf dem durch die Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit 132 detektierten Wahrnehmungsschwierigkeiten-Raum und der durch die Benutzerwahrnehmungsbewegung-Detektionseinheit 131 detektierten Benutzerwahrnehmungsbewegung.
  • Wie oben nutzt die erste Ausführungsform die Tatsache aus, dass der Wahrnehmungsschwierigkeiten-Raum nicht ein Objekt ist, das im Unterschied zu Wahrnehmungsobjekten eine hohe Ausgeprägtheit aufweist. Genauer gesagt, wenn es einen Wahrnehmungsschwierigkeiten-Raum gibt, weist die Benutzerbewegung, wenn der Benutzer versucht, den Wahrnehmungsschwierigkeiten-Raum wahrzunehmen, das heißt, die Benutzerwahrnehmungsbewegung bezüglich des Wahrnehmungsschwierigkeiten-Raumes, aufgrund der hohen Ausgeprägtheit eines Wahrnehmungsobjekts eine hohe Möglichkeit auf, keine reflexartige Handlung zu sein, sondern eine Handlung zu sein, die basierend auf einer Erkennung des Wahrnehmungsschwierigkeiten-Raumes durchgeführt wird. Mit anderen Worten wird gemäß der ersten Ausführungsform die Benutzerwahrnehmungsbewegung detektiert, wenn die im Stand der Technik beschriebene vorgenannte (Handlung 1) eine Handlung ist, die basierend auf Erkennung durchgeführt wird (d. h. keine reflexartige Handlung). Mit der Bedienungseignungsbeurteilungsvorrichtung 130 gemäß der ersten Ausführungsform kann somit das Bedienungseignungsniveau präzise beurteilt werden und die Zuverlässigkeit des Bedienungseignungsniveaus kann erhöht werden.
  • Um ferner die Zuverlässigkeit des Bedienungseignungsniveaus weiter zu erhöhen, kann die Bedienungseignungsbeurteilungsvorrichtung 130 ferner eine Benutzerwahrnehmungsobjekt-Beurteilungsverarbeitungseinheit 135 und eine Wahrnehmungsobjekt-Detektionseinheit 134 beinhalten, die ein Wahrnehmungsobjekt unter Verwendung der Nachbarschaftsobjektinformationen, die von der Nachbarschaftsobjekt-Detektionsvorrichtung 110 erfasst werden, detektiert. Bei der ersten Ausführungsform wird eine Konfiguration beschrieben, die weder die Wahrnehmungsobjekt-Detektionseinheit 134 noch die Benutzerwahrnehmungsobjekt-Beurteilungsverarbeitungseinheit 135 beinhaltet. Eine Konfiguration, die die Wahrnehmungsobjekt-Detektionseinheit 134 und die Benutzerwahrnehmungsobjekt-Beurteilungsverarbeitungseinheit 135 beinhaltet, wird in der zweiten Ausführungsform beschrieben.
  • Konfiguration
  • (Bedienungseignungsbeurteilung)
  • Die Bedienungseignungsbeurteilungsvorrichtung 130 gemäß der ersten Ausführungsform ist eine Vorrichtung, die in der Lage ist, das Bedienungseignungsniveau bezüglich des Benutzers als der Fahrer, der ein Fahren eines Kraftfahrzeugs (Fahrzeugs) als die Bedienung durchführt, zu beurteilen (zu berechnen). Bei der Bedienungseignungsbeurteilung werden die folgenden Prozesse durchgeführt:
    • (Erster Prozess) Ein Prozess zum Detektieren des Wahrnehmungsschwierigkeiten-Raumes als ein Raum, in dem ein Wahrnehmungsobjekt, das der Benutzer wahrnehmen sollte, wenn der Benutzer eine geplante Bedienung durchführt, für den Benutzer schwierig wahrzunehmen ist (Wahrnehmungsschwierigkeiten-Raum-Detektionsoperation) .
    • (Zweiter Prozess) Ein Prozess zum Detektieren einer Benutzerwahrnehmungsbewegung, die ein Versuch eines Benutzers ist, ein Wahrnehmungsobjekt wahrzunehmen (Benutzerwahrnehmungsbewegung-Detektionsoperation).
    • (Dritter Prozess) Ein Prozess zum Berechnen des Bedienungseignungsniveaus, das angibt, wie geeignet der Benutzer zum Durchführen der geplanten Bedienung ist (d. h. das Eignungsniveau), unter Verwendung des detektierten Wahrnehmungsschwierigkeiten-Raumes und der detektierten Benutzerwahrnehmungsbewegung (Bedienungseignungsniveau-Berechnungsoperation) .
  • (Wahrnehmungsobjekt)
  • Die Wahrnehmungsobjekte als Nachbarschaftsobjekte, die durch den Benutzer während des Fahrens wahrgenommen werden können (d. h. wahrnehmbare Objekte), können verschiedene Objekte sein und können zum Beispiel ein mobiles Objekt, wie etwa ein benachbartes Fahrzeug, ein Fahrrad, ein Motorrad, einen Fußgänger oder ein Tier, eine Straßenkomponente, wie etwa einen Straßenrand, eine weiße Linie, einen Fußgängerüberweg, einen Mittelstreifen, ein Verkehrszeichen oder ein Verkehrssignal, und ein festes Objekt, wie etwa ein Gebäude, einen Straßenbaum oder eine Anschlagtafel, beinhalten. Der Benutzer bewegt wiederholt mit Unterbrechungen die Sichtlinie, um den Zustand eines Wahrnehmungsobjekts zu prüfen, das zu den geeigneten Zeiten als wichtig beurteilt wird. In diesem Fall erfasst der Benutzer notwendige Informationen über das Wahrnehmungsobjekt, indem er das Wahrnehmungsobjekt direkt anschaut.
  • (Benutzerwahrnehmungsbewegung)
  • Die Benutzerwahrnehmungsbewegung bezeichnet eine beliebige Art von Bewegung des Benutzers, der versucht, Informationen zu erfassen, die zur Durchführung einer Bedienung durch die fünf Sinne notwendig sind. Benutzerwahrnehmungsbewegungen mittels des Sehsinnes beinhalten zum Beispiel die Augenbewegung des Benutzers, die Sichtlinie des Benutzers (Richtung und Bewegung der Sichtlinie), die durch den Benutzer aufmerksam beobachtete Position (den durch den Benutzer aufmerksam beobachteten Bereich) und so weiter. Des Weiteren beinhalten die Benutzerwahrnehmungsbewegungen mittels des Sehsinnes auch den Bereich eines effektiven Blickfeldes, das aus der Bewegung eines Sinnesorgans selbst geschätzt wird, den Bereich eines peripheren Blickfeldes als ein Blickfeld um das effektive Blickfeld herum, eine Änderung im Bereich des effektiven Blickfeldes oder des peripheren Blickfeldes und so weiter. Benutzerwahrnehmungsbewegungen mittels des Gehörsinnes beinhalten zum Beispiel eine Bewegung zum Annehmen einer Haltung, die sich zum Sammeln von Tönen um den Benutzer herum eignen, wie etwa Bewegungen zum Ausrichten der Ohren in die Richtung der Tonquelle und eine Bewegung zum Umschließen der Hände hinter den Ohren. Andere Benutzerwahrnehmungsbewegungen beinhalten eine Bewegung zum Verbessern der Wahrnehmungsempfindlichkeit und eine Bewegung zum Verringern unnötiger Bewegungen. Die Benutzerwahrnehmungsbewegungen können zum Beispiel auch Makrobewegungen beinhalten, wie etwa eine Handlung zum Blockieren von Sinnesorganen außer einem Sinnesorgan, dessen Wahrnehmungsempfindlichkeit verbessert werden soll, wie das Schließen von Augen oder Abdecken von Ohren, und eine Handlung zum Bringen eines Sinnesorgans, dessen Wahrnehmungsempfindlichkeit verbessert werden soll, nahe an das Objekt, wie das Bringen des Gesichts oder der Ohren nahe an das Objekt durch Umdrehen oder Ändern der Haltung.
  • Verschiedene Verfahren sind für die Detektion der Sichtlinie des Benutzers oder der durch den Benutzer aufmerksam beobachteten Position entwickelt worden. Als derartige Detektionsverfahren sind zum Beispiel ein Verfahren zur Detektion basierend auf der Positionsbeziehung zwischen dem inneren Augenwinkel und der Iris des Auges, ein Verfahren zur Detektion basierend auf der Beziehung zwischen der Position der Pupille und der Position einer Infrarotstrahl-Hornhautreflexion, die auftritt, wenn ein von einer Infrarot-LED (Leuchtdiode) emittierter Infrarotstrahl an das Auge des Benutzers appliziert wird, und so weiter, bekannt. Der Bereich des effektiven Blickfeldes oder dergleichen kann durch das Treppenverfahren oder das Probit-Verfahren gemessen werden oder kann auch durch das in der Nichtpatentreferenz 2 beschriebene Verfahren gemessen werden. Benutzerwahrnehmungsbewegungen, die durch die Makrobewegungen des Benutzers begleitet werden, können unter Verwendung von Technologie in dem Feld, das zusammengefasst als Aktivitätserkennung bezeichnet wird, detektiert werden.
  • (Wahrnehmungsschwierigkeiten-Raum)
  • Da die reale Welt ein dreidimensionaler Raum ist, befindet sich das Wahrnehmungsobjekt, das wahrgenommen werden sollte und bei der Bedienung wichtig ist, (d. h. das Objekt, das wahrgenommen werden sollte) nicht notwendigerweise in einem wahrnehmbaren Zustand. Genauer gesagt gibt es Fälle, bei denen das Wahrnehmungsobjekt, das wahrgenommen werden sollte, an einer Position vorhanden ist, die hinter einem gewissen Objekt verborgen und für den Benutzer nicht sichtbar ist. Das Wahrnehmungsobjekt, das wahrgenommen werden sollte, kann zum Beispiel ein Kind oder dergleichen sein, das im Begriff ist, von hinter einem an der Straßenseite geparkten Fahrzeug auf die Straße zu rennen. Es gibt auch Situationen, bei denen das Wahrnehmungsobjekt, das wahrgenommen werden sollte, nicht vollständig hinter einem Objekt verborgen ist. In derartigen Fällen kann das Wahrnehmungsobjekt, das wahrgenommen werden sollte, ein Kind, dessen Körperteile außer der Kopfoberseite hinter einem an der Straßenseite geparkten Fahrzeug verborgen sind, ein Fahrrad, das nur durch eine Lücke zwischen Straßenbäumen visuell erkannt werden kann, oder dergleichen sein. Wie oben beschrieben, ist ein Bereich, in dem der Benutzer vollständig unfähig ist, das Wahrnehmungsobjekt, das wahrgenommen werden sollte, wahrzunehmen (ein Bereich, in dem selbst eine teilweise Wahrnehmung unmöglich ist), oder ein Bereich, in dem eine teilweise Wahrnehmung möglich ist (aber ein Teil des Bereichs nicht wahrgenommen werden kann), oder ein Bereich, der beide dieser Bereiche einschließt, als der Wahrnehmungsschwierigkeiten-Raum definiert. Der Wahrnehmungsschwierigkeiten-Raum bezüglich des Sehsinnes bezeichnet einen Raum, der allgemein ein toter Raum genannt wird. Das Vorausahnen des Vorhandenseins eines Wahrnehmungsobjekts, das im Wahrnehmungsschwierigkeiten-Raum verbogen ist, und das richtige Richten der Aufmerksamkeit auf das Wahrnehmungsobjekt, das aus dem Wahrnehmungsschwierigkeiten-Raum heraustreten kann, ist eine Benutzerhandlung, die zum angemessenen Ausführen vieler Bedienungen unentbehrlich ist.
  • (Behinderungsentgegenwirkende Wahrnehmungsbewegung)
  • Wenn der Benutzer versucht, ein Risiko zu erkennen, das im Wahrnehmungsschwierigkeiten-Raum vorhanden ist, und ein Wahrnehmungsobjekt wahrzunehmen, das im Wahrnehmungsschwierigkeiten-Raum verborgen ist, führt der Benutzer im Allgemeinen eine Benutzerwahrnehmungsbewegung durch, die sich von normalen Benutzerwahrnehmungsbewegungen unterscheidet, um die Wahrnehmung in der gegenwärtigen Verfassung gegenüber einer Wahrnehmungssichtbehinderung als ein Faktor, der den Wahrnehmungsschwierigkeiten-Raum verursacht, zu verbessern.
  • Die normale Benutzerwahrnehmungsbewegung bezeichnet, die Aufmerksamkeit des behinderten Sinnesorgans zu dem Wahrnehmungsschwierigkeiten-Raum zu richten, der durch die Wahrnehmungsbehinderung verursacht wird. Ein konkretes Beispiel ist eine Benutzerwahrnehmungsbewegung zum Ausrichten der Sichtlinie zu einem toten Raum, wenn der tote Raum als der Wahrnehmungsschwierigkeiten-Raum vorhanden ist, der durch ein Hindernis verursacht wird, und der Benutzer sich über etwas jenseits des toten Raums (räumlichen Teils hinter dem Hindernis) Sorgen macht. Um im Gegensatz dazu die Wahrnehmung für etwas jenseits des toten Raums (räumlichen Teils hinter dem Hindernis) in der gegenwärtigen Verfassung zu verbessern, kann eine Benutzerwahrnehmungsbewegung stattfinden, die durch eine Körperbewegung begleitet wird, wie etwa das Ändern der Richtung des Gesichts, das Ändern der Haltung, das Verfeinern der Sicht oder das Bewegen des Hindernisses, das den toten Raum verursacht, falls möglich. Umgekehrt gibt es auch Fälle, bei denen eine Benutzerwahrnehmungsbewegung, die durch eine Abnahme einer Körperbewegung begleitet wird, aufgrund der Aufmerksamkeitskonzentration auf ein spezielles Sinnesorgan stattfindet.
  • Neben den oben beschriebenen Fällen gibt es Fälle, bei denen eine Abnahme der Wahrnehmungsempfindlichkeit eines Sinnesorgans auftritt, wie etwa einen Fall, bei dem die visuelle Aufmerksamkeitskonzentration auf einen gewissen toten Raum zu einer späten oder keiner visuellen Reaktion auf ein anderes Objekt oder einen anderen toten Raum führt. Bezüglich des Sehsinnes entspricht dies der Verengung des effektiven Blickfeldes oder des peripheren Blickfeldes. Eine derartige Abnahme in der Wahrnehmungsempfindlichkeit eines Sinnesorgans kann nicht nur bei dem Sinnesorgan mit der behinderten Sinneswahrnehmung, sondern auch bei einem anderen Sinnesorgan auftreten. Es gibt zum Beispiel Fälle, bei denen die visuelle Aufmerksamkeitskonzentration auf einen toten Raum zu einer Abnahme bei der Reaktion gegenüber einem Ton führt, das heißt, einer Abnahme in der Wahrnehmungsempfindlichkeit des Gehörsinnes.
  • Die oben beschriebene charakteristische Benutzerwahrnehmungsbewegung, wie etwa eine Körperbewegung, die als ein Ergebnis eines positiven Versuchs des Benutzers, den Wahrnehmungsschwierigkeiten-Raum wahrzunehmen, resultiert, eine Abnahme in der Wahrnehmungsempfindlichkeit eines Sinnesorgans für ein Objekt außer dem gegenwärtigen Wahrnehmungsobjekt oder dergleichen wird als eine behinderungsentgegenwirkende Wahrnehmungsbewegung bezeichnet.
  • (Systemkonfiguration der Bedienungseignungsbeurteilungsvorrichtung 130)
  • 2 stellt schematisch eine Hardwarekonfiguration der Bedienungseignungsbeurteilungsvorrichtung 130 gemäß der ersten Ausführungsform dar. 2 stellt die Bedienungseignungsbeurteilungsvorrichtung 130 als in einem Fahrzeug 100 installiert dar. Wie in 2 dargestellt, beinhaltet das Fahrzeug 100 die Nachbarschaftsobjekt-Detektionsvorrichtung 110, die Benutzerbedienung-Detektionsvorrichtung 120, die Bedienungseignungsbeurteilungsvorrichtung 130, die Informationsdarstellungseinheit 140, eine Bedienungseinheit 150 und eine Fahrzeugsteuereinheit 160.
  • In dem Beispiel von 2 wird das Fahren des Benutzers des Fahrzeugs 100, das mit der Bedienungseignungsbeurteilungsvorrichtung 130 ausgestattet ist, als eine „Bedienung“ bezeichnet, und der Zustand des Benutzers, zum Ausführen der Bedienung ohne einen Unfall fähig zu sein, wird als ein „zum Durchführen der Bedienung geeigneter Zustand“, das heißt ein Zustand mit einem hohen Bedienungseignungsniveau, bezeichnet. Im Allgemeinen wird gesagt, dass ungefähr 80 % von Informationen, die für das Fahren notwendig sind, durch den Sehsinn erfasst werden. Bei der ersten Ausführungsform wird die Beschreibung für deren Einfachheit hauptsächlich für einen Fall gegeben, bei dem die Benutzerwahrnehmungsbewegung eine Bewegung mittels des Sehsinnes ist. Die vorliegende Erfindung ist jedoch nicht auf den Sehsinn beschränkt und die Bedienungseignungsbeurteilung ist selbst bei Verwendung eines Sinnes außer dem Sehsinn möglich.
  • Obwohl angenommen wird, dass der Benutzer bei der ersten Ausführungsform ein Fahrer als ein Fahrzeugbenutzer, der das Fahrzeug 100 fährt, ist, ist der Benutzer bei der vorliegenden Erfindung ferner nicht auf einen Fahrer beschränkt; es gibt zum Beispiel Fälle, bei denen ein Mitfahrer, der in einem Beifahrersitz oder Rücksitz sitzt und das Fahrzeug zu normalen Zeiten nicht fährt, sondern das Fahrzeug als ein Ersatzfahrer in außergewöhnlichen Situationen fährt, bei dem Benutzer eingeschlossen ist. Des Weiteren ist in Fällen, bei denen das Fahrzeug 100 ein autonomes Fahrzeug ist, der im Fahrersitz sitzende Mitfahrer nicht der Fahrer; der im Fahrersitz sitzende Mitfahrer ist jedoch im Benutzer eingeschlossen, da es Fälle gibt, bei denen der Mitfahrer einen Teil der Fahrbedienung durchführt.
  • (Nachbarschaftsobjekt-Detektionsvorrichtung 110)
  • Die in 2 dargestellte Nachbarschaftsobjekt-Detektionsvorrichtung 110 beinhaltet verschiedene Vorrichtungen zum Sammeln von Daten, die zum Detektieren eines in der Nachbarschaft des Fahrzeugs 100 (z. B. in der Nachbarschaft des Vorderbereichs des Fahrzeugs 100 bezüglich der Fahrtrichtung) vorhandenen Objekts notwendig sind. Ein Radar 111 misst den Abstand oder die Richtung eines Objekts, das in der Nachbarschaft des Fahrzeugs 100 vorhanden ist, indem es eine Funkwelle in die Nachbarschaft des Fahrzeugs emittiert und reflektierte Wellen zu dieser Zeit misst. Eine Kamera 112 erfasst Bildinformationen, indem sie aus der Nachbarschaft des Fahrzeugs 100 emittiertes (reflektiertes) Licht misst und dadurch die Nachbarschaft des Fahrzeugs 100 fotografiert. Ein dreidimensionaler (3D) Scanner 113 misst den Abstand oder die Richtung eines Objekts, das in der Nachbarschaft des Fahrzeugs 100 vorhanden ist, indem es Laserlicht oder dergleichen in die Nachbarschaft des Fahrzeugs 100 emittiert und reflektiertes Licht des emittierten Lichts misst. Ein Sensor 118 beinhaltet verschiedene Arten von Sensoren zum Detektieren verschiedener Arten von Signalen, die von Objekten, die in der Nachbarschaft des Fahrzeugs 100 vorhanden sind, emittiert werden. Der Sensor 118 kann zum Beispiel ein Mikrofon zum Sammeln von Ton, einen Kontaktsensor zum Messen eines Kontaktzustandes, einen Temperatursensor zum Sammeln von Temperaturdaten bezüglich der Nachbarschaft, eine Infrarot-Thermographie und so weiter beinhalten.
  • Obwohl das Fahrzeug 100 nicht notwendigerweise mit sowohl dem Radar 111, der Kamera 112, dem 3D-Scanner 113 als auch dem Sensor 118 ausgestattet sein muss, ist das Fahrzeug 100 mit Detektoren ausgestattet, die sich zum Detektieren eines in der Nachbarschaft vorhandenen Objekts eignen.
  • Obwohl ferner angenommen wird, dass das Radar 111, die Kamera 112, der 3D-Scanner 113 und der Sensor 118 bei der ersten Ausführungsform zum Detektieren eines Objekts, das in der Nachbarschaft des Fahrzeugs 100 vorhanden ist, verwendet werden, sind ihre Messbereiche nicht auf die Nachbarschaft des Fahrzeugs beschränkt; der Innenraum des Fahrzeugs 100 kann in Fällen, bei denen Informationen bezüglich der Nachbarschaft des Benutzers, z. B. des Innenraums des Fahrzeugs 100, auch zum Beispiel als das Nachbarschaftsobjekt behandelt werden müssen, auch als das Messobjekt angesehen werden.
  • Eine Kommunikationsvorrichtung 114 kommuniziert mit einem Server 171 über ein Netzwerk und wird zum Erfassen von Daten, die zum Detektieren eines Objekts, das außerhalb des Fahrzeugs 100 vorhanden ist, oder zusätzlicher Daten, wie etwa der Art und Eigenschaft des detektierten Objekts oder dergleichen, verwendet. Die Kommunikationsvorrichtung 114 kann auch zum Übertragen von Daten, die durch die Messung durch das Radar 111, die Kamera 112, den 3D-Scanner 113, den Sensor 118 usw. erhalten werden, zu dem Server 171, zum Auffordern des Servers 171, einen Prozess, wie etwa einen Objektdetektionsprozess oder einen zusätzlichen Datensuchprozess bezüglich der Art und Eigenschaft des detektierten Objekts oder dergleichen, durchzuführen und zum Empfangen des Ergebnisses des Prozesses verwendet werden. Der Server 171 ist nicht auf eine Servermaschine als ein Computer (eine Informationsverarbeitungseinrichtung) zum Bereitstellen eines Dienstes oder von Funktionen beschränkt; der Server 171 ist nicht speziell beschränkt, solange der Server 171 eine Vorrichtung ist, die in der Lage ist, mit der Kommunikationsvorrichtung 114 zu kommunizieren und Daten zu speichern, oder eine Vorrichtung ist, die mit einer Informationsverarbeitungsvorrichtung ausgestattet ist. Der Server 171 kann zum Beispiel auch eine Informationsverarbeitungsvorrichtung sein, die an einem benachbarten Fahrzeug befestigt ist, oder kann eine andere Informationsverarbeitungsvorrichtung sein.
  • Ein GPS (globales Positionierungssystem) 115 wird zum Herausfinden der gegenwärtigen Position des Fahrzeugs 100 durch Empfangen von Signalen von GPS-Satelliten 172 verwendet. Die gegenwärtige Position wird von der Kommunikationsvorrichtung 114 zu dem Server 171 übertragen und ist zum Erfassen von Informationen bezüglich sehr beständiger Objekte, die in der Nachbarschaft der gegenwärtigen Position vorhanden sind, wie etwa Gebäude, Verkehrszeichen und Straßen, verwendbar.
  • Kartendaten 117 sind in einer Speicherungsvorrichtung des Fahrzeugs 100 gespeichert oder werden vom Server 171 bereitgestellt und werden zum Extrahieren von Kartendaten der Nachbarschaft der gegenwärtigen Position unter Verwendung der gegenwärtigen Position als ein Schlüssel verwendet. Die Kartendaten 117 sind Daten, die durch das Digitalisieren des geographischen Zustands eines Teils oder der gesamten Erdoberfläche erhalten werden, und sind hauptsächlich als eine von Informationsquellen bezüglich sehr beständiger Objekte, die in der Nachbarschaft vorhanden sind, wie etwa Gebäude, Verkehrszeichen und Straßen, verwendbar.
  • Vergangene Daten 116 sind in einer Speicherungsvorrichtung des Fahrzeugs 100 gespeichert oder werden vom Server 171 bereitgestellt und können Daten bezüglich Objekten, die detektiert wurden, während das Fahrzeug 100 in der Vergangenheit fuhr, Ausgabedaten vom Radar 111, von der Kamera 112, vom 3D-Scanner 113 und vom Sensor 118 und so weiter beinhalten. Daten bezüglich sehr beständiger Objekte, wie etwa Gebäude, Verkehrszeichen und Straßen, unter den in der Vergangenheit detektierten Objekten können zusammen mit Positionsdaten aufgezeichnet werden, wodurch die Verarbeitungslast zum Detektieren von Objekten außerhalb des Fahrzeugs reduziert werden kann. Derselbe Vorteil kann bezüglich der Ausgabedaten erzielt werden, indem die Ausgabedaten zusammen mit den Positionsdaten aufgezeichnet werden.
  • Das Radar 111, die Kamera 112, der 3D-Scanner 113 und der Sensor 118 werden hauptsächlich zum Detektieren von Objekten in der Nachbarschaft, indem die Nachbarschaft des Fahrzeugs 100 in Echtzeit gemessen wird, und zum Messen von Bewegungszuständen mobiler Objekte, wie etwa benachbarter Fahrzeuge, Fußgänger und Fahrräder oder dergleichen, verwendet. Im Gegensatz dazu sind die Kommunikationsvorrichtung 114, die vergangenen Daten 116 und die Kartendaten 117 Informationsquellen, die Daten bereitstellen, die basierend auf dem Ergebnis einer früheren Messung erzeugt und zum Detektieren von sehr beständigen Gebäuden, Verkehrszeichen, Straßen usw., verwendet werden. Der Server 171, mit dem die Kommunikationsvorrichtung 114 kommuniziert, kann jedoch ein mobiles Objekt sein, das durch ein Fahrzeug in der Nachbarschaft des Fahrzeugs 100 gemessen wird. In diesem Fall können Daten, die von dem Fahrzeug in der Nachbarschaft übertragen werden, in Echtzeit empfangen werden.
  • (Konkrete Beispiele für Daten)
  • 3 ist ein Diagramm, das ein Beispiel für Daten darstellt, die durch die Nachbarschaftsobjekt-Detektionsvorrichtung 110 gesammelt werden. Das Beispiel von 3 ist eine vereinfachte Veranschaulichung eines Standbildes, das durch die Kamera 112 durch das Fotografieren der Szene vor dem Fahrzeug 100 zu einem gewissen Zeitpunkt erfasst wird. Das Standbild von 3 beinhaltet eine Straße 401, weiße Linien 402, die auf der Straße gezeichnet sind, einen Fußwegbordstein 403, einen Fußweg 408, ein vorausfahrendes Fahrzeug 404, einen Fußgänger 405 und Gebäude 406 und 407. Das Standbild kann von der Kommunikationsvorrichtung 114 zum Server 171 transferiert werden, um einen Prozess zum Extrahieren von Objekten, die im Standbild aufgenommen wurden, durchzuführen, wobei der Server 171 seinen eigenen Bilderkennungsprozess durchführen kann und die Kommunikationsvorrichtung 114 das Ergebnis der Erkennung empfangen kann. Als ein anderes Verfahren kann ferner ein Bilderkennungsprozess zum Extrahieren von Objekten aus dem Standbild durch eine Informationsverarbeitungsvorrichtung 181 der Bedienungseignungsbeurteilungsvorrichtung 130 durchgeführt werden. Es ist auch möglich, ein Verfahren zum Beurteilen von Objekten, wie etwa der Gebäude 406 und 407, durch Abgleichen mit Daten von Anlagen, die in der Nachbarschaft vorhanden sind, unter Verwendung von Positionsdaten, die vom GPS 115 und den Kartendaten 117 erfasst werden, einzusetzen. Im Übrigen sind die durch die Kamera 112 erfassten Daten nicht auf Standbilddaten beschränkt, sondern können auch Bewegtvideodaten sein.
  • 4 ist ein Diagramm, das ein anderes Beispiel für Daten darstellt, die durch die Nachbarschaftsobjekt-Detektionsvorrichtung 110 gesammelt werden. Das Beispiel von 4 stellt schematisch 3D-Daten dar, die durch das Radar 111, den 3D-Scanner 113 oder den Sensor 118 durch Detektieren von Objekten, die in der Nachbarschaft des Fahrzeugs vorhanden sind, vom Fahrzeug 100 zu einem gewissen Zeitpunkt erfasst werden. Die 3D-Daten in 4 drücken Höhendaten von in der Nachbarschaft vorhandenen Objekten unter Verwendung von Konturlinien aus. Die Daten in 4 sind Daten, die zu derselben Zeit wie das Fotografieren des Standbildes in 3 erfasst werden. Die Straße 401 in 3 entspricht einer Ebene von Daten 501 in 3. Des Weiteren entsprechen der Fußweg 408, das vorausfahrende Fahrzeug 404, der Fußgänger 405 und die Gebäude 406 und 407 in 3 Daten 502, 503, 504, 505 bzw. 506 in 4. Da sich die weißen Linien 402 in 3 im Wesentlichen bei derselben Höhe wie die Straße 401 befinden und sich der Fußwegbordstein 403 im Wesentlichen bei derselben Höhe wie der Fußweg 408 befindet, wird keine Unterscheidung vorgenommen, wie in 4 dargestellt, wenn die Detektionsgenauigkeit niedrig ist. Sobald die Höhendaten von Objekten, die in der Nachbarschaft des Fahrzeugs 100 vorhanden sind, wie oben erfasst werden, ist es zum Beispiel basierend auf dem Vorhandensein des vorausfahrenden Fahrzeugs 404, des Fußgängers 405 und der Gebäude 406 und 407 in 3, die den Daten 503, 504, 505 und 506 in 4 entsprechen, möglich, einen Bereich herzuleiten, in dem die Situation hinter diesen Objekten (Situation in dem dahinter verborgenen Teil) nicht visuell erkannt werden kann, und ein derartiger Bereich wird als der Wahrnehmungsschwierigkeiten-Raum bestimmt.
  • (Benutzerbewegung-Detektionsvorrichtung 120)
  • Die in 2 dargestellte Benutzerbewegung-Detektionsvorrichtung 120 wird aus verschiedenen Vorrichtungen zum Sammeln von Daten, die zum Detektieren einer Bewegung des Benutzers im Fahrzeug 100 notwendig sind, gebildet. Die Benutzerbewegung-Detektionsvorrichtung 120 beinhaltet zum Beispiel eine Benutzerkamera 121 und einen Benutzersensor 122. Die Benutzerkamera 121 fotografiert den Benutzer und erfasst dadurch Bilddaten des Benutzers, um die Benutzerbewegung zu detektieren. Das Analysieren der Bilddaten des Benutzers ermöglicht, die Körperbewegung des Benutzers oder dergleichen zu detektieren. Der Benutzersensor 122 repräsentiert verschiedene Arten von Sensoren außer der Kamera zum Detektieren der Benutzerbewegung. Durch das Verwenden des Benutzersensors 122 können Daten erfasst werden, die nicht durch die Benutzerkamera 121 erfasst werden können, und eine detailliertere und genauere Benutzerbewegung kann detektiert werden. Durch das Verwenden eines Sichtliniendetektionssensors als den Benutzersensor 122 kann zum Beispiel die Sichtlinie des Benutzers und die durch den Benutzer aufmerksam beobachtete Richtung detektiert werden. Durch das Versehen einer Sitzoberfläche eines Sitzes mit einem Oberflächendrucksensor als den Benutzersensor 122 kann die Körperbewegung oder der Puls des Benutzers detektiert werden. Durch das Verwenden einer Infrarot-Thermographie als den Benutzersensor 122 kann die Oberflächentemperatur des Benutzers und ihre Variationen detektiert werden. Im Übrigen kann die Benutzerbewegung-Detektionsvorrichtung 120 auch konfiguriert sein, entweder nur die Benutzerkamera 121 oder den Benutzersensor 122 zu enthalten. Des Weiteren kann die Benutzerbewegung-Detektionsvorrichtung 120 mehrere Benutzerkameras 121 oder mehrere Benutzersensoren 122 beinhalten.
  • (Bedienungseignungsbeurteilungsvorrichtung 130)
  • Die in 1 und 2 dargestellte Bedienungseignungsbeurteilungsvorrichtung 130 beinhaltet eine Speicherungsvorrichtung 182 und die Informationsverarbeitungsvorrichtung 181, die die Bedienungseignungsbeurteilung über den Benutzer basierend auf verschiedenen Messdaten, die durch die Messung durch die Nachbarschaftsobjekt-Detektionsvorrichtung 110 und die Benutzerbewegung-Detektionsvorrichtung 120 erhalten werden, vornimmt. Die Informationsverarbeitungsvorrichtung 181 nimmt die Bedienungseignungsbeurteilung über den Benutzer basierend auf den Messdaten vor. Genauer gesagt beinhaltet die Informationsverarbeitungsvorrichtung 181 einen Prozessor, wie eine CPU (Central Processing Unit - Zentralverarbeitungseinheit), eine GPGPU (General-Purpose computing on Graphics Processing Unit - Allgemeinzweckrechnen auf einer Grafikverarbeitungseinheit) oder ein FPGA (Field-Programmable Gate Array - feldprogrammierbares Gate-Array). Die Speicherungsvorrichtung 182 beinhaltet einen RAM (Random Access Memory - Direktzugriffsspeicher) zum temporären Speichern von Daten, die zum Vornehmen der Bedienungseignungsbeurteilung über den Benutzer notwendig sind, einen Speicher, der das durch die Informationsverarbeitungseinrichtung 181 auszuführende Bedienungseignungsbeurteilungsprogramm speichert, und so weiter.
  • Obwohl zur Einfachheit der Beschreibung ein Fall bei der ersten Ausführungsform beschrieben ist, bei dem die Informationsverarbeitung zum Vornehmen der Bedienungseignungsbeurteilung in der Bedienungseignungsbeurteilungsvorrichtung 130 durchgeführt wird, ist es nicht notwendig, die gesamte Verarbeitung bezüglich der Bedienungseignungsbeurteilung in der Bedienungseignungsbeurteilungsvorrichtung 130 durchzuführen, wie zuvor bezüglich der Nachbarschaftsobjekt-Detektionsvorrichtung 110 erläutert, und es ist möglich, eine Art der verteilten Verarbeitung einzusetzen, bei der die Verarbeitung durch den Server 171 über die Kommunikationsvorrichtung 114 wie erforderlich durchgeführt wird. Somit ist es auch möglich, das Bedienungseignungsbeurteilungsprogramm im Server 171 zu speichern.
  • (Informationsdarstellungseinheit 140)
  • Die in 2 dargestellte Informationsdarstellungseinheit 140 ist eine Vorrichtung, die zum Darstellen gewisser Informationen für den Benutzer oder einen Mitfahrer verwendet wird. Die Informationsdarstellungseinheit 140 ist eine Vorrichtung, die gewisse Informationen durch Stimulieren der Sinne des Menschen darstellt. Ein typisches Beispiel für die Informationsdarstellungseinheit 140 ist eine Bildschirmvorrichtung, wie ein Flüssigkristallbildschirm, zum Darstellen von Bildinformationen. Die Informationsdarstellungseinheit 140 kann ein HUD (Head-Up-Display), einen Lautsprecher zum Darlegen von Audioinformationen, einen haptischen Bildschirm zum Stimulieren des Tastsinnes des Menschen unter Verwendung verschiedener Arten von Aktoren, einen olfaktorischen Bildschirm zum Stimulieren des Geruchssinnes des Menschen durch das Emittieren eines Geruchs oder dergleichen beinhalten.
  • (Bedienungseinheit 150)
  • Die in 2 dargestellte Bedienungseinheit 150 ist eine Bedienungsvorrichtung, auf der der Benutzer oder ein Mitfahrer Bedienungen zum Eingeben von Benutzerbefehlen durchführt. Die Bedienungseinheit 150 ist eine Vorrichtung, die zum Bedienen des Fahrzeugs 100 und verschiedener am Fahrzeug 100 befestigter Vorrichtungen verwendet wird. Die Bedienungseinheit 150 kann zum Beispiel Fahrbedienungseinheiten beinhalten, die durch den Benutzer zum Durchführen der Fahrbedienung des Fahrzeugs verwendet werden und für die Fahrsteuerung, wie etwa ein Lenkrad, ein Bremspedal oder ein Gaspedal, notwendig sind. Die Fahrbedienungseinheiten senden Steuersignale zu der Fahrzeugsteuereinheit 160 aus, die später beschrieben wird. Des Weiteren kann die Bedienungseinheit 150 eine Informationseingabebedienungseinheit, wie etwa ein Touchpanel oder eine Fernsteuerung, beinhalten. Die Informationseingabebedienungseinheit ist in der Lage, Steuerbefehle zu der Informationsdarstellungseinheit 114 oder verschiedenen Arten von Informationsverarbeitungsvorrichtungen 181 auszusenden.
  • (Fahrzeugsteuereinheit 160)
  • Die in 2 dargestellte Fahrzeugsteuereinheit 160 ist eine Steuervorrichtung zum Steuern des gesamten Fahrzeugs 100, damit das Fahrzeug 100 funktioniert. Die Fahrzeugsteuereinheit 160 steuert den Betrieb des Fahrzeugs 100 basierend auf den Inhalten von Bedienungen, die durch den Benutzer über die Bedienungseinheit 150 durchgeführt werden.
  • Betrieb
  • (Algorithmus)
  • 5 zeigt eine Abfolge, die einen grundlegenden Prozess angibt, der durch die Bedienungseignungsbeurteilungsvorrichtung 130 ausgeführt wird. Wenn das Fahrzeug 100 angelassen wird, führt die Bedienungseignungsbeurteilungsvorrichtung 130 einen Initialisierungsprozess 201 aus. Der Initialisierungsprozess 201 ist ein Prozess, der für den angemessenen Betrieb der Bedienungseignungsbeurteilungsvorrichtung 130 benötigt wird.
  • Wenn der Initialisierungsprozess 201 abgeschlossen ist, führt die Bedienungseignungsbeurteilungsvorrichtung 130 einen Hauptschleifenprozess 202 aus. Der Hauptschleifenprozess 202 ist ein interner Prozess, der wiederholt wird, bis der Betrieb des Fahrzeugs 100 beendet wird.
  • Wenn ein Prozess zum Beenden des Betriebs des Fahrzeugs 100 startet, tritt eine Unterbrechungsanforderung zum Unterbrechen des Hauptschleifenprozesses 202 auf, und die Bedienungseignungsbeurteilungsvorrichtung 130, die die Unterbrechungsanforderung als einen Auslöser empfängt, unterbricht den Hauptschleifenprozess 202 und führt den Beendigungsprozess 203 aus. In dem Beendigungsprozess führt die Bedienungseignungsbeurteilungsvorrichtung 130 die Bedienungseignungsbeurteilungsvorrichtung 130 als Vorbereitung auf das nächste Anlassen des Fahrzeugs 100 zu einer initiierbaren Verfassung zurück.
  • (Messdatenbereitschaftsprozess 301)
  • 6 ist ein Abfolgediagramm, das Einzelheiten eines internen Prozesses des Hauptschleifenprozesses 202 in der ersten Ausführungsform darstellt. Im Hauptschleifenprozess 202 wird zuerst ein Messdatenbereitschaftsprozess 301 ausgeführt. Im Messdatenbereitschaftsprozess 301 fordert die Bedienungseignungsbeurteilungsvorrichtung 130 die Nachbarschaftsobjekt-Detektionsvorrichtung 110 und die Benutzerbewegung-Detektionsvorrichtung 120 auf, ihre jeweiligen Messdaten bereitzustellen, und bleibt in Bereitschaft, bis die Messdaten bereitgestellt sind. Es ist jedoch auch möglich, die Messdatenbereitstellungsanforderung nur einmal zum ersten Mal vorzunehmen und danach zu veranlassen, dass die Nachbarschaftsobjekt-Detektionsvorrichtung 110 und die Benutzerbewegung-Detektionsvorrichtung 120 die Messdaten zu vorbestimmten Gebieten in der Speicherungseinrichtung 182 durch Stream-Verarbeitung schreiben und danach die Bedienungseignungsbeurteilungsvorrichtung 130 über die Ereignisse benachrichtigen.
  • (Benutzerwahrnehmungsbewegung-Detektionsprozess 305)
  • Wenn die Benutzerbewegungsmessdaten von der Benutzerbewegung-Detektionsvorrichtung 120 bereitgestellt werden, führt die Bedienungseignungsbeurteilungsvorrichtung 130 einen Benutzerbewegungsmessdaten-Erfassungsprozess 304 aus und erfasst dadurch die Benutzerbewegungsmessdaten. In einem Benutzerwahrnehmungsbewegung-Detektionsprozess 305 detektiert die Bedienungseignungsbeurteilungsvorrichtung 130 danach, welche Art von Benutzerwahrnehmungsbewegung der Benutzer durchführt. Bei der ersten Ausführungsform wird ein Fall zum Detektieren einer Benutzerwahrnehmungsbewegung mittels des Sehsinnes als ein Beispiel beschrieben. Wenn ein Sichtliniendetektionssensor als der Benutzersensor 122 der Benutzerbewegung-Detektionsvorrichtung 120 installiert ist, ist die Bedienungseignungsbeurteilungsvorrichtung 130 im Benutzerbewegungsmessdaten-Erfassungsprozess 304 in der Lage, die Blickpunktposition, die Sichtlinienrichtung, die Augenfokusposition des Benutzers usw. zu dem Zeitpunkt der Messung zu erfassen. Des Weiteren ist die Bedienungseignungsbeurteilungsvorrichtung 130 in der Lage, ein Bild einschließlich der Haltung des Benutzers zu dem Zeitpunkt der Messung von der Benutzerkamera 121 der Benutzerbewegung-Detektionsvorrichtung 120 zu erfassen. Die Bedienungseignungsbeurteilungsvorrichtung 130 ist in der Lage, den Benutzerwahrnehmungsbewegung-Detektionsprozess 305 unter Verwendung dieser Elemente von erfassten Daten auszuführen, wodurch momentane Zustände der Benutzerwahrnehmungsbewegung, wie etwa die Blickpunktposition, die Sichtlinienrichtung und die Fokusposition des Benutzers, erfasst werden, die aufmerksam beobachtete Richtung und ein Sichtfeldbereich aus Zeitreihendaten dieser momentanen Zustände hergeleitet werden und der Aufmerksamkeits- und Interessenzustand des Benutzers in einem gewissen Zeitfenster hergeleitet werden.
  • Das Detektionsergebnis des Benutzerwahrnehmungsbewegung-Detektionsprozesses 305 kann in der Speicherungsvorrichtung 182 gespeichert werden, sodass sich auf dieses bei anderen Prozessstufen bezogen werden kann. Für andere Prozesse kann das Verarbeitungsergebnis gleichermaßen in der Speicherungsvorrichtung 182 gespeichert werden, sodass sich auf dieses bei anderen Prozessstufen bezogen werden kann
  • Im Allgemeinen kann die im Benutzerwahrnehmungsbewegung-Detektionsprozess 305 detektierte Benutzerwahrnehmungsbewegung B durch einen Produktsatz eines Satzes {Dp1, Dp2, ..., Dpl} von Daten Dp*, die im Benutzerbewegungsmessdaten-Erfassungsprozess 304 erfasst werden, und eines Satzes {Bp1, Bp2, ..., Bpm} von Detektionsergebnissen Bp* im Benutzerwahrnehmungsbewegung-Detektionsprozess 305 repräsentiert werden, das heißt, {Dp1, Dp2, ..., Dpl} ∩ {Bp1, Bp2, ..., Bpm}, wobei „l“ und „m“ positive ganze Zahlen sind und „*“ eine positive ganze Zahl kleiner oder gleich l oder m ist. In der folgenden Beschreibung wird zur Vereinfachung der Repräsentation Dp* zweckmäßig als Bp* repräsentiert und die Benutzerwahrnehmungsbewegung B wird als B = {Bp1, Bp2, ..., Bpm} repräsentiert.
  • Wenn die Messdaten von der Nachbarschaftsobjekt-Detektionsvorrichtung 110 im Messdatenbereitschaftsprozess 301 bereitgestellt werden, wird ein Nachbarschaftsobjektmessdaten-Erfassungsprozess 302 ausgeführt und die Bedienungseignungsbeurteilungsvorrichtung 130 erfasst die Messdaten. Danach wird in einem Wahrnehmungsschwierigkeiten-Raum-Detektionsprozess 303 der Wahrnehmungsschwierigkeiten-Raum, der für den Benutzer schwierig wahrzunehmen ist, detektiert.
  • (Grundlegender Beurteilungsprozess bezüglich des Wahrnehmungsschwierigkeiten-Raumes)
  • 7 ist ein Diagramm, das einen konkreten Wahrnehmungsschwierigkeiten-Raum-Detektionsprozess bezüglich der Wahrnehmung mittels des Sehsinnes darstellt. 7 zeigt eine Situation, bei der die Blickpunktposition 602 des Benutzers 601 durch Ausführen des Benutzerwahrnehmungsbewegung-Detektionsprozesses 305 bezüglich des Benutzers 601 hergeleitet und ein Nachbarschaftsobjekt 603 durch die Nachbarschaftsobjekt-Detektionsvorrichtung 110 detektiert worden ist. Unter Bezugnahme auf die Blickpunktposition 602 des Benutzers kann in diesem Fall hergeleitet werden, dass ein Raum jenseits des äußeren Umkreises des sichtbaren Nachbarschaftsobjekts 603 (ein Raum, der hinter dem Nachbarschaftsobjekt verborgen ist) ein Wahrnehmungsschwierigkeiten-Raum 606 ist, der durch das Nachbarschaftsobjekt 603 verursacht wird. 7 ist zweidimensional ausgedrückt, um die Beschreibung zu vereinfachen. Obwohl der Raum in der realen Welt dreidimensional ist, ist die Beschreibung von 7 auch bei drei Dimensionen anwendbar. Selbst in Situationen, bei denen mehrere Nachbarschaftsobjekte vorhanden sind, kann der Wahrnehmungsschwierigkeiten-Raum durch das Durchführen eines ähnlichen Prozesses für jedes Nachbarschaftsobjekt hergeleitet werden. Obwohl die Beschreibung von 7 bezüglich des Sehsinnes gegeben ist, ist die vorliegende Erfindung ferner nicht auf den Sehsinn oder ein einziges Sinnesorgan beschränkt. Der Wahrnehmungsschwierigkeiten-Raum kann zum Beispiel nicht bezüglich des Sehsinnes, sondern des Gehörsinnes erhalten werden oder kann bezüglich des Sehsinnes und des Gehörsinnes erhalten werden.
  • (Wichtigkeitsbeurteilungsprozess bezüglich des Wahrnehmungsschwierigkeiten-Raumes)
  • In dem in 6 dargestellten Wahrnehmungsschwierigkeiten-Raum-Detektionsprozess 303 ist es auch möglich, eine Beurteilung über die Wichtigkeit des detektierten Wahrnehmungsschwierigkeiten-Raumes (toten Raumes) zusätzlich zu der Detektion des Wahrnehmungsschwierigkeiten-Raumes vorzunehmen.
  • Als eine Wichtigkeitsskala gibt es die „Größe des Wahrnehmungsschwierigkeiten-Raumes“. Die Größe des Wahrnehmungsschwierigkeiten-Raumes kann als ein Kennzeichen angesehen werden, das angibt, wieviel der Wahrnehmungsschwierigkeiten-Raum das Wahrnehmungsobjekt verbirgt. In diesem Fall erhöht sich die Wichtigkeit mit der Zunahme der Größe des Wahrnehmungsschwierigkeiten-Raumes.
  • Als eine andere Wichtigkeitsskala gibt es den „Abstand zwischen dem Wahrnehmungsschwierigkeiten-Raum und dem Benutzer des Fahrzeugs“. Dieser Abstand kann als ein Kennzeichen angesehen werden, das einen Spielraum zur Vermeidung einer Kollision mit einem Wahrnehmungsobjekt angibt, wenn zum Beispiel das im Wahrnehmungsschwierigkeiten-Raum verborgene Wahrnehmungsobjekt heraustritt. In diesem Fall erhöht sich die Wichtigkeit mit der Abnahme des Abstands.
  • Als eine andere Wichtigkeitsskala gibt es die „Variation in der Größe des Wahrnehmungsschwierigkeiten-Raumes“. Wenn die Variation in der Größe groß ist, kann die Variation als ein Kennzeichen der Ausweitung des Bereichs des Wahrnehmungsschwierigkeiten-Raumes im Laufe der Zeit angesehen werden. In diesem Fall erhöht sich die Wichtigkeit mit der Zunahme der Variation der Größe des Wahrnehmungsschwierigkeiten-Raumes.
  • Als eine andere Wichtigkeitsskala gibt es die „Bewegungsgeschwindigkeit des Wahrnehmungsschwierigkeiten-Raumes“, „Bewegungsrichtung des Wahrnehmungsschwierigkeiten-Raumes“ oder die „Bewegungsbeschleunigung des Wahrnehmungsschwierigkeiten-Raumes“. Die „Bewegungsgeschwindigkeit“, die „Bewegungsrichtung“ oder die „Bewegungsbeschleunigung“ können als ein Kennzeichen angesehen werden, das einen Vermeidungsspielraum angibt, wenn ein im Wahrnehmungsschwierigkeiten-Raum verborgenes Wahrnehmungsobjekt heraustritt. Wenn die Bewegung in diesem Fall in eine Richtung ist, in die sich der Wahrnehmungsschwierigkeiten-Raum nähert, erhöht sich die Wichtigkeit mit der Zunahme der Bewegungsgeschwindigkeit und der zunehmenden Rate der Bewegungsgeschwindigkeit.
  • Als eine andere Wichtigkeitsskala gibt es ferner ein „Schwierigkeitsniveau der Wahrnehmung im Wahrnehmungsschwierigkeiten-Raum“. Dies liegt daran, da es möglich ist, ein verborgenes Wahrnehmungsobjekt mit wenig Aufwand aufzufinden, wenn das Wahrnehmungsschwierigkeitsniveau niedrig ist, aber sich der Aufwand proportional erhöht, wenn das Schwierigkeitsniveau zunimmt. Wenn ein Wahrnehmungsschwierigkeiten-Raum zum Beispiel durch eine Wahrnehmungsbehinderung durch Straßenbäume verursacht wird, ist es möglich, einen Einblick in den Raum hinter den Straßenbäumen durch Lücken zwischen den Straßenbäumen zu erhalten, und somit ist das Schwierigkeitsniveau geringer als in Fällen, bei denen ein Wahrnehmungsschwierigkeiten-Raum durch einen Lastwagen verursacht wird, bei dem es vollständig unmöglich ist, einen Einblick in den Raum hinter dem Lastwagen zu erhalten. In diesem Fall erhöht sich die Wichtigkeit mit der Zunahme der Wahrnehmungsschwierigkeit im Wahrnehmungsschwierigkeiten-Raum.
  • Wenn die Ausgeprägtheit des Objekts als der Faktor, der die Wahrnehmungsbehinderung im Wahrnehmungsschwierigkeiten-Raum verursacht, geringer als durchschnittlich ist, ist ferner die Wahrscheinlichkeit, dass der Benutzer das Objekt als den Faktor reflexartig ansieht, gering, und somit ist auch die Möglichkeit gering, dass der Benutzer den Wahrnehmungsschwierigkeiten-Raum, der jenseits des Objekts (in einem Gebiet hinter dem Objekt als der Faktor) vorhanden ist, bemerkt. Somit kann interpretiert werden, dass die Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes in derartigen Fällen zunimmt.
  • Das Wichtigkeitsniveau des Wahrnehmungsschwierigkeiten-Raumes kann entweder zuvor in Abhängigkeit von der Art des Objekts, das die Wahrnehmung behindert, bestimmt werden oder dynamisch unter Verwendung von Werten berechnet werden, die durch das Beurteilen des Vorhandenseins/Nichtvorhandenseins einer Lücke, der Durchlässigkeit oder Ausgeprägtheit aus den Messdaten der Objekte, die durch die Nachbarschaftsobjekt-Detektionsvorrichtung 110 gemessen werden, erhalten werden.
  • Wie oben wird die Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes unter Verwendung einer Charakteristik des Wahrnehmungsschwierigkeiten-Raumes selbst und einer Charakteristik, die aus einer Beziehung zwischen dem Wahrnehmungsschwierigkeiten-Raum und einem anderen Element, wie etwa dem Benutzer oder dem Fahrzeug, hergeleitet wird, berechnet. Es ist auch möglich, die Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes nicht nur unter Verwendung einer Skala, sondern unter Verwendung mehrerer Skalen (einer Kombination von zwei oder mehr der oben beschriebenen Wichtigkeitsskalen) und Werte, die jeweils durch eine Multiplikation mit einem Gewichtungskoeffizienten erhalten werden, zu berechnen.
  • (Wichtigkeitsbeurteilungsprozess, der eine Beziehung zwischen dem Wahrnehmungsschwierigkeiten-Raum und der Bedienung berücksichtigt)
  • Im Wahrnehmungsschwierigkeiten-Raum-Beurteilungsprozess und Wichtigkeitsbeurteilungsprozess ist es ferner auch möglich, einen Beurteilungsprozess unter Berücksichtigung der Inhalte der Bedienung, die der Benutzer gegenwärtig ausführen sollte, auszuführen. Die Bedienung bei der ersten Ausführungsform ist zum Beispiel das Fahren eines Fahrzeugs und es ist notwendig, ein Nachbarschaftsobjekt zu erkennen, bei dem eine Möglichkeit zur Kollision mit dem fahrenden Fahrzeug besteht. Im Allgemeinen ist ein Nachbarschaftsobjekt, bei dem eine Möglichkeit zur Kollision besteht, ein Objekt, das angehalten hat oder sich auf einer Ebene bei einer Höhe bewegt, die äquivalent zu der Straße ist, auf der das Fahrzeug 100 fährt, und somit weist ein Objekt, das bei einer gewissen Höhe oder höher vorhanden ist, eine geringere Möglichkeit zur Kollision mit dem Fahrzeug auf und die Möglichkeit, dass der Wahrnehmungsschwierigkeiten-Raum, der durch das Objekt verursacht wird, ein allgemeines Verkehrsobjekt verbirgt, ist gering.
  • Auch bezüglich eines Wahrnehmungsschwierigkeiten-Raumes, der durch ein Objekt an einer Position bei einem gewissen Abstand oder mehr von der Position des Fahrzeugs 100 entfernt verursacht wird, oder eines Raumes, der bei einem gewissen Abstand oder mehr entfernt von der Position des Fahrzeugs 100 liegt, im Gegensatz zu einem Wahrnehmungsschwierigkeiten-Raum, der durch ein innerhalb eines gewissen Abstandes vorhandenes Objekt verursacht wird, ist gleichermaßen die Möglichkeit zur Kollision gering, da es einen ausreichenden Spielraumabstand gibt, um zu vermeiden, dass ein potenzielles Objekt aus dem Raum heraustritt.
  • Selbst wenn ein Wahrnehmungsschwierigkeiten-Raum innerhalb der vorgenannten Höhe oder des vorgenannten Abstandsbereichs vorhanden ist, ist ferner, falls eine objektblockierende Bewegung von Objekten zwischen dem Wahrnehmungsschwierigkeiten-Raum und dem Fahrzeug 100 vorhanden ist, die Möglichkeit, dass sich ein Objekt, das im Wahrnehmungsschwierigkeiten-Raum latent (verborgen) ist, zu dem Fahrzeug hin bewegt, gering. Um Beispiele für spezifische Situationen zu zeigen, wenn ein Wahrnehmungsschwierigkeiten-Raum durch eine Wand ohne Unterbrechungen verursacht wird, ist die Möglichkeit, dass sich eine Person oder ein Fahrzeug, die bzw. das hinter der Wand verborgen ist, durch die Wand bewegt, gering. Umgekehrt wird eine Lücke, durch die eine Person laufen kann, allgemein in einer Reihe von Fahrzeugen gebildet, die kontinuierlich an der Straßenseite geparkt sind. Da die Reihe von Fahrzeugen eine Unterbrechung aufweist, besteht eine hohe Möglichkeit, dass sich ein Objekt, das in dem durch die Reihe von Fahrzeugen verursachten Wahrnehmungsschwierigkeiten-Raum verborgen ist, zu dem Fahrzeug 100 hin bewegt.
  • 8 ist ein Diagramm, das ein Beispiel für ein Verfahren zum Beurteilen der Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes darstellt. In diesem Beispiel wird eine Beschreibung für einen Fall, bei dem der Benutzer 701 ein Fahrzeug fährt, unter Bezugnahme auf eine Blickpunktposition 702 gegeben. Ein Nachbarschaftsobjekt 703 ist in der Nachbarschaft des Fahrzeugs vorhanden. Ein Wahrnehmungsschwierigkeiten-Raum 701 wird durch das Nachbarschaftsobjekt 703 verursacht. Ein kürzester Abstand 711 zwischen der Blickpunktposition 702 und dem Nachbarschaftsobjekt 703 wird als ein Parameter eingesetzt, der zum Berechnen der Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes 710 verwendet wird. Die Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes 710 ist umgekehrt proportional zu dem kürzesten Abstand 711 oder besitzt eine negative Korrelation mit dem kürzesten Abstand 711. Nämlich, während sich der Benutzer 701 dem Nachbarschaftsobjekt 703 nähert, nimmt der kürzeste Abstand 711 ab und somit nimmt die Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes 710 zu.
  • Als ein anderer Parameter, der zum Berechnen der Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes 710 verwendet wird, gibt es ferner die Größe des Wahrnehmungsschwierigkeiten-Raumes 710. Die Skala der Größe des Wahrnehmungsschwierigkeiten-Raumes 710 ist zum Beispiel die Fläche 712 einer Oberfläche des Wahrnehmungsschwierigkeiten-Raumes 710 an der Seite nahe dem Benutzer 701 oder das Volumen eines Teils 709 des Wahrnehmungsschwierigkeiten-Raumes 710, das in einem Bereich von der Oberfläche des Wahrnehmungsschwierigkeiten-Raumes 710 an der Seite nahe dem Benutzer 701 zu einer Oberfläche, die sich einen gewissen Abstand 707 entfernt vom Benutzer 701 befindet, enthalten ist (das Volumen des schraffiertes Gebiets in 9). Wenn die Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes 710 unter Verwendung dieser Werte berechnet wird, ist die Wichtigkeit proportional zu der Fläche 712 oder dem Volumen des schraffierten Gebiets in 9 oder besitzt eine positive Korrelation mit diesen.
  • 9 ist ein Diagramm, das ein anderes Beispiel für das Verfahren zum Beurteilen der Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes 710 darstellt. In 9 sind ein Nachbarschaftsobjekt 801 und ein Verkehrszeichen 802 im Vergleich zur 8 hinzugefügt. 9 zeigt einen Fall, bei dem einem Teil des Wahrnehmungsschwierigkeiten-Raumes 710, der über einer Höhe 803 vorhanden ist (hell schraffiertes Gebiet), eine niedrige Wichtigkeit zugewiesen wird und ein Teil des Wahrnehmungsschwierigkeiten-Raumes 710, der weiter entfernt als ein Abstand 707 vorhanden ist (nicht schraffiertes Gebiet), unter Berücksichtigung der Inhalte der Bedienung des Benutzers 701 ignoriert wird.
  • Falls der Wahrnehmungsschwierigkeiten-Raum zuerst unter Berücksichtigung des Abstands 707 betrachtet wird, befinden sich das Nachbarschaftsobjekt 801 und das Verkehrszeichen 802 an Positionen weiter entfernt als der Abstand 707, und somit werden die durch diese verursachten Wahrnehmungsschwierigkeiten-Räume ignoriert. Im Gegensatz dazu befindet sich das Nachbarschaftsobjekt 703 an einer Position näher als der Abstand 707, und somit wird beurteilt, dass der durch das Nachbarschaftsobjekt 703 verursachte Wahrnehmungsschwierigkeiten-Raum vorhanden ist. Falls ferner der Zustand bezüglich der Höhe 803 berücksichtigt wird, ist der Wahrnehmungsschwierigkeiten-Raum in zwei Arten von räumlichen Teilen unterteilt, nämlich einen räumlichen Teil (Wahrnehmungsschwierigkeiten-Raum) 805, der in einem Bereich niedriger oder gleich der Höhe 803 vorhanden ist, und einen räumlichen Teil (Wahrnehmungsschwierigkeiten-Raum) 804, der in einem Bereich höher als die Höhe 803 vorhanden ist. In diesem Fall wird beurteilt, dass der Wahrnehmungsschwierigkeiten-Raum 804 einen niedrigeren Wichtigkeitswert als der Wahrnehmungsschwierigkeiten-Raum 805 aufweist. Wenn sich der Benutzer 701 vorwärts bewegt und das Verkehrszeichen 802 in den Bereich des Abstands 707 eintritt, wird ein Wahrnehmungsschwierigkeiten-Raum durch das Verkehrszeichen 802 verursacht.
  • Obwohl der Zustand zum Setzen der Wichtigkeit auf niedrig für einen Wahrnehmungsschwierigkeiten-Raum in einem Bereich höher als die Höhe 803 und zum Ignorieren eines Wahrnehmungsschwierigkeiten-Raumes, der an einer Position weiter entfernt als der Abstand 707 vorhanden ist, im Beispiel von 9 gesetzt wird, ist die vorliegende Erfindung nicht auf einen derartigen Zustand beschränkt. Der Zustand, der die Größe des Wahrnehmungsschwierigkeiten-Raumes beschränkt, kann als ein anderer Zustand unter Berücksichtigung der Inhalte der Bedienung gesetzt werden.
  • Wie oben, selbst wenn der Wahrnehmungsschwierigkeiten-Raum vorhanden ist, gibt es Fälle, falls die Inhalte der Bedienung berücksichtigt werden, bei denen es angemessen ist, das Vorhandensein eines Teils des Wahrnehmungsschwierigkeiten-Raumes zu ignorieren oder die Wichtigkeit für einen Teil des Wahrnehmungsschwierigkeiten-Raumes auf niedrig zu setzen, indem beurteilt wird, dass es keine oder fast keine Hinderung oder Gefahr für die Bedienung gibt. Umgekehrt gibt es auch Fälle, bei denen es angemessen ist, die Wichtigkeit für einen Teil des Wahrnehmungsschwierigkeiten-Raumes auf hoch zu setzen, wenn die Bedienung stark durch den Teil des Wahrnehmungsschwierigkeiten-Raumes behindert wird oder ein großes Hinderungsrisiko besteht.
  • In dem Prozess der Wahrnehmungsschwierigkeiten-Raum-Beurteilung und der Wichtigkeitsbeurteilung unter Berücksichtigung der Inhalte der Bedienung werden somit die Inhalte der Bedienung zuerst nicht berücksichtigt; nachdem der Wahrnehmungsschwierigkeiten-Raum detektiert wird, wird eine Filterung des detektierten Wahrnehmungsschwierigkeiten-Raumes oder ein Setzen der Wichtigkeit des detektierten Wahrnehmungsschwierigkeiten-Raumes gemäß dem durchgeführt, ob ein Zustand, der basierend auf den Inhalten der Bedienung spezifiziert wird, erfüllt ist oder nicht, und somit können der Prozess der Wahrnehmungsschwierigkeiten-Raum-Beurteilung und der Wichtigkeitsbeurteilung unter Berücksichtigung der Inhalte der Bedienung erzielt werden. Der Zustand, der basierend auf den Inhalten der Bedienung spezifiziert wird, ist in diesem Fall nicht auf die Höhe von der Straßenoberfläche, den Abstand vom Fahrzeug oder das Vorhandensein/Nichtvorhandensein eines Objekts, das das Heraustreten eines Objekts aus dem Wahrnehmungsschwierigkeiten-Raum blockiert, beschränkt; es ist auch möglich, andere Zustände basierend auf den Inhalten der Bedienung zu verwenden.
  • Die Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes, der durch den oben beschriebenen Wahrnehmungsschwierigkeiten-Raum-Detektionsprozess 303 (6) detektiert wird, kann wie folgt zusammengefasst werden:
    • Bezüglich eines gewissen Wahrnehmungsschwierigkeiten-Raumes X, wenn Gewichtungen basierend auf Charakteristiken gXi, des Wahrnehmungsschwierigkeiten-Raumes X selbst, wie etwa der Form und Größe des Wahrnehmungsschwierigkeiten-Raumes X selbst, dem Abstand zwischen dem Wahrnehmungsschwierigkeiten-Raum X und dem durch den Benutzer gefahrenen Fahrzeug und Variationen als ihre Zeitreihenvariationen, als w(gXi) (i: positive ganze Zahl) repräsentiert werden,
    • Gewichtungen basierend auf Wahrnehmungscharakteristiken pXi, eines Objekts als der Faktor, der die Wahrnehmungsbehinderung verursacht, wie etwa die Durchlässigkeit oder ein Lückenverhältnis als ein Einfluss des Objekts als der Faktor, der die Wahrnehmungsbehinderung verursacht, und die Ausgeprägtheit des Objekts als der Faktor, der die Wahrnehmungsbehinderung verursacht, als w(pXi) repräsentiert werden, und
    • Gewichtungen basierend auf Zuständen cXi, die die Inhalte der durch den Benutzer ausgeführten Bedienung berücksichtigen, als w(cXi) repräsentiert werden,
    • wird die Wichtigkeit Wx des Wahrnehmungsschwierigkeiten-Raumes X durch den folgenden Ausdruck repräsentiert:
  • W X = i W ( g X i ) + i W ( p X i ) + i W ( c X i )
    Figure DE112017006982T5_0001
  • Des Weiteren kann der Wahrnehmungsschwierigkeiten-Raum X in diesem Fall durch einen Satz seiner eigenen Charakteristiken als Folgendes repräsentiert werden: G X = { g X 1 ,  g X 2 ,   ,  g Xn } .
    Figure DE112017006982T5_0002
  • Obwohl die Wichtigkeit Wx in diesem Beispiel durch den Gesamtwert repräsentiert wird, unter der Annahme, das die Gewichtungen w(gXi), w(pXi) und w(cXi) unabhängig voneinander sind, ist die Berechnung der Wichtigkeit Wx nicht auf den Ausdruck 1 beschränkt. Die Wichtigkeit Wx kann auch unter Verwendung der oben beschriebenen Charakteristiken oder dergleichen berechnet werden. Es wird zum Beispiel zuvor beschrieben, dass der Wahrnehmungsschwierigkeiten-Raum verworfen wird, wenn ein Zustand c*i, der die Inhalte der durch den Benutzer ausgeführten Bedienung berücksichtigt, einen gewissen Zustand erfüllt. Zum Beispiel unter der Annahme, dass ein Schwellenwert bezüglich des Zustands c*i TC*i ist, kann die Wichtigkeit Wx in diesem Fall zum Beispiel durch die folgenden Ausdrücke repräsentiert werden:
  • W X = 0 ( c X i : c X i < T C i )
    Figure DE112017006982T5_0003
    W X = i W ( g X i ) + i W ( p X i ) + i W ( c X i ) ( c X i ; c X i T C i )
    Figure DE112017006982T5_0004
  • (Bedienungseignungsniveau-Berechnungsprozess 306)
  • In einem Bedienungseignungsniveau-Berechnungsprozess 306 in 6 wird das Bedienungseignungsniveau, das angibt, wie angemessen der Benutzer zu diesem Zeitpunkt die Bedienung ausführen kann, basierend auf dem Wahrnehmungsschwierigkeiten-Raum und seiner Wichtigkeit, die durch den Wahrnehmungsschwierigkeiten-Raum-Detektionsprozess 303 detektiert werden, und der Benutzerwahrnehmungsbewegung, die durch den Benutzerwahrnehmungsbewegung-Detektionsprozess 305 detektiert wird, berechnet werden.
  • Bei der ersten Ausführungsform wird als ein Beispiel für die Skala der Bedienungseignung verwendet, ob der Benutzer ein Wahrnehmungsobjekt, das in einem visuellen Wahrnehmungsschwierigkeiten-Raum verborgen ist, vorausgeahnt hat oder nicht.
  • (Beispiel für einen grundlegenden Bedienungseignungsniveau-Berechnungsprozess)
  • Wenn die vorgenannte Vorausahnung eines Wahrnehmungsobjekts angemessen stattgefunden hat, findet eine Korrelation zwischen dem Wahrnehmungsschwierigkeiten-Raum und der Benutzerwahrnehmungsbewegung statt. Genauer gesagt gibt es Fälle, bei denen sich der Wahrnehmungsschwierigkeiten-Raum und der Sichtlinienvektor des Benutzers schneiden, ein Bewegungsvektor des Wahrnehmungsschwierigkeiten-Raumes und der Sichtlinienbewegungsvektor des Benutzers einander ähneln, sich der Sichtlinienvektor des Benutzers ändert, um den Wahrnehmungsschwierigkeiten-Raum zu schneiden, wenn eine deutliche Änderung in einer oder mehreren Charakteristiken des Wahrnehmungsschwierigkeiten-Raumes auftrat, und so weiter.
  • Im Übrigen ist es auch möglich, ein anderes Verfahren zu verwenden, wie etwa das Herleiten einer Korrelation mit dem Wahrnehmungsschwierigkeiten-Raum basierend auf der Anzahl von Malen oder der Häufigkeit der Sichtlinienbewegung oder der Zunahme oder Abnahme in einer Sichtlinienverweilzeit.
  • Eine derartige Korrelation kann arithmetisch durch das Erfassen der beobachteten Daten als Zeitreihendaten und unter Verwendung von Korrelationskoeffizienten oder dergleichen hergeleitet werden. Die Korrelation CRX mit einem gewissen Wahrnehmungsschwierigkeiten-Raum X kann unter Verwendung einer Charakteristik GX des Wahrnehmungsschwierigkeiten-Raumes X und der Benutzerwahrnehmungsbewegung B als der folgende Ausdruck 4 repräsentiert werden:
  • C R X = i α i f i ( G X , B )
    Figure DE112017006982T5_0005
    wobei „fi()“ eine Funktion zum Berechnen eines Wertes ist, der eine Beziehung, wie etwa die vorgenannte Korrelation zwischen dem Wahrnehmungsschwierigkeiten-Raum X und der Benutzerwahrnehmungsbewegung B, gemäß einem gewissen Kriterium i repräsentiert und αi eine Gewichtung bezüglich des Kriteriums i ist. Des Weiteren ist die Benutzerwahrnehmungsbewegung B nicht auf eine Benutzerwahrnehmungsbewegung zu einem gewissen speziellen Zeitpunkt beschränkt; die Benutzerwahrnehmungsbewegung B kann als Zeitreihendaten innerhalb eines gewissen Zeitreihenfensters beschrieben werden. Dasselbe gilt für die Charakteristik GX des Wahrnehmungsschwierigkeiten-Raumes X.
  • Der Betrag des Wertes von CRX kann als eine Skala angesehen werden, die angibt, um wieviel der Benutzer sich des Wahrnehmungsschwierigkeiten-Raumes X bewusst ist, um den Wahrnehmungsschwierigkeiten-Raum X wahrzunehmen. Es kann zum Beispiel interpretiert werden, dass das Bedienungseignungsniveau, das basierend auf dem Wahrnehmungsschwierigkeiten-Raum X beurteilt wird, hoch ist, falls der Wert groß ist, und dass das Bedienungseignungsniveau niedrig ist, falls der Wert klein ist. Der Durchschnittswert der Korrelationen CRX bezüglich aller Wahrnehmungsschwierigkeiten-Räume zu diesem Zeitpunkt wird durch den folgenden Ausdruck 5 repräsentiert:
  • C R = i C R X / N
    Figure DE112017006982T5_0006
  • Dies ist eine Skala, die angibt, ob der Benutzer versucht, die Wahrnehmungsschwierigkeiten-Räume vollständig zu diesem Zeitpunkt wahrzunehmen. Hier repräsentiert N die Anzahl von Wahrnehmungsschwierigkeiten-Räumen, die zu diesem Zeitpunkt detektiert werden (positive ganze Zahl).
  • (Beispiel für den Bedienungseignungsniveau-Berechnungsprozess unter Verwendung der Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes)
  • Es ist auch möglich, CRX unter Berücksichtigung der Wichtigkeit jedes Wahrnehmungsschwierigkeiten-Raumes, die aus dem Wahrnehmungsschwierigkeiten-Raum berechnet wird, zu erhalten, was als der folgende Ausdruck 6 formuliert werden kann:
  • C R X = i α i W X f i ( G , B )
    Figure DE112017006982T5_0007
  • Der Bedienungseignungsniveau-Berechnungsprozess 306 berechnet die oben erläuterte CRX oder CR als eines der Bedienungseignungsniveaus. Durch das Verwenden von zumindest dem Berechnungsergebnis wird ein Benutzerbedienungseignungsniveau-Beurteilungsprozess 307 zum Beurteilen des Bedienungseignungsniveaus des Benutzers ausgeführt und die Bedienungseignung des Benutzers zu diesem Zeitpunkt wird beurteilt. Nach Abschluss des Benutzerbedienungseignungsniveau-Beurteilungsprozesses 307 kehrt der Prozess zum Messdatenbereitschaftsprozess 301 zurück und wiederholt die Verarbeitung. Wenn ein Beendigungsprozess des Fahrzeugs 100 startet, wird ein Unterbrechungsprozess sofort ungeachtet dessen ausgeführt, welcher Prozess in 6 im Gange ist, wodurch der Hauptschleifenprozess 202 unterbrochen werden kann.
  • (Fälle einschließlich einer behinderungsentgegenwirkenden Wahrnehmungsbewegung)
  • Die bislang beschriebenen Verfahren sind nicht auf eine gewisse normale Benutzerwahrnehmungsbewegung beschränkt. Wie zuvor erwähnt, beinhalten Benutzerwahrnehmungsbewegungen behinderungsentgegenwirkende Wahrnehmungsbewegungen zum aktiven Versuchen, den Wahrnehmungsschwierigkeiten-Raum wahrzunehmen, und eine Bedienungseignungsniveauberechnung unter Berücksichtigung einer Charakteristik der behinderungsentgegenwirkenden Wahrnehmungsbewegung ist auch möglich. In diesem Fall werden nicht nur Daten bezüglich des Sehsinnes, sondern auch Daten bezüglich der Körperbewegung als die Daten erfasst, die durch den Benutzerbewegungsmessdaten-Erfassungsprozess 304 erfasst werden, und es wird im Benutzerwahrnehmungsbewegung-Detektionsprozess 305 beurteilt, ob der Benutzer die behinderungsentgegenwirkende Wahrnehmungsbewegung durchführt oder nicht, und falls der Benutzer die behinderungsentgegenwirkende Wahrnehmungsbewegung durchführt, wird das Niveau der behinderungsentgegenwirkenden Wahrnehmungsbewegung auch basierend auf einer Korrelation zwischen der Zunahme oder Abnahme in der Körperbewegung und der normalen Benutzerwahrnehmungsbewegung unter Verwendung der Daten bezüglich der Körperbewegung beurteilt. Das Niveau BC der behinderungsentgegenwirkenden Wahrnehmungsbewegung bezüglich der Körperbewegung wird im Benutzerwahrnehmungsbewegung-Detektionsprozess 305 detektiert und das Niveau BC wird mit der Benutzerwahrnehmungsbewegung B, die zu derselben Zeit detektiert wird, gepaart und die Daten, zu denen das Niveau BC der behinderungsentgegenwirkenden Wahrnehmungsbewegung hinzugefügt worden ist, werden zum Bedienungseignungsniveau-Berechnungsprozess 306 übergeben.
  • Bezüglich Änderungen der Reaktionsempfindlichkeit eines Sinnesorgans kann der Grad der Abnahme der Wahrnehmungsempfindlichkeit des Sinnesorgans basierend auf einem Wahrnehmungsschwierigkeiten-Raum außer einem Wahrnehmungsschwierigkeiten-Raum, auf den der Benutzer gegenwärtig seine Aufmerksamkeit richtet, oder einer anderen Nachbarschaftsumgebung, einer Reaktionszeit jedes Sinnesorgans auf ihre Änderungen und so weiter berechnet werden. Das Niveau SC der behinderungsentgegenwirkenden Wahrnehmungsbewegung, die durch eine Änderung in der Reaktionsempfindlichkeit für ein Sinnesorgan begleitet wird, wird im Benutzerwahrnehmungsbewegung-Detektionsprozess 305 detektiert, mit der Benutzerwahrnehmungsbewegung B, die auch detektiert wird, oder dem Niveau BC der behinderungsentgegenwirkenden Wahrnehmungsbewegung, die durch eine Körperbewegungsänderung begleitet wird, gepaart und zu dem Bedienungseignungsniveau-Berechnungsprozess 306 übergeben.
  • Das Verfahren zum Berechnen des Bedienungseignungsniveaus im Bedienungseignungsniveau-Berechnungsprozess 306 unter Verwendung von SC und BC wird unten erläutert. SC und BC werden zu dieser Zeit mit der Benutzerwahrnehmungsbewegung B gepaart, und es ist basierend auf der Benutzerwahrnehmungsbewegung B möglich, zu beurteilen, auf welchen Wahrnehmungsschwierigkeiten-Raum X die behinderungsentgegenwirkende Wahrnehmungsbewegung ausgerichtet ist. Die Beurteilung wird zum Beispiel basierend auf dem Sichtlinienvektor in Fällen des Sehsinnes, basierend auf dem Frequenzbereich in Fällen des Gehörsinnes und so weiter vorgenommen. Das Ziel der behinderungsentgegenwirkenden Wahrnehmungsbewegung kann in einer generischeren Repräsentation als eine stochastische Repräsentation repräsentiert werden, nämlich ein Wahrscheinlichkeitswert CPX eines Falles, bei dem der Wahrnehmungsschwierigkeiten-Raum X das Ziel der behinderungsentgegenwirkenden Wahrnehmungsbewegung ist.
  • Die Korrelation CRX mit einem gewissen Wahrnehmungsschwierigkeiten-Raum X kann durch den folgenden Ausdruck 7 repräsentiert werden:
  • C R X = C W ( B , S C , B C , G X ) C P X i α i f i ( G X , B ) + C C ( B , S C , B C , G X )
    Figure DE112017006982T5_0008
    wobei CW(B, SC, BC, GX) und CC(B, SC, BC, GX) die Gewichtung bzw. das Intercept repräsentieren, wenn das Niveau der behinderungsentgegenwirkenden Wahrnehmungsbewegung einen Einfluss auf die Korrelation ∑iαifi(GX, B) ausübt. Genauer gesagt nimmt die Gewichtung oder das Intercept einen großen Wert an, falls die behinderungsentgegenwirkende Wahrnehmungsbewegung auf den Wahrnehmungsschwierigkeiten-Raum X ausgerichtet ist, oder nimmt umgekehrt in Abhängigkeit von der Situation einen kleinen Wert oder einen negativen Wert an, falls die behinderungsentgegenwirkende Wahrnehmungsbewegung nicht auf den Wahrnehmungsschwierigkeiten-Raum X ausgerichtet ist. Es ist nicht notwendig, sowohl die Gewichtung als auch das Intercept zu derselben Zeit einzusetzen; es ist möglich, entweder die Gewichtung oder das Intercept oder weder die Gewichtung noch das Intercept einzusetzen. Die Gewichtung und das Intercept können basierend auf einer gewissen vorbestimmten Tabelle bestimmt werden oder jedes Mal in einem modellbasierten Verfahren durch Erstellen eines gewissen Modells berechnet werden. Des Weiteren muss die behinderungsentgegenwirkende Wahrnehmungsbewegung nicht notwendigerweise ständig berücksichtigt werden; es ist auch möglich, die Verarbeitungslast zu reduzieren, indem die Korrelation CRX unter Berücksichtigung der behinderungsentgegenwirkenden Wahrnehmungsbewegung nur dann berechnet wird, wenn mindestens ein Wahrnehmungsschwierigkeiten-Raum vorhanden ist.
  • (Fälle, bei denen die Bedienung berücksichtigt wird)
  • Noch ein anderes Verfahren der Bedienungseignungsniveauberechnung wird unten beschrieben. In Abhängigkeit von den Inhalten der Bedienung, die ein Benutzer ausführen sollte, kann es Fälle geben, bei denen das Wahrnehmungsbewusstsein bezüglich des Wahrnehmungsschwierigkeiten-Raumes voreingenommen ist. Beim Fahren eines Fahrzeugs bei der ersten Ausführungsform unter Berücksichtigung der Tatsache, dass der Benutzer einem Objekt Aufmerksamkeit schenken sollte, das von einem toten Raum auf die Straße hinaus rennt, muss der Fahrer nicht vollständig den Wahrnehmungsschwierigkeiten-Raum wahrnehmen, und was den Wahrnehmungsschwierigkeiten-Raum angeht, sollte die Wahrnehmung voreingenommen und auf die Nachbarschaft der Grenze des Wahrnehmungsschwierigkeiten-Raumes konzentriert sein.
  • Das Verfahren der Bedienungseignungsniveauberechnung unter Berücksichtigung der Inhalte der Bedienung wird unten unter Bezugnahme auf 10 beschrieben. 10 ist ein Diagramm, das eine Situation darstellt, bei der ein Wahrnehmungsschwierigkeiten-Raum 606, der durch ein Nachbarschaftsobjekt 603 verursacht wird, bezüglich der Blickpunktposition 602 des Benutzers 601 als ein Referenzpunkt vorhanden ist. In diesem Fall ist ein Durchgang eines Objekts durch das Nachbarschaftsobjekt 603 allgemein schwierig und somit besteht eine geringe Möglichkeit, dass eine Person oder dergleichen als ein Wahrnehmungsobjekt durch das Nachbarschaftsobjekt 603 läuft und aus einer Ebenenfläche einschließlich eines Liniensegments, das die Punkte 611 und 612 verbindet, heraustritt. Im Gegensatz dazu besteht eine hohe Möglichkeit, dass eine Person oder dergleichen als ein Wahrnehmungsobjekt durch die Nachbarschaft des Punktes 611 oder des Punktes 612 heraustritt. Zusammengefasst ist das Niveau, mit dem sich der Benutzer der Wahrnehmung bezüglich des Wahrnehmungsschwierigkeiten-Raumes bewusst sein sollte (Wahrnehmungswichtigkeitsniveau), nicht einheitlich und eine Voreingenommenheit kann in Abhängigkeit von den Inhalten der Bedienung auftreten.
  • 11 ist ein Diagramm, das ein Beispiel für das Wahrnehmungswichtigkeitsniveau bezüglich jeder Position auf der Ebenenfläche einschließlich des Liniensegments, das sich vom Punkt 612 zum Punkt 611 auf dem Nachbarschaftsobjekt 603 erstreckt, darstellt. Bei diesem Beispiel ist das Wichtigkeitsniveau in der Nachbarschaft des Punktes 611 am höchsten und ist in der Nachbarschaft des Punktes 612 am zweithöchsten. In diesem Fall wird die Bedienungseignungsniveauberechnung unter Berücksichtigung der Inhalte der Bedienung möglich, indem das Bedienungseignungsniveau in Fällen, bei denen die Sichtlinie auf die Nachbarschaft des Punktes 611 oder des Punktes 612 ausgerichtet ist, als höher als in Fällen, bei denen die Sichtlinie auf einen Punkt zwischen dem Punkt 611 und dem Punkt 612 ausgerichtet ist, berechnet wird. Dies kann als eines der Kriterien i bei der Berechnung der Korrelation CRX angesehen werden.
  • Ein anderes Verfahren der Bedienungseignungsniveauberechnung unter Berücksichtigung der Inhalte der Bedienung wird unten unter Bezugnahme auf 12 beschrieben. 12 ist ein Diagramm, das eine Situation darstellt, bei der das Nachbarschaftsobjekt 603 in 10 ein anderes Fahrzeug ist und ein Wahrnehmungsschwierigkeiten-Raum 606, der durch das Nachbarschaftsobjekt 603 verursacht wird, bezüglich der Blickpunktposition 602 des Benutzers 601 als ein Referenzpunkt vorhanden ist. Informationen zum Beurteilen eines anderen Fahrzeugs als eine Eigenschaft des Nachbarschaftsobjekts 603 kann durch das Durchführen von Daten-Clustering an den von der Nachbarschaftsobjekt-Detektionsvorrichtung 110 erfassten Daten unter Verwendung eines Algorithmus, wie etwa Maschinenlernen, implementiert werden. Das andere Fahrzeug 603 weist Türen 621 und 622 an seiner Seitenfläche auf und es besteht eine Möglichkeit, dass ein Mitfahrer aus dem Innenraum des anderen Fahrzeugs 603 herauskommt. Im Gegensatz zu der in 10 dargestellten Situation sollte der Benutzer somit die Sichtlinie nicht nur auf die Nachbarschaft der Punkte 611 und 612 ausrichten, sondern auch auf die Nachbarschaft der Liniensegmente, die die Punkte 623 und 624 und die Punkte 625 und 626 verbinden, die durch das Projizieren der Türen 621 und 622 auf das die Punkte 611 und 612 verbindende Liniensegment erhalten werden.
  • 13 ist ein Diagramm, das ein Beispiel für das Wahrnehmungswichtigkeitsniveau bezüglich jeder Position auf der Ebenenfläche einschließlich des Liniensegments, das sich vom Punkt 612 zum Punkt 611 auf dem Nachbarschaftsobjekt 603 erstreckt, in der Situation von 12 darstellt. Bei diesem Beispiel ist das Wahrnehmungswichtigkeitsniveau an den Liniensegmenten hoch, die die Punkte 623 und 624 und die Punkte 625 und 626, die den Türen 621 und 622 entsprechen, verbinden. Bei diesem Beispiel nimmt das Wahrnehmungswichtigkeitsniveau monoton vom Punkt 626, 624 an der Seite nahe dem Benutzer 601 zu dem Punkt 625, 623 an der Seite entfernt vom Benutzer 601 an beiden Liniensegmenten ab. Dies liegt daran, dass das andere Fahrzeug 603 so geparkt ist, dass es in die Richtung zeigt, in die der Benutzer 601 schaut, und jede Tür 621, 622 an der Seite nahe dem Benutzer geöffnet wird und dementsprechend das Wahrnehmungswichtigkeitsniveau an den entsprechenden Punkten 626, 624 hoch ist.
  • Auswirkung
  • Wie oben beschrieben, wird es bei der Bedienungseignungsbeurteilungsvorrichtung 130, dem Bedienungseignungsbeurteilungsverfahren und dem Bedienungseignungsbeurteilungsprogramm gemäß der ersten Ausführungsform möglich, zu beurteilen, ob sich der Benutzer zu diesem Zeitpunkt in einem zur Ausführung der Bedienung geeigneten Zustand befindet oder nicht, basierend auf der Beziehung zwischen wieviel sich der Benutzer dem Wahrnehmungsschwierigkeiten-Raum bewusst ist, als ein Raum, in dem die Wahrnehmung, die zum Ausführen der Bedienung notwendig ist, behindert ist, und der Wahrnehmungshandlung des Benutzers. Da der Wahrnehmungsschwierigkeiten-Raum selbst nicht wahrgenommen werden kann, ist es in diesem Fall einfach, zwischen einer reflexartigen Reaktion aufgrund der Ausgeprägtheit des Wahrnehmungsschwierigkeiten-Raumes selbst und einer Reaktion infolge Erkennung zum Ausführen der Bedienung, wie etwa der Risikoerwartung bezüglich der Wahrnehmungsschwierigkeit, zu unterscheiden. Dementsprechend kann das Bedienungseignungsniveau, das angibt, in einem wie geeigneten Zustand sich der Benutzer zur Durchführung der Bedienung befindet, präzise beurteilt werden, ohne den Benutzer zu belasten.
  • Zweite Ausführungsform
  • 14 ist ein Abfolgediagramm, das Einzelheiten eines anderen internen Prozesses des Hauptschleifenprozesses 202 in 5 darstellt. In 14 wird jedem Prozess, der mit einem Prozess in 6 identisch ist, dasselbe Bezugszeichen wie in 6 zugewiesen. Bei der zweiten Ausführungsform wird die Beschreibung hauptsächlich für Merkmale gegeben, die sich von jenen in der ersten Ausführungsform unterscheiden. Der in 14 dargestellte interne Prozess unterscheidet sich von dem in 6 dargestellten internen Prozess (der ersten Ausführungsform) darin, dass ein Wahrnehmungsobjekt-Detektionsprozess 311 und ein Benutzerwahrnehmungsobjekt-Beurteilungsprozess 312 hinzugefügt sind. Des Weiteren unterscheidet sich die Bedienungseignungsbeurteilungsvorrichtung bei der zweiten Ausführungsform von der bei der ersten Ausführungsform darin, dass sie eine Wahrnehmungsobjekt-Detektionseinheit 134 (1), die den Wahrnehmungsobjekt-Detektionsprozess 311 ausführt, und eine Benutzerwahrnehmungsobjekt-Beurteilungsverarbeitungseinheit 135 (1), die den Benutzerwahrnehmungsobjekt-Beurteilungsprozess 312 ausführt, beinhaltet. Durch das Hinzufügen dieser Prozesse in der Bedienungseignungsbeurteilungsvorrichtung, in dem Bedienungseignungsbeurteilungsverfahren und in dem Bedienungseignungsbeurteilungsprogramm gemäß der zweiten Ausführungsform werden Wahrnehmungsobjekte, die in der Nachbarschaft des Benutzers vorhanden sind, detektiert, eine Beurteilung wird vorgenommen, um zu bestimmen, welches der detektierten Wahrnehmungsobjekte durch den Benutzer wahrgenommen wurde, und die Bedienungseignungsbeurteilung über den Benutzer wird unter Verwendung von Informationen über das wahrgenommene Objekt (Ergebnis der Beurteilung) vorgenommen. Außer diesen Merkmalen ist die erste Ausführungsform dieselbe wie die zweite Ausführungsform. Im Übrigen wird sich in der Beschreibung der zweiten Ausführungsform auch auf 1 und 2 bezogen.
  • In dem in 14 dargestellten Wahrnehmungsobjekt-Detektionsprozess 311 wird ein Objekt, das der Benutzer wahrnehmen sollte, wenn der Benutzer die Bedienung durchführt, basierend auf den Informationen bezüglich der Nachbarschaftsobjekte, die im Nachbarschaftsobjektmessdaten-Erfassungsprozess 302 erfasst werden, detektiert.
  • 15 ist ein Diagramm zum Erläutern des Wahrnehmungsobjekt-Detektionsprozesses 311 in 14. Als Objekte in der Nachbarschaft des Benutzers 701 sind eine Straße 901, weiße Linie 902, ein Fußwegbordstein 903, ein vorausfahrendes Fahrzeug 904 und ein auf dem Fußweg gehender Fußgänger 905 vorhanden, und ferner sind verschiedene Nachbarschaftsobjekte, wie etwa der Himmel, eine Wolke, ein Vogel und ein Flugzeug, vorhanden. Die Nachbarschaftsobjekt-Detektionsvorrichtung 110 erfasst Daten dieser Objekte in der Nachbarschaft als eine Reihe von Daten ohne Unterscheidung.
  • Wenn der Benutzer 701 eine Bedienung ausführt, ist es normalerweise für den Benutzer 701 nicht notwendig, alle Nachbarschaftsobjekte zu erkennen; es ist erlaubt, dass der Benutzer 701 einen Teil vieler Nachbarschaftsobjekte erkennt. Die Nachbarschaftsobjekte, die der Fahrer als der Benutzer 701 erkennen sollte, sind zum Beispiel die weißen Linien 902, der Fußwegbordstein 903, das vorausfahrende Fahrzeug 904 und der Fußgänger 905. In dem Wahrnehmungsobjekt-Detektionsprozess 311 in 14 werden somit Informationen über Nachbarschaftsobjekte, die der Benutzer nicht erkennen muss, wie etwa die Straße 901, durch das Durchführen einer Filterung entfernt. Die Filterung kann unter Verwendung einer Objekterkennungstechnologie basierend auf einem bekannten Algorithmus, wie etwa Maschinenlernen, zur Detektion von Daten von Nachbarschaftsobjekten, die von der Nachbarschaftsobjekt-Detektionsvorrichtung 110 erfasst werden, ausgeführt werden. Infolge der Filterung können Eigenschaftsinformationen über Objekte, die zu dem Zeitpunkt der Filterung erkannt (wahrgenommen) werden sollten, wie etwa die Art, die Form, die Position und die Größe jedes Objekts, extrahiert werden. Es ist auch möglich, Variationen in den Eigenschaftsinformationen durch das Erfassen der Eigenschaftsinformationen über die detektierten Objekte in einer Zeitreihe und das Vornehmen eines Vergleichs zwischen Elementen der Eigenschaftsinformationen, die sich in der Detektionszeit unterscheiden, zu extrahieren.
  • In dem Benutzerwahrnehmungsobjekt-Beurteilungsprozess 312 in 14 wird die Wahrscheinlichkeit, dass die Objekte, die wahrgenommen werden sollten, schon durch den Benutzer wahrgenommen wurden, basierend auf einer Liste der Eigenschaftsinformationen über die Objekte, die wahrgenommen werden sollten, als das Detektionsergebnis des Wahrnehmungsobjekt-Detektionsprozesses 311 und der Informationen über die Benutzerwahrnehmungsbewegung, die im Benutzerwahrnehmungsbewegung-Detektionsprozess 305 detektiert wird, beurteilt.
  • 16 ist ein Diagramm zum Erläutern des Benutzerwahrnehmungsobjekt-Beurteilungsprozesses 312 in 14. 16 ist ein Diagramm, in dem Bewegungszeitreihendaten 911 einer Position am Ende der Sichtlinie (Position am Objekt), die in dem Wahrnehmungsobjekt-Detektionsprozess 311 detektiert werden, auf 15 überlagert sind. In den Bewegungszeitreihendaten 911 der Position am Ende der Sichtlinie ist ein Punkt 912 der Startpunkt, ein Knickpunkt eines Liniensegments (ein Ort, an dem das Liniensegment gebogen ist) gibt die nächste detektierte Position am Ende der Sichtlinie an und ein Punkt 913 ist die letzte Position am Ende der Sichtlinie. In diesem Fall wird angegeben, dass sich die visuelle Aufmerksamkeit von einer weißen Linie 902 nacheinander zu dem Fußwegbordstein 903, einer weißen Linie 902, dem Fußwegbordstein 903, dem Fußgänger 905 und dem Fußwegbordstein 903 bewegt hat. In einem derartigen Fall kann interpretiert werden, dass die weißen Linien 902, der Fußwegbordstein 903 und der Fußgänger 905 schon durch den Benutzer erkannt worden sind, wohingegen zum Beispiel das vorausfahrende Fahrzeug 904 nicht durch den Benutzer erkannt wurde.
  • Als das Erkennungsniveau ist es möglich, eine Verweilzeit der Sichtlinie, eine verstrichene Zeit, seit sich die Sichtlinie weg bewegt hat, oder Gewichtungskoeffizienten, die beide dieser Zeiten berücksichtigen, zu verwenden. Genauer gesagt gibt es Parameter bezüglich der Wahrnehmungshandlung des Benutzers, wie etwa die Anzahl von Malen, die die Sichtlinie auf ein gewisses Wahrnehmungsobjekt Y gerichtet wird, eine Verweilzeit, für die die Sichtlinie auf das Wahrnehmungsobjekt Y gerichtet wird, eine verstrichene Zeit, nachdem die Sichtlinie vom Wahrnehmungsobjekt Y weg verschoben wird, oder eine Kombination von manchen von diesen, und wenn der Parameter als zi repräsentiert wird und die Gewichtung des Parameters zi als W(zi) repräsentiert wird, kann eine Skala P(Y), die angibt, ob der Benutzer das Wahrnehmungsobjekt Y erkannt hat, durch den folgenden Ausdruck 8 repräsentiert werden:
  • P ( Y ) = i W ( z i )
    Figure DE112017006982T5_0009
  • Das Folgende ist ein Beispiel zur Berechnung der Skala, die angibt, ob der Benutzer jedes Wahrnehmungsobjekt in 16 erkannt hat, unter Verwendung der Anzahl von Malen, die die Sichtlinie des Benutzers auf das Wahrnehmungsobjekt gerichtet war, als der Parameter bezüglich des Wahrnehmungsobjekts des Benutzers: P ( weiße Linie  902 ) = 5
    Figure DE112017006982T5_0010
    P ( Fußwegbordstein  903 ) = 6
    Figure DE112017006982T5_0011
    P ( vorausfahrendes Fahrzeug  904 ) = 0
    Figure DE112017006982T5_0012
    P ( Fußgänger  905 ) = 4
    Figure DE112017006982T5_0013
    In diesem Fall wird beurteilt, dass der Fußwegbordstein 903 das Objekt mit dem höchsten Wahrnehmungsniveau ist (d. h. der höchsten Wahrnehmungsskala).
  • Wenn zum Beispiel der Maximalwert der Anzahl von Malen, die die Sichtlinie nacheinander gerichtet wird, als ein anderer Parameter verwendet wird, ist ein Beispiel zum Berechnen der Skala, die angibt, ob der Benutzer jedes Wahrnehmungsobjekt in 16 erkannt hat, wie folgt: P ( weiße Linie  902 ) = 4
    Figure DE112017006982T5_0014
    P ( Fußwegbordstein  903 ) = 4
    Figure DE112017006982T5_0015
    P ( vorausfahrendes Fahrzeug  904 ) = 0
    Figure DE112017006982T5_0016
    P ( Fußgänger  905 ) = 4
    Figure DE112017006982T5_0017
    In diesem Fall werden die Wahrnehmungsobjekte außer dem vorausfahrenden Fahrzeug 904 mit demselben Wahrnehmungsniveau (d. h. mit demselben Niveau in der Erkennungsskala) beurteilt.
  • Die Parameter bezüglich der Wahrnehmungshandlung des Benutzers sind nicht auf die oben beschriebenen Parameter beschränkt; es ist auch möglich, andere Parameter zu definieren.
  • Bei der zweiten Ausführungsform wird der Bedienungseignungsniveau-Berechnungsprozess 306 unter Verwendung der Ausgaben des Benutzerwahrnehmungsobjekt-Beurteilungsprozesses 312, des Wahrnehmungsschwierigkeiten-Raum-Detektionsprozesses 303 und des Benutzerwahrnehmungsbewegung-Detektionsprozesses 305 ausgeführt. In dem bei der ersten Ausführungsform beschriebenen Beispiel werden die Korrelationen CRX zwischen den Wahrnehmungsschwierigkeiten-Räumen X und der Benutzerwahrnehmungsbewegung unter Verwendung des Wahrnehmungsschwierigkeiten-Raum-Detektionsprozesses 303 und des Benutzerwahrnehmungsbewegung-Detektionsprozesses 305 erhalten und das Bedienungseignungsniveau wird aus diesen Korrelationen CRX berechnet. Im Gegensatz dazu wird bei der zweiten Ausführungsform ein Kennzeichen zum Erhalten des Bedienungseignungsniveaus berechnet, indem zusätzlich die Ausgabe des Benutzerwahrnehmungsobjekt-Beurteilungsprozesses 312 verwendet wird. In dem Benutzerwahrnehmungsobjekt-Beurteilungsprozess 312 bezüglich jedes Nachbarschaftsobjekts wird ein Wert basierend auf der Skala ausgegeben, die angibt, wieviel der Benutzer das Nachbarschaftsobjekt erkannt hat.
  • Wenn die Skala bezüglich eines Objekts U zum Beispiel als P(U) repräsentiert wird, kann der Gesamtwert V = ∑U P(U) von P(U) als ein Wert interpretiert werden, der angibt, wieviel der Benutzer alle Objekte, die in der Nachbarschaft zu diesem Zeitpunkt vorhanden sind, erkannt hat. Dieser Gesamtwert V ist ein Beispiel für das Bedienungseignungsniveau. Dieses Berechnungsverfahren ist nur ein Beispiel und ein anderes Berechnungsverfahren kann eingesetzt werden. Es ist zum Beispiel auch möglich, jeder Skala P(U) eine Gewichtung gemäß der Art des Objekts U oder einer Charakteristik des Objekts U außer der Art zuzuweisen und einen gewichteten Summengesamtwert als das Bedienungseignungsniveau zu erhalten.
  • Wenn ein Objekt U in der Nachbarschaft (in der Nähe) eines gewissen Wahrnehmungsschwierigkeiten-Raumes vorhanden ist, gibt es ferner Fälle, bei denen ein Teil des Objekts U durch den Wahrnehmungsschwierigkeiten-Raum verborgen ist. Es gibt auch Fälle, bei denen ein anderes Objekt Y, das unmittelbar, bis es aus der Nachbarschaft eines gewissen Wahrnehmungsschwierigkeiten-Raumes heraustritt, nicht vorhanden ist. Wie oben können Objekte, die in der Nachbarschaft eines Wahrnehmungsschwierigkeiten-Raumes verteilt sind, als Wahrnehmungsobjekte mit Priorität über andere Objekte interpretiert werden und es ist in derartigen Fällen möglich, die Gewichtung der Skala P(U) zu erhöhen und einen gewichteten Summengesamtwert als das Bedienungseignungsniveau zu erhalten.
  • Wie oben beschrieben, kann in der Bedienungseignungsbeurteilungsvorrichtung, dem Bedienungseignungsbeurteilungsverfahren und dem Bedienungseignungsbeurteilungsprogramm gemäß der zweiten Ausführungsform das Bedienungseignungsniveau, das angibt, in wie einem geeigneten Zustand sich der Benutzer zum Durchführen einer Bedienung befindet, noch präziser beurteilt werden, ohne den Benutzer zu belasten.
  • Modifikationen
  • Obwohl Fälle, bei denen der Benutzer der Fahrer eines Kraftfahrzeugs ist, in der obigen ersten und zweiten Ausführungsform beschrieben wurden, kann das durch den Benutzer gefahrene Fahrzeug ein Fahrzeug außer einem Kraftfahrzeug sein. Das Fahrzeug kann zum Beispiel ein mobiles Objekt sein, wie etwa ein Fahrrad, ein Motorrad oder ein Wagen. Die Bedienung, auf die die vorliegende Erfindung anwendbar ist, ist nicht auf die Bedienung eines mobilen Objekts beschränkt und kann eine Bedienung außer der Bedienung eines mobilen Objekts sein, wie etwa die Bedienung einer Anlage oder einer Maschine. Wenn die Bedienung, die der Benutzer durchführen sollte, zum Beispiel eine Maschinenbedienung unter Verwendung eines Maschinenwerkzeugs ist, ist es möglich, Späne als Wahrnehmungsobjekte zu betrachten, ein Gebiet, in dem feine Späne zerstreut sind, als einen Wahrnehmungsschwierigkeiten-Raum zu betrachten und das Material oder die Größe der Späne als einen Wichtigkeitsparameter des Wahrnehmungsschwierigkeiten-Raumes zuzuordnen. In diesem Fall kann die visuelle Prüfung des Benutzers des Maschinenwerkzeugs oder seiner Nachbarschaft vor dessen Berührung, um einer geringen Sichtbarkeit aufgrund der Feinheit der Späne entgegenzuwirken, zum Beispiel als die behinderungsentgegenwirkende Wahrnehmungsbewegung betrachtet werden und die Anzahl von Malen der Bewegung, die Häufigkeit der Bewegung, die Verweilzeit der Bewegung, eine Kombination von manchen von diesen oder dergleichen kann als das Niveau der behinderungsentgegenwirkenden Wahrnehmungsbewegung betrachtet werden.
  • Obwohl ferner Beispiele zum Verwenden von Wahrnehmungsobjekten, die durch den Sehsinn wahrgenommen werden, und Wahrnehmungsschwierigkeiten-Räumen, in denen eine Wahrnehmung durch den Sehsinn schwierig ist, in der obigen ersten und zweiten Ausführungsform beschrieben worden sind, ist die in der vorliegende Erfindung verwendeten Wahrnehmung nicht auf den Sehsinn beschränkt; die vorliegende Erfindung ist auch auf andere Sinne anwendbar, wie etwa den Gehörsinn, den Tastsinn oder den Geschmackssinn. Wenn die Bedienung, die der Benutzer durchführen sollte, zum Beispiel eine Maschinenbedienung unter Verwendung eines Maschinenwerkzeugs ist, ist es möglich, einen anormalen Ton der Maschine, die durch den Benutzer bedient wird, als ein Wahrnehmungsobjekt zu betrachten, andere Töne, wie etwa einen Betriebston, wenn die Maschine normal arbeitet, und einen Ton, der von einer Maschine emittiert wird, die durch einen anderen Bediener bedient wird, als Wahrnehmungsschwierigkeiten-Räume zu betrachten und die Wichtigkeit jedes Wahrnehmungsschwierigkeiten-Raumes als den Ähnlichkeitsgrad zu dem anormalen Ton der Maschine, zu dem Tonpegel, zu der Richtung der Quelle des Tons, einer Kombination von manchen von diesen oder dergleichen zu definieren. In diesem Fall kann in Zusammenhang mit der Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes das Anhalten einer Bedienungsbewegung des Benutzers, die visuelle Prüfung des Maschinenwerkzeugs und seiner Nachbarschaft oder dergleichen zum Beispiel als die behinderungsentgegenwirkende Wahrnehmungsbewegungen betrachtet werden und die Anzahl von Malen der Bewegung, die Häufigkeit der Bewegung, die Verweilzeit der Bewegung, oder dergleichen kann als das Niveau der behinderungsentgegenwirkenden Wahrnehmungsbewegung betrachtet werden.
  • Bezugszeichenliste
  • 100: Fahrzeug, 110: Nachbarschaftsobjekt-Detektionsvorrichtung, 120: Benutzerbewegung-Detektionsvorrichtung, 130: Bedienungseignungsbeurteilungsvorrichtung, 131: Benutzerwahrnehmungsbewegung-Detektionseinheit, 132: Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit, 133: Bedienungseignungsniveau-Berechnungseinheit, 134: Wahrnehmungsobjekt-Detektionseinheit, 140: Informationsdarstellungseinheit, 181: Informationsverarbeitungseinrichtung, 182: Speicherungsvorrichtung, 601, 701: Benutzer, 603, 703: Nachbarschaftsobjekt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 200969885 [0007]
  • Zitierte Nicht-Patentliteratur
    • NTT Data MSE Corporation, Kyoto University, Kumamoto University, NTT DoCoMo, Inc., Presseerklärung „Demonstration Experiment Started for Sleepiness Detection System for Drivers Utilizing hitoe“ [online], 10. Mai 2016, Internet, URL: https://www.nttdocomo.co.jp/info/news_release/2016/05/10_00.html [0005]
    • Keisuke Morishima und fünf andere, „Measurement of Useful Field of View in Eye and Head-Free Condition while Driving“, Transactions of the Japan Society of Mechanical Engineers (Teil C), Okt. 2013, Bd. 79, Nr. 806, S. 272 - 284 (S. 3561 - 3573) [0006]

Claims (15)

  1. Bedienungseignungsbeurteilungsvorrichtung, die ein Bedienungseignungsniveau beurteilt, das angibt, in einem wie geeigneten Zustand sich ein Benutzer zum Durchführen einer geplanten Bedienung, die ausgeführt werden sollte, befindet, wobei die Bedienungseignungsbeurteilungsvorrichtung Folgendes umfasst: eine Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit, die einen Wahrnehmungsschwierigkeiten-Raum detektiert, in dem ein Wahrnehmungsobjekt als ein Objekt, das der Benutzer wahrnehmen sollte, wenn der Benutzer die geplante Bedienung durchführt, für den Benutzer schwierig wahrzunehmen ist, basierend auf Nachbarschaftsobjektinformationen, die von einer Nachbarschaftsobjekt-Detektionsvorrichtung erfasst werden, die ein Nachbarschaftsobjekt detektiert, das in einer Nachbarschaft des Benutzers vorhanden ist; eine Benutzerwahrnehmungsbewegung-Detektionseinheit, die eine Benutzerwahrnehmungsbewegung als eine Bewegung des Benutzers detektiert, wenn der Benutzer versucht, das Wahrnehmungsobjekt wahrzunehmen, basierend auf Benutzerbewegungsinformationen, die von einer Benutzerbewegung-Detektionsvorrichtung erfasst werden, die eine Bewegung des Benutzers detektiert; und eine Bedienungseignungsniveau-Berechnungseinheit, die das Bedienungseignungsniveau des Benutzers basierend auf dem durch die Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit detektierten Wahrnehmungsschwierigkeiten-Raum und der durch die Benutzerwahrnehmungsbewegung-Detektionseinheit detektierten Benutzerwahrnehmungsbewegung berechnet.
  2. Bedienungseignungsbeurteilungsvorrichtung nach Anspruch 1, ferner umfassend eine Wahrnehmungsobjekt-Detektionseinheit, die das Wahrnehmungsobjekt detektiert, wobei die Bedienungseignungsniveau-Berechnungseinheit das Bedienungseignungsniveau des Benutzers basierend auf dem durch die Wahrnehmungsobjekt-Detektionseinheit detektierten Wahrnehmungsobjekt, dem durch die Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit detektierten Wahrnehmungsschwierigkeiten-Raum und der durch die Benutzerwahrnehmungsbewegung-Detektionseinheit detektierten Benutzerwahrnehmungsbewegung berechnet.
  3. Bedienungseignungsbeurteilungsvorrichtung nach Anspruch 1 oder 2, wobei die Benutzerwahrnehmungsbewegung-Detektionseinheit ferner eine behinderungsentgegenwirkende Wahrnehmungsbewegung als eine Benutzerwahrnehmungsbewegung detektiert, wenn der Benutzer versucht, ein potenzielles Wahrnehmungsobjekt als ein Wahrnehmungsobjekt, das in dem Wahrnehmungsschwierigkeiten-Raum vorhanden ist, wahrzunehmen, und ein Niveau der behinderungsentgegenwirkenden Wahrnehmungsbewegung detektiert, die Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit ferner eine Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes beurteilt, und die Bedienungseignungsniveau-Berechnungseinheit das Bedienungseignungsniveau in Abhängigkeit von der behinderungsentgegenwirkenden Wahrnehmungsbewegung, dem Niveau der behinderungsentgegenwirkenden Wahrnehmungsbewegung und der Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes ändert.
  4. Bedienungseignungsbeurteilungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei die Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit Informationen erfasst, die Inhalte der geplanten Bedienung angeben, und den Wahrnehmungsschwierigkeiten-Raum basierend auf den Inhalten der geplanten Bedienung bestimmt.
  5. Bedienungseignungsbeurteilungsvorrichtung nach Anspruch 2, wobei die Wahrnehmungsobjekt-Detektionseinheit Informationen erfasst, die Inhalte der geplanten Bedienung angeben, und das Wahrnehmungsobjekt basierend auf den Inhalten der geplanten Bedienung bestimmt.
  6. Bedienungseignungsbeurteilungsvorrichtung nach einem der Ansprüche 1 bis 5, wobei die Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit einen toten Raum, der nicht direkt von einer Position des Benutzers aus sichtbar ist, als den Wahrnehmungsschwierigkeiten-Raum beurteilt.
  7. Bedienungseignungsbeurteilungsvorrichtung nach Anspruch 2 oder 5, wobei die Wahrnehmungsobjekt-Detektionseinheit ein Objekt, das in einem Raum vorhanden ist, der nicht direkt von einer Position des Benutzers aus sichtbar ist, als das Wahrnehmungsobjekt beurteilt.
  8. Bedienungseignungsbeurteilungsvorrichtung nach einem der Ansprüche 1 bis 7, wobei die Benutzerwahrnehmungsbewegung-Detektionseinheit eine Bewegung der Sichtlinie des Benutzers als die Benutzerwahrnehmungsbewegung detektiert.
  9. Bedienungseignungsbeurteilungsvorrichtung nach einem der Ansprüche 1 bis 8, wobei die Benutzerwahrnehmungsbewegung-Detektionseinheit das Bedienungseignungsniveau basierend auf einer Anzahl von Malen einer Benutzersichtlinienbewegung, bei der die Sichtlinie des Benutzers auf ein Gebiet einschließlich des Wahrnehmungsschwierigkeiten-Raumes und einer Nachbarschaft des Wahrnehmungsschwierigkeiten-Raumes ausgerichtet wird, und/oder einer Häufigkeit der Benutzersichtlinienbewegung und/oder einer Verweilzeit, für die die Sichtlinie des Benutzers auf das Gebiet hin ausgerichtet ist, ändert.
  10. Bedienungseignungsbeurteilungsvorrichtung nach einem der Ansprüche 1 bis 9, wobei die Benutzerwahrnehmungsbewegung-Detektionseinheit eine behinderungsentgegenwirkende Wahrnehmungsbewegung als eine Benutzerwahrnehmungsbewegung detektiert, wenn der Benutzer versucht, ein potenzielles Wahrnehmungsobjekt als ein Wahrnehmungsobjekt, das in dem Wahrnehmungsschwierigkeiten-Raum vorhanden ist, wahrzunehmen, und ein Niveau der behinderungsentgegenwirkenden Wahrnehmungsbewegung detektiert, und die Bedienungseignungsniveau-Berechnungseinheit das Bedienungseignungsniveau basierend auf der behinderungsentgegenwirkenden Wahrnehmungsbewegung und/oder dem Niveau der behinderungsentgegenwirkenden Wahrnehmungsbewegung ändert.
  11. Bedienungseignungsbeurteilungsvorrichtung nach Anspruch 3, wobei die Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit einen toten Raum, der nicht direkt von einer Position des Benutzers aus sichtbar ist, als den Wahrnehmungsschwierigkeiten-Raum beurteilt, und die Wichtigkeit des Wahrnehmungsschwierigkeiten-Raumes basierend auf einer Größe des toten Raumes und/oder einer Position des toten Raumes und/oder einem Abstand vom Benutzer zum toten Raum und/oder einer Bewegungsgeschwindigkeit des toten Raumes und/oder einer Bewegungsbeschleunigung des toten Raumes bestimmt.
  12. Bedienungseignungsbeurteilungsvorrichtung nach Anspruch 10, wobei das Niveau der behinderungsentgegenwirkenden Wahrnehmungsbewegung basierend auf einer Anzahl von Malen einer Benutzersichtlinienbewegung, bei der die Sichtlinie des Benutzers auf eine Nachbarschaft des Wahrnehmungsschwierigkeiten-Raumes an einer Seite nahe dem Benutzer ausgerichtet ist, und/oder einer Häufigkeit der Benutzersichtlinienbewegung und/oder einer Verweilzeit, für die die Sichtlinie des Benutzers auf die Nachbarschaft ausgerichtet ist, geändert wird.
  13. Bedienungseignungsbeurteilungsvorrichtung nach einem der Ansprüche 1 bis 12, wobei die Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit den Wahrnehmungsschwierigkeiten-Raum detektiert, der innerhalb eines vorbestimmten Bereichs vom Benutzer detektiert wird, und nicht den Wahrnehmungsschwierigkeiten-Raum detektiert, der außerhalb des vorbestimmten Bereichs liegt.
  14. Bedienungseignungsbeurteilungsverfahren zum Beurteilen eines Bedienungseignungsniveaus, das angibt, in einem wie geeigneten Zustand sich ein Benutzer zum Durchführen einer geplanten Bedienung, die ausgeführt werden sollte, befindet, wobei das Bedienungseignungsbeurteilungsverfahren Folgendes umfasst: Detektieren eines Wahrnehmungsschwierigkeiten-Raumes, in dem ein Wahrnehmungsobjekt als ein Objekt, das der Benutzer wahrnehmen sollte, wenn der Benutzer die geplante Bedienung durchführt, für den Benutzer schwierig wahrzunehmen ist, basierend auf Nachbarschaftsobjektinformationen, die von einer Nachbarschaftsobjekt-Detektionsvorrichtung erfasst werden, die ein Nachbarschaftsobjekt detektiert, das in einer Nachbarschaft des Benutzers vorhanden ist; Detektieren einer Benutzerwahrnehmungsbewegung als eine Bewegung des Benutzers, wenn der Benutzer versucht, das Wahrnehmungsobjekt wahrzunehmen, basierend auf Benutzerbewegungsinformationen, die von einer Benutzerbewegung-Detektionsvorrichtung erfasst werden, die eine Bewegung des Benutzers detektiert; und Berechnen des Bedienungseignungsniveaus des Benutzers basierend auf dem detektierten Wahrnehmungsschwierigkeiten-Raum und der detektierten Benutzerwahrnehmungsbewegung.
  15. Bedienungseignungsbeurteilungsprogramm, das einen Computer veranlasst zum Ausführen eines Bedienungseignungsbeurteilungsverfahrens zum Beurteilen eines Bedienungseignungsniveaus, das angibt, in einem wie geeigneten Zustand sich ein Benutzer zum Durchführen einer geplanten Bedienung, die ausgeführt werden sollte, befindet, und den Computer zum Ausführen von Folgendem veranlasst: einen Prozess zum Veranlassen einer Wahrnehmungsschwierigkeiten-Raum-Detektionseinheit, einen Wahrnehmungsschwierigkeiten-Raum zu detektieren, in dem ein Wahrnehmungsobjekt als ein Objekt, das der Benutzer wahrnehmen sollte, wenn der Benutzer die geplante Bedienung durchführt, für den Benutzer schwierig wahrzunehmen ist, basierend auf Nachbarschaftsobjektinformationen, die von einer Nachbarschaftsobjekt-Detektionsvorrichtung erfasst werden, die ein Nachbarschaftsobjekt detektiert, das in einer Nachbarschaft des Benutzers vorhanden ist; einen Prozess zum Veranlassen einer Benutzerwahrnehmungsbewegung-Detektionseinheit, eine Benutzerwahrnehmungsbewegung als eine Bewegung des Benutzers zu detektieren, wenn der Benutzer versucht, das Wahrnehmungsobjekt wahrzunehmen, basierend auf Benutzerbewegungsinformationen, die von einer Benutzerbewegung-Detektionsvorrichtung erfasst werden, die eine Bewegung des Benutzers detektiert; und einen Prozess zum Berechnen des Bedienungseignungsniveaus des Benutzers basierend auf dem detektierten Wahrnehmungsschwierigkeiten-Raum und der detektierten Benutzerwahrnehmungsbewegung.
DE112017006982.3T 2017-03-03 2017-03-03 Bedienungseignungsbeurteilungsvorrichtung,bedienungseignungsbeurteilungsverfahren undbedienungseignungsbeurteilungsprogramm Ceased DE112017006982T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/008591 WO2018158950A1 (ja) 2017-03-03 2017-03-03 作業適性判定装置、作業適性判定方法、及び作業適性判定プログラム

Publications (1)

Publication Number Publication Date
DE112017006982T5 true DE112017006982T5 (de) 2019-10-31

Family

ID=63369872

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017006982.3T Ceased DE112017006982T5 (de) 2017-03-03 2017-03-03 Bedienungseignungsbeurteilungsvorrichtung,bedienungseignungsbeurteilungsverfahren undbedienungseignungsbeurteilungsprogramm

Country Status (5)

Country Link
US (1) US20200000391A1 (de)
JP (1) JP6548850B2 (de)
CN (1) CN110352037A (de)
DE (1) DE112017006982T5 (de)
WO (1) WO2018158950A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021233604A1 (de) * 2020-05-19 2021-11-25 Daimler Ag Verfahren zur ermittlung einer reaktionsfähigkeit
DE102018113488B4 (de) 2017-06-08 2023-02-02 Toyota Jidosha Kabushiki Kaisha Fahrbewusstseinsabschätzvorrichtung

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023035618A (ja) * 2021-09-01 2023-03-13 ダイハツ工業株式会社 異常検知装置および異常検知方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4882153B2 (ja) * 2001-02-19 2012-02-22 日産自動車株式会社 車輌用情報出力装置
JP4935589B2 (ja) * 2007-09-10 2012-05-23 株式会社デンソー 状態判定装置およびプログラム
US8698639B2 (en) * 2011-02-18 2014-04-15 Honda Motor Co., Ltd. System and method for responding to driver behavior
JP5966640B2 (ja) * 2012-06-08 2016-08-10 株式会社豊田中央研究所 漫然運転検出装置及びプログラム
DE102016204878A1 (de) * 2015-03-23 2016-10-20 Continental Automotive Systems, Inc. Adaptiver Fahrerassistent

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018113488B4 (de) 2017-06-08 2023-02-02 Toyota Jidosha Kabushiki Kaisha Fahrbewusstseinsabschätzvorrichtung
WO2021233604A1 (de) * 2020-05-19 2021-11-25 Daimler Ag Verfahren zur ermittlung einer reaktionsfähigkeit

Also Published As

Publication number Publication date
JP6548850B2 (ja) 2019-07-24
JPWO2018158950A1 (ja) 2019-11-07
WO2018158950A1 (ja) 2018-09-07
US20200000391A1 (en) 2020-01-02
CN110352037A (zh) 2019-10-18

Similar Documents

Publication Publication Date Title
DE102010061922B4 (de) Mit einer Blickrichtung eines Fahrers gekoppeltes System und Verfahren zum Alarmieren einer Frontalaufprallgefahr und ein dasselbe verwendendes Fahrzeug
DE112010001354B4 (de) Bewegungsstrajektoriengenerator
DE102008046038B4 (de) Anzeigevorrichtung und Verfahren zum Anzeigen eines Bildes
DE102019109505A1 (de) Datenverarbeitungsvorrichtung, überwachungssystem, wecksystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
DE112012006226B4 (de) Fahrassistenzvorrichtung
DE112018004377T5 (de) Fahrzeugfahrassistenzsystem, fahrzeugfahrassistenzverfahren und fahrzeugfahrassistenzprogramm
DE112018004561T5 (de) Fahrzeugfahrunterstützungssystem, fahrzeugfahrunterstützungsverfharen und fahrzeugfahrunterstützungsprogramm
DE112014006721T5 (de) Adaptive Warnungsverwaltung für das fortschrittiiche Fahrerassistenzsystem (ADAS)
DE112017007050T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
WO2014029738A1 (de) Verfahren zum ergänzen einer einem objekt zugeordneten objektinformation und verfahren zum selektieren von objekten in einem umfeld eines fahrzeugs
DE102015210630A1 (de) System und Verfahren zum Handhaben eines Fahr-Gefahrenindexes für ein Fahrzeug
EP2427855A2 (de) Verfahren zur darstellung von unterschiedlich gut sichtbaren objekten aus der umgebung eines fahrzeugs auf der anzeige einer anzeigevorrichtung
DE102018124509A1 (de) Verfahren und Vorrichtung zur Steuerung eines Fahrzeugsitzes
DE10131720A1 (de) Head-Up Display System und Verfahren
DE112017007184T5 (de) Unterstützungsvorrichtung, unterstützungsverfahren und programm
DE102017211005A1 (de) Fahrerzustandsüberwachung unter verwendung der hornhautreflexionserfassung
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102014201036A1 (de) Bildbasierte Klassifikation des Fahrerzustands und/oder des Fahrerverhaltens
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102017126760A1 (de) Erkennen von blattwerk unter verwendung von bereichsdaten
DE102018108361A1 (de) Laubwerkerfassungstrainingssysteme und -verfahren
DE112017007205T5 (de) Modusumschaltsteuergerät, Modusumschaltsteuerungssystem, Modusumschaltsteuerverfahren und Programm
DE102019122536A1 (de) Exzentrizitätskarten
DE112017006982T5 (de) Bedienungseignungsbeurteilungsvorrichtung,bedienungseignungsbeurteilungsverfahren undbedienungseignungsbeurteilungsprogramm
WO2018215156A1 (de) Verfahren, vorrichtungen und computerlesbares speichermedium mit instruktionen zum ermitteln von geltenden verkehrsregeln für ein kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: PFENNING, MEINIG & PARTNER MBB PATENTANWAELTE, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final