WO2021205865A1 - 疾患状態判定装置、疾患状態判定方法、疾患状態判定装置用プログラム、および、疾患状態判定システム - Google Patents

疾患状態判定装置、疾患状態判定方法、疾患状態判定装置用プログラム、および、疾患状態判定システム Download PDF

Info

Publication number
WO2021205865A1
WO2021205865A1 PCT/JP2021/011933 JP2021011933W WO2021205865A1 WO 2021205865 A1 WO2021205865 A1 WO 2021205865A1 JP 2021011933 W JP2021011933 W JP 2021011933W WO 2021205865 A1 WO2021205865 A1 WO 2021205865A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
line
vehicle
sight
disease state
Prior art date
Application number
PCT/JP2021/011933
Other languages
English (en)
French (fr)
Inventor
秀彦 小峰
智之 北崎
幹之 赤松
石井 圭
英夫 鶴嶋
元基 小竹
Original Assignee
国立研究開発法人産業技術総合研究所
国立大学法人筑波大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立研究開発法人産業技術総合研究所, 国立大学法人筑波大学 filed Critical 国立研究開発法人産業技術総合研究所
Priority to US17/995,506 priority Critical patent/US20230174073A1/en
Priority to JP2022514380A priority patent/JPWO2021205865A1/ja
Publication of WO2021205865A1 publication Critical patent/WO2021205865A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4094Diagnosing or monitoring seizure diseases, e.g. epilepsy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze

Definitions

  • the present invention relates to a technical field of a disease state determination device for determining an epilepsy state of a subject, a disease state determination method, a program for the disease state determination device, and a disease state determination system.
  • Patent Document 1 devices for measuring the driving ability and health information of a vehicle driver and transmitting the driving ability check result and the health information check result to a server are provided at a plurality of points along the vehicle movement route.
  • the server evaluates the driving risk of the vehicle driver based on the driving ability check result, the health information check result and the evaluation standard, and compares the results of the driving ability check and the health information check over time with the vehicle driver.
  • a safe driving support system for diagnosing an increased degree of driving risk is disclosed.
  • Patent Document 1 in order to measure the health condition, a special device such as an exhaled gas component measuring instrument is required, and in combination with athletic ability, it is not directly related to a specific disease. , It was just judging the degree of driving risk. Therefore, it was difficult to easily determine the state of epilepsy.
  • an example of the subject of the present invention is to provide a disease state determination device or the like capable of determining the state of epilepsy.
  • the invention according to claim 1 is a line-of-sight data acquisition means for acquiring line-of-sight data indicating the position of the line-of-sight of the target person measured while the target person is driving a vehicle.
  • the tantrum state of the target person is determined according to the relationship between the driving characteristic data acquisition means for acquiring the driving characteristic data indicating the driving characteristic of the target person with respect to the vehicle and the line-of-sight data and the driving characteristic data. It is characterized by comprising a disease state determination means.
  • the invention according to claim 8 is a line-of-sight data acquisition step in which the line-of-sight data acquisition means acquires line-of-sight data indicating the position of the line-of-sight of the target person measured while the target person is driving a vehicle, and an operation.
  • the characteristic data acquisition means acquires the driving characteristic data indicating the driving characteristics of the target person with respect to the vehicle, and the disease state determination means responds to the relationship between the line-of-sight data and the driving characteristic data. It is characterized by including a disease state determination step for determining the tantrum state of the subject.
  • the computer is a line-of-sight data acquisition means for acquiring line-of-sight data indicating the position of the line-of-sight of the target person measured while the target person is driving a vehicle.
  • a driving characteristic data acquisition means for acquiring driving characteristic data indicating driving characteristics for a vehicle
  • a disease state determining means for determining the tantrum state of the subject according to the relationship between the line-of-sight data and the driving characteristic data. It is characterized by making it work.
  • the invention according to claim 10 includes a terminal device for collecting data on a target person driving a vehicle, and a disease state determination device for determining a tantrum state of the target person based on the data on the target person.
  • the disease state determination device acquires line-of-sight data indicating the position of the line-of-sight of the target person measured while the target person is driving the vehicle from the terminal device.
  • the driving characteristic data acquisition means for acquiring the driving characteristic data indicating the driving characteristic of the target person for the vehicle from the terminal device, the line-of-sight data, and the driving characteristic data. It is characterized by having a disease state determining means for determining the tantrum state of the subject.
  • the invention according to claim 11 comprises a seat pressure distribution acquisition means for acquiring data on a seat pressure distribution on a seat surface on which a subject sits in a vehicle, a pressure distribution calculation means for calculating the magnitude of the seat pressure distribution, and the above-mentioned invention. It is characterized by comprising a disease state determining means for determining the epileptic state of the subject according to a change in the magnitude of the sitting pressure distribution.
  • the seat pressure distribution acquisition means acquires the data of the seat pressure distribution of the seat surface on which the subject sits in the vehicle, and the pressure distribution calculation means obtains the seat pressure distribution.
  • the pressure distribution calculation step for calculating the size of the subject and the disease state determination means include a disease state determination step for determining the tantrum state of the subject according to the change in the size of the sitting pressure distribution. It is a feature.
  • the computer is a seat pressure distribution acquisition means for acquiring data of a seat pressure distribution on a seat surface on which a subject sits in a vehicle, a pressure distribution calculation means for calculating the magnitude of the seat pressure distribution, and the like. Further, it is characterized in that it functions as a disease state determining means for determining the epileptic state of the subject according to a change in the magnitude of the sitting pressure distribution.
  • the invention according to claim 14 includes a terminal device that collects data on a target person driving a vehicle, and a disease state determination device that determines a tantrum state of the target person based on the data on the target person.
  • the seat pressure distribution acquisition means for acquiring the data of the seat pressure distribution on the seat surface on which the subject sits in the vehicle from the terminal device, and the pressure distribution for calculating the magnitude of the seat pressure distribution. It is characterized by having a calculation means and a disease state determination means for determining the tantrum state of the subject according to a change in the magnitude of the sitting pressure distribution.
  • the invention according to claim 15 is a line-of-sight data acquisition means for acquiring line-of-sight data indicating the position of the line-of-sight of the target person measured while the target person is driving a vehicle, and a line-of-sight data indicating the line-of-sight indicated by the line-of-sight data. It is characterized by comprising a disease state determining means for determining an epileptic state of the subject according to a time when the position deviates from the center of the field of view of the subject in the traveling direction of the vehicle.
  • the invention according to claim 16 is a line-of-sight data acquisition step in which the line-of-sight data acquisition means acquires line-of-sight data indicating the position of the line-of-sight of the target person measured while the subject is driving a vehicle, and a disease.
  • a disease state determination step in which the state determination means determines the tantrum state of the subject according to the time when the position of the line of sight indicated by the line-of-sight data deviates from the center of the field of view of the subject in the traveling direction of the vehicle. , Is included.
  • the invention according to claim 17 is a line-of-sight data acquisition means for acquiring line-of-sight data indicating the position of the line-of-sight of the target person measured while the target person is driving a vehicle, and the line-of-sight data. It is characterized in that it functions as a disease state determining means for determining the epileptic state of the subject according to the time when the position of the line of sight indicated by is deviated from the central part of the field of view of the subject in the traveling direction of the vehicle.
  • the invention according to claim 18 includes a terminal device for collecting data on a target person driving a vehicle, and a disease state determination device for determining a tantrum state of the target person based on the data on the target person.
  • the disease state determination device acquires line-of-sight data indicating the position of the line-of-sight of the target person measured while the target person is driving a vehicle from the terminal device.
  • the present invention according to the relationship between the line-of-sight data indicating the position of the line-of-sight of the target person measured while the subject is driving the vehicle and the driving characteristic data indicating the driving characteristics of the target person with respect to the vehicle. Therefore, by determining the disease state such as tantrum of the subject, the state of tantrum can be determined from easy-to-measure data such as line-of-sight data and driving characteristic data without using a special device.
  • FIG. 1 is a diagram showing an example of an outline configuration of a disease state determination system S according to the present embodiment.
  • FIG. 2 is a schematic view showing an example of the state of the target person T who controls the vehicle V.
  • the disease state determination system S is an information processing server device 10 (a disease state determination device) that determines a disease state such as tantrum of the target person T from various data for each target person T who drives the vehicle V.
  • a mobile terminal device 20 carried by the target person T and transmitting the physiological data of the target person T to the information processing server device 10, and a plurality of sensors for data on the operation and behavior of the vehicle V driven by the target person T.
  • It includes an in-vehicle terminal device 30 that collects data from, a home terminal device 40 that collects physiological data and the like when the target person T is at home H, and a medical institution server device 50 of a medical institution used by the target person T.
  • vehicle V passenger cars, taxis, hire cars, trucks, trailers (including tractors alone), automobiles such as buses, motorcycles (motorcycles with side cars, trikes, reverse trikes), bicycles, electric carts, railroad vehicles.
  • trains Such as trains.
  • the target person T includes a person who drives the above vehicle.
  • the information processing server device 10, the mobile terminal device 20, the in-vehicle terminal device 30, the home terminal device 40, and the medical institution server device 50 mutually data via the network N, for example, using TCP / IP or the like as a communication protocol. Can be sent and received.
  • the network N is constructed by, for example, the Internet.
  • the network N includes a road information providing server device (not shown) that provides road information of road conditions such as traffic congestion and construction, and a meteorological server device (not shown) that provides meteorological data to the information processing server device 10. And are connected.
  • the network N may be constructed by a dedicated communication line, a mobile communication network, a gateway, or the like. Further, the network N may have an access point Ap.
  • the mobile terminal device 20, the in-vehicle terminal device 30, and the like may be able to be connected to the network N via the access point Ap.
  • the information processing server device 10 has a computer function.
  • the information processing server device 10 acquires driving characteristic data indicating the driving characteristics of the target person T with respect to the vehicle V, which is measured while each target person T is driving the vehicle V.
  • driving characteristic data there are operation amount data in which each target person T operates the vehicle V, and behavior amount data of the behavior of each vehicle V.
  • the information processing server device 10 acquires operation amount data and behavior amount data from, for example, the in-vehicle terminal device 30.
  • the information processing server device 10 acquires data obtained by sensing the target person T who operates each vehicle V from the mobile terminal device 20 or the in-vehicle terminal device 30.
  • this sensing data is line-of-sight data indicating the position of the line-of-sight of the target person T measured while the target person T is driving the vehicle V, and the seat of the seat on which the target person T who operates each vehicle V sits.
  • the pressure distribution data, the rotation data of the rotation of the arm of the subject T operating the vehicle V, and the like are examples of the rotation of the arm of the subject T operating the vehicle V.
  • the information processing server device 10 acquires meteorological data from the meteorological server device.
  • the information processing server device 10 acquires road information from the road information providing server device.
  • the mobile terminal device 20 has a computer function.
  • the mobile terminal device 20 is, for example, a smartphone or a tablet terminal.
  • the mobile terminal device 20 collects data from each sensor that senses the target person T. As shown in FIG. 2, in the vehicle V, the subject T has the mobile terminal device 20 somewhere in the vehicle V, such as putting the mobile terminal device 20 in a pocket or a bag. ing.
  • the in-vehicle terminal device 30 has a computer function.
  • the in-vehicle terminal device 30 is, for example, a navigation device for the vehicle V.
  • the in-vehicle terminal device 30 is installed in the vehicle V driven by the subject T.
  • the vehicle V is, for example, a vehicle owned or rented by the subject T himself, his family, an acquaintance, or a company.
  • the subject T operates the vehicle V by the steering wheel sw of the vehicle V, the accelerator pedal (not shown), and the brake pedal (not shown).
  • the subject T when measuring the rotation data of the rotation of both arms of the subject T, the subject T wears each wristband type wearable terminal device w1 on both arms.
  • the subject T When measuring the line-of-sight data indicating the position of the line-of-sight of the subject T, the subject T is wearing a glasses-type wearable terminal device w2.
  • the seat sensor ss measures the seat pressure distribution on the seat surface on which the subject T who operates the vehicle V sits.
  • the sheet sensor ss is a sheet-shaped sensor in which pressure sensor elements are two-dimensionally distributed in order to measure the body pressure distribution.
  • the seat sensor ss measures the position and pressure at the point of contact with the surface of the seat.
  • the seat sensor ss may be installed on the backrest of the seat.
  • the mobile terminal device 20 and the in-vehicle terminal device 30 can communicate with each other by wireless communication.
  • the wearable terminal devices w1 and w2 can communicate with the mobile terminal device 20 and the in-vehicle terminal device 30 by wireless communication.
  • the seat sensor ss has an interface that enables communication with the outside.
  • the seat sensor ss can communicate with the mobile terminal device 20 and the in-vehicle terminal device 30 by wireless communication.
  • the seat sensor ss may be able to communicate with the in-vehicle terminal device 30 by wire.
  • the home terminal device 40 has a computer function.
  • the home terminal device 40 is installed in a home H such as a target person T, a workplace, or the like.
  • the home terminal device 40 is, for example, a personal computer.
  • the mobile terminal device 20 and the home terminal device 40 can communicate with each other by wireless communication.
  • the medical institution server device 50 has a computer function.
  • the medical institution server device 50 is set in, for example, a medical institution such as a hospital, a core center of regional medical care, or the like.
  • the medical institution server device 50 has electronic medical record information that records information such as a medical examination result, an examination order, an examination result, and a health examination for the subject T.
  • the operation amount is an amount that the target person T operates in some way when driving the vehicle V.
  • the operating amount of the vehicle include the steering angle of the steering wheel of the vehicle V, the accelerator stroke of the accelerator of the vehicle V, the operating amount of the brake pedal, and the like.
  • the operating amount may be the steering torque corresponding to the steering angular velocity and the angular acceleration of the steering wheel of the vehicle V, which are calculated from the time derivative of the steering angle data.
  • the operation amount may be any data that can measure the operation performance of the target person T.
  • the amount of behavior is the amount related to the movement of the vehicle V.
  • Examples of the amount of behavior of the vehicle include wobbling of the vehicle V, the distance between the vehicle and the vehicle in front, the speed of the vehicle, the acceleration of the vehicle, the position in the lane, and the like.
  • the acceleration includes acceleration in the traveling direction of the vehicle V, lateral acceleration in the lateral direction with respect to the traveling direction, and the like.
  • the amount of behavior may be any data that can measure the behavioral state of the vehicle V due to the driving of the subject T.
  • the operation amount and the behavior amount are quantities indicating the driving characteristics of the subject T with respect to the vehicle V.
  • the line-of-sight data indicating the position of the line-of-sight of the target person T measured while the target person T is driving the vehicle V, the vehicle V.
  • Examples include data on the seat pressure distribution on the seating surface on which the subject T who operates the vehicle V sits, and data on the rotation of the arm of the subject T who operates the vehicle V.
  • the degree of the disease such as whether the state of the disease is mild to be able to drive or severe enough to be unable to drive for a predetermined disease can be mentioned.
  • diseases states include types of illnesses such as epilepsy, stroke, and seizures.
  • the degree of the disease may be partial seizure or total seizure in the case of epilepsy.
  • stroke it may be unilateral or bilateral, right-sided or left-sided.
  • Types of diseases include cardiovascular diseases such as stroke, seizures, myocardial infarction, hypertension, and arrhythmia, sleep apnea syndrome, dementia, and decreased consciousness level due to diabetes.
  • the type of symptom may be included in the type of disease.
  • Symptoms include the degree of paralysis, palpitation, shortness of breath, constipation, fever, chills, diarrhea, numbness, and pain.
  • the type of disease may include the degree of the disease. For example, when the disease is a stroke, there are levels of stroke but no paralysis, mild paralysis, and paralysis.
  • the degree of the disease may be a level ID different from the disease ID. For example, in the case of epileptic seizures, there is a difference between partial epilepsy and generalized seizures.
  • a disease state there is a sign of a disease, a risk of developing a disease, and a risk of developing a symptom for a predetermined disease.
  • the degree of sign of the disease and the value of the risk of developing the disease may be used.
  • the judgment of the precursor of the symptom it may be judged by a single index or a combination of multiple indexes. For example, palpitation may be determined only by the heart rate, shortness of breath may be primarily determined by the respiratory rate (measured by the movement of the thorax, etc.), and blood pressure may be added to determine the "effect of shortness of breath".
  • the type of disease may include the type of organ or organ and the type of biological function.
  • the level of each organ or the state of the organ may be used. These levels may be levels corresponding to specific numerical values such as blood tests in consideration of the age, weight, etc. of the subject T.
  • the probability of occurrence of a predetermined disease may be used. Instead of the probability value, even if the predetermined disease is "disease A is hard to develop", “disease A is a little easy to develop”, “disease A is easy to develop”, “disease A is manifested”, etc. good.
  • a plurality of diseases may be used, for example, "disease A and disease B are likely to occur".
  • the type of disease may be a combination of a plurality of diseases.
  • the risk of developing disease A exceeds the first threshold
  • the risk of developing disease B exceeds the first threshold
  • the risk of developing disease A exceeds the nth threshold
  • the disease state it may be the level of physical condition.
  • the physical condition may be classified into “healthy” and “poor physical condition”, and the physical condition may be classified into "good, slightly good, slightly abnormal, abnormal” and the like.
  • the level of physical condition the name of the disease or the like does not have to be specified. Risks and levels are an example of a quantitative assessment. In these cases, it is difficult to identify the type of disease, but it may be a preliminary condition.
  • the level of physiological state may be based on the number exceeding the threshold value or the combination of diseases exceeding the threshold value for each disease.
  • the level of the physiological state the value of the predetermined physiological data (or the driving characteristic data of the subject T while each subject T is driving the vehicle V) "exceeds the first threshold value", ... It may be “exceeded the nth threshold”.
  • the level of physiology may be based on a combination of multiple data.
  • each physiological state may be handled in parallel in the vector space (feature space of the feature vector).
  • the index of each physiological state may be grasped in the n-dimensional vector space and treated like the level of the physiological state by the positional relationship in the vector space.
  • FIG. 3 is a block diagram showing an example of an outline configuration of the information processing server device 10.
  • FIG. 4 is a diagram showing an example of data stored in the target person information database.
  • FIG. 5 is a diagram showing an example of data stored in the manipulated variable database.
  • FIG. 6 is a diagram showing an example of data stored in the behavior amount database.
  • FIG. 7 is a diagram showing an example of data stored in the subject sensing database.
  • FIG. 8 is a diagram showing an example of data stored in the disease determination database.
  • FIG. 9A to 11C are graphs showing an example of line-of-sight data and driving characteristic data during driving.
  • 12A to 12C are diagrams showing an example of the degree of divergence between the line-of-sight movement and the driving characteristic and the elapsed time after the divergence.
  • 13A to 13C are graphs showing an example of the operation characteristic data data.
  • 14A to 16B are graphs showing an example of the time when the viewpoints are continuously located outside the central portion.
  • 17A and 17B are graphs showing an example of the average time in which the viewpoints are continuously located outside the central portion.
  • 18A and 18B are graphs showing an example of the ratio in which the viewpoints are continuously located outside the central portion.
  • FIG. 19 is a schematic diagram showing an example of data on the sitting pressure distribution.
  • 20 and 21 are schematic views showing an example of a time series of the seat pressure center data and the size of the seat pressure distribution.
  • the information processing server device 10 includes a communication unit 11, a storage unit 12, an output unit 13, an input unit 14, an input / output interface unit 15, and a control unit 16. ..
  • the control unit 16 and the input / output interface unit 15 are electrically connected to each other via the system bus 17. Further, the information processing server device 10 has a clock function.
  • the communication unit 11 is electrically or electromagnetically connected to the network N to control the communication state with the mobile terminal device 20 or the like.
  • the storage unit 12 is composed of, for example, a hard disk drive, a solid state drive, or the like.
  • the storage unit 12 stores data related to each vehicle V, data obtained by sensing each target person T, and the like.
  • the storage unit 12 stores various programs such as an operating system and a server program, various files, and the like.
  • the various programs and the like may be acquired from another server device or the like via the network N, or may be recorded on a recording medium and read via the drive device.
  • the target person information database 12a (hereinafter referred to as “target person information DB 12a”), the operation amount database 12b (hereinafter referred to as “operation amount DB 12b”), and the behavior amount database 12c (hereinafter referred to as “behavior”).
  • Quantity DB 12c ”), driving environment information database 12d (hereinafter referred to as“ driving environment information DB 12d ”), subject sensing database 12e (hereinafter referred to as“ subject sensing DB 12e ”), disease determination database 12f (hereinafter referred to as“ subject sensing DB 12e ”).
  • Disease determination DB12f and the like have been constructed.
  • the target person information DB 12a stores information and the like related to each target person T.
  • the target person information DB 12a is associated with the target person ID for identifying each target person T, and the name, gender, date of birth, and vehicle used by the target person T. Store ID and so on.
  • the operation amount DB 12b stores various operation amount data in which the target person T of each vehicle V operates the vehicle V.
  • the operation amount DB 12b is associated with the target person ID and the operation amount ID for specifying each operation amount, and various operations when the target person T is driving the vehicle V.
  • the measurement time at which the amount was measured, the position information of the vehicle V, the operation amount data, and the like are stored.
  • the operation amount ID is assigned according to each operation amount such as the steering angle of the steering wheel sw of the vehicle V, the accelerator stroke of the accelerator of the vehicle V, and the operation amount of the brake stroke.
  • a vehicle ID that identifies each vehicle V may be used.
  • the position information of the vehicle V is latitude / longitude information or link information.
  • the accelerator stroke is the amount of movement of the accelerator pedal.
  • the amount of operation of the accelerator pedal may be the number and frequency of sudden accelerations (the number and frequency of accelerations equal to or higher than a predetermined value).
  • Brake stroke is the amount of movement of the brake pedal.
  • the amount of operation of the brake pedal is the number and frequency of sudden braking (the number and frequency of deceleration above a predetermined value), the time from when the brake is required until the brake is depressed, and the brake pedal is depressed from the accelerator pedal. It may be the time until the brake is released.
  • the behavior amount DB 12c stores the behavior amount data indicating the behavior of each vehicle V driven by the subject T.
  • the behavior amount DB 12c measures the behavior amount data of the vehicle V driven by the target person T in association with the target person ID and the behavior amount ID for specifying each behavior amount.
  • the measurement time, the position information of the vehicle V, the behavior amount data, etc. are stored.
  • IDs are assigned according to each behavior amount such as the wobbling of the vehicle V, the distance from the vehicle in front, the lateral acceleration of the vehicle V, the speed of the vehicle, and the acceleration in the traveling direction of the vehicle.
  • a vehicle ID that identifies each vehicle V may be used.
  • the driving environment information DB12d contains map information, road attributes or types such as whether it is an expressway or a general road, the degree of curve of the road, and driving environment information such as road information of road conditions such as traffic congestion and construction. Is remembered.
  • the map information may include link information.
  • the link is a line segment of a road connecting nodes such as a road intersection and a road structural change point.
  • the degree of the curve of the road the curvature of the curve of the road, the average curvature in a certain section of the road, the ratio and the number of roads having a curvature of more than a predetermined value, etc. can be mentioned.
  • a road having many curves or a road having few curves may be simply used.
  • a pattern of the degree of curve of the road may be used.
  • a distinction between a road having a high degree of curve of the road such as the Tokyo Metropolitan Expressway and a road having a relatively large number of straight sections may be used.
  • the degree of curve of a road may be classified into road types such as general roads, expressways, Tokyo Metropolitan Expressways, and mountain roads. It is also possible to distinguish between a standard expressway with relatively few curves and an expressway with relatively many curves such as the Tokyo Metropolitan Expressway. It is also possible to distinguish between a highway that branches frequently, such as the Tokyo Metropolitan Expressway, and a highway that does not. Further, a collection of road portions having a curvature within a predetermined range may be used as a road division.
  • the driving environment information DB 12d stores the degree of curve of the road, the type of road, etc. in association with the road classification ID indicating the road classification.
  • road information such as a temporary stop location, a one-way road, a two-lane road, and a road with a median strip can be mentioned as an example of driving environment information.
  • driving environment information whether the road is narrow or wide, whether it is a road that is always used or a road that is used for the first time, whether there are many or few pedestrians, and a large amount of vehicle traffic (if not congested). Whether it is less or less.
  • driving environment information such as roads where sunlight is dazzling depending on the time of day, roads where drivers tend to get nervous, roads where heart rate tends to rise, length of driving time, probability of accidents occurring at each location, etc. Be done.
  • the traffic jam information may be information on whether or not there was a traffic jam, time zones such as rush hours, and infrastructure information such as road construction and accidents.
  • the information processing server device 10 acquires the latest road information from the road information providing server device. Further, the information processing server device 10 may store past congestion information.
  • the target person sensing DB 12e stores data obtained by sensing each target person T driving each vehicle V by various sensors. For example, as shown in FIG. 7, the target person sensing DB 12e associates the target person ID with the sensor ID for identifying each sensor, and measures the measurement time of the target person T by each sensor and the position information of the vehicle V. , Sensing data, etc. are stored.
  • the line-of-sight data indicating the position of the line-of-sight of the target person T measured while the target person T is driving the vehicle V, and the vehicle V are operated.
  • Examples include data on the seat pressure distribution on the seating surface on which the subject T sits, data on the rotation of the arm of the subject T operating the vehicle V, and the like.
  • the subject sensing data may be any biological, chemical, or physical data of the subject T that can be measured by a sensor or the like.
  • the body temperature and body temperature distribution of the subject T can be mentioned as an example of the subject sensing data.
  • blood and circulatory data such as blood pressure, heart rate, pulse wave, pulse wave velocity, electrocardiogram, arrhythmia state, blood flow, blood glucose level and other blood components are available.
  • blood components include red blood cell count, white blood cell count, platelet count, pH value, type of electrolyte, amount of electrolyte, type of hormone, amount of hormone, uric acid level, and various markers.
  • subject sensing data the amount of sweating, the distribution of sweating, the resistance value of the skin, the component of body odor, the amount of digestive juice such as the amount of saliva, and the component of digestive juice such as the component of saliva can be mentioned.
  • subject sensing data include data related to the brain such as electroencephalogram and cerebral blood flow distribution.
  • respiration such as respiratory rate, respiratory volume, and exhaled breath component.
  • subject sensing data examples include eye-related data such as the number of blinks, the amount of tears, and eye movements (eye position, pupil diameter, etc.).
  • eye-related data such as the number of blinks, the amount of tears, and eye movements (eye position, pupil diameter, etc.).
  • eye movements eye position, pupil diameter, etc.
  • myoelectricity of each part of the body As an example of the subject sensing data, data such as complexion and facial expression can be mentioned.
  • the quality of sleep may be determined from, for example, brain waves, eye movements, respiration, posture during sleep, and the like.
  • subject sensing data is weight, height, etc. Further, as an example of the subject sensing data, data obtained by quantifying symptoms such as pain and numbness may be used.
  • the measurement time in order to obtain a value of the subject sensing data, the time when the measurement is started, the time when the measurement is finished, or an intermediate time between them can be mentioned.
  • the measurement time may be any time associated with the measurement of a certain value. For example, when calculating the heart rate every minute, any time of this one minute may be used. Further, when the heart rate is calculated from the length of time between the R waves of the electrocardiogram, the peak time of the R wave, the time of the Q wave or the S wave, the peak time of the P wave, and the like can be mentioned. Instead of the time between R waves, it may be between P waves, Q waves, S waves, T waves, and the like.
  • the time when the common feature point appears or the intermediate value may be used.
  • the measurement time may be any time within the measurement period when calculating the systolic blood pressure and the diastolic blood pressure.
  • the above-mentioned subject sensing data can be said to be the physiological data of the subject T.
  • the sitting pressure distribution data may or may not be included in the physiological data.
  • the disease determination DB 12f stores data necessary for determining a predetermined disease.
  • the disease determination DB 12f stores data necessary for determining a predetermined disease in association with a disease ID indicating the type of the disease and the level of the disease.
  • the data required for determining a predetermined disease are, for example, operation values, behavior values, subject sensing data, and driving characteristic data statistically calculated from data of a plurality of subjects having the same disease ID and disease level.
  • the data necessary for determining a predetermined disease includes, for example, operation values and threshold values for these values.
  • the data necessary for determining a predetermined disease includes, for example, a frequency range at the time of frequency analysis and a predetermined frequency.
  • the data necessary for determining a predetermined disease may be, for example, statistical values of these values.
  • Typical statistics include mean values (arithmetic mean, geometric mean, harmonic mean, median, mode, maximum, minimum, etc.), variance, standard deviation, skewness, flatness, and the like. It should be noted that the statistic may be calculated by performing a plurality of measurements on the individual subject.
  • the operation amount data the behavior amount data, or the target person sensing data classified according to the road classification, the relationship value, the operation value, the behavior value, and the position of the line of sight are the visual fields of the target person T in the traveling direction of the vehicle V.
  • the time off the center of the road and the value of the magnitude of the sitting pressure distribution may be calculated for each road division.
  • the operation value is operation-related data in a component in a predetermined frequency range calculated from operation amount data, and is a value calculated from operation-related data.
  • the behavior value is a value calculated from the behavior data.
  • the operation-related data is data related to the operation amount data calculated from the operation amount data.
  • the operation-related data there are data obtained by discrete Fourier transforming the operation amount data, power spectrum density, time derivative data obtained by time-differentiating the operation amount data, time integration data obtained by time-integrating the operation amount data, and the like.
  • the operation-related data in the component of the predetermined frequency range data obtained by extracting the frequency component of the predetermined frequency range from the spectrum or the power spectrum can be mentioned.
  • the predetermined frequency range may be one frequency or all frequencies within a range determined by sampling data.
  • the operation-related data in the components of the predetermined frequency range may be data obtained by applying a filter such as a low-pass filter, a high-pass filter, or a band-pass filter to the raw operation amount data.
  • a filter such as a low-pass filter, a high-pass filter, or a band-pass filter
  • noise-cut data, data emphasizing a predetermined frequency component, and the like with respect to raw manipulated variable data can be mentioned.
  • the operation-related data in the components of a predetermined frequency range may be the data obtained by Fourier transforming the operation amount data or the power spectrum itself.
  • the behavior-related data is data related to the behavior amount data calculated from the behavior amount data.
  • the target person sensing-related data is data related to the target person sensing data calculated from the target person sensing data. The same applies to the above operation-related data and the behavior-related data and the target person sensing-related data.
  • the value of the relationship between the subject sensing data and the driving characteristic data is, for example, the degree of divergence between the line-of-sight data and the manipulated variable data, the degree of divergence between the line-of-sight data and the behavior amount, and the value of the relationship is the subject sensing data. It may be a correlation coefficient with the operation characteristic data.
  • the time when the position of the line of sight deviates from the center of the field of view of the subject T in the traveling direction of the vehicle V is the duration during which the viewpoint is continuously (for example, 50 ms, 100 ms or more) and located outside the center, the average time, etc. Is.
  • the size value of the sitting pressure distribution is the sitting pressure area, ratio, etc. where the sitting pressure is equal to or more than a predetermined value.
  • the data of the disease determination DB 12f may be data when the subject T drives in a driving simulator or data when the subject T drives on an actual road.
  • a standard highway driving simulator course has a total length of 15.2 km, an average radius of curvature of 1640 m, and a height difference of 0.0 m.
  • the driving simulator course on the Tokyo Metropolitan Expressway has a total length of 13.2 km, an average radius of curvature of 257 m, and a height difference of 17.5 m.
  • FIGS. 9 to 22 are used when the operation amount data, the behavior amount data, and the subject sensing are measured for a healthy person and a patient having epilepsy with a disease type of epilepsy.
  • the data of the disease determination DB 12f will be described.
  • FIGS. 9A to 21 show measurement examples when the drive simulator is used to drive on a predetermined course whose road classification is the Tokyo Metropolitan Expressway or the like.
  • FIGS. 9A to 9C are graphs showing an example of line-of-sight data and steering angle data when the road is driven on a predetermined course on the Tokyo Metropolitan Expressway with a drive simulator.
  • FIG. 9A shows the data of a healthy subject.
  • FIG. 9B shows non-seizure data for subjects with epileptic disease.
  • FIG. 9C shows data of subjects with epileptic disease at the time of seizures.
  • the line-of-sight data is shown by a solid line in the figure.
  • the steering angle data is shown by a broken line in the figure.
  • the horizontal axis is time.
  • the vertical axis (X-coordinate of line-of-sight: X-AXIS OF GAZE POINT) is the value of the position of the line-of-sight in the horizontal direction with respect to the traveling direction of the vehicle V, and the upper direction of the vertical axis in the figure is the line-of-sight. To the right of, the downward direction of the vertical axis in the figure indicates the left direction of the line of sight.
  • the vertical axis (steering angle: STEERING WHEEL ANGLE) is the angle of the steering angle. Is shown.
  • the data necessary for determining the illness such as the relationship between the line-of-sight data and the steering angle data are the reference values, the index ID of the index indicating the relationship between the line-of-sight data and the steering angle data, and the sensor corresponding to the line-of-sight data. It is stored in the disease determination DB 12f in association with the ID, the operation amount ID of the steering angle, the road division ID indicating the road division, and the disease ID indicating the epilepsy.
  • the threshold value of the relationship between the line-of-sight data and the steering angle data may be set from an average value at the time of non-seizure or at the time of seizure and stored in the disease determination DB 12f.
  • FIGS. 10A to 10C are graphs showing an example of line-of-sight data and steering torque data when a drive simulator is used to drive on a predetermined course whose road division is the Tokyo Metropolitan Expressway.
  • FIG. 10A shows data of a healthy subject.
  • FIG. 10B shows non-seizure data for subjects with epileptic disease.
  • FIG. 10C shows data of subjects with epileptic disease at the time of seizures.
  • the line-of-sight data is shown by a solid line in the figure as in FIG.
  • the steering torque data is shown by a broken line in the figure.
  • the horizontal axis is time.
  • the vertical axis (steering torque: STEERING WHEEL TORQUE) is the steering torque value. Is shown.
  • the data necessary for determining the tantrum is the reference value, which is the index ID of the index indicating the relationship between the line-of-sight data and the steering torque data, and the sensor corresponding to the line-of-sight data.
  • the ID, the steering torque operation amount ID, the road classification ID indicating the road classification, and the disease ID indicating the epilepsy are stored in the disease determination DB 12f in association with each other.
  • the threshold value of the relationship between the line-of-sight data and the steering torque data may be set from an average value at the time of non-seizure or at the time of seizure and stored in the disease determination DB 12f.
  • FIGS. 11A to 11C are graphs showing an example of line-of-sight data and vehicle lateral acceleration data when a drive simulator is used to drive on a predetermined course whose road division is the Tokyo Metropolitan Expressway.
  • FIG. 11A shows data of a healthy subject.
  • FIG. 11B shows non-seizure data for subjects with epileptic disease.
  • FIG. 11C shows data of subjects with epileptic disease at the time of seizures.
  • the line-of-sight data is shown by a solid line in the figure as in FIG.
  • the vehicle lateral acceleration data is shown by a broken line in the figure.
  • the horizontal axis is time.
  • the vertical axis (Vehicle lateral acceleration: VEHICLE LATERAL ACCELERATION) is the lateral acceleration of the vehicle V
  • the upper axis of the vertical axis in the figure is to the right with respect to the traveling direction of the vehicle V.
  • the downward direction on the middle vertical axis indicates the left direction with respect to the traveling direction of the vehicle V.
  • the data necessary for determining the tantrum such as the relationship between the line-of-sight data and the vehicle lateral acceleration data
  • the data necessary for determining the tantrum is used as the reference value in the index ID of the index showing the relationship between the line-of-sight data and the vehicle lateral acceleration data and the line-of-sight data. It is stored in the disease determination DB 12f in association with the corresponding sensor ID, the behavior amount ID of the vehicle lateral acceleration, the road classification ID indicating the road classification, and the disease ID indicating the epilepsy.
  • the threshold value of the relationship between the line-of-sight data and the vehicle lateral acceleration data may be set from an average value at the time of non-seizure or at the time of seizure and stored in the disease determination DB 12f.
  • the vertical axis is the elapsed time (ELAPSED TIME).
  • the horizontal axis is the degree of dissociation (DEGREE OF DISSOCIATION).
  • the degree of deviation between the line of sight and the steering angle is, for example, the difference value between the two values calculated every 0.5 seconds after conversion so that the maximum value of both the line of sight position and the steering angle becomes 100.
  • the elapsed time is, for example, the time elapsed since the degree of deviation exceeds D0th.
  • white circles indicate the degree of divergence before the onset of seizures (during non-seizures)
  • black circles indicate the degree of divergence at the time of seizures
  • cross marks indicate the degree of divergence in healthy subjects.
  • the degree of divergence may be high. However, looking at both the degree of divergence and the elapsed time after the divergence, it was found that the characteristics at the time of seizure can be grasped and that the time of non-seizure and the time of seizure can be clearly distinguished. As shown in FIG. 12A, for example, when the threshold value of the degree of divergence is Dth or more and the threshold value of the elapsed time is Tth or more, the seizure time and the non-seizure time can be clearly distinguished.
  • the degree of divergence between the line-of-sight data and the steering angle data, and the data necessary for determining epilepsy such as the elapsed time of this divergence, are the reference values of the degree of divergence between the line-of-sight data and the steering angle data and the elapsed time. It is stored in the disease determination DB 12f in association with the index ID of the index to be shown, the sensor ID corresponding to the line-of-sight data, the operation amount ID of the steering angle, the road classification ID indicating the road classification, and the disease ID indicating epilepsy. ..
  • the threshold value of the degree of divergence between the line-of-sight data and the steering angle data and the threshold value of the elapsed time of the degree of divergence are set from the average values at the time of non-seizure or at the time of seizure, and are stored in the disease determination DB 12f. good.
  • the graph of the elapsed time after the degree of divergence exceeds a predetermined value is different from that of a healthy person.
  • the case before the start of the seizure and the case at the time of the seizure of the subjects with epilepsy disease were compared.
  • the degree of deviation between the line of sight and the steering torque is, for example, the difference value between the two values calculated every 0.5 seconds after the maximum value of both the line of sight position and the steering torque is converted to 100.
  • the elapsed time is, for example, the time elapsed since the degree of deviation exceeds D0th.
  • the degree of divergence may be high.
  • the characteristics at the time of seizure can be grasped and that the time of non-seizure and the time of seizure can be clearly distinguished.
  • the threshold value of the degree of divergence is Dth or more and the threshold value of the elapsed time is Tth or more, the seizure time and the non-seizure time can be clearly distinguished.
  • the degree of divergence between the line-of-sight data and the steering torque data, and the data necessary for determining epilepsy such as the elapsed time of this divergence, are the reference values of the degree of divergence between the line-of-sight data and the steering torque data and the elapsed time. It is stored in the disease determination DB 12f in association with the index ID of the index to be shown, the sensor ID corresponding to the line-of-sight data, the operation amount ID of the steering torque, the road classification ID indicating the road classification, and the disease ID indicating epilepsy. ..
  • the threshold value of the degree of divergence between the line-of-sight data and the steering torque data and the threshold value of the elapsed time of the degree of divergence are set from the average values at the time of non-seizure or at the time of seizure, and are stored in the disease determination DB 12f. good.
  • the degree of deviation between the line of sight and the lateral acceleration of the vehicle is, for example, the difference value between the two values calculated every 0.5 seconds after converting the position of the line of sight and the steering torque so that the maximum values are 100.
  • the elapsed time is, for example, the time elapsed since the degree of deviation exceeds D0th.
  • the degree of divergence may be high even during non-attack if the elapsed time value is short.
  • looking at both the degree of divergence and the elapsed time after the divergence it was found that the characteristics at the time of seizure can be grasped and that the time of non-seizure and the time of seizure can be clearly distinguished.
  • the threshold value of the degree of divergence is Dth or more and the threshold value of the elapsed time is Tth or more, the seizure time and the non-seizure time can be clearly distinguished.
  • the degree of divergence between the line-of-sight data and the vehicle lateral acceleration data and the data necessary for determining the tantrum such as the elapsed time of this divergence are the reference values, and the degree of divergence between the line-of-sight data and the vehicle lateral acceleration data and the elapsed time thereof.
  • the threshold value of the degree of deviation between the line-of-sight data and the vehicle lateral acceleration data and the threshold value of the elapsed time of the degree of deviation are set from the average values at the time of non-seizure or at the time of seizure, and are stored in the disease determination DB 12f. May be good.
  • a seizure time and a non-seizure time can be clearly distinguished when the divergence degree is equal to or more than the predetermined divergence degree and the predetermined elapsed time or more.
  • 13A to 13C are graphs showing an example of driving characteristic-related data obtained by frequency-analyzing the driving characteristic data.
  • the horizontal axis is frequency
  • the vertical axis is power spectral density (PSD), which is a logarithmic scale.
  • PSD power spectral density
  • the symbol (a) is the data before the start of the seizure of the subject from the start of the vehicle
  • the symbol (b) is the data of the section where the seizure occurred
  • the symbol (c) is the data of the same subject at the time of no seizure.
  • the data and the symbol (d) indicate the data of a healthy person.
  • FIG. 13A is a graph showing an example of operation-related data obtained by Fourier transforming the steering angle data.
  • the power spectral densities at the time of non-seizure were almost the same in both the subjects having epilepsy disease and the healthy subjects (symbols (a), (c), (d)).
  • symbol (b) the power spectral density decreased over the entire frequency range during the attack.
  • FIG. 13B is a graph showing an example of operation-related data obtained by Fourier transforming steering torque data.
  • the power spectral densities at the time of non-seizure were almost the same in both the subjects having epilepsy disease and the healthy subjects (symbols (a), (c), (d)).
  • symbol (b) the power spectral density decreased over the entire frequency range during the attack.
  • FIG. 13C is a graph showing an example of behavior-related data obtained by Fourier transforming vehicle lateral acceleration data.
  • the power spectral densities at the time of non-seizure were almost the same in both the subjects having epilepsy disease and the healthy subjects (symbols (a), (c), (d)).
  • symbol (b) the power spectral density decreased over the entire frequency range during the attack.
  • the power spectral density p0 with respect to the frequency f0 (an example of the operation value), the power spectral density p1 with respect to the frequency f1, and the like may be set as the determination threshold values.
  • the power spectral density p2 (an example of the operation value) with respect to the frequency f2 may be set as the determination threshold value.
  • the power spectral density p3 (an example of the behavior value) with respect to the frequency f3 may be set as the determination threshold value.
  • a frequency range may be set in advance instead of a specific frequency.
  • the difference between the power spectral densities may be used. It may be the square root of the integral value of the difference in power spectral density in a specific frequency range based on the case of non-seizure or a healthy person. As long as the disease state can be distinguished, the square root may not be calculated, and the integrated value or the sum of the power spectral densities may be used.
  • the data necessary for determining epilepsy such as these operation values or behavior values, frequency values or frequency ranges are the operation amount ID or behavior amount ID as the reference operation value or behavior value and the road classification ID indicating the road classification. Is stored in the disease determination DB 12f in association with the disease ID indicating epilepsy.
  • the threshold value of the specific power spectral density with respect to the specific frequency may be set from the average value at the time of non-seizure or at the time of seizure and stored in the disease determination DB 12f.
  • FIGS. 14A to 18B are graphs showing an example of the time when the viewpoint is continuously located outside the center of the visual field.
  • the field of view is, for example, the field of view of the subject T in the traveling direction of the vehicle V.
  • the central part of the field of view indicates the range of the central part centered on the front of the vehicle V.
  • the vertical axis (duration: DURATION) is the duration in which the viewpoint is continuous (for example, 50 ms, 100 ms or more) and outside the central part.
  • the horizontal axis (the number of times the viewpoint is located outside the center: NUMBER OF TIMES OF GAZING OUTSIDE FORWARD VIEW) is the count in which the cases where the viewpoint is continuously outside the center are arranged in order. That is, the horizontal axis is the total number of times the viewpoint deviates from the set central range.
  • FIGS. 14A and 15A are data before the start of the seizure of the subject from the start of the vehicle
  • FIGS. 14B and 15B are data of the section where the seizure occurred
  • FIGS. 14C and 15C are the data of the same subject at the time of no seizure.
  • Data, FIGS. 14D and 15D show data for healthy individuals.
  • the shape of the central part of the field of view of the subject may be a circle, an ellipse, a square, a rectangle, or the like.
  • the size of the central part of the subject's field of view is the diameter of a circle, the major and minor axes of an ellipse, the length and diagonal of one side of a square, the length and width of a rectangle, the length of the diagonal of a rectangle, etc. be.
  • the viewpoint may be continuously located outside the central part for a long time.
  • the range of the central part is set small, the probability of detecting "the viewpoint is continuously located outside the central part" (detection sensitivity of epilepsy attack) increases, but if it is set too small, epilepsy May be falsely detected as a seizure.
  • the range of the central portion is set wide, the possibility of erroneous detection is low, but the detection sensitivity is considered to be low. Therefore, it is better that the setting of the central portion is not limited, and epilepsy may be detected by changing the case where the setting is small and the case where the setting is large, or a combination thereof.
  • FIG. 16A and 16B show the subject's seizure start (BEFORE SEIZURE), the section where the seizure occurred (SEIZURE PERIOD), the same subject's non-seizure (DRIVING WITHOUT SEIZURE), and the healthy subject (HEALTHY SUBJECT). It is the figure which plotted each duration in the case of.
  • FIG. 16A shows a case where the range of the central portion of the field of view is set narrow.
  • FIG. 16B shows a case where the range of the central portion of the field of view is set wide.
  • the duration thresholds Tth1 and Tth2 can be distinguished from the onset of epilepsy.
  • the data necessary for determining epilepsy such as these durations is used as the reference target sensing value in association with the sensor ID corresponding to the wearable terminal device w2, the road classification ID, and the disease ID indicating epilepsy to determine the disease. It is stored in DB12f.
  • the duration thresholds Tth1, Tth2, etc. may be set from the average values at the time of non-seizure or at the time of seizure and stored in the disease determination DB 12f.
  • FIG. 17A and 17B show the average time (AVERAGE DURATION) in which the viewpoints are continuous (for example, 50 ms, 100 ms or more) and located outside the center, from the start of the vehicle to the start of the seizure of the subject and the section in which the seizure occurred. It is a figure shown in the case of a non-seizure of the same subject and a healthy subject.
  • FIG. 17A shows a case where the range of the central portion is set narrow.
  • FIG. 17B shows a case where the range of the central portion is set wide.
  • the threshold Tth of the average time can be distinguished from the onset of epilepsy.
  • the data necessary for determining epilepsy such as the average time is used as a reference target sensing value in association with the sensor ID corresponding to the wearable terminal device w2, the road classification ID, and the disease ID indicating epilepsy to determine the disease. It is stored in DB12f.
  • the average time threshold Tth and the like may be set from the average value at the time of non-seizure or at the time of seizure and stored in the disease determination DB 12f.
  • the ratio (RATE OF DURATION) in which the viewpoints are continuously (for example, 50 ms, 100 ms or more) and located outside the center is set from the start of the vehicle to the start of the seizure of the subject and the section in which the seizure occurred. It is a figure shown in the case of a non-seizure of the same subject and a healthy subject.
  • FIG. 18A shows a case where the range of the central portion is set narrow.
  • FIG. 18B shows a case where the range of the central portion is set wide.
  • the ratio is calculated from, for example, the number of frames outside the center / the total number of frames in the video frame of the moving image of the camera that captures the eyes of the subject T.
  • the percentage may be calculated from the total time of the time / interval in which the viewpoint is located outside the center.
  • the ratio of the time during which the viewpoint is continuously located outside the center during non-seizure does not exceed R1, but the viewpoint is continuously outside the center during the seizure section.
  • the ratio of time to be located is about R2.
  • the threshold values R1 and R2 can be distinguished from the onset of epilepsy.
  • the data necessary for determining epilepsy such as these ratios is the reference target person sensing value, which is associated with the sensor ID corresponding to the wearable terminal device w2, the road classification ID, and the disease ID indicating epilepsy, and the disease determination DB12f. Is remembered in.
  • the ratio thresholds R1, R2, etc. may be set from the average value at the time of non-seizure or at the time of seizure and stored in the disease determination DB 12f.
  • FIG. 19 is an example of the seat pressure distribution data measured by the seat sensor ss2.
  • the degree of bias (an example of the subject sensing value) calculated from the sitting pressure distribution data as shown in FIG. 19 is averaged for a plurality of measurements.
  • the plurality of measurements may be a plurality of measurements for the same person, or may be a measurement for a plurality of people with the same attribute.
  • the data necessary for determining a predetermined disease such as the average degree of bias is stored in the disease determination DB 12f in association with the sensor ID corresponding to the sheet sensor ss, the road classification ID, and the disease ID as the reference target sensing value. Be remembered.
  • the degree of bias is calculated from the center position of the sitting pressure distribution.
  • the center position is, for example, the seat pressure center position COP (Center of Position) of the seat pressure distribution calculated from the seat pressure distribution.
  • the sitting pressure center position is, for example, the center of gravity (Gx, Gy) of the sitting pressure distribution.
  • the center of gravity of the sitting pressure distribution is a weighted average position of each point of the sitting pressure heat map with the value of the heat map at that position as a weight.
  • the degree of bias is the value Gx of the position of the center of gravity on the x-axis starting from the origin (0,0) of the seat sensor ss.
  • the seat pressure center position may be a value calculated from the entire points of the seat pressure heat map of the seat pressure distribution.
  • the center position may be, for example, a shape center position calculated from the distribution shape of the sitting pressure distribution.
  • the shape center position is, for example, COB (Center of Body).
  • the degree of bias is the value of the position of COB on the x-axis starting from the origin (0,0) of the seat sensor ss, which is an example of the center of the left and right positions of the seat of the vehicle V.
  • the COB is determined from the constricted portion of the distribution shape.
  • the front side, the rear side, the left side, and the right side in the drawing represent the orientation of the target person T when the target person T sits on the seat.
  • the degree of bias may be the difference between the shape center position and the sitting pressure center position.
  • the degree of bias is Gx-COB or COB-Gx.
  • FIG. 20 and 21 are schematic views showing an example of a time series of the seat pressure center data and the size of the seat pressure distribution.
  • the graph (a) is the x-coordinate position of the COP (COP COORDINATE)
  • the graph (b) is the y-coordinate position of the COP (COP COORDINATE)
  • the graph (c) is an example of the size of the sitting pressure distribution.
  • It is a certain seat pressure area (AREA OF SEAT PRESSURE).
  • the seat pressure area is shown, for example, as a ratio of a portion of the entire seat surface to which pressure is applied.
  • the sitting pressure area is calculated at a rate at which the sitting pressure is equal to or greater than a predetermined value.
  • FIG. 20 shows an example of data of a healthy subject.
  • FIG. 21 shows an example of data when epilepsy occurs at t0 at the time of an attack in a subject having an epilepsy disease.
  • the sitting pressure area did not change much.
  • the COP changed significantly at t0 at the time of the epileptic seizure, and the sitting pressure area became narrower, that is, it became equal to or less than the threshold value Sth of the sitting pressure area.
  • the sitting pressure area is averaged for multiple measurements.
  • Data necessary for determining epileptic diseases such as the threshold of the average sitting pressure area are associated with the sensor ID corresponding to the seat sensor ss, each road division ID, and each disease ID as the reference target sensing value. It is stored in the disease determination DB 12f.
  • the threshold value Sth of the sitting pressure area may be set from an average value at the time of non-seizure or at the time of seizure and stored in the disease determination DB 12f.
  • the target person information DB 12a, the operation amount DB 12b, the behavior amount DB 12c, the driving environment information DB 12d, the target person sensing DB 12e, and the disease determination DB 12f are different servers connected to the information processing server device 10 by a network even in the information processing server device 10. Alternatively, it may be distributed in the network N. These may be separate databases or may be in the same database.
  • the output unit 13 When outputting video, the output unit 13 has, for example, a liquid crystal display element, an EL (Electro Luminescence) element, or the like.
  • the output unit 13 has a speaker when outputting sound.
  • the input unit 14 has, for example, a keyboard, a mouse, and the like.
  • the input / output interface unit 15 is configured to perform interface processing between the communication unit 11, the storage unit 12, and the control unit 16.
  • the control unit 16 has a CPU (Central Processing Unit) 16a, a ROM (Read Only Memory) 16b, a RAM (Random Access Memory) 16c, and the like. Then, the control unit 16 determines the disease state of each subject T by the CPU 16a reading and executing the codes of various programs stored in the ROM 16b and the storage unit 12.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • FIG. 22 is a block diagram showing an example of an outline configuration of the mobile terminal device 20.
  • the mobile terminal device 20 includes an output unit 21, a storage unit 22, a communication unit 23, an input unit 24, a sensor unit 25, an input / output interface unit 26, and a control unit 27.
  • the control unit 27 and the input / output interface unit 26 are electrically connected via the system bus 28.
  • a mobile terminal ID is assigned to each mobile terminal device 20.
  • the mobile terminal device 20 has a clock function.
  • the mobile terminal device 20 may have a vibration function that vibrates the mobile terminal device 20.
  • the output unit 21 has, for example, a liquid crystal display element, an EL element, or the like as a display function.
  • the output unit 32 has a speaker that outputs sound.
  • the storage unit 22 is composed of, for example, a hard disk drive, a solid state drive, or the like.
  • the storage unit 22 stores various programs such as an operating system and an application for the mobile terminal device 20.
  • the various programs may be acquired from another server device or the like via the network N, or may be recorded on a recording medium and read via the drive device. Further, the storage unit 22 may have information in a database such as the storage unit 12 of the information processing server device 10.
  • the communication unit 23 is electrically or electromagnetically connected to the network N to control the communication state with the information processing server device 10 and the like. Further, the communication unit 23 is electrically or electromagnetically connected to the information processing server device 10 to control the communication state with the information processing server device 10.
  • the communication unit 23 has a wireless communication function for communicating with the terminal device by radio waves or infrared rays.
  • the mobile terminal device 20 communicates with the in-vehicle terminal device 30 and the home terminal device 40 via the communication unit 23.
  • the mobile terminal device 20 carried by the subject T includes a seat sensor ss installed in the seat where the subject T is sitting and a wearable terminal worn by the subject T. Communication is performed with the devices w1 and w2 via the communication unit 23.
  • the mobile terminal device 20 may perform wired communication with the in-vehicle terminal device 30, the home terminal device 40, the seat sensor ss, and the wearable terminal devices w1 and w2.
  • the communication unit 23 may communicate with the IC tag as a reader of the IC tag.
  • the input unit 24 has, for example, a touch switch type display panel such as a touch panel.
  • the input unit 24 acquires the position information of the output unit 21 that the user's finger touches or is close to.
  • the input unit 24 has a microphone for inputting voice.
  • the sensor unit 25 has various sensors such as a GPS (Global Positioning System) sensor, an orientation sensor acceleration sensor, a gyro sensor, a pressure sensor, a temperature sensor, and a humidity sensor.
  • the sensor unit 25 includes imaging elements such as a CCD (Charge Coupled Device) image sensor of a digital camera and a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the mobile terminal device 20 acquires the current position information of the mobile terminal device 20 by the GPS sensor. A unique sensor ID is assigned to each sensor.
  • the input / output interface unit 26 performs interface processing between the output unit 21, the storage unit 22, and the control unit 27.
  • the control unit 27 is composed of a CPU 27a, a ROM 27b, a RAM 27c, and the like. Then, the control unit 27 reads and executes various programs stored in the ROM 27b and the storage unit 22 by the CPU 27a.
  • the wearable terminal device w1 is a wristband type wearable computer.
  • the wearable terminal device w1 has an output unit, a storage unit, a communication unit, an input unit, a sensor unit, an input / output interface unit, a control unit, and a timer unit (not shown).
  • the sensor unit of the wearable terminal device w1 measures various physiological data of the subject T.
  • the sensor unit includes an acceleration sensor, a gyro sensor, a temperature sensor, a pressure sensor, an ultrasonic sensor, an optical sensor, an electric sensor, a magnetic sensor, an image sensor, and the like.
  • a unique sensor ID is assigned to each sensor.
  • the acceleration sensor measures the acceleration of the wearable terminal device w1. From the measurement data of the acceleration sensor, the movement of the arm of the subject T is measured.
  • the gyro sensor measures the angular acceleration of the wearable terminal device w1. From the measurement data of the gyro sensor, the rotation of the arm of the subject T is measured.
  • the wearable terminal device w1 may measure the posture during sleep, the number of times of turning over, the number of steps, and the like by using an acceleration sensor or a gyro sensor.
  • the temperature sensor measures the temperature of the contacted part or the part imaged by thermography.
  • the pressure sensor measures, for example, a pulse wave.
  • the optical sensor detects the response of irradiating the skin or the like with an electromagnetic wave, that is, at least one of a reflected wave and a transmitted wave. The speed of blood flow, blood components, etc. are measured by an optical sensor.
  • Ultrasonic sensors detect at least one of the reflected and transmitted waves, that is, the response to the ultrasonic waves.
  • the electric sensor measures voltage, current, impedance, etc.
  • the electric sensor measures the electric field generated by the work of muscles, blood flow, nerve excitement, and the like.
  • the electric sensor also functions as a chemical sensor, a pH sensor, etc. by detecting a sweat component or the like in combination with an electrode.
  • the magnetic sensor measures the magnetic field generated by muscle function, blood flow, nerve excitement, etc.
  • the image sensor detects skin color, surface temperature, surface movement, blood flow, sweat state, etc.
  • the sensor unit has a GPS sensor, a directional sensor, a barometric pressure sensor, and the like.
  • the wearable terminal device w1 may measure the moving distance, the amount of exercise, and the like by using these sensors.
  • the microphone of the input unit may capture the sleeping snoring and breath sounds of the subject T.
  • the target person sensing data measured by the sensor embedded in the sensor unit of the wearable terminal device w1 or the contact portion with the target person such as the steering wheel is transmitted to the mobile terminal device 20 via the communication unit.
  • the wearable terminal device w1 may transmit the measured target person sensing data to the in-vehicle terminal device 30.
  • the wearable terminal device w2 is a glasses-type wearable computer. Like the wearable terminal device w1, the wearable terminal device w2 has an output unit, a storage unit, a communication unit, an input unit, a sensor unit, an input / output interface unit, a control unit, and a timer unit. (Not shown).
  • the sensor unit of the wearable terminal device w2 further has a sensor for measuring the movement of the viewpoint.
  • this sensor unit has an LED that irradiates a light beam such as far infrared rays that irradiates the eyeball, and an eye tracking camera that photographs the eyes of the subject T.
  • the control unit of the wearable terminal device w2 calculates the position of the line of sight of the subject T from the position of the reflection point and the pupil on the cornea from the image, and outputs the line of sight data from the output unit.
  • the wearable terminal device w2 mainly measures the position of the line of sight, blinking, the size of the pupil, and the like.
  • the wearable terminal device w2 does not irradiate a light beam such as far infrared rays from the LED of the sensor unit, but performs image processing from the image of the camera that captures the eyes of the subject T, and forms the white sclera portion and the cornea.
  • the position of the line of sight may be specified by distinguishing between.
  • the sensor unit of the wearable terminal device w2 is an eye tracker and may have only an eye tracking function.
  • the wearable terminal device w2 may be a contact lens type.
  • the sensor unit of the wearable terminal device w2 may have a sensor for measuring myoelectricity. This sensor unit may measure the myoelectricity around the eye, calculate the orientation of the eyeball, and obtain the line-of-sight data. Further, the wearable terminal device w2 may measure the pulse, blood pressure, body temperature, etc. from the temple portion.
  • the types of the wearable terminal devices w1 and w2 may be a ring type, a shoe type, a pocket type, a necklace type, a clothing type, or the like, in addition to the eyeglass type and the wristband type shown in FIG.
  • FIG. 23 is a block diagram showing an example of an outline configuration of the in-vehicle terminal device 30.
  • the in-vehicle terminal device 30 includes an output unit 31, a storage unit 32, a communication unit 33, an input unit 34, a sensor unit 35, an input / output interface unit 36, and a control unit 37.
  • the control unit 37 and the input / output interface unit 36 are electrically connected via the system bus 38.
  • a vehicle ID is assigned to each in-vehicle terminal device 30.
  • the in-vehicle terminal device 30 has a clock function.
  • the in-vehicle terminal device 30 is, for example, a navigation device mounted on the vehicle V.
  • the output unit 31 has, for example, a liquid crystal display element, an EL element, or a speaker that outputs sound such as music as a display function.
  • the storage unit 32 is composed of, for example, a hard disk drive, a solid state drive, or the like.
  • the storage unit 32 stores various programs such as an operating system and an application for the in-vehicle terminal device 30.
  • the various programs may be acquired from another server device or the like via the network N, or may be recorded on a recording medium and read via the drive device. Further, the storage unit 32 may have information in a database such as the storage unit 12 of the information processing server device 10.
  • the storage unit 32 has map information for navigating the vehicle V.
  • the target person information DB, the operation amount DB, and the behavior amount DB are described in the storage unit 32 with respect to the target person T (s) driving the vehicle V on which the in-vehicle terminal device 30 is mounted, as in the storage unit 12.
  • the driving environment information DB, and the target person sensing DB may be constructed.
  • the communication unit 33 is electrically or electromagnetically connected to the network N to control the communication state with the information processing server device 10 and the like. Further, the communication unit 33 is electrically or electromagnetically connected to the information processing server device 10 to control the communication state with the information processing server device 10.
  • the communication unit 33 controls communication with the mobile terminal device 20 by wireless communication.
  • the communication unit 33 may communicate with the seat sensor ss and the wearable terminal devices w1 and w2.
  • the communication unit 33 communicates with the drive mechanism of the vehicle V. For example, a control signal is transmitted to the drive mechanism of the vehicle V via the communication unit 33 of the in-vehicle terminal device 30, and the vehicle V is stopped, stopped at a predetermined place, or navigated to a predetermined place such as a hospital. do.
  • the input unit 34 has, for example, a touch switch type display panel such as a touch panel.
  • the input unit 34 acquires the position information of the output unit 31 that the user's finger touches or is close to.
  • the input unit 34 has a microphone for inputting voice.
  • the sensor unit 35 has various sensors for measuring the amount of operation such as an angle sensor for measuring the steering angle of the steering wheel sw, an accelerator stroke sensor for measuring the operation of the accelerator, and a break stroke sensor for measuring the operation of the brake pedal.
  • the sensor unit 35 has various sensors that measure the amount of behavior of the vehicle V, such as a GPS sensor, an orientation sensor, an acceleration sensor, a gyro sensor, and a sensor for millimeter-wave radar.
  • the GPS sensor acquires the current position information of the vehicle V.
  • the sensor unit 35 has various sensors such as a barometric pressure sensor, a temperature sensor, and a sunny rain sensor.
  • the sensor unit 35 has a photographing element such as a CCD image sensor or a CMOS image sensor of a digital camera.
  • a photographing element such as a CCD image sensor or a CMOS image sensor of a digital camera.
  • the sensor unit 35 has a camera 35a and a camera 35b.
  • the camera 35a images the outside of the vehicle V.
  • the amount of behavior of the vehicle V is measured from the image of the camera 35a.
  • the wobble data which is an example of the behavior amount data of the vehicle V
  • the camera of the sensor unit 35 may measure the inter-vehicle distance, the stop position, or the lane deviation.
  • the camera of the sensor unit 35 may measure the condition of the road surface (presence or absence of rain, presence or absence of snow, presence or absence of pavement, etc.) or the presence or absence of humans.
  • the camera 35b captures the subject T.
  • the in-vehicle terminal device 30 authenticates the target person T by face recognition, measures the complexion of the target person T, and determines whether or not the target person T is asleep based on the image of the camera 35b. Further, the operation amount may be measured from the movement of the target person T based on the image data of the camera that captures the inside of the vehicle V.
  • the camera 35b may be a camera for eye tracking.
  • the camera 35b may capture the reflected light by irradiating the eyes with a light ray such as far infrared rays.
  • the input / output interface unit 36 performs interface processing between the output unit 31, the storage unit 32, and the like and the control unit 37.
  • the control unit 37 is composed of a CPU 37a, a ROM 37b, a RAM 37c, and the like. Then, the control unit 37 reads and executes various programs stored in the ROM 37b and the storage unit 32 by the CPU 37a.
  • FIG. 24 is a flowchart showing an operation example of data collection.
  • FIG. 25 is a schematic view showing an example of the road on which the vehicle V travels.
  • the subject T gets on the vehicle V and the power of the in-vehicle terminal device 30 is turned on.
  • the in-vehicle terminal device 30 identifies the driver of the vehicle V.
  • the subject T may be imaged by the camera 35b of the in-vehicle terminal device 30 to perform face recognition.
  • the in-vehicle terminal device 30 may communicate with the mobile terminal device 20 of the target person T or the wearable terminal devices w1 and w2 to identify the target person T.
  • the in-vehicle terminal device 30 may identify the target person T by a fingerprint recognition sensor that becomes the steering wheel sw of the vehicle V.
  • the in-vehicle terminal device 30 may identify the driver by combining these methods for identifying the target person T.
  • the target person T may be specified by the mobile terminal ID of the mobile terminal device 20 carried by the target person T.
  • target person T may be an actual vehicle or may be driven by a drive simulator.
  • the in-vehicle terminal device 30 When the target person T drives the vehicle V, the in-vehicle terminal device 30 starts measuring the operation amount data and the behavior amount data.
  • the mobile terminal device 20 measures the sensing data.
  • the disease state determination system S collects data from each sensor of the vehicle V (step S1). Specifically, the control unit 37 of the vehicle-mounted terminal device 30 acquires the data measured by each sensor of the sensor unit 35 together with the measurement time of the clock function from each sensor. For example, the control unit 37 acquires operation amount data such as steering angle data, accelerator stroke data, and brake stroke data of the steering angle of the steering wheel sw from each sensor of the sensor unit 35 as the operation amount of the vehicle V. Further, the control unit 37 acquires the wobble data, the current position information of the vehicle V, the traveling direction of the vehicle V, the speed, the acceleration, the inter-vehicle distance, and the like as the behavior amount of the vehicle V from each sensor of the sensor unit 35.
  • operation amount data such as steering angle data, accelerator stroke data, and brake stroke data of the steering angle of the steering wheel sw from each sensor of the sensor unit 35 as the operation amount of the vehicle V.
  • the control unit 37 acquires the wobble data, the current position information of the vehicle V, the traveling direction of the
  • control unit 37 uses the camera 35a of the sensor unit 35 as staggering data. An image outside the vehicle V may be acquired. The control unit 37 acquires an image of the target person T by the camera 35b. The measurement time measured by each sensor of the sensor unit 35 may be measured by the clock function of the in-vehicle terminal device 30.
  • the disease state determination system S collects the sensing data of the subject T from the sensors and sheet sensors ss of the wearable terminal devices w1 and w2 (step S2).
  • the control unit 27 of the mobile terminal device 20 of the target person T driving the vehicle V wears the sensing data measured by the sensors of the sensor units of the wearable terminal devices w1 and w2 and the seat sensor ss. Obtained from terminal devices w1 and w2.
  • the control unit 27 acquires the line-of-sight data of the target person T operating the vehicle V from the wearable terminal device w2.
  • the control unit 27 acquires the rotation data of the rotation of the arm of the target person T operating the vehicle V from the wearable terminal device w1 of both arms.
  • the control unit 27 acquires the data of the seat pressure distribution of the seat surface on which the target person T who operates the vehicle V sits from the seat sensor ss.
  • the measurement time may be measured by the clock function of the mobile terminal device 20, or may be measured by the clock function of the wearable terminal devices w1 and 2.
  • the in-vehicle terminal device 30 acquires sensing data via the mobile terminal device 20.
  • the mobile terminal device 20 may acquire the operation amount data and the behavior amount data via the in-vehicle terminal device 30.
  • the measured data may be stored in each terminal device.
  • the vehicle-mounted terminal device 30 may store the measured data in the storage unit 32 in association with the target person ID, the operation amount ID, the behavior amount ID, and the sensor ID.
  • the mobile terminal device 20 may store the measured data in the storage unit 22 in association with the target person ID, the operation amount ID, the behavior amount ID, and the sensor ID.
  • the disease state determination system S transmits the collected data to the information processing server device 10 (step S3).
  • the in-vehicle terminal device 30 transmits the acquired data to the information processing server device 10.
  • the control unit 37 transmits the operation amount data of the vehicle V, the measurement time, the measurement position, the target person ID, and the operation amount ID to the information processing server device 10.
  • the control unit 37 transmits the behavior amount data of the vehicle V, the measurement time, the measurement position, the target person ID, and the behavior amount ID to the information processing server device 10.
  • the control unit 37 transmits the line-of-sight data of the target person T, the measurement time, the measurement position, the target person ID, and the sensor ID of the sensor for measuring the movement of the line of sight to the information processing server device 10.
  • the control unit 37 transmits the data of the sitting pressure distribution of the target person T, the measurement time, the measurement position, the target person ID, and the sensor ID of the data of the sitting pressure distribution to the information processing server device 10.
  • the control unit 37 may transmit the vehicle ID instead of the target person ID.
  • the mobile terminal device 20 may transmit the sensing data to the information processing server device 10.
  • the mobile terminal device 20 may transmit the operation amount data and the behavior amount data.
  • the measured data may be sequentially transmitted to the information processing server device 10 or may be collectively transmitted.
  • the in-vehicle terminal device 30 may transmit predetermined data in packets, or may collectively transmit the data when the communication state is poor and the communication is interrupted in a tunnel or the like.
  • the in-vehicle terminal device 30 may transmit predetermined data such as measured data in a predetermined operating section and measured data in a predetermined operating period. Alternatively, the in-vehicle terminal device 30 may transmit the data collectively measured after the operation is completed to the information processing server device 10.
  • the disease state determination system S receives the collected data from the in-vehicle terminal device 30 (step S4).
  • the information processing server device 10 receives the operation amount data of the vehicle V and the behavior amount data of the vehicle V from the in-vehicle terminal device 30.
  • the information processing server device 10 receives sensing data such as line-of-sight data and sitting pressure distribution data from the in-vehicle terminal device 30.
  • the information processing server device 10 functions as an example of the driving characteristic data acquisition means for acquiring the driving characteristic data indicating the driving characteristics of the target person with respect to the vehicle.
  • the information processing server device 10 functions as an example of the line-of-sight data acquisition means for acquiring line-of-sight data indicating the position of the line-of-sight of the target person measured while the target person is driving a vehicle.
  • the information processing server device 10 functions as an example of a seat pressure distribution acquisition means for acquiring data on the seat pressure distribution on the seat surface on which the subject sits in the vehicle.
  • the information processing server device 10 stores the received data in the storage unit 12 (step S5).
  • the control unit 16 of the information processing server device 10 stores the received operation amount data, measurement time, position information, etc. in the operation amount DB 12b in association with the target person ID and the operation amount ID.
  • the control unit 16 stores the received behavior amount data, measurement time, position information, etc. in the behavior amount DB 12c in association with the target person ID and the behavior amount ID.
  • the control unit 16 stores the received sensing data, measurement time, position information, and the like in the target person sensing DB 12e in association with the target person ID and the sensor ID.
  • the road on which the vehicle V travels is specified from the received position information of the vehicle V.
  • the road on which the vehicle travels may be set in advance by the navigation function of the in-vehicle terminal device 30.
  • the information processing server device 10 acquires the driving environment information from the road information providing server device, and the data of the driving environment information DB 12d is updated.
  • FIG. 26 is a flowchart showing an operation example for determining a disease state such as epilepsy.
  • FIG. 27 is a schematic view showing an example of the road on which the vehicle V travels.
  • the information processing server device 10 acquires vehicle driving characteristic data such as operation amount data in which the target person T operates the vehicle V and behavior amount data in the behavior of the vehicle (step S10).
  • the control unit 16 of the information processing server device 10 refers to the operation amount DB 12b, and based on the target person ID of the target person T and each operation amount ID, each of the steering angle data, the accelerator stroke data, and the like.
  • the operation amount data, the measurement time, and the position information of the vehicle V are acquired.
  • the control unit 16 acquires each operation amount data when traveling on a road as shown in FIG. 25.
  • the control unit 16 refers to the behavior amount DB 12c, and based on the target person ID of the target person T and each behavior amount ID, each behavior amount data such as wobble data, vehicle speed data, lateral acceleration data, etc.
  • the measurement time and the position information of the vehicle V are acquired.
  • the control unit 16 acquires data on each behavior amount when traveling on a road as shown in FIG. 25.
  • the information processing server device 10 functions as an example of driving characteristic data acquisition means for acquiring driving characteristic data indicating the driving characteristics of the target person for the vehicle.
  • the information processing server device 10 acquires the target person sensing data (step S11). Specifically, the control unit 16 performs the target person sensing DB 12e, and based on the target person ID and each sensor ID of the target person T, each target person sensing data such as line-of-sight data and sitting pressure distribution data, and measurement time. , Acquire the position information of the vehicle V. For example, the control unit 16 acquires each target person sensing data when traveling on a road as shown in FIG. 25.
  • the information processing server device 10 functions as an example of the line-of-sight data acquisition means for acquiring the line-of-sight data indicating the position of the line-of-sight of the target person measured while the target person is driving the vehicle.
  • the information processing server device 10 functions as an example of a seat pressure distribution acquisition means for acquiring data on the seat pressure distribution on the seat surface on which the subject sits in the vehicle.
  • the information processing server device 10 acquires road environment information (step S12). Specifically, the control unit 16 refers to the driving environment information DB 12d and acquires the road environment information of the traveled road as shown in FIG. 25.
  • the information processing server device 10 separates data according to the road (step S13).
  • the control unit 16 refers to the vehicle driving characteristic data such as each operation amount data and each behavior amount data, the position information of the vehicle V when these data are measured, and the acquired road environment information. Based on the above, vehicle driving characteristic data such as each operation amount data and each behavior amount data is classified. More specifically, the control unit 16 selects each operation amount data and each behavior amount data of the position where the vehicle is traveling on a standard expressway, and an expressway having a relatively large number of curves such as the Tokyo Metropolitan Expressway. It is divided into each operation amount data and each behavior amount data of the traveling position. As described above, the control unit 16 separates the data according to the type of the road on which the vehicle V is traveling.
  • control unit 16 may calculate the curvature of the road from each position information, classify the curves according to the curvature, and discriminate which section the operation amount data and the behavior amount data belong to.
  • the control unit 16 may consider a road having a predetermined curvature or less as a straight line, and may separate each operation amount data and each behavior amount data according to the straight line section and the car section as the other curved sections. As shown in FIG. 27, the curve may be separated into a left curve and a right curve. As shown in FIG. 27, the curves may be separated for each curve having a predetermined curvature or more.
  • the information processing server device 10 separates the operation amount data according to the degree of the curve of the road on which the vehicle travels.
  • control unit 16 refers to the driving environment information DB 12d and identifies the road classification ID of each of the separated data from the position information.
  • the control unit 16 may specify the road classification ID of the road having a similar pattern of the curve of the road from the curvature or the position information.
  • Each subject sensing data such as line-of-sight data and sitting pressure distribution data is also sorted according to the road in the same manner as each operation amount data and each behavior amount data, and the road classification ID is specified.
  • the information processing server device 10 calculates the degree of deviation between the line-of-sight data and the vehicle driving characteristic data (step S14).
  • the control unit 16 standardizes the acquired time-series line-of-sight data and vehicle driving characteristic data so that the minimum value is 0 and the maximum value is 100.
  • the control unit 16 standardizes the line-of-sight data, the steering angle data, the steering torque data, and the vehicle lateral acceleration so that the minimum value is 0 and the maximum value is 100.
  • the control unit 16 calculates the difference value (for example, the absolute value of the difference) between the standardized line-of-sight data and the vehicle driving characteristic data.
  • the control unit 16 calculates the total or average value of the difference values in a predetermined time length to obtain the degree of deviation. For example, the control unit 16 calculates the line-of-sight, the steering angle, and the degree of deviation from the difference value between the line-of-sight data and the steering angle data of the standardized lateral line-of-sight movement.
  • the control unit 16 calculates the line-of-sight, the steering torque, and the degree of deviation from the difference value between the line-of-sight data of the standardized lateral line-of-sight movement and the steering torque.
  • the control unit 16 calculates the line-of-sight, the vehicle lateral acceleration, and the degree of deviation from the difference value between the line-of-sight data of the standardized lateral line-of-sight movement and the vehicle lateral acceleration data.
  • control unit 16 may calculate a time-series moving average or exponential smoothing of the difference values between the standardized line-of-sight data and the vehicle driving characteristic data.
  • the control unit 16 calculates each elapsed time from each deviation degree exceeding the threshold value D0th from the time series of each deviation degree. For example, when a certain degree of dissociation is set (for example, 20 or 30 when the standardized maximum value is 100) and the set degree of dissociation is exceeded, the control unit 16 sets the set degree of dissociation. Measure the elapsed time from the time when it is exceeded.
  • the information processing server device 10 determines from the acquired line-of-sight data the duration and average time at which the line-of-sight position is continuously (for example, 100 ms or more) and is located outside the center of the set visual field. calculate. From the acquired line-of-sight data, the information processing server device 10 calculates the ratio of the line-of-sight positions continuously located outside the set central portion.
  • the information processing server device 10 may calculate the duration located in the set central portion, the average time, the ratio located outside the central portion, and the like only from the line-of-sight data of the movement of the line-of-sight in the lateral direction.
  • the information processing server device 10 calculates the elapsed time continuously located outside the central portion where the viewpoint is set beyond the set continuous time as the duration.
  • the information processing server device 10 calculates the average time of a plurality of "durations in which the viewpoint is continuously located outside the central portion" in each section (seizure section, etc.) as "average time".
  • the information processing server device 10 calculates the ratio of the time (number of frames) in which the viewpoint is continuously located outside the center to the total time (number of frames) in each section (seizure occurrence section, etc.). ..
  • the information processing server device 10 calculates operation-related data. Specifically, the control unit 16 calculates operation-related data for components in a predetermined frequency range from the operation amount data. For example, the control unit 16 performs a discrete Fourier transform on the manipulated variable data to calculate the power spectral density of each frequency.
  • control unit 16 specifies a predetermined frequency range based on the road classification ID, the disease ID, and the manipulated variable ID with reference to the disease determination DB 12f.
  • the control unit 16 extracts the component of the power spectrum corresponding to the portion of the component in the predetermined frequency range from the power spectrum density as operation-related data.
  • the operation-related data may be steering angular velocity or steering angular acceleration (steering torque) calculated from the time derivative of steering angle data.
  • control unit 16 may calculate behavior-related data for a predetermined frequency value or a component in a predetermined frequency range from the behavior amount data. For example, the control unit 16 may perform discrete Fourier transform on the behavior amount data and calculate the power spectral density of each frequency as behavior-related data.
  • the information processing server device 10 calculates the operation value and the behavior value (step S15).
  • the control unit 16 refers to the disease determination DB 12f based on the road classification ID, the disease ID, and the manipulated variable ID, and obtains a spectrum of time-series operation-related data and operation-related data which is a function of the frequency.
  • the control unit 16 calculates the digitized frequency analysis value.
  • the control unit 16 refers to the disease determination DB 12f based on the road classification ID, the disease ID, and the operation amount ID, and is a time-series behavior amount data or a function of the frequency. Calculate the frequency analysis value that quantifies the spectrum of the behavior amount data.
  • the road division ID indicates the Tokyo Metropolitan Expressway
  • the operation amount ID indicates the steering angle, any of the frequency values f0 and f1 as shown in FIG. 13A, or any of these.
  • the road division ID indicates the Tokyo Metropolitan Expressway
  • the operation amount ID is the operation torque, for example, the power spectral density at the frequency value f2 as shown in FIG. 13B is calculated.
  • the control unit 16 calculates a total value obtained by totaling the power spectral densities in the predetermined frequency range as a frequency analysis value.
  • the operation value may be the total steering amount calculated by integrating the absolute values of the steering angular velocities.
  • the operation value may be a modified steering amount which is the sum of the power spectral densities of a predetermined frequency band by performing a discrete Fourier transform on the steering angle data.
  • the operating value may be the steering entropy calculated by calculating the standard deviation of the steering angular velocity, the smoothness of the steering, the maximum value of the steering angular velocity, and the entropy of the steering angular data.
  • control unit 16 calculates the degree of wobbling (for example, SDLP) when traveling on the road indicated by the road classification ID as a behavior value from the wobbling data.
  • the degree of wobbling of the vehicle V may be the number or frequency of deviations from the road (frequency of issuing a lane deviation warning).
  • the behavior amount data as the inter-vehicle distance includes the value and variability of the inter-vehicle distance (or inter-vehicle time), and the number and frequency (for example, the inter-vehicle time within 3 seconds or less, 1 second or less) of approaching a vehicle traveling in front (front). Collision warning transmission frequency) may be used.
  • the distance from the place of suspension when the vehicle is stopped may be used as the behavior amount data. From these behavior amount data, the degree of wobble, which is a behavior value, may be calculated.
  • the control unit 16 calculates, as a behavior value, the average vehicle speed when traveling on the road indicated by the road classification ID from the vehicle speed data. As a behavior value, the control unit 16 calculates an average lateral acceleration value when traveling on the road indicated by the road classification ID from the lateral acceleration data.
  • control unit 16 may calculate the behavior value from the behavior-related data. For example, the control unit 16 calculates a total value obtained by summing the power spectral densities in a predetermined frequency range as a behavior value.
  • the information processing server device 10 calculates the time when the viewpoint is continuously located outside the center of the visual field (step S16). Specifically, the control unit 16 determines whether or not the line-of-sight data deviates from the range of the predetermined central portion. As shown in FIGS. 16A and 16B, the determination may be made within a range of a plurality of predetermined central portions.
  • control unit 16 calculates the duration of being continuously out of the range of the predetermined central part. If the duration is, for example, less than 100 ms, it is truncated without counting.
  • the control unit 16 calculates the average value of the duration, that is, the average time in the predetermined period of the line-of-sight data. In addition, the ratio of the duration at which the viewpoint is continuously located outside the central portion in a predetermined period of the line-of-sight data is calculated.
  • the information processing server device 10 calculates the center position according to the sitting pressure distribution.
  • the control unit 16 starts from the maximum value of y, that is, the line in front of the subject T in order from the minimum value of x in the distribution map of the sitting pressure distribution as shown in FIG. Scan.
  • the control unit 16 stores the value of y together with the value of x as the distance from the front line to the outer edge of the distributed shape.
  • the control unit 16 increments the value of x and scans from the front line.
  • the control unit 16 repeats scanning these up to the maximum value of x.
  • the control unit 16 calculates the position of x at which the distance from the front line to the outer edge of the distribution shape is maximum as the shape center position of the distribution shape. As shown in FIG. 25, when the maximum value is 2 or more, the averaged position is the shape center position.
  • the method for calculating the shape center position is not limited to the above method, and it is sufficient that the constricted portion of the distribution shape that separates the left and right sides of the sitting pressure distribution can be calculated.
  • the outer edge of the distribution shape is where the sitting pressure value is equal to or higher than the predetermined value in the sitting pressure distribution distribution map.
  • the control unit 16 may change a predetermined value to calculate a plurality of positions of the constricted portion of the distributed shape in the x direction, and use the averaged position as the shape center position.
  • the control unit 16 calculates the distribution shape center of gravity (Gx, Gy) as the seat pressure center position from the value and position of each pixel of the distribution map of the seat pressure distribution.
  • the information processing server device 10 calculates the degree of bias as the target person sensing value. Specifically, the control unit 16 calculates the difference between the shape center position and the seat pressure center position.
  • the information processing server device 10 calculates the magnitude of the sitting pressure distribution (step S17). Specifically, as shown in FIG. 19, the control unit 16 counts pixels or unit sections in which the sitting pressure is equal to or higher than a predetermined value. The control unit 16 divides the count number by the number of pixels of the entire seat surface and the number of unit sections to calculate the ratio of the pressure-applied portion in the entire seat surface as the seat pressure area.
  • the information processing server device 10 functions as an example of the pressure distribution calculation means for calculating the magnitude of the sitting pressure distribution.
  • the information processing server device 10 determines a disease state such as epilepsy (step S18). Specifically, the control unit 16 refers to the disease determination DB 12f based on the road classification ID, the disease ID, and the operation amount ID, and compares the reference operation value with the operation value calculated by the subject T. , The subject T determines the disease state such as whether or not the disease has a disease ID and the degree of the disease of the disease ID.
  • the control unit 16 determines the degree of deviation calculated in step S14.
  • the elapsed time after the degree of deviation exceeds D0th is compared with the threshold Dth of the degree of deviation and the threshold Tth of the elapsed time as shown in FIG. 12A to determine whether or not the patient is in an epileptic state.
  • the threshold value Dth of the degree of deviation and the threshold value Tth of the elapsed time are exceeded, the control unit 16 determines that the patient is in status epilepticus.
  • the control unit 16 indicates the degree of deviation and the degree of deviation calculated in step S14. Elapsed time after exceeding D0th is compared with the threshold Dth of the degree of divergence as shown in FIG. 12B and the threshold Tth of the elapsed time to determine whether or not the patient is in an epileptic state.
  • the control unit 16 indicates the degree of deviation and the deviation calculated in step S14.
  • the elapsed time after the degree exceeds D0th is compared with the threshold Dth of the degree of deviation and the threshold Tth of the elapsed time as shown in FIG. 12C to determine whether or not the patient is in an epileptic state.
  • the information processing server device 10 functions as an example of the disease state determining means capable of determining the epileptic state of the subject according to the relationship between the line-of-sight data and the driving characteristic data.
  • the information processing server device 10 functions as an example of a disease state determining means for determining epilepsy when the relationship value becomes equal to or less than a predetermined value.
  • the information processing server device 10 functions as an example of a disease state determining means for determining epilepsy when the degree of deviation is equal to or greater than a predetermined value for a predetermined time or longer.
  • the control unit 16 determines whether or not the control unit 16 is in a tantrum state by comparing the operation value of the person T with the power spectral density p0 with respect to the frequency f0 and the power spectral density p1 with respect to the frequency f1. When each calculated operation value is lower than the power spectral densities p0 and p1, the control unit 16 determines that it is in the epileptic state.
  • the control unit 16 determines whether or not it is in an epileptic state by comparing the value with the power spectral density p2 with respect to the frequency f2.
  • the control unit 16 determines whether or not it is in an epileptic state by comparing the operation value with the power spectral density p3 with respect to the frequency f3.
  • the information processing server device 10 may determine the disease state based on one operation value or behavior value, or may determine the disease state based on a plurality of operation values.
  • the processing server device 10 may determine.
  • the information processing server device 10 calculates the sum (number of determinations) of the determination results of each operation value, with the determination result being 1 when the condition is a predetermined disease and the determination result being 0 when the condition is not a predetermined disease. Further, the information processing server device 10 may calculate the sum of the determination results by providing weights to each operation value.
  • the information processing server device 10 may determine. Further, the information processing server device 10 may calculate the sum of the determination results by providing weights to each operation value and each behavior value.
  • the information processing server device 10 functions as an example of the disease state determining means capable of determining the epileptic state of the subject according to the relationship between the line-of-sight data and the driving characteristic data.
  • the control unit 16 refers to the disease determination DB 12f based on the road classification ID, the disease ID, and the sensor ID, compares the reference target person sensing value with the target person sensing value calculated by the target person T, and compares the target.
  • the control unit 16 determines whether or not the person T is a disease of the disease ID, and the disease state such as the degree of the disease of the disease ID.
  • the control unit 16 determines whether or not it is in an epileptic state.
  • the control unit 16 determines that the status epilepticus is in status epilepticus.
  • the control unit 16 determines whether or not it is in an epileptic state by comparing the average value with the threshold value Tth as shown in FIGS. 17A and 17B. When the calculated average value of the duration exceeds the threshold value Tth, the control unit 16 determines that the patient is in status epilepticus.
  • the control unit 16 determines whether or not it is in an epileptic state. When the calculated duration exceeds the threshold value R1 or exceeds the threshold value TR2, in the case of these combinations, the control unit 16 determines that the patient is in status epilepticus.
  • the information processing server device 10 can determine the epileptic state of the subject according to the time when the position of the line of sight indicated by the line-of-sight data deviates from the center of the visual field of the subject in the traveling direction of the vehicle. It functions as an example of the determination means.
  • the sitting pressure area calculated in step S17 is compared with the threshold Sth as shown in FIG.
  • the control unit 16 determines whether or not it is in an epileptic state.
  • the control unit 16 determines that the patient is in status epilepticus.
  • control unit 16 may determine whether the paralysis is on the left side or the right side based on the degree of bias calculated from the data of the sitting pressure distribution.
  • the information processing server device 10 functions as an example of the disease state determining means capable of determining the epileptic state of the subject according to the change in the magnitude of the sitting pressure distribution.
  • the information processing server device 10 may have a partial seizure or a total seizure in the case of epilepsy as the degree of illness.
  • the information processing server device 10 may determine the disease state by combining the operation value, the behavior value, and the subject sensing value. Optimal for a predetermined disease from operation amount data, operation-related data, operation value, behavior amount data, behavior-related data, behavior value, subject sensing data, subject sensing-related data, subject sensing value, etc.
  • the information processing server device 10 may determine the disease state by the combination of the feature amounts.
  • the information processing server device 10 may sequentially acquire data from the in-vehicle terminal device 30 or the like to determine the disease state.
  • the mobile terminal device 20 or the vehicle-mounted terminal device 30 may determine the disease state from the measured data instead of the information processing server device 10.
  • the control unit 27 of the mobile terminal device 20 or the control unit 37 of the in-vehicle terminal device 30 determines the disease state from the measured data.
  • the information processing server device 10 may determine the disease state based on the physiological data from the home terminal device 40 and the electronic medical record information of the medical institution server device 50. In particular, the information processing server device 10 may determine the disease state based on the physiological data from the garden terminal device 40 and the electronic medical record information of the medical institution server device 50.
  • the line-of-sight data indicating the position of the line-of-sight of the target person T measured while the target person T is driving the vehicle V and the operation showing the driving characteristics of the target person T with respect to the vehicle V are shown.
  • the disease state such as tantrum of the subject T according to the relationship with the characteristic data, the subject can be measured from easy-to-measure data such as line-of-sight data and driving characteristic data even if the device is not a special device.
  • the state of tantrum of T can be determined.
  • the state of epilepsy of the subject T can be easily determined from the value of the relationship.
  • the epileptic state of the subject T can be easily determined by the degree of divergence.
  • the state of epilepsy of the subject T is determined by combining the degree of divergence and the time when the degree of divergence is equal to or greater than a predetermined value. Accuracy is improved.
  • the epilepsy state of the target person T is determined by the operation amount data and the like. Can be easily determined.
  • the epileptic state of the subject T when determining the epileptic state of the subject T according to the time when the position of the line of sight indicated by the line-of-sight data deviates from the center of the field of view of the subject T in the traveling direction of the vehicle V, this time or from this time
  • the epileptic state of the subject T can be easily determined from the calculated duration, time average time, ratio located outside the center, and the like.
  • the present embodiment it is not a special device by determining the epileptic state of the subject T according to the change in the size of the seat pressure distribution on the seat surface on which the subject T sits in the vehicle V. Also, the epileptic state of the subject T can be determined from easy-to-measure data such as the sitting pressure distribution.
  • the position of the line of sight indicated by the line-of-sight data measured when the target person T is driving the vehicle V deviates from the central part of the field of view of the target person T in the traveling direction of the vehicle V.
  • the information processing server device 10 may apply a discriminator to the measured data to determine the disease state.
  • the discriminator may be a linear discriminator or a non-linear discriminator. It may be a machine learning classifier that machine-learns the parameters of the classifier. Machine learning includes neural networks, genetic algorithms, Bayesian networks, decision tree learning, logistics regression, and the like.
  • the information processing server device 10 has a degree of deviation between the target person sensing data such as the line-of-sight data, the target person sensing-related data, the target person sensing value, the operation amount data, the operation-related data, the operation value, and the line-of-sight data and the operation amount data.
  • the target person sensing data such as the line-of-sight data, the target person sensing-related data, the target person sensing value, the operation amount data, the operation-related data, the operation value, and the line-of-sight data and the operation amount data.
  • machine learning is performed in advance, and the parameters of the machine learning model are stored in the disease determination DB 12f.
  • the data used for machine learning may be data sorted by road classification.
  • step S18 the information processing server device 10 determines the disease state by applying a discriminator with reference to the disease determination DB 12f with respect to the degree of deviation between the line-of-sight data calculated in step S14 and the vehicle driving characteristic data. You may.
  • the information processing server device 10 may determine the disease state by applying a discriminator to the operation value and the behavior value calculated in step S15 with reference to the disease determination DB 12f in step S18.
  • step S18 the information processing server device 10 applies a discriminator with reference to the disease determination DB 12f to determine the disease state with respect to the time when the viewpoint calculated in step S16 is continuously located outside the central portion. You may judge.
  • the information processing server device 10 may determine the disease state by applying a discriminator with reference to the disease determination DB 12f in step S18 with respect to the magnitude of the sitting pressure distribution calculated in step S17.
  • the information processing server device 10 may determine the disease state by applying a discriminator to the calculated operation-related data and behavior amount-related data in step S18 with reference to the disease determination DB 12f.
  • the information processing server device 10 may determine the disease state by applying a discriminator to the data sorted according to the road in step S13 with reference to the disease determination DB 12f in step S18.
  • the information processing server device 10 may determine the disease state by applying the classifier with reference to the disease determination DB 12f to a plurality of data such as the operation amount data, the behavior amount data, and the subject sensing data. ..
  • the disease state can be determined from the waveform of the above, the pattern of the behavior value, and the like.
  • the mobile terminal device 20 or the in-vehicle terminal device 30 may include the above-mentioned classifier.
  • the present invention is not limited to each of the above embodiments.
  • Each of the above embodiments is an example, and any one having substantially the same configuration as the technical idea described in the claims of the present invention and exhibiting the same effect and effect may be used. It is included in the technical scope of the present invention.
  • 10 Information processing server device (disease state determination device) 12: Storage unit (memory means) 12f: Disease determination database (memory means) 20: Mobile terminal device (disease state determination device, terminal device) 30: In-vehicle terminal device (disease state determination device, terminal device) S: Disease condition determination system T: Target person V: Vehicle

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Neurosurgery (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Child & Adolescent Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

癲癇の状態を判定可能な疾患状態判定装置、疾患状態判定方法、疾患状態判定装置用プログラム、および、疾患状態判定システムを提供する。 対象者Tが車両Vを運転しているときに測定された当該対象者Tの視線の位置を示す視線データを取得し(S11)、対象者Tの車両Vに対する運転特性を示す運転特性データを取得し(S10)、視線データと運転特性データとの関係性に応じて、対象者Tの癲癇状態を判定する(S18)。

Description

疾患状態判定装置、疾患状態判定方法、疾患状態判定装置用プログラム、および、疾患状態判定システム
 本発明は、対象者の癲癇状態を判定する疾患状態判定装置、疾患状態判定方法、疾患状態判定装置用プログラム、および、疾患状態判定システムの技術分野に関する。
 車両を運転する運転者の状態を検出する様々な判定システムが開発されている。例えば、特許文献1には、車両運転者の運転能力と健康情報を測定し、運転能力チェック結果と健康情報チェック結果を、サーバに送信する装置が、車両移動経路に沿った複数の地点に設けられ、サーバは、運転能力チェック結果、健康情報チェック結果及び評価基準に基づいて車両運転者の運転危険度を評価し、運転能力チェック及び健康情報チェックの結果を経時的に比較して車両運転者の運転危険度の高まりを診断する安全走行支援システムが開示されている。
特開2015-141536号公報
 しかしながら、特許文献1のような従来技術においては、健康状態を測定するためには、呼気ガス成分計測器等の特殊な機器が必要であり、運動能力と組み合わせて、特定の疾患に直接関係なく、単に運転危険度の判定しているだけであった。そのため、癲癇の状態を簡易に判定することが難しかった。
 そこで、本発明の課題の一例は、癲癇の状態を判定が可能な疾患状態判定装置等を提供することを目的とする。
 上記課題を解決するために、請求項1に記載の発明は、対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得手段と、前記対象者の前記車両に対する運転特性を示す運転特性データを取得する運転特性データ取得手段と、前記視線データと前記運転特性データとの関係性に応じて、前記対象者の癲癇状態を判定する疾患状態判定手段と、を備えることを特徴とする。
 請求項8に記載の発明は、視線データ取得手段が、対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得ステップと、運転特性データ取得手段が、前記対象者の前記車両に対する運転特性を示す運転特性データを取得する運転特性データ取得ステップと、疾患状態判定手段が、前記視線データと前記運転特性データとの関係性に応じて、前記対象者の癲癇状態を判定する疾患状態判定ステップと、を含むことを特徴とする。
 請求項9に記載の発明は、コンピュータを、対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得手段、前記対象者の前記車両に対する運転特性を示す運転特性データを取得する運転特性データ取得手段、および、前記視線データと前記運転特性データとの関係性に応じて、前記対象者の癲癇状態を判定する疾患状態判定手段として機能させることを特徴とする。
 請求項10に記載の発明は、車両を運転している対象者に関するデータを収集する端末装置と、前記対象者に関するデータに基づき前記対象者の癲癇状態を判定する疾患状態判定装置と、を備えた疾患状態判定システムにおいて、前記疾患状態判定装置が、前記対象者が前記車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを、前記端末装置から取得する視線データ取得手段と、前記対象者の前記車両に対する運転特性を示す運転特性データを、前記端末装置から取得する運転特性データ取得手段と、前記視線データと前記運転特性データとの関係性に応じて、前記対象者の癲癇状態を判定する疾患状態判定手段と、を有することを特徴とする。
 請求項11に記載の発明は、車両において対象者が座る座面の座圧分布のデータを取得する座圧分布取得手段と、前記座圧分布の大きさを算出する圧力分布算出手段と、前記座圧分布の大きさの変化に応じて、前記対象者の癲癇状態を判定する疾患状態判定手段と、を備えることを特徴とする。
 請求項12に記載の発明は、座圧分布取得手段が、車両において対象者が座る座面の座圧分布のデータを取得する座圧分布取得ステップと、圧力分布算出手段が、前記座圧分布の大きさを算出する圧力分布算出ステップと、疾患状態判定手段が、前記座圧分布の大きさの変化に応じて、前記対象者の癲癇状態を判定する疾患状態判定ステップと、を含むことを特徴とする。
 請求項13に記載の発明は、コンピュータを、車両において対象者が座る座面の座圧分布のデータを取得する座圧分布取得手段、前記座圧分布の大きさを算出する圧力分布算出手段、および、前記座圧分布の大きさの変化に応じて、前記対象者の癲癇状態を判定する疾患状態判定手段として機能させることを特徴とする。
 請求項14に記載の発明は、車両を運転している対象者に関するデータを収集する端末装置と、前記対象者に関するデータに基づき前記対象者の癲癇状態を判定する疾患状態判定装置と、を備えた疾患状態判定システムにおいて、前記車両において前記対象者が座る座面の座圧分布のデータを、前記端末装置から取得する座圧分布取得手段と、前記座圧分布の大きさを算出する圧力分布算出手段と、前記座圧分布の大きさの変化に応じて、前記対象者の癲癇状態を判定する疾患状態判定手段と、を有することを特徴とする。
 請求項15に記載の発明は、対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得手段と、前記視線データが示す視線の位置が前記車両の進行方向における前記対象者の視野の中心部から外れた時間に応じて、前記対象者の癲癇状態を判定する疾患状態判定手段と、を備えることを特徴とする。
 請求項16に記載の発明は、視線データ取得手段が、対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得ステップと、疾患状態判定手段が、前記視線データが示す視線の位置が前記車両の進行方向における前記対象者の視野の中心部から外れた時間に応じて、前記対象者の癲癇状態を判定する疾患状態判定ステップと、を含むことを特徴とする。
 請求項17に記載の発明は、コンピュータを、対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得手段、および、前記視線データが示す視線の位置が前記車両の進行方向における前記対象者の視野の中心部から外れた時間に応じて、前記対象者の癲癇状態を判定する疾患状態判定手段として機能させることを特徴とする。
 請求項18に記載の発明は、車両を運転している対象者に関するデータを収集する端末装置と、前記対象者に関するデータに基づき前記対象者の癲癇状態を判定する疾患状態判定装置と、を備えた疾患状態判定システムにおいて、前記疾患状態判定装置が、前記対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを、前記端末装置から取得する視線データ取得手段と、前記視線データが示す視線の位置が前記車両の進行方向における前記対象者の視野の中心部から外れた時間に応じて、前記対象者の癲癇状態を判定する疾患状態判定手段と、を有することを特徴とする。
 本発明によれば、対象者が車両を運転しているときに測定された対象者の視線の位置を示す視線データと、対象者の車両に対する運転特性を示す運転特性データとの関係性に応じて、対象者の癲癇等の疾患状態を判定することにより、特殊な機器で無くても、視線データおよび運転特性データのような測定しやすいデータから、癲癇の状態を判定することができる。
一実施形態に係る疾患状態判定システムの概要構成例を示す模式図である。 車両を操縦する対象者の様子の一例を示す模式図である。 図1の情報処理サーバ装置の概要構成の一例を示すブロック図である。 図3の対象者情報データベースに記憶されているデータの一例を示す図である。 図3の操作量データベースに記憶されているデータの一例を示す図である。 図3の挙動量データベースに記憶されているデータの一例を示す図である。 図3の対象者センシングデータベースに記憶されているデータの一例を示す図である。 図3の疾患判定データベースに記憶されているデータの一例を示す図である。 運転中の視線データおよび操舵角データの一例を示すグラフである。 運転中の視線データおよび操舵角データの一例を示すグラフである。 運転中の視線データおよび操舵角データの一例を示すグラフである。 運転中の視線データおよび操舵トルクデータの一例を示すグラフである。 運転中の視線データおよび操舵トルクデータの一例を示すグラフである。 運転中の視線データおよび操舵トルクデータの一例を示すグラフである。 運転中の視線データおよび横加速度データの一例を示すグラフである。 運転中の視線データおよび横加速度データの一例を示すグラフである。 運転中の視線データおよび横加速度データの一例を示すグラフである。 視線移動と操舵角との乖離度および乖離後の経過時間の一例を示す図である。 視線移動と操舵トルクとの乖離度および乖離後の経過時間の一例を示す図である。 視線移動と横加速度との乖離度および乖離後の経過時間の一例を示す図である。 操作関連データの一例を示すグラフである。 操作関連データの一例を示すグラフである。 挙動関連データの一例を示すグラフである。 視点が連続して中心部外に位置した時間の一例を示すグラフである。 視点が連続して中心部外に位置した時間の一例を示すグラフである。 視点が連続して中心部外に位置した時間の一例を示すグラフである。 視点が連続して中心部外に位置した時間の一例を示すグラフである。 視点が連続して中心部外に位置した時間の一例を示すグラフである。 視点が連続して中心部外に位置した時間の一例を示すグラフである。 視点が連続して中心部外に位置した時間の一例を示すグラフである。 視点が連続して中心部外に位置した時間の一例を示すグラフである。 視点が連続して中心部外に位置した時間の一例を示すグラフである。 視点が連続して中心部外に位置した時間の一例を示すグラフである。 視点が連続して中心部外に位置した平均時間の一例を示すグラフである。 視点が連続して中心部外に位置した平均時間の一例を示すグラフである。 視点が連続して中心部外に位置した割合の一例を示すグラフである。 視点が連続して中心部外に位置した割合の一例を示すグラフである。 座圧分布のデータの一例を示す模式図である。 座圧中心データおよび座圧分布の大きさの時系列の一例を示すグラフである。 座圧中心データおよび座圧分布の大きさの時系列の一例を示すグラフである。 図1の携帯端末装置の概要構成の一例を示すブロック図である。 図1の車載端末装置の概要構成の一例を示すブロック図である。 データ収集の動作例を示すフローチャートである。 車両が走行した道路の一例を示す模式図である。 疾患状態を判定する動作例を示すフローチャートである。 車両が走行した道路の一例を示す模式図である。
 以下、図面を参照して本発明の実施形態について説明する。なお、以下に説明する実施の形態は、疾患状態判定システムに対して本発明を適用した場合の実施形態である。
[1.疾患状態判定システムの構成及び機能概要]
 まず、本実施形態に係る疾患状態判定システムSの構成について、図1および図2を用いて説明する。図1は、本実施形態に係る疾患状態判定システムSの概要構成の一例を示す図である。図2は、車両Vを操縦する対象者Tの様子の一例を示す模式図である。
 図1に示すように、疾患状態判定システムSは、車両Vを運転する対象者T毎の各種データから対象者Tの癲癇等の疾患状態を判定する情報処理サーバ装置10(疾患状態判定装置の一例)と、対象者Tが携帯し、対象者Tの生理データを情報処理サーバ装置10に送信する携帯端末装置20と、対象者Tが運転する車両Vの操作および挙動のデータを複数のセンサから収集する車載端末装置30と、対象者Tが家庭Hにいるときの生理データ等を収集する家庭端末装置40と、対象者Tが利用する医療機関の医療機関サーバ装置50と、を備える。
 ここで、車両Vとして、乗用車、タクシー、ハイヤー、トラック、トレーラー(トラクタ単独も含む)、バス等の自動車、自動二輪車(側車付き自動二輪車、トライク、逆トライク)、自転車、電動カート、鉄道車両のような電車等が挙げられる。
 対象者Tとして、上記車両を運転する人間が挙げられる。
 情報処理サーバ装置10、携帯端末装置20、車載端末装置30、家庭端末装置40および、医療機関サーバ装置50は、ネットワークNを介して、例えば、通信プロトコルにTCP/IP等を用いて相互にデータの送受信が可能になっている。ネットワークNは、例えば、インターネットにより構築されている。
 ネットワークNには、交通渋滞や工事中等の道路状態の道路情報を提供する道路情報提供サーバ装置(図示せず)と、情報処理サーバ装置10に気象データを提供する気象サーバ装置(図示せず)と、が接続している。
 なお、ネットワークNは、専用通信回線、移動体通信網、および、ゲートウェイ等により構築されていてもよい。また、ネットワークNは、アクセスポイントApを有してもよい。携帯端末装置20および車載端末装置30等は、アクセスポイントApを介して、ネットワークNに接続できるようにしてもよい。
 情報処理サーバ装置10は、コンピュータの機能を有する。情報処理サーバ装置10は、各対象者Tが車両Vを運転しているときに測定された対象者Tの車両Vに対する運転特性を示す運転特性データを取得する。運転特性データの一例として、各対象者Tが車両Vを操作する操作量データ、および、各車両Vの挙動の挙動量データが挙げられる。情報処理サーバ装置10は、例えば、車載端末装置30から操作量データおよび挙動量データを取得する。
 また、情報処理サーバ装置10は、各車両Vを操作する対象者Tに対するセンシングで得られるデータを、携帯端末装置20または車載端末装置30から取得する。例えば、このセンシングデータは、対象者Tが車両Vを運転しているときに測定された対象者Tの視線の位置を示す視線データ、各車両Vを操作する対象者Tが座る座面の座圧分布のデータ、車両Vを操作している対象者Tの腕の回旋の回旋データ等である。
 情報処理サーバ装置10は、気象サーバ装置から気象データを取得する。情報処理サーバ装置10は、道路情報提供サーバ装置から道路情報を取得する。
 携帯端末装置20は、コンピュータの機能を有する。携帯端末装置20は、例えば、スマートフォンまたはタブレット端末である。携帯端末装置20は、対象者Tをセンシングする各センサからのデータを収集する。図2に示すように、車両V内において、対象者Tは、携帯端末装置20をポケットに入れていたり、鞄に入れていたり等、車両V内のどこかに、携帯端末装置20が存在している。
 車載端末装置30は、コンピュータの機能を有する。車載端末装置30は、例えば、車両Vのナビゲーション装置である。図2に示すように、車載端末装置30は、対象者Tが運転する車両Vに設置されている。車両Vは、例えば、対象者T自身、家族、知人、または、会社が所有する、または、レンタルされた車両である。
 図2に示すように、車両Vのステアリングホイールsw、アクセルペダル(図示せず)、および、ブレーキペダル(図示せず)によって、対象者Tは、車両Vを操作する。
 図2に示すように、対象者Tの両腕の回旋の回旋データを測定する場合、対象者Tは、両腕にリストバンド型の各ウェアラブル端末装置w1を装着している。対象者Tの視線の位置を示す視線データを測定する場合、対象者Tは、眼鏡型のウェアラブル端末装置w2を装着している。
 図2に示すように、車両Vを操作する対象者Tが座る座面の座圧分布を、シートセンサssが測定する。シートセンサssは、体圧分布を測定するために、圧力センサ素子が2次元に分布したシート状のセンサである。シートセンサssは、シートの表面に接触したところの位置、圧力を測定する。なお、シートセンサssは、座席の背もたれに設置されてもよい。
 携帯端末装置20と車載端末装置30とは、無線通信により通信が可能である。ウェアラブル端末装置w1、w2は、携帯端末装置20および車載端末装置30と、無線通信により通信が可能である。シートセンサssは、外部との通信を可能にするインターフェースを有する。シートセンサssは、携帯端末装置20および車載端末装置30と、無線通信により通信が可能である。シートセンサssは、車載端末装置30と有線で通信が可能であってもよい。
 家庭端末装置40は、コンピュータの機能を有する。家庭端末装置40は、対象者T等の家庭Hや職場等に設置されている。家庭端末装置40は、例えば、パーソナルコンピュータである。携帯端末装置20と家庭端末装置40とは、無線通信により通信が可能である。
 医療機関サーバ装置50は、コンピュータの機能を有する。医療機関サーバ装置50は、例えば、病院等の医療機関、地域医療の中核のセンター等に設定されている。医療機関サーバ装置50は、対象者Tに対する診察結果、検査オーダー、検査の結果、健康診断等の情報を記録した電子カルテ情報を有する。
 ここで、操作量は、対象者Tが、車両Vを運転する際に、何かしら操作する量である。車両の操作量として、車両Vのステアリングホイールの操舵角、車両Vのアクセルのアクセルストローク、ブレーキペダルの操作量等が挙げられる。操作量は、操舵角データの時間微分より算出される、車両Vのステアリングホイールの操舵角速度、操舵の角加速度に対応する操舵トルクでもよい。操作量は、対象者Tの操作性能が測定できるデータならばよい。
 また、挙動量は、車両Vの動きに関する量である。車両の挙動量として、車両Vのふらつき、前方の車両との車間距離、車両の速度、車両の加速度、車線内位置等が挙げられる。加速度には、車両Vの進行方向の加速度、進行方向に対して横方向の横加速度等が含まれる。挙動量は、対象者Tの運転による車両Vの挙動状態が測定できるデータならばよい。
 操作量および挙動量は、対象者Tの車両Vに対する運転特性を示す量である。
 また、車両Vを操作する対象者Tに対するセンシングで得られるデータの一例として、対象者Tが車両Vを運転しているときに測定された対象者Tの視線の位置を示す視線データ、車両Vを操作する対象者Tが座る座面の座圧分布のデータ、車両Vを操作している対象者Tの腕の回旋の回旋データ等が挙げられる。
 次に、疾患状態の一例として、所定の疾患に対して、その疾患の状態が運転ができる軽度なのか、運転ができないほどの重度なのか等の疾患の程度が挙げられる。疾患状態の一例として、癲癇、脳卒中、てんかん発作のような疾患の種別が挙げられる。また、疾患の程度として、癲癇の場合、部分発作か、全体発作かでもよい。脳卒中の場合、片側麻痺か両側麻痺か、右側麻痺か左側麻痺かでもよい。
 疾患の種別として、脳卒中、癲癇発作、心筋梗塞、高血圧、不整脈等の循環器疾患、睡眠時無呼吸症候群、認知症、糖尿病による意識レベル低下等が挙げられる。
 また、疾患の種別に、症状の種別を含めてもよい。症状として、麻痺の程度、動悸、息切れ、便秘、発熱、悪寒、下痢、しびれ、痛み等が挙げられる。疾患の種別に、疾患の程度を含めてもよい。例えば、疾患が脳卒中である場合、脳卒中であるが麻痺が無い、麻痺が軽度、麻痺があるというレベルが挙げられる。また、疾患の程度は、疾患IDとは別のレベルIDでもよい。例えば、てんかん発作の場合、部分発作、全般発作の違いが挙げられる。
 また、疾患状態の一例として、所定の疾患に対して、病気の予兆、疾患の発症リスク、症状の発症リスクが挙げられる。疾患状態の一例として、病気の予兆の程度、発症リスクの値でもよい。
 症状の前兆の判定に関して、単独指標、または、複数指標の組み合せで判定してもよい。例えば、動悸は心拍数のみで判定し、息切れは一義的には呼吸数(胸郭の動きなどで計測)で判定し、さらに血圧を加えて”息切れによる影響”まで判定してもよい。
 また、疾患の種別に、臓器または器官の種別、生体機能の種別を含めてもよい。疾患状態の一例として、各臓器または器官の状態のレベル、各生体機能(例えば、消化機能、循環機能、神経系の機能、代謝機能、認知機能等)の状態のレベルでもよい。これらのレベルは、対象者Tの年齢、体重等を考慮して、血液検査等の特定の数値の値に対応したレベルでもよい。
 疾患状態の一例として、所定の疾患の発生確率(発症リスク)でもよい。確率の値の代わりに、所定の疾患が、”病気Aが発症しにくい”、”病気Aがやや発症しやすい”、” 病気Aが発症しやすい”、”病気Aが顕在化した”等でもよい。
 疾患状態の一例として、複数の疾患でもよく、例えば、”病気Aおよび病気Bが発症しやすい”等でもよい。疾患の種別は、複数の疾患の組み合わせでもよい。
 疾患状態の一例として、”病気Aの発症リスクが第1閾値を超えた”、”病気Bの発症リスクが第1閾値を超えた”、・・・、”病気Aの発症リスクが第n閾値を超えた”、”病気Bの発症リスクが第n閾値を超えた”でもよい。
 疾患状態の一例として、体調のレベルでもよい。例えば、体調に関して、”健康”、”体調不良”、また、体調に関して、”良好、やや良好、やや異常、異常”等のレベル分けでもよい。体調のレベルを示す場合、病名等は特定していなくてもよい。リスクおよびレベルは、定量的に評価の一例である。これらの場合、疾患の種別の特定は難しいが、予備状態ということでもよい。
 生理状態のレベルとして、各病気に対して、閾値を超えた数や、閾値を超えた病気の組み合せに基づいてもよい。
 また、生理状態のレベルとして、所定の生理データ(または、各対象者Tが車両Vを運転中の対象者Tの運転特性データ)の値が、”第1閾値を超えた”、・・・”第n閾値を超えた”でもよい。生理状態のレベルは、複数のデータの組み合せに基づいてもよい。
 また、個別の生理状態毎に捉えるだけでなく、ベクトル空間(特徴ベクトルの特徴空間)において各生理状態を同時並行的に扱ってもよい。各生理状態の指標をn次元ベクトル空間で捉え、ベクトル空間における位置関係で、生理状態のレベルのように扱ってもよい。
[2.情報処理サーバ装置および各端末装置の構成および機能]
(2.1 情報処理サーバ装置10の構成および機能)
 次に、情報処理サーバ装置10の構成および機能について、図3から図21を用いて説明する。
 図3は、情報処理サーバ装置10の概要構成の一例を示すブロック図である。図4は、対象者情報データベースに記憶されているデータの一例を示す図である。図5は、操作量データベースに記憶されているデータの一例を示す図である。図6は、挙動量データベースに記憶されているデータの一例を示す図である。図7は、対象者センシングデータベースに記憶されているデータの一例を示す図である。図8は、疾患判定データベースに記憶されているデータの一例を示す図である。
 図9Aから図11Cは、運転中の視線データおよび運転特性データの一例を示すグラフである。図12Aから図12Cは、視線移動と運転特性との乖離度および乖離後の経過時間の一例を示す図である。図13Aから図13Cは、運転特性データタの一例を示すグラフである。図14Aから図16Bは、視点が連続して中心部外に位置した時間の一例を示すグラフである。図17Aおよび図17Bは、視点が連続して中心部外に位置した平均時間の一例を示すグラフである。図18Aおよび図18Bは、視点が連続して中心部外に位置した割合の一例を示すグラフである。図19は、座圧分布のデータの一例を示す模式図である。図20および図21は、座圧中心データおよび座圧分布の大きさの時系列の一例を示す模式図である。
 図3に示すように、情報処理サーバ装置10は、通信部11と、記憶部12と、出力部13と、入力部14と、入出力インターフェース部15と、制御部16と、を備えている。そして、制御部16と入出力インターフェース部15とは、システムバス17を介して電気的に接続されている。また、情報処理サーバ装置10は、時計機能を有する。
 通信部11は、ネットワークNに電気的または電磁気的に接続して、携帯端末装置20等との通信状態を制御するようになっている。
 記憶部12は、例えば、ハードディスクドライブ、ソリッドステートドライブ等により構成されている。記憶部12は、各車両Vに関するデータや各対象者Tをセンシングしたデータ等を記憶する。また、記憶部12は、オペレーティングシステムおよびサーバプログラム等の各種プログラムや各種ファイル等を記憶する。なお、各種プログラム等は、例えば、他のサーバ装置等からネットワークNを介して取得されるようにしてもよいし、記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。
 また、記憶部12には、対象者情報データベース12a(以下「対象者情報DB12a」とする。)、操作量データベース12b(以下「操作量DB12b」とする。)、挙動量データベース12c(以下「挙動量DB12c」とする。)、運転環境情報データベース12d(以下「運転環境情報DB12d」とする。)、対象者センシングデータベース12e(以下「対象者センシングDB12e」とする。)、疾患判定データベース12f(以下「疾患判定DB12f」とする。)等が構築されている。
 対象者情報DB12aは、各対象者Tに関する情報等を記憶する。例えば、図4に示すように、対象者情報DB12aは、各対象者Tを特定するための対象者IDに関連付けて、対象者Tの氏名、性別、生年月日、対象者Tが利用する車両ID等を記憶する。
 操作量DB12bは、各車両Vの対象者Tが車両Vを操作した様々な操作量データを記憶している。例えば、図5に示すように、操作量DB12bは、対象者IDと各操作量を特定するための操作量IDとに関連付けて、対象者Tが車両Vを運転している時の各種の操作量を測定した測定時刻、車両Vの位置情報、操作量データ等を記憶する。操作量IDは、車両Vのステアリングホイールswの操舵角、車両Vのアクセルのアクセルストローク、ブレーキストロークの操作量等の各操作量に対応して、IDが割り当てられる。対象者IDの代わりに、各車両Vを特定する車両IDでもよい。車両Vの位置情報は、緯度経度情報、または、リンク情報である。
 ここで、アクセルストロークは、アクセルペダルの移動量である。アクセルペダルの操作量として、急アクセルの回数および頻度(所定値以上の加速度の回数および頻度)でもよい。
 ブレーキストロークは、ブレーキペダルの移動量である。ブレーキペダルの操作量として、急ブレーキの回数および頻度(所定値以上の減速度の回数および頻度)、ブレーキが必要になった場合から、ブレーキが踏み込まれるまでの時間、アクセルペダルからブレーキペダルが踏み込まれるまでの時間等でもよい。
 挙動量DB12cは、対象者Tが運転する各車両Vの挙動を示す挙動量データを記憶している。例えば、図6に示すように、挙動量DB12cは、対象者IDと各挙動量を特定するための挙動量IDに関連付けて、対象者Tが運転している車両Vの挙動量データを測定した測定時刻、車両Vの位置情報、挙動量データ等を記憶する。車両Vのふらつき、前方の車両との車間距離、車両Vの横加速度、車両の速度、車両の進行方向の加速度等の各挙動量に対応して、IDが割り当てられる。対象者IDの代わりに、各車両Vを特定する車両IDでもよい。
 運転環境情報DB12dには、地図情報と、高速道路か一般道路か、道路の曲線の度合い等の道路の属性または種類と、交通渋滞や工事中等の道路状態の道路情報とのような運転環境情報が記憶されている。
 地図情報には、リンク情報を含めてもよい。ここで、リンクとは、道路の交差点、道路の構造変化点等のノード同士を結んだ道路の線分である。
 また、道路の曲線の度合いの一例として、道路のカーブの曲率、道路のある区間における平均的な曲率、所定値以上の曲率の道路の割合や数等が挙げられる。また、道路の曲線の度合いの一例として、単にカーブが多い道路かカーブが少ない道路でもよい。道路の曲線の度合いの一例として、道路の曲がり具合のパターンでもよい。また、道路の曲線の度合いの一例として、東京の首都高速道路のように道路の曲線の度合い高い道路と、直線の区間が比較的多い道路とのような道路の区別でもよい。道路の曲線の度合いの一例として、一般道、高速道路、東京の首都高速道路、山岳道路のような道路の種類の区分でもよい。また、カーブが比較的少ない標準的な高速道路と、東京の首都高速道路のようにカーブが比較的多い高速道路のような区別でもよい。また、東京の首都高速道路のように分岐が頻繁な高速道路と、そうでない高速道路という道路の区別でもよい。また、曲率が所定の範囲内の道路部分を集めたものを、道路の区分としてもよい。
 運転環境情報DB12dには、道路の区分を示す道路区分IDに関連付けて、道路の曲線の度合い、道路の種類等が記憶されている。
 運転環境情報の一例として、上記の他に、一時停止の場所、一方通行の道路、2車線の道路、中央分離帯がある道路等の道路情報が挙げられる。また、運転環境情報の一例として、道路幅の狭いか広いか、いつも利用する道路か初めて利用する道路か、歩行者が多いか少ないか、(渋滞とまでは言えなくとも)車両交通量の多いか少ないか等が挙げられる。また、運転環境情報の一例として、時間帯によって太陽光がまぶしい道路という情報、ドライバーが緊張しやすい道路、心拍数が上がりやすい道路、運転時間の長さ、場所毎の事故の発生確率等が挙げられる。渋滞情報は、渋滞していたか否か、ラッシュアワーなどの時間帯、道路工事や事故などのインフラ情報でもよい。なお、情報処理サーバ装置10は、通最新の道路情報を、道路情報提供サーバ装置から取得する。また、情報処理サーバ装置10は、過去の渋滞情報を記憶しておいてもよい。
 次に、対象者センシングDB12eには、各車両Vを運転している各対象者Tを、様々なセンサによりセンシングしたデータを記憶している。例えば、図7に示すように、対象者センシングDB12eは、対象者IDと各センサを特定するためのセンサIDとに関連付けて、各センサにより対象者Tを測定した測定時刻、車両Vの位置情報、センシングデータ等を記憶する。
 車両Vを操作する対象者Tに対するセンシングで得られるデータの一例として、対象者Tが車両Vを運転しているときに測定された対象者Tの視線の位置を示す視線データ、車両Vを操作する対象者Tが座る座面の座圧分布のデータ、車両Vを操作している対象者Tの腕の回旋の回旋データ等が挙げられる。
 ここで、対象者センシングデータは、センサ等により測定できる対象者Tの生物学的、化学的、物理的なデータならばよい。
 例えば、対象者センシングデータの一例として、対象者Tの体温、体温分布が挙げられる。対象者センシングデータの一例として、血圧値、心拍数、脈波、脈波伝搬速度、心電図、不整脈の状態、血流量、血糖値等の血液の成分のような、血液および循環器関係のデータが挙げられる。血液の成分として、赤血球数、白血球数、血小板数、pH値、電解質の種類、電解質の量、ホルモンの種類、ホルモンの量、尿酸値、各種マーカー等が挙げられる。
 また、対象者センシングデータの一例として、発汗量、発汗の分布、皮膚の抵抗値、体臭の成分、唾液量のような消化液の量、唾液の成分のような消化液の成分が挙げられる。対象者センシングデータの一例として、脳波、脳の血流量分布等の脳に関するデータが挙げられる。対象者センシングデータの一例として、呼吸数、呼吸量、呼気の成分等の呼吸に関するデータが挙げられる。
 対象者センシングデータの一例として、瞬き数、涙の量、眼球運動(眼球の位置、瞳孔の直径等)等の目に関するデータが挙げられる。対象者センシングデータの一例として、体の各部位の筋電のデータが挙げられる。対象者センシングデータの一例として、顔色、顔の表情等のデータが挙げられる。
 対象者センシングデータの一例として、就寝時間、起床時間、睡眠時間、睡眠パターン、鼾の有無、鼾の強弱、鼾の回数、鼾の時間、呼吸の状態、寝返り数、睡眠時の姿勢、眠り深さ等睡眠の質等の睡眠に関するデータが挙げられる。睡眠の質は、例えば、脳波、眼球運動、呼吸、睡眠時の姿勢等から判定してもよい。
 対象者センシングデータの一例として、体重、身長等が挙げられる。また、対象者センシングデータの一例として、痛み、しびれ等の症状を数値化したデータでもよい。
 また、測定時刻の一例として、対象者センシングデータの一値を得るために、測定を開始した時刻、測定を終えた時刻、または、これらの中間の時刻が挙げられる。測定時刻は、ある値の測定と対応付けられる時刻ならばよい。例えば、1分間毎に、心拍数を算出する場合、この1分間のいずれの時刻でもよい。また、心電図のR波間の時間の長さから心拍数を算出する場合、R波のピークの時刻、Q波またはS波の時刻、P波のピーク時刻等が挙げられる。R波間の時間の代わりに、P波間、Q波間、S波間、T波間等でもよい。また、心電図に限らず、脈波のグラフでも同様に、共通の特徴点が現れる時刻や中間の値でもよい。また、コロトコフ音で血圧を測定する場合、測定時刻は、最高血圧と最低血圧を算出する際の測定期間内のいずれの時刻でもよい。
 上記これらの対象者センシングデータは、対象者Tの生理データとも言える。なお、座圧分布のデータは、生理データに含めてもよいし、含めなくてもよい。
 次に、疾患判定DB12fには、所定の疾患の判定に必要なデータを記憶している。例えば、図8に示すように、疾患判定DB12fは、疾患の種別を示す疾患IDと、その疾患のレベルとに関連付けて、所定の疾患の判定に必要なデータを記憶している。
 所定の疾患の判定に必要なデータは、例えば、同じ疾患IDおよび疾患のレベルである複数の対象者のデータから統計的に計算された、操作値、挙動値、対象者センシングデータと運転特性データとの関係性の値、視線の位置が車両Vの進行方向における対象者Tの視野の中心部から外れた時間、および、座圧分布の大きさの値等である。
 所定の疾患の判定に必要なデータは、例えば、操作値等や、これらの値に対する閾値も含む。所定の疾患の判定に必要なデータは、例えば、周波数分析した際の周波数の範囲、所定の周波数を含む。所定の疾患の判定に必要なデータは、例えば、これらの値の統計値でもよい。
 操作量データ、挙動量データ、対象者センシングデータ等に基づき、スペクトル分析、時系列分析等の処理が行われ、複数のデータに対して、統計量が算出される。統計量として、平均値(算術平均、幾何平均、調和平均、中央値、最頻値、最大値、最小値等)、分散、標準偏差、スキューネス、フラットネス等の代表値が挙げられる。なお、対象者個人に対して、複数の測定を行って、統計量が算出されてもよい。道路の区分により分別された操作量データ、挙動量データ、または、対象者センシングデータ対して、関係性の値、操作値、挙動値、視線の位置が車両Vの進行方向における対象者Tの視野の中心部から外れた時間、および、座圧分布の大きさの値が道路の区分毎に算出されてよい。
 ここで、操作値は、操作量データから算出される、所定の周波数範囲の成分における操作関連データであって、操作関連データから算出される値である。挙動値は挙動データから算出される値である。
 操作関連データは、操作量データから算出される操作量データに関連するデータである。例えば、操作関連データの一例として、操作量データを離散フーリエ変換したデータ、パワースペクトル密度、操作量データを時間微分した時間微分データ、操作量データを時間積分した時間積分データ等が挙げられる。所定の周波数範囲の成分における操作関連データの一例として、スペクトル、または、パワースペクトルから、所定の周波数範囲の周波数成分を抽出したデータ等が挙げられる。所定の周波数範囲は、1つの周波数でもよいし、データのサンプリングにより定まる範囲内の全周波数でもよい。所定の周波数範囲の成分における操作関連データは、生の操作量データに、ローパスフィルタ、ハイパスフィルタ、バンドバスフィルタ等のフィルタを掛けたデータでもよい。例えば、生の操作量データに対して、ノイズをカットしたデータ、所定の周波数成分を強調したデータ等が挙げられる。所定の周波数範囲の成分における操作関連データは、操作量データをフーリエ変換したデータでも、パワースペクトル自体でもよい。なお、挙動関連データは、挙動量データから算出される挙動量データに関連するデータである。また、対象者センシング関連データは、対象者センシングデータから算出される対象者センシングデータに関連するデータである。上記の操作関連データに関することは、挙動関連データおよび対象者センシング関連データに対しても同様である。
 対象者センシングデータと運転特性データとの関係性の値は、例えば、視線データと操作量データとの乖離度、視線データと挙動量との乖離度、関係性の値は、対象者センシングデータと運転特性データとの相関係数でもよい。
 視線の位置が車両Vの進行方向における対象者Tの視野の中心部から外れた時間は、視点が連続(例えば、50ms、100ms以上)して中心部外に位置した持続時間、その平均時間等である。
 座圧分布の大きさ値は、座圧が所定の値以上の座圧面積、割合等である。
 疾患判定DB12fのデータは、対象者Tがドライビングシミュレータで運転した場合のデータや、実際の道路を走行した場合のデータでもよい。なお、例えば、標準的な高速道路のドライビングシミュレータのコースは、コース全長が15.2km、曲率半径の平均が1640m、高低差が0.0mのコースである。東京の首都高速道のドライビングシミュレータのコースは、コース全長が13.2km、曲率半径の平均が257m、高低差が17.5mのコースである。
 ここで、疾患種別が癲癇で、健常者と、癲癇を有する患者と、に対して、操作量データ、挙動量データ、および、対象者センシングを、測定した場合である図9から図22を用いて、疾患判定DB12fのデータを説明する。
 なお、道路の区分が東京の首都高速道路等である所定コースをドライブシミュレータで走行した場合の測定例を、図9Aから図21に示す。
 図9A~図9Cは、道路の区分が東京の首都高速道路である所定コースを、ドライブシミュレータで走行した場合における視線データおよび操舵角データの一例を示すグラフである。図9Aは、健常の対象者のデータを示している。図9Bは、癲癇の疾患を有する対象者で、非発作時のデータを示している。図9Cは、癲癇の疾患を有する対象者で、発作時が生じた際のデータを示している。
 視線データは、図中、実線で示されている。操舵角データは、図中、破線で示されている。横軸が時間である。視線データの場合、縦軸(視線のX座標:X-AXIS OF GAZE POINT)が、車両Vの進行方向に対して横方向の視線の位置の値であり、図中縦軸の上方向が視線の右方向で、図中縦軸の下方向が視線の左方向を示している。操舵角データの場合、縦軸(操舵角:STEERING WHEEL ANGLE)が、操舵角の角度で、図中縦軸の上方向が時計回りでプラス、図中縦軸の下方向が反時計回りでマイナスを示している。
 図9Aおよび図9Bに示すように、測定結果より、健常者、癲癇の疾患を有する対象者の両者とも、時間に対する視線の位置および操舵角が、同じような動きをすることが分かった。比較的ゆっくりとした(視線データの高周波成分を取り除いた)横方向の視線の動きが、操舵角の動きとほぼ一致している。横方向の視線を示す視線データと操舵角データとの相関性が高いことが分かった。なお、スパイク状の視線の動きは、リアビューミラーの確認等による一時的な視線の移動である。
 しかし、図9Cに示すように、時間t0で発作が始まると、発作発生区間(SEIZURE PERIOD)において、操舵角の変化が弱くなり、視線が、視野の中心部から、急激に大きく外れることが観察された。なお、発作は、脳波を測定することで同定した。
 視線データと操舵角データとの関係性等の癲癇の判定に必要なデータが、基準の値として、視線データと操舵角データとの関係性を示す指標の指標IDと、視線データに対応するセンサIDと、操舵角の操作量IDと、道路の区分を示す道路区分IDと、癲癇を示す疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、視線データと操舵角データとの関係性の閾値は、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 図10A~図10Cは、道路の区分が東京の首都高速道路である所定コースを、ドライブシミュレータで走行した場合における視線データおよび操舵トルクデータの一例を示すグラフである。図10Aは、健常の対象者のデータを示している。図10Bは、癲癇の疾患を有する対象者で、非発作時のデータを示している。図10Cは、癲癇の疾患を有する対象者で、発作時が生じた際のデータを示している。
 視線データは、図9と同様に、図中、実線で示されている。操舵トルクデータは、図中、破線で示されている。横軸が時間である。操舵トルクデータの場合、縦軸(操舵トルク:STEERING WHEEL TORQUE)が、操舵トルクの値で、図中縦軸の上方向が時計回りでプラス、図中縦軸の下方向が反時計回りでマイナスを示している。
 図10Aおよび図10Bに示すように、測定結果より、健常者、癲癇の疾患を有する対象者の両者とも、時間に対する視線の位置および操舵トルクが、同じような動きをすることが分かった。比較的ゆっくりとした(視線データの高周波成分を取り除いた)横方向の視線の動きが、操舵トルクの動きとほぼ一致している。横方向の視線を示す視線データと操舵トルクデータとの相関性が高いことが分かった。
 しかし、図10Cに示すように、時間t0で発作が始まると、発作発生区間において、操舵トルクの変化が弱くなり、視線が、視野の中心部から、急激に大きく外れることが観察された。
 視線データと操舵トルクデータとの関係性等の癲癇の判定に必要なデータが、基準の値として、視線データと操舵トルクデータとの関係性を示す指標の指標IDと、視線データに対応するセンサIDと、操舵トルクの操作量IDと、道路の区分を示す道路区分IDと、癲癇を示す疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、視線データと操舵トルクデータとの関係性の閾値は、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 図11A~図11Cは、道路の区分が東京の首都高速道路である所定コースを、ドライブシミュレータで走行した場合における視線データおよび車両横加速度データの一例を示すグラフである。図11Aは、健常の対象者のデータを示している。図11Bは、癲癇の疾患を有する対象者で、非発作時のデータを示している。図11Cは、癲癇の疾患を有する対象者で、発作時が生じた際のデータを示している。
 視線データは、図9と同様に、図中、実線で示されている。車両横加速度データは、図中、破線で示されている。横軸が時間である。車両横加速度データの場合、縦軸(車両横加速度:VEHICLE LATERAL ACCELERATION)が、車両Vの横方向の加速度で、図中縦軸の上方向が車両Vの進行方向に対して右方向で、図中縦軸の下方向が車両Vの進行方向に対して左方向を示している。
 図11Aおよび図11Bに示すように、測定結果より、健常者、癲癇の疾患を有する対象者の両者とも、時間に対する視線の位置および車両横加速度が、同じような動きをすることが分かった。比較的ゆっくりとした(視線データの高周波成分を取り除いた)横方向の視線の動きが、車両横加速度の動きとほぼ一致している。横方向の視線を示す視線データと車両横加速度データとの相関性が高いことが分かった。
 しかし、図11Cに示すように、時間t0で発作が始まると、発作発生区間において、車両横加速度がほぼゼロになり、視線が、視野の中心部から、急激に大きく外れることが観察された。
 視線データと車両横加速度データとの関係性等の癲癇の判定に必要なデータが、基準の値として、視線データと車両横加速度のデータとの関係性を示す指標の指標IDと、視線データに対応するセンサIDと、車両横加速度の挙動量IDと、道路の区分を示す道路区分IDと、癲癇を示す疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、視線データと車両横加速度データとの関係性の閾値は、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 次に、図12Aに示すように、視線と操舵角との関係性を指標化した乖離度(関係性の値の一例)に対して、乖離度が所定の値を超えてからの経過時間のグラフに関して、健常者の場合と、癲癇の疾患を有する対象者の発作開始前の場合と、発作発生時の場合とで比較した。
 ここで、縦軸は、経過時間(ELAPSED TIME)である。横軸は、乖離度(DEGREE OF DISSOCIATION)である。視線と操舵角との乖離度は、例えば、視線の位置および操舵角とも最大値が100になるよう変換した後、0.5秒ごとに算出した両値の差分値である。経過時間は、例えば、乖離度がD0thを超えてから経過した時間である。図中、白丸が、発作開始前(非発作時)の乖離度、黒丸が、発作発生時の乖離度、バツ印が、健常者の場合の乖離度を示している。
 図12Aに示すように、非発作時も経過時間の値が短い時間であれば、乖離度が高いこともある。しかし、乖離度と乖離してからの経過時間との両者をみると、発作時の特徴を捉えることができ、非発作時と発作時とが明確に峻別できることが分かった。図12Aに示すように、例えば、乖離度の閾値Dth以上で経過時間の閾値Tth以上で、発作時と非発作時とが峻別できる。
 視線データと操舵角データとの乖離度と、この乖離度の経過時間等の癲癇の判定に必要なデータが、基準の値として、視線データと操舵角データとの乖離度とその経過時間とを示す指標の指標IDと、視線データに対応するセンサIDと、操舵角の操作量IDと、道路の区分を示す道路区分IDと、癲癇を示す疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、視線データと操舵角データとの乖離度の閾値と、この乖離度の経過時間の閾値とは、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 次に、図12Bに示すように、視線と操舵トルクとの関係性を指標化した乖離度に対して、乖離度が所定の値を超えてからの経過時間のグラフに関して、健常者の場合と、癲癇の疾患を有する対象者の発作開始前の場合と、発作発生時の場合とで比較した。
 ここで、視線と操舵トルクとの乖離度は、例えば、視線の位置および操舵トルクとも最大値が100になるよう変換した後、0.5秒ごとに算出した両値の差分値である。経過時間は、例えば、乖離度がD0thを超えてから経過した時間である。
 図12Bに示すように、操舵角の場合と同様に、非発作時も経過時間の値が短い時間であれば、乖離度が高いこともある。しかし、乖離度と乖離してからの経過時間との両者をみると、発作時の特徴を捉えることができ、非発作時と発作時とが明確に峻別できることが分かった。図12Bに示すように、例えば、乖離度の閾値Dth以上で経過時間の閾値Tth以上で、発作時と非発作時とが峻別できる。
 視線データと操舵トルクデータとの乖離度と、この乖離度の経過時間等の癲癇の判定に必要なデータが、基準の値として、視線データと操舵トルクデータとの乖離度とその経過時間とを示す指標の指標IDと、視線データに対応するセンサIDと、操舵トルクの操作量IDと、道路の区分を示す道路区分IDと、癲癇を示す疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、視線データと操舵トルクデータとの乖離度の閾値と、この乖離度の経過時間の閾値とは、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 次に、図12Cに示すように、視線と車両横加速度との関係性を指標化した乖離度に対して、乖離度が所定の値を超えてからの経過時間のグラフに関して、健常者の場合と、癲癇の疾患を有する対象者の発作開始前の場合と、発作発生時の場合とで比較した。
 ここで、視線と車両横加速度との乖離度は、例えば、視線の位置および操舵トルクとも最大値が100になるよう変換した後、0.5秒ごとに算出した両値の差分値である。経過時間は、例えば、乖離度がD0thを超えてから経過した時間である。
 図12Cに示すように、操舵角および操舵トルクの場合と同様に、非発作時も経過時間の値が短い時間であれば、乖離度が高いこともある。しかし、乖離度と乖離してからの経過時間との両者をみると、発作時の特徴を捉えることができ、非発作時と発作時とが明確に峻別できることが分かった。図12Cに示すように、例えば、乖離度の閾値Dth以上で経過時間の閾値Tth以上で、発作時と非発作時とが峻別できる。
 視線データと車両横加速度データとの乖離度と、この乖離度の経過時間等の癲癇の判定に必要なデータが、基準の値として、視線データと車両横加速度データとの乖離度とその経過時間とを示す指標の指標IDと、視線データに対応するセンサIDと、車両横加速度の挙動量IDと、道路の区分を示す道路区分IDと、癲癇を示す疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、視線データと車両横加速度データとの乖離度の閾値と、この乖離度の経過時間の閾値とは、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 以上のように、対象者Tの運転特性と視線との乖離度に関して、所定の乖離度以上で所定の経過時間以上で、発作時と非発作時とが峻別できるといえる。
 図13Aから図13Cは、運転特性データを周波数分析した運転特性関連データの一例を示すグラフである。横軸が周波数、縦軸がパワースペクトル密度(PSD)で対数スケールである。ここで、図中、記号(a)が車両の発進から対象者の発作開始前のデータ、記号(b)が発作が発生した区間のデータ、記号(c)が同一対象者の非発作時のデータ、記号(d)が健常者のデータを示している。
 図13Aは、操舵角データをフーリエ変換した操作関連データの一例を示すグラフである。図13Aに示すように、癲癇の疾患を有する対象者、健常の対象者ともに、非発作の時のパワースペクトル密度はほぼ一致した(記号(a)、(c)、(d))。しかし、記号(b)に示すように、発作時は、周波数の全域でパワースペクトル密度が低下した。
 図13Bは、操舵トルクデータをフーリエ変換した操作関連データの一例を示すグラフである。図13Bに示すように、癲癇の疾患を有する対象者、健常の対象者ともに、非発作の時のパワースペクトル密度はほぼ一致した(記号(a)、(c)、(d))。しかし、記号(b)に示すように、発作時は、周波数の全域でパワースペクトル密度が低下した。
 図13Cは、車両横加速度データをフーリエ変換した挙動関連データの一例を示すグラフである。図13Cに示すように、癲癇の疾患を有する対象者、健常の対象者ともに、非発作の時のパワースペクトル密度はほぼ一致した(記号(a)、(c)、(d))。しかし、記号(b)に示すように、発作時は、周波数の全域でパワースペクトル密度が低下した。
 従って、例えば、図13Aに示すように、周波数f0に対するパワースペクトル密度p0(操作値の一例)、周波数f1に対するパワースペクトル密度p1等が、判定の閾値として設定されてもよい。また、図13Bに示すように、周波数f2に対するパワースペクトル密度p2(操作値の一例)等が判定の閾値として設定されてもよい。図13Cに示すように、周波数f3に対するパワースペクトル密度p3(挙動値の一例)等が判定の閾値として設定されてもよい。
 また、特定の周波数の代わりに、予め周波数範囲が設定されてもよい。また、パワースペクトル密度同士の差分でもよい。非発作時や、健常者の場合を基準にして、特定の周波数範囲におけるパワースペクトル密度の差分の積分値の平方根でもよい。疾患状態を峻別できればよいので、平方根を計算せず、パワースペクトル密度の積分値または合計でもよい。
 これらの操作値または挙動値、周波数値または周波数範囲等の癲癇の判定に必要なデータが、基準の操作値または挙動値として、操作量IDまたは挙動量IDと、道路の区分を示す道路区分IDと、癲癇を示す疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、特定の周波数に対して特定のパワースペクトル密度の閾値は、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 次に、図14Aから図18Bは、視点が連続して視野の中心部外に位置した時間の一例を示すグラフである。ここで、視野は、例えば、車両Vの進行方向における対象者Tの視野である。対象者Tが車両Vの座席に座った際、視野の中心部は、車両Vの前方を中心とした中心部の範囲を示している。
 図14Aから図14Dは、中心部の範囲を狭く設定した場合である。図15Aから図15Dは、中心部の範囲を広く設定した場合である。なお、図14Aから図15Dにおいて、縦軸(持続時間:DURATION)が、視点が連続(例えば、50ms、100ms以上)して中心部外である持続時間である。横軸(視点が中心外に位置した回数:NUMBER OF TIMES OF GAZING OUTSIDE FORWARD VIEW)が、視点が連続して中心部外となった場合を順に並べたカウントである。すなわち、横軸は、設定した中心範囲から視点が外れた延べ回数である。この横軸の目盛りは、”few”および”many”によって示されている。図14Aおよび図15Aが、車両の発進から対象者の発作開始前のデータ、図14Bおよび図15Bが、発作が発生した区間のデータ、図14Cおよび図15Cが、同一対象者の非発作時のデータ、図14Dおよび図15Dが、健常者のデータを示している。
 ここで、対象者の視野の中心部の形状は、円形、楕円形、正方形、長方形等が挙げられる。対象者の視野の中心部の大きさは、円形の直径、楕円形の長径および短径、正方形の一辺の長さや対角線の長さ、長方形の長さおよび幅、長方形の対角線の長さ等である。
 図14Aから図14D、および、図15Aから図15Dに示すように、発作が起きた後に、視点が長い時間にわたり連続して、中心部外に位置することが生じることが分かる。ここで、中心部の範囲が小さく設定されると、”視点が連続して中心部外に位置した“と検出する確率(癲癇発作の検出感度)が高くなるが、小さく設定され過ぎると、癲癇発作と誤検出する可能性がある。一方、中心部の範囲が広く設定されると、誤検出の可能性は低くなるが、検出感度が下がると考えられる。したがって、中心部の設定は限定されない方がよく、小さく設定される場合と大きく設定される場合とを変える、あるいは、その組み合わせによって、癲癇が検出されるようにしてもよい。
 図16Aおよび図16Bは、車両の発進から対象者の発作開始(BEFORE SEIZURE)、発作が発生した区間(SEIZURE PERIOD)、同一対象者の非発作時(DRIVING WITHOUT SEIZURE)、健常者(HEALTHY SUBJECT)との場合において、各持続時間をプロットした図である。図16Aは、視野の中心部の範囲を狭く設定した場合である。図16Bは、視野の中心部の範囲を広く設定した場合である。
 図16Aに示すように、視野の中心部の範囲を狭くした場合、非発作時に視点が連続して中心部外に位置する持続時間では、Tth1を超えることはないが、発作時はTth2を超える。図16Bに示すように、視野の中心部の範囲を広くした場合、非発作時に視点が連続して中心部外に位置する時間はTth1を超えることはないが、発作時はTth2を超える。このように、図16Aおよび図16Bに示すように、持続時間の閾値Tth1、Tth2で、癲癇の発症と峻別できる。
 これらの持続時間等の癲癇の判定に必要なデータが、基準の対象者センシング値として、ウェアラブル端末装置w2に対応するセンサIDと、道路区分IDと、癲癇を示す疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、持続時間の閾値Tth1、Tth2等は、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 図17Aおよび図17Bは、視点が連続(例えば、50ms、100ms以上)して中心部外に位置した平均時間(AVERAGE DURATION)を、車両の発進から対象者の発作開始、発作が発生した区間、同一対象者の非発作時、健常者との場合において、示した図である。図17Aは、中心部の範囲を狭く設定した場合である。図17Bは、中心部の範囲を広く設定した場合である。
 図17Aおよび図17Bに示すように、視点が連続して中心外に位置した時間の平均は、発作時が長いことが分かった。例えば、図17Aおよび図17Bに示すように、平均時間の閾値Tthで、癲癇の発症と峻別できる。
 これらの平均時間等の癲癇の判定に必要なデータが、基準の対象者センシング値として、ウェアラブル端末装置w2に対応するセンサIDと、道路区分IDと、癲癇を示す疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、平均時間の閾値Tth等は、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 図18Aおよび図18Bは、視点が連続(例えば、50ms、100ms以上)して中心部外に位置した割合(RATE OF DURATION)を、車両の発進から対象者の発作開始、発作が発生した区間、同一対象者の非発作時、健常者との場合において、示した図である。図18Aは、中心部の範囲を狭く設定した場合である。図18Bは、中心部の範囲を広く設定した場合である。
 ここで、割合は、例えば、対象者Tの目を撮影するカメラの動画のビデオフレームおいて、中心部外のフレーム数/区間の総フレーム数から計算される。または、割合は、視点が中心部外に位置する時間/区間の総時間から計算されてもよい。
 図18Aおよび図18Bに示すように、非発作時、視点が連続して中心部外に位置する時間の割合がR1を超えることはないが、発作時区間では視点が連続して中心部外に位置する時間の割合が、約R2になる。例えば、図18Aおよび図18Bに示すように、閾値R1、R2で、癲癇の発症と峻別できる。
 これらの割合等の癲癇の判定に必要なデータが、基準の対象者センシング値として、ウェアラブル端末装置w2に対応するセンサIDと、道路区分IDと、癲癇を示す疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、割合の閾値R1、R2等は、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 次に、図19は、シートセンサss2により測定した座圧分布のデータの一例である。
 図19に示すような座圧分布のデータから計算される偏り度(対象者センシング値の一例)が、複数回の測定に対して平均される。複数回の測定は、同じ人に対する複数回の測定でもよいし、同じ属性の複数人に対する測定でもよい。平均の偏り度等の所定の疾患の判定に必要なデータが、基準の対象者センシング値として、シートセンサssに対応するセンサIDと、道路区分IDと、疾患IDとに関連付けて疾患判定DB12fに記憶される。
 ここで、偏り度は、座圧分布の中心位置から算出される。中心位置は、例えば、座圧分布から算出される座圧分布の座圧中心位置COP(Center of Position)である。座圧中心位置は、例えば、座圧分布の重心(Gx,Gy)である。座圧分布の重心は、座圧のヒートマップの各点の位置に、その位置のヒートマップの値を重みとして加重平均した位置である。この場合、偏り度は、シートセンサssの原点(0,0)を起点として、x軸における重心の位置の値Gxである。なお、座圧中心位置は、座圧分布の座圧のヒートマップの各点の全体から算出される値ならばよい。
 中心位置は、例えば、座圧分布の分布形状から算出される形状中心位置でもよい。形状中心位置は、例えば、COB(Center of Body)である。この場合、偏り度は、車両Vの座席の左右位置中心の一例であるシートセンサssの原点(0,0)を起点として、x軸におけるCOBの位置の値である。なお、COBは、分布形状のくびれ部から決定される。また、図中の前側、後側、左側、右側は、対象者Tが座席に座った際の対象者Tの向きを表している。
 また、偏り度は、形状中心位置と座圧中心位置との差でもよい。例えば、偏り度は、Gx-COB、または、COB-Gxである。
 図20および図21は、座圧中心データおよび座圧分布の大きさの時系列の一例を示す模式図である。図中、グラフ(a)は、COPのx座標位置(COP COORDINATE)、グラフ(b)は、COPのy座標位置(COP COORDINATE)、グラフ(c)は、座圧分布の大きさの一例のである座圧面積(AREA OF SEAT PRESSURE)である。ここで、座圧面積は、例えば、座面全体の中で圧が加わった部分の割合で示される。図19において、座圧面積は、座圧が所定の値以上の割合で計算される。図20は、健常の対象者のデータの一例を示している。図21は、癲癇の疾患を有する対象者で、発作時t0に癲癇が生じた際のデータの一例を示している。
 図20に示すように、健常者では、COPが変化しても、座圧面積の変化はあまりみられなかった。しかし、図21に示すように、癲癇発作時t0にCOPが大きく変化し、かつ、座圧面積が狭小化、すなわち、座圧面積の閾値Sth以下にった。
 座圧分布のデータに対しても、座圧面積が、複数回の測定に対して平均される。平均の座圧面積の閾値等の癲癇の疾患の判定に必要なデータが、基準の対象者センシング値として、シートセンサssに対応するセンサIDと、各道路区分IDと、各疾患IDとに関連付けて疾患判定DB12fに記憶される。なお、座圧面積の閾値Sth等は、非発作時や発作時の平均的な値から設定され、疾患判定DB12fに記憶されてもよい。
 対象者情報DB12a、操作量DB12b、挙動量DB12c、運転環境情報DB12d、対象者センシングDB12e、および疾患判定DB12fは、情報処理サーバ装置10内でも、情報処理サーバ装置10とネットワークで繋がった別のサーバでもよいし、ネットワークNに、分散して存在してもよい。これらの別々のデータベースであってもよいし、同じデータベース内にあってもよい。
 出力部13は、映像を出力の場合、例えば、液晶表示素子またはEL(Electro Luminescence)素子等を有する。出力部13は、音を出力する場合、スピーカを有する。
 入力部14は、例えば、キーボードおよびマウス等を有する。
 入出力インターフェース部15は、通信部11および記憶部12等と制御部16との間のインターフェース処理を行うようになっている。
 制御部16は、CPU(Central Processing Unit)16a、ROM(Read Only Memory)16b、RAM(Random Access Memory)16c等を有する。そして、制御部16は、CPU16aが、ROM16bや記憶部12に記憶された各種プログラムのコードを読み出し実行することにより、各対象者Tの疾患状態を判定する。
(2.2 携帯端末装置20の構成および機能)
 次に、携帯端末装置20の構成および機能について、図22を用いて説明する。
 図22は、携帯端末装置20の概要構成の一例を示すブロック図である。
 図22に示すように、携帯端末装置20は、出力部21と、記憶部22と、通信部23と、入力部24と、センサ部25と、入出力インターフェース部26と、制御部27と、を有する。そして、制御部27と入出力インターフェース部26とは、システムバス28を介して電気的に接続されている。また、各携帯端末装置20には、携帯端末IDが割り振られている。携帯端末装置20は、時計機能を有する。携帯端末装置20は、携帯端末装置20を振動させるバイブレーション機能を有してもよい。
 出力部21は、例えば、表示機能として液晶表示素子またはEL素子等を有する。出力部32は、音を出力するスピーカを有する。
 記憶部22は、例えば、ハードディスクドライブ、ソリッドステートドライブ等により構成されている。記憶部22は、オペレーティングシステムおよび携帯端末装置20用のアプリ等の各種プログラム等を記憶する。なお、各種プログラムは、例えば、他のサーバ装置等からネットワークNを介して取得されるようにしてもよいし、記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。また、記憶部22が、情報処理サーバ装置10の記憶部12のようなデータベースの情報を有してもよい。
 通信部23は、ネットワークNに電気的または電磁気的に接続して、情報処理サーバ装置10等との通信状態を制御するようになっている。また、通信部23は、情報処理サーバ装置10と電気的または電磁気的に接続して、情報処理サーバ装置10との通信状態を制御するようになっている。
 通信部23は、電波や赤外線による端末装置との通信を行う無線通信の機能を有する。携帯端末装置20は、通信部23を介して、車載端末装置30と、家庭端末装置40との通信を行う。また、図2に示すように、対象者Tが携帯している携帯端末装置20は、対象者Tが座っている座席に設置されたシートセンサssと、対象者Tが身につけているウェアラブル端末装置w1、w2と、通信部23を介して通信を行う。なお、携帯端末装置20は、車載端末装置30、家庭端末装置40、シートセンサss、および、ウェアラブル端末装置w1、w2と、有線による通信を行ってもよい。
 通信部23は、ICタグのリーダーとして、ICタグとの通信を行ってもよい。
 入力部24は、例えば、タッチパネルのようなタッチスイッチ方式の表示パネルを有する。入力部24は、利用者の指が接触または近接した出力部21の位置情報を取得する。入力部24は、音声を入力するマイクを有する。
 センサ部25は、GPS(Global Positioning System)センサ、方位センサ加速度センサ、ジャイロセンサ、気圧センサ、温度センサ、湿度センサ等の各種センサを有する。センサ部25は、デジタルカメラのCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮影素子を有する。携帯端末装置20は、GPSセンサにより、携帯端末装置20の現在の位置情報を取得する。なお、各センサには、固有のセンサIDが割り振られている。
 入出力インターフェース部26は、出力部21、記憶部22等と、制御部27との間のインターフェース処理を行うようになっている。
 制御部27は、CPU27a、ROM27b、RAM27c等により構成されている。そして、制御部27は、CPU27aが、ROM27bや記憶部22に記憶された各種プログラムを読み出し実行する。
 ここで、ウェアラブル端末装置w1は、リストバンド型のウェアラブルコンピュータである。ウェアラブル端末装置w1は、出力部と、記憶部と、通信部と、入力部と、センサ部と、入出力インターフェース部と、制御部と、タイマー部と、を有する(図示せず)。
 ウェアラブル端末装置w1のセンサ部が、対象者Tの各種生理データを測定する。
 センサ部は、加速度センサ、ジャイロセンサ、温度センサ、圧力センサ、超音波センサ、光センサ、電気センサ、磁気センサ、イメージセンサ等を有する。なお、各センサには、固有のセンサIDが割り振られている。
 加速度センサは、ウェアラブル端末装置w1の加速度を測定する。加速度センサの測定データから、対象者Tの腕の動きが測定される。ジャイロセンサは、ウェアラブル端末装置w1の角加速度を測定する。ジャイロセンサの測定データから、対象者Tの腕の回旋が測定される。ウェアラブル端末装置w1が、加速度センサやジャイロセンサにより、睡眠中の姿勢、寝返りの回数、歩数等を測定してもよい。
 温度センサは、接触した部位またはサーモグラフィーによって撮像された部位の温度を測定する。圧力センサは、例えば、脈波を測定する。光センサは、電磁波を皮膚等に照射した応答、すなわち、反射波および透過波の少なくとも一方を検出する。光センサにより、血流の速度、血液の成分等が測定される。
 超音波センサは、超音波を照射した応答、すなわち、反射波および透過波の少なくとも一方を検出する。
 電気センサは、電圧、電流、インピーダンス等を測定する。電気センサは、筋肉の働き、血流、神経の興奮等により発生した電場を測定する。電気センサは、また、電極と組み合せて、汗の成分等を検出し、化学センサ、pHセンサ等として機能する。
 磁気センサは、筋肉の働き、血流、神経の興奮等により発生した磁場を測定する。
 イメージセンサは、皮膚の色、表面温度、表面の動き、血流の流れ、汗の様子等を検出する。
 また、センサ部は、GPSセンサ、方位センサ気圧センサ等を有する。ウェアラブル端末装置w1が、これらのセンサにより、移動距離、運動量等を測定してもよい。
 また、入力部のマイクが、対象者Tの睡眠中の鼾や呼吸音を捉えてもよい。
 ウェアラブル端末装置w1のセンサ部またはステアリングホイールなどの対象者との接触部分に埋め込まれたセンサにより測定された対象者センシングデータは、通信部を介して、携帯端末装置20に送信される。なお、ウェアラブル端末装置w1が、車載端末装置30に測定した対象者センシングデータを送信してもよい。
 また、ウェアラブル端末装置w2は、眼鏡型のウェアラブルコンピュータである。ウェアラブル端末装置w2は、ウェアラブル端末装置w1と同様に、出力部と、記憶部と、通信部と、入力部と、センサ部と、入出力インターフェース部と、制御部と、タイマー部と、を有する(図示せず)。
 ウェアラブル端末装置w2のセンサ部は、さらに、視点の移動を測定するためのセンサを有する。例えば、このセンサ部は、角膜反射法の場合、眼球に照射する遠赤外線等の光線を照射するLEDと、対象者Tの目を撮影するアイトラッキング用のカメラを有する。ウェアラブル端末装置w2の制御部が、画像から角膜上の反射点や瞳孔の位置から対象者Tの視線の位置を算出して、出力部から視線データを出力する。
 ウェアラブル端末装置w2は、主に、視線の位置、瞬き、瞳孔の大きさ等を計測する。
 なお、ウェアラブル端末装置w2は、センサ部のLEDから遠赤外線等の光線を照射せず、対象者Tの目を撮影するカメラの画像から、画像処理して、白い強膜の部分と、角膜とを区別して、視線の位置を特定してもよい。
 ウェアラブル端末装置w2のセンサ部は、アイトラッカーで、アイトラッキングの機能のみでもよい。ウェアラブル端末装置w2は、コンタクトレンズ型でもよい。また、ウェアラブル端末装置w2のセンサ部は、筋電を測定するセンサを有しもよい。このセンサ部が、眼の周りの筋電を測定して、眼球の向きを計算し、視線データを求めてもよい。また、ウェアラブル端末装置w2は、こめかみ部分から脈拍、血圧、体温等を測定してもよい。
 なお、ウェアラブル端末装置w1、w2のタイプとして、図2の眼鏡型およびリストバンド型の他に、指輪型、靴型、懐中型、首飾り型、衣服型等でもよい。
(2.3 車載端末装置30の構成および機能)
 次に、車載端末装置30の構成および機能について図23を用いて説明する。
 図23は、車載端末装置30の概要構成の一例を示すブロック図である。
 図23に示すように、車載端末装置30は、出力部31と、記憶部32と、通信部33と、入力部34と、センサ部35と、入出力インターフェース部36と、制御部37と、を有する。そして、制御部37と入出力インターフェース部36とは、システムバス38を介して電気的に接続されている。また、各車載端末装置30には、車両IDが割り振られている。車載端末装置30は、時計機能を有する。
 図2に示すように、車載端末装置30は、車両Vに搭載されている、例えば、ナビゲーション装置である。
 出力部31は、例えば、表示機能として液晶表示素子またはEL素子等、音楽等の音を出力するスピーカ等を有する。
 記憶部32は、例えば、ハードディスクドライブ、ソリッドステートドライブ等により構成されている。記憶部32は、オペレーティングシステムおよび車載端末装置30用のアプリ等の各種プログラム等を記憶する。なお、各種プログラムは、例えば、他のサーバ装置等からネットワークNを介して取得されるようにしてもよいし、記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。また、記憶部32が、情報処理サーバ装置10の記憶部12のようなデータベースの情報を有してもよい。
 記憶部32は、車両Vをナビゲートするための地図情報を有する。
 なお、記憶部32には、車載端末装置30が搭載された車両Vを運転する対象者T(複数でもよい)に関して、記憶部12のように、対象者情報DB、操作量DB、挙動量DB、運転環境情報DB、および対象者センシングDBが構築されていてもよい。
 通信部33は、ネットワークNに電気的または電磁気的に接続して、情報処理サーバ装置10等との通信状態を制御するようになっている。また、通信部33は、情報処理サーバ装置10と電気的または電磁気的に接続して、情報処理サーバ装置10との通信状態を制御するようになっている。通信部33は、無線通信により、携帯端末装置20との通信を制御するようになっている。通信部33は、シートセンサssと、ウェアラブル端末装置w1、w2と、通信を行ってもよい。
 通信部33は、車両Vの駆動機構と通信を行う。例えば、車載端末装置30の通信部33を介して、制御信号を車両Vの駆動機構に送信し、車両Vを止めたり、所定の場所に止めたり、病院等の所定の場所にナビゲートしたりする。
 入力部34は、例えば、タッチパネルのようなタッチスイッチ方式の表示パネルを有する。入力部34は、利用者の指が接触または近接した出力部31の位置情報を取得する。入力部34は、音声を入力するマイクを有する。
 センサ部35は、ステアリングホイールswの操舵角を測定する角度センサ、アクセルの操作を測定するアクセルストロークセンサ、ブレーキペダルの操作を測定するブレーストロークセンサ等の操作量を測定する各種センサを有する。
 センサ部35は、GPSセンサ、方位センサ、加速度センサ、ジャイロセンサ、ミリ波レーダー用のセンサ等の車両Vの挙動量を測定する各種センサを有する。GPSセンサは、車両Vの現在の位置情報を取得する。
 センサ部35は、気圧センサ、温度センサ、晴雨センサ等の各種センサを有する。
 センサ部35は、デジタルカメラのCCDイメージセンサやCMOSイメージセンサ等の撮影素子を有する。例えば、図2に示すように、センサ部35は、カメラ35aおよびカメラ35bを有する。
 カメラ35aは、車両Vの外の様子を撮像する。車載端末装置30は、カメラ35aの画像により、車両Vの挙動量が測定される。例えば、車両Vの前方、側方、または、後方を撮影するカメラの画像データに基づき、車線の画像や風景から、車両Vの挙動量データの一例であるふらつきデータが測定されてもよい。センサ部35のカメラにより、車間距離を測定したり、停止位置を測定したり、車線逸脱を測定したりしてもよい。センサ部35のカメラにより、路面の状態(雨の有無、雪の有無、舗装の有無等)を測定したり、人間の有無を測定したりしてもよい。
 カメラ35bは、対象者Tを撮像する。車載端末装置30は、カメラ35bの画像により、顔認識で対象者Tを認証したり、対象者Tの顔色を測定したり、対象者Tが居眠りしていないか判定したりする。また、車両Vの内部を撮影するカメラの画像データに基づき、対象者Tの動きから操作量が測定されてもよい。
 また、カメラ35bは、アイトラッキング用のカメラでもよい。この場合、眼に遠赤外線等の光線を当てて、カメラ35bが、反射光を捉えてもよい。
 入出力インターフェース部36は、出力部31、記憶部32等と、制御部37との間のインターフェース処理を行うようになっている。
 制御部37は、CPU37a、ROM37b、RAM37c等により構成されている。そして、制御部37は、CPU37aが、ROM37bや記憶部32に記憶された各種プログラムを読み出し実行する。
[3. 疾患状態判定システムSの動作例]
 疾患状態判定システムSの動作例について、図を用いて説明する。
(3.1 データの収集)
 先ず、操作量データおよび挙動量データ、対象者Tのセンシングデータ等のデータ収集の動作例について、図を用いて説明する。図24は、データ収集の動作例を示すフローチャートである。図25は、車両Vが走行した道路の一例を示す模式図である。
 図2に示すように、対象者Tが車両Vに乗車して、車載端末装置30の電源がONになる。車載端末装置30が車両Vの運転者を特定する。例えば、車載端末装置30のカメラ35bにより対象者Tを撮像して、顔認識を行ってよい。車載端末装置30が、対象者Tの携帯端末装置20またはウェアラブル端末装置w1、w2と通信を行い、対象者Tを特定してもよい。車載端末装置30が、車両Vのステアリングホイールswになる指紋認識のセンサにより、対象者Tを特定してもよい。車載端末装置30が、これらの対象者Tの特定方法を組み合せて運転者を特定してもよい。対象者Tが携帯する携帯端末装置20の携帯端末IDにより対象者Tを特定してもよい。
 なお、対象者T、実際の車両でもよいし、ドライブシミュレータで運転を行ってもよい。
 対象者Tが車両Vを運転すると、車載端末装置30が、操作量データおよび挙動量データの測定を開始する。携帯端末装置20は、センシングデータの測定をする。
 次に、図24に示すように、疾患状態判定システムSは、車両Vの各センサからのデータを収集する(ステップS1)。具体的には、車載端末装置30の制御部37が、センサ部35の各センサが測定したデータを、時計機能の測定時刻と共に、各センサから取得する。例えば、制御部37が、車両Vの操作量として、センサ部35の各センサから、ステアリングホイールswの操舵角の操舵角データ、アクセルストロークデータ、ブレーキストロークデータ等の操作量データを取得する。また、制御部37が、車両Vの挙動量として、センサ部35の各センサから、ふらつきデータ、車両Vの現在の位置情報、車両Vの進行方向、速度、加速度、車間距離等を取得する。
 また、制御部37が、センサ部35のカメラ35aにより、ふらつきデータとして、
車両Vの外の画像を取得してもよい。制御部37がカメラ35bにより、対象者Tの画像を取得する。なお、センサ部35の各センサが測定した測定時刻は、車載端末装置30の時計機能により測定されてもよい。
 次に、疾患状態判定システムSは、ウェアラブル端末装置w1、w2のセンサおよびシートセンサssから、対象者Tのセンシングデータを収集する(ステップS2)。具体的には、車両Vを運転している対象者Tの携帯端末装置20の制御部27が、ウェアラブル端末装置w1、w2のセンサ部の各センサおよびシートセンサssが測定したセンシングデータを、ウェアラブル端末装置w1、w2から取得する。制御部27が、車両Vを操作している対象者Tの視線データを、ウェアラブル端末装置w2から取得する。制御部27が、車両Vを操作している対象者Tの腕の回旋の回旋データを、両腕のウェアラブル端末装置w1から取得する。制御部27が、車両Vを操作する対象者Tが座る座面の座圧分布のデータを、シートセンサssから取得する。
 測定時刻は、携帯端末装置20の時計機能によって測定されたり、ウェアラブル端末装置w1、2の時計機能によって測定されてもよい。
 次に、車載端末装置30が、携帯端末装置20を介してセンシングデータを取得する。なお、携帯端末装置20が、操作量データおよび挙動量データを、車載端末装置30を介して取得してもよい。
 測定されたデータは、各端末装置に記憶されてもよい。記憶部32に測定したデータを記憶する場合、車載端末装置30が、対象者ID、操作量ID,挙動量ID、センサIDに関連付けて、測定したデータを記憶部32に記憶してもよい。または、携帯端末装置20が、対象者ID、操作量ID,挙動量ID、センサIDに関連付けて、測定したデータを記憶部22に記憶してもよい。
 次に、疾患状態判定システムSは、収集したデータを、情報処理サーバ装置10に送信する(ステップS3)。具体的には、車載端末装置30は、取得したデータを、情報処理サーバ装置10に送信する。さらに、具体的には、制御部37が、車両Vの操作量データと、測定時刻と、測定位置と、対象者IDと、操作量IDと,を情報処理サーバ装置10に送信する。制御部37が、車両Vの挙動量データと、測定時刻と、測定位置と、対象者IDと、挙動量IDと、を情報処理サーバ装置10に送信する。
制御部37が、対象者Tの視線データと、測定時刻と、測定位置と、対象者ID、視線の移動を測定するためのセンサのセンサIDと、を情報処理サーバ装置10に送信する。制御部37が、対象者Tの座圧分布のデータと、測定時刻と、測定位置と、対象者ID、座圧分布のデータのセンサIDと、を情報処理サーバ装置10に送信する。
 制御部37が、対象者IDの代わりに、車両IDを送信してもよい。携帯端末装置20が、センシングデータを情報処理サーバ装置10に送信してもよい。携帯端末装置20が、操作量データおよび挙動量データを送信してもよい。
 測定されたデータは、情報処理サーバ装置10に逐次送信されてもよいし、まとめて送信されてもよい。逐次送信する場合、車載端末装置30が、パケットで所定のデータを送信してよいし、トンネル内等で通信状態が悪く通信が途絶えたとき、データをまとめて送信してもよい。
 また、まとめて送信する場合、所定の運転区間における測定されたデータ、所定の運転期間における測定されたデータ等の所定のデータを車載端末装置30が送信してもよい。または、車載端末装置30が、運転が終了後にまとめて測定したデータを情報処理サーバ装置10に送信してもよい。
 次に、疾患状態判定システムSは、収集したデータを車載端末装置30から受信する(ステップS4)。具体的には、情報処理サーバ装置10は、車両Vの操作量データと、車両Vの挙動量データと、を車載端末装置30から受信する。情報処理サーバ装置10は、視線データおよび座圧分布のデータのようなセンシングデータを車載端末装置30から受信する。
 このように、情報処理サーバ装置10は、対象者の車両に対する運転特性を示す運転特性データを取得する運転特性データ取得手段の一例として機能する。情報処理サーバ装置10は、対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得手段の一例として機能する。情報処理サーバ装置10は、車両において対象者が座る座面の座圧分布のデータを取得する座圧分布取得手段の一例として機能する。
 次に、情報処理サーバ装置10は、受信したデータを記憶部12に記憶する(ステップS5)。具体的には、情報処理サーバ装置10の制御部16が、受信した操作量データ、測定時刻、位置情報等を、対象者IDと操作量IDとに関連付けて、操作量DB12bに記憶する。制御部16が、受信した挙動量データ、測定時刻、位置情報等を、対象者IDと挙動量IDとに関連付けて、挙動量DB12cに記憶する。制御部16が、受信したセンシングデータ、測定時刻、位置情報等を、対象者IDとセンサIDとに関連付けて、対象者センシングDB12eに記憶する。
 図25に示すように、車両Vが走行した道路が、受信した車両Vの位置情報から特定される。なお、車載端末装置30のナビゲーション機能により、走行する道路を予め設定してもよい。
 また、情報処理サーバ装置10が、道路情報提供サーバ装置から運転環境情報を取得して、運転環境情報DB12dのデータが更新される。
 (3.2 疾患状態を判定する動作例)
 次に、ある特定の対象者Tに対して、疾患状態を判定する動作例について図を用いて説明する。
 図26は、癲癇等の疾患状態を判定する動作例を示すフローチャートである。図27は、車両Vが走行した道路の一例を示す模式図である。
 図26に示すように、情報処理サーバ装置10は、対象者Tが車両Vを操作する操作量データおよび車両の挙動の挙動量データ等の車両運転特性データを取得する(ステップS10)。
 操作量データの場合、情報処理サーバ装置10の制御部16が、操作量DB12b参照して、対象者Tの対象者IDと各操作量IDとに基づき、操舵角データ、アクセルストロークデータ等の各操作量データ、測定時刻、車両Vの位置情報を取得する。例えば、制御部16は、図25に示すような道路を走行したときの各操作量データを取得する。
 挙動量データの場合、制御部16が、挙動量DB12c参照して、対象者Tの対象者IDと各挙動量IDとに基づき、ふらつきデータ、車速データ、横加速度データ等の各挙動量データ、測定時刻、車両Vの位置情報を取得する。例えば、制御部16は、図25に示すような道路を走行したときの各挙動量データを取得する。
 情報処理サーバ装置10は、対象者の車両に対する運転特性を示す運転特性データを取得する運転特性データ取得手段の一例として機能する。
 次に、情報処理サーバ装置10は、対象者センシングデータを取得する(ステップS11)。具体的には、制御部16が、対象者センシングDB12eして、対象者Tの対象者IDと各センサIDとに基づき、視線データ、座圧分布のデータ等の各対象者センシングデータ、測定時刻、車両Vの位置情報を取得する。例えば、制御部16は、図25に示すような道路を走行したときの各対象者センシングデータを取得する。
 このように、情報処理サーバ装置10は、対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得手段の一例として機能する。情報処理サーバ装置10は、車両において対象者が座る座面の座圧分布のデータを取得する座圧分布取得手段の一例として機能する。
 次に、情報処理サーバ装置10は、道路環境情報を取得する(ステップS12)。具体的には、制御部16が、運転環境情報DB12dを参照して、図25に示すような走行した道路の道路環境情報を取得する。
 次に、情報処理サーバ装置10は、道路に応じてデータを分別する(ステップS13)。具体的には、制御部16が、各操作量データおよび各挙動量データ等の車両運転特性データに対して、これらのデータが測定された時の車両Vの位置情報と、取得した道路環境情報とに基づき、各操作量データおよび各挙動量データ等の車両運転特性データを区分けする。さらに具体的には、制御部16が、標準的な高速道路を走行している位置の各操作量データおよび各挙動量データと、東京の首都高速道路のようにカーブが比較的多い高速道路を走行している位置の各操作量データおよび各挙動量データとに分ける。これらのように、制御部16が、車両Vが走行している道路の種別により、データを分別する。
 また、制御部16が、各位置情報から道路の曲率を計算して、曲率に応じてカーブを分類して、各操作量データおよび各挙動量データがどの区間に属するか分別してもよい。制御部16が、所定の曲率以下の道路を直線と見なし、その他はカーブ区間として、直線区間およびカー区間に応じて、各操作量データおよび各挙動量データを分別してもよい。図27に示すように、左カーブと右カーブとにカーブが分別されてもよい。図27に示すように、所定の曲率以上のカーブ毎に、カーブが分別されてもよい。
 このように、情報処理サーバ装置10が、操作量データを、車両が走行する道路の曲線の度合いに応じて分別する。
 次に、制御部16が、運転環境情報DB12dを参照して、分別された各データの道路区分IDを位置情報から特定する。なお、制御部16が、曲率または位置情報から、類似した道路の曲がり具合のパターンを有する道路の道路区分IDを特定してもよい。
 視線データや座圧分布のデータ等の各対象者センシングデータに関しても、各操作量データおよび各挙動量データと同様に道路に応じて分別され、道路区分IDが特定される。
 次に、情報処理サーバ装置10は、視線データと車両運転特性データとの乖離度を算出する(ステップS14)。具体的には、制御部16が、取得した時系列の視線データおよび車両運転特性データを、最低値0、最大値が100になるように規格化する。例えば、制御部16が、横方向の視線の動きの視線データと、操舵角データと、操舵トルクデータと、車両横加速度とを、最低値0、最大値が100になるように規格化する。
 制御部16が、規格化された視線データおよび車両運転特性データの差分値(例えば、差分の絶対値)を計算する。制御部16が、所定の時間長における差分値の合計または平均値等を計算して、乖離度とする。例えば、制御部16が、規格化された横方向の視線の動きの視線データと操舵角データとの差分値から、視線と操舵角と乖離度を計算する。制御部16が、規格化された横方向の視線の動きの視線データと操舵トルクとの差分値から、視線と操舵トルクと乖離度を計算する。制御部16が、規格化された横方向の視線の動きの視線データと車両横加速度データとの差分値から、視線と車両横加速度と乖離度を計算する。
 なお、制御部16が、規格化された視線データおよび車両運転特性データの差分値の時系列の移動平均や、指数平滑を計算してもよい。
 次に、制御部16が、各乖離度の時系列から、各乖離度が閾値D0thを超えてからの各経過時間を計算する。例えば、ある解離度が設定されて(例えば規格化した最大値を100とした場合の20あるいは30等)、設定された解離度を超えた場合に、制御部16が、設定された解離度を超えた時点からの経過時間を計測する。
 次に、情報処理サーバ装置10は、取得した視線データから、視線の位置が連続して(例えば、100ms以上)、設定された視野の中心部から外れた位置している持続時間や平均時間を計算する。情報処理サーバ装置10は、取得した視線データから、視線の位置が連続して、設定された中心部外に位置した割合を計算する。
 情報処理サーバ装置10は、横方向の視線の動きの視線データのみで、設定された中心部に位置している持続時間、平均時間、中心部外に位置した割合等を計算してもよい。
 例えば、持続時間に関して、運転席に着座して前方正面を見たときの視野の中心部の範囲が設定され、かつ設定された中心部から視点が連続して外れる時間(例えば100ms以上)が設定された時、情報処理サーバ装置10が、設定された連続時間を超えて視点が設定された中心部外に連続して位置した経過時間を持続時間として算出する。
 平均時間に関して、設定された連続時間を超えて視点が中心部外に位置した後、再び中心部の範囲内に戻り、その後再度中心部外に位置するという状態を繰り返すことがある。この場合に、情報処理サーバ装置10が、各区間(発作区間等)において、複数の”中心部外に視点が連続して位置した持続時間”を平均した時間を”平均時間”として算出する。
 割合に関して、情報処理サーバ装置10が、各区間(発作発生区間など)の総時間(フレーム数)に対して、視点が連続して中心部外に位置した時間(フレーム数)の割合を計算する。
 次に、情報処理サーバ装置10は、操作関連データを算出する。具体的には、制御部16が、操作量データから、所定の周波数範囲の成分における操作関連データを算出する。例えば、制御部16が、操作量データを離散フーリエ変換して、各周波数のパワースペクトル密度を算出する。
 次に、制御部16が、疾患判定DB12fを参照して、道路区分ID、疾患ID、操作量IDに基づき、所定の周波数範囲を特定する。制御部16が、パワースペクトル密度から所定の周波数範囲の成分の部分に相当するパワースペクトルの成分を、操作関連データとしを抽出する。
 操作量データが操舵角データの場合、操作関連データは、操舵角データの時間微分より算出される操舵角速度や操舵角加速度(操舵トルク)でもよい。
 なお、制御部16が、挙動量データから、所定の周波数値や所定の周波数範囲の成分における挙動関連データを算出してもよい。例えば、制御部16が、挙動量データを離散フーリエ変換して、各周波数のパワースペクトル密度を挙動関連データとして算出してもよい。
 次に、情報処理サーバ装置10は、操作値および挙動値を算出する(ステップS15)。具体的には、制御部16が、道路区分ID、疾患ID、操作量IDに基づき、疾患判定DB12fを参照して、時系列の操作関連データや、周波数の関数である操作関連データのスペクトルを数値化した周波数分析値を算出するまた、制御部16が、道路区分ID、疾患ID、操作量IDに基づき、疾患判定DB12fを参照して、時系列の挙動量データや、周波数の関数である挙動量データのスペクトルを数値化した周波数分析値を算出する。
 例えば、疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、操作量IDが操舵角を示す場合、図13Aに示すような周波数値f0、f1のいずれか、または、これらの組み合わせの周波数におけるパワースペクトル密度を算出する。疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、操作量IDが操作トルクの場合、例えば、図13B示すような周波数値f2におけるパワースペクトル密度を算出する。所定の周波数値でなく、所定の周波数範囲の場合、制御部16が、所定の周波数範囲におけるパワースペクトル密度を合計した合計値を、周波数分析値として算出する。
 なお、操作値は、操舵角速度の絶対値の積分より算出する総操舵量でもよい。操作値は、操舵角データを離散フーリエ変換し、所定の周波数帯のパワースペクトル密度の和である修正操舵量でもよい。操作値は、操舵角速度の標準偏差、ステアリングの滑らかさ、操舵角速度の最大値、操舵角データのエントロピーを計算したステアリングエントロピーでもよい。
 また、制御部16が、挙動値として、道路区分IDの示す道路を走行した際のふらつき度(例えば、SDLP)を、ふらつきデータから算出する。なお、車両Vのふらつき度は、道路からの逸脱回数または頻度(車線逸脱警告の発信頻度)でもよい。車間距離としての挙動量データは、車間距離(または車間時間)の値や変動度、前方を走行する車両に対する接近(例えば、車間時間が3秒以内、1秒以内等)の回数および頻度(前方衝突警報の発信頻度)でもよい。停車した場合の一時停止の場所からの距離を、挙動量データとしてもよい。これらの挙動量データから、挙動値であるふらつき度が算出されてもよい。
 制御部16が、挙動値として、道路区分IDの示す道路を走行した際の平均の車速を、車速データから算出する。制御部16が、挙動値として、道路区分IDの示す道路を走行した際の平均の横加速度値を、横加速度データから算出する。
 なお、制御部16が、挙動関連データから挙動値を算出してもよい。例えば、制御部16が、所定の周波数範囲におけるパワースペクトル密度を合計した合計値を、挙動値として算出する。
 次に、情報処理サーバ装置10は、視点が連続して視野の中心部外に位置した時間を算出する(ステップS16)。具体的には、制御部16が、視線データにおいて、所定の中心部の範囲から外れた否かを判定する。なお、図16Aおよび図16B等に示すように、複数の所定の中心部の範囲で、判定してもよい。
 中心部の範囲から外れている場合、制御部16が、所定の中心部の範囲から連続して外れている持続時間を計算する。持続時間が、例えば、100msより小さいならば、カウントせず切り捨てる。
 制御部16が、視線データの所定期間において、持続時間の平均値、すなわち、平均時間を計算する。また、視線データの所定期間において、視点が連続して中心部外に位置した持続時間の割合を計算する。
 次に、情報処理サーバ装置10は、座圧分布に応じて中心位置を算出する。中心位置が形状中心位置の場合、制御部16が、図19に示すような座圧分布の分布マップにおいて、xの最小値から順に、yの最大値、すなわち、対象者Tの前側のラインから走査する。走査して分布形状の外縁に到達したら、制御部16が、xの値と共に、yの値を、前側のラインから分布形状の外縁までの距離として記憶する。制御部16が、xの値をインクリメントして、前側のラインから走査する。制御部16が、これらをxの最大値まで走査を反復する。走査終了後、制御部16が、前側のラインから分布形状の外縁までの距離が極大となるxの位置を、分布形状の形状中心位置として算出する。図25に示すように、極大値が2以上の場合、平均した位置が、形状中心位置となる。なお、形状中心位置の算出方法は、上記の方法に限らず、座圧の分布の左右を分ける、分布形状のくびれ部が算出できればよい。
 分布形状の外縁は、座圧分布の分布マップにおいて、座圧の値が所定値以上のところである。なお、制御部16が、所定値を変化させて、分布形状のくびれ部のx方向の位置を複数算出して、平均した位置を、形状中心位置としてもよい。
 中心位置が座圧中心位置の場合、制御部16が、座圧分布の分布マップの各ピクセルの値と位置とから、分布形状重心(Gx,Gy)を、座圧中心位置として算出する。
 次に、情報処理サーバ装置10は、対象者センシング値として、偏り度を算出する。具体的には、制御部16が、形状中心位置と座圧中心位置との差を算出する。
 次に、情報処理サーバ装置10は、座圧分布の大きさを算出する(ステップS17)。具体的には、制御部16が、図19に示すように、座圧が所定の値以上のピクセル、または、単位区画をカウントする。制御部16が、カウント数を、座面全体のピクセル数、単位区画の数で割って、座圧面積として、座面全体の中で圧が加わった部分の割合を計算する。
 このように、情報処理サーバ装置10は、座圧分布の大きさを算出する圧力分布算出手段の一例として機能する。
 次に、情報処理サーバ装置10は、癲癇等の疾患状態を判定する(ステップS18)。具体的には、制御部16が、道路区分ID、疾患ID、操作量IDに基づき、疾患判定DB12fを参照して、基準の操作値と、対象者Tの算出した操作値とを比較して、対象者Tが、疾患IDの疾患である否か、疾患IDの疾患の程度等の疾患状態を判定する。
 例えば、疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、センサIDが視線で、操作量IDが操舵角を示す場合、制御部16が、ステップS14で計算した乖離度と乖離度がD0thを超えてから経過時間とを、図12Aに示すような乖離度の閾値Dthと経過時間の閾値Tthと比較して、癲癇状態か否かを判定する。乖離度の閾値Dthと経過時間の閾値Tthとを超えた場合、制御部16が、癲癇状態であると判定する。
 疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、センサIDが視線で、操作量IDが操舵トルクを示す場合、制御部16が、ステップS14で計算した乖離度と乖離度がD0thを超えてから経過時間とを、図12Bに示すような乖離度の閾値Dthと経過時間の閾値Tthと比較して、癲癇状態か否かを判定する。
 疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、センサIDが視線で、挙動量IDが車両横加速度を示す場合、制御部16が、ステップS14で計算した乖離度と乖離度がD0thを超えてから経過時間とを、図12Cに示すような乖離度の閾値Dthと経過時間の閾値Tthと比較して、癲癇状態か否かを判定する。
 このように、情報処理サーバ装置10は、視線データと運転特性データとの関係性に応じて、対象者の癲癇状態を判定可能な疾患状態判定手段の一例として機能する。情報処理サーバ装置10は、関係性の値が所定値以下になった場合、癲癇であると判定する疾患状態判定手段の一例として機能する。情報処理サーバ装置10は、乖離度が所定値以上である時間が所定時間以上の場合、癲癇であると判定する疾患状態判定手段の一例として機能する。
 次に、データをフーリエ変換した操作関連データの場合について説明する。
 例えば、疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、操作量IDが操舵角を示す場合、ステップS15で計算した、図13Aに示すような周波数値f0、f1における対象者Tの操作値と、周波数f0に対してパワースペクトル密度p0および周波数f1に対してパワースペクトル密度p1とを比較して、制御部16が、癲癇状態か否かを判定する。計算した各操作値が、パワースペクトル密度p0、p1より低い場合、制御部16が、癲癇状態であると判定する。
 疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、操作量IDが操舵トルクを示す場合、ステップS15で計算した、図13Bに示すような周波数値f2における対象者Tの操作値と、周波数f2に対してパワースペクトル密度p2とを比較して、制御部16が、癲癇状態か否かを判定する。
 疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、挙動量IDが車両横加速度を示す場合、ステップS15で計算した、図13Cに示すような周波数値f3における対象者Tの操作値と、周波数f3に対してパワースペクトル密度p3とを比較して、制御部16が、癲癇状態か否かを判定する。
 なお、情報処理サーバ装置10は、1つの操作値または挙動値に基づき疾患状態を判定してもよいし、複数の操作値に基づき疾患状態を判定してもよい。
 例えば、複数の操作値または挙動値に基づき判定する場合、各操作値等の判定において、所定の疾患状態と判定された判定数が所定の閾値を超えた場合、所定の疾患状態であると情報処理サーバ装置10は判定してもよい。所定の疾患状態であるとき判定結果を1として、所定の疾患状態でないとき判定結果を0として、情報処理サーバ装置10は、各操作値の判定結果の和(判定数)を計算する。また、情報処理サーバ装置10は、各操作値に重みを設けて、判定結果の和を計算してもよい。
 操作値と挙動値とを組み合わせて判定する場合、各操作値および各挙動値の判定において、所定の疾患状態と判定された判定数が所定の閾値を超えた場合、所定の疾患状態であると情報処理サーバ装置10は判定してもよい。また、情報処理サーバ装置10は、各操作値および各挙動値に重みを設けて、判定結果の和を計算してもよい。
 このように、情報処理サーバ装置10は、視線データと運転特性データとの関係性に応じて、対象者の癲癇状態を判定可能な疾患状態判定手段の一例として機能する。
 次に、対象者センシングデータの場合について説明する。
 制御部16が、道路区分ID、疾患ID、センサIDに基づき、疾患判定DB12fを参照して、基準の対象者センシング値と、対象者Tの算出した対象者センシング値とを比較して、対象者Tが、疾患IDの疾患である否か、疾患IDの疾患の程度等の疾患状態を制御部16が判定する。
 例えば、視線データの判定の場合について具体的に説明する。
 疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、センサIDが視線データを示す場合、ステップS16で計算した、所定の中心部の範囲から連続して外れている持続時間と、図16Aおよび図16Bに示すような閾値Tth1、閾値Tth2とを比較して、制御部16が、癲癇状態か否かを判定する。計算した持続時間が、閾値Tth1を超えた場合、または、閾値Tth2を超えた場合、これらの組み合わせの場合、制御部16が、癲癇状態であると判定する。
 疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、センサIDが視線データを示す場合、ステップS16で計算した、所定の中心部の範囲から連続して外れている持続時間の平均値と、図17Aおよび図17Bに示すような閾値Tthとを比較して、制御部16が、癲癇状態か否かを判定する。計算した持続時間の平均値が、閾値Tthを超えた場合、制御部16が、癲癇状態であると判定する。
 疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、センサIDが視線データを示す場合、ステップS16で計算した、視点が連続して中心部外に位置した持続時間の割合と、図18Aおよび図18Bに示すような閾値R1、閾値R2とを比較して、制御部16が、癲癇状態か否かを判定する。計算した持続時間が、閾値R1を超えた場合、または、閾値TR2を超えた場合、これらの組み合わせの場合、制御部16が、癲癇状態であると判定する。
 このように、情報処理サーバ装置10は、視線データが示す視線の位置が車両の進行方向における対象者の視野の中心部から外れた時間に応じて、対象者の癲癇状態を判定可能な疾患状態判定手段の一例として機能する。
 次に、座圧分布のデータの判定の場合について具体的に説明する。
 疾患IDが癲癇を示し、道路区分IDが東京の首都高速道路を示し、センサIDが視線データを示す場合、ステップS17で計算した座圧面積と、図21に示すような閾値Sthとを比較して、制御部16が、癲癇状態か否かを判定する。計算した座圧面積が、閾値Sth以下になった場合、制御部16が、癲癇状態であると判定する。
 また、座圧分布のデータから算出された偏り度に基づき、左側麻痺か右側麻痺かを、制御部16が判定してもよい。
 このように、情報処理サーバ装置10は、座圧分布の大きさの変化に応じて、対象者の癲癇状態を判定可能な疾患状態判定手段の一例として機能する。
 なお、情報処理サーバ装置10は、疾患の程度として、癲癇の場合、部分発作か、全体発作かでもよい。
 情報処理サーバ装置10は、操作値と挙動値と対象者センシング値を組み合わせて、疾患状態を判定してもよい。操作量データ、操作関連データ、操作値、挙動量データ、挙動関連データ、挙動値、対象者センシングデータ、対象者センシング関連データ、対象者センシング値等の中から、所定の疾患に対して最適な特徴量の組み合わせで、情報処理サーバ装置10は、疾患状態を判定してもよい。
 なお、情報処理サーバ装置10は、車載端末装置30等からデータを逐次取得して、疾患状態を判定してもよい。携帯端末装置20または車載端末装置30が、疾患状態判定装置の一例として、情報処理サーバ装置10の代わりに、測定したデータから疾患状態を判定してもよい。この場合、携帯端末装置20の制御部27、または、車載端末装置30の制御部37が、測定したデータから疾患状態を判定する。
 また、情報処理サーバ装置10は、家庭端末装置40からの生理データと、医療機関サーバ装置50の電子カルテ情報とにも基づき、疾患状態を判定してもよい。特に、庭端末装置40からの生理データと、医療機関サーバ装置50の電子カルテ情報とを基準にして、情報処理サーバ装置10は、疾患状態を判定してもよい。
 以上、本実施形態によれば、対象者Tが車両Vを運転しているときに測定された対象者Tの視線の位置を示す視線データと、対象者Tの車両Vに対する運転特性を示す運転特性データとの関係性に応じて、対象者Tの癲癇等の疾患状態を判定することにより、特殊な機器で無くても、視線データおよび運転特性データのような測定しやすいデータから、対象者Tの癲癇の状態を判定することができる。
 また、関係性の値が所定値以下になった場合、癲癇であると判定する場合、関係性の値により、対象者Tの癲癇の状態を容易に判定ができる。
 また、関係性が、視線データと運転特性データとの乖離度である場合、乖離度により、対象者Tの癲癇の状態を容易に判定ができる。
 また、乖離度が所定値以上である時間が所定時間以上の場合、癲癇であると判定する場合、乖離度および所定値以上である時間との組み合わせにより、対象者Tの癲癇の状態の判定の精度が向上する。
 また、運転特性データが、対象者Tが車両Vを操作する操作量データ、および、車両Vの挙動の挙動量データの少なくとも一方である場合、操作量データ等により、対象者Tの癲癇の状態を容易に判定ができる。
 また、視線データが示す視線の位置が車両Vの進行方向における対象者Tの視野の中心部から外れた時間に応じて、対象者Tの癲癇状態を判定する場合、この時間や、この時間から計算される持続時間、時間平均時間、中心部外に位置した割合等により、対象者Tの癲癇の状態を容易に判定ができる。
 また、本実施形態によれば、車両Vにおいて対象者Tが座る座面の座圧分布の大きさの変化に応じて、対象者Tの癲癇状態を判定することにより、特殊な機器で無くても、座圧分布のような測定しやすいデータから、対象者Tの癲癇の状態を判定することができる。
 また、本実施形態によれば、対象者Tが車両Vを運転しているときに測定された視線データが示す視線の位置が車両Vの進行方向における対象者Tの視野の中心部から外れた時間に応じて、対象者Tの癲癇状態を判定することにより、特殊な機器で無くても、視線データのような測定しやすいデータから、対象者Tの癲癇の状態を判定することができる。
 (変形例)
 次に、疾患状態の判定の変形例について説明する。
 情報処理サーバ装置10が、測定されたデータに対して、識別器を適用して、疾患状態を判定してもよい。識別器は、線形識別器または非線形識別器でもよい。識別器のパラメータを機械学習する機械学習の識別器でもよい。機械学習は、ニューラルネットワーク、遺伝的アルゴリズム、ベイジアンネットワーク、決定木学習、ロジスティクス回帰等が挙げられる。
 例えば、情報処理サーバ装置10が、視線データ等の対象者センシングデータ、対象者センシング関連データ、対象者センシング値、操作量データ、操作関連データ、操作値、視線データと操作量データとの乖離度等で、予め機械学習しておいて、機械学習のモデルのパラメータを、疾患判定DB12fに記憶しておく。なお、機械学習に利用するデータは、道路区分により分別されたデータでもよい。
 情報処理サーバ装置10が、ステップS14において算出された視線データと車両運転特性データとの乖離度に対して、ステップS18において、疾患判定DB12fを参照して識別器を適用して、疾患状態を判定してもよい。
 情報処理サーバ装置10が、ステップS15において算出された操作値および挙動値に対して、ステップS18において、疾患判定DB12fを参照して識別器を適用して、疾患状態を判定してもよい。
 情報処理サーバ装置10が、ステップS16において算出された視点が連続して中心部外に位置した時間に対して、ステップS18において、疾患判定DB12fを参照して識別器を適用して、疾患状態を判定してもよい。
 情報処理サーバ装置10が、ステップS17において算出され座圧分布の大きさに対して、ステップS18において、疾患判定DB12fを参照して識別器を適用して、疾患状態を判定してもよい。
 情報処理サーバ装置10が、算出された操作関連データ、挙動量関連データに対して、ステップS18において、疾患判定DB12fを参照して識別器を適用して、疾患状態を判定してもよい。
 情報処理サーバ装置10が、ステップS13において道路に応じて分別したデータにデータに対して、ステップS18において、疾患判定DB12fを参照して識別器を適用して、疾患状態を判定してもよい。
 操作量データ、挙動量データ、対象者センシングデータ等の複数のデータに対して、情報処理サーバ装置10が、疾患判定DB12fを参照して識別器を適用して、疾患状態を判定してもよい。
 操作量データ、挙動量データ、対象者センシングデータ等に対する機械学習により、対象者の疾患状態を判定する場合、対象者センシングデータ、対象者センシング値、操作量データの波形、操作値、挙動量データの波形、挙動値のパターンのパターン等により、疾患状態を判定することができる。
 携帯端末装置20または車載端末装置30が、上記識別器を備えてもよい。
 さらに、本発明は、上記各実施形態に限定されるものではない。上記各実施形態は、例示であり、本発明の特許請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。
 10:情報処理サーバ装置(疾患状態判定装置)
 12:記憶部(記憶手段)
 12f:疾患判定データベース(記憶手段)
 20:携帯端末装置(疾患状態判定装置、端末装置)
 30:車載端末装置(疾患状態判定装置、端末装置)
 S:疾患状態判定システム
 T:対象者
 V:車両

Claims (18)

  1.  対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得手段と、
     前記対象者の前記車両に対する運転特性を示す運転特性データを取得する運転特性データ取得手段と、
     前記視線データと前記運転特性データとの関係性に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定手段と、
     を備えることを特徴とする疾患状態判定装置。
  2.  請求項1に記載の疾患状態判定装置において、
     前記疾患状態判定手段が、前記関係性の値が所定値以下になった場合、癲癇であると判定することを特徴とする疾患状態判定装置。
  3.  請求項1または請求項2に記載の疾患状態判定装置において、
     前記関係性が、前記視線データと前記運転特性データとの乖離度であることを特徴とする疾患状態判定装置。
  4.  請求項3に記載の疾患状態判定装置において、
     前記疾患状態判定手段が、前記乖離度が所定値以上である時間が所定時間以上の場合、癲癇であると判定することを特徴とする疾患状態判定装置。
  5.  請求項1から請求項4のいずれか1項に記載の疾患状態判定装置において、
     前記運転特性データが、前記対象者が車両を操作する操作量データ、および、前記車両の挙動の挙動量データの少なくとも一方であることを特徴とする疾患状態判定装置。
  6.  請求項1から請求項5のいずれか1項に記載の疾患状態判定装置において、
     前記疾患状態判定手段が、前記視線データが示す視線の位置が前記車両の進行方向における前記対象者の視野の中心部から外れた時間に応じて、前記対象者の癲癇状態を判定することを特徴とする疾患状態判定装置。
  7.  請求項1から請求項6のいずれか1項に記載の疾患状態判定装置において、
     前記車両において前記対象者が座る座面の座圧分布のデータを取得する座圧分布取得手段と、
     前記座圧分布の大きさを算出する圧力分布算出手段と、
     を更に備え、
     前記疾患状態判定手段が、前記座圧分布の大きさの変化に応じて、前記対象者の癲癇状態を判定することを特徴とする疾患状態判定装置。
  8.  視線データ取得手段が、対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得ステップと、
     運転特性データ取得手段が、前記対象者の前記車両に対する運転特性を示す運転特性データを取得する運転特性データ取得ステップと、
     疾患状態判定手段が、前記視線データと前記運転特性データとの関係性に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定ステップと、
     を含むことを特徴とする疾患状態判定方法。
  9.  コンピュータを、
     対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得手段、
     前記対象者の前記車両に対する運転特性を示す運転特性データを取得する運転特性データ取得手段、および、
     前記視線データと前記運転特性データとの関係性に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定手段として機能させることを特徴とする疾患状態判定装置用のプログラム。
  10.  車両を運転している対象者に関するデータを収集する端末装置と、前記対象者に関するデータに基づき前記対象者の癲癇状態を判定する疾患状態判定装置と、を備えた疾患状態判定システムにおいて、
     前記疾患状態判定装置が、
     前記対象者が前記車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを、前記端末装置から取得する視線データ取得手段と、
     前記対象者の前記車両に対する運転特性を示す運転特性データを、前記端末装置から取得する運転特性データ取得手段と、
     前記視線データと前記運転特性データとの関係性に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定手段と、
     を有することを特徴とする疾患状態判定システム。
  11.  車両において対象者が座る座面の座圧分布のデータを取得する座圧分布取得手段と、
     前記座圧分布の大きさを算出する圧力分布算出手段と、
     前記座圧分布の大きさの変化に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定手段と、
     を備えることを特徴とする疾患状態判定装置。
  12.  座圧分布取得手段が、車両において対象者が座る座面の座圧分布のデータを取得する座圧分布取得ステップと、
     圧力分布算出手段が、前記座圧分布の大きさを算出する圧力分布算出ステップと、
     疾患状態判定手段が、前記座圧分布の大きさの変化に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定ステップと、
     を含むことを特徴とする疾患状態判定方法。
  13.  コンピュータを、
     車両において対象者が座る座面の座圧分布のデータを取得する座圧分布取得手段、
     前記座圧分布の大きさを算出する圧力分布算出手段、および、
     前記座圧分布の大きさの変化に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定手段として機能させることを特徴とする疾患状態判定装置用のプログラム。
  14.  車両を運転している対象者に関するデータを収集する端末装置と、前記対象者に関するデータに基づき前記対象者の癲癇状態を判定する疾患状態判定装置と、を備えた疾患状態判定システムにおいて、
     前記車両において前記対象者が座る座面の座圧分布のデータを、前記端末装置から取得する座圧分布取得手段と、
     前記座圧分布の大きさを算出する圧力分布算出手段と、
     前記座圧分布の大きさの変化に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定手段と、
     を有することを特徴とする疾患状態判定システム。
  15.  対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得手段と、
     前記視線データが示す視線の位置が前記車両の進行方向における前記対象者の視野の中心部から外れた時間に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定手段と、
     を備えることを特徴とする疾患状態判定装置。
  16.  視線データ取得手段が、対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得ステップと、
     疾患状態判定手段が、前記視線データが示す視線の位置が前記車両の進行方向における前記対象者の視野の中心部から外れた時間に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定ステップと、
     を含むことを特徴とする疾患状態判定方法。
  17.  コンピュータを、
     対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを取得する視線データ取得手段、および、
     前記視線データが示す視線の位置が前記車両の進行方向における前記対象者の視野の中心部から外れた時間に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定手段として機能させることを特徴とする疾患状態判定装置用のプログラム。
  18.  車両を運転している対象者に関するデータを収集する端末装置と、前記対象者に関するデータに基づき前記対象者の癲癇状態を判定する疾患状態判定装置と、を備えた疾患状態判定システムにおいて、
     前記疾患状態判定装置が、
     前記対象者が車両を運転しているときに測定された当該対象者の視線の位置を示す視線データを、前記端末装置から取得する視線データ取得手段と、
     前記視線データが示す視線の位置が前記車両の進行方向における前記対象者の視野の中心部から外れた時間に応じて、前記対象者の癲癇状態を判定可能な疾患状態判定手段と、
     を有することを特徴とする疾患状態判定システム。

     
PCT/JP2021/011933 2020-04-08 2021-03-23 疾患状態判定装置、疾患状態判定方法、疾患状態判定装置用プログラム、および、疾患状態判定システム WO2021205865A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/995,506 US20230174073A1 (en) 2020-04-08 2021-03-23 Disease-condition assessment device, disease-condition assessment method, program for disease-condition assessment device, and disease-condition assessment system
JP2022514380A JPWO2021205865A1 (ja) 2020-04-08 2021-03-23

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-069452 2020-04-08
JP2020069452 2020-04-08

Publications (1)

Publication Number Publication Date
WO2021205865A1 true WO2021205865A1 (ja) 2021-10-14

Family

ID=78023654

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/011933 WO2021205865A1 (ja) 2020-04-08 2021-03-23 疾患状態判定装置、疾患状態判定方法、疾患状態判定装置用プログラム、および、疾患状態判定システム

Country Status (3)

Country Link
US (1) US20230174073A1 (ja)
JP (1) JPWO2021205865A1 (ja)
WO (1) WO2021205865A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114190891A (zh) * 2021-12-02 2022-03-18 杭州极智医疗科技有限公司 基于眼动跟踪与沉浸式驾驶平台的单侧忽略评估系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017099846A (ja) * 2015-12-01 2017-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 体調推定装置、及び、体調推定システム
JP2018032338A (ja) * 2016-08-26 2018-03-01 マツダ株式会社 運転者体調検知装置及び方法
JP2020032786A (ja) * 2018-08-28 2020-03-05 マツダ株式会社 停車支援装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112015002934B4 (de) * 2014-06-23 2021-12-16 Denso Corporation Vorrichtung zum Erfassen eines Fahrunvermögenzustands eines Fahrers
KR102610759B1 (ko) * 2019-04-03 2023-12-08 현대자동차주식회사 졸음 운전 관리 장치, 그를 포함한 시스템 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017099846A (ja) * 2015-12-01 2017-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 体調推定装置、及び、体調推定システム
JP2018032338A (ja) * 2016-08-26 2018-03-01 マツダ株式会社 運転者体調検知装置及び方法
JP2020032786A (ja) * 2018-08-28 2020-03-05 マツダ株式会社 停車支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114190891A (zh) * 2021-12-02 2022-03-18 杭州极智医疗科技有限公司 基于眼动跟踪与沉浸式驾驶平台的单侧忽略评估系统
CN114190891B (zh) * 2021-12-02 2023-11-10 杭州极智医疗科技有限公司 基于眼动跟踪与沉浸式驾驶平台的单侧忽略评估系统

Also Published As

Publication number Publication date
US20230174073A1 (en) 2023-06-08
JPWO2021205865A1 (ja) 2021-10-14

Similar Documents

Publication Publication Date Title
JP6694649B2 (ja) 生理状態判定装置、生理状態判定方法、生理状態判定装置用プログラムおよび、生理状態判定システム
McDonald et al. A contextual and temporal algorithm for driver drowsiness detection
JP5326521B2 (ja) 覚醒状態判断装置及び覚醒状態判断方法
Katsis et al. Emotion recognition in car industry
Saleem et al. A systematic review of physiological signals based driver drowsiness detection systems
CN111986805A (zh) 融合驾驶员大数据的智能网联车辆健康监测系统及方法
Arefnezhad et al. Driver drowsiness classification using data fusion of vehicle-based measures and ECG signals
Ponnan et al. Driver monitoring and passenger interaction system using wearable device in intelligent vehicle
Chang et al. Real-time physiological and facial monitoring for safe driving
WO2021205865A1 (ja) 疾患状態判定装置、疾患状態判定方法、疾患状態判定装置用プログラム、および、疾患状態判定システム
CN115177255A (zh) 一种疲劳驾驶监测预警方法及系统
Coetzer et al. Driver fatigue detection: A survey
WO2020225969A1 (ja) 疾患状態判定装置、疾患状態判定方法、疾患状態判定装置用プログラム、および、疾患状態判定システム
WO2020225970A1 (ja) 疾患状態判定装置、疾患状態判定方法、疾患状態判定装置用プログラム、および、疾患状態判定システム
Čolić et al. Driver drowsiness detection and measurement methods
Josephin et al. A review on the measures and techniques adapted for the detection of driver drowsiness
Hassan et al. Sigmoid wake probability model for high-resolution detection of drowsiness using electroencephalogram
Byrnes et al. On Using Drivers' Eyes to Predict Accident-Causing Drowsiness Levels
Kang et al. An integrated mHealth and vehicular sensor based alarm system emergency alarm notification system for long distance drivers using smart devices and cloud networks
Mashru et al. Detection of a Drowsy state of the Driver on road using wearable sensors: A survey
Shahrndin et al. A review of ECG data acquisition for driver drowsiness detection
Bouitaoune Review of the latest advanced driver assistance systems
Peruzzini et al. Toward the Definition of a Technological Set-up for Drivers' Health Status Monitoring
Razak et al. Driver-centered pervasive application for heart rate measurement
Bajaj et al. Performance analysis of hybrid model to detect driver drowsiness at early stage

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21785478

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022514380

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE