WO2018230584A1 - 移動体及び管理システム - Google Patents

移動体及び管理システム Download PDF

Info

Publication number
WO2018230584A1
WO2018230584A1 PCT/JP2018/022498 JP2018022498W WO2018230584A1 WO 2018230584 A1 WO2018230584 A1 WO 2018230584A1 JP 2018022498 W JP2018022498 W JP 2018022498W WO 2018230584 A1 WO2018230584 A1 WO 2018230584A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
unit
biological
user
attribute
Prior art date
Application number
PCT/JP2018/022498
Other languages
English (en)
French (fr)
Inventor
安井 裕司
浅海 壽夫
詩園 徳永
雅史 結城
伊藤 洋
寛隆 内富
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2019525470A priority Critical patent/JP7272951B2/ja
Priority to US16/621,279 priority patent/US11545262B2/en
Priority to CN201880040153.5A priority patent/CN110770807A/zh
Publication of WO2018230584A1 publication Critical patent/WO2018230584A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • A61B5/747Arrangements for interactive communication between patient and care services, e.g. by using a telephone network in case of emergency, i.e. alerting emergency services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14532Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring glucose, e.g. by tissue impedance measurement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14542Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow

Definitions

  • the present invention relates to a mobile object and a management system.
  • This application claims priority based on Japanese Patent Application No. 2017-11817 filed in Japan on June 16, 2017, the contents of which are incorporated herein by reference.
  • An object of the present invention is to provide a moving body and a management system that can contribute to quickly and sufficiently acquiring and transmitting a user's physical condition.
  • a biometric information acquisition unit that acquires biometric information of a user, an automatic operation control unit that performs automatic driving of a moving body, and the biometric information transmitted to an external device and an attribute for the transmitted biometric information
  • a communication unit that receives a response signal including information from the external device, and the automatic operation control unit performs an automatic operation according to route information formed based on the attribute information included in the response signal. Is the body.
  • (3) The mobile body of (2), including a continuous connection providing unit that continuously transmits the biological information acquired by the biological information acquisition unit to the external device by mutual authentication with the external device.
  • the mobile body according to (2) including a guide unit that generates guide information for guiding another mobile body on the route of the mobile body based on the attribute information and the route information.
  • the communication unit transmits the guidance information to the outside.
  • a biometric information acquisition unit that acquires biometric information of a user, an automatic operation control unit that executes automatic driving of a moving body, and an attribute for the transmitted biometric information while transmitting the biometric information to an external device.
  • a management unit that is communicably connected to a mobile body that includes a communication unit that receives a response signal including information from the external device, and the biological information based on the biological information received from the communication unit
  • a response generation unit that generates a response signal including attribute information, a user information acquisition unit that acquires user information corresponding to the biological information, and transmits the response signal to the communication unit And a transmission unit.
  • the management system according to (8) which includes a facility information reference unit that refers to facility information of a facility that can be used based on the attribute information.
  • the moving body transmits the biological information to the external device and performs automatic driving according to the route information based on the attribute information received from the external device. For this reason, when a doctor or the like operates an external device, the necessity of a procedure to be taken by the user, for example, a procedure to go to a hospital or a medication to be administered, is determined based on the user's biological information. It can move according to biological information. Therefore, the user's physical condition can be acquired quickly and sufficiently and transmitted.
  • the automatic operation control unit selects a waypoint from position information corresponding to at least one of the user's diagnosis result information and additional diagnosis necessity information. For this reason, the user can go through an appropriate facility on the opposite side.
  • the biometric information acquired by the biometric information acquisition unit by mutual authentication with the external device is continuously transmitted to the external device. For this reason, a user's biometric information and also a health state can be recognized at any time.
  • guidance information for guiding another moving body on the route is generated. For this reason, for example, when the user is in a highly urgent disease state, other mobile objects such as medical vehicles can be dispatched at an early stage.
  • the automatic operation control unit stops or slows down the moving body while the biological information acquisition unit is operating. For this reason, a user's biometric information can be acquired accurately.
  • information to be displayed to the user is controlled based on the attribute information.
  • the attribute information according to the user can be displayed.
  • (7) includes a primary attribute determination unit that determines a primary attribute. For this reason, a user's temporary attribute can be determined inside a moving body.
  • (9) includes a facility information reference unit that refers to facility information of available facilities based on user attribute information. For this reason, the facility according to the user can be selected.
  • the facility information corresponding to the inquiry response is transmitted to the communication unit of the mobile body.
  • the facility according to a user can be provided to a mobile body, for example, an autonomous driving vehicle.
  • the biological signal history recorded by the signal holding unit is transmitted to the communication destination. For this reason, the facility according to a user can be provided to a mobile body, for example, an autonomous driving vehicle.
  • the medical network system of the present invention is a system for supporting treatment when a user who rides on an autonomous driving vehicle experiences poor physical condition.
  • the biological information of the user is acquired, and the acquired biological information is provided to a remote diagnostician or the like.
  • the remote diagnostician determines the physical condition of the user based on the provided user's biological information.
  • the remote diagnostician determines that the user should visit the hospital
  • the user provides the user with information for making the hospital.
  • the remote diagnostician provides the user's biological information to the hospital where the user visits.
  • the user in the medical network system is an occupant who rides on the autonomous driving vehicle, and may be a driver or a person other than the driver (passenger).
  • FIG. 1 is a configuration diagram of a medical network system according to the first embodiment.
  • the medical network system includes, for example, an external terminal 100, an autonomous driving vehicle 200, and a doctor terminal 300.
  • the external terminal 100 is used by the remote diagnostician D, for example.
  • the doctor terminal 300 is installed in a hospital H that is a medical institution, for example.
  • the remote diagnosis doctor D determines the hospital H shown in FIG.
  • the external terminal 100 and the autonomous driving vehicle 200 can be connected to the network NW by wireless communication.
  • the doctor terminal 300 is connected to the network NW via a cable.
  • the network NW includes the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), a public line, a provider device, a dedicated line, a wireless base station, and the like.
  • the external terminal 100 is, for example, a smartphone, a tablet terminal, or a personal computer.
  • an application program for using the medical network system, a browser, or the like is activated to support services described below.
  • the external terminal 100 is a smartphone and an application program (medical network application) is activated.
  • FIG. 2 is a configuration diagram of the external terminal device.
  • the external terminal 100 includes a touch panel (an example of an input unit and an output unit) 110, a communication unit (an example of a second communication unit) 120, and a control unit 130.
  • the touch panel 110 receives an input operation of a remote diagnostician D who is a user.
  • the information on necessary hospital visits including information such as an instruction to transmit biometric information to the doctor terminal 300 of the hospital H, designation of the hospital H, identification information and location of the designated hospital, and the like.
  • the touch panel 110 outputs input information corresponding to the input operation to the control unit 130.
  • the touch panel 110 displays and outputs information received by the communication unit 120, for example, information based on biological information transmitted by the communication device 220 of the autonomous driving vehicle 200.
  • the communication unit 120 is a wireless communication module for connecting to the network NW or communicating with the autonomous driving vehicle 200 and the doctor terminal 300 via the network NW, for example.
  • the communication unit 120 performs wireless communication based on Wi-Fi, DSRC (Dedicated Short Range Communication), Bluetooth (registered trademark), and other communication standards.
  • the communication unit 120 outputs information transmitted by the autonomous driving vehicle 200 to the control unit 130.
  • the control unit 130 is realized by, for example, a processor such as a CPU (Central Processing Unit) executing a program stored in various storage devices.
  • the control unit 130 performs various arithmetic processes based on information input from the touch panel 110.
  • the control unit 130 outputs information based on the results of various arithmetic processes to the touch panel 110 and the communication unit 120.
  • the communication unit 120 transmits the information output by the control unit 130 to the automatic driving vehicle 200 and the doctor terminal 300 via the network NW.
  • the external terminal 100 may include a speaker or a vibrator (not shown).
  • the external terminal 100 can output sound via a speaker.
  • the voice here may indicate that the information has been received or the type of information, or may be a predetermined mechanical sound corresponding to the received information. There may be.
  • the vibrator notifies the user of the external terminal 100 that the information has been received by vibrating.
  • the external terminal 100 having these configurations executes external terminal processing. The external terminal process will be described later.
  • the automatic driving vehicle 200 is, for example, a vehicle in which one or more users can ride as an occupant and has a function of traveling without performing a driving operation.
  • FIG. 3 is a configuration diagram of the autonomous driving vehicle 200.
  • the autonomous driving vehicle 200 includes, for example, an external monitoring unit 210, a communication device (an example of a first communication unit) 220, a navigation device 230, a biological information acquisition unit 240, and biological information processing.
  • Unit 242 an automatic operation control unit (an example of an automatic operation control unit) 250, a driving force output device 260, a brake device 262, and a steering device 264.
  • the external environment monitoring unit 210 includes, for example, a camera, a radar, a LIDAR (Light Detection and Ranging), and an object recognition device that performs sensor fusion processing based on these outputs.
  • the outside world monitoring unit 210 estimates the types of objects (particularly, vehicles, pedestrians, and bicycles) existing around the autonomous driving vehicle 200, and outputs them to the automatic driving control unit 250 together with the position and speed information.
  • the communication device 220 is, for example, a wireless communication module for connecting to the network NW or directly communicating with other vehicles or pedestrian terminal devices.
  • the communication device 220 performs wireless communication based on Wi-Fi, DSRC (Dedicated Short Range Communication), Bluetooth (registered trademark), and other communication standards.
  • a plurality of communication devices 220 may be prepared depending on the application.
  • the communication device 220 outputs information transmitted from the external terminal 100 to the biological information processing unit 242.
  • the communication device 220 transmits information output by the navigation device 230 and the biological information processing unit 242 to the external terminal 100 and the doctor terminal 300 via the network NW.
  • the navigation device 230 includes, for example, an HMI (Human Machine Interface) 232, a GNSS (Global Navigation Satellite System) receiver 234, and a navigation control device 236.
  • the HMI 232 includes, for example, a touch panel display device, a speaker, a microphone, and the like.
  • the GNSS receiver 234 measures the position of the own apparatus (the position of the autonomous driving vehicle 200) based on radio waves coming from a GNSS satellite (for example, a GPS satellite).
  • the navigation control device 236 includes, for example, a CPU (Central Processing Unit) and various storage devices, and controls the entire navigation device 230.
  • a CPU Central Processing Unit
  • the map information (navigation map) is stored in the storage device.
  • the navigation map is a map that expresses roads by nodes and links.
  • the navigation control device 236 determines a route from the position of the autonomous driving vehicle 200 measured by the GNSS receiver 234 to the destination specified using the HMI 232 with reference to the navigation map. Further, the navigation control device 236 may transmit the position and the destination of the autonomous driving vehicle 200 to a navigation server (not shown) using the communication device 220, and acquire the route returned from the navigation server. Note that the route may include information on a stop point and a target arrival time in order to get on or off the user.
  • the navigation control device 236 outputs the route information of the route determined by any one of the above methods to the communication device 220 and the automatic operation control unit 250.
  • the biometric information acquisition unit 240 acquires the biometric information of the user.
  • the biometric information acquisition unit 240 is mounted on an autonomous driving vehicle, and is a camera or microphone that captures a user, or a wearable sensor worn by the user.
  • the biometric information of the user acquired by operating the biometric information acquisition unit 240 is, for example, heart rate, pulse rate, body temperature, respiratory rate, pupil opening, respiratory sound, electrocardiogram, myoelectricity, electrocardiogram. Or changes in myoelectricity (displacement), blood glucose level, blood oxygen concentration, and the like.
  • a dedicated measuring device for each item such as an electrocardiograph, an electromyograph, a blood glucose level measuring device, and a blood oxygen concentration measuring device may be used.
  • the biological information processing unit 242 is realized by one or more processors such as a CPU or MPU (Micro Processing Unit) executing programs stored in various storage devices.
  • the biological information processing unit 242 outputs a biological information detection instruction to the biological information acquisition unit 240.
  • the biometric information acquisition unit 240 detects the biometric information of the user according to the biometric information detection instruction output by the biometric information processing unit 242.
  • the biometric information processing unit 242 outputs a deceleration instruction to the automatic operation control unit 250 when the biometric information detection instruction is output to the biometric information acquisition unit 240.
  • the biological information processing unit 242 outputs the biological information output by the biological information acquisition unit 240 to the communication device 220.
  • the communication device 220 transmits the output biological information to the external terminal 100 via the network NW. A specific procedure of biological information processing will be further described later.
  • the external terminal 100 receives the transmitted biological information.
  • the biological information processing unit 242 sets a destination according to the information transmitted from the external terminal 100, and outputs the destination information corresponding to the set destination to the navigation device 230.
  • the automatic operation control unit 250 includes one or more processors such as a CPU and an MPU and various storage devices.
  • the automatic driving control unit 250 performs automatic driving for automatically driving the automatic driving vehicle 200 so as to travel along a route based on the route information transmitted by the navigation device 230.
  • the automatic operation control unit 250 sequentially executes various events. Events include constant speed driving events that travel in the same lane at a constant speed, follow-up driving events that follow the preceding vehicle, lane change events, merge events, branch events, emergency stop events, and charges for passing through the toll gate Event, handover event to end automatic driving and switch to manual driving.
  • actions for avoidance may be planned based on the surrounding situation of the autonomous driving vehicle 200 (the presence of surrounding vehicles and pedestrians, lane narrowing due to road construction, etc.).
  • the automatic driving control unit 250 generates a target track on which the automatic driving vehicle 200 will travel in the future.
  • the target trajectory includes, for example, a velocity element.
  • the target track is expressed as a sequence of points (track points) that the autonomous driving vehicle 200 should reach in order.
  • the orbital point is a point to be reached by the autonomous driving vehicle 200 for each predetermined travel distance.
  • the target speed and target acceleration for each predetermined sampling time (for example, about 0 comma [sec]) Generated as part of the trajectory.
  • the track point may be a position to which the host vehicle M should arrive at the sampling time for each predetermined sampling time. In this case, information on the target speed and target acceleration is expressed by the interval between the trajectory points.
  • the automatic operation control unit 250 determines whether the deceleration is difficult or not, and the situation where the deceleration is difficult, for example, the following vehicle is at a close distance. When this is not the case, deceleration processing is performed. In this way, the automatic driving control unit 250 performs the deceleration process to stop or slow down the automatic driving vehicle 200 while the biological information acquisition unit 240 is operating. If there is a possibility of being affected by radio noise (electromagnetic waves) in the surrounding environment, the biological information acquisition unit 240 is operated after the autonomous driving vehicle 200 moves to another place to avoid the influence of radio noise. May acquire biometric information. For this reason, for example, when the S / N ratio is detected and the S / N ratio is low, the automatic driving vehicle 200 may be moved to a position where the S / N ratio becomes high.
  • radio noise electromagnetic waves
  • the driving force output device 260 outputs a driving force (torque) for driving the vehicle to the driving wheels.
  • the driving force output device 260 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and a power ECU that controls them.
  • the power ECU controls the above configuration in accordance with information input from the automatic operation control unit 250 or information input from a driving operator (not shown).
  • the brake device 262 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU.
  • the brake ECU controls the electric motor according to the information input from the automatic driving control unit 250 or the information input from the driving operator so that the brake torque corresponding to the braking operation is output to each wheel.
  • the brake device 262 may include, as a backup, a mechanism that transmits the hydraulic pressure generated by operating the brake pedal included in the driving operation element to the cylinder via the master cylinder.
  • the brake device 262 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls the actuator according to information input from the automatic operation control unit 250 and transmits the hydraulic pressure of the master cylinder to the cylinder. Also good.
  • the steering device 264 includes, for example, a steering ECU and an electric motor.
  • the electric motor changes the direction of the steered wheels by applying a force to a rack and pinion mechanism.
  • the steering ECU drives the electric motor according to the information input from the automatic driving control unit 250 or the information input from the driving operator, and changes the direction of the steered wheels.
  • the doctor terminal 300 includes a communication device, a calculation device, an image display device, and the like (not shown).
  • the doctor terminal 300 can receive transmission information including biological information transmitted from the external terminal 100 via the network NW by the communication device.
  • the doctor terminal 300 can display the received biological information on the image display device.
  • a doctor in the hospital H who operates the doctor terminal 300 can prepare for a secondary diagnosis for more accurately diagnosing the user based on the biological information transmitted by the external terminal 100.
  • the external terminal 100 generates transmission information including, for example, biological information (or information obtained by processing biological information) based on the biological information transmitted by the communication device 220 in the autonomous driving vehicle 200.
  • the transmission information includes “vehicle ID” “current position (of the autonomous driving vehicle 200)” “occupant age” “occupant gender” “boarding position” “pulse rate” “heart rate” “body temperature”. “Is included. Among these items, “pulse rate”, “heart rate”, “body temperature”, “blood glucose level”, and “blood oxygen concentration” are biometric information.
  • the biological information acquisition unit 240 acquires the biological information of the user along a time series.
  • the biological information of the user is acquired in time series with a frequency of about 120 Hz or less.
  • the transmission information shown in FIG. 4 indicates transmission information including biometric information measured at times t1, t2, t3, t4, and t5.
  • the external terminal 100 transmits the generated transmission information to the doctor terminal 300 via the network NW.
  • Processing in the medical network system includes biological information processing executed by the biological information processing unit 242 and external terminal processing executed by the external terminal 100.
  • the biological information processing and the external terminal process are performed, for example, in a state where an occupant is on the autonomous driving vehicle 200 and the autonomous driving vehicle 200 is traveling toward a set destination.
  • biometric information processing and external terminal processing will be specifically described.
  • FIG. 5 is a flowchart showing an example of a procedure for biological information processing.
  • the biometric information processing unit 242 causes the biometric information acquisition unit 240 to acquire the biometric information of the occupant (step S11).
  • the biological information processing unit 242 causes the biological information acquisition unit 240 to acquire the biological information of the occupant and output the biological information processing unit 242, for example, at regular intervals.
  • data of several seconds to several tens of seconds obtained by measuring biometric information in time series may be compressed and transmitted.
  • a plurality of pieces of transmission information shown in FIG. 4 may be compressed and transmitted.
  • the biological information processing unit 242 transmits the biological information output by the biological information acquisition unit 240 to the external terminal 100 via the communication device 220 (step S12).
  • the biological information processing unit 242 determines whether or not response information transmitted from the external terminal 100 has been received (step S13). As a result, when it is determined that the response information has not been received, the biological information processing unit 242 repeats the process of step S13 until the response information is received. If the response information is not received even after a predetermined waiting time, for example, 15 minutes has elapsed, the biometric information processing unit 242 may time out as it is and end the biometric information processing.
  • the external terminal 100 performs processing based on the biological information transmitted by the biological information processing unit 242 of the autonomous driving vehicle 200, and transmits response information to the biological information processing unit 242 as a result. Therefore, before continuing the description of the biometric information processing in the biometric information processing unit 242, the external terminal process executed by the control unit 130 in the external terminal 100 will be described.
  • FIG. 6 is a flowchart showing an example of the procedure of external terminal processing.
  • the control unit 130 in the external terminal 100 determines whether or not the biological information transmitted by the biological information processing unit 242 of the autonomous driving vehicle 200 has been received (step S21). As a result, when it determines with not receiving biometric information, the control part 130 repeats the process of step S21 until biometric information is received.
  • step S21 If it is determined in step S21 that the biological information has been received, the control unit 130 causes the touch panel 110 to display an image based on the transmitted biological information (step S22). At this time, the control unit 130 outputs the display sound from the speaker of the external terminal 100 or vibrates the vibrator, and the user of the external terminal 100 indicates that the image based on the biological information is displayed on the touch panel 110. May be notified.
  • the remote diagnostician D performs a primary diagnosis of the occupant based on the image displayed on the external terminal 100.
  • the remote diagnostician D may have a primary suspicion of illness and need a visit to the hospital H when the pulse rate or heart rate is higher than normal or the body temperature is higher than normal. Make a diagnosis.
  • the remote diagnostician D who performed the diagnosis operates the touch panel 110 and inputs the diagnosis result.
  • the control unit 130 determines whether or not the remote diagnostician D has performed an operation of inputting the diagnosis result of the touch panel 110 (step S23). As a result, when it is determined that the touch panel 110 has not been operated, the control unit 130 repeats the process of step S23 until the touch panel 110 is operated. If it is determined that the touch panel 110 has been operated, the process proceeds to step S24.
  • the remote diagnostician D uses the touch panel 110 to input the necessity of visit and the identification information and location of the hospital to visit.
  • the hospital identification information or the like may be determined based on the experience or the like of the remote diagnostician D, or a separate hospital list may be prepared, and the remote diagnostician D may select and determine from this hospital list.
  • the control unit 130 may time out and terminate the external terminal process.
  • the primary diagnosis based on the biological information may be performed by the remote diagnostician D, or may be performed by specialists such as other nurses and consultants.
  • diagnosis may be performed by a plurality of persons including doctors including the remote diagnosis doctor D and other specialists, or the control unit 130 may perform diagnosis using a diagnosis program or the like.
  • the control unit 130 automatically performs a diagnosis, an input operation on the touch panel 110 may be omitted.
  • the control unit 130 refers to the input diagnosis result and determines whether or not a visit to the hospital H is necessary (whether or not the remote diagnostician D has input that a visit to the hospital H is necessary). (Step S24). As a result, when it is determined that a visit to the hospital H is necessary, necessary visit information indicating that a visit to the hospital H is necessary is added to the response information (step S25). Next, the control part 130 transmits the information containing biometric information to the doctor terminal 300 (step S26). And the control part 130 transmits reply information to the biometric information processing part 242 of the automatic driving vehicle 200 (step S27), and complete
  • control unit 130 automatically adds the response information without adding the visit information to the response information and without transmitting the biometric information to the doctor terminal 300. It transmits to the biological information processing part 242 of the driving vehicle 200 (step S27). Thus, the control unit 130 ends the external terminal process.
  • the biometric information processing unit 242 determines whether or not the visit information is added (step S14). As a result, when it is determined that the required visit information is added, the biological information processing unit 242 sets the destination to the hospital H (step S15). Subsequently, the biological information processing unit 242 outputs the set destination information to the navigation device 230 (step S16). In the navigation device 230, the destination is changed from the preset destination to the hospital H. The navigation device 230 may notify the passenger that the destination has been changed by voice or image display. In Step S14, when it is determined that the visiting information is not added, the biological information processing unit 242 maintains the destination without changing the destination. Thus, the biological information processing unit 242 ends the biological information processing.
  • the biological information of the user acquired by the biological information acquisition unit 240 is transmitted to the external terminal 100 possessed by the remote diagnostician D. For this reason, since the primary diagnosis can be performed based on the biological information by the remote diagnostician D possessing the external terminal 100, the user's physical condition can be acquired and transmitted quickly and sufficiently.
  • the user can determine the necessity of an appropriate process to be taken by himself / herself, for example, a treatment to go to a hospital or a medication, and provide it to the autonomous driving vehicle. Therefore, the user can take appropriate measures at an early stage by following the determination of the remote diagnostician D, such as, for example, visiting the hospital H even when the user is on the autonomous driving vehicle 200.
  • the destination of the autonomous driving vehicle 200 is determined based on the hospital identification information or the location input by the remote diagnostician D on the touch panel 110 of the external terminal 100. For this reason, since the destination hospital can be determined based on information input by an expert such as the remote diagnostician D, an appropriate hospital can be set as the destination when the user goes.
  • the external terminal 100 transmits the biological information transmitted by the biological information processing unit 242 to the doctor terminal 300 of the hospital H. For this reason, in the hospital H, it is possible to proceed with preparations for accepting the user by referring to the biological information. Therefore, it is possible for a user who needs to have a medical examination while boarding an autonomous driving vehicle to receive a medical examination early.
  • the automatic driving control unit 250 in the automatic driving vehicle 200 selects the automatic driving vehicle when the biological information acquisition unit 240 is operating to acquire the biological information of the user. Stop and decelerate. For this reason, during the acquisition of the user's biometric information by the biometric information acquisition unit 240, vibration due to traveling of the automatic driving vehicle 200 can be reduced. Therefore, the detection accuracy in the biological information acquisition unit 240 can be increased. Further, when the biological information processing unit 242 may be affected by radio noise in the surrounding environment, the biological information processing unit 242 ensures that the biological information is transmitted by moving the automatic driving vehicle 200 to another location. Can be acquired.
  • FIG. 7 is a configuration diagram of the medical network system of the second embodiment.
  • the medical network system of the second embodiment includes an external terminal 100 and an autonomous driving vehicle 200 as in the first embodiment.
  • the medical network system of 2nd Embodiment is provided with several doctor terminal 300A, 300B, 300C ....
  • the doctor terminals 300A, 300B, 300C,... are installed in, for example, the first hospital HA, the second hospital HB, the third hospital HC, respectively.
  • the medical network system of the second embodiment includes an information processing apparatus 400 provided in the service center S.
  • the medical network system of the second embodiment will be described with a focus on differences from the first embodiment.
  • the external terminal 100 and the autonomous driving vehicle 200 in the medical network system of the second embodiment both have the same configuration as that of the first embodiment.
  • the plurality of doctor terminals 300A, 300B, 300C... Have the same configuration as the doctor terminal 300 of the first embodiment.
  • the information processing apparatus 400 is connected to the network NW.
  • the information processing apparatus 400 includes a communication device, a calculation device, an image display device, and the like (not shown).
  • the information processing apparatus 400 can receive transmission information including treatment information transmitted by the external terminal 100 via the network NW by the communication apparatus. Further, the information processing apparatus 400 can display the received treatment information on the image display apparatus. Further, the information processing apparatus 400 performs hospital guidance processing based on the received treatment information.
  • a medical institution that is a destination candidate for the automatic driving vehicle 200 is determined based on the travel position of the automatic driving vehicle 200, and the identification information or the location of the determined medical institution is determined as the communication device 220 of the automatic driving vehicle 200. Send to.
  • the hospital guidance process will be described later.
  • the processing in the medical network system of the second embodiment includes biological information processing executed by the biological information processing unit 242, external terminal processing executed by the external terminal 100, and hospital guidance processing executed by the information processing device 400. included.
  • the biological information processing, the external terminal process, and the hospital guidance process are performed, for example, in a state where an occupant is on the automatic driving vehicle 200 and the automatic driving vehicle 200 is traveling toward a set destination.
  • biometric information processing, external terminal processing, and hospital guidance processing will be specifically described.
  • FIG. 8 is a flowchart showing an example of a procedure for biological information processing.
  • the biometric information processing unit 242 causes the biometric information acquisition unit 240 to acquire the biometric information of the user (step S31), similarly to step S11 of the first embodiment, and the biometric information processing unit 242 To output.
  • the biological information processing unit 242 acquires current location information based on the current position of the autonomous driving vehicle 200 from the navigation device 230 (step S31).
  • the biological information processing unit 242 transmits the biological information output from the biological information acquisition unit 240 and the current location information acquired from the navigation device 230 to the control unit 130 of the external terminal 100 via the communication device 220. (Step S32). Subsequently, the biological information processing unit 242 determines whether or not the response information transmitted by the information processing apparatus 400 of the service center S has been received (step S33). As a result, when it is determined that the response information has not been received, the biological information processing unit 242 repeats the process of step S33 until the response information is received. If the response information is not received even after a predetermined waiting time, for example, 15 minutes has elapsed, the biometric information processing unit 242 may time out as it is and end the biometric information processing.
  • a predetermined waiting time for example, 15 minutes has elapsed
  • the external terminal 100 performs processing based on the biological information transmitted by the biological information processing unit 242 of the autonomous driving vehicle 200 and transmits the treatment information to the information processing apparatus 400 of the service center S as a result. Further, the information processing apparatus 400 generates response information based on the treatment information transmitted by the external terminal 100 and transmits the response information to the biological information processing unit 242. Therefore, before continuing the description of the biometric information processing in the biometric information processing unit 242, the external terminal process executed by the control unit 130 in the external terminal 100 and the hospital guidance process executed by the information processing apparatus 400 will be described.
  • FIG. 9 is a flowchart showing an example of the procedure of external terminal processing.
  • the control unit 130 in the external terminal 100 determines whether biometric information has been received (step S51). When it determines with not receiving biometric information, the control part 130 repeats the process of step S51. When it is determined that the biological information has been received, the control unit 130 displays the biological information on the touch panel 110 (step S52), and determines whether or not an input operation has been performed (step S53). As a result, when it is determined that there is no input operation, the control unit 130 repeats the process of step S53. Up to this point, the same processing as in steps S21 to S23 in the first embodiment is executed.
  • step S54 determines whether or not a visit to the hospital is necessary.
  • the remote diagnostician D who possesses the external terminal is not a specific hospital, but is a highly urgent disease such as whether or not a visit to any hospital is necessary and there is a possibility of being hospitalized. Or not, and input the determination result.
  • the remote diagnostician D determines whether an ambulance, which is a medical vehicle, is necessary, and inputs a determination result. Further, when it is determined that it is not necessary to visit the hospital and it is sufficient to perform the medication, the remote diagnostician D inputs that the medication is sufficient and the type of medicine suitable for the medication.
  • the navigation device (an example of a suggestion unit) 230 is a facility outside the medical institution nearest to the autonomous driving vehicle 200, for example, a pharmacy, and is a stopover to the pharmacy and a proposal for purchasing medicine. To the user using the HMI 232.
  • step S54 when it is determined that a visit is necessary, the control unit 130 adds the required visit information to the treatment information (step S55). The urgency level of the disease is also added to the visit information. Subsequently, the control unit 130 determines whether an ambulance is necessary (step S56). As a result, when it is determined that an ambulance is necessary, the control unit 130 adds ambulance information that indicates that an ambulance is necessary to the treatment information (step S57). If it is determined that no ambulance is necessary, the control unit 130 proceeds to step S58 without adding ambulance information.
  • control unit 130 transmits the treatment information to the information processing apparatus 400 of the service center S (step S58).
  • control unit 130 adds the current location information transmitted by the biological information processing unit 242 to the treatment information transmitted to the information processing device 400 of the service center S. If it is determined in step S54 that a visit is not necessary, the control unit 130 determines whether or not medication is sufficient without requiring a hospital visit (step S59).
  • the control unit 130 adds medicine purchase information corresponding to the type of medicine to be dispensed to the treatment information (step S60). If it is determined that there is no need for medication, the control unit 130 proceeds to step S58 without adding drug purchase information or the like to the treatment information. Thereafter, the control unit 130 adds the current location information to the treatment information and transmits it to the information processing apparatus 400 of the service center S (step S58).
  • the control unit 130 determines whether or not the destination hospital information transmitted by the biological information processing unit 242 has been received (step S61).
  • the destination hospital information is determined by the biological information processing unit 242 and transmitted to the control unit 130.
  • the control part 130 repeats the process of step S61.
  • the control part 130 may time out as it is, and may complete
  • the control unit 130 transmits the biological information received in step S51 to the doctor terminal of the destination hospital (step S62). For example, when the first destination hospital is the first hospital HA, the control unit 130 transmits the biological information to the doctor terminal 300A. Thus, the control unit 130 ends the external terminal process.
  • FIG. 10 is a flowchart illustrating an example of the procedure of the hospital guidance process.
  • the information processing apparatus 400 in the service center S determines whether or not the treatment information transmitted by the external terminal 100 has been received (step S71). As a result, when it is determined that the treatment information has not been received, the information processing apparatus 400 repeats the process of step S61. Note that if the treatment information is not received even after a predetermined waiting time has elapsed, the information processing apparatus 400 may time out as it is and end the hospital guidance process.
  • step S71 If it is determined in step S71 that the treatment information transmitted by the external terminal 100 has been received, the information processing apparatus 400 determines whether or not required hospital information is added to the treatment information (step S72). As a result, when it is determined that the required hospital information is added to the treatment information, the information processing apparatus 400 performs a destination candidate hospital determination process (step S73).
  • the information processing apparatus 400 determines a hospital as a destination candidate of the autonomous driving vehicle 200 in the destination candidate hospital determination process.
  • the information processing apparatus 400 can determine a hospital that is a candidate for the destination of the automatic driving vehicle 200 according to the automatic driving vehicle 200 or the urgency level of the disease of the user. For example, the information processing apparatus 400 acquires the current traveling position of the automatic driving vehicle 200 based on the current location information added to the treatment information transmitted by the external terminal 100, and acquires the acquired automatic driving vehicle as a geographical condition. Hospitals within a radius of 10 km from 200 can be determined as destination candidates.
  • the information processing apparatus 400 may determine a hospital that is a destination candidate based on a temporal condition such as a hospital that the autonomous driving vehicle 200 can reach within, for example, 20 minutes. Furthermore, the information processing apparatus 400 may also consider the urgency level of the disease added to the visit required information when determining a hospital that is a destination candidate. For example, the information processing apparatus 400 determines a hospital with an inpatient facility when a user is expected to have a urgent illness that may require hospitalization, and the urgent illness is a user. If it is assumed, a small hospital may be determined.
  • the information processing apparatus 400 determines whether there is a hospital that is a destination candidate (step S74). As a result, when it is determined that there is a hospital that is a destination candidate, the information processing apparatus 400 adds the destination candidate hospital information to the visiting hospital information (step S75). As shown in FIG. 11, the destination candidate hospital information includes information such as the address of the hospital that is the destination candidate, the medical subject, and the holiday date. If it is determined that there is no destination candidate hospital, the information processing apparatus 400 proceeds directly to step S76 without adding destination candidate hospital information.
  • the information processing apparatus 400 adds the visiting information to the response information (Step S76). Subsequently, the information processing apparatus 400 determines whether or not ambulance information required is added to the treatment information (step S77). As a result, when it is determined that the ambulance information required is added to the treatment information, the information processing apparatus 400 requests the ambulance AM shown in FIG. 7 (step S78). When making a request to dispatch the ambulance AM, the information processing apparatus 400 transmits request information for moving the ambulance AM to a predetermined position on the route of the autonomous driving vehicle 200, for example.
  • the information processing apparatus 400 adds ambulance dispatch information to the response information (step S79). Thereafter, the information processing apparatus 400 transmits the response information to the biological information processing unit 242 of the autonomous driving vehicle 200 (step S80), and ends the hospital guidance process. If it is determined in step S77 that the ambulance information requiring ambulance information is not added to the treatment information, the information processing apparatus 400 proceeds directly to step S80. Then, the information processing apparatus 400 transmits the response information to the biological information processing unit 242 of the autonomous driving vehicle 200 (Step S80), and ends the hospital guidance process.
  • step S72 determines whether or not medicine purchase information is added to the treatment information. As a result, when it is determined that the drug purchase information is added, the information processing apparatus 400 adds the drug purchase information to the response information (step S82), and proceeds to step S80. If it is determined that no drug purchase information is added, the information processing apparatus 400 proceeds to step S80 without adding the drug purchase information to the response information. Then, the information processing apparatus 400 transmits the response information to the biological information processing unit 242 of the automatic driving vehicle 200 (Step S80), and ends the hospital guidance process.
  • the biometric information processing unit 242 determines whether the visit information is added to the response information. Is determined (step S34). As a result, if it is determined that the visit information is not added, the biological information processing unit 242 determines whether or not the drug purchase information is added to the response information (step S35). Here, if it is determined that the drug purchase information is not added to the response information, the biological information processing unit 242 proceeds to step S42 as it is. Further, when the medicine purchase information is added to the response information, the biological information processing unit 242 sets the nearest pharmacy at the current location of the autonomous driving vehicle 200 as the destination (step S36).
  • the biological information processing unit 242 outputs pharmacy information corresponding to the drug purchase information to the navigation device 230 when the nearest pharmacy is set as the destination.
  • the navigation device 230 suggests that the user visits the nearest pharmacy of the autonomous driving vehicle 200 based on the pharmacy information output by the biological information processing unit 242 and purchases the medicine by using an image display or voice, for example, using the HMI 232. To do.
  • the biological information processing unit 242 when there are four first pharmacies MA to fourth pharmacies MD around the autonomous driving vehicle 200, the biological information processing unit 242
  • the pharmacy MD may be the destination.
  • the biological information processing unit 242 when the road on which the autonomous driving vehicle 200 is traveling is restricted due to U-turn prohibition or the like, the biological information processing unit 242 is not closest to the autonomous driving vehicle 200 but has the shortest traveling distance.
  • One pharmacy MA may be the destination.
  • step S34 determines whether the visit information is added to the response information. If it is determined in step S34 that the visit information is added to the response information, the biological information processing unit 242 determines whether the destination candidate hospital information is added to the visit information (step S37). ). As a result, when it is determined that the destination candidate hospital information is added to the required hospital information, the biological information processing unit 242 determines the destination hospital that is the destination (step S38). In determining the destination hospital, the biological information processing unit 242 determines the nearest hospital at the current location of the autonomous driving vehicle 200 as the destination hospital from the hospitals included in the destination candidate hospital information.
  • the biological information processing unit 242 determines the destination hospital
  • the biological information processing unit 242 outputs the destination hospital information regarding the determined destination hospital to the control unit 130 of the external terminal 100 (step S39).
  • the control unit 130 of the external terminal 100 executes steps S61 to S62 shown in FIG. 9 and transmits the biological information to the destination hospital.
  • the biological information processing unit 242 sets the preset hospital of the occupant as the destination (step S40). .
  • the nearest hospital in the current location of the autonomous driving vehicle 200 may be set as the destination.
  • the first hospital HA may be the destination among the four hospitals of the first hospital HA to the fourth hospital HD.
  • the biological information processor 242 After setting the destination in step S36 or step S40, or setting the destination in step S38 and outputting the destination hospital information to the external terminal 100 in step S39, the biological information processor 242 sends the destination information to the navigation device 230. (Step S41). Subsequently, the biological information processing unit 242 determines whether or not ambulance dispatch information is added to the response information (step S42). As a result, when it is determined that the ambulance dispatch information is added to the response information, the biological information processing unit 242 outputs an ambulance dispatch guide (step S43). The biological information processing unit 242 uses, for example, the HMI 232 of the navigation device 230 to notify the occupant that the ambulance is called by voice output or image display. Thus, the biological information processing unit 242 ends the biological information processing. If it is determined in step S42 that the ambulance dispatch information is not added to the response information, the biological information processing unit 242 ends the biological information processing as it is.
  • the medical network system of the second embodiment has the same operational effects as the medical network system of the first embodiment.
  • the destination candidate hospital is transmitted to the communication device 220 of the automatic driving vehicle 200 based on the travel position of the autonomous driving vehicle 200, and the destination candidate hospital The destination is determined from. For this reason, since the destination hospital can be determined based on information input by an expert such as the remote diagnostician D, an appropriate hospital can be set as the destination when the user goes.
  • the hospital that is a candidate for the destination is transmitted to the communication device 220 according to the urgency of the disease. For this reason, the more suitable hospital according to the degree of illness can be made the destination.
  • the remote diagnostician D determines the necessity of an ambulance, and if an ambulance is necessary, the information processing apparatus 400 of the service center S makes an ambulance dispatch request. I am doing so. For this reason, when the user is in a highly urgent disease state, the ambulance can be dispatched early. The ambulance is directed to the travel route of the autonomous driving vehicle 200. For this reason, an ambulance can be dispatched to the autonomous driving vehicle 200 at an earlier stage.
  • the navigation device 230 sends the information to the pharmacy.
  • the self-driving vehicle 200 makes the destination the nearest pharmacy. For this reason, in the case of mild illnesses that do not need to go to a medical institution, it is possible to take measures to stop at a pharmacy or the like.
  • FIG. 13 is a configuration diagram of a medical network system that is a management system according to the third embodiment.
  • the medical network system of the third embodiment includes an autonomous driving vehicle 200 as in the first embodiment.
  • the medical network system according to the third embodiment includes a management server 500 and a facility side terminal 600.
  • the management server 500 is installed in the service center S, and the facility side terminal 600 is installed in the hospital H.
  • the medical network system according to the third embodiment will be described with a focus on differences from the first embodiment.
  • FIG. 14 is a configuration diagram of the autonomous driving vehicle according to the third embodiment.
  • the automatic driving vehicle 200 includes an external monitoring unit 410, a communication unit 420, a navigation device 430, a biological information acquisition unit 440, a biological information processing unit 441, an automatic driving control unit 450, a driving force output unit 460, A brake device 462 and a steering device 464 are provided.
  • the external environment monitoring unit 410, the communication unit 420, the navigation device 430, the biological information acquisition unit 440, the automatic driving control unit 450, the driving force output unit 460, the brake device 462, and the steering device 464 are the same as those in the first embodiment. It has the same configuration as the external monitoring unit 210, the communication device 220, the navigation device 230, the automatic operation control unit 250, the driving force output device 260, the brake device 262, and the steering device 264.
  • the biological information processing unit 441 includes a primary attribute determination unit 442, a continuous connection providing unit 444, a guidance unit 446, and an attribute display control unit 448.
  • the primary attribute determination unit 442 determines the primary attribute of the user's biometric information acquired by the biometric information acquisition unit 440.
  • the primary attribute is, for example, a determination result (diagnosis result) based on a determination equivalent to the diagnosis performed by the remote diagnostician D. For example, it is classified as an attribute whether the user's pulse rate or heart rate is within the normal value range, or higher or lower than the normal value range.
  • the primary attribute determination unit 442 transmits the classified primary attributes to the management server 500 via the communication unit 420.
  • the continuous connection providing unit 444 continuously provides the biological information acquired from the biological information acquisition unit 440 as a biological signal to the management server 500 via the communication unit 420.
  • the management server 500 can acquire the biological information of the user in time series and can acquire a time-dependent change of the biological information.
  • the guiding unit 446 sets a waypoint when the autonomous driving vehicle 200 moves based on various information, or performs a vehicle request determination as necessary.
  • the guiding unit 446 outputs the set waypoint to the navigation device 430.
  • the navigation device 430 outputs information for traveling along the output waypoint to the automatic operation control unit 450. Further, when making a vehicle request, the guiding unit 446 transmits a vehicle request signal to the management server 500 via the communication unit 420.
  • the attribute display control unit 448 displays the display of the characteristics of the biological information determined by the primary attribute determination unit 442 and various information transmitted from the management server 500.
  • the biological information processing unit 441 also has a function equivalent to that of the biological information acquisition unit 240 in the first embodiment.
  • FIG. 15 is a configuration diagram of the management server of the third embodiment.
  • the management server 500 includes a communication unit 510, a response generation unit 520, a user information acquisition unit 530, a continuous reception determination unit 540, a facility use availability determination unit 550, an inquiry signal generation unit 560, and a storage unit 570. And a connection permission unit 580.
  • the response generation unit 520 includes an attribute assignment determination unit 521 and an additional attribute assignment determination unit 522.
  • the storage unit 570 stores biological history information 571, facility information 572, user information 573, and shared biological information 574.
  • the communication unit 510 transmits and receives information (signals) to and from external devices viewed from the management server 500, for example, the autonomous driving vehicle 200 and the facility side terminal 600.
  • the communication unit 510 receives a biological signal transmitted from the autonomous driving vehicle 200 and transmits a response signal to the autonomous driving vehicle.
  • the response signal includes attribute information and position information indicating the position of a facility such as a hospital.
  • the communication unit 510 transmits an inquiry signal to the facility terminal 600 corresponding to the available attribute information, and receives facility information and additional attribute information transmitted from the facility terminal 600.
  • the communication unit 510 transmits the inquiry signal to the facility-side terminal 600, and then transmits the biological history information to the facility-side terminal 600 in response to the additional information acquisition request.
  • the biological history information for example, the biological history information is compressed and transmitted.
  • the attribute assignment determination unit 521 in the response generation unit 520 generates biometric information in which a secondary attribute is added to a biometric signal transmitted from the autonomous driving vehicle 200 with reference to the biometric history information 571 and the like.
  • the attribute information including the secondary attribute information is given to the biometric information and transmitted to the autonomous driving vehicle 200 via the communication unit 510 as a response signal.
  • the additional attribute addition determination unit 522 adds additional attribute information based on the result of the tertiary determination transmitted from the facility-side terminal 600 to the attribute information.
  • the additional attribute information includes additional diagnosis necessity information that is necessary for additional diagnosis.
  • the additional attribute assignment determination unit 522 transmits the attribute information provided with the additional attribute information to the autonomous driving vehicle 200 via the communication unit 510.
  • the user information acquisition unit 530 refers to the user information stored in the storage unit 570 and acquires information about the user who uses the automatic driving vehicle 200.
  • the user information acquisition unit 530 determines the user of the autonomous driving vehicle 200 based on the acquired user information.
  • the continuous reception determination unit 540 determines whether or not a continuous connection for receiving a biological signal continuously transmitted from the autonomous driving vehicle 200 is possible.
  • the continuous reception determination unit 540 transmits continuous connection determination authentication information to the autonomous driving vehicle 200 via the communication unit 510 when continuous connection is possible.
  • the continuous reception determination unit 540 stores the received biological information in the storage unit 570 as the shared biological information 574.
  • the continuous reception determination unit 540 serves as a signal conversion unit. Note that the signal conversion unit may be provided separately from the continuous reception determination unit 540.
  • the facility availability determination unit 550 refers to the facility information stored in the storage unit 570, and determines a facility (medical institution) according to the diagnosis content included in the attribute information. The facility availability determination unit 550 determines the availability of the facility based on the availability information from the facility, and transmits facility information about the available facility to the autonomous driving vehicle 200 via the communication unit 510. .
  • the inquiry signal generation unit 560 generates an inquiry signal for inquiring of the facility whether or not it can be used, and transmits the inquiry signal to the facility side terminal 600 via the communication unit 510.
  • availability information is returned from the facility.
  • the facility availability determination unit 550 determines the availability of the facility based on the returned availability information.
  • the biological history information 571 stored in the storage unit 570 is a history of biological information that the user has acquired in the past and transmitted to the management server 500.
  • the part that stores the biological history information 571 in the storage unit 570 serves as a signal holding unit.
  • the facility information 572 is information related to facilities in the area controlled by the management server.
  • the facility information includes location information of the facility and compatible attribute information.
  • the user information 573 is, for example, information related to users registered in the management server.
  • the shared biometric information 574 is information obtained through API (Application Programming Interface), and is biometric information of the user.
  • the shared biometric information 574 is biometric information that can be shared not only with the user of the autonomous driving vehicle 200 but also with other external devices such as the facility-side terminal 600.
  • connection permission unit 580 determines whether or not the connection with the storage unit of the shared biometric information 574 in the management server 500 via the communication unit 510 of the autonomous driving vehicle 200 is possible. For example, the connection permission unit 580 permits connection of the autonomous driving vehicle 200 registered in the management server 500 in advance with the storage unit of the shared biometric information 574 in the management server 500.
  • the facility-side terminal 600 includes an adding unit that adds an additional attribute. After receiving the inquiry signal transmitted from the management server 500, the facility-side terminal 600 refers to the biological history information transmitted in response to the additional information acquisition request, and determines whether additional diagnosis is necessary. The facility-side terminal 600 transmits additional attribute information when additional diagnosis is necessary.
  • FIG. 16 is a sequence diagram illustrating processing executed by the medical network system according to the third embodiment.
  • the connection between the autonomous driving vehicle 200 and the management server 500 shown in FIGS. 14 and 15 is started after the connection permission unit 580 in the management server 500 is permitted to connect with the autonomous driving vehicle 200.
  • the autonomous driving vehicle 200 acquires a biological signal in the biological information acquisition unit 440 (step S402), and determines a primary attribute in the primary attribute determination unit 442 (step S404). Next, the autonomous driving vehicle 200 transmits the biological signal subjected to the primary determination to the management server 500 (step S406).
  • the management server 500 receives and records the transmitted biological signal (step S408). Subsequently, the management server 500 adds attribute information to the biological signal (step S410).
  • the attribute information here gives a secondary attribute determination result based on the determination of the attribute addition determination unit 521 in the management server 500.
  • the management server 500 inquires about facility information (step S412).
  • the management server 500 inquires about the facility according to the biological signal to which the primary attribute and the secondary attribute are given when inquiring about the facility information.
  • the management server 500 refers to the facility information 572 stored in the storage unit 570 and searches for a facility according to the corresponding attribute information corresponding to the primary information or the secondary information attached to the biological signal.
  • the management server 500 transmits an inquiry signal to the searched facility (step S414).
  • the inquiry signal includes a biological signal and attribute information.
  • the facility-side terminal 600 receives the transmitted inquiry signal (step S416) and makes an acquisition request for additional information (step S418). Subsequently, the connection permission unit 580 of the management server 500 determines whether or not continuous connection is possible (step S420), and transmits continuous connection determination authentication information to the autonomous driving vehicle 200 and the facility side terminal 600 when continuous connection is possible. In this way, the management server 500 performs mutual authentication between the autonomous driving vehicle 200 and the facility-side terminal 600.
  • the automatic driving vehicle 200 receives the transmitted continuous connection determination authentication information (step S422), and starts continuous connection (step S424).
  • the autonomous driving vehicle 200 continuously transmits the biometric information and the primary attribute determination result to the management server 500 and the facility-side terminal 600 by starting continuous connection (step S424).
  • the facility-side terminal 600 reads data from the shared biometric information 574 obtained via the API (step S426) and displays a biometric signal (step S428). Subsequently, the facility-side terminal 600 refers to the biological history information transmitted from the management server 500 and determines whether additional diagnosis is necessary. Here, when it is determined that additional diagnosis is necessary, additional attribute information is added to the biological information (step S430). Further, the facility-side terminal 600 determines whether or not the facility can be used (step S432), and transmits the result of the facility use determination and the biological signal added with the additional attribute information to the management server 500.
  • the management server 500 transmits a response signal including the attribute information (primary attribute to tertiary attribute) added to the biological signal and position information indicating the position of the compatible facility to the autonomous driving vehicle 200 (step S434). Subsequently, the autonomous driving vehicle 200 notifies the user of the transmitted attribute information and displays it (step S436). Furthermore, the automatic driving vehicle 200 selects a waypoint with reference to the facility availability information and sets the waypoint (step S438). Thereafter, the autonomous driving vehicle 200 makes a vehicle request determination (step S440), and when making a vehicle request, the guiding unit 446 transmits a vehicle request signal to the management server 500 and transmits an emergency vehicle such as an ambulance (others). Vehicle) to the route of the autonomous driving vehicle 200. Then, the automatic driving vehicle 200 starts automatic driving control (step S442). Further, when the management server 500 receives the vehicle request signal, it makes a request to dispatch the vehicle to the received route (step S444).
  • the management server 500 receives the vehicle request signal, it makes a request to
  • the autonomous driving vehicle 200 transmits biological information to the management server 500 and performs automatic driving according to route information based on attribute information received from the management server 500. . For this reason, it is possible to determine the necessity of a procedure taken by the user, for example, a procedure to go to a hospital or a medication to be performed based on the user's biological information, and move according to the user's biological information. Therefore, the user's physical condition can be acquired quickly and sufficiently and transmitted.
  • the remote diagnostician D and the service center S are arranged at different positions, but the remote diagnostician D may stay in the service center S.
  • the information processing apparatus 400 may serve as an external terminal.
  • the information processing apparatus 400 determines the destination candidate of the automatic driving vehicle 200, it is made to determine the destination candidate of the automatic driving vehicle 200 in another aspect. Also good.
  • the remote diagnostician D may input a destination candidate hospital to the external terminal 100 and transmit the input destination candidate to the biological information processing unit 242.
  • the control unit 130 or the information processing apparatus 400 of the external terminal 100 may request a doctor's home visit or make the doctor's house a destination candidate.
  • the remote diagnostician D determines the necessity of visiting the hospital. However, as in the second embodiment, the determination of the ambulance dispatch request and the visit to the hospital are performed. You may make it perform the determination of the stop to the pharmacy which is not performed. In these cases, as with the information processing apparatus 400 in the second embodiment, the external terminal 100 makes an ambulance dispatch request, and the communication unit 120 transmits request information or a response transmitted to the biological information processing unit 242. What is necessary is just to add medicine purchase information and ambulance dispatch information to the information.
  • the external terminal 100 receives the biometric information and transmits the response information to the biometric information processing unit 242 of the autonomous driving vehicle 200.
  • the external terminal 100 is used as information corresponding to the response information to a terminal used by a user related person.
  • the person information may be notified.
  • family members such as the user's parents, relatives such as uncles, aunts, and grandparents, friends, co-workers, etc. Include schools.
  • the users concerned may be registered in advance in the external terminal 100 or the like for each user.
  • the user information only needs to include information related to the medical institution indicated by the visit required hospital information added to the response information and the pharmacy indicated by the drug purchase information.
  • the user information may be notified to the user related person.
  • the mode of notification of user information is not particularly limited, and may be, for example, communication via the communication unit 120 or manual notification such as a telephone call.
  • the external terminal 100 may be provided with a notification necessity setting unit for setting necessity of notification of user information.
  • a notification necessity setting unit for setting necessity of notification of user information.
  • the setting operation for the notification necessity setting unit may be performed by, for example, a user or may be performed by a user related person. Alternatively, a person other than the user or the related person of the user may be allowed to perform.
  • the remote diagnosis doctor D determines the medical institution (hospital) that is the destination of the autonomous driving vehicle 200
  • the information processing apparatus 400 determines the destination candidate in the second embodiment.
  • the biometric information processing unit 242 of the automatic driving vehicle 200 determines the place or the destination candidate
  • the destination or the destination candidate of the automatic driving vehicle 200 may be determined in another manner. For example, if a medical institution (hospital) that is a destination is determined in advance and the required hospital information is added to the response information, the determined hospital may be the destination. Further, the information processing apparatus 400 may determine the destination instead of determining the destination candidate. When the user of the autonomous driving vehicle 200 rejects the destination determined by the remote diagnostician D or the like, the medical institution serving as the destination may be determined again.
  • the external terminal 100 transmits the biometric information transmitted by the biometric information processing part 242 to the doctor terminal 300 (300A, 300B, ...) of the hospital used as the destination, as another aspect, Also good.
  • the external terminal 100 may transmit biometric information to doctor terminals of a plurality of medical institutions that can be candidates for the destination before the destination medical institution is determined. You may transmit biometric information to the doctor terminal of the medical institution of the range.
  • the user from whom biometric information is acquired is a driver
  • a user is either a driver
  • One or both may be used.
  • the medical network system may include a camera that captures an image of a user's situation when the biometric information acquisition unit 240 acquires biometric information, and the biometric information acquisition status may be recorded by the camera. .
  • the service center S determines a destination candidate, the service center S inquires whether a patient can be accepted from a plurality of medical institutions and rejects the medical institutions. May be excluded from destination candidates.
  • the service center S may limit the service to the medical institution according to the history of acceptability of each medical institution.

Abstract

自動運転車両200は、通信装置220、生体情報取得部240、及び自動運転制御ユニット250を備える。通信装置220は、生体情報取得部240で取得した生体情報を外部機器に送信するとともに、送信した生体情報に対する属性情報を含む応答信号を受信する。自動運転制御ユニット250は、受信した応答信号に含まれる属性情報に基づいて形成された経路情報に応じた自動運転を実行する。

Description

移動体及び管理システム
 本発明は、移動体及び管理システムに関する。
 本願は、2017年6月16日に、日本に出願された特願2017-118917に基づき優先権を主張し、その内容をここに援用する。
 車両の乗員の健康を管理するシステムとして、従来、乗員の身体情報と活動状況に基づいて、乗員に対してアドバイスを報知する健康管理支援システムがある(例えば、特許文献1参照)。この健康管理支援システムでは、乗員の身体情報を検知するとともに、乗員に対するアドバイスを行うことにより、乗員の健康を管理することができる。
特開2008-234009号公報
 しかしながら、上記特許文献1に開示された健康管理支援システムでは、車両に一名で乗車している場合、車両を停止させて身体情報を取得させる必要がある。一方、運転中にも身体情報を取得可能な構成である場合、身体情報の種類が限定的となるため、乗員の健康を把握するために十分な情報が取得できない場合がある。
 本発明の課題は、利用者の身体状態を迅速かつ十分に取得して伝達することに寄与できる移動体及び管理システムを提供することである。
 (1):利用者の生体情報を取得する生体情報取得部と、移動体の自動運転を実行する自動運転制御部と、前記生体情報を外部機器に送信するとともに、送信した前記生体情報に対する属性情報を含む応答信号を前記外部機器から受信する通信部と、前記自動運転制御部は、前記応答信号に含まれる前記属性情報に基づいて形成された経路情報に応じた自動運転を実行する、移動体である。
 (2):(1)の移動体であって、前記属性情報は、前記利用者の診断結果情報及び追加診断要否情報の少なくとも一方に応じた位置情報を含み、前記自動運転制御部は、前記通信部で受信した前記属性情報に含まれる前記位置情報の中から経由地を選択するものである。
 (3):(2)の移動体であって、前記外部機器との相互認証により前記生体情報取得部が取得した生体情報を前記外部機器に連続送信する連続接続提供部を備えるものである。
 (4):(2)の移動体であって、前記属性情報及び経路情報に基づいて、前記移動体の経路上に他の移動体を誘導する誘導情報を生成する誘導部を備え、
 前記通信部は、前記誘導情報を外部に送信するものである。
 (5):(1)から(4)のいずれかの移動体であって、前記自動運転制御部は、前記生体情報取得部が動作している間、前記移動体を停止させ、または徐行させるものである。
 (6):(1)から(5)のいずれかの移動体であって、前記属性情報に基づいて、前記利用者に対して表示する情報を制御する属性表示制御部を備えるものである。
 (7):(1)から(6)のいずれかの移動体であって、前記通信部によらず、一次属性を判定する一次属性判定部を備えるものである。
 (8):利用者の生体情報を取得する生体情報取得部と、移動体の自動運転を実行する自動運転制御部と、前記生体情報を外部機器に送信するとともに、送信した前記生体情報に対する属性情報を含む応答信号を前記外部機器から受信する通信部と、を備えた移動体と通信可能に接続される管理システムであって、前記通信部から受信した前記生体情報をもとに前記生体情報に属性を付与するとともに、属性情報を含む応答信号を生成する応答生成部と、前記生体情報に対応した利用者情報を取得する利用者情報取得部と、前記応答信号を、前記通信部に送信する送信部と、を備える、管理システムである。
 (9):(8)の管理システムであって、前記属性情報に基づき、利用可能な施設の施設情報を参照する施設情報参照部を備えるものである。
 (10):(9)の管理システムであって、前記属性情報に基づき、利用可能な施設に対応した通信先に照会信号を送信する照会信号送信部と、前記照会信号に対応した照会応答を前記通信先から受信し、前記照会応答に対応する前記施設情報を、前記通信部に送信する施設情報送信部と、を備えるものである。
 (11):(8)の管理システムであって、前記通信部からの前記生体情報の連続受信可否を判定する連続受信判定部と、前記連続受信判定部が連続受信可能と判定した状態において、受信した前記生体情報を変換し、外部機器との共有可能部に書き込む信号変換部と、前記共有可能部に対する外部機器のアクセスを許可する接続許可部と、備えるものである。
 (12):(10)の管理システムであって、前記通信部からの前記生体情報を所定期間にわたって記録する信号保持部と、前記信号保持部が記録した生体信号履歴を前記通信先に送信する履歴送信部を備えるものである。
 (1)、(8)では、移動体は、生体情報を外部機器に送信するとともに、外部機器から受信する属性情報に基づく経路情報に応じた自動運転を実行する。このため、外部機器を医師などが操作することにより、利用者の生体情報に基づいて、利用者がとる処置、例えば病院に行く処置や投薬する処置などの必要性を判定して、利用者の生体情報に応じて移動できる。したがって、利用者の身体状態を迅速かつ十分に取得して伝達することができる。
 (2)では、自動運転制御部は、利用者の診断結果情報及び追加診断要否情報の少なくとも一方に応じた位置情報の中から経由地を選択する。このため、利用者が向かい際に適切な施設を経由できる。
 (3)、(11)では、外部機器との相互認証により生体情報取得部が取得した生体情報を外部機器に連続送信する。このため、利用者の生体情報、さらには健康状態を随時認識できる。
 (4)では、属性情報及び経路情報に基づいて、経路上に他の移動体を誘導する誘導情報を生成する。このため、例えば利用者が緊急性の高い疾病状態にあるときに、他の移動体、例えば医療車両を早期に出動させることができる。
 (5)では、自動運転制御部は、生体情報取得部が動作している間、前記移動体を停止させ、または徐行させる。このため、利用者の生体情報を精度よく取得することができる。
 (6)では、属性情報に基づいて、利用者に対して表示する情報を制御する。このため、利用者に応じた属性情報を表示できる。
 (7)では、一次属性を判定する一次属性判定部を備える。このため、移動体の内部において、利用者の一時的な属性を判定できる。
 (9)では、利用者の属性情報に基づき、利用可能な施設の施設情報を参照する施設情報参照部を備える。このため、利用者に応じた施設を選択できる。
 (10)では、照会応答に対応する施設情報を、移動体の通信部に送信する。このため、利用者に応じた施設を移動体、例えば自動運転車両に提供できる。
 (12)では、信号保持部が記録した生体信号履歴を通信先に送信する。このため、利用者に応じた施設を移動体、例えば自動運転車両に提供できる。
第1実施形態の医療ネットワークシステムの構成図である。 外部端末の構成図である。 自動運転車両の構成図である。 送信データを説明する説明図である。 第1実施形態の生体情報処理の手順を示すフローチャートである。 第1実施形態の外部端末処理の手順を示すフローチャートである。 第2実施形態の医療ネットワークシステムの構成図である。 第2実施形態の生体情報処理の手順を示すフローチャートである。 第2実施形態の外部端末処理の手順を示すフローチャートである。 第2実施形態の病院案内処理の手順を示すフローチャートである。 目的地候補となる病院のデータを説明する説明図である。 自動運転車両が走行可能なマップを説明する説明図である。 第3実施形態の医療ネットワークシステムの構成図である。 第3実施形態の自動運転車両の構成図である。 第3実施形態の管理サーバの構成図である。 第3実施形態の医療ネットワークシステムにより実行される処理を示すシーケンス図である。
 以下、本発明の医療ネットワークシステムについて、図面を参照して説明する。
 医療ネットワークシステムは、自動運転車両に乗車する利用者が体調不良等を起こした場合における処置を支援するためのシステムである。医療ネットワークシステムでは、利用者の生体情報を取得し、取得した生体情報をリモート診断医などに提供する。リモート診断医は、提供された利用者の生体情報に基づいて、利用者の体調を判定する。
 リモート診断医による判定の結果、利用者が病院に来院すべきと判定したときには、利用者が病院にするための情報を利用者に提供する。また、リモート診断医は、利用者が来院する病院に対して、利用者の生体情報を提供する。これによって、自動運転車両に乗車中の診察が必要な利用者が早期に診察を受けることが可能であるとともに、乗車中でも適切な処置をとることができる。
 また、来院までは必要ないが、体調に応じた投薬等が有効である場合には、適切な薬品に関する情報を利用者に提供する。これによって、医師の診断までもは必要ではなく、投薬程度で済ませられる体調であるときに、病院への来院を省くことができる。さらには、投薬すべき薬品の情報を利用者に提供することができる。以下、医療ネットワークシステムの第1実施形態について説明する。なお、医療ネットワークシステムにおける利用者は、自動運転車両に乗車する乗員であり、運転者でもよいし運転者以外の者(同乗者)でもよい。
[第1実施形態]
 図1は、第1実施形態の医療ネットワークシステムの構成図である。図1に示すように、医療ネットワークシステムは、例えば、外部端末100、自動運転車両200、及び医師端末300を備える。外部端末100は、例えばリモート診断医Dによって利用される。医師端末300は、例えば医療機関である病院Hに設置されている。なお、第1実施形態では、自動運転車両200が来院する医療機関である図1に示す病院Hはリモート診断医Dによって決定される。
 外部端末100及び自動運転車両200は、無線通信によってネットワークNWと接続可能である。また、医師端末300は、ケーブルを介してネットワークNWと接続されている。ネットワークNWは、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、プロバイダ装置、専用回線、無線基地局などを含む。
 外部端末100は、例えば、スマートフォンやタブレット端末、パーソナルコンピュータなどである。外部端末100では、医療ネットワークシステムを利用するためのアプリケーションプログラム、或いはブラウザなどが起動し、以下に説明するサービスをサポートする。以下の説明では外部端末100がスマートフォンであり、アプリケーションプログラム(医療ネットワークアプリ)が起動していることを前提とする。
 図2は、外部端末装置の構成図である。図2に示すように、外部端末100は、タッチパネル(入力部、出力部の一例)110、通信部(第2の通信部の一例)120、及び制御部130を備える。タッチパネル110は、利用者であるリモート診断医Dの入力操作を受け付ける。入力操作の内容としては、例えば、生体情報を病院Hの医師端末300に送信する指示、病院Hの指定、指定した病院の識別情報や所在地などの情報を含む要来院情報を自動運転車両200の生体情報処理部242に送信する指示などがある。タッチパネル110は、入力操作に応じた入力情報を制御部130に出力する。また、タッチパネル110は、通信部120によって受信された情報、例えば自動運転車両200の通信装置220により送信される生体情報に基づく情報を表示して出力する。
 通信部120は、例えば、ネットワークNWに接続したり、ネットワークNWを介して、自動運転車両200及び医師端末300との間で通信したりするための無線通信モジュールである。通信部120は、Wi-Fi、DSRC(Dedicated Short Range Communications)、Bluetooth(登録商標)、その他の通信規格に基づいて無線通信を行う。通信部120は、自動運転車両200により送信された情報を制御部130に出力する。
 制御部130は、例えば、CPU(Central Processing Unit)などのプロセッサが、各種記憶装置に記憶されたプログラムを実行することにより実現される。制御部130は、タッチパネル110から入力された情報に基づいて、各種演算処理を行う。制御部130は、各種演算処理の結果に基づく情報をタッチパネル110及び通信部120に出力する。通信部120は、制御部130により出力された情報を、ネットワークNWを介して自動運転車両200や医師端末300に送信する。
 また、外部端末100は、図示しないスピーカやバイブレータを備えてよい。外部端末100は、スピーカを介して音声を出力可能である。ここでの音声は、例えば、所定の情報を受信した際に、当該情報を受信した旨や情報の種類などを示すものであってもよいし、受信した情報に応じた所定の機械音などであってもよい。また、バイブレータは、振動することにより、外部端末100の利用者に対して、情報を受信した旨を報知する。これらの構成を備える外部端末100は、外部端末処理を実行する。外部端末処理については、後に説明する。
 自動運転車両200は、例えば、一以上の利用者が乗員として乗車可能な車両であり、運転操作を行うことなく走行する機能を有する車両である。図3は、自動運転車両200の構成図である。図3に示すように、自動運転車両200は、例えば、外界監視ユニット210と、通信装置(第1の通信部の一例)220と、ナビゲーション装置230と、生体情報取得部240と、生体情報処理部242と、自動運転制御ユニット(自動運転制御部の一例)250と、駆動力出力装置260と、ブレーキ装置262と、ステアリング装置264とを備える。
 外界監視ユニット210は、例えば、カメラやレーダ、LIDAR(Light Detectionand Ranging)、これらの出力に基づいてセンサフュージョン処理を行う物体認識装置などを含む。外界監視ユニット210は、自動運転車両200の周辺に存在する物体の種類(特に、車両、歩行者、および自転車)を推定し、その位置や速度の情報とともに自動運転制御ユニット250に出力する。
 通信装置220は、例えば、ネットワークNWに接続したり、他車両や歩行者の端末装置などと直接的に通信したりするための無線通信モジュールである。通信装置220は、Wi-Fi、DSRC(Dedicated Short Range Communications)、Bluetooth(登録商標)、その他の通信規格に基づいて無線通信を行う。通信装置220として、用途に応じた複数のものが用意されてもよい。通信装置220は、外部端末100により送信された情報を生体情報処理部242に出力する。通信装置220は、ナビゲーション装置230及び生体情報処理部242により出力された情報を、ネットワークNWを介して外部端末100及び医師端末300に送信する。
 ナビゲーション装置230は、例えば、HMI(Human machine Interface)232と、GNSS(Global Navigation Satellite System)受信機234と、ナビ制御装置236とを備える。HMI232は、例えば、タッチパネル式ディスプレイ装置やスピーカ、マイクなどを含む。GNSS受信機234は、GNSS衛星(例えばGPS衛星)から到来する電波に基づいて自機の位置(自動運転車両200の位置)を測位する。ナビ制御装置236は、例えば、CPU(Central Processing Unit)や各種記憶装置を備え、ナビゲーション装置230全体を制御する。
 記憶装置には、地図情報(ナビ地図)が格納されている。ナビ地図は、ノードとリンクで道路を表現した地図である。ナビ制御装置236は、GNSS受信機234によって測位された自動運転車両200の位置から、HMI232を用いて指定された目的地までの経路を、ナビ地図を参照して決定する。また、ナビ制御装置236は、自動運転車両200の位置と目的地とを、通信装置220を用いてナビゲーションサーバ(不図示)に送信し、ナビゲーションサーバから返信された経路を取得してもよい。なお、経路には、利用者を乗車または降車させるために停止する地点および到達目標時刻の情報が含まれてよい。ナビ制御装置236は、上記いずれかの方法で決定した経路の経路情報を通信装置220及び自動運転制御ユニット250に出力する。
 生体情報取得部240は、利用者の生体情報を取得する。例えば、生体情報取得部240は、自動運転車両に搭載され、利用者を撮影するカメラやマイク、或いは利用者が装着するウェアラブルセンサなどである。また、生体情報取得部240が動作して取得する利用者の生体情報としては、例えば、心拍数、脈拍数、体温、呼吸回数、瞳孔の開き具合、呼吸音、心電、筋電、心電や筋電の変化(変位)、血糖値、血中酸素濃度などが挙げられる。これらの項目の計測については、例えば、心電計、筋電計、血糖値測定器、血中酸素濃度計測機など各項目の専用の計測装置を用いてもよい。
 生体情報処理部242は、CPUやMPU(Micro Processing Unit)などの一以上のプロセッサが、各種記憶装置に記憶されたプログラムを実行することで実現される。生体情報処理部242は、生体情報取得部240に対して生体情報検出指示を出力する。生体情報取得部240は、生体情報処理部242により出力される生体情報検出指示に応じて、利用者の生体情報を検出する。また、生体情報処理部242は、生体情報取得部240に生体情報検出指示を出力した際には、自動運転制御ユニット250に対して、減速指示を出力する。
 生体情報処理部242は、生体情報取得部240により出力された生体情報を通信装置220に出力する。通信装置220は、出力された生体情報を外部端末100に対してネットワークNWを介して送信する。生体情報処理の具体的な手順は、後にさらに説明する。外部端末100では、送信された生体情報を受信する。また、生体情報処理部242は、外部端末100により送信された情報に応じて目的地を設定し、設定した目的地に応じた目的地情報をナビゲーション装置230に出力する。
 自動運転制御ユニット250は、CPUやMPUなどの一以上のプロセッサと各種記憶装置を備える。自動運転制御ユニット250は、ナビゲーション装置230により送信された経路情報に基づく経路を走行するように自動運転車両200を自動的に走行させる自動運転を実行する。自動運転制御ユニット250は、例えば、各種イベントを順次実行する。イベントには、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従する追従走行イベント、車線変更イベント、合流イベント、分岐イベント、緊急停止イベント、料金所を通過するための料金所イベント、自動運転を終了して手動運転に切り替えるためのハンドオーバイベントなどがある。また、これらのイベントの実行中に、自動運転車両200の周辺状況(周辺車両や歩行者の存在、道路工事による車線狭窄など)に基づいて、回避のための行動が計画される場合もある。
 自動運転制御ユニット250は、自動運転車両200が将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自動運転車両200の到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、所定の走行距離ごとの自動運転車両200の到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
 自動運転制御ユニット250は、生体情報処理部242により減速指示が出力された場合に、減速が困難な状況であるか否か判定して、減速が困難な状況、例えば後続車両が近い距離にいるような状況でないときには、減速処理を行う。こうして、自動運転制御ユニット250は、減速処理を行うことにより、生体情報取得部240が動作している間、自動運転車両200を停止させまたは徐行させる。また、周囲環境におけるラジオノイズ(電磁波)の影響を受ける可能性がある場合には、自動運転車両200が別の場所に移動してラジオノイズの影響を避けるようにしてから、生体情報取得部240が生体情報を取得するようにしてもよい。このため、例えばS/N比を検出し、S/N比が低いときには、S/N比が高くなる位置に自動運転車両200を移動させるようにしてもよい。
 駆動力出力装置260は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。駆動力出力装置260は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するパワーECUとを備える。パワーECUは、自動運転制御ユニット250から入力される情報、或いは不図示の運転操作子から入力される情報に従って、上記の構成を制御する。
 ブレーキ装置262は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、自動運転制御ユニット250から入力される情報、或いは運転操作子から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置262は、運転操作子に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置262は、上記説明した構成に限らず、自動運転制御ユニット250から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
 ステアリング装置264は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、自動運転制御ユニット250から入力される情報、或いは運転操作子から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
 図1に戻り、医師端末300は、図示しない通信装置、演算装置、画像表示装置等を備える。医師端末300は、ネットワークNWを介して外部端末100により送信される生体情報を含む送信情報を通信装置によって受信可能である。また、医師端末300は、受信した生体情報を画像表示装置に表示可能である。医師端末300を操作する病院Hにおける医師は、外部端末100により送信された生体情報に基づいて、利用者をさらに精密に診断する二次的な診断の準備を行うことができる。
 外部端末100では、自動運転車両200における通信装置220により送信された生体情報に基づいて、例えば生体情報(或いは生体情報を加工した情報)を含む送信情報を生成する。送信情報には、例えば図4に示すように、「車両ID」「(自動運転車両200の)現在位置」「乗員年齢」「乗員性別」「乗車位置」「脈拍数」「心拍数」「体温」の各項目が含まれる。これらの項目のうち、「脈拍数」「心拍数」「体温」「血糖値」、「血中酸素濃度」が生体情報となる。生体情報取得部240は、例えば、時系列に沿って利用者の生体情報を取得する。生体情報は、例えば、120Hz以下程度の周波数をもって時系列で利用者の生体情報を取得する。図4に示す送信情報は、時刻t1,t2,t3,t4,t5で計測した生体情報をそれぞれ含む送信情報を示している。外部端末100は、生成した送信情報を、医師端末300に対してネットワークNWを介して送信する。
 次に、第1実施形態の医療ネットワークシステムにおける処理について説明する。医療ネットワークシステムにおける処理には、生体情報処理部242で実行される生体情報処理及び外部端末100で実行される外部端末処理が含まれる。生体情報処理及び外部端末処理は、例えば、自動運転車両200に乗員が乗車し、設定された目的地に向けて自動運転車両200が走行している状態で行われる。以下、生体情報処理及び外部端末処理について具体的に説明する。
 図5は、生体情報処理の手順の一例を示すフローチャートである。まず、生体情報処理部242は、生体情報取得部240に乗員の生体情報を取得させる(ステップS11)。生体情報処理部242は、例えば一定時間ごとに乗員の生体情報を生体情報取得部240に取得させて生体情報処理部242に出力させる。生体情報取得部240では、例えば、生体情報を時系列で計測した数秒~数十秒のデータを圧縮して送信するようにしてもよい。データを圧縮して送信するにあたっては、例えば、図4に示す複数の送信情報を圧縮して送信するようにしてもよい。
 次に、生体情報処理部242は、生体情報取得部240により出力された生体情報を外部端末100に対して通信装置220を介して送信する(ステップS12)。次に、生体情報処理部242は、外部端末100により送信される返答情報を受信したか否かを判定する(ステップS13)。その結果、返答情報を受信していないと判定した場合、生体情報処理部242は、返答情報を受信するまでステップS13の処理を繰り返す。なお、生体情報処理部242は、所定の待機時間、例えば15分間が経過しても返答情報を受信しない場合、そのままタイムアウトして生体情報処理を終了してもよい。
 外部端末100では、自動運転車両200の生体情報処理部242により送信された生体情報に基づく処理を行い、その結果として返答情報を生体情報処理部242に送信する。そこで、生体情報処理部242における生体情報処理の説明を続ける前に、外部端末100における制御部130で実行される外部端末処理について説明する。
 図6は、外部端末処理の手順の一例を示すフローチャートである。まず、外部端末100における制御部130は、自動運転車両200の生体情報処理部242により送信された生体情報を受信したか否かを判定する(ステップS21)。その結果、生体情報を受信していないと判定した場合、制御部130は、生体情報を受信するまでステップS21の処理を繰り返す。
 ステップS21において、生体情報を受信したと判定した場合、制御部130は、送信された生体情報に基づく画像をタッチパネル110に表示させる(ステップS22)。この際に、制御部130は、外部端末100のスピーカから表示音を出力させたり、バイブレータを振動させたりして、生体情報に基づく画像がタッチパネル110に表示されたことを外部端末100の利用者に報知してもよい。
 リモート診断医Dは、外部端末100に表示された画像に基づいて乗員の一次的な診断を行う。例えば、リモート診断医Dは、脈拍数や心拍数が正常値よりも高かったり、体温が平熱よりも高かったりした場合に、病気の疑いがあり、病院Hの来院が必要であるといった一次的な診断を行う。診断を行ったリモート診断医Dは、タッチパネル110を操作して診断結果を入力する。
 続いて、制御部130は、リモート診断医Dによるタッチパネル110の診断結果の入力操作があったか否かを判定する(ステップS23)。その結果、タッチパネル110の操作がなかったと判定した場合、制御部130は、タッチパネル110の操作があるまでステップS23の処理を繰り返す。また、タッチパネル110の操作があったと判定した場合、ステップS24に進む。リモート診断医Dは、タッチパネル110によって、来院の必要性や来院する病院の識別情報や所在地を入力する。病院の識別情報等は、リモート診断医Dの経験等によって判定してもよいし、別途病院リストを用意し、この病院リストの中からリモート診断医Dが選別して判定してもよい。なお、制御部130は、所定の待機時間、例えば10分間が経過しても入力操作がない場合、そのままタイムアウトして外部端末処理を終了してもよい。
 生体情報に基づく一次的な診断は、リモート診断医Dが行ってもよいし、その他の看護師やコンサルタントなどの専門家が行ってもよい。また、リモート診断医Dを含む医師やその他の専門家などを含めた複数の者で診断を行ってもよいし、診断用プログラムなどを用いて制御部130が行ってもよい。制御部130が自動的に診断を行う場合には、タッチパネル110への入力操作は省略されてもよい。
 続いて、制御部130は、入力された診断結果を参照し、病院Hへの来院が必要か否か(リモート診断医Dが病院Hへの来院が必要と入力したか否か)を判定する(ステップS24)。その結果、病院Hへの来院が必要であると判定した場合、返答情報に、病院Hへの来院が必要であることを示す要来院情報を付加する(ステップS25)。次に、制御部130は、生体情報を含む情報を医師端末300に送信する(ステップS26)。そして、制御部130は、返答情報を自動運転車両200の生体情報処理部242に送信して(ステップS27)、外部端末処理を終了する。また、病院Hへの来院が必要でないと判定した場合、制御部130は、返答情報に要来院情報を付加することなく、さらに、生体情報を医師端末300に送信することなく、返答情報を自動運転車両200の生体情報処理部242に送信する(ステップS27)。こうして、制御部130は、外部端末処理を終了する。
 図5に示す生体情報処理に戻り、生体情報処理部242は、ステップS13において、返答情報を受信したと判定した場合、要来院情報が付加されているか否かを判定する(ステップS14)。その結果、要来院情報が付加されていると判定した場合、生体情報処理部242は、目的地を病院Hに設定する(ステップS15)。続いて、生体情報処理部242は、設定した目的地情報をナビゲーション装置230に出力する(ステップS16)。ナビゲーション装置230では、目的地が予め設定された目的地から病院Hに変更される。ナビゲーション装置230では、目的地が変更された旨を音声や画像表示によって乗員に報知してもよい。また、ステップS14において、要来院情報が付加されていないと判定した場合、生体情報処理部242は、目的地を変更することなく、そのまま維持する。こうして、生体情報処理部242は、生体情報処理を終了する。
 このように、第1実施形態の医療ネットワークシステムでは、生体情報取得部240で取得した利用者の生体情報をリモート診断医Dが所持する外部端末100に送信する。このため、外部端末100を所持するリモート診断医Dによって生体情報に基づいて一次診断を行うことができるので、利用者の身体状態を迅速かつ十分に取得して伝達することができる。
 したがって、利用者は、自らが取るべき適切な処理、例えば病院に行く処置や投薬する処置などの必要性を判定して、自動運転車両に提供することができる。よって、利用者は、リモート診断医Dの判定に従うことにより、例えば、自動運転車両200に乗車中でも病院Hに来院するなどの適切な処置を早期にとることができる。
 また、第1実施形態の医療ネットワークシステムにおいては、リモート診断医Dが外部端末100のタッチパネル110に入力した病院の識別情報または所在地に基づいて、自動運転車両200の目的地を決定している。このため、リモート診断医Dなどの専門家によって入力された情報に基づいて、目的地となる病院を決定できるので、利用者が向かう際に適切な病院を目的地とすることができる。
 また、第1実施形態の医療ネットワークシステムにおいて、外部端末100は、生体情報処理部242により送信された生体情報を病院Hの医師端末300に送信している。このため、病院Hでは、生体情報を参照することによって、利用者を迎え入れる準備を進めておくことができる。したがって、自動運転車両に乗車中の診察が必要な利用者が早期に診察を受けることが可能となる。
 また、第1実施形態の医療ネットワークシステムにおいて、自動運転車両200における自動運転制御ユニット250は、生体情報取得部240が利用者の生体情報を取得するための動作しているときには、自動運転車両を停止させ、減速させるようにしている。このため、生体情報取得部240による利用者の生体情報の取得中には、自動運転車両200の走行による振動を少なくすることができる。したがって、生体情報取得部240における検出精度を高めることができる。また、生体情報処理部242が周囲環境におけるラジオノイズの影響を受ける可能性がある場合に、自動運転車両200が別の場所に移動することにより、生体情報処理部242は、生体情報を確実に取得することができる。
[第2実施形態]
 次に、第2実施形態について説明する。第2実施形態では、第1実施形態と異なり、自動運転車両が来院する医療機関として指定されるのは、複数の医療機関の中から選択された医療機関である。図7は、第2実施形態の医療ネットワークシステムの構成図である。図7に示すように、第2実施形態の医療ネットワークシステムは、第1実施形態と同様、外部端末100及び自動運転車両200を備える。また、第2実施形態の医療ネットワークシステムは、複数の医師端末300A,300B,300C…を備える。医師端末300A,300B,300C…は、例えばそれぞれ第1病院HA,第2病院HB,第3病院HC…に設置されている。さらに、第2実施形態の医療ネットワークシステムは、サービスセンターSに備えられた情報処理装置400を備える。以下、第1実施形態との相違点を中心として、第2実施形態の医療ネットワークシステムについて説明する。
 図7に示すように、第2実施形態の医療ネットワークシステムにおける外部端末100及び自動運転車両200は、いずれも第1実施形態と同様の構成を有している。また、複数の医師端末300A,300B,300C…は、いずれも第1実施形態の医師端末300と同様の構成を有する。
 情報処理装置400は、ネットワークNWと接続されている。情報処理装置400は、図示しない通信装置、演算装置、画像表示装置等を備える。情報処理装置400は、ネットワークNWを介して外部端末100により送信される処置情報を含む送信情報を通信装置によって受信可能である。また、情報処理装置400は、受信した処置情報を画像表示装置に表示可能である。また、情報処理装置400は、受信した処置情報に基づいて、病院案内処理を行う。病院案内処理では、自動運転車両200の走行位置に基づいて、自動運転車両200の目的地候補となる医療機関を決定し、決定した医療機関の識別情報または所在地を自動運転車両200の通信装置220に送信する。病院案内処理については、後に説明する。
 次に、第2実施形態の医療ネットワークシステムにおける処理について説明する。第2実施形態の医療ネットワークシステムにおける処理には、生体情報処理部242で実行される生体情報処理、外部端末100で実行される外部端末処理、及び情報処理装置400で実行される病院案内処理が含まれる。生体情報処理、外部端末処理、及び病院案内処理は、例えば、自動運転車両200に乗員が乗車し、設定された目的地に向けて自動運転車両200が走行している状態で行われる。以下、生体情報処理、外部端末処理、及び病院案内処理について具体的に説明する。
 図8は、生体情報処理の手順の一例を示すフローチャートである。まず、生体情報処理部242は、上記第1実施形態のステップS11と同様に、生体情報取得部240に利用者の生体情報を取得させ(ステップS31)、取得した生体情報を生体情報処理部242に出力させる。また、生体情報処理部242は、ナビゲーション装置230から自動運転車両200の現在位置に基づく現在地情報を取得する(ステップS31)。
 次に、生体情報処理部242は、生体情報取得部240により出力された生体情報及びナビゲーション装置230から取得した現在地情報を、外部端末100の制御部130に対して通信装置220を介して送信する(ステップS32)。続いて、生体情報処理部242は、サービスセンターSの情報処理装置400により送信される返答情報を受信したか否かを判定する(ステップS33)。その結果、返答情報を受信していないと判定した場合、生体情報処理部242は、返答情報を受信するまでステップS33の処理を繰り返す。なお、生体情報処理部242は、所定の待機時間、例えば15分間が経過しても返答情報を受信しない場合、そのままタイムアウトして生体情報処理を終了してもよい。
 外部端末100では、自動運転車両200の生体情報処理部242により送信された生体情報に基づく処理を行い、その結果として処置情報をサービスセンターSの情報処理装置400に送信する。また、情報処理装置400は、外部端末100により送信された処置情報に基づいて、返答情報を生成し、生体情報処理部242に送信する。そこで、生体情報処理部242における生体情報処理の説明を続ける前に、外部端末100における制御部130で実行される外部端末処理及び情報処理装置400で実行される病院案内処理について説明する。
 図9は、外部端末処理の手順の一例を示すフローチャートである。まず、外部端末100における制御部130は、生体情報を受信したか否かを判定する(ステップS51)。生体情報を受信していないと判定した場合、制御部130は、ステップS51の処理を繰り返す。また、生体情報を受信したと判定した場合、制御部130は、タッチパネル110に生体情報を表示し(ステップS52)、入力操作があったか否かを判定する(ステップS53)。その結果、入力操作がなかったと判定した場合、制御部130は、ステップS53の処理を繰り返す。ここまでは、上記第1実施形態におけるステップS21~ステップS23と同様の処理を実行する。
 また、ステップS53において、入力操作があったと判定した場合、制御部130は、病院への来院が必要と入力されたか否かをする(ステップS54)。ここでは、外部端末を所持するリモート診断医Dは、特定の病院ではなく、いずれかの病院への来院が必要か否か、また、入院の可能性があるなどの緊急度の高い疾病であるか否かを判定して判定結果を入力する。さらには、リモート診断医Dは、医療車両である救急車が必要か否かを判定して判定結果を入力する。また、病院の来院までは必要なく、投薬を行うことで十分と判定した場合、リモート診断医Dは、投薬で十分である旨及び投薬に適した薬品の種類を入力する。この場合、後に説明するように、ナビゲーション装置(提案部の一例)230は、自動運転車両200の最寄りの医療機関外の施設、例えば薬局を目的地とし、薬局への立ち寄り及び薬品の購入の提案を、HMI232を用いて利用者に対して実行する。
 ステップS54において、来院が必要であると判定した場合、制御部130は、処置情報に要来院情報を付加する(ステップS55)。要来院情報には、疾病の緊急度も合わせて付加する。続いて、制御部130は、救急車が必要か否かを判定する(ステップS56)。その結果、救急車が必要であると判定した場合、制御部130は、処置情報に、救急車が必要であることを示す要救急車情報を付加する(ステップS57)。また、救急車が必要でないと判定した場合、制御部130は、要救急車情報を付加することなくステップS58に進む。
 その後、制御部130は、サービスセンターSの情報処理装置400に処置情報を送信する(ステップS58)。ここで、制御部130は、生体情報処理部242により送信された現在地情報をサービスセンターSの情報処理装置400に送信する処置情報に付加する。また、ステップS54において、来院が必要でないと判定した場合、制御部130は、病院の来院までは必要なく、投薬で十分であるか否かを判定する(ステップS59)。
 その結果、投薬で十分であると判定した場合、制御部130は、投薬される薬品の種類に応じた薬品購入情報を処置情報に付加する(ステップS60)。また、投薬の必要もないと判定した場合、制御部130は、薬品購入情報などを処置情報に付加することなく、ステップS58に進む。その後、制御部130は、処置情報に現在地情報を付加してサービスセンターSの情報処理装置400に送信する(ステップS58)。
 続いて、制御部130は、生体情報処理部242により送信される行先病院情報を受信したか否かを判定する(ステップS61)。行先病院情報は、生体情報処理部242で決定されて、制御部130に送信される。生体情報処理部242により送信される行先病院情報を受信していないと判定した場合、制御部130は、ステップS61の処理を繰り返す。なお、制御部130は、所定の待機時間が経過しても行先病院情報を受信しない場合、そのままタイムアウトして外部端末処理を終了してもよい。
 また、生体情報処理部242により送信される行先病院情報を受信したと判定した場合、制御部130は、ステップS51で受信した生体情報を行先病院の医師端末に送信する(ステップS62)。例えば、第1行先病院が第1病院HAである場合、制御部130は、生体情報を医師端末300Aに送信する。こうして、制御部130は、外部端末処理を終了する。
 次に、病院案内処理について説明する。図10は、病院案内処理の手順の一例を示すフローチャートである。まず、サービスセンターSにおける情報処理装置400は、外部端末100により送信される処置情報を受信したか否かを判定する(ステップS71)。その結果、処置情報を受信していないと判定した場合、情報処理装置400は、ステップS61の処理を繰り返す。なお、情報処理装置400は、所定の待機時間が経過しても処置情報を受信しない場合、そのままタイムアウトして病院案内処理を終了してもよい。
 また、ステップS71において、外部端末100により送信される処置情報を受信したと判定した場合、情報処理装置400は、処置情報に要来院情報が付加されているか否かを判定する(ステップS72)。その結果、処置情報に要来院情報が付加されていると判定した場合、情報処理装置400は、行先候補病院決定処理を行う(ステップS73)。
 情報処理装置400は、行先候補病院決定処理では、自動運転車両200の行先の候補となる病院を決定する。情報処理装置400は、自動運転車両200や利用者の疾病の緊急度などに応じて自動運転車両200の行先の候補となる病院を決定することができる。例えば、情報処理装置400は、外部端末100により送信された処置情報に付加された現在地情報に基づいて、自動運転車両200の現在の走行位置を取得し、地理的条件として、取得した自動運転車両200から半径10km以内にある病院を行先候補として決定することができる。また、情報処理装置400は、地理的条件の他、自動運転車両200が例えば20分以内に到達できる病院といった時間的条件で行先の候補となる病院を決定してもよい。さらに、情報処理装置400は、行先の候補となる病院を決定する際には、要来院情報に付加される疾病の緊急度も考慮してもよい。例えば、情報処理装置400は、入院が必要となる可能性があるほど緊急度の高い疾病が利用者に想定される場合には入院施設のある病院を決定し、緊急度の低い疾病が利用者に想定される場合には小規模の病院を決定してもよい。
 行先候補病院決定処理を行った結果、情報処理装置400は、行先候補となる病院があったか否かを判定する(ステップS74)。その結果、行先候補となる病院があったと判定した場合、情報処理装置400は、要来院情報に行先候補病院情報を付加する(ステップS75)。行先候補病院情報には、図11に示すように、行先候補となる病院の住所、診療科目、休診日と等の情報が含まれている。また、行先候補となる病院がなかったと判定した場合、情報処理装置400は、行先候補病院情報を付加することなく、そのままステップS76に進む。
 それから、情報処理装置400は、返答情報に要来院情報を付加する(ステップS76)。続いて、情報処理装置400は、処置情報に要救急車情報が付加されているか否かを判定する(ステップS77)。その結果、処置情報に要救急車情報が付加されていると判定した場合、情報処理装置400は、図7に示す救急車AMの出動要請を行う(ステップS78)。救急車AMの出動要請を行う際、情報処理装置400は、例えば、自動運転車両200の経路上の所定位置まで救急車AMを移動させる要請情報を送信する。
 その後、情報処理装置400は、返答情報に救急車出動情報を付加する(ステップS79)。その後、情報処理装置400は、返答情報を自動運転車両200の生体情報処理部242に送信して(ステップS80)、病院案内処理を終了する。また、ステップS77において、処置情報に要救急車情報が付加されていないと判定した場合、情報処理装置400は、そのままステップS80に進む。そして、情報処理装置400は、返答情報を自動運転車両200の生体情報処理部242に送信して(ステップS80)、病院案内処理を終了する。
 また、ステップS72において、処置情報に要来院情報が付加されていないと判定した場合、情報処理装置400は、処置情報に薬品購入情報が付加されているか否かを判定する(ステップS81)。その結果、薬品購入情報が付加されていると判定した場合、情報処理装置400は、返答情報に薬品購入情報を付加して(ステップS82)、ステップS80に進む。また、薬品購入情報が付加されていないと判定した場合、情報処理装置400は、返答情報に薬品購入情報を付加することなくステップS80に進む。そして、情報処理装置400は、返答情報を自動運転車両200の生体情報処理部242に送信し(ステップS80)、病院案内処理を終了する。
 図8に示す生体情報処理に戻り、生体情報処理部242は、ステップS33において、返答情報を受信したと判定した場合、生体情報処理部242は、返答情報に要来院情報が付加されているか否かを判定する(ステップS34)。その結果、要来院情報が付加されていないと判定した場合、生体情報処理部242は、返答情報に薬品購入情報が付加されているか否かを判定する(ステップS35)。ここで、返答情報に薬品購入情報が付加されていないと判定した場合、生体情報処理部242は、そのままステップS42に進む。また、返答情報に薬品購入情報が付加されているとした場合、生体情報処理部242は、自動運転車両200の現在地における最寄りの薬局を目的地として設定する(ステップS36)。また、生体情報処理部242は、最寄りの薬局を目的地として設定した際に、薬品購入情報に応じた薬局情報をナビゲーション装置230に出力する。ナビゲーション装置230は、生体情報処理部242により出力された薬局情報に基づく自動運転車両200の最寄りの薬局に立ち寄り、薬品を購入する旨を、例えばHMI232を用いて利用者に画像表示や音声によって提案する。
 例えば、図12に示すように、自動運転車両200の周囲に4つの第1薬局MA~第4薬局MDが存在する場合には、生体情報処理部242は、自動運転車両200から最寄りの第4薬局MDを目的地とすればよい。また、自動運転車両200が走行している道路がUターン禁止等で走行に制約がある場合には、生体情報処理部242は、自動運転車両200から最寄りではないが、走行距離が最も短い第1薬局MAを目的地としてもよい。
 また、ステップS34において、返答情報に要来院情報が付加されていると判定した場合、生体情報処理部242は、要来院情報に行先候補病院情報が付加されているか否かを判定する(ステップS37)。その結果、要来院情報に行先候補病院情報が付加されていると判定した場合、生体情報処理部242は、目的地となる行先病院を決定する(ステップS38)。生体情報処理部242は、行先病院を決定するにあたり、行先候補病院情報に含まれる病院の中から、自動運転車両200の現在地における最寄りの病院を行先病院として決定する。
 生体情報処理部242は、行先病院を決定したら、決定した行先病院に関する行先病院情報を外部端末100の制御部130に出力する(ステップS39)。外部端末100の制御部130は、図9に示すステップS61からステップS62を実行して、行先病院に生体情報を送信する。
 また、ステップS37において、要来院情報に行先候補病院情報が付加されていないと判定した場合、生体情報処理部242は、あらかじめ設定された乗員のかかりつけの病院を目的地に設定する(ステップS40)。なお、乗員のかかりつけの病院が設定されていない場合には、自動運転車両200の現在地における最寄りの病院を目的地として設定してもよい。図12に示す例では、第1病院HA~第4病院HDの4つの病院のうち、第1病院HAが目的地となるようにすればよい。
 ステップS36もしくはステップS40で目的地を設定し、またはステップS38で目的地を設定しステップS39で外部端末100に行先病院情報を出力した後、生体情報処理部242は、目的地情報をナビゲーション装置230に出力する(ステップS41)。続いて、生体情報処理部242は、返答情報に救急車出動情報が付加されているか否かを判定する(ステップS42)。その結果、返答情報に救急車出動情報が付加されていると判定した場合、生体情報処理部242は、救急車出動案内を出力する(ステップS43)。生体情報処理部242は、例えばナビゲーション装置230のHMI232を利用して、救急車を呼んでいる旨を音声出力や画像表示で表して乗員に報知する。こうして、生体情報処理部242は、生体情報処理を終了する。また、ステップS42において、返答情報に救急車出動情報が付加されていないと判定した場合、生体情報処理部242は、そのまま生体情報処理を終了する。
 第2実施形態の医療ネットワークシステムでは、上記第1実施形態の医療ネットワークシステムと同様の作用効果を奏する。また、第2実施形態の医療ネットワークシステムでは、自動運転車両200の走行位置に基づいて、行先の候補となる病院を自動運転車両200の通信装置220に送信し、行先の候補となる病院の中から目的地を決定している。このため、リモート診断医Dなどの専門家によって入力された情報に基づいて、目的地となる病院を決定できるので、利用者が向かう際に適切な病院を目的地とすることができる。また、疾病の緊急度に応じて行先の候補となる病院を通信装置220に送信している。このため、疾病の度合いに応じたさらに適切な病院を目的地とすることができる。
 また、第2実施形態の医療ネットワークシステムでは、リモート診断医Dは、救急車の必要性を判定し、救急車が必要である場合には、サービスセンターSの情報処理装置400が救急車の出動要請を行うようにしている。このため、利用者が緊急性の高い疾病状態にあるときに、救急車を早期に出動させることができる。また、救急車は、自動運転車両200の走行経路に向かうようになっている。このため、自動運転車両200に対して、さらに早期に救急車を出動させるようにすることができる。
 また、第2実施形態の医療ネットワークシステムでは、リモート診断医Dが、病院の来院までは必要なく、一般に販売されている薬品の投薬で十分と判定した場合には、ナビゲーション装置230は、薬局への立ち寄り及び薬品の購入を提案し、自動運転車両200は、目的地を最寄りの薬局とするようにしている。このため、医療機関にまで行く必要が乏しい軽度の疾病の場合、薬局等に立ち寄る処置をとることができる。
[第3実施形態]
 次に、第3実施形態について説明する。第3実施形態では、第1実施形態と同様、自動運転車両が来院する医療機関は、病院Hである。図13は、第3実施形態の管理システムである医療ネットワークシステムの構成図である。図13に示すように、第3実施形態の医療ネットワークシステムは、第1実施形態と同様、自動運転車両200を備える。また、第3実施形態の医療ネットワークシステムは、管理サーバ500及び施設側端末600を備える。管理サーバ500は、サービスセンターSに設置され、施設側端末600は、病院Hに設置されている。以下、第1実施形態との相違点を中心として、第3実施形態の医療ネットワークシステムについて説明する。
 図14は、第3実施形態の自動運転車両の構成図である。図14に示すように、自動運転車両200は、外界監視ユニット410、通信部420、ナビゲーション装置430、生体情報取得部440、生体情報処理部441、自動運転制御ユニット450、駆動力出力部460、ブレーキ装置462、及びステアリング装置464を備えている。
 このうち、外界監視ユニット410、通信部420、ナビゲーション装置430、生体情報取得部440、自動運転制御ユニット450、駆動力出力部460、ブレーキ装置462及びステアリング装置464は、上記第1の実施形態の外界監視ユニット210、通信装置220、ナビゲーション装置230、自動運転制御ユニット250、駆動力出力装置260、ブレーキ装置262及びステアリング装置264と同様の構成を有している。
 生体情報処理部441は、一次属性判定部442、連続接続提供部444、誘導部446、及び属性表示制御部448を備えている。このうち、一次属性判定部442は、生体情報取得部440が取得した利用者の生体情報の一次属性を判定する。一次属性としては、例えば、リモート診断医Dが行う診断と同等の判断による判断結果(診断結果)である。例えば、利用者の脈拍数や心拍数が正常値の範囲内にあるか、もしくは正常値の範囲よりも高いか低いかなどを属性として分類する。一次属性判定部442は、分類した一次属性を管理サーバ500に通信部420を介して送信する。
 連続接続提供部444は、生体情報取得部440から取得した生体情報を、通信部420を介して連続的に管理サーバ500に生体信号として提供する。連続接続提供部444が設けられていることにより、管理サーバ500は、利用者の生体情報を時系列で取得し生体情報の計時的な変化を取得できる。
 誘導部446は、各種情報に基づいて、自動運転車両200が移動する際の経由地を設定したり、必要に応じた車両要請判定を行ったりする。誘導部446は、設定した経由地をナビゲーション装置430に出力する。ナビゲーション装置430は、出力された経由地に沿った走行のための情報を自動運転制御ユニット450に出力する。また、誘導部446は、車両要請を行う場合には、通信部420を介して管理サーバ500に車両要請信号を送信する。
 属性表示制御部448は、一次属性判定部442が判定した生体情報の特性や、管理サーバ500から送信される各種情報などの表示を表示する。また、生体情報処理部441は、第1実施形態における生体情報取得部240と同等の機能も備えている。
 図15は、第3実施形態の管理サーバの構成図である。図15に示すように、管理サーバ500は、通信部510、応答生成部520、利用者情報取得部530、連続受信判定部540、施設利用可否判定部550、照会信号生成部560、記憶部570、及び接続許可部580を備えている。
 応答生成部520は、属性付与判定部521及び追加属性付与判定部522を備えている。記憶部570は、生体履歴情報571、施設情報572、利用者情報573、共有生体情報574を記憶している。
 通信部510は、管理サーバ500から見た外部の機器、例えば、自動運転車両200や施設側端末600との間で情報(信号)の送受信を行う。通信部510は、例えば、自動運転車両200から送信される生体信号を受信し、応答信号を自動運転車両に送信する。応答信号には、属性情報、病院などの施設の位置を示す位置情報が含まれる。また、通信部510は、対応可能属性情報に応じた施設側端末600に照会信号を送信し、施設側端末600から送信される施設情報及び追加属性情報を受信する。通信部510は、施設側端末600に照会信号を送信した後、追加情報取得要求に応じて、生体履歴情報を施設側端末600に送信する。生体履歴情報を送信する場合には、例えば生体履歴情報を圧縮して送信する。
 応答生成部520における属性付与判定部521は、自動運転車両200から送信される生体信号に対して、生体履歴情報571等を参照して二次属性を付与した生体情報を生成する。二次属性情報を含む属性情報は、生体情報に付与されて、応答信号として通信部510を介して自動運転車両200に送信される。
 追加属性付与判定部522は、施設側端末600から送信される三次判定の結果に基づく追加属性情報を属性情報に付与する。追加属性情報は、追加診断の要否となる追加診断要否情報を含む。追加属性付与判定部522は、追加属性情報を付与した属性情報を自動運転車両200に通信部510を介して送信する。
 利用者情報取得部530は、記憶部570に記憶されている利用者情報を参照し、自動運転車両200を利用する利用者に関する情報を取得する。利用者情報取得部530は、取得した利用者情報によって、自動運転車両200の利用者を判定する。
 連続受信判定部540は、自動運転車両200から連続的に送信される生体信号を受信する連続接続の可否を判定する。連続受信判定部540は、連続接続が可能であるときには、通信部510を介して、自動運転車両200に連続接続判定認証情報を送信する。また、連続受信判定部540は、連続受信可能であるときには、受信した生体情報を共有生体情報574として記憶部570に記憶させる。連続受信判定部540は、信号変換部となる。なお、信号変換部は、連続受信判定部540とは別個に設けてもよい。
 施設利用可否判定部550は、記憶部570に記憶されている施設情報を参照し、属性情報に含まれる診断の内容に応じた施設(医療機関)を判定する。施設利用可否判定部550は、施設からの利用可否情報に基づいて当該施設の利用可否を判定し、利用可能な施設についての施設情報を、通信部510を介して、自動運転車両200に送信する。
 照会信号生成部560は、利用可否を施設に問い合わせるための照会信号を生成し、通信部510を介して、施設側端末600に送信する。照会信号生成部560から照会信号を送信すると、施設から利用可否情報が返信される。施設利用可否判定部550は、返信された利用可否情報に基づいて当該施設の利用可否を判定する。
 記憶部570が記憶する生体履歴情報571は、利用者が過去に取得し、管理サーバ500に送信した生体情報の履歴である。記憶部570における生体履歴情報571を記憶する部分は、信号保持部となる。施設情報572は、管理サーバが管轄する領域内における施設に関する情報である。施設情報には、その施設の位置情報や対応可能属性情報が含まれる。利用者情報573は、例えば、管理サーバに登録済の利用者の関する情報である。共有生体情報574は、API(Application Programming Interface)を介して得られる情報であり、利用者の生体情報である。共有生体情報574は、自動運転車両200の利用者のみならず、他の外部機器、例えば施設側端末600とも共有可能な生体情報である。
 接続許可部580は、自動運転車両200の通信部510を介した管理サーバ500における共有生体情報574の格納部との接続の可否を判定する。例えば、接続許可部580は、あらかじめ管理サーバ500に登録されている自動運転車両200について、管理サーバ500における共有生体情報574の格納部との接続を許可する。
 施設側端末600は、追加属性を付与する付与部を備える。施設側端末600は、管理サーバ500から送信される照会信号を受信した後、追加情報取得要求に応じて送信される生体履歴情報を参照して、追加診断の要否を判断する。施設側端末600は、追加診断が必要であるときに、追加属性情報を送信する。
 図16は、第3実施形態の医療ネットワークシステムにより実行される処理を示すシーケンス図である。図14及び図15に示す自動運転車両200と管理サーバ500との接続は、管理サーバ500における接続許可部580において、自動運転車両200との接続が許可された後に開始される。
 図16に示すように、自動運転車両200は、生体情報取得部440において生体信号を取得し(ステップS402)、一次属性判定部442において一次属性を判定する(ステップS404)。次に、自動運転車両200は、一次判定を行った生体信号を管理サーバ500に送信する(ステップS406)。
 管理サーバ500は、送信された生体信号を受信して記録する(ステップS408)。続いて、管理サーバ500は、生体信号に属性情報を付与する(ステップS410)。ここでの属性情報は、管理サーバ500における属性付与判定部521の判定に基づく二次属性の判定結果を付与する。
 次に、管理サーバ500は、施設情報の照会を行う(ステップS412)。管理サーバ500は、施設情報の照会を行うにあたり、一次属性及び二次属性が付与された生体信号に応じた施設の照会を行う。例えば、管理サーバ500は、記憶部570に記憶される施設情報572を参照し、生体信号に付された一次情報や二次情報に対応する対応可能属性情報に応じた施設を検索する。続いて、管理サーバ500は、検索した施設に対して照会信号を送信する(ステップS414)。照会信号には、生体信号及び属性情報が含まれる。
 施設側端末600は、送信された照会信号を受信し(ステップS416)、追加情報の取得要求を行う(ステップS418)。続いて、管理サーバ500の接続許可部580は、連続接続可否判定を行い(ステップS420)、連続接続可能であるときに連続接続判定認証情報を自動運転車両200及び施設側端末600に送信する。こうして、管理サーバ500は、自動運転車両200及び施設側端末600との間で相互認証を行う。
 自動運転車両200は、送信された連続接続判定認証情報を受信し(ステップS422)、連続接続を開始する(ステップS424)。自動運転車両200は、連続接続を開始することにより、生体情報及び一次属性の判定結果を管理サーバ500及び施設側端末600に連続送信する(ステップS424)。
 次に、施設側端末600は、APIを経由して得られた共有生体情報574からデータを読み込み(ステップS426)、生体信号を表示する(ステップS428)。続いて、施設側端末600は、管理サーバ500から送信される生体履歴情報を参照して追加診断の要否を判断する。ここで、追加診断が必要と判断したときに、追加属性情報を生体情報に付与する(ステップS430)。さらに、施設側端末600は、施設利用可否判定を行い(ステップS432)、施設利用可否判定の結果及び追加属性情報が付加された生体信号を管理サーバ500に送信する。
 管理サーバ500は、生体信号に付加された属性情報(一次属性から三次属性)及び対応可能施設の位置を示す位置情報を含む応答信号を自動運転車両200に送信する(ステップS434)。続いて、自動運転車両200は、送信された属性情報を利用者に通知し、表示する(ステップS436)。さらに、自動運転車両200は、施設利用可否情報を参照して経由地を選択し、経由地の設定を行う(ステップS438)。その後、自動運転車両200は、車両要請判定を行い(ステップS440)、車両要請を行う場合には、誘導部446は、車両要請信号を管理サーバ500に送信し、救急車などの緊急車両(他の車両)を自動運転車両200の経路に誘導する。そして、自動運転車両200は、自動運転制御を開始する(ステップS442)。また、管理サーバ500では、車両要請信号を受信したときには、受信した経路に車両を派遣する要請を行う(ステップS444)。
 以上説明した第3実施形態の医療ネットワークシステムでは、自動運転車両200は、生体情報を管理サーバ500に送信するとともに、管理サーバ500から受信する属性情報に基づく経路情報に応じた自動運転を実行する。このため、利用者の生体情報に基づいて、利用者がとる処置、例えば病院に行く処置や投薬する処置などの必要性を判定して、利用者の生体情報に応じて移動できる。したがって、利用者の身体状態を迅速かつ十分に取得して伝達することができる。
 以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。例えば、上記の第2実施形態では、リモート診断医DとサービスセンターSとは別個の位置に配置されているが、リモート診断医DがサービスセンターSに滞在するようにしてもよい。この場合、情報処理装置400が外部端末を兼ねる構成としてもよい。
 また、上記第2実施形態においては、情報処理装置400が自動運転車両200の行先の候補を決定するようにしているが、他の態様で自動運転車両200の行先の候補を決定するようにしてもよい。例えば、リモート診断医Dが外部端末100に行先の候補となる病院を入力し、入力した行先の候補を生体情報処理部242に送信するようにしてもよい。また、外部端末100の制御部130又は情報処理装置400等が、医師の往診を依頼したり、医師宅を行先の候補にしたりしてもよい。
 また、上記第1実施形態では、リモート診断医Dは、病院への来院への必要性を判定しているが、第2実施形態と同様に、救急車の出動要請の判定、病院への来院を行うことのない薬局への立ち寄りの判定等を行うようにしてもよい。これらの場合、外部端末100は、第2実施形態における情報処理装置400のように、救急車の出動要請を行って、通信部120が要請情報を送信したり、生体情報処理部242へ送信する返答情報に薬品購入情報及び救急車出動情報を付加したりすればよい。
 また、外部端末100は、生体情報を受信し、自動運転車両200の生体情報処理部242に返答情報を送信するに当たり、利用者の関係者の利用する端末に返答情報に対応する情報としての利用者情報を通知するようにしてもよい。利用者関係者には、例えば利用者の親兄弟などの家族、叔父、叔母、祖父母などの親せき、友人、同僚等、さらに利用者が子供である場合には、利用者が通う幼稚園や保育園、学校等が挙げられる。また、利用関係者は、例えば予め利用者ごとに外部端末100等に登録されているようにしてもよい。また、利用者情報には、返答情報に付加される要来院情報で示される医療機関や薬品購入情報で示される薬局の関する情報が含まれていればよい。また、所定の条件を満たすとき、例えば要来院情報が含まれているときなどに限って利用者関係者に利用者情報を通知するようにしてもよい。これらの利用者情報を利用者の関係者に通知することにより、利用者の状態を早期に関係者に知らせることができる。利用者情報の通知の態様は特に限定されず、例えば、通信部120を介した通信によってもよいし、電話などの手動による通知であってもよい。
 また、外部端末100には、利用者情報の通知の要否を設定する通知要否設定部が設けられていてもよい。通知要否設定部が設けられていることにより、外部端末100は、不要な通知を行わないようにすることができる。通知要否設定部に対する設定の操作は、例えば、利用者が行えるようにしてもよいし、利用者の関係者が行えるようにしてもよい。あるいは、利用者や利用者の関係者以外の者が行えるようにしてもよい。
 また、上記第1実施形態では自動運転車両200の目的地となる医療機関(病院)をリモート診断医Dが決定し、第2実施形態で目的地の候補を情報処理装置400が決定し、目的地または目的地の候補を自動運転車両200の生体情報処理部242が決定しているが、自動運転車両200の目的地または目的地の候補を他の態様で決定してもよい。例えば、目的地となる医療機関(病院)が予め定められており、返答情報に要来院情報が付加されていれば、定められた病院を目的地としてもよい。また、情報処理装置400が目的地の候補を決定する代わりに、目的地を決定するようにしてもよい。また、自動運転車両200の利用者がリモート診断医D等が決定した目的地を拒否したときには、再度目的地となる医療機関を決定し直すようにしてもよい。
 また、上記実施形態では、外部端末100は、生体情報処理部242により送信された生体情報を、目的地となる病院の医師端末300(300A,300B,…)に送信するが、他の態様としてもよい。例えば、外部端末100は、目的地の医療機関が決定される前に、目的地の候補となりえる複数の医療機関の医師端末に生体情報を送信してもよいし、これらの中からさらに絞った範囲の医療機関の医師端末に生体情報を送信してもよい。
 また、上記実施形態では、生体情報を取得される利用者は、自動運転車両200の運転者または運転者以外の乗員(同乗者)であるが、利用者は、運転者及び同乗者のいずれか一方でもよいし、両方でもよい。また、運転者の生体情報を取得するモードと、同乗者の生体情報を取得するモードの2つのモードを有しており、一方のモードが作動しているときに他方のモードが停止するようにしてもよい。
 また、医療ネットワークシステムは、生体情報取得部240で生体情報を取得しているときの利用者の状況を撮像するカメラを有し、このカメラによって生体情報の取得状況を記録しておいてもよい。また、第2実施形態において、サービスセンターSで行先の候補を決定する場合に、サービスセンターSは、複数の医療機関に対して患者の受け入れが可能であるかを問い合わせ、受け入れを拒否した医療機関を行先の候補から除くようにしてもよい。また、サービスセンターSは、各医療機関の受け入れ可否の対応履歴により、医療機関に対するサービスに制限を設けるようにしてもよい。
100 外部端末
110 タッチパネル
120 通信部
130 制御部
200 自動運転車両
210 外界監視ユニット
220 通信装置
230 ナビゲーション装置
232 HMI
234 GNSS受信機
236 ナビ制御装置
240 生体情報取得部
242 生体情報処理部
250 自動運転制御ユニット
260 駆動力出力装置
262 ブレーキ装置
264 ステアリング装置
300 医師端末
400 情報処理装置
AM  救急車
D   リモート診断医
H   病院
NW  ネットワーク
S   サービスセンター

Claims (12)

  1.  利用者の生体情報を取得する生体情報取得部と、
     移動体の自動運転を実行する自動運転制御部と、
     前記生体情報を外部機器に送信するとともに、送信した前記生体情報に対する属性情報を含む応答信号を前記外部機器から受信する通信部と、
     前記自動運転制御部は、前記応答信号に含まれる前記属性情報に基づいて形成された経路情報に応じた自動運転を実行する、移動体。
  2.  前記属性情報は、前記利用者の診断結果情報及び追加診断要否情報の少なくとも一方に応じた位置情報を含み、
     前記自動運転制御部は、前記通信部で受信した前記属性情報に含まれる前記位置情報の中から経由地を選択する、
     請求項1に記載の移動体。
  3.  前記外部機器との相互認証により前記生体情報取得部が取得した生体情報を前記外部機器に連続送信する連続接続提供部を備える、
     請求項2に記載の移動体。
  4.  前記属性情報及び経路情報に基づいて、前記移動体の経路上に他の移動体を誘導する誘導情報を生成する誘導部を備え、
     前記通信部は、前記誘導情報を外部に送信する、
     請求項2に記載の移動体。
  5.  前記自動運転制御部は、前記生体情報取得部が動作している間、前記移動体を停止させ、または徐行させる、
     請求項1~4のうちのいずれか1項に記載の移動体。
  6.  前記属性情報に基づいて、前記利用者に対して表示する情報を制御する属性表示制御部を備える、
     請求項1~5のうちのいずれか1項に記載の移動体。
  7.  前記通信部によらず、一次属性を判定する一次属性判定部を備える、
     請求項1~6のうちのいずれか1項に記載の移動体。
  8.  利用者の生体情報を取得する生体情報取得部と、
     移動体の自動運転を実行する自動運転制御部と、
     前記生体情報を外部機器に送信するとともに、送信した前記生体情報に対する属性情報を含む応答信号を前記外部機器から受信する通信部と、
     を備えた移動体と通信可能に接続される管理システムであって、
     前記通信部から受信した前記生体情報をもとに前記生体情報に属性を付与するとともに、属性情報を含む応答信号を生成する応答生成部と、
     前記生体情報に対応した利用者情報を取得する利用者情報取得部と、
     前記応答信号を、前記通信部に送信する送信部と、
     を備える、管理システム。
  9.  前記属性情報に基づき、利用可能な施設の施設情報を参照する施設情報参照部を備える、請求項8に記載の管理システム。
  10.  前記属性情報に基づき、利用可能な施設に対応した通信先に照会信号を送信する照会信号送信部と、
     前記照会信号に対応した照会応答を前記通信先から受信し、前記照会応答に対応する前記施設情報を、前記通信部に送信する施設情報送信部と、
     を備える、請求項9に記載の管理システム。
  11.  前記通信部からの前記生体情報の連続受信可否を判定する連続受信判定部と、
     前記連続受信判定部が連続受信可能と判定した状態において、受信した前記生体情報を変換し、外部機器との共有可能部に書き込む信号変換部と、
     前記共有可能部に対する外部機器のアクセスを許可する接続許可部と、
     を備える請求項8に記載の管理システム。
  12.  前記通信部からの前記生体情報を所定期間にわたって記録する信号保持部と、
     前記信号保持部が記録した生体信号履歴を前記通信先に送信する履歴送信部を備える、請求項10に記載の管理システム。
PCT/JP2018/022498 2017-06-16 2018-06-13 移動体及び管理システム WO2018230584A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019525470A JP7272951B2 (ja) 2017-06-16 2018-06-13 移動体及び管理システム
US16/621,279 US11545262B2 (en) 2017-06-16 2018-06-13 Mobile body and management system
CN201880040153.5A CN110770807A (zh) 2017-06-16 2018-06-13 移动体及管理系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017118917 2017-06-16
JP2017-118917 2017-06-16

Publications (1)

Publication Number Publication Date
WO2018230584A1 true WO2018230584A1 (ja) 2018-12-20

Family

ID=64659734

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022498 WO2018230584A1 (ja) 2017-06-16 2018-06-13 移動体及び管理システム

Country Status (4)

Country Link
US (1) US11545262B2 (ja)
JP (2) JP7272951B2 (ja)
CN (1) CN110770807A (ja)
WO (1) WO2018230584A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002160A (ja) * 2019-06-20 2021-01-07 ヤフー株式会社 判定装置、判定方法及び判定プログラム
WO2021014987A1 (ja) * 2019-07-23 2021-01-28 ソニー株式会社 移動体、情報処理装置、及び、情報処理方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104508729B (zh) * 2012-08-07 2018-08-14 索尼公司 信息处理装置、信息处理方法和信息处理系统
KR20200120243A (ko) * 2019-04-12 2020-10-21 현대자동차주식회사 이동체에 복수 개의 식별 디바이스를 이용하는 방법 및 장치
JP7172915B2 (ja) * 2019-08-13 2022-11-16 トヨタ自動車株式会社 車載装置、第1の情報処理装置、情報処理システム、および情報処理方法
CN111341133B (zh) * 2020-02-19 2022-09-16 广州小马智行科技有限公司 自动驾驶车辆的控制方法及装置、存储介质、处理器
US11318960B1 (en) * 2020-05-15 2022-05-03 Gm Cruise Holdings Llc Reducing pathogen transmission in autonomous vehicle fleet
CN113724852A (zh) * 2021-07-30 2021-11-30 东风悦享科技有限公司 一种无人驾驶医疗车系统及控制方法
US20230342874A1 (en) * 2022-04-25 2023-10-26 Toyota Motor North America, Inc. Prioritizing access to shared vehicles based on need

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176566A (ja) * 2000-12-06 2002-06-21 Casio Comput Co Ltd 画像送信装置、及び記録媒体
JP2002224053A (ja) * 2001-02-05 2002-08-13 Next:Kk 遠隔医療管理システム
JP2004171394A (ja) * 2002-11-21 2004-06-17 Takanori Terajima 搬送先自動選択装置、搬送先自動選択システム、傷病者データベース生成装置、傷病者データベース検索装置並びに移動体
JP2004357843A (ja) * 2003-06-03 2004-12-24 Read Eng Kk 救急医療システム
JP2015133050A (ja) * 2014-01-15 2015-07-23 みこらった株式会社 自動運転車

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007183824A (ja) 2006-01-06 2007-07-19 Advanced Telecommunication Research Institute International 運転支援装置
JP2008234009A (ja) 2007-03-16 2008-10-02 Denso Corp 健康管理支援システム
JP6287728B2 (ja) 2014-09-25 2018-03-07 株式会社デンソー 車載システム、車両制御装置、および車両制御装置用のプログラム
WO2016151749A1 (ja) * 2015-03-24 2016-09-29 パイオニア株式会社 自動運転支援装置、制御方法、プログラム及び記憶媒体
KR102456598B1 (ko) * 2016-01-04 2022-10-20 삼성전자주식회사 전자 장치 및 그의 동작 방법
US10035519B2 (en) * 2016-03-15 2018-07-31 GM Global Technology Operations LLC System and method for autonomous vehicle driving behavior modification
US10959892B2 (en) * 2017-03-07 2021-03-30 Panasonic Intellectual Property Management Co., Ltd. Management device and control device for autonomous patient transportation vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176566A (ja) * 2000-12-06 2002-06-21 Casio Comput Co Ltd 画像送信装置、及び記録媒体
JP2002224053A (ja) * 2001-02-05 2002-08-13 Next:Kk 遠隔医療管理システム
JP2004171394A (ja) * 2002-11-21 2004-06-17 Takanori Terajima 搬送先自動選択装置、搬送先自動選択システム、傷病者データベース生成装置、傷病者データベース検索装置並びに移動体
JP2004357843A (ja) * 2003-06-03 2004-12-24 Read Eng Kk 救急医療システム
JP2015133050A (ja) * 2014-01-15 2015-07-23 みこらった株式会社 自動運転車

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002160A (ja) * 2019-06-20 2021-01-07 ヤフー株式会社 判定装置、判定方法及び判定プログラム
JP7153610B2 (ja) 2019-06-20 2022-10-14 ヤフー株式会社 判定装置、判定方法及び判定プログラム
WO2021014987A1 (ja) * 2019-07-23 2021-01-28 ソニー株式会社 移動体、情報処理装置、及び、情報処理方法
EP4006916A4 (en) * 2019-07-23 2022-08-31 Sony Group Corporation MOBILE BODY, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD

Also Published As

Publication number Publication date
JP2023101500A (ja) 2023-07-21
JPWO2018230584A1 (ja) 2020-04-23
CN110770807A (zh) 2020-02-07
US20200143940A1 (en) 2020-05-07
JP7272951B2 (ja) 2023-05-12
US11545262B2 (en) 2023-01-03
JP7407321B2 (ja) 2023-12-28

Similar Documents

Publication Publication Date Title
JP7407321B2 (ja) 移動体、移動体の制御方法、及びプログラム
US20210328991A1 (en) Systems and Methods for a Secure Tipping Notification for a Motorized Mobile Chair
US10606275B2 (en) System for accurate object detection with multiple sensors
Meliones et al. Blind MuseumTourer: A system for self-guided tours in museums and blind indoor navigation
JP4838499B2 (ja) ユーザ支援装置
US20180357073A1 (en) Method, device, and system for electronic digital assistant for natural language detection of a user status change and corresponding modification of a user interface
CN102274109B (zh) 用于视觉障碍人士的手持导航设施和导航方法
CN106647745B (zh) 基于蓝牙定位的导诊机器人自主导航系统及方法
US20160018969A1 (en) Method and apparatus for contextual notifications and user interface
JP2019114102A (ja) 自動運転システム及び移動体、サーバ
US10959892B2 (en) Management device and control device for autonomous patient transportation vehicle
WO2018230559A1 (ja) 医療ネットワークシステム及び外部装置
WO2018230461A1 (ja) 車両制御システム、車両制御方法、及びプログラム
AU2018244769A1 (en) System and method for healthcare billing verification
JP2015116848A (ja) 情報処理システム、情報処理方法、および情報処理プログラム
Kishore et al. CENSE: A cognitive navigation system for people with special needs
JP2009238251A (ja) ユーザ支援装置
US20220359069A1 (en) Moving object, information processing device, and information processing method
JP6757230B2 (ja) 車載装置および覚醒システム
JP7430080B2 (ja) 管理装置、管理方法、およびプログラム
JP7372048B2 (ja) 誘導装置及び誘導システム
JP6956422B2 (ja) 誘導サービスシステム、誘導サービスプログラム、誘導サービス方法および誘導サービス装置
JP2019014368A (ja) 安全支援のためのシステム、方法、プログラム、及びプログラムを記録した記録媒体
KR20220086186A (ko) 사용자 맞춤형 건강 관리 장치 및 방법
WO2021192519A1 (ja) 情報提供装置、情報提供方法及び情報提供用プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18817842

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019525470

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18817842

Country of ref document: EP

Kind code of ref document: A1