WO2020054625A1 - 歩行者装置、車載装置、移動体誘導システムおよび移動体誘導方法 - Google Patents

歩行者装置、車載装置、移動体誘導システムおよび移動体誘導方法 Download PDF

Info

Publication number
WO2020054625A1
WO2020054625A1 PCT/JP2019/035228 JP2019035228W WO2020054625A1 WO 2020054625 A1 WO2020054625 A1 WO 2020054625A1 JP 2019035228 W JP2019035228 W JP 2019035228W WO 2020054625 A1 WO2020054625 A1 WO 2020054625A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
user
point
pedestrian
position information
Prior art date
Application number
PCT/JP2019/035228
Other languages
English (en)
French (fr)
Inventor
剛 上野
須藤 浩章
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US17/275,483 priority Critical patent/US11790783B2/en
Priority to CN201980059902.3A priority patent/CN112714929B/zh
Publication of WO2020054625A1 publication Critical patent/WO2020054625A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems

Definitions

  • the present disclosure relates to a pedestrian device carried by a pedestrian, an in-vehicle device mounted on a vehicle, a mobile object guidance system for guiding an autonomously movable mobile object according to a user's operation, and a mobile object guidance method.
  • ITS communication Inter-pedestrian communication
  • ITS communication is performed between an on-board terminal mounted on a vehicle and a pedestrian terminal carried by a pedestrian, thereby exchanging positional information of the vehicle and the pedestrian. Then, the risk of collision between the vehicle and the pedestrian is determined, and the driver or the pedestrian of the vehicle is alerted to avoid an accident.
  • a user indicates a target point candidate (for example, a parking point) recognized by a sensor or the like using his / her line of sight, and the target point is designated.
  • a technique for moving a vehicle is known (see Patent Documents 1 and 2).
  • the present disclosure is capable of moving a mobile object capable of autonomous movement to a required position by gaze guidance of a user, and in particular, a pedestrian capable of suppressing costs by using a device used in a safe driving support wireless system. It is a main object to provide a device, an in-vehicle device, a mobile object guidance system, and a mobile object guidance method.
  • the pedestrian device of the present disclosure is a pedestrian device possessed by a pedestrian who is a user of a mobile object capable of autonomous movement, and a communication unit that transmits and receives information to and from a terminal device mounted on the mobile object, A control unit that determines a risk of collision based on information transmitted and received between the terminal device and a control unit that controls alerting to a pedestrian, wherein the control unit determines a position of a gaze point that the user gazes at. Information is obtained as position information of a target point, and the position information of the target point is transmitted from the communication unit to the terminal device mounted on a mobile body used by a user, and the mobile body is moved to the target point. The control is performed by the terminal device.
  • an in-vehicle device is an in-vehicle device mounted on a vehicle capable of autonomous traveling, a communication unit that transmits and receives information to and from a pedestrian device, and information that is transmitted and received to and from the pedestrian device.
  • a control unit that determines the danger of a collision based on the vehicle, and controls the traveling control device to perform control to avoid the collision, wherein the control unit calculates the position information of the gaze point that the user of the vehicle gazes at at the target point.
  • the travel control device is configured to control the travel control device to move the own vehicle to the target point based on the position information of the target point.
  • a mobile object guidance system is a mobile object guidance system that guides an autonomously movable mobile object according to a user's operation, and includes a pedestrian that is a user of the autonomously movable mobile object.
  • Person device, and a terminal device mounted on the moving body, the pedestrian device, a communication unit for transmitting and receiving information to and from the terminal device, and information transmitted and received between the terminal device Determine the risk of collision based on, comprising a control unit that controls alerting to pedestrians, the control unit acquires the position information of the gaze point that the user gazes as position information of the target point, The position information of the target point is transmitted from the communication unit to the terminal device, the terminal device is a communication unit that transmits and receives information to and from the pedestrian device, and information that is transmitted and received to and from the pedestrian device.
  • control unit that causes a movement control device to perform control to avoid a collision
  • the control unit receives the position information of the target point from the pedestrian device by the communication unit, and Based on the location information of the point, the movement control device is controlled so as to move the own device to the target point.
  • the mobile object guidance method of the present disclosure is a mobile object guidance method for guiding a mobile object capable of autonomous movement in accordance with a user's operation, and includes a terminal device carried by a pedestrian and mounted on the mobile object.
  • a pedestrian device that sends and receives information between and determines the danger of a collision, and alerts the pedestrian, the position information of the gaze point that the user of the moving body as the pedestrian gazes at is the target point.
  • the terminal device controls the movement control device to move the own device to the target point based on the position information of the target point. Configuration.
  • a mobile object capable of autonomous movement can be moved to a required position by guiding the user's gaze.
  • the device used in the safe driving support wireless system using ITS since the device used in the safe driving support wireless system using ITS is used, the cost can be reduced.
  • FIG. 2 is a block diagram showing a schematic configuration of a pedestrian terminal 1 and a wearable terminal 2 according to the first embodiment. Explanatory drawing showing an outline of processing performed in wearable terminal 2 according to the first embodiment.
  • FIG. 2 is a block diagram showing a schematic configuration of the vehicle-mounted terminal 3 according to the first embodiment. Sequence diagram showing an operation procedure of the mobile guidance system according to the first embodiment.
  • FIG. 2 is a block diagram illustrating a schematic configuration of a pedestrian terminal 1 and a wearable terminal 2 according to a second embodiment.
  • FIG. 2 is a block diagram illustrating a schematic configuration of an in-vehicle terminal 3 according to a second embodiment.
  • Sequence diagram showing an operation procedure of the mobile object guidance system according to the second embodiment Overall configuration diagram of a mobile object guidance system according to a third embodiment Explanatory drawing which shows the outline of the process performed by the gaze point acquisition part 54 of the wearable terminal 2 which concerns on 3rd Embodiment. Block diagram showing a schematic configuration of a pedestrian terminal 1 and a wearable terminal 2 according to a third embodiment. Sequence diagram showing an operation procedure of the mobile guidance system according to the third embodiment.
  • Overall configuration diagram of a mobile object guidance system according to a fourth embodiment Block diagram showing a schematic configuration of a pedestrian terminal 1 and a wearable terminal 2 according to a fourth embodiment. Sequence diagram showing an operation procedure of the mobile guidance system according to the fourth embodiment.
  • FIG. 1 Block diagram showing a schematic configuration of a pedestrian terminal 1 and a wearable terminal 2 according to a fifth embodiment.
  • Overall configuration diagram of a gaze guidance system according to a sixth embodiment Block diagram showing a schematic configuration of a pedestrian terminal 1 and a wearable terminal 2 according to a sixth embodiment.
  • a first invention made to solve the above-mentioned problem is a pedestrian device possessed by a pedestrian who is a user of a mobile object capable of autonomous movement, wherein information is exchanged with a terminal device mounted on the mobile object. And a control unit that determines the risk of a collision based on information transmitted and received between the terminal device and a control unit that controls alerting to a pedestrian. Obtain the position information of the gaze point to be watched as the position information of the target point, transmit the position information of the target point from the communication unit to the terminal device mounted on the mobile used by the user, The terminal device performs control to move the body to the target point.
  • the mobile object capable of autonomous movement can be moved to a required position by the user's gaze guidance.
  • the device used in the safe driving support wireless system using ITS since the device used in the safe driving support wireless system using ITS is used, the cost can be reduced.
  • the second invention includes a short-range communication unit that performs short-range communication with a wearable device that is mounted on a user's body and detects a gaze state of the user, and the control unit includes the short-range communication unit from the wearable device. The position information of the gaze point is acquired.
  • the visual state of the pedestrian is detected by the wearable device, so that highly accurate position information can be obtained.
  • gaze state information (information on head orientation, viewpoint direction, gaze distance, and the like) regarding the gaze state of the user is acquired, and the gaze point of the gaze point is determined based on the information and the position information of the own device. What is necessary is just to acquire positional information. Further, the gaze state information may be output from the wearable device to the pedestrian device, and the pedestrian device may acquire the position information of the gaze point.
  • the control unit acquires the position information of the gaze point as the position information of the planned parking point, and the position information of the planned parking point is autonomously traveled as the moving body from the communication unit.
  • a configuration is employed in which the control is transmitted to the terminal device mounted on a possible vehicle, and the terminal device performs control to park the vehicle at the scheduled parking location.
  • control unit determines whether or not the user is on the moving body, and is transmitted from the terminal device when the user is on the moving body.
  • the position information of the moving object is acquired as the position information of the user.
  • control unit acquires two-dimensional position information of a target point based on three-dimensional measurement information of a gazing point watched by a user, and transmits the two-dimensional position information of the target point to the communication. And transmitting control to the terminal device to move the mobile body to a target point by the terminal device.
  • the moving body can be moved to that location.
  • three-dimensional measurement information azimuth, elevation, and distance
  • two-dimensional position information latitude
  • latitude of the target point
  • the communication unit communicates with another pedestrian device, and the control unit receives position information of a target point transmitted from the another pedestrian device, And, when the target point coincides with the target point of the own device, it is determined whether the priority of the own device is high, and when the priority of the own device is low, the target point is changed. It is configured to perform control for guiding the user.
  • the control unit acquires three-dimensional position information of a gazing point watched by a user as three-dimensional position information of a target point, and obtains three-dimensional position information of the target point from the communication unit.
  • a configuration is employed in which the terminal device is transmitted to the terminal device mounted on a mobile object capable of autonomous flight and controls the terminal device to move the mobile object to a target point.
  • control unit upon receiving from the terminal device a point change notification relating to a new planned parking point selected because there is no available parking space at the planned parking point, the new It is configured to present the scheduled parking point to the user.
  • the user can confirm that the scheduled parking point designated by the user has been changed.
  • control unit when presenting the new planned parking point to the user, according to an operation of the user, information relating to the user's approval result or selection result regarding the new planned parking point. And transmits the information to the terminal device.
  • a tenth invention is an in-vehicle device mounted on a vehicle capable of autonomous traveling, wherein a communication unit that transmits and receives information to and from a pedestrian device, and a device that transmits and receives information to and from the pedestrian device.
  • a control unit that determines a danger of a collision based on the collision, and controls the traveling control device to perform control to avoid the collision, wherein the control unit obtains position information of a gaze point that the user of the vehicle gazes at at the target point.
  • the travel control device is configured to control the travel control device to move the own vehicle to the target point based on the position information of the target point.
  • the mobile object capable of autonomous movement can be moved to a required position by the user's gaze guidance.
  • the device used in the safe driving support wireless system using ITS since the device used in the safe driving support wireless system using ITS is used, the cost can be reduced.
  • the control unit when the control unit receives the position information of the planned parking point, which is the target point, the control unit parks the own vehicle at the planned parking point based on the position information of the planned parking point.
  • the driving control device is controlled.
  • a vehicle capable of autonomous traveling can be guided in the line of sight and parked at a required position (parking space).
  • the twelfth invention further includes a storage unit for storing integrated map information, wherein the control unit controls the parking at the target point based on parking possibility information registered in the integrated map information. It is configured to determine whether the vehicle can be parked at the scheduled point.
  • the parking possibility information is registered in the integrated map information (dynamic map) used for the automatic driving of the vehicle, the management of the information becomes easy.
  • the communication unit communicates with a roadside device including an object detection unit that detects a moving body on a road, and the control unit transmits the parking possibility information received from the roadside device to the roadside device. Based on this, it is configured to determine whether or not the vehicle can be parked at the scheduled parking point.
  • control unit determines that one parking space is based on a predetermined selection criterion when the parking location corresponds to the planned parking location and there are a plurality of parking spaces where the host vehicle can park. It is configured to be set as the scheduled parking point.
  • the vehicle can be parked in an appropriate parking space.
  • control unit is capable of parking the host vehicle based on a predetermined selection criterion when the parking location corresponds to the planned parking point and there is no parking space where the host vehicle can park.
  • One parking space is set as a planned parking point.
  • the vehicle can be parked in an appropriate parking space.
  • control unit is capable of parking the host vehicle based on a predetermined selection criterion when the parking location corresponds to the planned parking location and there is no parking space where the host vehicle can park.
  • the parking space is selected as a new planned parking point, and a point change notification regarding the new planned parking point is transmitted to the pedestrian device.
  • the user can confirm that the scheduled parking point designated by the user has been changed.
  • a seventeenth invention is a mobile object guidance system for guiding a mobile object capable of autonomous movement in accordance with a user's operation, comprising a pedestrian device carried by a pedestrian who is a user of the mobile object capable of autonomous movement.
  • a terminal device mounted on the mobile object wherein the pedestrian device collides with a communication unit that transmits and receives information to and from the terminal device, based on information transmitted and received to and from the terminal device.
  • a control unit that determines the danger of the pedestrian, and controls the alerting of the pedestrian.
  • the control unit obtains position information of a gaze point that the user gazes at as position information of the target point, and obtains the target point.
  • the position information is transmitted from the communication unit to the terminal device, the terminal device transmits and receives information to and from the pedestrian device, based on the information transmitted and received between the pedestrian device Determine the risk of collision, A control unit that causes the movement control device to perform control to avoid collision, and the control unit, when receiving the position information of the target point from the pedestrian device by the communication unit, to the position information of the target point Based on this, the movement control device is controlled to move the own device to the target point.
  • the mobile object capable of autonomous movement can be moved to a required position by guiding the user's gaze.
  • the device used in the safe driving support wireless system using ITS since the device used in the safe driving support wireless system using ITS is used, the cost can be reduced.
  • An eighteenth aspect of the present invention is a mobile object guidance method for guiding a mobile object capable of autonomous movement according to a user's operation, wherein the method includes a pedestrian's possession and a terminal device mounted on the mobile object.
  • a pedestrian device that transmits and receives information to determine the danger of a collision, and alerts the pedestrian, uses the position information of the gaze point that the user of the moving body as a pedestrian gazes at as the position information of the target point.
  • the terminal device when receiving the position information of the target point from the pedestrian device, controls the movement control device to move the own device to the target point based on the position information of the target point. .
  • the mobile object capable of autonomous movement can be moved to a required position by guiding the user's gaze.
  • the device used in the safe driving support wireless system using ITS since the device used in the safe driving support wireless system using ITS is used, the cost can be reduced.
  • FIG. 1 is an overall configuration diagram of a mobile object guidance system according to the first embodiment.
  • a user guides a vehicle (autonomous driving vehicle) as a mobile object capable of autonomous movement, and includes a pedestrian terminal 1 (pedestrian device), a wearable terminal 2, and a vehicle-mounted device.
  • a terminal 3 vehicle control device
  • an automatic driving ECU 4 moving control device, travel control device
  • a car navigation device 5 route guidance device
  • IT ITS communication (inter-vehicle communication) is performed between the pedestrian terminal 1 and the in-vehicle terminal 3.
  • This ITS communication uses a radio frequency band (for example, a 700 MHz band, a 5.8 GHz band, a 5.9 GHz band) employed in a safe driving support radio system using an ITS (Intelligent Transport System). Communication.
  • a radio frequency band for example, a 700 MHz band, a 5.8 GHz band, a 5.9 GHz band
  • ITS Intelligent Transport System
  • the pedestrian terminal 1 is owned by the pedestrian.
  • the pedestrian terminal 1 transmits and receives a message including position information and the like to and from the in-vehicle terminal 3 by ITS communication (inter-vehicle communication) to determine the risk of collision between the pedestrian and the vehicle.
  • ITS communication inter-vehicle communication
  • Wearable terminal 2 is worn on the body of the user.
  • the wearable terminal 2 is connected to the pedestrian terminal 1 and, based on the control of the pedestrian terminal 1, uses a vibration output, a voice output, and an image display function to pay attention to the user when there is a risk of collision. Perform evoking action.
  • the wearable terminal 2 is mounted on the user's head, and has a function of detecting the user's head orientation (face direction) and gaze direction.
  • the in-vehicle terminal 3 is mounted on a vehicle.
  • the in-vehicle terminal 3 transmits and receives a message including position information and the like to and from the pedestrian terminal 1 by ITS communication (inter-vehicle communication), and determines the risk of collision between the pedestrian and the vehicle.
  • ITS communication inter-vehicle communication
  • the automatic driving ECU 4 is mounted on the vehicle.
  • the automatic driving ECU 4 executes automatic driving (autonomous driving) of the vehicle based on the control information output from the vehicle-mounted terminal 3.
  • the car navigation 5 is mounted on the vehicle. In the car navigation 5, route guidance is provided to the automatic driving ECU 4.
  • the user guides the vehicle with his line of sight.
  • the user outside the vehicle gazes at the parking space to park the vehicle in the parking space.
  • the wearable terminal 2 detects the head direction (face direction) and line-of-sight direction of the user, and determines the position information (latitude, longitude) of the point (gaze position) at which the user gazes by walking from between the pedestrians via communication.
  • the automatic driving ECU 4 performs control to park the vehicle in the parking space based on the gaze position information transmitted from the user terminal 1 to the in-vehicle terminal 3.
  • the user outside the vehicle guides the vehicle to the parking space with his / her line of sight.
  • the user may guide the vehicle to an arbitrary location other than the parking space. For example, a user coming out of a store may call a parked vehicle in front of him. In this case, the user only needs to gaze at the ground in front of the user.
  • FIG. 2 is a block diagram illustrating a schematic configuration of the pedestrian terminal 1 and the wearable terminal 2.
  • the pedestrian terminal 1 includes a positioning unit 11, an ITS communication unit 12 (an inter-pedestrian communication unit), a short-range communication unit 13, a storage unit 14, and a control unit 15.
  • ITS communication unit 12 an inter-pedestrian communication unit
  • short-range communication unit 13 a storage unit 14
  • control unit 15 a control unit
  • the positioning unit 11 measures the position of the own device using a satellite positioning system such as GPS (Global Positioning System) and QZSS (Quasi-Zenith Satellite System), and acquires the position information (latitude and longitude) of the own device.
  • a satellite positioning system such as GPS (Global Positioning System) and QZSS (Quasi-Zenith Satellite System)
  • GPS Global Positioning System
  • QZSS Quadasi-Zenith Satellite System
  • the ITS communication unit 12 transmits and receives a message to and from the in-vehicle terminal 3 by ITS communication (inter-vehicle communication).
  • the short-range communication unit 13 performs short-range communication such as Bluetooth (registered trademark) with the wearable terminal 2.
  • the storage unit 14 stores the terminal ID of the own device, a program executed by a processor constituting the control unit 15, and the like.
  • the control unit 15 includes a message control unit 21, a collision determination unit 22, and an alert control unit 23.
  • the control unit 15 is configured by a processor, and each unit of the control unit 15 is realized by executing a program stored in the storage unit 14 by the processor.
  • the message control unit 21 controls transmission and reception of messages with the in-vehicle terminal 3.
  • the collision determination unit 22 has a risk that the vehicle will collide with the own pedestrian based on the position information of the own pedestrian obtained by the positioning unit 11 and the position information of the vehicle included in the message received from the in-vehicle terminal 3. It is determined whether or not there is.
  • the alert control unit 23 controls the wearable terminal 2 to perform a predetermined alert operation for the pedestrian.
  • the collision determination unit 22 determines that there is a danger of a collision
  • the wearable terminal 2 performs an alerting operation.
  • the wearable terminal 2 includes a positioning unit 31, a direction sensor 32, a line-of-sight sensor 33, a distance measurement sensor 34, a motion sensor 35, a microphone 36, a camera 37, a vibrator 38, a speaker 39, and a display 40. , A short-range communication unit 41, a storage unit 42, and a control unit 43.
  • the positioning unit 31 measures the position of the own device using a satellite positioning system such as GPS or QZSS, and acquires the position information (latitude, longitude) of the own device.
  • a satellite positioning system such as GPS or QZSS
  • the azimuth sensor 32 detects a geomagnetic azimuth. From the detection result of the direction sensor 32, the head direction (face direction) of the user wearing the wearable terminal 2 can be acquired.
  • the gaze sensor 33 detects the gaze of the user. From the detection result of the visual axis sensor 33, the coordinates of the viewpoint in the visual axis detection area defined in the XY orthogonal coordinate system can be obtained.
  • the distance measuring sensor 34 measures the distance to the opposing object.
  • the distance measuring sensor 34 may employ, for example, a PSD (Position Sensitive Detector) method.
  • PSD Position Sensitive Detector
  • the PSD method light emitted from a light emitting element is reflected by an object, and the reflected light is detected by a light receiving element. At this time, based on the incident angle of the reflected light that changes according to the distance to the object, To measure the distance to the object.
  • the motion sensor 35 includes an acceleration sensor and a gyro sensor, and detects the movement of the user's head.
  • the microphone 36 picks up the voice of the user.
  • the camera 37 captures an image of the user's face, especially the mouth. The motion sensor 35, the microphone 36, and the camera 37 are used for detecting an operation approved by the user.
  • the vibrator 38 outputs vibration.
  • the speaker 39 outputs sound.
  • the display 40 displays an image.
  • the vibrator 38, the speaker 39, and the display 40 perform an alerting operation for urging the pedestrian to pay attention to the approaching vehicle based on the control of the pedestrian terminal 1.
  • the short-range communication unit 41 performs short-range communication such as Bluetooth (registered trademark) with the pedestrian terminal 1.
  • the storage unit 42 stores a program executed by a processor constituting the control unit 43 and the like.
  • the control unit 43 includes a head direction measurement unit 51, a gaze direction measurement unit 52, a gaze distance measurement unit 53, a gaze point acquisition unit 54, and a parking instruction confirmation unit 55.
  • the control unit 43 is configured by a processor, and each unit of the control unit 43 is realized by executing a program stored in the storage unit 42 by the processor.
  • the head direction measurement unit 51 measures the head direction (face direction) of the user based on the detection result of the direction sensor 32.
  • the gaze direction measuring unit 52 measures the gaze direction (viewpoint coordinates) of the user based on the detection result of the gaze sensor 33.
  • the line-of-sight sensor 33 is configured by a camera that captures an image of the user's eye, and acquires the angles of the left and right eyeballs by analyzing the captured image.
  • the gaze distance measurement unit 53 calculates the distance ( gaze distance) to the object (gaze target) that the pedestrian is gazing based on the measurement result of the gaze direction measurement unit 52 and the detection result of the distance measurement sensor 34. Measure.
  • the gaze point acquisition unit 54 allows the user to determine the head orientation acquired by the head orientation measurement unit 51, the gaze direction acquired by the gaze direction measurement unit 52, and the gaze distance acquired by the gaze distance measurement unit 53.
  • the position information (latitude, longitude) of the point to be watched (the watch point) is acquired.
  • the parking instruction confirmation unit 55 presents the user with the gaze point as the planned parking point and detects an operation (instruction operation) for instructing parking at the planned parking point, the user switches to the planned parking point (gaze point). Confirm that parking has been instructed.
  • an operation (instruction operation) for instructing parking at a planned parking point for example, a motion of the user's head is detected by the motion sensor 35, and based on the detection result, the user performs the instruction operation as an instruction operation. Is detected.
  • the user's voice is picked up by the microphone 36, and the user's utterance operation of approval, for example, the operation of uttering “execute” is detected.
  • the user's mouth is photographed by the camera 37, and the movement of the user's mouth is detected from the photographed image. Operation to be performed is detected.
  • the process of acquiring the gaze point and confirming the parking instruction is performed by the wearable terminal 2, but this process may be performed by the pedestrian terminal 1.
  • this process may be performed by the pedestrian terminal 1.
  • an operation (instruction operation) for instructing parking at the scheduled parking point for example, a screen operation (for example, an operation of an execution button) on a touch panel display (not shown) provided in the pedestrian terminal 1 is detected. You may do so.
  • FIG. 3 is an explanatory diagram illustrating an outline of a process performed by the wearable terminal 2.
  • the wearable terminal 2 is provided with a line-of-sight sensor 33 and a distance measurement sensor 34.
  • the control unit 43 includes a head direction measurement unit 51, a gaze direction measurement unit 52, a gaze distance measurement unit 53, and a gaze point acquisition unit 54 (see FIG. 2). .
  • the head direction measurement unit 51 measures the head direction (face direction) of the user based on the detection result of the direction sensor 32.
  • the gaze direction measuring unit 52 measures the gaze direction (viewpoint coordinates) of the user based on the detection result of the gaze sensor 33.
  • the line-of-sight sensor 33 detects each line-of-sight direction (eye direction) of the left eye and the right eye, and the line-of-sight direction is different between the right eye and the left eye. Based on the distance between the eye and the left eye, a gazing point at which the line of sight of the right eye and the line of sight of the left eye intersect may be acquired, and the direction of the gazing point may be set as the line of sight of the user.
  • the gaze distance measurement unit 53 measures the distance ( gaze distance) to the object (gaze target) that the user gazes based on the measurement result of the gaze direction measurement unit 52 and the detection result of the distance measurement sensor 34. I do.
  • the distance measuring sensor 34 is configured so that the detection direction can be adjusted, and the detection direction of the distance measuring sensor 34 is adjusted to match the user's line of sight based on the line of sight direction detected by the line of sight sensor 33. After adjusting the distance, the distance (gaze distance) to the object (the ground in the parking space) that the pedestrian is gazing at can be measured by detecting the distance to the opposing object by the distance measurement sensor 34. it can.
  • the distance measurement sensor 34 is directed to the direction of the pedestrian's line of sight, and the gaze distance is measured.
  • the gaze distance can also be estimated based on only the detection result of the gaze sensor 33. That is, the convergence angle at which the line of sight of the right eye and the line of sight of the left eye intersect decreases as the gaze distance increases, and increases as the gaze distance decreases. .
  • the user sets the head orientation acquired by the head orientation measurement unit 51, the gaze direction acquired by the gaze direction measurement unit 52, and the gaze distance acquired by the gaze distance measurement unit 53.
  • the position information (latitude, longitude) of the point to be watched (the watch point) is acquired. Specifically, based on the head direction and the line-of-sight direction of the user, the direction (gaze direction) of the gaze point at which the user is gazing is calculated. In other words, the azimuth deviated by the line of sight with respect to the head azimuth is defined as the gaze azimuth. Then, based on the position of the user, the gaze direction and the gaze distance of the user, the position information (latitude, longitude) of the gaze point is specified.
  • FIG. 4 is a block diagram illustrating a schematic configuration of the vehicle-mounted terminal 3.
  • the in-vehicle terminal 3 includes a positioning unit 61, an ITS communication unit 62 (inter-vehicle communication unit), an input / output unit 63, a storage unit 64, and a control unit 65.
  • the positioning unit 61 measures the position of the own device using a satellite positioning system such as GPS or QZSS, and acquires the position information (latitude, longitude) of the own device.
  • a satellite positioning system such as GPS or QZSS
  • the ITS communication unit 62 transmits and receives messages to and from the pedestrian terminal 1 by ITS communication (inter-vehicle communication).
  • the input / output unit 63 inputs and outputs information between the automatic driving ECU 4 and the car navigation 5.
  • the storage unit 64 stores user registration information regarding a user (owner of the vehicle or the like) using the own vehicle. This user registration information is the terminal ID of the pedestrian terminal 1 owned by the user and is registered in advance when using the vehicle.
  • the storage unit 64 stores a program executed by a processor constituting the control unit 65 and the like.
  • the control unit 65 includes a message control unit 71, a collision determination unit 72, a user determination unit 73, and a parking instruction unit 74.
  • the control unit 65 is configured by a processor, and each unit of the control unit 65 is realized by executing a program stored in the storage unit 64 by the processor.
  • the message control unit 71 controls transmission and reception of messages with the pedestrian terminal 1.
  • the collision judging section 72 is liable to collide with the pedestrian based on the position information of the own vehicle acquired by the positioning section 61 and the pedestrian included in the message received from the pedestrian terminal 1. It is determined whether or not there is. The result of the determination by the collision determination unit 72 is output to the automatic driving ECU 4, and when the collision determination unit 72 determines that there is a danger of collision, control for avoiding the collision is performed by the automatic driving ECU 4.
  • the user determining unit 73 determines whether the user who instructs the own vehicle to park is a legitimate user who is permitted to use the own vehicle. Specifically, it is determined whether or not the terminal ID of the pedestrian terminal 1 included in the parking instruction message received from the pedestrian terminal 1 matches the terminal ID of the pedestrian terminal 1 owned by the user registered in advance. judge.
  • the parking instructing unit 74 determines the position of the planned parking location included in the message received from the pedestrian terminal 1. Based on the information, control information for parking the host vehicle at the scheduled parking point is output to the automatic driving ECU 4.
  • the automatic driving ECU 4 is connected to the on-vehicle sensor 81, the steering ECU 82, the driving ECU 83, and the braking ECU 84, and controls the steering ECU 82, the driving CU 83, and the braking ECU 84 based on the detection result of the on-vehicle sensor 81 to automatically drive the vehicle. (Autonomous driving).
  • the in-vehicle sensor 81 is a LIDAR (Light Detection and Ranging), a steering angle sensor, a speed sensor, or the like.
  • the steering ECU 82 controls a steering mechanism of the host vehicle
  • the drive ECU 83 controls a drive mechanism (engine, electric motor, etc.) of the host vehicle
  • the brake ECU 84 controls a braking mechanism of the host vehicle. Is controlled.
  • the automatic driving includes autonomous driving that does not require a driver and driving assistance that supports the driving of the driver, and two modes of autonomous driving and driving assistance may be switched.
  • driving assistance when there is a risk of collision, it is necessary to alert the driver.
  • driving assistance when there is a risk of collision, it is necessary to alert the driver.
  • the car navigation system 5 based on the control of the in-vehicle terminal 3, using the functions of voice output and image display. Then, a warning operation for the driver is performed.
  • FIG. 5 is a sequence diagram illustrating an operation procedure of the mobile object guidance system. Here, the operations relating to collision determination and alerting are omitted.
  • the positioning unit 31 acquires the position information of the user
  • the head orientation measurement unit 51 acquires the head orientation of the user
  • the gaze direction measurement unit 52 acquires the user's gaze direction, and measures the gaze distance.
  • the unit 53 acquires the gaze distance of the user.
  • the gaze point acquisition unit 54 acquires the position information of the gaze point that the user gazes based on the user's position information, head orientation, gaze direction, and gaze distance.
  • the wearable terminal 2 when the parking instruction confirmation unit 55 presents to the user whether or not the gaze point may be set as the planned parking point, and detects an operation (instruction operation) of the user who approves the planned parking point, the user determines It is determined that parking has been instructed at the scheduled parking point (gaze point). Then, the wearable terminal 2 transmits the position information of the planned parking point (position information of the gaze point) from the short-range communication unit 41 to the pedestrian terminal 1.
  • the message control unit 21 When the pedestrian terminal 1 receives the position information of the planned parking point from the wearable terminal 2 at the short-range communication unit 13, the message control unit 21 generates a parking instruction message and transmits it to the on-board terminal 3 from the ITS communication unit 12. I do.
  • the message of the parking instruction includes the terminal ID of the pedestrian terminal 1 as the transmission source, the position information (latitude and longitude) and head direction information of the user, and the position information (latitude and longitude) of the planned parking point. It is.
  • the positioning unit 61 acquires the position information of the own vehicle.
  • the ITS communication unit 62 receives a parking instruction message from the pedestrian terminal 1
  • the user determining unit 73 determines that the user who instructs the own vehicle to park is a legitimate user who is permitted to use the own vehicle. Is determined.
  • the parking instructing unit 74 switches to the parking space that is the planned parking point.
  • the control information for parking the vehicle is output to the automatic driving ECU 4.
  • the control information includes the position information of the parking spot and the position information of the own vehicle.
  • the automatic driving ECU 4 controls the steering ECU 82, the driving ECU 83, and the braking ECU 84 based on the control information input from the in-vehicle terminal 3 so as to park the vehicle in the parking space where the parking is to be performed.
  • FIG. 6 is an overall configuration diagram of a mobile object guidance system according to the second embodiment.
  • the user outside the vehicle guides the vehicle to the parking space with the line of sight.
  • the user guides the vehicle to the required place with the line of sight, and in particular, the user is in the vehicle.
  • the user is guided to the target by instructing the target from the inside of the vehicle with his / her line of sight.
  • a nearby store such as a convenience store can be seen from inside the vehicle
  • the user can watch the store and move the vehicle to the store.
  • the own vehicle can be caused to travel so as to follow the vehicle.
  • the own vehicle can be driven along the road.
  • FIG. 7 is a block diagram illustrating a schematic configuration of the pedestrian terminal 1 and the wearable terminal 2.
  • the control unit 15 of the pedestrian terminal 1 includes an in-vehicle determination unit 24 and a position information replacement unit 25. Others are the same as the first embodiment (see FIG. 2).
  • the in-vehicle determination unit 24 determines whether the user is in the vehicle.
  • the satellite radio waves are blocked by the vehicle body, making it difficult for the satellite radio waves to reach the pedestrian terminal 1. Therefore, when the reception intensity of the satellite radio waves received by the pedestrian terminal 1 is low, It can be determined that you are in the vehicle.
  • a sensor (not shown) for detecting vibration is provided in the pedestrian terminal 1, and when running vibration is detected based on the detection result, it can be determined that the user is in the vehicle. Also, the determination may be made by appropriately combining these determination methods.
  • the ⁇ position information replacing unit 25 replaces the user's positional information with the vehicle's positional information included in the message received from the in-vehicle terminal 3 in the ITS communication unit 62. Since the positional information of the vehicle has higher accuracy, by replacing the positional information, it is possible to ensure the accuracy of the positional information of the user.
  • the control unit 43 of the wearable terminal 2 includes a movement instruction confirmation unit 56. Others are the same as the first embodiment (see FIG. 2).
  • the movement instruction confirmation unit 56 presents the gaze point to the user as the target point (destination point) and detects an operation (instruction operation) for instructing movement to the target point, the user sets the target point (gaze point). Confirm that you have instructed to move to.
  • the instruction operation may be performed based on the detection results of the motion sensor 35, the microphone 36, and the camera 37, as in the first embodiment.
  • FIG. 8 is a block diagram illustrating a schematic configuration of the vehicle-mounted terminal 3.
  • the control unit 65 of the in-vehicle terminal 3 includes a movement instruction unit 75. Others are the same as the first embodiment (see FIG. 4).
  • the movement instructing unit 75 moves to the target point based on the position information of the target point included in the message received from the pedestrian terminal 1.
  • the control information for moving the vehicle is output to the automatic driving ECU 4.
  • the automatic driving ECU 4 controls the own vehicle to move toward the target point based on the control information input from the in-vehicle terminal 3.
  • FIG. 9 is a sequence diagram illustrating an operation procedure of the mobile object guidance system.
  • the user's position information, head orientation, gaze direction, and gaze distance are acquired, and the user's gaze point is determined based on the information. Get location information.
  • the wearable terminal 2 when the movement instruction confirmation unit 56 presents the user with the gaze point as a target point and detects an operation (instruction operation) of the user approving the target point, the user sets the target point (gaze point). Point). Then, the wearable terminal 2 transmits the position information of the target point (the position information of the gaze point) from the short-range communication unit 41 to the pedestrian terminal 1.
  • the positioning unit 61 acquires the position information of the own vehicle. Then, the message control unit 71 transmits a normal message from the ITS communication unit 62 to the pedestrian terminal 1. This message includes the terminal ID of the in-vehicle terminal 3 (vehicle ID of the own vehicle) and the position information (latitude, longitude) of the own vehicle.
  • the in-vehicle determination unit 24 determines the position information of the vehicle included in the received message and the position of the user acquired by the positioning unit 11. It is determined whether the user is in the vehicle by comparing the information with the information.
  • the position information replacing unit 25 replaces the position information of the vehicle with the position information of the user.
  • the message control unit 21 In the pedestrian terminal 1, when the target point information is received from the wearable terminal 2 by the short-range communication unit 13, the message control unit 21 generates a movement instruction message and transmits it from the ITS communication unit 12 to the in-vehicle terminal 3. .
  • This message includes the terminal ID of the pedestrian terminal 1 of the transmission source, the user's location information (latitude, longitude) and head orientation information, and the location information (latitude, longitude) of the target point (destination point). included.
  • the positioning unit 61 acquires the position information of the own vehicle.
  • the user determining unit 73 determines that the user who instructs the own vehicle to park is a regular user who is permitted to use the own vehicle. Is determined.
  • the movement instruction unit 75 moves the own vehicle to the target position.
  • the control information is output to the automatic driving ECU 4. This control information includes the position information of the target point and the position information of the own vehicle.
  • the automatic driving ECU 4 controls the steering ECU 82, the driving ECU 83, and the braking ECU 84 based on the control information input from the in-vehicle terminal 3 so as to move the vehicle to the target point.
  • FIG. 10 is an overall configuration diagram of a mobile object guidance system according to the third embodiment.
  • the user guides the vehicle to a required place with his / her line of sight.
  • the location of the target is set as the target point by the user gazing at the target that appears in the distance, and the host vehicle is moved to the location of the target.
  • the target is tall because it can be seen from a distance.
  • the target is a building such as a mountain, a tower, a ferris wheel, a high-rise building, a signboard, and the like.
  • a flying object such as a balloon or a hang glider may be used as the target.
  • a perpendicular is lowered from the user's gaze point, and the intersection of the perpendicular and the reference horizontal plane (the horizontal plane where the user is located) is the target point, and the two-dimensional position information (latitude, longitude) of the target point is obtained. get.
  • the control unit 4 causes the car navigation 5 to perform route guidance, acquires information on the route from the current location to the target location from the car navigation 5, and controls the automatic driving ECU 4.
  • the user may be outside the vehicle or inside the vehicle, but when the user is inside the vehicle, the user's position information may be replaced with the vehicle position information as in the second embodiment.
  • the moving object to be guided may be a sky car (flying car), and the user who has boarded the sky car may fly the sky car through the guidance. In this case, the user may look down and move the sky car downward. For example, by gazing at the landing point below, the sky car can be landed at the landing point.
  • FIG. 11 is an explanatory diagram illustrating an outline of a process performed by the gaze point acquisition unit 54 of the wearable terminal 2.
  • the gaze point acquisition unit 54 based on the head orientation acquired by the head orientation measurement unit 51 and the line-of-sight direction acquired by the line-of-sight direction measurement unit 52, the orientation of the object (gaze target) that the user is gazing at (Gaze direction) is calculated. Then, based on the gaze direction, the gaze distance acquired by the gaze distance measuring unit 53, and the position information of the user, position information (latitude, longitude) of a point (gaze point) at which the user gazes is acquired.
  • the gaze distance acquired by the gaze distance measurement unit 53 becomes longer than the horizontal distance from the current point to the target point. For this reason, it is necessary to correct the gaze distance so that the gaze distance is a distance in the horizontal direction.
  • the elevation angle includes the elevation angle of the user's head and the elevation angle of the user's line of sight.
  • the elevation angle of the head may be measured using the motion sensor 35 (tilt sensor) of the wearable terminal 2. What is necessary is just to measure using the gaze sensor 33 of the wearable terminal 2.
  • FIG. 12 is a block diagram illustrating a schematic configuration of the pedestrian terminal 1 and the wearable terminal 2.
  • the control unit 43 of the wearable terminal 2 includes a movement instruction confirmation unit 56, as in the second embodiment (see FIG. 7).
  • the configuration of the pedestrian terminal 1 according to the present embodiment is the same as that of the first embodiment. Further, the configuration of the vehicle-mounted terminal 3 according to the present embodiment is the same as that of the second embodiment (see FIG. 8).
  • FIG. 13 is a sequence diagram illustrating an operation procedure of the mobile object guidance system.
  • the user's position information, head orientation, gaze direction, and gaze distance are acquired, and the user's gaze point is determined based on the information. Get location information. Then, after confirming that the user has instructed movement to the target position (gaze position), the position information of the target point is transmitted to the pedestrian terminal 1.
  • the message control unit 21 In the pedestrian terminal 1, when the short distance communication unit 13 receives the target point information from the wearable terminal 2, the message control unit 21 generates a movement instruction message and transmits it from the ITS communication unit 12 to the in-vehicle terminal 3.
  • the positioning unit 61 acquires the position information of the own vehicle.
  • the user determining unit 73 determines that the user who instructs the own vehicle to park is a regular user who is permitted to use the own vehicle. Is determined.
  • the movement instructing unit 75 transmits control information requesting route guidance to the user.
  • the information is output to the car navigation 5, the route guidance is performed by the car navigation 5, the route information from the current point to the target point is acquired from the car navigation 5, and the automatic driving ECU 4 is controlled.
  • a temporary target point is set based on the route information from the current point to the target point, and control information for moving the own vehicle to the temporary target point is output to the automatic driving ECU 4.
  • This control information includes position information of a provisional target point and position information of the own vehicle.
  • the automatic driving ECU 4 controls the steering ECU 82, the driving ECU 83, and the braking ECU 84 based on the control information input from the on-board terminal 3 so as to move the own vehicle to a provisional target point.
  • the own vehicle moves toward the provisional target point and reaches the provisional target point. That is, when the current position of the vehicle matches the target point, the on-board terminal 3 sets the next provisional target position. A target point is set, and the process of sequentially setting such a temporary target point and the movement to the temporary target point are repeated to reach the final target point.
  • FIG. 14 is an overall configuration diagram of a mobile object guidance system according to the fourth embodiment.
  • the user guides the vehicle to the required place with his / her line of sight.
  • the target point for example, a parking space
  • the priority is given to the user based on a predetermined criterion, and the vehicle of the user with the higher priority is moved to the target point, and the target point of the vehicle is changed for the user with the lower priority. Let it do.
  • priority is given to the vehicle of the user who has guided the line of sight earlier.
  • the ITS communication unit 12 can also receive a movement instruction (parking instruction) message transmitted by another pedestrian terminal 1. Therefore, in the present embodiment, based on the movement instruction message received from the other pedestrian terminal 1, the front-rear relationship of the gaze guidance timing between the other pedestrian terminal 1 and the own device is acquired, and Determine the priority.
  • a movement instruction parking instruction
  • the target point of gaze guidance may be an arbitrary location.
  • the pedestrian terminal 1 that gave the parking instruction first has priority.
  • the priority may be determined based on the attribute of the user.
  • FIG. 15 is a block diagram illustrating a schematic configuration of the pedestrian terminal 1 and the wearable terminal 2.
  • the control unit 15 of the pedestrian terminal 1 includes a parking point change guidance unit 26. Others are the same as the first embodiment (see FIG. 2).
  • the parking point change guide unit 26 parks the parking point of the other vehicle and the own vehicle based on the position information of the parking point included in the message. It is determined whether or not the point matches.
  • the parking point of the other vehicle coincides with the parking point of the own vehicle, the order of the gaze guidance between the other pedestrian terminal 1 and the own device is acquired, and the priority of the own device is determined. judge. If the priority of the own device is low, the wearable terminal 2 is controlled so as to perform an operation of guiding the user to change the target point.
  • the own device has already transmitted the parking instruction message before the other pedestrian terminal 1 has received the parking instruction message, it is determined that the priority of the own device is higher, and the own device has the higher priority. If a parking instruction message from another pedestrian terminal 1 has been received before transmitting the message, it is determined that the priority of the own device is low.
  • the configuration of the wearable terminal 2 according to the present embodiment is the same as that of the first embodiment (see FIG. 2). Further, the configuration of the vehicle-mounted terminal 3 according to the present embodiment is the same as that of the first embodiment (see FIG. 4).
  • FIG. 16 is a sequence diagram illustrating an operation procedure of the mobile object guidance system.
  • the wearable terminal 2 acquires the user's position information, head orientation, gaze direction, and gaze distance, as in the first embodiment (see FIG. 5).
  • the gaze point acquisition unit 54 acquires the position information of the gaze point of the user based on the user's position information, head orientation, gaze direction, and gaze distance. Then, after confirming that the user has instructed movement to the target position (gaze position), the target position information is transmitted to the pedestrian terminal 1.
  • the parking point change guidance unit 26 sets the conditions of the point change guidance, that is, the parking transmitted from the other pedestrian terminals 1. It has already received the instruction message and determines whether or not the target location matches. If the conditions of the location change guidance are met, it is determined that the priority of the own device is low, and the user is notified of the target location.
  • the wearable terminal 2 is controlled so as to perform an operation for guiding the change of the terminal.
  • the wearable terminal 2 confirms the process of acquiring the user's position information, head orientation, gaze direction, and gaze distance, the process of acquiring the user's gaze point position information, and confirming the user's movement instruction to the target position. Then, the target point information specifying another target point is transmitted to the pedestrian terminal 1.
  • the parking point change guidance unit 26 determines whether the condition of the point change guidance is satisfied, and If the condition is not met, the message control unit 21 generates a message of the movement instruction and transmits it from the ITS communication unit 12 to the vehicle-mounted terminal 3.
  • the subsequent steps are the same as in the first embodiment (see FIG. 5).
  • the vehicle of the user who first gazes is prioritized, but the present disclosure is not limited to this, and the vehicle of another user may be prioritized.
  • priority may be given to a vehicle on which an elderly person or a physically handicapped person rides, a vehicle with a beginner's mark, a vehicle with a poor driving skill, a vehicle with a sick person, and the like.
  • the priority of the vehicle may be set according to the condition of the occupant.
  • FIG. 17 is an overall configuration diagram of a gaze guidance system according to the fifth embodiment.
  • the user instructs the parking space (scheduled parking point) with his / her line of sight and guides the vehicle (autonomously driven vehicle) to the parking space.
  • the mobile object is guided by the line of sight.
  • This gaze guidance system includes a drone-mounted terminal 6 and a flight control unit 7 (movement control device, flight control device).
  • the drone mounting terminal 6 and the flight control unit 7 are mounted on the drone.
  • the drone-mounted terminal 6 transmits / receives a message including position information and the like to / from the pedestrian terminal 1, another drone-mounted terminal 6, and an on-vehicle terminal 3 mounted on a vehicle by ITS communication, and transmits and receives pedestrians and other The danger of collision between the drone or the vehicle and the own device is determined.
  • the flight control unit 7 executes an automatic flight (autonomous flight) of the drone based on the control information output from the drone-mounted terminal 6.
  • FIG. 18 is a block diagram illustrating a schematic configuration of the pedestrian terminal 1 and the wearable terminal 2.
  • the configuration of the pedestrian terminal 1 is the same as that of the third embodiment (see FIG. 12), but the ITS communication unit 12 sends and receives messages to and from the drone-mounted terminal 6 by ITS communication.
  • the configuration of the wearable terminal 2 is the same as that of the third embodiment (see FIG. 12), but the gaze point acquisition unit 54 acquires three-dimensional position information (latitude, longitude, and altitude) of the user's point of gaze.
  • the direction (gaze direction) of the point (gaze point) at which the user gazes is calculated based on the head direction and the line-of-sight direction of the user.
  • This gaze direction is a three-dimensional direction (azimuth angle, elevation angle).
  • position information latitude, longitude, and altitude
  • FIG. 19 is a block diagram illustrating a schematic configuration of the drone-mounted terminal 6.
  • the configuration of the drone-mounted terminal 6 is the same as that of the vehicle-mounted terminal 3 (see FIG. 8), but the input / output unit 63 inputs and outputs control information to and from the flight control unit 7 mounted on the drone.
  • the flight control unit 7 is connected to the gyro sensor and the acceleration sensor, and executes an automatic flight (autonomous flight) of the drone based on the detection results of the gyro sensor and the acceleration sensor.
  • FIG. 20 is a sequence diagram illustrating an operation procedure of the mobile object guidance system.
  • the wearable terminal 2 acquires the user's position information, head orientation, line-of-sight direction, and gaze distance, as in the first embodiment (see FIG. 2).
  • the gaze point acquisition unit 54 acquires three-dimensional position information (latitude, longitude, and altitude) of the user's point of gaze based on the user's position information, head orientation, gaze direction, and gaze distance. Then, after confirming that the user has instructed movement to the target position (gaze position), the target position information is transmitted to the pedestrian terminal 1.
  • the message control unit 21 In the pedestrian terminal 1, when the short distance communication unit 13 receives the target position information from the wearable terminal 2, the message control unit 21 generates a movement instruction message and transmits it from the ITS communication unit 12 to the drone-mounted terminal 6.
  • This message includes the terminal ID of the source pedestrian terminal 1, the user's position information (latitude and longitude) and head orientation information, and the position information of the target point (latitude and longitude).
  • the positioning unit 61 acquires the position information of the own device.
  • the user determining unit 73 determines that the user who instructs movement to the own device is a regular user who is permitted to use the own device. Is determined.
  • the movement instructing unit 75 moves the own device to the target position.
  • the control information to be performed is output to the flight control unit 7.
  • the control information includes the position information of the target point and the position information of the own device.
  • the flight control unit 7 controls the rotor drive unit 93 based on the control information input from the drone-mounted terminal 6 so as to move the own device to the target point.
  • the user may want to land the drone in a hurry due to an unexpected situation.
  • the user may land the drone, for example, by blinking.
  • the user performing blinking a plurality of times may be a signal to land the drone.
  • the present disclosure is also applicable to other robots besides drones.
  • the user can visually instruct the cleaning robot where to perform the cleaning.
  • FIG. 21 is an overall configuration diagram of a gaze guidance system according to the sixth embodiment.
  • the user instructs the parking space (scheduled parking point) with his / her line of sight and guides the host vehicle to the parking space.
  • the parking space specified by the user is smaller than the body size of the host vehicle. For this reason, the own vehicle may not be able to park in the parking space. Therefore, in the present embodiment, it is determined whether or not the vehicle can be parked in the parking space designated by the user, and if the vehicle cannot be parked in the parking space designated by the user, the parking space is changed to another parking space.
  • the parking space designated by the user does not correspond to the vehicle body size of the host vehicle, that is, if the parking space is smaller than the vehicle body size of the host vehicle, it is determined that the host vehicle cannot be parked in the parking space. Further, when the parking space is in the parking prohibition state, it is determined that the own vehicle cannot be parked in the parking space. If another vehicle has already been parked in the parking space, it is determined that the own vehicle cannot be parked in that parking space.
  • the vehicle it is determined whether or not the vehicle can be parked in the parking space designated by the user based on the dynamic map (integrated map information).
  • This dynamic map is distributed from the dynamic map management server to the in-vehicle terminal 3 via the roadside device 8.
  • the static information is information that is updated, for example, at intervals of about one month, and includes, for example, road surface information, lane information, and information on a three-dimensional structure.
  • the quasi-static information is information updated at intervals of, for example, about one hour, and includes, for example, traffic regulation information, road construction information, wide-area weather information, and the like.
  • the quasi-dynamic information is information that is updated at intervals of, for example, about one minute, and includes, for example, accident information, traffic congestion information, and narrow-range weather information.
  • the dynamic information is information updated at intervals of, for example, about one second, and includes, for example, ITS pre-read information such as nearby vehicle information, pedestrian information, and signal information.
  • This dynamic map is used to move the vehicle safely and quickly to a target point in automatic driving (autonomous driving, driving support). When there is an error in the target point, the target point is corrected based on the dynamic map.
  • information (parking possibility information) on whether or not the vehicle can be parked is registered in the dynamic map as, for example, quasi-static information.
  • the parking possibility information includes information on whether or not there is a parked vehicle (parking vacancy information), information on the size of parking space (parking space size information), and whether or not there is a restriction on parking.
  • Information (parking prohibition information) includes information on whether or not there is a parked vehicle (parking vacancy information), information on the size of parking space (parking space size information), and whether or not there is a restriction on parking.
  • FIG. 22 is a block diagram illustrating a schematic configuration of the pedestrian terminal 1 and the wearable terminal 2.
  • the control unit 43 of the wearable terminal 2 includes a point change presentation unit 57. Others are the same as the first embodiment (see FIG. 2).
  • the pedestrian terminal 1 is the same as in the first embodiment.
  • the point change presenting unit 57 causes the wearable terminal 2 to perform an operation of presenting to the user that the parking point has been changed and the position of the new parking point when the message of the point change is received from the vehicle-mounted terminal 3. Control.
  • FIG. 23 is a block diagram illustrating a schematic configuration of the vehicle-mounted terminal 3.
  • the control unit 65 of the in-vehicle terminal 3 includes a dynamic map confirmation unit 76, a parking availability determination unit 77, and a parking point setting unit 78. Further, the storage unit 64 stores the dynamic map information. Others are the same as the first embodiment (see FIG. 2).
  • the dynamic map confirmation unit 76 acquires parking possibility information on the planned parking point from the dynamic map information stored in the storage unit 64 based on the position information of the planned parking point included in the message received from the pedestrian terminal 1. I do.
  • the parking possibility determination unit 77 determines whether or not the vehicle can be parked at the planned parking location based on the parking possibility information on the planned parking location acquired by the dynamic map checking unit 76.
  • the parking point setting unit 78 selects a parking space in which the vehicle parks based on a predetermined selection criterion, when the parking possibility determination unit 77 determines that the vehicle cannot be parked at the planned parking point, Change the parking location to that parking space.
  • the message control section 71 When the parking point setting section 78 changes the planned parking point, the message control section 71 generates a point change message (point change notification) and transmits it to the pedestrian terminal 1.
  • the parking space closest to the original parking point may be selected using the distance from the original planned parking point as a selection criterion.
  • a parking space that is assumed to be highly convenient for the user for example, a parking space closest to the entrance of the store, a shaded parking space, or a parking space closest to the entrance of the parking lot. Good.
  • FIG. 24 is a sequence diagram illustrating an operation procedure of the gaze guidance system.
  • the user's position information, head orientation, gaze direction, and gaze distance are acquired, and the gaze point of the user is determined based on the information. Get location information. Then, after confirming that the user has instructed parking at the planned parking point (gaze point), the control unit transmits the planned parking point information to the pedestrian terminal 1.
  • the pedestrian terminal 1 When the pedestrian terminal 1 receives the scheduled parking point information from the wearable terminal 2 as in the first embodiment, the pedestrian terminal 1 transmits a parking instruction message to the in-vehicle terminal 3.
  • the dynamic map confirmation unit 76 stores the storage unit 64 based on the position information of the planned parking location included in the received message. From the dynamic map information stored in the parking lot.
  • the parking availability determination unit 77 determines whether or not the vehicle can be parked at the planned parking location based on the possibility information on the planned parking location acquired by the dynamic map checking unit 76.
  • the parking possibility determination unit 77 determines that the own vehicle can be parked at the planned parking point, the user instructing the own vehicle to park the own vehicle in the user determination unit 73. Is determined.
  • the subsequent steps are the same as in the first embodiment (see FIG. 5).
  • the parking location setting unit 78 performs parking based on a predetermined selection criterion. Select a space and change the planned parking point to that parking space.
  • the message control unit 71 transmits a point change message to the pedestrian terminal 1.
  • the point change presenting unit wears the pedestrian terminal 1 to perform an operation of presenting to the user that the parking point has been changed and the position of the new parking point.
  • the terminal 2 is controlled.
  • FIG. 25 and FIG. 26 are explanatory diagrams illustrating an outline of the processing performed by the parking point setting unit 78 of the in-vehicle terminal 3.
  • the parking point setting unit 78 of the in-vehicle terminal 3 selects a parking space in which the own vehicle is parked based on a predetermined selection criterion when the own vehicle cannot be parked at the scheduled parking point, and sets a parking point in the parking space. change.
  • the parking point setting unit 78 performs the following control when one parking space cannot be set based on the scheduled parking point designated by the user.
  • the parking spot setting unit 78 of the on-board terminal 3 sets one parking space as the scheduled parking spot based on a predetermined selection criterion.
  • the parking space closest to the user may be set as the target point.
  • an incorrect parking point may be indicated due to a positioning error.
  • the parking space corresponding to the parking point designated by the user may be in a parking state, and the adjacent parking space may be in an empty state.
  • the parking point setting unit 78 of the in-vehicle terminal 3 sets one parking space where the vehicle can be parked as a planned parking point based on a predetermined selection criterion.
  • the parking space closest to the parking point designated by the user may be set as the planned parking point (target point).
  • a parking space is selected based on a predetermined selection criterion and changed to that parking space.
  • the selected parking space may not be appropriate. Therefore, in the present embodiment, a new planned parking point is selected based on a predetermined selection criterion, the new planned parking point is presented to the user as a candidate point, and if the candidate is approved by the user, the candidate Change the planned parking location to a location. If a plurality of candidate points that satisfy the selection criteria are found, the plurality of candidate points are presented to the user, and the user is allowed to select one candidate point from the plurality of candidate points. If the user does not approve the candidate point, the user is again instructed to indicate the parking point by the line of sight.
  • FIG. 27 is a block diagram illustrating a schematic configuration of the pedestrian terminal 1 and the wearable terminal 2.
  • the control unit 43 of the wearable terminal 2 includes a candidate point presentation unit 58. Others are the same as the first embodiment (see FIG. 2).
  • the pedestrian terminal 1 is the same as in the first embodiment.
  • the candidate point presentation unit 58 causes the wearable terminal 2 to perform an operation of presenting to the user that the parking point has been changed and the position of the new parking point, when receiving the message of the point change from the in-vehicle terminal 3. Control. In addition, the candidate point presentation unit 58 acquires information (candidate approval selection information) on the approval result and the selection result of the candidate point according to the operation of the user.
  • the configuration of the vehicle-mounted terminal 3 is the same as that of the sixth embodiment (see FIG. 23).
  • the parking point setting unit 78 of the in-vehicle terminal 3 determines, based on a predetermined selection criterion, a parking space in which the vehicle can be parked, based on a predetermined selection criterion, when the parking possibility determination unit 77 determines that the vehicle cannot be parked at the planned parking point.
  • a candidate point is selected, the candidate point is presented to the user, and if approved by the user, the parking point is changed to the candidate point.
  • FIG. 28 is a sequence diagram illustrating an operation procedure of the gaze guidance system.
  • the user's position information, head orientation, gaze direction, and gaze distance are acquired, and the gaze point of the user is determined based on the information. Get location information. Then, after confirming that the user has instructed parking at the planned parking point (gaze point), the control unit transmits the planned parking point information to the pedestrian terminal 1.
  • the pedestrian terminal 1 When the pedestrian terminal 1 receives the scheduled parking point information from the wearable terminal 2 as in the first embodiment, the pedestrian terminal 1 transmits a parking instruction message to the in-vehicle terminal 3.
  • the dynamic map confirmation unit 76 stores the storage unit 64 based on the position information of the planned parking location included in the received message. From the dynamic map information stored in the parking lot.
  • the parking possibility determination unit 77 determines whether or not the vehicle can be parked at the planned parking location based on the parking possibility information on the planned parking location acquired by the dynamic map checking unit 76. .
  • the parking point setting unit 78 can park the own vehicle based on a predetermined selection criterion. Select a parking space as a candidate point. For example, the parking space closest to the planned parking point is selected as a candidate point.
  • the in-vehicle terminal 3 transmits a message for confirming the change of the point to the pedestrian terminal 1.
  • This message includes the terminal ID of the pedestrian terminal 1 of the transmission destination, the terminal ID of the in-vehicle terminal 3 of the transmission source, and information on the candidate point.
  • the pedestrian terminal 1 When the pedestrian terminal 1 receives the point change confirmation message from the in-vehicle terminal 3, the pedestrian terminal 1 controls the wearable terminal 2 to perform a candidate presenting operation of presenting the candidate point notified by the message to the user. At this time, if there is only one candidate point, an inquiry is made as to whether or not to change to that candidate point. If there are multiple candidate points, one candidate point is selected from the plurality of candidate points. Or an operation of not approving any candidate point.
  • a point change response message is transmitted to the vehicle-mounted terminal 3. .
  • This message includes the terminal ID of the in-vehicle terminal 3 of the transmission destination, the terminal ID of the pedestrian terminal 1 of the transmission source, and information on the candidate point approved and selected by the user.
  • the user determining unit 73 determines whether the user who instructs the own vehicle to park is a legitimate user. The subsequent steps are the same as in the first embodiment (see FIG. 5).
  • FIG. 29 is an overall configuration diagram of a gaze guidance system according to the eighth embodiment.
  • whether or not the host vehicle can be parked at the parking point designated by the user is determined based on the dynamic map provided from the management server.
  • a radar is provided. Based on information collected by the roadside device 8 (roadside device), a so-called infrastructure radar, it is determined whether or not the vehicle can be parked at the parking point designated by the user. As a result, information necessary for the determination can be obtained in real time.
  • FIG. 30 is a block diagram illustrating a schematic configuration of the vehicle-mounted terminal 3 and the roadside device 8.
  • the control unit 65 of the in-vehicle terminal 3 includes a roadside device confirmation unit 79. Others are the same as the sixth embodiment (see FIG. 23).
  • the roadside device confirmation unit 79 inquires of the roadside device 8 about the parking possibility at the parking point, and acquires information (parking possibility information) on whether or not the vehicle can be parked at the parking point.
  • the roadside device 8 includes a radar 101 (object detection unit), an ITS communication unit 102 (road-vehicle communication unit), a storage unit 103, and a control unit 104.
  • the radar 101 detects an object (including a moving object such as a pedestrian or a vehicle) existing on a road around the own device by emitting a radio wave and detecting a reflected wave thereof, and the object is present. Measure direction and distance to object.
  • the radar 101 is not particularly limited, such as a millimeter wave radar and a laser radar.
  • the ITS communication unit 102 transmits and receives a message to and from the in-vehicle terminal 3 by ITS communication (road-vehicle communication).
  • the storage unit 103 stores map information, position information of the own device, a program executed by a processor constituting the control unit 104, and the like.
  • the control unit 104 includes a message control unit 105, a moving body detection unit 106, and a parking possibility determination unit 107.
  • the control unit 104 is configured by a processor, and each unit of the control unit 104 is realized by executing a program stored in the storage unit 103 by the processor.
  • the message control unit 105 controls transmission and reception of messages with the in-vehicle terminal 3.
  • the moving object detection unit 106 detects a moving object (pedestrian and vehicle) existing on a road around the own device based on the detection result of the radar 101.
  • the parking possibility determination unit 107 determines whether a vehicle can be parked at each point based on the detection result of the moving body detection unit 106 and the map information stored in the storage unit 103, and determines whether the vehicle can be parked at each point.
  • Acquire information (parking possibility information).
  • the parking possibility information includes information on whether or not there is a parked vehicle (parking vacancy information) and information on the size of the parking space (parking space size information).
  • the roadside device 8 distributes various information such as traffic information to the pedestrian terminal 1 and the vehicle-mounted terminal 3.
  • the radar 101 detects an object on the road (including a moving object such as a pedestrian or a vehicle) and acquires the position information of the object.
  • the radar 101 may be, for example, a stereo camera, and can detect an object on a road from an image captured by the stereo camera.
  • FIG. 31 is a sequence diagram illustrating an operation procedure of the gaze guidance system.
  • the user's position information, head orientation, gaze direction, and gaze distance are acquired, and the gaze point of the user is determined based on the information. Get location information. Then, after confirming that the user has instructed parking at the planned parking point (gaze point), the control unit transmits the planned parking point information to the pedestrian terminal 1.
  • the pedestrian terminal 1 When the pedestrian terminal 1 receives the scheduled parking point information from the wearable terminal 2 as in the first embodiment, the pedestrian terminal 1 transmits a parking instruction message to the in-vehicle terminal 3.
  • This message includes the terminal ID of the source pedestrian terminal 1, the user's position information (latitude and longitude) and head orientation information, and the position information (latitude and longitude) of the parking spot.
  • the roadside unit checking unit 79 inquires the roadside unit 8 about the possibility of parking at the parking point, and the vehicle moves to the parking point. Information on whether or not parking is possible (parking possibility information) is acquired.
  • the message control section 71 transmits a parking possibility confirmation message from the ITS communication section 62 to the roadside device 8. This message includes the terminal ID of the in-vehicle terminal 3 of the transmission source and the position information (latitude, longitude) of the parking point.
  • the parking possibility determination unit 107 determines the parking possibility regarding the parking point and acquires the parking possibility information. I do.
  • the message control unit 105 generates a response message and transmits it from the ITS communication unit 102 to the in-vehicle terminal 3.
  • This message includes parking possibility information (parking vacancy information, parking space size information).
  • the roadside device confirmation unit 79 acquires the parking possibility information included in the received message. Then, based on the vehicle possibility information, the parking possibility determination section 77 determines whether or not the own vehicle can be parked at the scheduled parking location. The subsequent steps are the same as in the sixth embodiment (see FIG. 24).
  • a pedestrian device, an in-vehicle device, a mobile object guidance system, and a mobile object guidance method according to the present disclosure can move a mobile object capable of autonomous movement to a required position by gaze guidance of a user.
  • the use of devices used in the system has the effect of reducing costs, and pedestrian devices carried by pedestrians, in-vehicle devices mounted on vehicles, and mobile objects that can move autonomously
  • the present invention is useful as a mobile object guidance system and a mobile object guidance method for performing guidance in response to a request.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】自律移動可能な移動体をユーザの視線誘導で所要の位置に移動させることができ、特に、安全運転支援無線システムで使用される装置を用いることでコストを抑制する。 【解決手段】車両のユーザである歩行者が所持し、車載端末との間で情報を送受信して衝突の危険性を判定して、歩行者に対する注意喚起を行う歩行者端末と、歩行者端末との間で情報を送受信して衝突の危険性を判定して、衝突を回避する制御を自動運転ECUに行わせる車載端末と、ユーザの身体に装着されてユーザの注視状態を検出するウェアラブル端末と、を備え、歩行者端末は、ウェアラブル端末から、ユーザの注視地点の位置情報を目標地点の位置情報として取得して、その目標地点の位置情報を車載端末に送信し、車載端末は、歩行者端末から受信した目標地点の位置情報に基づいて、目標地点に自装置を移動するように自動運転ECUを制御する。

Description

歩行者装置、車載装置、移動体誘導システムおよび移動体誘導方法
 本開示は、歩行者が所持する歩行者装置、車両に搭載される車載装置、自律移動可能な移動体をユーザの動作に応じて誘導する移動体誘導システムおよび移動体誘導方法に関するものである。
 近年、ITS(Intelligent Transport System:高度道路交通システム)を利用した安全運転支援無線システムの実用化および普及に向けた検討が進められている。この安全運転支援無線システムでは、車両に搭載された車載端末と歩行者に所持させた歩行者端末との間でITS通信(歩車間通信)を行うことで、車両および歩行者の位置情報を交換して、車両と歩行者との衝突の危険性を判定して、車両の運転者や歩行者に事故回避のための注意喚起を行うようにしている。
 一方、自動運転(自律運転)が可能な車両のユーザを支援する技術として、ユーザが視線を使ってセンサ等で認識された目標地点候補(例えば駐車地点)を指示することで、その目標地点に車両を移動させる技術が知られている(特許文献1,2参照)。
国際公開第2017/072956号 特開2010-188897号公報
 さて、前記従来の技術のように、ユーザが視線で目標地点候補を指示して、その目標地点に車両を移動させるようにすると、ユーザの利便性を高めることができるが、目標地点候補を認識するための専用の装置が必要となり、システムの導入にコストが嵩むという問題があった。
 そこで、本開示は、自律移動可能な移動体をユーザの視線誘導で所要の位置に移動させることができ、特に、安全運転支援無線システムで使用される装置を用いることでコストを抑制できる歩行者装置、車載装置、移動体誘導システムおよび移動体誘導方法を提供することを主な目的とする。
 本開示の歩行者装置は、自律移動可能な移動体のユーザである歩行者が所持する歩行者装置であって、移動体に搭載された端末装置との間で情報を送受信する通信部と、前記端末装置との間で送受信した情報に基づいて衝突の危険性を判定して、歩行者に対する注意喚起を制御する制御部と、を備え、前記制御部は、ユーザが注視する注視地点の位置情報を目標地点の位置情報として取得し、その目標地点の位置情報を前記通信部から、ユーザが使用する移動体に搭載された前記端末装置に送信して、前記移動体を目標地点に移動させる制御を前記端末装置に行わせる構成とする。
 また、本開示の車載装置は、自律走行可能な車両に搭載される車載装置であって、歩行者装置との間で情報を送受信する通信部と、前記歩行者装置との間で送受信した情報に基づいて衝突の危険性を判定して、衝突を回避する制御を走行制御装置に行わせる制御部と、を備え、前記制御部は、車両のユーザが注視する注視地点の位置情報を目標地点の位置情報として、ユーザが所持する前記歩行者装置から受信すると、その目標地点の位置情報に基づいて、目標地点に自車両を移動するように前記走行制御装置に制御する構成とする。
 また、本開示の移動体誘導システムは、自律移動可能な移動体をユーザの動作に応じて誘導する移動体誘導システムであって、自律移動可能な移動体のユーザである歩行者が所持する歩行者装置と、前記移動体に搭載された端末装置と、を備え、前記歩行者装置は、前記端末装置との間で情報を送受信する通信部と、前記端末装置との間で送受信した情報に基づいて衝突の危険性を判定して、歩行者に対する注意喚起を制御する制御部と、を備え、前記制御部は、ユーザが注視する注視地点の位置情報を目標地点の位置情報として取得し、前記目標地点の位置情報を前記通信部から前記端末装置に送信し、前記端末装置は、前記歩行者装置との間で情報を送受信する通信部と、前記歩行者装置との間で送受信した情報に基づいて衝突の危険性を判定して、衝突を回避する制御を移動制御装置に行わせる制御部と、を備え、前記制御部は、前記目標地点の位置情報を前記通信部により前記歩行者装置から受信すると、その目標地点の位置情報に基づいて、目標地点に自装置を移動するように前記移動制御装置を制御する構成とする。
 また、本開示の移動体誘導方法は、自律移動可能な移動体をユーザの動作に応じて誘導する移動体誘導方法であって、歩行者が所持し、前記移動体に搭載された端末装置との間で情報を送受信して衝突の危険性を判定して、歩行者に対する注意喚起を行う歩行者装置が、歩行者としての前記移動体のユーザが注視する注視地点の位置情報を目標地点の位置情報として取得し、前記目標地点の位置情報を前記端末装置に送信し、前記歩行者装置との間で情報を送受信して衝突の危険性を判定して、衝突を回避する制御を走行制御装置に行わせる前記端末装置が、前記目標地点の位置情報を前記歩行者装置から受信すると、その目標地点の位置情報に基づいて、目標地点に自装置を移動するように移動制御装置に制御する構成とする。
 本開示によれば、自律移動可能な移動体をユーザの視線誘導で所要の位置に移動させることができる。また、ITSを利用した安全運転支援無線システムで使用される装置を用いるためコストを抑制することができる。
第1実施形態に係る移動体誘導システムの全体構成図 第1実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図 第1実施形態に係るウェアラブル端末2で行われる処理の概要を示す説明図 第1実施形態に係る車載端末3の概略構成を示すブロック図 第1実施形態に係る移動体誘導システムの動作手順を示すシーケンス図 第2実施形態に係る移動体誘導システムの全体構成図 第2実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図 第2実施形態に係る車載端末3の概略構成を示すブロック図 第2実施形態に係る移動体誘導システムの動作手順を示すシーケンス図 第3実施形態に係る移動体誘導システムの全体構成図 第3実施形態に係るウェアラブル端末2の注視地点取得部54で行われる処理の概要を示す説明図 第3実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図 第3実施形態に係る移動体誘導システムの動作手順を示すシーケンス図 第4実施形態に係る移動体誘導システムの全体構成図 第4実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図 第4実施形態に係る移動体誘導システムの動作手順を示すシーケンス図 第5実施形態に係る視線誘導システムの全体構成図 第5実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図 第5実施形態に係るドローン搭載端末6の概略構成を示すブロック図 第5実施形態に係る移動体誘導システムの動作手順を示すシーケンス図 第6実施形態に係る視線誘導システムの全体構成図 第6実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図 第6実施形態に係る車載端末3の概略構成を示すブロック図 第6実施形態に係る視線誘導システムの動作手順を示すシーケンス図 第6実施形態に係る車載端末3の駐車地点設定部78で行われる処理の概要を示す説明図 第6実施形態に係る車載端末3の駐車地点設定部78で行われる処理の概要を示す説明図 第7実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図 第7実施形態に係る視線誘導システムの動作手順を示すシーケンス図 第8実施形態に係る視線誘導システムの全体構成図 第8実施形態に係る車載端末3および路側機8の概略構成を示すブロック図 第8実施形態に係る視線誘導システムの動作手順を示すシーケンス図
 前記課題を解決するためになされた第1の発明は、自律移動可能な移動体のユーザである歩行者が所持する歩行者装置であって、移動体に搭載された端末装置との間で情報を送受信する通信部と、前記端末装置との間で送受信した情報に基づいて衝突の危険性を判定して、歩行者に対する注意喚起を制御する制御部と、を備え、前記制御部は、ユーザが注視する注視地点の位置情報を目標地点の位置情報として取得し、その目標地点の位置情報を前記通信部から、ユーザが使用する移動体に搭載された前記端末装置に送信して、前記移動体を目標地点に移動させる制御を前記端末装置に行わせる構成とする。
 これによると、自律移動可能な移動体をユーザの視線誘導で所要の位置に移動させることができる。また、ITSを利用した安全運転支援無線システムで使用される装置を用いるためコストを抑制することができる。
 また、第2の発明は、ユーザの身体に装着されてユーザの注視状態を検出するウェアラブル装置との間で近距離通信を行う近距離通信部を備え、前記制御部は、前記ウェアラブル装置から前記注視地点の位置情報を取得する構成とする。
 これによると、歩行者の目視状態をウェアラブル装置で検出するため、精度の高い位置情報を取得することができる。
 なお、ウェアラブル装置では、ユーザの注視状態に関する注視状態情報(頭部方位、視点方向および注視距離などに関する情報)を取得して、その情報と、自装置の位置情報とに基づいて、注視地点の位置情報を取得すればよい。また、ウェアラブル装置から歩行者装置に注視状態情報を出力して、歩行者装置において注視地点の位置情報を取得するようにしてもよい。
 また、第3の発明は、前記制御部は、前記注視地点の位置情報を駐車予定地点の位置情報として取得し、その駐車予定地点の位置情報を前記通信部から、前記移動体としての自律走行可能な車両に搭載された前記端末装置に送信して、車両を駐車予定地点に駐車させる制御を前記端末装置に行わせる構成とする。
 これによると、自律走行可能な車両を視線誘導して所要の位置(駐車スペース)に車両を駐車させることができる。
 また、第4の発明は、前記制御部は、ユーザが前記移動体に搭乗しているか否かを判定し、ユーザが前記移動体に搭乗している場合には、前記端末装置から送信される移動体の位置情報をユーザの位置情報として取得する構成とする。
 これによると、移動体の中から見える地点を目標地点に設定して、その地点まで移動体を移動させることができる。また、比較的精度の低いユーザの位置情報より精度の高い移動体の位置情報を利用することができ、移動体の移動位置の精度を向上できる。
 また、第5の発明は、前記制御部は、ユーザが注視する注視点の3次元測定情報に基づいて、目標地点の2次元位置情報を取得し、前記目標地点の2次元位置情報を前記通信部から前記端末装置に送信して、前記移動体を目標地点に移動させる制御を前記端末装置に行わせる構成とする。
 これによると、遠方に見える目標物を注視することで、その場所に移動体を移動させることができる。なお、ウェアラブル装置では、ユーザの注視状態に関する注視状態情報から3次元測定情報(方位角、仰角、および距離)を取得することができ、この3次元位置情報から目標地点の2次元位置情報(緯度、経度)を取得すればよい。
 また、第6の発明は、前記通信部は、他の歩行者装置との間で通信を行い、前記制御部は、前記他の歩行者装置から送信される目標地点の位置情報を受信し、かつ、その目標地点が自装置の目標地点と一致する場合には、自装置の優先順位が高いか否かを判定し、自装置の優先順位が低い場合には、目標地点を変更するようにユーザを案内する制御を行う構成とする。
 これによると、複数のユーザがほぼ同時に各自の移動体を誘導した場合に、各自の移動体の目標地点が一致することで、移動体を目標地点へ移動させることができなくなる不都合を解消することができる。
 また、第7の発明は、前記制御部は、ユーザが注視する注視点の3次元位置情報を目標点の3次元位置情報として取得し、前記目標点の3次元位置情報を前記通信部から、自律飛行可能な移動体に搭載された前記端末装置に送信して、移動体を目標点に移動させる制御を前記端末装置に行わせる構成とする。
 これによると、自律飛行可能な移動体を視線誘導して所要の位置に移動体を移動させることができる。すなわち、ユーザが空間を注視することで、その注視点の位置まで移動体を移動させることができる。
 また、第8の発明は、前記制御部は、前記駐車予定地点に駐車可能な駐車スペースがないために選択された新たな駐車予定地点に関する地点変更通知を前記端末装置から受信すると、前記新たな駐車予定地点をユーザに提示する構成とする。
 これによると、ユーザが指示した駐車予定地点が変更されたことをユーザが確認することができる。
 また、第9の発明は、前記制御部は、前記新たな駐車予定地点をユーザに提示した際に、ユーザの動作に応じて、前記新たな駐車予定地点に関するユーザの承認結果または選択結果に関する情報を取得し、その情報を前記端末装置に送信する構成とする。
 これによると、新たな駐車予定地点に関するユーザの承認結果または選択結果を端末装置に通知することができる。
 また、第10の発明は、自律走行可能な車両に搭載される車載装置であって、歩行者装置との間で情報を送受信する通信部と、前記歩行者装置との間で送受信した情報に基づいて衝突の危険性を判定して、衝突を回避する制御を走行制御装置に行わせる制御部と、を備え、前記制御部は、車両のユーザが注視する注視地点の位置情報を目標地点の位置情報として、ユーザが所持する前記歩行者装置から受信すると、その目標地点の位置情報に基づいて、目標地点に自車両を移動するように前記走行制御装置に制御する構成とする。
 これによると、自律移動可能な移動体をユーザの視線誘導で所要の位置に移動させることができる。また、ITSを利用した安全運転支援無線システムで使用される装置を用いるためコストを抑制することができる。
 また、第11の発明は、前記制御部は、前記目標地点である駐車予定地点の位置情報を受信すると、その駐車予定地点の位置情報に基づいて、駐車予定地点に自車両を駐車するように前記走行制御装置を制御する構成とする。
 これによると、自律走行可能な車両を視線誘導して所要の位置(駐車スペース)に駐車させることができる。
 また、第12の発明は、さらに、統合型地図情報を記憶する記憶部を備え、前記制御部は、前記統合型地図情報に登録された駐車可能性情報に基づいて、前記目標地点である駐車予定地点に自車両が駐車可能な否かを判定する構成とする。
 これによると、駐車予定地点に自車両が駐車可能な否かを事前に確認することができる。また、車両の自動運転に用いられる統合型地図情報(ダイナミックマップ)に駐車可能性情報が登録されるため、情報の管理が容易になる。
 また、第13の発明は、前記通信部は、道路上の移動体を検出する物体検出部を備えた路側装置と通信を行い、前記制御部は、前記路側装置から受信した駐車可能性情報に基づいて、前記駐車予定地点に自車両が駐車可能な否かを判定する構成とする。
 これによると、駐車可能性情報をリアルタイムに取得して、自車両が駐車可能な否かの判定を精度よく行うことができる。
 また、第14の発明は、前記制御部は、前記駐車予定地点に該当し、かつ自車両が駐車可能な駐車スペースが複数ある場合には、所定の選択基準に基づいて、1つの駐車スペースを駐車予定地点として設定する構成とする。
 これによると、ユーザが指示した駐車地点に該当する駐車スペースが複数存在する場合でも、適切な駐車スペースに車両を駐車させることができる。
 また、第15の発明は、前記制御部は、前記駐車予定地点に該当し、かつ自車両が駐車可能な駐車スペースがない場合には、所定の選択基準に基づいて、自車両が駐車可能な1つの駐車スペースを駐車予定地点として設定する構成とする。
 これによると、測位誤差が発生した場合でも、適切な駐車スペースに車両を駐車させることができる。
 また、第16の発明は、前記制御部は、前記駐車予定地点に該当し、かつ自車両が駐車可能な駐車スペースがない場合には、所定の選択基準に基づいて、自車両が駐車可能な駐車スペースを新たな駐車予定地点として選択して、その新たな駐車予定地点に関する地点変更通知を前記歩行者装置に送信する構成とする。
 これによると、ユーザが指示した駐車予定地点が変更されたことをユーザが確認することができる。
 また、第17の発明は、自律移動可能な移動体をユーザの動作に応じて誘導する移動体誘導システムであって、自律移動可能な移動体のユーザである歩行者が所持する歩行者装置と、前記移動体に搭載された端末装置と、を備え、前記歩行者装置は、前記端末装置との間で情報を送受信する通信部と、前記端末装置との間で送受信した情報に基づいて衝突の危険性を判定して、歩行者に対する注意喚起を制御する制御部と、を備え、前記制御部は、ユーザが注視する注視地点の位置情報を目標地点の位置情報として取得し、前記目標地点の位置情報を前記通信部から前記端末装置に送信し、前記端末装置は、前記歩行者装置との間で情報を送受信する通信部と、前記歩行者装置との間で送受信した情報に基づいて衝突の危険性を判定して、衝突を回避する制御を移動制御装置に行わせる制御部と、を備え、前記制御部は、前記目標地点の位置情報を前記通信部により前記歩行者装置から受信すると、その目標地点の位置情報に基づいて、目標地点に自装置を移動するように前記移動制御装置を制御する構成とする。
 これによると、第1の発明と同様に、自律移動可能な移動体をユーザの視線誘導で所要の位置に移動させることができる。また、ITSを利用した安全運転支援無線システムで使用される装置を用いるためコストを抑制することができる。
 また、第18の発明は、自律移動可能な移動体をユーザの動作に応じて誘導する移動体誘導方法であって、歩行者が所持し、前記移動体に搭載された端末装置との間で情報を送受信して衝突の危険性を判定して、歩行者に対する注意喚起を行う歩行者装置が、歩行者としての前記移動体のユーザが注視する注視地点の位置情報を目標地点の位置情報として取得し、前記目標地点の位置情報を前記端末装置に送信し、前記歩行者装置との間で情報を送受信して衝突の危険性を判定して、衝突を回避する制御を走行制御装置に行わせる前記端末装置が、前記目標地点の位置情報を前記歩行者装置から受信すると、その目標地点の位置情報に基づいて、目標地点に自装置を移動するように移動制御装置に制御する構成とする。
 これによると、第1の発明と同様に、自律移動可能な移動体をユーザの視線誘導で所要の位置に移動させることができる。また、ITSを利用した安全運転支援無線システムで使用される装置を用いるためコストを抑制することができる。
 以下、本開示の実施の形態を、図面を参照しながら説明する。
(第1実施形態)
 図1は、第1実施形態に係る移動体誘導システムの全体構成図である。
 この移動体誘導システムは、自律移動可能な移動体としての車両(自動運転車両)をユーザ(ユーザ)が誘導するものであり、歩行者端末1(歩行者装置)と、ウェアラブル端末2と、車載端末3(車載装置)と、自動運転ECU4(移動制御装置、走行制御装置)と、カーナビゲーション5(経路案内装置)と、を備えている。
 歩行者端末1と車載端末3との間ではITS通信(歩車間通信)が行われる。このITS通信は、ITS(Intelligent Transport System:高度道路交通システム)を利用した安全運転支援無線システムで採用されている周波数帯(例えば700MHz帯や5.8GHz帯、5.9GHz帯)を利用した無線通信である。
 歩行者端末1は、歩行者が所持する。この歩行者端末1では、ITS通信(歩車間通信)により車載端末3との間で、位置情報などを含むメッセージを送受信して、自歩行者と車両との衝突の危険性を判定する。
 ウェアラブル端末2は、ユーザの身体に装着される。このウェアラブル端末2は、歩行者端末1と接続され、歩行者端末1の制御に基づいて、衝突の危険性がある場合に、振動出力、音声出力および画像表示の機能を用いて、ユーザに対する注意喚起動作を行う。また、本実施形態では、ウェアラブル端末2が、ユーザの頭部に装着され、ユーザの頭部方位(顔の向き)や視線方向を検出する機能を備えている。
 車載端末3は、車両に搭載される。この車載端末3では、ITS通信(歩車間通信)により歩行者端末1との間で、位置情報などを含むメッセージを送受信して、歩行者と自車両との衝突の危険性を判定する。
 自動運転ECU4は、車両に搭載される。この自動運転ECU4では、車載端末3から出力される制御情報に基づいて、車両の自動運転(自律走行)を実行する。
 カーナビゲーション5は、車両に搭載される。このカーナビゲーション5では、自動運転ECU4に対して経路案内を行う。
 本実施形態では、ユーザが視線で車両を誘導する。特に本実施形態では、車外にいるユーザが駐車スペースを注視することで、その駐車スペースに車両を駐車させる。すなわち、ウェアラブル端末2において、ユーザの頭部方位(顔の向き)や視線方向を検出して、ユーザが注視する地点(注視位置)の位置情報(緯度、経度)を、歩車間から通信で歩行者端末1から車載端末3に送信し、その注視位置情報に基づいて自動運転ECU4が駐車スペースに車両を駐車させる制御を行う。
 なお、本実施形態では、車外にいるユーザが視線で車両を駐車スペースに誘導するようにしたが、駐車スペース以外の任意の場所に車両を誘導するようにしてもよい。例えば、店舗から出てきたユーザが、駐車中の車両を自分の目の前に呼び寄せることもできる。この場合、ユーザは自分の目の前の地面を注視すればよい。
 次に、第1実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成について説明する。図2は、歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図である。
 歩行者端末1は、測位部11と、ITS通信部12(歩車間通信部)と、近距離通信部13と、記憶部14と、制御部15と、を備えている。
 測位部11は、GPS(Global Positioning System)、QZSS(Quasi-Zenith Satellite System)などの衛星測位システムにより自装置の位置を測定して、自装置の位置情報(緯度、経度)を取得する。
 ITS通信部12は、車載端末3との間でITS通信(歩車間通信)によりメッセージを送受信する。
 近距離通信部13は、ウェアラブル端末2との間でBluetooth(登録商標)などの近距離通信を行う。
 記憶部14は、自装置の端末IDや、制御部15を構成するプロセッサで実行されるプログラムなどを記憶する。
 制御部15は、メッセージ制御部21と、衝突判定部22と、注意喚起制御部23と、を備えている。この制御部15は、プロセッサで構成され、制御部15の各部は、記憶部14に記憶されたプログラムをプロセッサで実行することで実現される。
 メッセージ制御部21は、車載端末3との間でのメッセージの送受信を制御する。
 衝突判定部22は、測位部11で取得した自歩行者の位置情報と、車載端末3から受信したメッセージに含まれる車両の位置情報とに基づいて、自歩行者に車両が衝突する危険性があるか否かを判定する。
 注意喚起制御部23は、自歩行者に対する所定の注意喚起動作を行うようにウェアラブル端末2を制御する。本実施形態では、衝突判定部22で衝突の危険性があると判定された場合に、ウェアラブル端末2に注意喚起動作を行わせる。
 ウェアラブル端末2は、測位部31と、方位センサ32と、視線センサ33と、測距センサ34と、モーションセンサ35と、マイク36と、カメラ37と、バイブレータ38と、スピーカ39と、ディスプレイ40と、近距離通信部41と、記憶部42と、制御部43と、を備えている。
 測位部31は、GPS、QZSSなどの衛星測位システムにより自装置の位置を測定して、自装置の位置情報(緯度、経度)を取得する。
 方位センサ32は、地磁気方位を検出する。この方位センサ32の検出結果から、ウェアラブル端末2が装着されたユーザの頭部方位(顔の向き)を取得することができる。
 視線センサ33は、ユーザの視線を検出する。この視線センサ33の検出結果から、XY直交座標系で定義された視線検出エリアにおける視点の座標を取得することができる。
 測距センサ34は、対向する物体までの距離を測定する。この測距センサ34では、例えばPSD(Position Sensitive Detector)方式を採用すればよい。なお、PSD方式では、発光素子から出射された光が対象物で反射し、その反射光を受光素子で検出し、このとき、対象物までの距離に応じて変化する反射光の入射角度に基づいて、対象物までの距離を測定する。
 モーションセンサ35は、加速度センサやジャイロセンサで構成され、ユーザの頭部の動きを検出する。マイク36は、ユーザの音声を収音する。カメラ37は、ユーザの顔、特に口元を撮影する。このモーションセンサ35、マイク36、およびカメラ37は、ユーザが承認する動作を検知するために用いられる。
 バイブレータ38は、振動を出力する。スピーカ39は、音声を出力する。ディスプレイ40は、画像を表示する。このバイブレータ38、スピーカ39、およびディスプレイ40は、歩行者端末1の制御に基づいて、接近する車両に注意するように歩行者を促す注意喚起動作を行う。
 近距離通信部41は、歩行者端末1との間でBluetooth(登録商標)などの近距離通信を行う。
 記憶部42は、制御部43を構成するプロセッサで実行されるプログラムなどを記憶する。
 制御部43は、頭部方位測定部51と、視線方向測定部52と、注視距離測定部53と、注視地点取得部54と、駐車指示確認部55と、を備えている。この制御部43は、プロセッサで構成され、制御部43の各部は、記憶部42に記憶されたプログラムをプロセッサで実行することで実現される。
 頭部方位測定部51は、方位センサ32の検出結果に基づいて、ユーザの頭部方位(顔の向き)を測定する。
 視線方向測定部52は、視線センサ33の検出結果に基づいて、ユーザの視線方向(視点座標)を測定する。なお、視線センサ33は、ユーザの目元を撮影するカメラで構成され、その撮影画像の解析により、左右の眼球の角度を取得する。
 注視距離測定部53は、視線方向測定部52の測定結果と、測距センサ34の検出結果とに基づいて、歩行者が注視している物体(注視対象物)までの距離(注視距離)を測定する。
 注視地点取得部54は、頭部方位測定部51で取得した頭部方位と、視線方向測定部52で取得した視線方向と、注視距離測定部53で取得した注視距離とに基づいて、ユーザが注視する地点(注視地点)の位置情報(緯度、経度)を取得する。
 駐車指示確認部55は、注視地点を駐車予定地点としてユーザに提示して、その駐車予定地点への駐車を指示する動作(指示動作)を検知すると、ユーザが駐車予定地点(注視地点)への駐車を指示したことを確定する。
 本実施形態では、駐車予定地点への駐車を指示する動作(指示動作)として、例えば、モーションセンサ35でユーザの頭部の動きを検出して、その検出結果に基づいて、指示動作として、ユーザの頷く動作を検知する。また、マイク36でユーザの音声を収音して、ユーザが承認の発話動作、例えば「実行」と発話する動作を検知する。また、カメラ37でユーザの口元を撮影して、撮影画像からユーザの口の動きを検出して、その検出結果に基づいて、指示動作として、ユーザが承認の発話動作、例えば「実行」と発話する動作を検知する。
 なお、本実施形態では、注視地点取得や駐車指示確認の処理をウェアラブル端末2で行うようにしたが、この処理を歩行者端末1で行うようにしてもよい。この場合、駐車予定地点への駐車を指示する動作(指示動作)として、例えば、歩行者端末1に設けられたタッチパネルディスプレイ(図示せず)の画面操作(例えば、実行ボタンの操作)を検知するようにしてもよい。
 次に、第1実施形態に係るウェアラブル端末2で行われる処理について説明する。図3は、ウェアラブル端末2で行われる処理の概要を示す説明図である。
 ウェアラブル端末2には、視線センサ33と測距センサ34とが設けられている。また、ウェアラブル端末2では、制御部43に、頭部方位測定部51と、視線方向測定部52と、注視距離測定部53と、注視地点取得部54とが設けられている(図2参照)。
 頭部方位測定部51は、方位センサ32の検出結果に基づいて、ユーザの頭部方位(顔の向き)を測定する。
 視線方向測定部52は、視線センサ33の検出結果に基づいて、ユーザの視線方向(視点座標)を測定する。なお、視線センサ33は、左眼および右眼の各視線方向(眼球の向き)を検出するが、その視線方向は右眼と左眼とで異なり、右眼および左眼の視線方向と、右眼と左眼との距離とに基づいて、右眼の視線方向と左眼の視線方向とが交差する注視点を取得して、その注視点の方向をユーザの視線方向としてもよい。
 注視距離測定部53では、視線方向測定部52の測定結果と、測距センサ34の検出結果とに基づいて、ユーザが注視している物体(注視対象物)までの距離(注視距離)を測定する。
 本実施形態では、測距センサ34が、検出方向を調整可能に構成され、視線センサ33の検出結果である視線方向に基づいて、ユーザの視線方向に一致するように測距センサ34の検出方向を調整した上で、測距センサ34により、対向する物体までの距離を検出することで、歩行者が注視している物体(駐車スペースの地面)までの距離(注視距離)を測定することができる。
 なお、本実施形態では、視線センサ33の検出結果に基づいて、測距センサ34を歩行者の視線方向に向けて、注視距離を測定するようにしたが、測距センサ34を用いずに、視線センサ33の検出結果のみに基づいて、注視距離を推定することもできる。すなわち、右眼の視線方向と左眼の視線方向とが交差する輻輳角は注視距離が遠い程、小さくなり、注視距離が近い程、大きくなる性質を利用し、注視距離を推定することができる。
 注視地点取得部54では、頭部方位測定部51で取得した頭部方位と、視線方向測定部52で取得した視線方向と、注視距離測定部53で取得した注視距離とに基づいて、ユーザが注視する地点(注視地点)の位置情報(緯度、経度)を取得する。具体的には、ユーザの頭部方位と視線方向とに基づいて、ユーザが注視している注視地点の方位(注視方位)を算出する。すなわち、頭部方位を基準にして視線方向の分だけずれた方位を、注視方位とする。そして、ユーザの位置と、ユーザの注視方位および注視距離に基づいて、注視地点の位置情報(緯度、経度)を特定する。
 次に、第1実施形態に係る車載端末3の概略構成について説明する。図4は、車載端末3の概略構成を示すブロック図である。
 車載端末3は、測位部61と、ITS通信部62(歩車間通信部)と、入出力部63と、記憶部64と、制御部65と、を備えている。
 測位部61は、GPS、QZSSなどの衛星測位システムにより自装置の位置を測定して、自装置の位置情報(緯度、経度)を取得する。
 ITS通信部62は、歩行者端末1との間でITS通信(歩車間通信)によりメッセージを送受信する。
 入出力部63は、自動運転ECU4およびカーナビゲーション5との間で情報の入出力を行う。
 記憶部64は、自車両を使用するユーザ(車両のオーナーなど)に関するユーザ登録情報を記憶する。このユーザ登録情報は、ユーザが所持する歩行者端末1の端末IDなどであり、車両を使用する際に事前に登録される。また、記憶部64は、制御部65を構成するプロセッサで実行されるプログラムなどを記憶する。
 制御部65は、メッセージ制御部71と、衝突判定部72と、ユーザ判定部73と、駐車指示部74と、を備えている。この制御部65は、プロセッサで構成され、制御部65の各部は、記憶部64に記憶されたプログラムをプロセッサで実行することで実現される。
 メッセージ制御部71は、歩行者端末1との間でのメッセージの送受信を制御する。
 衝突判定部72は、測位部61で取得した自車両の位置情報と、歩行者端末1から受信したメッセージに含まれる歩行者の位置情報とに基づいて、歩行者に自車両が衝突する危険性があるか否かを判定する。この衝突判定部72の判定結果は自動運転ECU4に出力され、衝突判定部72で衝突の危険性があると判定された場合には、衝突を回避する制御が自動運転ECU4で行われる。
 ユーザ判定部73は、自車両に対して駐車を指示するユーザが、自車両の使用が許可された正規のユーザであるか否かを判定する。具体的には、歩行者端末1から受信した駐車指示のメッセージに含まれる歩行者端末1の端末IDが、予め登録されたユーザが所持する歩行者端末1の端末IDと一致するか否かを判定する。
 駐車指示部74は、ユーザ判定部73において、自車両に対して駐車を指示するユーザが正規のユーザであると判定されると、歩行者端末1から受信したメッセージに含まれる駐車予定地点の位置情報に基づいて、駐車予定地点に自車両を駐車させる制御情報を自動運転ECU4に出力する。
 自動運転ECU4は、車載センサ81、操舵ECU82、駆動ECU83、および制動ECU84と接続され、車載センサ81の検出結果に基づいて、操舵ECU82、駆動CU83、および制動ECU84を制御して、車両の自動運転(自律走行)を実現する。
 ここで、車載センサ81は、LIDAR(Light Detection and Ranging)、舵角センサ、速度センサなどである。また、操舵ECU82は、自車両の操舵機構を制御するものであり、駆動ECU83は、自車両の駆動機構(エンジンや電動モータなど)を制御するものであり、制動ECU84は、自車両の制動機構を制御するものである。
 なお、自動運転には、運転者を必要としない自律走行と、運転者の運転を支援する運転支援とがあり、自律走行と運転支援との2つのモードを切り替えることができるようにしてもよい。運転支援の場合、衝突の危険性がある場合に、運転者に対する注意喚起が必要であり、例えば、カーナビゲーション5において、車載端末3の制御に基づいて、音声出力および画像表示の機能を用いて、運転者に対する注意喚起動作を実施する。
 次に、第1実施形態に係る移動体誘導システムの動作手順について説明する。図5は、移動体誘導システムの動作手順を示すシーケンス図である。なお、ここでは、衝突判定および注意喚起に関する動作は省略する。
 ウェアラブル端末2では、測位部31においてユーザの位置情報を取得し、頭部方位測定部51においてユーザの頭部方位を取得し、視線方向測定部52においてユーザの視線方向を取得し、注視距離測定部53においてユーザの注視距離を取得する。そして、注視地点取得部54において、ユーザの位置情報、頭部方位、視線方向および注視距離に基づいて、ユーザが注視する注視地点の位置情報を取得する。
 次に、ウェアラブル端末2では、駐車指示確認部55において、注視地点を駐車予定地点としてよいかユーザに提示して、その駐車予定地点を承認するユーザの動作(指示動作)を検知すると、ユーザが駐車予定地点(注視地点)への駐車を指示したことを確定する。そして、ウェアラブル端末2では、駐車予定地点の位置情報(注視地点の位置情報)を近距離通信部41から歩行者端末1に送信する。
 歩行者端末1では、ウェアラブル端末2から駐車予定地点の位置情報を近距離通信部13で受信すると、メッセージ制御部21において、駐車指示のメッセージを生成してITS通信部12から車載端末3に送信する。この駐車指示のメッセージには、送信元の歩行者端末1の端末IDと、ユーザの位置情報(緯度、経度)および頭部方位情報と、駐車予定地点の位置情報(緯度、経度)とが含まれる。
 車載端末3では、測位部61において、自車両の位置情報を取得する。そして、歩行者端末1からの駐車指示のメッセージをITS通信部62で受信すると、ユーザ判定部73において、自車両に対して駐車を指示するユーザが、自車両の使用が許可された正規のユーザであるか否かを判定する。
 次に、車載端末3では、ユーザ判定部73において、自車両に対して駐車を指示するユーザが正規のユーザであると判定されると、駐車指示部74において、駐車予定地点である駐車スペースに自車両を駐車させる制御情報を自動運転ECU4に出力する。この制御情報には、駐車地点の位置情報や自車両の位置情報が含まれる。
 自動運転ECU4では、車載端末3から入力される制御情報に基づいて、自車両を駐車予定地点である駐車スペースに駐車させるように、操舵ECU82、駆動ECU83、および制動ECU84を制御する。
(第2実施形態)
 次に、第2実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図6は、第2実施形態に係る移動体誘導システムの全体構成図である。
 第1実施形態では、車外にいるユーザが視線で車両を駐車スペースに誘導するようにしたが、本実施形態では、ユーザが視線で車両を所要の場所に誘導し、特に、ユーザが車内にいる、すなわち、ユーザが車両(自動運転車両)に乗車している場合でも、車内から見える目標物を視線で指示することで、その目標物まで車両を誘導する。例えば、近くにあるコンビニエンスストアなどの店舗が車内から見える場合に、その店舗をユーザが注視することで、その店舗まで車両を移動させることができる。また、前方を走行する車両をユーザが注視し続けることで、その車両に追従するように自車両を走行させることができる。また、前方の道路をユーザが注視し続けることで、道路に沿って自車両を走行させることができる。
 なお、本実施形態では、ユーザが車内にいるか車外にいるかに応じて異なる制御を行うようにしており、ユーザが車外から視線誘導した場合には、ユーザが乗車した上で車両を出発させるようにすればよい。
 次に、第2実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成について説明する。図7は、歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図である。
 歩行者端末1の制御部15は、車内判定部24と、位置情報置換部25と、を備えている。その他は第1実施形態(図2参照)と同様である。
 車内判定部24は、ユーザが車内にいるか否かを判定する。ユーザが車内にいる場合、衛星電波が車体で遮られることで、衛星電波が歩行者端末1に届きにくくなるため、歩行者端末1で受信した衛星電波の受信強度が低い場合には、ユーザが車内にいると判定することができる。また、ユーザの位置と車両の位置とがほぼ一致する場合には、ユーザが車内にいると判定することができる。また、歩行者端末1に振動を検出するセンサ(図示せず)を設けて、その検出結果により走行振動を検知した場合には、ユーザが車内にいると判定することができる。また、これらの判定方法を適宜に組み合わせて判定するようにしてもよい。
 位置情報置換部25は、車内判定部24でユーザが車内にいると判定した場合に、ITS通信部62において車載端末3から受信したメッセージに含まれる車両の位置情報にユーザの位置情報を置き換える。車両の位置情報の方が精度が高いため、位置情報を置き換えることで、ユーザの位置情報の精度を確保することができる。
 ウェアラブル端末2の制御部43は、移動指示確認部56を備えている。その他は第1実施形態(図2参照)と同様である。
 移動指示確認部56は、注視地点を目標地点(移動先地点)としてユーザに提示して、その目標地点への移動を指示する動作(指示動作)を検知すると、ユーザが目標地点(注視地点)への移動を指示したことを確定する。なお、指示動作は、第1実施形態と同様に、モーションセンサ35やマイク36やカメラ37の検出結果に基づいて行えばよい。
 次に、第2実施形態に係る車載端末3の概略構成について説明する。図8は、車載端末3の概略構成を示すブロック図である。
 車載端末3の制御部65は、移動指示部75を備えている。その他は第1実施形態(図4参照)と同様である。
 移動指示部75は、ユーザ判定部73で歩行者端末1の端末IDが一致する場合に、歩行者端末1から受信したメッセージに含まれる目標地点の位置情報に基づいて、目標地点に向けて自車両を移動させる制御情報を自動運転ECU4に出力する。自動運転ECU4は、車載端末3から入力される制御情報に基づいて、目標地点に向けて自車両を移動させる制御を行う。
 次に、第2実施形態に係る移動体誘導システムの動作手順について説明する。図9は、移動体誘導システムの動作手順を示すシーケンス図である。
 ウェアラブル端末2では、第1実施形態(図2参照)と同様に、ユーザの位置情報、頭部方位、視線方向、および注視距離を取得して、それらの情報に基づいて、ユーザの注視地点の位置情報を取得する。
 次に、ウェアラブル端末2では、移動指示確認部56において、注視地点を目標地点としてユーザに提示して、その目標地点を承認するユーザの動作(指示動作)を検知すると、ユーザが目標地点(注視地点)への移動を指示したことを確定する。そして、ウェアラブル端末2では、目標地点の位置情報(注視地点の位置情報)を近距離通信部41から歩行者端末1に送信する。
 車載端末3では、測位部61において、自車両の位置情報を取得する。そして、メッセージ制御部71において、通常時のメッセージをITS通信部62から歩行者端末1に送信する。このメッセージには、車載端末3の端末ID(自車両の車両ID)と、自車両の位置情報(緯度、経度)とが含まれる。
 歩行者端末1では、車載端末3から通常時のメッセージをITS通信部12で受信すると、車内判定部24において、受信したメッセージに含まれる車両の位置情報と、測位部11で取得したユーザの位置情報とを比較するなどして、ユーザが車内にいるか否かを判定する。そして、ユーザが車内にいる場合には、位置情報置換部25において、車両の位置情報をユーザの位置情報に置き換える。なお、ユーザが車内にいない、すなわち、ユーザが車外にいる場合には、位置情報の置き換えは行わない。
 また、歩行者端末1では、ウェアラブル端末2から目標地点情報を近距離通信部13で受信すると、メッセージ制御部21において、移動指示のメッセージを生成してITS通信部12から車載端末3に送信する。このメッセージには、送信元の歩行者端末1の端末IDと、ユーザの位置情報(緯度、経度)および頭部方位情報と、目標地点(移動先地点)の位置情報(緯度、経度)とが含まれる。
 車載端末3では、測位部61において、自車両の位置情報を取得する。そして、歩行者端末1からの移動指示のメッセージをITS通信部62で受信すると、ユーザ判定部73において、自車両に対して駐車を指示するユーザが、自車両の使用が許可された正規のユーザであるか否かを判定する。
 次に、車載端末3では、ユーザ判定部73において、自車両に対して駐車を指示するユーザが正規のユーザであると判定されると、移動指示部75において、目標位置に自車両を移動させる制御情報を自動運転ECU4に出力する。この制御情報には、目標地点の位置情報や自車両の位置情報が含まれる。
 自動運転ECU4では、車載端末3から入力される制御情報に基づいて、自車両を目標地点に移動するように、操舵ECU82、駆動ECU83、および制動ECU84を制御する。
(第3実施形態)
 次に、第3実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図10は、第3実施形態に係る移動体誘導システムの全体構成図である。
 前記の実施形態では、ユーザが視線で車両を所要の場所に誘導するようにしたが、遠方に見える目標物の場所まで移動したい場合がある。そこで、本実施形態では、遠方に見える目標物をユーザが注視することでその目標物の場所を目標地点に設定し、自車両を目標物の場所まで移動させるようにする。
 この場合、目標物は、遠方から見えることから、高さのあるものとなる。具体的には、山、タワーや観覧車や高層ビルなどの建造物、看板などが目標物となる。また、気球やハンググライダなどの飛翔体を目標物としてもよい。
 また、本実施形態では、ユーザの注視点から垂線を下ろして、その垂線と基準水平面(ユーザがいる水平面)との交点が目標地点となり、その目標地点の2次元位置情報(緯度、経度)を取得する。そして、カーナビゲーション5に経路案内を行わせ、現在地点から目標地点までの経路に関する情報をカーナビゲーション5から取得し、自動運転ECU4を制御する。
 なお、本実施形態では、ユーザは車外および車内のいずれでもよいが、ユーザが車内にいる場合には、第2実施形態と同様に、ユーザの位置情報を車両の位置情報に置き換えるようにするとよい。また、視線誘導の対象となる移動体をスカイカー(空飛ぶ車)として、そのスカイカーに搭乗したユーザが、視線誘導でスカイカーを飛行させるようにしてもよい。この場合、ユーザが下方を見下ろすことで、スカイカーを下方に移動させる場合もあり、例えば、下方の着陸地点を注視することで、その着陸地点にスカイカーを着陸させることができる。
 次に、第3実施形態に係るウェアラブル端末2の注視地点取得部54で行われる処理について説明する。図11は、ウェアラブル端末2の注視地点取得部54で行われる処理の概要を示す説明図である。
 注視地点取得部54では、頭部方位測定部51で取得した頭部方位と、視線方向測定部52で取得した視線方向とに基づいて、ユーザが注視している物体(注視対象物)の方位(注視方位)を算出する。そして、この注視方位と、注視距離測定部53で取得した注視距離と、ユーザの位置情報とに基づいて、ユーザが注視する地点(注視地点)の位置情報(緯度、経度)を取得する。
 このとき、ユーザが斜め上方を注視することで、注視距離測定部53で取得した注視距離は、現在地点から目標地点までの水平方向の距離より長くなる。このため、注視距離が水平方向の距離となるように注視距離を補正する必要がある。
 そこで、本実施形態では、ウェアラブル端末2のモーションセンサ35(傾斜センサ)の検出結果に基づいて、ユーザの視線の仰角Aを測定する。そして、次式により、仰角Aから補正した注視距離を算出する。
補正した注視距離=注視距離×cosA
また、次式により、注視距離と仰角Aとから高さ(高度差)を算出する。
高さ=注視距離×sinA
 仰角には、ユーザの頭部の仰角と、ユーザの視線の仰角とがあり、頭部の仰角は、ウェアラブル端末2のモーションセンサ35(傾斜センサ)を用いて測定すればよく、視線の仰角は、ウェアラブル端末2の視線センサ33を用いて測定すればよい。
 次に、第3実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成について説明する。図12は、歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図である。
 ウェアラブル端末2の制御部43は、第2実施形態(図7参照)と同様に、移動指示確認部56を備えている。
 なお、本実施形態に係る歩行者端末1の構成は、第1実施形態と同様である。また、本実施形態に係る車載端末3の構成は、第2実施形態(図8参照)と同様である。
 次に、第3実施形態に係る移動体誘導システムの動作手順について説明する。図13は、移動体誘導システムの動作手順を示すシーケンス図である。
 ウェアラブル端末2では、第2実施形態(図9参照)と同様に、ユーザの位置情報、頭部方位、視線方向、および注視距離を取得して、それらの情報に基づいて、ユーザの注視地点の位置情報を取得する。そして、ユーザが目標位置(注視位置)への移動を指示したことを確認した上で、目標地点の位置情報を歩行者端末1に送信する。
 歩行者端末1では、ウェアラブル端末2から目標地点情報を近距離通信部13で受信すると、メッセージ制御部21において、移動指示のメッセージを生成してITS通信部12から車載端末3に送信する。
 車載端末3では、測位部61において、自車両の位置情報を取得する。そして、歩行者端末1からの移動指示のメッセージをITS通信部62で受信すると、ユーザ判定部73において、自車両に対して駐車を指示するユーザが、自車両の使用が許可された正規のユーザであるか否かを判定する。
 次に、車載端末3では、ユーザ判定部73において、自車両に対して駐車を指示するユーザが正規のユーザであると判定されると、移動指示部75において、経路案内を要求する制御情報をカーナビゲーション5に出力し、カーナビゲーション5に経路案内を行わせ、現在地点から目標地点までの経路情報をカーナビゲーション5から取得して、自動運転ECU4を制御する。
 このとき、現在地点から目標地点までの経路情報に基づいて、暫定的な目標地点を設定して、その暫定的な目標地点に自車両を移動させる制御情報を自動運転ECU4に出力する。この制御情報には、暫定的な目標地点の位置情報や自車両の位置情報が含まれる。
 自動運転ECU4では、車載端末3から入力される制御情報に基づいて、自車両を暫定的な目標地点に移動するように、操舵ECU82、駆動ECU83、および制動ECU84を制御する。
 これにより、自車両は、暫定的な目標地点に向けて移動し、暫定的な目標地点に到達する、すなわち、車両の現在の位置が目標地点と一致すると、車載端末3では、次の暫定的な目標地点を設定し、このような暫定的な目標地点を順次設定する処理と、暫定的な目標地点までの移動とを繰り返して、最終的な目標地点に到達する。
(第4実施形態)
 次に、第4実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図14は、第4実施形態に係る移動体誘導システムの全体構成図である。
 前記の実施形態では、ユーザが視線で車両を所要の場所に誘導するようにしたが、複数のユーザがほぼ同時に各自の車両を誘導した場合に、各自の車両の目標地点(例えば駐車スペース)が一致すると、車両を目標地点へ移動させることができなくなる。そこで、本実施形態では、所定の基準に基づいて、ユーザに優先順位を付与して、優先順位が高いユーザの車両を目標地点へ移動させ、優先順位が低いユーザでは、車両の目標地点を変更させるようにする。本実施形態では、先に視線誘導したユーザの車両を優先する。
 また、歩行者端末1では、ITS通信部12により、他の歩行者端末1が送信した移動指示(駐車指示)のメッセージも受信できる。そこで、本実施形態では、他の歩行者端末1から受信した移動指示のメッセージに基づいて、他の歩行者端末1と自装置との視線誘導のタイミングの前後関係を取得して、自装置の優先順位を判定する。
 なお、本実施形態では、ユーザが視線誘導で車両を駐車させる例について説明するが、視線誘導の目標地点は任意の場所としてよい。
 なお、本実施形態では、駐車指示を先に行った歩行者端末1を優先するようにしたが、ユーザの属性に基づいて優先順位を判定するようにしてもよい。
 次に、第4実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成について説明する。図15は、歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図である。
 歩行者端末1の制御部15は、駐車地点変更案内部26を備えている。その他は第1実施形態(図2参照)と同様である。
 駐車地点変更案内部26は、他の歩行者端末1から送信される駐車指示のメッセージを受信すると、そのメッセージに含まれる駐車地点の位置情報に基づいて、他車両の駐車地点と自車両の駐車地点とが一致するか否かを判定する。そして、他車両の駐車地点と自車両の駐車地点とが一致する場合には、他の歩行者端末1と自装置との視線誘導のタイミングの前後関係を取得して、自装置の優先順位を判定する。そして、自装置の優先順位が低い場合には、ユーザに目標地点の変更を案内する動作を行うようにウェアラブル端末2を制御する。
 このとき、他の歩行者端末1による駐車指示のメッセージの前に、自装置で駐車指示のメッセージを既に送信していれば、自装置の優先順位が高いと判定し、自装置で駐車指示のメッセージを送信する前に、他の歩行者端末1による駐車指示のメッセージの既に受信していれば、自装置の優先順位が低いと判定する。
 なお、本実施形態に係るウェアラブル端末2の構成は、第1実施形態(図2参照)と同様である。また、本実施形態に係る車載端末3の構成も、第1実施形態(図4参照)と同様である。
 次に、第4実施形態に係る移動体誘導システムの動作手順について説明する。図16は、移動体誘導システムの動作手順を示すシーケンス図である。
 ウェアラブル端末2では、第1実施形態(図5参照)と同様に、ユーザの位置情報、頭部方位、視線方向、および注視距離を取得する。次に、注視地点取得部54において、ユーザの位置情報、頭部方位、視線方向および注視距離に基づいて、ユーザの注視地点の位置情報を取得する。そして、ユーザが目標位置(注視位置)への移動を指示したことを確認した上で、目標位置情報を歩行者端末1に送信する。
 歩行者端末1では、ウェアラブル端末2から目標位置情報を近距離通信部13で受信すると、駐車地点変更案内部26において、地点変更案内の条件、すなわち、他の歩行者端末1から送信される駐車指示のメッセージを既に受信し、かつ、目標地点が一致するか否かを判定し、地点変更案内の条件に該当する場合には、自装置の優先順位が低いと判定して、ユーザに目標地点の変更を案内する動作を行うようにウェアラブル端末2を制御する。
 この場合、ウェアラブル端末2では、ユーザの位置情報、頭部方位、視線方向、および注視距離を取得する処理、ユーザの注視地点の位置情報を取得する処理、ユーザの目標位置への移動指示を確認する処理を繰り返し、別の目標地点を指定した目標地点情報を歩行者端末1に送信する。
 歩行者端末1では、ウェアラブル端末2から目標位置情報を近距離通信部13で受信すると、駐車地点変更案内部26において、地点変更案内の条件に該当するか否かを判定し、地点変更案内の条件に該当しない場合には、メッセージ制御部21において、移動指示のメッセージを生成してITS通信部12から車載端末3に送信する。以降は、第1実施形態(図5参照)と同様である。
 なお、本実施形態では、先に視線誘導したユーザの車両を優先する場合について説明したが、本開示はこれに限定されることなく、他のユーザの車両を優先してもよい。例えば、高齢者や体の不自由な人が乗っている車両、初心者マークの車両、運転が不得意な人の車両、病人が乗っている車両などを優先してもよい。また、病院などにおいては、乗っている人の病状に応じて、車両の優先度を設定してもよい。
(第5実施形態)
 次に、第5実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図17は、第5実施形態に係る視線誘導システムの全体構成図である。
 前記の実施形態では、ユーザが視線で駐車スペース(駐車予定地点)を指示してその駐車スペースに車両(自動運転車両)を誘導するようにしたが、本実施形態では、ドローン(自律飛行可能な移動体)を視線で誘導する。
 この視線誘導システムは、ドローン搭載端末6と、飛行制御ユニット7(移動制御装置、飛行制御装置)と、を備えている。このドローン搭載端末6および飛行制御ユニット7は、ドローンに搭載される。
 ドローン搭載端末6は、ITS通信により歩行者端末1、他のドローン搭載端末6、車両に搭載された車載端末3との間で、位置情報などを含むメッセージを送受信して、歩行者や他のドローンや車両と自装置との衝突の危険性を判定する。
 飛行制御ユニット7は、ドローン搭載端末6から出力される制御情報に基づいて、ドローンの自動飛行(自律飛行)を実行する。
 次に、第5実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成について説明する。図18は、歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図である。
 歩行者端末1の構成は、第3実施形態(図12参照)と同様であるが、ITS通信部12は、ドローン搭載端末6との間でITS通信によりメッセージを送受信する。
 ウェアラブル端末2の構成は、第3実施形態(図12参照)と同様であるが、注視地点取得部54は、ユーザの注視点の3次元位置情報(緯度、経度、高度)を取得する。このとき、ユーザの頭部方位および視線方向に基づいて、ユーザが注視する点(注視点)の方位(注視方位)を算出する。この注視方位は3次元方位(方位角、仰角)である。そして、この注視方位と、注視距離と、ユーザの位置情報とに基づいて、ユーザの注視点の位置情報(緯度、経度、高度)を取得する。
 次に、第5実施形態に係るドローン搭載端末6の概略構成について説明する。図19は、ドローン搭載端末6の概略構成を示すブロック図である。
 ドローン搭載端末6の構成は、車載端末3(図8参照)と同様であるが、入出力部63は、ドローンに搭載された飛行制御ユニット7との間で制御情報を入出力する。飛行制御ユニット7は、ジャイロセンサおよび加速度センサと接続され、ジャイロセンサおよび加速度センサの検出結果に基づいて、ドローンの自動飛行(自律飛行)を実行する。
 次に、第5実施形態に係る移動体誘導システムの動作手順について説明する。図20は、移動体誘導システムの動作手順を示すシーケンス図である。
 ウェアラブル端末2では、第1実施形態(図2参照)と同様に、ユーザの位置情報、頭部方位、視線方向、および注視距離を取得する。次に、注視地点取得部54において、ユーザの位置情報、頭部方位、視線方向および注視距離に基づいて、ユーザの注視点の3次元位置情報(緯度、経度、高度)を取得する。そして、ユーザが目標位置(注視位置)への移動を指示したことを確認した上で、目標位置情報を歩行者端末1に送信する。
 歩行者端末1では、ウェアラブル端末2から目標位置情報を近距離通信部13で受信すると、メッセージ制御部21において、移動指示のメッセージを生成してITS通信部12からドローン搭載端末6に送信する。このメッセージには、送信元の歩行者端末1の端末IDと、ユーザの位置情報(緯度、経度)および頭部方位情報と、目標点の位置情報(緯度、経度)とが含まれる。
 ドローン搭載端末6では、測位部61において、自装置の位置情報を取得する。そして、歩行者端末1からの移動指示のメッセージをITS通信部62で受信すると、ユーザ判定部73において、自装置に対して移動を指示するユーザが、自装置の使用が許可された正規のユーザであるか否かを判定する。
 次に、ドローン搭載端末6では、ユーザ判定部73において、自装置に対して移動を指示するユーザが正規のユーザであると判定されると、移動指示部75において、目標位置に自装置を移動させる制御情報を飛行制御ユニット7に出力する。この制御情報には、目標点の位置情報や自装置の位置情報が含まれる。
 飛行制御ユニット7では、ドローン搭載端末6から入力される制御情報に基づいて、自装置を目標点に移動するように、ロータ駆動部93を制御する。
 なお、不慮の事態などによりユーザがドローンを急遽着陸させたい場合も考えられる。この場合、ユーザは、例えば、瞬きを行うなどにより、ドローンを着陸させてもよい。また、ユーザが瞬きを複数回数行うことを、ドローンを着陸させる合図としてもよい。更に、ドローンをもとの場所に戻すことも可能である。この場合、例えば、ユーザが瞬きを2回行ったら着陸、3回行ったら元の場所に戻すという合図に設定することも可能である。
 また、本開示は、ドローン以外の他のロボットにも同様に適用可能である。ユーザは、例えば、掃除ロボットに対し、掃除を行う場所を目視で指示することも可能である。
(第6実施形態)
 次に、第6実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図21は、第6実施形態に係る視線誘導システムの全体構成図である。
 前記の実施形態では、ユーザが視線で駐車スペース(駐車予定地点)を指示してその駐車スペースに自車両を誘導するようにしたが、ユーザが指示した駐車スペースが自車両の車体サイズより小さいなどの理由で、その駐車スペースに自車両が駐車できない場合がある。そこで、本実施形態では、ユーザが指示した駐車スペースに自車両が駐車できるか否かを判定し、ユーザが指示した駐車スペースに自車両が駐車できない場合には、別の駐車スペースに変更する。
 ここで、ユーザが指示した駐車スペースが自車両の車体サイズに対応していない、すなわち、その駐車スペースが自車両の車体サイズより小さい場合に、駐車スペースに自車両が駐車できないと判定する。また、駐車スペースが駐車禁止状態となっている場合に、その駐車スペースに自車両が駐車できないと判定する。また、駐車スペースが既に他の車両が駐車済の場合に、その駐車スペースに自車両が駐車できないと判定する。
 また、本実施形態では、ダイナミックマップ(統合型地図情報)に基づいて、ユーザが指示した駐車スペースに自車両が駐車できるか否かを判定する。このダイナミックマップは、ダイナミックマップ管理サーバから路側機8を介して車載端末3に配信される。
 なお、ダイナミックマップでは、各種の情報が、情報の更新頻度に応じて階層化されて登録される。具体的には、静的情報と準静的情報と準動的情報と動的情報との4つの階層がある。静的情報は、例えば1ヶ月程度の間隔で更新される情報であり、例えば路面情報、車線情報および3次元構造物に関する情報などが含まれる。準静的情報は、例えば1時間程度の間隔で更新される情報であり、例えば交通規制情報、道路工事情報および広域気象情報などが含まれる。準動的情報は、例えば1分間程度の間隔で更新される情報であり、例えば事故情報、渋滞情報および狭域気象情報などが含まれる。動的情報は、例えば1秒間程度の間隔で更新される情報であり、例えば周辺車両情報、歩行者情報および信号情報などITSの先読み情報などが含まれる。このダイナミックマップは、自動運転(自律走行、運転支援)において、車両を安全かつ迅速に目標地点まで移動させるために利用される。また、目標地点に誤差がある場合には、ダイナミックマップに基づいて目標地点が修正される。
 本実施形態では、車両が駐車できるか否かに関する情報(駐車可能性情報)が、例えば準静的情報としてダイナミックマップに登録される。この駐車可能性情報には、駐車中の車両があるか否かに関する情報(駐車空き情報)と、駐車スペースの大きさに関する情報(駐車スペースサイズ情報)と、駐車禁止の規制があるか否かに関する情報(駐車禁止情報)と、が含まれる。
 次に、第6実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成について説明する。図22は、歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図である。
 ウェアラブル端末2の制御部43は、地点変更提示部57を備えている。その他は第1実施形態(図2参照)と同様である。また、歩行者端末1は、第1実施形態と同様である。
 地点変更提示部57は、車載端末3から地点変更のメッセージを受信した場合に、駐車地点が変更されたことと新たな駐車地点の位置とをユーザに提示する動作を行うようにウェアラブル端末2を制御する。
 次に、第6実施形態に係る車載端末3の概略構成について説明する。図23は、車載端末3の概略構成を示すブロック図である。
 車載端末3の制御部65は、ダイナミックマップ確認部76と、駐車可否判定部77と、駐車地点設定部78と、を備えている。また、記憶部64は、ダイナミックマップ情報を記憶する。その他は第1実施形態(図2参照)と同様である。
 ダイナミックマップ確認部76は、歩行者端末1から受信したメッセージに含まれる駐車予定地点の位置情報に基づいて、記憶部64に記憶されたダイナミックマップ情報から、駐車予定地点に関する駐車可能性情報を取得する。
 駐車可否判定部77は、ダイナミックマップ確認部76で取得した駐車予定地点に関する駐車可能性情報に基づいて、駐車予定地点に自車両が駐車できるか否かを判定する。
 駐車地点設定部78は、駐車可否判定部77において、駐車予定地点に自車両が駐車できないと判定された場合に、所定の選択基準に基づいて、自車両が駐車する駐車スペースを選択して、その駐車スペースに駐車地点を変更する。この駐車地点設定部78において、駐車予定地点が変更されると、メッセージ制御部71において、地点変更のメッセージ(地点変更通知)を生成して歩行者端末1に送信する。
 このとき、元の駐車予定地点からの距離を選択基準として、元の駐車地点に最も近い駐車スペースを選択すればよい。また、ユーザにとって利便性が高いと想定される駐車スペース、例えば、店舗の出入口に最も近い駐車スペースや、日陰となる駐車スペースや、駐車場の出入口に最も近い駐車スペースを選択するようにしてもよい。
 次に、第6実施形態に係る視線誘導システムの動作手順について説明する。図24は、視線誘導システムの動作手順を示すシーケンス図である。
 ウェアラブル端末2では、第1実施形態(図5参照)と同様に、ユーザの位置情報、頭部方位、視線方向、および注視距離を取得して、それらの情報に基づいて、ユーザの注視地点の位置情報を取得する。そして、ユーザが駐車予定地点(注視地点)への駐車を指示したことを確認した上で、駐車予定地点情報を歩行者端末1に送信する。
 歩行者端末1では、第1実施形態と同様に、ウェアラブル端末2から駐車予定地点情報を受信すると、駐車指示のメッセージを車載端末3に送信する。
 車載端末3では、歩行者端末1からの駐車指示のメッセージをITS通信部62で受信すると、ダイナミックマップ確認部76において、受信したメッセージに含まれる駐車予定地点の位置情報に基づいて、記憶部64に記憶されたダイナミックマップ情報から、駐車予定地点に関する駐車可能性情報を取得する。
 次に、車載端末3では、駐車可否判定部77において、ダイナミックマップ確認部76で取得した駐車予定地点に関する可能性情報に基づいて、駐車予定地点に自車両が駐車できるか否かを判定する。
 次に、車載端末3では、駐車可否判定部77において、駐車予定地点に自車両が駐車できると判定されると、ユーザ判定部73において、自車両に対して駐車を指示するユーザが正規のユーザであるか否かを判定する。以降は、第1実施形態(図5参照)と同様である。
 また、車載端末3では、駐車可否判定部77において、駐車予定地点に自車両が駐車できないと判定されると、駐車地点設定部78において、所定の選択基準に基づいて、自車両が駐車する駐車スペースを選択して、その駐車スペースに駐車予定地点を変更する。
 次に、車載端末3では、メッセージ制御部71において、地点変更のメッセージを歩行者端末1に送信する。
 歩行者端末1では、車載端末3から地点変更のメッセージを受信すると、地点変更提示部において、駐車地点が変更されたことと新たな駐車地点の位置とをユーザに提示する動作を行うようにウェアラブル端末2を制御する。
 次に、車載端末3の駐車地点設定部78で行われる処理について説明する。図25、図26は、車載端末3の駐車地点設定部78で行われる処理の概要を示す説明図である。
 車載端末3の駐車地点設定部78では、駐車予定地点に自車両が駐車できない場合に、所定の選択基準に基づいて、自車両が駐車する駐車スペースを選択して、その駐車スペースに駐車地点を変更する。また、駐車地点設定部78では、ユーザが指示した駐車予定地点に基づいて1つの駐車スペースを設定することができない場合に、以下に示すような制御が行われる。
 図26に示す例では、ユーザから見て同一方向に複数の駐車スペースがある場合である。この場合、ユーザが指示した駐車地点に該当する駐車スペースが複数存在する状態となる場合がある。このような場合には、車載端末3の駐車地点設定部78において、所定の選択基準に基づいて、1つの駐車スペースを駐車予定地点として設定する。
 この場合、例えば、ユーザに最も近い駐車スペースを目標地点として設定するとよい。
 図27に示す例では、測位誤差により誤った駐車地点が指示される場合がある。例えば、ユーザが指示した駐車地点に該当する駐車スペースが駐車状態となり、その隣の駐車スペースが空き状態となる場合がある。このような場合には、車載端末3の駐車地点設定部78において、所定の選択基準に基づいて、自車両が駐車可能な1つの駐車スペースを駐車予定地点として設定する。
 この場合、例えば、ユーザが指示した駐車地点の周辺の空き状態である駐車スペースの中から、ユーザが指示した駐車地点に最も近い駐車スペースを駐車予定地点(目標地点)に設定するとよい。
(第7実施形態)
 次に、第7実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。
 第6実施形態では、所定の選択基準で駐車スペースを選択して、その駐車スペースに変更するようにしたが、選択した駐車スペースが適切でない場合がある。そこで、本実施形態では、所定の選択基準で新たな駐車予定地点を選択し、その新たな駐車予定地点を候補地点としてユーザに提示し、その候補地点をユーザが承認した場合には、その候補地点に駐車予定地点を変更する。また、選択基準を満たす候補地点が複数見つかった場合には、その複数の候補地点をユーザに提示して、その複数の候補地点の中から1つの候補地点をユーザに選択させる。また、候補地点をユーザが承認しない場合には、視線による駐車地点の指示をユーザに再度行わせる。
 次に、第7実施形態に係る歩行者端末1およびウェアラブル端末2の概略構成について説明する。図27は、歩行者端末1およびウェアラブル端末2の概略構成を示すブロック図である。
 ウェアラブル端末2の制御部43は、候補地点提示部58を備えている。その他は第1実施形態(図2参照)と同様である。また、歩行者端末1は、第1実施形態と同様である。
 候補地点提示部58は、車載端末3から地点変更のメッセージを受信した場合に、駐車地点が変更されたことと新たな駐車地点の位置とをユーザに提示する動作を行うようにウェアラブル端末2を制御する。また、候補地点提示部58は、ユーザの動作に応じて、候補地点の承認結果および選択結果に関する情報(候補承認選択情報)を取得する。
 車載端末3の構成は、第6実施形態(図23参照)と同様である。
 車載端末3の駐車地点設定部78は、駐車可否判定部77において、駐車予定地点に自車両が駐車できないと判定された場合に、所定の選択基準に基づいて、自車両が駐車できる駐車スペースを候補地点として選択して、その候補地点をユーザに提示して、ユーザが承認した場合に、その候補地点に駐車地点を変更する。
 次に、第7実施形態に係る視線誘導システムの動作手順について説明する。図28は、視線誘導システムの動作手順を示すシーケンス図である。
 ウェアラブル端末2では、第1実施形態(図5参照)と同様に、ユーザの位置情報、頭部方位、視線方向、および注視距離を取得して、それらの情報に基づいて、ユーザの注視地点の位置情報を取得する。そして、ユーザが駐車予定地点(注視地点)への駐車を指示したことを確認した上で、駐車予定地点情報を歩行者端末1に送信する。
 歩行者端末1では、第1実施形態と同様に、ウェアラブル端末2から駐車予定地点情報を受信すると、駐車指示のメッセージを車載端末3に送信する。
 車載端末3では、歩行者端末1からの駐車指示のメッセージをITS通信部62で受信すると、ダイナミックマップ確認部76において、受信したメッセージに含まれる駐車予定地点の位置情報に基づいて、記憶部64に記憶されたダイナミックマップ情報から、駐車予定地点に関する駐車可能性情報を取得する。
 次に、車載端末3では、駐車可否判定部77において、ダイナミックマップ確認部76で取得した駐車予定地点に関する駐車可能性情報に基づいて、駐車予定地点に自車両が駐車できるか否かを判定する。
 次に、車載端末3では、駐車可否判定部77において、駐車予定地点に自車両が駐車できないと判定されると、駐車地点設定部78において、所定の選択基準に基づいて、自車両が駐車できる駐車スペースを候補地点として選択する。例えば、駐車予定地点に最も近い駐車スペースを候補地点として選択する。
 次に、車載端末3では、地点変更確認のメッセージを歩行者端末1に送信する。このメッセージには、送信先の歩行者端末1の端末IDと、送信元の車載端末3の端末IDと、候補地点に関する情報とが含まれる。
 歩行者端末1では、車載端末3からの地点変更確認のメッセージを受信すると、そのメッセージで通知された候補地点をユーザに提示する候補提示動作を行うようにウェアラブル端末2を制御する。このとき、候補地点が1つしかない場合には、その候補地点に変更するか否かを問い合わせ、候補地点が複数ある場合には、その複数の候補地点の中から1つの候補地点を選択させるか、いずれの候補地点も承認しないかの操作を行わせる。
 ここで、提示した候補地点をユーザが承認しない場合、視線による駐車地点の指示をユーザが再度行い、ユーザの位置情報、頭部方位、視線方向、および注視距離を取得する処理に戻る。一方、提示した1つの候補地点をユーザが承認した場合や、提示した複数の候補地点の中から1つの候補地点をユーザが選択した場合には、地点変更応答のメッセージを車載端末3に送信する。このメッセージには、送信先の車載端末3の端末IDと、送信元の歩行者端末1の端末IDと、ユーザが承認選択した候補地点に関する情報とが含まれる。
 車載端末3では、歩行者端末1からの地点変更応答のメッセージを受信すると、ユーザ判定部73において、自車両に対して駐車を指示するユーザが正規のユーザであるか否かを判定する。以降は、第1実施形態(図5参照)と同様である。
(第8実施形態)
 次に、第8実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図29は、第8実施形態に係る視線誘導システムの全体構成図である。
 第6実施形態では、管理サーバから提供されるダイナミックマップに基づいて、ユーザが指示した駐車地点に自車両が駐車できるか否かを判定するようにしたが、本実施形態では、レーダーを備えた路側機8(路側装置)、いわゆるインフラレーダーで収集された情報に基づいて、ユーザが指示した駐車地点に自車両が駐車できるか否かを判定する。これにより、判定に必要な情報をリアルタイムで取得することができる。
 次に、第8実施形態に係る車載端末3および路側機8の概略構成について説明する。図30は、車載端末3および路側機8の概略構成を示すブロック図である。
 車載端末3の制御部65は、路側機確認部79を備えている。その他は第6実施形態(図23参照)と同様である。
 路側機確認部79は、駐車地点における駐車可能性を路側機8に問い合わせて、駐車地点に車両が駐車できるか否かに関する情報(駐車可能性情報)を取得する。
 なお、歩行者端末1およびウェアラブル端末2の構成は第6実施形態(図22参照)と同様である。
 路側機8は、レーダー101(物体検出部)と、ITS通信部102(路車間通信部)と、記憶部103と、制御部104と、を備えている。
 レーダー101は、電波を放射してその反射波を検出することにより、自装置の周辺の道路上に存在する物体(歩行者、車両などの移動体を含む)を検知して、物体が存在する方向、および物体までの距離を測定する。なお、レーダー101は、ミリ波レーダー、レーザーレーダーなど、特に限定されない。
 ITS通信部102は、車載端末3との間でITS通信(路車間通信)によりメッセージを送受信する。
 記憶部103は、地図情報や、自装置の位置情報や、制御部104を構成するプロセッサで実行されるプログラムなどを記憶する。
 制御部104は、メッセージ制御部105と、移動体検知部106と、駐車可能性判定部107と、を備えている。この制御部104は、プロセッサで構成され、制御部104の各部は、記憶部103に記憶されたプログラムをプロセッサで実行することで実現される。
 メッセージ制御部105は、車載端末3との間でのメッセージの送受信を制御する。
 移動体検知部106は、レーダー101の検出結果に基づいて、自装置の周辺の道路上に存在する移動体(歩行者および車両)を検知する。
 駐車可能性判定部107は、移動体検知部106の検知結果と、記憶部103に記憶した地図情報とに基づいて、各地点に車両が駐車できるか否かを判定して、その判定結果に関する情報(駐車可能性情報)を取得する。この駐車可能性情報には、駐車中の車両があるか否かに関する情報(駐車空き情報)と、駐車スペースの大きさに関する情報(駐車スペースサイズ情報)と、が含まれる。
 なお、路側機8は、交通情報などの各種の情報を歩行者端末1や車載端末3に配信するものである。また、本実施形態では、レーダー101により道路上の物体(歩行者や車両などの移動体を含む)を検知して、物体の位置情報を取得するが、道路上の物体を検出する物体検出部は、レーダーに限定されるものではなく、例えばステレオカメラであってもよく、ステレオカメラで撮影された画像から道路上の物体を検知することができる。
 次に、第8実施形態に係る視線誘導システムの動作手順について説明する。図31は、視線誘導システムの動作手順を示すシーケンス図である。
 ウェアラブル端末2では、第1実施形態(図5参照)と同様に、ユーザの位置情報、頭部方位、視線方向、および注視距離を取得して、それらの情報に基づいて、ユーザの注視地点の位置情報を取得する。そして、ユーザが駐車予定地点(注視地点)への駐車を指示したことを確認した上で、駐車予定地点情報を歩行者端末1に送信する。
 歩行者端末1では、第1実施形態と同様に、ウェアラブル端末2から駐車予定地点情報を受信すると、駐車指示のメッセージを車載端末3に送信する。このメッセージには、送信元の歩行者端末1の端末IDと、ユーザの位置情報(緯度、経度)および頭部方位情報と、駐車地点の位置情報(緯度、経度)とが含まれる。
 車載端末3では、歩行者端末1からの駐車指示のメッセージをITS通信部62で受信すると、路側機確認部79において、駐車地点における駐車可能性を路側機8に問い合わせて、駐車地点に車両が駐車できるか否かに関する情報(駐車可能性情報)を取得する。このとき、まず、メッセージ制御部71において、駐車可能性確認のメッセージをITS通信部62から路側機8に送信する。このメッセージには、送信元の車載端末3の端末IDと、駐車地点の位置情報(緯度、経度)とが含まれる。
 路側機8では、車載端末3からの駐車可能性確認のメッセージをITS通信部102で受信すると、駐車可能性判定部107において、駐車地点に関する駐車可能性を判定して、駐車可能性情報を取得する。
 次に、路側機8では、メッセージ制御部105において、応答のメッセージを生成してITS通信部102から車載端末3に送信する。このメッセージには、駐車可能性情報(駐車空き情報、駐車スペースサイズ情報)が含まれる。
 車載端末3では、路側機8からの応答のメッセージをITS通信部62で受信すると、路側機確認部79において、受信したメッセージに含まれる駐車可能性情報を取得する。そして、駐車可否判定部77において、車可能性情報に基づいて、駐車予定地点に自車両が駐車できるか否かを判定する。以降は、第6実施形態(図24参照)と同様である。
 以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
 なお、本実施形態においては、車両の場合について説明したが、本開示は、自動二輪、電動車椅子、シニアカーなどに対しても同様に適用可能である。
 本開示に係る歩行者装置、車載装置、移動体誘導システムおよび移動体誘導方法は、自律移動可能な移動体をユーザの視線誘導で所要の位置に移動させることができ、特に、安全運転支援無線システムで使用される装置を用いることでコストを抑制することができる効果を有し、歩行者が所持する歩行者装置、車両に搭載される車載装置、自律移動可能な移動体をユーザの動作に応じて誘導する移動体誘導システムおよび移動体誘導方法などとして有用である。
1 歩行者端末(歩行者装置)
2 ウェアラブル端末(ウェアラブル装置)
3 車載端末(端末装置、車載装置)
4 自動運転ECU(移動制御装置、走行制御装置)
5 カーナビゲーション(経路案内装置)
6 ドローン搭載端末(端末装置)
7 飛行制御ユニット(移動制御装置、飛行制御装置)
8 路側機(路側装置)
11 測位部
12 ITS通信部
13 近距離通信部
14 記憶部
15 制御部
31 測位部
32 方位センサ
33 視線センサ
34 測距センサ
35 モーションセンサ
36 マイク
37 カメラ
38 バイブレータ
39 スピーカ
40 ディスプレイ
41 近距離通信部
42 記憶部
43 制御部
61 測位部
62 ITS通信部
63 入出力部
64 記憶部
65 制御部

Claims (18)

  1.  自律移動可能な移動体のユーザである歩行者が所持する歩行者装置であって、
     移動体に搭載された端末装置との間で情報を送受信する通信部と、
     前記端末装置との間で送受信した情報に基づいて衝突の危険性を判定して、歩行者に対する注意喚起を制御する制御部と、
    を備え、
     前記制御部は、
     ユーザが注視する注視地点の位置情報を目標地点の位置情報として取得し、
     その目標地点の位置情報を前記通信部から、ユーザが使用する移動体に搭載された前記端末装置に送信して、前記移動体を目標地点に移動させる制御を前記端末装置に行わせることを特徴とする歩行者装置。
  2.  ユーザの身体に装着されてユーザの注視状態を検出するウェアラブル装置との間で近距離通信を行う近距離通信部を備え、
     前記制御部は、
     前記ウェアラブル装置から前記注視地点の位置情報を取得することを特徴とする請求項1に記載の歩行者装置。
  3.  前記制御部は、
     前記注視地点の位置情報を駐車予定地点の位置情報として取得し、
     その駐車予定地点の位置情報を前記通信部から、前記移動体としての自律走行可能な車両に搭載された前記端末装置に送信して、車両を駐車予定地点に駐車させる制御を前記端末装置に行わせることを特徴とする請求項1に記載の歩行者装置。
  4.  前記制御部は、
     ユーザが前記移動体に搭乗しているか否かを判定し、
     ユーザが前記移動体に搭乗している場合には、前記端末装置から送信される移動体の位置情報をユーザの位置情報として取得することを特徴とする請求項1に記載の歩行者装置。
  5.  前記制御部は、
     ユーザが注視する注視点の3次元測定情報に基づいて、目標地点の2次元位置情報を取得し、
     前記目標地点の2次元位置情報を前記通信部から前記端末装置に送信して、前記移動体を目標地点に移動させる制御を前記端末装置に行わせることを特徴とする請求項1に記載の歩行者装置。
  6.  前記通信部は、
     他の歩行者装置との間で通信を行い、
     前記制御部は、
     前記他の歩行者装置から送信される目標地点の位置情報を受信し、かつ、その目標地点が自装置の目標地点と一致する場合には、自装置の優先順位が高いか否かを判定し、
     自装置の優先順位が低い場合には、目標地点を変更するようにユーザを案内する制御を行うことを特徴とする請求項1に記載の歩行者装置。
  7.  前記制御部は、
     ユーザが注視する注視点の3次元位置情報を目標点の3次元位置情報として取得し、
     前記目標点の3次元位置情報を前記通信部から、自律飛行可能な移動体に搭載された前記端末装置に送信して、移動体を目標点に移動させる制御を前記端末装置に行わせることを特徴とする請求項1に記載の歩行者装置。
  8.  前記制御部は、
     前記駐車予定地点に駐車可能な駐車スペースがないために選択された新たな駐車予定地点に関する地点変更通知を前記端末装置から受信すると、前記新たな駐車予定地点をユーザに提示することを特徴とする請求項3に記載の歩行者装置。
  9.  前記制御部は、
     前記新たな駐車予定地点をユーザに提示した際に、ユーザの動作に応じて、前記新たな駐車予定地点に関するユーザの承認結果または選択結果に関する情報を取得し、その情報を前記端末装置に送信することを特徴とする請求項8に記載の歩行者装置。
  10.  自律走行可能な車両に搭載される車載装置であって、
     歩行者装置との間で情報を送受信する通信部と、
     前記歩行者装置との間で送受信した情報に基づいて衝突の危険性を判定して、衝突を回避する制御を走行制御装置に行わせる制御部と、
    を備え、
     前記制御部は、
     車両のユーザが注視する注視地点の位置情報を目標地点の位置情報として、ユーザが所持する前記歩行者装置から受信すると、その目標地点の位置情報に基づいて、目標地点に自車両を移動するように前記走行制御装置に制御することを特徴とする車載装置。
  11.  前記制御部は、
     前記目標地点である駐車予定地点の位置情報を受信すると、その駐車予定地点の位置情報に基づいて、駐車予定地点に自車両を駐車するように前記走行制御装置を制御することを特徴とする請求項10に記載の車載装置。
  12.  さらに、統合型地図情報を記憶する記憶部を備え、
     前記制御部は、
     前記統合型地図情報に登録された駐車可能性情報に基づいて、前記目標地点である駐車予定地点に自車両が駐車可能な否かを判定することを特徴とする請求項10に記載の車載装置。
  13.  前記通信部は、
     道路上の移動体を検出する物体検出部を備えた路側装置と通信を行い、
     前記制御部は、
     前記路側装置から受信した駐車可能性情報に基づいて、前記駐車予定地点に自車両が駐車可能な否かを判定することを特徴とする請求項10に記載の車載装置。
  14.  前記制御部は、
     前記駐車予定地点に該当し、かつ自車両が駐車可能な駐車スペースが複数ある場合には、所定の選択基準に基づいて、1つの駐車スペースを駐車予定地点として設定することを特徴とする請求項10に記載の車載装置。
  15.  前記制御部は、
     前記駐車予定地点に該当し、かつ自車両が駐車可能な駐車スペースがない場合には、所定の選択基準に基づいて、自車両が駐車可能な1つの駐車スペースを駐車予定地点として設定することを特徴とする請求項10に記載の車載装置。
  16.  前記制御部は、
     前記駐車予定地点に該当し、かつ自車両が駐車可能な駐車スペースがない場合には、所定の選択基準に基づいて、自車両が駐車可能な駐車スペースを新たな駐車予定地点として選択して、その新たな駐車予定地点に関する地点変更通知を前記歩行者装置に送信することを特徴とする請求項10に記載の車載装置。
  17.  自律移動可能な移動体をユーザの動作に応じて誘導する移動体誘導システムであって、
     自律移動可能な移動体のユーザである歩行者が所持する歩行者装置と、
     前記移動体に搭載された端末装置と、
    を備え、
     前記歩行者装置は、
     前記端末装置との間で情報を送受信する通信部と、
     前記端末装置との間で送受信した情報に基づいて衝突の危険性を判定して、歩行者に対する注意喚起を制御する制御部と、
    を備え、
     前記制御部は、
     ユーザが注視する注視地点の位置情報を目標地点の位置情報として取得し、
     前記目標地点の位置情報を前記通信部から前記端末装置に送信し、
     前記端末装置は、
     前記歩行者装置との間で情報を送受信する通信部と、
     前記歩行者装置との間で送受信した情報に基づいて衝突の危険性を判定して、衝突を回避する制御を移動制御装置に行わせる制御部と、
    を備え、
     前記制御部は、
     前記目標地点の位置情報を前記通信部により前記歩行者装置から受信すると、その目標地点の位置情報に基づいて、目標地点に自装置を移動するように前記移動制御装置を制御することを特徴とする移動体誘導システム。
  18.  自律移動可能な移動体をユーザの動作に応じて誘導する移動体誘導方法であって、
     歩行者が所持し、前記移動体に搭載された端末装置との間で情報を送受信して衝突の危険性を判定して、歩行者に対する注意喚起を行う歩行者装置が、
     歩行者としての前記移動体のユーザが注視する注視地点の位置情報を目標地点の位置情報として取得し、
     前記目標地点の位置情報を前記端末装置に送信し、
     前記歩行者装置との間で情報を送受信して衝突の危険性を判定して、衝突を回避する制御を走行制御装置に行わせる前記端末装置が、
     前記目標地点の位置情報を前記歩行者装置から受信すると、その目標地点の位置情報に基づいて、目標地点に自装置を移動するように移動制御装置に制御することを特徴とする移動体誘導方法。
PCT/JP2019/035228 2018-09-14 2019-09-06 歩行者装置、車載装置、移動体誘導システムおよび移動体誘導方法 WO2020054625A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/275,483 US11790783B2 (en) 2018-09-14 2019-09-06 Pedestrian device, vehicle-mounted device, mobile body guidance system, and mobile body guidance method
CN201980059902.3A CN112714929B (zh) 2018-09-14 2019-09-06 步行者装置、车载装置、移动体引导系统以及移动体引导方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018172656A JP7216507B2 (ja) 2018-09-14 2018-09-14 歩行者装置、移動体誘導システムおよび移動体誘導方法
JP2018-172656 2018-09-14

Publications (1)

Publication Number Publication Date
WO2020054625A1 true WO2020054625A1 (ja) 2020-03-19

Family

ID=69778310

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/035228 WO2020054625A1 (ja) 2018-09-14 2019-09-06 歩行者装置、車載装置、移動体誘導システムおよび移動体誘導方法

Country Status (4)

Country Link
US (1) US11790783B2 (ja)
JP (1) JP7216507B2 (ja)
CN (1) CN112714929B (ja)
WO (1) WO2020054625A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021174467A (ja) * 2020-04-30 2021-11-01 トヨタ自動車株式会社 情報処理装置
US11887480B2 (en) * 2020-08-13 2024-01-30 Harman International Industries, Incorporated Context aware safety alerts
CN116767083A (zh) * 2022-03-09 2023-09-19 北京车和家汽车科技有限公司 车辆报警方法及其装置
WO2023182137A1 (ja) * 2022-03-25 2023-09-28 株式会社小糸製作所 灯具システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007058325A1 (ja) * 2005-11-17 2007-05-24 Aisin Seiki Kabushiki Kaisha 駐車支援装置及び駐車支援方法
JP2016122308A (ja) * 2014-12-25 2016-07-07 クラリオン株式会社 車両制御装置
JP2016157281A (ja) * 2015-02-25 2016-09-01 本田技研工業株式会社 光通信システム及びプログラム
JP2017007399A (ja) * 2015-06-17 2017-01-12 日産自動車株式会社 駐車支援装置及び方法
WO2017213070A1 (ja) * 2016-06-07 2017-12-14 ソニー株式会社 情報処理装置および方法、並びに記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010188897A (ja) 2009-02-19 2010-09-02 Panasonic Corp 透過型表示装置
JP2012071677A (ja) * 2010-09-28 2012-04-12 Fuji Heavy Ind Ltd 車両の運転支援装置
JP6337646B2 (ja) * 2014-06-26 2018-06-06 株式会社Jvcケンウッド 車載映像システム、映像転送システム、映像転送方法及び映像転送プログラム
US9557741B1 (en) * 2015-08-24 2017-01-31 Ford Global Technologies, Llc System and method for autonomous valet parking using plenoptic cameras
CN108349503B (zh) 2015-10-30 2022-08-02 三菱电机株式会社 驾驶辅助装置
WO2018092231A1 (ja) * 2016-11-17 2018-05-24 三菱電機株式会社 車載装置、携帯端末装置、認識支援システム、認識支援方法、及び認識支援プログラム
CN107289958A (zh) * 2017-06-01 2017-10-24 北京嘀嘀无限科技发展有限公司 路线规划方法、装置、服务器、客户端、计算机存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007058325A1 (ja) * 2005-11-17 2007-05-24 Aisin Seiki Kabushiki Kaisha 駐車支援装置及び駐車支援方法
JP2016122308A (ja) * 2014-12-25 2016-07-07 クラリオン株式会社 車両制御装置
JP2016157281A (ja) * 2015-02-25 2016-09-01 本田技研工業株式会社 光通信システム及びプログラム
JP2017007399A (ja) * 2015-06-17 2017-01-12 日産自動車株式会社 駐車支援装置及び方法
WO2017213070A1 (ja) * 2016-06-07 2017-12-14 ソニー株式会社 情報処理装置および方法、並びに記録媒体

Also Published As

Publication number Publication date
JP2020046742A (ja) 2020-03-26
CN112714929A (zh) 2021-04-27
US20220020273A1 (en) 2022-01-20
JP7216507B2 (ja) 2023-02-01
US11790783B2 (en) 2023-10-17
CN112714929B (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
WO2020054625A1 (ja) 歩行者装置、車載装置、移動体誘導システムおよび移動体誘導方法
US11046332B2 (en) Vehicle control device, vehicle control system, vehicle control method, and storage medium
JP6650386B2 (ja) 遠隔運転制御装置、車両制御システム、遠隔運転制御方法、および遠隔運転制御プログラム
US11364930B2 (en) Vehicle control system, vehicle control method and program
CN108973993B (zh) 车辆控制系统、车辆控制方法及存储介质
CN108973682B (zh) 车辆控制系统、车辆控制方法及存储介质
US20190265710A1 (en) Vehicle control device, vehicle control system, vehicle control method, and vehicle control program
US20170031364A1 (en) Navigation device for autonomously driving vehicle
CN108973988B (zh) 车辆控制系统、车辆控制方法及存储介质
US11203360B2 (en) Vehicle control system, vehicle control method and program
US10657822B2 (en) Vehicle control device
KR101762494B1 (ko) 드론, 경로안내 드론 세트 및 드론을 이용한 경로안내 방법
US11565713B2 (en) Vehicle control system, vehicle control method, and vehicle control program
WO2019098002A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
CN108973989B (zh) 车辆控制系统、车辆控制方法及存储介质
US20220080826A1 (en) Information processing apparatus, information processing method, and mobile body apparatus
JP2019079363A (ja) 車両制御装置
US20200357284A1 (en) Information processing apparatus and information processing method
US20220315001A1 (en) Driving assistance device, driving assistance method, and storage medium
WO2018179277A1 (ja) 車両制御システム、サーバ装置、車両制御方法、および車両制御プログラム
JP2023150579A (ja) 制御装置、制御方法、およびプログラム
JP2023006734A (ja) 車両走行制御装置及び車両走行制御方法
JP2021095078A (ja) 車線変更決定装置
US20220297727A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7236897B2 (ja) 運転支援方法及び運転支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19860652

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19860652

Country of ref document: EP

Kind code of ref document: A1