WO2018087879A1 - 遠隔操作システム、交通システム、および遠隔操作方法 - Google Patents

遠隔操作システム、交通システム、および遠隔操作方法 Download PDF

Info

Publication number
WO2018087879A1
WO2018087879A1 PCT/JP2016/083503 JP2016083503W WO2018087879A1 WO 2018087879 A1 WO2018087879 A1 WO 2018087879A1 JP 2016083503 W JP2016083503 W JP 2016083503W WO 2018087879 A1 WO2018087879 A1 WO 2018087879A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
remote
unit
remote control
communication
Prior art date
Application number
PCT/JP2016/083503
Other languages
English (en)
French (fr)
Inventor
弦太 棒田
昭吾 赤羽
和之 金子
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to CN201680090343.9A priority Critical patent/CN109891470B/zh
Priority to PCT/JP2016/083503 priority patent/WO2018087879A1/ja
Priority to US16/344,808 priority patent/US11181902B2/en
Priority to DE112016007429.8T priority patent/DE112016007429T5/de
Priority to JP2018549711A priority patent/JP6677817B2/ja
Publication of WO2018087879A1 publication Critical patent/WO2018087879A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Definitions

  • the present invention relates to a remote operation system, a traffic system, and a remote operation method.
  • an automatic lawn mower that performs automatic driving by acquiring the position of the vehicle by GPS (Global Positioning System) is described.
  • This automatic lawn mower has a communication means for performing remote operation, a control means for controlling steering and a drive system, and a position for performing a control operation corrected in consideration of a communication lag based on received position information.
  • An invention of an apparatus provided with a position prediction means for prediction is disclosed (see Patent Document 2).
  • the conventional technology does not consider performing remote operation in a good communication environment.
  • the present invention has been made in view of such circumstances, and has an object to provide a remote operation system, a traffic system, and a remote operation method capable of performing remote operation in a favorable communication environment. To do.
  • a communication unit (310) that communicates with the vehicle (M) and receives information including a request for remote operation, and remotely transmits the status of the vehicle received from the vehicle by the communication unit.
  • Control information is generated based on an operation received by the receiving unit (321) to be presented to the operator, an accepting unit (330) that accepts an operation by the remote operator, and using the communication unit
  • a remote control device (340) for transmitting to the vehicle, a remote control device (320) comprising a plurality of remote control devices (320), the remote control device having a good communication environment with the vehicle that has transmitted the request for remote control among the plurality of remote control devices
  • a selection unit that selects a remote control device having a good communication environment with the vehicle that has transmitted the remote control request from the plurality of remote control devices. 311).
  • the communication distance to the vehicle that has transmitted the remote control request is short, the communication speed is the fastest, or the communication is most stable.
  • One of the remote control devices is selected with priority.
  • the communication unit estimates a future vehicle situation based on the vehicle situation received from the vehicle, and the estimated future vehicle. This situation is presented to the remote operator.
  • the presenting unit displays an image based on a situation of the vehicle received from the vehicle by the communication unit, and further from the vehicle by the communication unit.
  • the received vehicle situation is a situation where there are few objects in front of the vehicle
  • an image obtained by enlarging a part of the image based on the vehicle situation received from the vehicle by the communication unit is displayed as the future vehicle. It is displayed as an image showing the situation.
  • the communication unit obtains information related to an action plan for automatic driving from the vehicle, and the presenting unit determines a future vehicle situation based on the action plan. Is estimated.
  • the invention according to claim 7 is the situation of the future vehicle by combining the fixed-point observation image and the image based on the situation of the vehicle received from the vehicle by the communication unit in the invention of claim 4. It is the remote control system which produces
  • a determination unit that determines whether or not a route including a predicted communication failure occurrence position is included in a route on which the vehicle is to travel, and the determination unit And a changing unit that changes a route so as to avoid the predicted position of occurrence of communication failure when it is determined that a route including the predicted position of occurrence of communication failure is included.
  • the invention according to claim 9 is a traffic system including the remote control system according to claim 1 and a vehicle control system mounted on the vehicle that receives the remote control.
  • a future vehicle situation is estimated based on the vehicle situation, and the estimated future vehicle situation is transmitted to the remote control system. Is.
  • the invention according to claim 11 is the invention according to claim 10, wherein automatic driving is executed based on the action plan, and the state of the future vehicle is estimated based on the action plan.
  • a plurality of remote control devices communicate with a vehicle, receive information including a request for remote control, present the status of the vehicle received from the vehicle to a remote operator, A remote operation method for receiving an operation by a remote operator, generating control information based on the received operation, and transmitting the control information to the vehicle, wherein the remote operation request is transmitted from the plurality of remote operation devices.
  • This is a remote operation method in which a remote operation device having a good communication environment with a vehicle executes remote operation.
  • a remote operation device with a small communication lag with the vehicle is selected from among a plurality of remote operation devices, so that the communication lag can be reduced.
  • an image showing an estimated situation in which the situation of the imaged vehicle is estimated even if there is a communication lag between the vehicle and the remote control device is generated. Since the display is performed, a necessary operation can be received from the remote operator at a future position of the vehicle.
  • the safety of remote operation of the vehicle can be improved.
  • FIG. 1 is a conceptual diagram of a traffic system 1.
  • FIG. 2 is a diagram illustrating an example of a configuration mounted on a vehicle M.
  • FIG. It is a figure which shows a mode that the relative position and attitude
  • FIG. It is a figure which shows a mode that a target track is produced
  • 2 is a diagram showing a device configuration in a remote operation system 300.
  • 3 is a block diagram illustrating a configuration of a presentation unit 321.
  • FIG. It is a figure which shows the movement of the vehicle M during communication lag generating.
  • FIG. 7 is a flowchart showing a flow of processing of the remote operation system 300.
  • FIG. 11 is a sequence diagram showing processing for automatically selecting a remote control device 320. It is a figure which shows an example of the structure mounted in the vehicle M concerning 2nd Embodiment. It is a figure which shows the state of the vehicle imaged with the fixed point camera.
  • FIG. 1 is a conceptual diagram of a traffic system 1.
  • the traffic system 1 is realized by communication between a plurality of vehicles M-1 to Mn (n is an arbitrary natural number) and a remote control system 300 via a network NW.
  • vehicles M are, for example, a vehicle such as a two-wheel, three-wheel, or four-wheel vehicle, and a drive source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof.
  • the electric motor operates using electric power generated by a generator connected to the internal combustion engine or electric discharge power of a secondary battery or a fuel cell.
  • the vehicle M is a vehicle capable of executing automatic driving for automatically controlling at least one of acceleration / deceleration and steering.
  • the network NW includes a base station, which is a wireless communication interface, a WAN (Wide Area Network), a LAN (Local Area Network), the Internet, a dedicated line, a satellite line, and the like.
  • a remote operation request is transmitted from the vehicle M to the remote operation system 300 or from one vehicle M to another vehicle M, and the remote operation of the vehicle M is executed accordingly.
  • FIG. 2 is a diagram illustrating an example of a configuration mounted on the vehicle M.
  • the vehicle M includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a navigation device 50, and an MPU (Micro-Processing).
  • Unit 60 a vehicle sensor 70, a driving operator 80, an automatic driving control unit 100, a travel driving force output device 200, a brake device 210, and a steering device 220 are mounted.
  • a multiple communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like.
  • a multiple communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like.
  • the configuration illustrated in FIG. 2 is merely an example, and a part of the configuration may be omitted, or another configuration may be added. 2 includes at least the camera 10, the communication device 20, the driving operator 80, the first control unit 120, the second control unit 140, and the remote operation control unit 160. It is an example.
  • the camera 10 is a digital camera using a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • One or a plurality of cameras 10 are attached to any part of the vehicle M.
  • the camera 10 is attached to the upper part of the front windshield, the rear surface of the rearview mirror, or the like.
  • the camera 10 periodically and repeatedly images the periphery of the vehicle M.
  • the camera 10 may be a stereo camera.
  • the radar apparatus 12 radiates a radio wave such as a millimeter wave around the vehicle M and detects a radio wave (reflected wave) reflected by the object to detect at least the position (distance and azimuth) of the object.
  • a radio wave such as a millimeter wave around the vehicle M
  • a radio wave reflected wave
  • One or a plurality of radar devices 12 are attached to any part of the vehicle M.
  • the radar apparatus 12 may detect the position and velocity of the object by FM-CW (Frequency Modulated Continuous Wave) method.
  • FM-CW Frequency Modulated Continuous Wave
  • the finder 14 is a LIDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging) that measures the scattered light with respect to the irradiated light and detects the distance to the target.
  • LIDAR Light Detection and Ranging or Laser Imaging Detection and Ranging
  • One or a plurality of finders 14 are attached to any part of the vehicle M.
  • the object recognition device 16 performs sensor fusion processing on the detection results of some or all of the camera 10, the radar device 12, and the finder 14 to recognize the position, type, speed, and the like of the object.
  • the object recognition device 16 outputs the recognition result to the automatic driving control unit 100.
  • the communication device 20 communicates with other vehicles around the vehicle M using, for example, a cellular network, a Wi-Fi (registered trademark) network, Bluetooth (registered trademark), DSRC (DedicatedDeShort Range Communication), or the like. Alternatively, it communicates with various server devices and the remote operation system 300 via a wireless base station.
  • a cellular network for example, a Wi-Fi (registered trademark) network, Bluetooth (registered trademark), DSRC (DedicatedDeShort Range Communication), or the like.
  • Wi-Fi registered trademark
  • Bluetooth registered trademark
  • DSRC DedicatedDeShort Range Communication
  • the HMI 30 presents various information to the passenger of the vehicle M and accepts an input operation by the passenger.
  • the HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys, and the like.
  • the navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a route determination unit 53.
  • the first map information 54 is stored in a storage device such as an HDD (Hard Disk Drive) or a flash memory. Holding.
  • the GNSS receiver specifies the position of the vehicle M based on the signal received from the GNSS satellite. The position of the vehicle M may be specified or supplemented by INS (Inertial Navigation System) using the output of the vehicle sensor 70.
  • the navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partly or wholly shared with the HMI 30 described above.
  • the route determination unit 53 determines a route from the position of the vehicle M specified by the GNSS receiver 51 (or any input position) to the destination input by the occupant using the navigation HMI 52. This is determined with reference to the map information 54.
  • the first map information 54 is information in which a road shape is expressed by, for example, a link indicating a road and nodes connected by the link.
  • the first map information 54 may include road curvature, POI (Point Of Interest) information, and the like.
  • the route determination unit 53 determines a route so as to avoid a communication failure occurrence predicted position described later as much as possible.
  • the route determined by the route determination unit 53 is output to the MPU 60.
  • the navigation device 50 may perform route guidance using the navigation HMI 52 based on the route determined by the route determination unit 53.
  • the navigation apparatus 50 may be implement
  • the navigation device 50 may acquire the route returned from the navigation server by transmitting the current position and the destination to the navigation server via the communication device 20.
  • the MPU 60 functions as the recommended lane determining unit 61, for example, and holds the second map information 63 in a storage device such as an HDD or a flash memory.
  • the recommended lane determining unit 61 divides the route provided from the navigation device 50 into a plurality of blocks (for example, every 100 [m] with respect to the vehicle traveling direction), and refers to the second map information 63 for each block. Determine the recommended lane.
  • the recommended lane determining unit 61 performs determination such as what number of lanes from the left to travel.
  • the recommended lane determining unit 61 determines a recommended lane so that the vehicle M can travel on a reasonable route for proceeding to the branch destination when there is a branching point or a joining point in the route.
  • the second map information 63 is map information with higher accuracy than the first map information 54.
  • the second map information 63 includes, for example, information on the center of the lane or information on the boundary of the lane.
  • the second map information 63 may include road information, traffic regulation information, address information (address / postal code), facility information, telephone number information, and the like.
  • Road information includes information indicating the type of road such as expressway, toll road, national road, prefectural road, road lane number, width of each lane, road gradient, road position (longitude, latitude, height).
  • the predicted communication failure occurrence position is a position where a communication failure such as a tunnel, a valley of a building, or a basement is bad and an occurrence of a communication failure is expected.
  • the recommended remote operation point is a point where a complicated operation such as a steering wheel operation or an accelerator operation, which is difficult for automatic driving such as a crowded point, is necessary.
  • the recommended remote operation point is determined from past statistical data or the like.
  • the second map information 63 may be updated at any time by accessing the other device using the communication device 20.
  • the MPU 60 refers to the route determined by the route determination unit 53, the second map information 63, and the action plan generated by the action plan generation unit 123 described later, and determines whether the recommended lane has a predicted communication failure occurrence position. To do. When the MPU 60 detects the predicted communication failure occurrence position in the route scheduled to travel, the MPU 60 avoids the route including the predicted communication failure occurrence position and reroutes the route so that the communication failure does not occur.
  • the configuration of the MPU 60 may be mounted on the remote operation system 300.
  • the vehicle sensor 70 includes a vehicle speed sensor that detects the speed of the vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects angular velocity around the vertical axis, a direction sensor that detects the direction of the vehicle M, and the like.
  • the driving operator 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, and other operators.
  • a sensor that detects the amount of operation or the presence or absence of an operation is attached to the driving operator 80, and the detection result is the automatic driving control unit 100, or the traveling driving force output device 200, the brake device 210, and the steering device. 220 is output to one or both of 220.
  • the automatic operation control unit 100 includes, for example, a first control unit 120, a second control unit 140, and a remote operation control unit 160.
  • the first control unit 120, the second control unit 140, and the remote operation control unit 160 are each realized by a processor (CPU) executing a program (software), such as a CPU (Central Processing Unit).
  • a processor CPU
  • a program software
  • CPU Central Processing Unit
  • some or all of the functional units of the first control unit 120, the second control unit 140, and the remote operation control unit 160 described below are LSI (Large Scale Integration) or ASIC (Application Specific Specific Integrated Circuit). It may be realized by hardware such as FPGA (Field-Programmable Gate Array) or may be realized by cooperation of software and hardware.
  • the 1st control part 120 is provided with the external world recognition part 121, the own vehicle position recognition part 122, and the action plan production
  • the external recognition unit 121 recognizes the positions of surrounding vehicles and the state such as speed and acceleration based on information input directly from the camera 10, the radar 12, and the finder 14 or via the object recognition device 16. To do.
  • the position of the surrounding vehicle may be represented by a representative point such as the center of gravity or corner of the surrounding vehicle, or may be represented by an area expressed by the outline of the surrounding vehicle.
  • the “state” of the surrounding vehicle may include acceleration and jerk of the surrounding vehicle, or “behavioral state” (for example, whether or not the lane is changed or is about to be changed).
  • the external environment recognition unit 121 may recognize the positions of guardrails, utility poles, parked vehicles, pedestrians, and other objects.
  • the own vehicle position recognition unit 122 recognizes, for example, the lane (traveling lane) in which the vehicle M is traveling, and the relative position and posture of the vehicle M with respect to the traveling lane.
  • the own vehicle position recognizing unit 122 is, for example, a road around the vehicle M recognized from a pattern of road marking lines (for example, an array of solid lines and broken lines) obtained from the second map information 63 and an image captured by the camera 10.
  • the travel lane is recognized by comparing the lane marking pattern. In this recognition, the position of the vehicle M acquired from the navigation device 50 and the processing result by INS may be taken into consideration.
  • FIG. 3 is a diagram illustrating how the vehicle position recognition unit 122 recognizes the relative position and posture of the vehicle M with respect to the travel lane L1.
  • the own vehicle position recognizing unit 122 for example, an angle ⁇ formed with respect to a line connecting the deviation point OS of the reference point (for example, the center of gravity) of the vehicle M from the travel lane center CL and the travel lane center CL in the traveling direction of the vehicle M. Is recognized as the relative position and posture of the vehicle M with respect to the traveling lane L1.
  • the vehicle position recognition unit 122 may recognize the position of the reference point of the vehicle M with respect to any side end portion of the vehicle lane L1 as the relative position of the vehicle M with respect to the traveling lane. .
  • the relative position of the vehicle M recognized by the own vehicle position recognition unit 122 is provided to the recommended lane determination unit 61 and the action plan generation unit 123.
  • the action plan generation unit 123 generates an action plan for the vehicle M on the route to the destination.
  • the action plan includes events that are sequentially executed in automatic driving, and information related to a target track on which the vehicle M will travel in the future in each event.
  • the action plan generation unit 123 determines events to be sequentially executed in the automatic driving so that the recommended lane determination unit 61 determines the recommended lane and travels along the recommended lane, and can cope with the surrounding situation of the vehicle M.
  • Events include, for example, constant speed driving events that travel in the same lane at a constant speed, follow-up driving events that follow the preceding vehicle, lane change events, merge events, branch events, emergency stop events, automatic driving to remote control There are remote operation events for switching. Further, during execution of these events, actions for avoidance may be planned based on the surrounding situation of the vehicle M (the presence of surrounding vehicles and pedestrians, lane narrowing due to road construction, etc.).
  • the action plan generator 123 generates a target trajectory on which the vehicle M will travel in the future.
  • the target trajectory includes, for example, a velocity element.
  • the target trajectory is generated as a set of target points (orbit points) that should be set at a plurality of future reference times for each predetermined sampling time (for example, about 0 comma [sec]) and reach these reference times. The For this reason, when the space
  • FIG. 4 is a diagram illustrating a state where a target track is generated based on the recommended lane.
  • the recommended lane is set so as to be convenient for traveling along the route to the destination.
  • the action plan generation unit 123 activates a lane change event, a branch event, a merge event, or the like when a predetermined distance before the recommended lane switching point (may be determined according to the type of event) is reached.
  • an avoidance trajectory is generated as shown in the figure.
  • the action plan generation unit 123 generates a plurality of candidate target trajectories, and selects an optimal target trajectory at that time point based on safety and efficiency.
  • generation part 123 will start a remote operation event, when it approaches the route
  • the second control unit 140 includes a travel control unit 141.
  • the traveling control unit 141 controls the traveling driving force output device 200, the brake device 210, and the steering device 220 so that the vehicle M passes the target trajectory generated by the action plan generating unit 123 at a scheduled time. .
  • the driving force output device 200 outputs a driving force (torque) for driving the vehicle to driving wheels.
  • the travel driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU that controls these.
  • the ECU controls the above configuration according to information input from the automatic operation control unit 100 or information input from the driving operator 80.
  • the brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU.
  • the brake ECU controls the electric motor according to the information input from the self-automatic driving control unit 100 or the information input from the driving operator 80 so that the brake torque corresponding to the braking operation is output to each wheel.
  • the brake device 210 may include, as a backup, a mechanism that transmits the hydraulic pressure generated by operating the brake pedal included in the driving operation element 80 to the cylinder via the master cylinder.
  • the brake device 210 is not limited to the configuration described above, and may be an electronically controlled hydraulic brake device that controls the actuator according to information input from the travel control unit 141 and transmits the hydraulic pressure of the master cylinder to the cylinder. Good.
  • the steering device 220 includes, for example, a steering ECU and an electric motor.
  • the electric motor changes the direction of the steered wheels by applying a force to a rack and pinion mechanism.
  • the steering ECU drives the electric motor according to the information input from the automatic driving control unit 100 or the information input from the driving operator 80, and changes the direction of the steered wheels.
  • the remote operation control according to this embodiment will be described below.
  • the remote operation control unit 160 requests the remote operation system 300 to perform a remote operation (sends a remote operation request) using the communication device 20, and receives the remote operation system 300 from the remote operation system 300.
  • a remote operation for automatically controlling at least one of acceleration / deceleration and steering of the vehicle M is executed based on the control information.
  • the remote operation control unit 160 includes a remote operation determination unit 161, for example. When the remote operation event is activated, the remote operation determination unit 161 stops the automatic driving of the vehicle M and switches the operation of the vehicle M to the remote operation.
  • FIG. 5 is a diagram showing a device configuration in the remote operation system 300.
  • the remote operation system 300 includes a communication device (communication unit) 310 that communicates with a vehicle M (remotely operated vehicle) via a network NW, a selection unit 311, and a plurality of remote operation devices 320-1. , 320-2, 320-3,...
  • NW network
  • the remote control device when the remote control device is not distinguished, it is simply expressed as the remote control device 320.
  • a remote operator is seated and waiting in preparation for a remote operation request.
  • the communication device 310 receives a remote operation request from the vehicle M.
  • the selection unit 311 selects any one of the remote operation devices 320 having a good communication environment with the vehicle that has transmitted the remote operation request.
  • Good communication environment means, for example, that the communication speed is fast, that communication is difficult to be disconnected, is stable, or that the communication distance is short.
  • the short communication distance indicates a wireless communication state in which the distance that the radio wave transmitted from the transmission side reaches the reception side is short.
  • the selection unit 311 gives priority to one of the remote control devices 320 having a short communication distance with the vehicle M that has transmitted the remote control request, the fastest communication speed, or the most stable communication.
  • the communication device 310 receives information received from the vehicle M with respect to the selected remote operation device 320 (remote operation request, action plan, image captured by the camera 10, speed, angular velocity, vehicle type, etc. as described above). To perform remote control.
  • the remote operation system 300 switches from the automatic driving of the vehicle M to the remote operation when a route including a recommended remote operation point is reached in the route. May be.
  • the remote operation system 300 switches from the automatic driving of the vehicle M to the remote operation when the recommended remote operation point is added by an update or the like and the route including the recommended remote operation point is included in the traveling route. You may do it. Thereby, even if the remote operation request is not transmitted from the vehicle M, the remote operation system 300 can switch the remote operation based on the determination on the remote operation system 300 side.
  • FIG. 6 is a diagram schematically showing the configuration of the remote control device 320.
  • the remote operation device 320 includes, for example, a presentation unit 321, a speaker 322, a seat 323, a steering wheel 324, pedals 325 such as an accelerator pedal and a brake pedal, a remote operation reception unit (reception unit) 330, And an operation control unit (control unit) 340.
  • the remote operation reception unit 330 receives an operation by the remote operator O.
  • the remote operation control unit 340 generates control information based on the operation received by the remote operation reception unit 330 and transmits the control information to the vehicle M using the communication device 310.
  • FIG. 7 is a block diagram showing the configuration of the presentation unit 321.
  • the presentation unit 321 presents information including the situation of the vehicle M received from the vehicle M to the remote operator O.
  • the presentation unit 321 includes an estimated situation generation unit 321a and a display unit 321b.
  • the estimated status generation unit 321a is realized by a processor (such as a CPU) executing a program (software).
  • the estimation state generation unit 321a may be realized by hardware such as LSI, ASIC, or FPGA, or may be realized by cooperation of software and hardware.
  • the display unit 321b is, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence) display device, and displays images and information.
  • the display unit 321b may be an HMD (HeadHeMount Display).
  • the display unit 321b displays, for example, an image of a scenery outside the vehicle captured by the camera 10 of the vehicle M, the speed of the vehicle M, the engine speed, and the like.
  • FIG. 8 is a diagram illustrating movement of the vehicle M while the communication lag occurs.
  • the display unit 321b displays the state of the vehicle M as it is, a temporally upward communication lag occurs in the communication between the vehicle M and the remote control device 320.
  • the upstream communication lag is the time required for communication between the vehicle M and the remote control system 300 and the processing time required for the remote control system 300 to display an image on the display unit 321a after receiving information from the vehicle M. Etc. are included. For example, when the situation of the vehicle M is imaged at the position P1, the situation is displayed on the display unit 321b. At this time, the upstream communication lag requires time T1, and the vehicle M moves from the position P1 to the position P2.
  • the downlink communication lag includes a time from when the remote operator O performs an operation until the vehicle M receives control information, a processing time until the vehicle M starts an operation based on the control information, and the like.
  • the downlink communication lag requires time T2, and the vehicle M moves from the position P2 to the position P3. Therefore, when an operation necessary for the situation of the vehicle M at the position P1 viewed by the operator O is performed, the vehicle M where the operation is started is at the position P3, and a deviation in remote operation occurs.
  • the display unit 321b displays an image obtained by prefetching the situation of the vehicle M so as to reduce the influence of the uplink and downlink communication lag.
  • Prefetching means estimating the future situation of the vehicle M after a predetermined time has elapsed from the situation of the vehicle M at the time of image capture.
  • the estimated situation generation unit 321a pre-reads the situation of the vehicle M received from the vehicle M, generates an image indicating the estimated situation estimated from the situation of the vehicle M at the time of image capture, and displays the image on the display unit 321b.
  • Specified time is determined by adding up the expected communication lag. For example, the sum of the time T1 required for the uplink communication lag and the time T2 required for the downlink communication lag is calculated as the total communication lag.
  • FIG. 9 is a diagram illustrating an image based on the estimated state generated based on the image V captured by the camera 10.
  • the estimated status generation unit 321a generates an estimated status of the situation of the vehicle M at the position P3 based on the situation image V of the vehicle M captured at the position P1.
  • the estimation status generation unit 321a generates an image indicating the estimation status by processing an image captured by the camera 10, for example.
  • the estimated state generation unit 321a generates an image of a scene or an object in which the estimated state is captured based on information such as the speed and moving direction of the vehicle M.
  • the estimation state generation unit 321a compares the successive image frames and estimates the moving amount and moving direction of the object. Then, the estimation status generation unit 321a estimates the position of the object after a predetermined time has elapsed based on the vehicle speed and the moving direction information, and generates an image S indicating the estimation status.
  • the image S indicating the estimated state may be displayed with a simple frame line indicating the future position of the imaged object or scenery, for example.
  • the estimation situation generation unit 321a When it is determined that there is little change in the situation of the captured vehicle M, the estimation situation generation unit 321a generates an image S indicating a corresponding estimation situation after a predetermined time has elapsed by enlarging a part of the captured image V. May be.
  • FIG. 10 is a diagram illustrating an estimated state S generated by enlarging a part of the captured image V.
  • the situation after the predetermined time has passed is an image obtained by enlarging an image in the vicinity of the center of the image at the time of being captured based on the speed data. It is presumed that the situation is similar to that shown in. Therefore, the estimated status generation unit 321a generates the enlarged image S as an image showing the estimated status.
  • the estimated status generation unit 321a may generate the estimated status by prefetching the status of the vehicle M based on the action plan of the vehicle M acquired by the communication device 310. Referring to the action plan, it is predicted that a situation that cannot be estimated from the situation of the captured vehicle M, such as direction control or stop of the vehicle M, such as right turn, left turn, lane change, etc., will occur in the future. Therefore, the estimated status generation unit 321a generates an estimated status such as direction control in consideration of the event timing of the action plan and the communication lag.
  • the estimation state generation unit 321a may generate an image indicating the estimation state as an image synthesized by CG (Computer Graphics) or the like.
  • the estimated state generation unit 321a performs a remote operation on the remote operator O so as to sufficiently widen the distance between vehicles or reduce the speed of the vehicle M so that it does not come into contact with other vehicles even if some communication lag occurs.
  • an image indicating an estimated state may be displayed so as to ensure a safety margin.
  • the estimated state generation unit 321a displays other vehicles closer to the actual image or displays the scenery in an enlarged size than the actual image in the image shown in the estimated state, so that the remote operator O is on the safe side. Remote operation may be performed. That is, the estimated status generation unit 321a displays an image indicating the estimated status so that a safety margin for operations performed by remote operation based on the communication environment is ensured.
  • the speaker 322 emits a warning sound according to the approach of the obstacle recognized by the object recognition device 16 of the vehicle M to the vehicle M.
  • a remote operator O is seated on the seat 323.
  • the presentation unit 321 displays an image indicating the estimated state, and causes the remote operator O to perform operations such as the steering wheel 324 and the pedals 325 on the driving operator. The operation amounts for these are detected by a sensor (not shown) and output to the remote operation receiving unit 330.
  • the driving operation element may be a driving operation element of another aspect such as a joystick.
  • the remote operation receiving unit 330 outputs information corresponding to the operation amount input from the driving operator to the remote operation control unit 340.
  • the remote operation control unit 340 generates control information to be transmitted to the vehicle M based on information corresponding to the operation amount input from the rolling operator. The control information is transmitted by the communication device 310.
  • the communication device 310 transmits the control information generated in this way to the vehicle M.
  • the driving operator is provided with a reaction force output device for applying a reaction force to be generated depending on the operation amount.
  • information such as speed and angular velocity is preferably supplied from the vehicle M to the remote control device 320.
  • the transmitted control information is, for example, an operation amount for the steering wheel 324 and the pedals 325.
  • FIG. 11 is a flowchart showing a process flow of the remote operation system 300.
  • the remote operation system 300 receives information including the status of the vehicle M from the vehicle M via the communication device 310 (step S100).
  • the selection unit 311 selects one remote operation device 320 having a good communication environment with the vehicle M from the plurality of remote operation devices 320 (step S110).
  • the estimated situation generating unit 321a generates an image indicating the estimated situation of the vehicle M, which is prefetched from the situation of the vehicle M. And the image which shows an estimation condition is displayed on the display part 321b (step S120).
  • the remote operation accepting unit 320 accepts each operation of the remote operator O based on the estimated state displayed on the display unit 321b (step S130).
  • the remote operation control unit 340 transmits each operation of the remote operator O received by the remote operation receiving unit 320 as control information to the vehicle M via the communication device 310 (step S140).
  • the remote operation system 300 selects one remote operation device 320 from among the plurality of remote operation devices 320 by the selection unit 311. Regardless of this, one remote control device 320 may be automatically selected. For example, after receiving a remote operation request, the communication device 310 monitors the communication environment and automatically selects one remote operation device 320 having the best communication environment with the vehicle M from among the plurality of remote operation devices 320. You may make it choose.
  • FIG. 12 is a sequence diagram showing a process for automatically selecting the remote control device 320.
  • m, p, and y are positive integers.
  • Remote operation requests are randomly transmitted from a plurality of vehicles M that are operating automatically.
  • the communication device 310 ranks the plurality of remote devices 320 in the order in which the communication environment with the vehicle M is favorable.
  • the communication device 310 first selects the remote device 320-m that has the best communication environment with the vehicle M.
  • the communication device 310 establishes a communication connection between the vehicle M and the remote device 320-m.
  • the communication device 310 first selects the remote device 320-p with the second best communication environment with the vehicle M.
  • the communication device 310 establishes a communication connection between the vehicle M and the remote device 320-p.
  • the communication device 310 selects the remote device 320-y having the third best communication environment with the vehicle M.
  • the communication device 310 may select the communication device 320 with the best communication environment next to the remote device 320-y as described above.
  • the vehicle M in which the automatic driving is performed is switched from the automatic driving to the remote operation, the vehicle M is selected from the plurality of remote devices 320.
  • One remote device 320 having the best communication environment can be selected.
  • the traffic system 1 even if a communication lag occurs in the communication between the vehicle M and the remote operation system 300, the influence of the communication lag can be reduced and the remote operation of the remote operator O can be accepted. .
  • the remote operation system 300 when the remote operation system 300 receives the situation of the vehicle M acquired by the vehicle M, the remote operation system 300 generates and displays an image indicating an estimated situation in which the situation of the vehicle M is pre-read. The operator O can perform operations on the steering wheel 324 and the pedals 325 in accordance with the situation outside the vehicle in the future.
  • an operation that the vehicle will need in the future is generated from the remote operator O by generating an estimated situation on the remote operation system 300 side for the communication lag between the vehicle M and the remote operation system 300. It was described as being accepted.
  • the vehicle M side pre-reads the situation of the vehicle M, and transmits the pre-read situation of the future vehicle M to the remote operation system 300.
  • FIG. 13 is a diagram illustrating an example of a configuration mounted on the vehicle M according to the second embodiment.
  • the vehicle M transmits information prefetched from the situation acquired by itself to the remote operation system 300.
  • the first control unit 120 of the vehicle M includes an estimated situation generation unit 124.
  • the estimated state generation unit 124 calculates a communication lag between the communication device 20 and the remote operation system 300. And the estimation condition production
  • the future situation of the vehicle M can be transmitted to the remote operation system 300 by prefetching the situation of the vehicle M on the vehicle M side.
  • the traffic system 1 can perform processing related to the estimated state in each vehicle M, and can distribute the load of the remote operation system 300.
  • FIG. 14 is a diagram illustrating a state of the vehicle imaged by the fixed point camera K.
  • NW On the network NW, there is a street view that provides a real-time view taken by the fixed point camera K.
  • the fixed-point camera K has, for example, a 360-degree field of view and a zoom function, and the user can freely set the viewpoint direction and zoom for the captured landscape image.
  • the image indicating the estimation state may be generated as an image synthesized using a landscape image captured by the fixed point camera K.
  • the estimated status generation unit 321a generates a scene of the estimated status from the image of the fixed point camera K corresponding to a future position estimated from the current position of the vehicle M.
  • the estimation status generation unit 321a generates a scene of the estimation status by determining the viewpoint direction and zoom.
  • the moving object is generated by estimating the position after the lapse of a predetermined time and synthesized with the estimated scenery. Thereby, the image which shows an estimation condition is produced
  • the vehicle M transmitted and received between the vehicle M and the remote control system 300 is transmitted.
  • the capacity of the image data in the situation can be reduced, and the communication lag can be reduced.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Selective Calling Equipment (AREA)

Abstract

車両と通信し、遠隔操作のリクエストを含む情報を受信する通信部と、前記通信部により前記車両から受信された前記車両の状況を遠隔操作者に提示する提示部と、前記遠隔操作者による操作を受け付ける受付部と、前記受付部により受け付けられた操作に基づいて制御情報を生成し、前記通信部を用いて前記車両に送信する制御部と、を備える遠隔操作装置を複数備え、前記複数の遠隔操作装置のうち、前記遠隔操作のリクエストを送信した車両との通信環境が良好な遠隔操作装置が、遠隔操作を実行する、車両の遠隔操作システムである。

Description

遠隔操作システム、交通システム、および遠隔操作方法
 本発明は、遠隔操作システム、交通システム、および遠隔操作方法に関する。
 近年、加減速や操舵を自動的に行う自動運転について研究が進められている。自動運転中に判断手段により車両と双方向の通信を行い、自律志向型の自動運転を実行不可であると判断した場合に、車両が外部機器と通信し、遠隔操作による他律志向型の自動運転を実行する技術が研究されている(特許文献1参照)。
 また、車両の遠隔操作を行う場合、実際の走行状態を撮像した時点での場面と遠隔操作を行う操作者が操作を行うための画面に表示される映像との間には、通信の遅延等による時間的なずれ(通信ラグ)が生じる。これに関連し、GPS(Global Positioning System)で自車の位置を取得して自動運転を行う自動芝刈り機が記載されている。この自動芝刈り機は、遠隔操作を行うための通信手段と、操舵や駆動系を制御する制御手段と、受信する位置情報に基づいて通信ラグを考慮して補正された制御動作を行う位置を予測する位置予測手段とを備える装置の発明が開示されている(特許文献2参照)。
国際公開第2016/038931号 特開2013-031389号公報
 しかしながら、従来の技術では、良好な通信環境で遠隔操作を行うことについて考慮されていなかった。
 本発明は、このような事情を考慮してなされたものであり、良好な通信環境で遠隔操作を行うことができる遠隔操作システム、交通システム、および遠隔操作方法を提供することを目的の一つとする。
 請求項1に記載の発明は、車両(M)と通信し、遠隔操作のリクエストを含む情報を受信する通信部(310)と、前記通信部により前記車両から受信された前記車両の状況を遠隔操作者に提示する提示部(321)と、前記遠隔操作者による操作を受け付ける受付部(330)と、前記受付部により受け付けられた操作に基づいて制御情報を生成し、前記通信部を用いて前記車両に送信する制御部(340)と、を備える遠隔操作装置(320)を複数備え、前記複数の遠隔操作装置のうち、前記遠隔操作のリクエストを送信した車両との通信環境が良好な遠隔操作装置が、遠隔操作を実行する、車両の遠隔操作システム(1)である。
 請求項2記載の発明は、請求項1記載の発明において、前記複数の遠隔操作装置のうち、前記遠隔操作のリクエストを送信した車両との通信環境が良好な遠隔操作装置を選択する選択部(311)を更に備えるものである。
 請求項3記載の発明は、請求項2に記載の発明において、前記遠隔操作のリクエストを送信した車両との通信距離が短い、または、通信速度が最も早い、または、通信が最も安定している遠隔操作装置のうちのいずれかを優先して選択するものである。
 請求項4記載の発明は、請求項1に記載の発明において、前記通信部が前記車両から受信された前記車両の状況に基づいて、将来の車両の状況を推定し、前記推定した将来の車両の状況を前記遠隔操作者に提示するものである。
 請求項5記載の発明は、請求項4に記載の発明において、前記提示部が前記通信部により前記車両から受信された車両の状況に基づく画像を表示し、更に、前記通信部により前記車両から受信された車両の状況が、前記車両の前方に物体が少ない状況である場合、前記通信部により前記車両から受信された車両の状況に基づく画像の一部を拡大した画像を、前記将来の車両の状況を示す画像として表示するものである。
 請求項6記載の発明は、請求項4に記載の発明において、前記通信部が前記車両から自動運転の行動計画に関する情報を取得し、前記提示部が前記行動計画に基づいて将来の車両の状況を推定するものである。
 請求項7記載の発明は、請求項4項記載の発明において定点観測画像と、前記通信部により前記車両から受信された車両の状況に基づく画像とを合成することで、前記将来の車両の状況を示す画像を生成する遠隔操作システムである。
 請求項8記載の発明は、請求項1項記載の発明において前記車両が走行する予定のルートに通信障害発生予想位置が含まれるルートが含まれるか否かを判定する判定部と、前記判定部により通信障害発生予想位置が含まれるルートが含まれると判定された場合に、前記通信障害発生予想位置を回避するように経路を変更する変更部とを備える遠隔操作システムである。
 請求項9記載の発明は、請求項1記載の遠隔操作システムと、前記遠隔操作を受ける車両に搭載される車両制御システムと、を備える交通システムである。
 請求項10記載の発明は、請求項9に記載の発明において、前記車両の状況に基づいて将来の車両の状況を推定し、前記推定した将来の車両の状況を、前記遠隔操作システムに送信するものである。
 請求項11記載の発明は、請求項10に記載の発明において、行動計画に基づいて自動運転を実行し、前記行動計画に基づいて、将来の車両の状況を推定するものである。
 請求項12記載の発明は、複数の遠隔操作装置が、車両と通信し、遠隔操作のリクエストを含む情報を受信し、前記車両から受信された前記車両の状況を遠隔操作者に提示し、前記遠隔操作者による操作を受け付け、前記受け付けられた操作に基づいて制御情報を生成し、前記車両に送信する遠隔操作方法であって、前記複数の遠隔操作装置のうち、前記遠隔操作のリクエストを送信した車両との通信環境が良好な遠隔操作装置が、遠隔操作を実行する、遠隔操作方法である。
 請求項1、2、9、12に記載の発明によれば、複数の遠隔操作装置のうち車両との間の通信ラグが少ない遠隔操作装置が選択されるため、通信ラグを低減することができる。
 請求項3-7、9-11に記載の発明によれば、車両と遠隔操作装置との間の通信ラグがあっても撮像された車両の状況を推定した推定状況を示す画像を生成して表示するため、車両の将来的な位置において必要な操作を遠隔操作者から受け付けることができる。
 請求項8に記載の発明によれば、予め通信障害が発生すると予測される位置を回避するルートにリルートするため車両の遠隔操作の安全性を向上させることができる。
交通システム1の概念図である。 車両Mに搭載される構成の一例を示す図である。 自車位置認識部122により走行車線L1に対する車両Mの相対位置および姿勢が認識される様子を示す図である。 推奨車線に基づいて目標軌道が生成される様子を示す図である。 遠隔操作システム300における装置構成を示す図である。 遠隔操作装置320の構成を模式的に示す図である。 提示部321の構成を示すブロック図である。 通信ラグが発生する間の車両Mの移動を示す図である。 撮像された画像Vに基づいて生成された推定状況を例示する図である。 撮像された画像Vの一部を拡大することにより生成された推定状況Sを例示する図である。 遠隔操作システム300の処理の流れを示すフローチャートである。 遠隔操作装置320を自動的に選択する処理を示すシーケンス図である。 第2実施形態にかかる車両Mに搭載される構成の一例を示す図である。 定点カメラKで撮像される車両の状態を示す図である。
 以下、図面を参照し、本発明の遠隔操作システム、交通システム、遠隔操作方法、および遠隔操作プログラムの実施形態について説明する。
 <第1実施形態>
 [システム構成]
 図1は、交通システム1の概念図である。交通システム1は、複数の車両M-1~M-n(nは任意の自然数)と、遠隔操作システム300とがネットワークNWを介して通信することで実現される。以下、車両を区別しないときは車両Mと称する。車両Mは、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。また、車両Mは、加減速または操舵の少なくとも一方を自動的に制御する自動運転を実行可能な車両である。ネットワークNWは、無線通信のインターフェースである基地局、WAN(Wide Area Network)、LAN(Local Area Network)、インターネット、専用回線、衛星回線などを含む。
 交通システム1では、車両Mから遠隔操作システム300に、或いはある車両Mから他の車両Mに対して遠隔操作の依頼(リクエスト)が送信され、それに応じて車両Mの遠隔操作が実行される。
 [車両構成]
 まずは、車両Mに搭載される構成について説明する。図2は、車両Mに搭載される構成の一例を示す図である。車両Mには、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、ナビゲーション装置50と、MPU(Micro-Processing Unit)60と、車両センサ70と、運転操作子80と、自動運転制御ユニット100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とが搭載される。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。図2に示す構成のうち、カメラ10、通信装置20、運転操作子80、第1制御部120、第2制御部140、および被遠隔操作制御部160を少なくとも含むものが、「車両制御装置」の一例である。
 カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両Mの任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
 レーダ装置12は、車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
 ファインダ14は、照射光に対する散乱光を測定し、対象までの距離を検出するLIDAR(Light Detection and Ranging、或いはLaser Imaging Detection and Ranging)である。ファインダ14は、車両Mの任意の箇所に一つまたは複数が取り付けられる。
 物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御ユニット100に出力する。
 通信装置20は、例えば、セルラー網やWi-Fi(登録商標)網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置や遠隔操作システム300と通信する。
 HMI30は、車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
 ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機は、GNSS衛星から受信した信号に基づいて、車両Mの位置を特定する。車両Mの位置は、車両センサ70の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。また、経路決定部53は、後述の通信障害発生予想位置をなるべく回避するように経路を決定する。経路決定部53により決定された経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、ユーザの保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された経路を取得してもよい。
 MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報63を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報63を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、経路において分岐箇所や合流箇所などが存在する場合、車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
 第2地図情報63は、第1地図情報54よりも高精度な地図情報である。第2地図情報63は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報63には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。道路情報には、高速道路、有料道路、国道、都道府県道といった道路の種別を表す情報や、道路の車線数、各車線の幅員、道路の勾配、道路の位置(経度、緯度、高さを含む3次元座標)、車線のカーブの曲率、車線の合流および分岐ポイントの位置、道路に設けられた標識、通信障害発生予想位置、遠隔操作推奨地点等の情報が含まれる。通信障害発生予想位置は、トンネル、ビルの谷間、地下等の通信環境が悪く、通信障害の発生が予想される位置をいう。遠隔操作推奨地点は、混雑する地点等の自動運転が苦手とするハンドル操作やアクセル操作等で煩雑な操作が必要となる地点をいう。遠隔操作推奨地点は、過去の統計データ等から決定される。第2地図情報63は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。
 MPU60は、経路決定部53により決定された経路、第2地図情報63、及び後述の行動計画生成部123が生成する行動計画を参照し、推奨車線に通信障害発生予想位置があるかどうかを判定する。MPU60は、走行する予定のルートに通信障害発生予想位置を検出すると、通信障害発生予想位置が含まれるルートを回避し通信障害が発生しないルートになるように経路をリルートする。上記MPU60の構成は、遠隔操作システム300に搭載されていてもよい。
 車両センサ70は、車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、車両Mの向きを検出する方位センサ等を含む。
 運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイールその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御ユニット100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一方または双方に出力される。
 自動運転制御ユニット100は、例えば、第1制御部120と、第2制御部140と、被遠隔操作制御部160とを備える。第1制御部120、第2制御部140、および被遠隔操作制御部160は、それぞれ、CPU(Central Processing Unit)などのプロセッサがプログラム(ソフトウェア)を実行することで実現される。また、以下に説明する第1制御部120、第2制御部140、および被遠隔操作制御部160の機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
 第1制御部120は、例えば、外界認識部121と、自車位置認識部122と、行動計画生成部123とを備える。
 外界認識部121は、カメラ10、レーダ12、およびファインダ14から直接的に、或いは物体認識装置16を介して入力される情報に基づいて、周辺車両の位置、および速度、加速度等の状態を認識する。周辺車両の位置は、その周辺車両の重心やコーナー等の代表点で表されてもよいし、周辺車両の輪郭で表現された領域で表されてもよい。周辺車両の「状態」とは、周辺車両の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。また、外界認識部121は、周辺車両に加えて、ガードレールや電柱、駐車車両、歩行者その他の物体の位置を認識してもよい。
 自車位置認識部122は、例えば、車両Mが走行している車線(走行車線)、並びに走行車線に対する車両Mの相対位置および姿勢を認識する。自車位置認識部122は、例えば、第2地図情報63から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。この認識において、ナビゲーション装置50から取得される車両Mの位置やINSによる処理結果が加味されてもよい。
 そして、自車位置認識部122は、例えば、走行車線に対する車両Mの位置や姿勢を認識する。図3は、自車位置認識部122により走行車線L1に対する車両Mの相対位置および姿勢が認識される様子を示す図である。自車位置認識部122は、例えば、車両Mの基準点(例えば重心)の走行車線中央CLからの乖離OS、および車両Mの進行方向の走行車線中央CLを連ねた線に対してなす角度θを、走行車線L1に対する車両Mの相対位置および姿勢として認識する。なお、これに代えて、自車位置認識部122は、自車線L1のいずれかの側端部に対する車両Mの基準点の位置などを、走行車線に対する車両Mの相対位置として認識してもよい。自車位置認識部122により認識される車両Mの相対位置は、推奨車線決定部61および行動計画生成部123に提供される。
 行動計画生成部123は、目的地までの経路における車両Mの行動計画を生成する。行動計画は、自動運転において順次実行されるイベントと、各イベントにおいて車両Mが将来走行する目標軌道に関する情報を含む。行動計画生成部123は、推奨車線決定部61により決定されて推奨車線を走行するように、且つ、車両Mの周辺状況に対応できるように、自動運転において順次実行されるイベントを決定する。イベントには、例えば、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従する追従走行イベント、車線変更イベント、合流イベント、分岐イベント、緊急停止イベント、自動運転から遠隔操作に切り替えるための遠隔操作イベントなどがある。また、これらのイベントの実行中に、車両Mの周辺状況(周辺車両や歩行者の存在、道路工事による車線狭窄など)に基づいて、回避のための行動が計画される場合もある。
 行動計画生成部123は、車両Mが将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとに将来の基準時刻を複数設定し、それらの基準時刻に到達すべき目標地点(軌道点)の集合として生成される。このため、軌道点同士の間隔が広い場合、その軌道点の間の区間を高速に走行することを示している。
 図4は、推奨車線に基づいて目標軌道が生成される様子を示す図である。図示するように、推奨車線は、目的地までの経路に沿って走行するのに都合が良いように設定される。行動計画生成部123は、推奨車線の切り替わり地点の所定距離手前(イベントの種類に応じて決定されてよい)に差し掛かると、車線変更イベント、分岐イベント、合流イベントなどを起動する。
 各イベントの実行中に、障害物を回避する必要が生じた場合には、図示するように回避軌道が生成される。行動計画生成部123は、例えば、目標軌道の候補を複数生成し、安全性と効率性の観点に基づいて、その時点での最適な目標軌道を選択する。また、行動計画生成部123は、経路において遠隔操作推奨地点が含まれるルートに差し掛かると遠隔操作イベントを起動する。
 第2制御部140は、走行制御部141を備える。走行制御部141は、行動計画生成部123によって生成された目標軌道を、予定の時刻通りに車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
 被遠隔操作制御部160の機能については後述する。
 走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、自動運転制御ユニット100から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
 ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、自自動運転制御ユニット100から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、走行制御部141から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
 ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、自動運転制御ユニット100から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
 [被遠隔操作制御]
 以下、本実施形態による被遠隔操作制御について説明する。被遠隔操作制御部160は、遠隔操作イベントが起動された場合に、通信装置20を用いて遠隔操作システム300に遠隔操作を依頼し(遠隔操作リクエストを送信し)、遠隔操作システム300から受信した制御情報に基づいて車両Mの加減速または操舵の少なくとも一方を自動的に制御する被遠隔操作を実行する。被遠隔操作制御部160は、例えば、遠隔操作決定部161を備える。遠隔操作決定部161は、遠隔操作イベントが起動された場合、車両Mの自動運転を停止し、車両Mの操作を遠隔操作に切り替える。
 [車外設備]
 以下、遠隔操作を行う側の車外設備について説明する。図5は、遠隔操作システム300における装置構成を示す図である。図示するように、遠隔操作システム300には、ネットワークNWを介して車両M(被遠隔操作車両)と通信する通信装置(通信部)310と、選択部311と、複数の遠隔操作装置320-1、320-2、320-3、…とが設けられる。以下、遠隔操作装置を区別しないときは、単に遠隔操作装置320と表記する。それぞれの遠隔操作装置320では、遠隔操作者が遠隔操作リクエストに備えて着座して待機している。通信装置310は、車両Mからの遠隔操作リクエストを受信する。
 選択部311は、遠隔操作リクエストを送信した車両との通信環境が良好ないずれかの遠隔操作装置320を選択する。通信環境が良好とは、例えば通信速度が速い、または、通信の切断が起きにくく安定していること、または、通信距離が短いことをいう。通信距離が短いとは、送信側から送信された電波が受信側に到達する距離が短い無線通信の状態を示す。選択部311は、遠隔操作のリクエストを送信した車両Mとの通信距離が短い、または、通信速度が最も早い、または、通信が最も安定している遠隔操作装置320のうちのいずれかを優先して選択する。通信装置310は、選択された遠隔操作装置320に対して、車両Mから受信した情報(前述したように、遠隔操作リクエスト、行動計画、カメラ10により撮像された画像、速度、角速度、車種など)を送信し、遠隔操作を行わせる。
 また、遠隔操作システム300は、通信装置310から受信した車両Mの行動計画に基づいて、経路において遠隔操作推奨地点が含まれるルートに差し掛かる場合に車両Mの自動運転から遠隔操作に切り替えるようにしてもよい。その他、遠隔操作システム300は、遠隔操作推奨地点がアップデートなどにより追加されて走行中のルートにおいて追加された遠隔操作推奨地点が含まれるルートに差し掛かる場合に車両Mの自動運転から遠隔操作に切り替えるようにしてもよい。これにより、遠隔操作システム300は、車両Mから遠隔操作リクエストが送信されなくても遠隔操作システム300側の判断によっても遠隔操作の切り替えを行うことができる。
 図6は、遠隔操作装置320の構成を模式的に示す図である。遠隔操作装置320は、例えば、提示部321と、スピーカ322と、シート323と、ステアリングホイール324と、アクセルペダルおよびブレーキペダルなどのペダル類325と、遠隔操作受付部(受付部)330と、遠隔操作制御部(制御部)340とを備える。遠隔操作受付部330は、遠隔操作者Oによる操作を受け付ける。遠隔操作制御部340は、遠隔操作受付部330により受け付けられた操作に基づいて制御情報を生成し、通信装置310を用いて車両Mに送信する。
 図7は、提示部321の構成を示すブロック図である。提示部321は、車両Mから受信した車両Mの状況を含む情報を遠隔操作者Oに提示する。提示部321は、推定状況生成部321aと、表示部321bとを備える。推定状況生成部321aは、CPUなどのプロセッサがプログラム(ソフトウェア)を実行することで実現される。また、推定状況生成部321aは、LSIやASIC、FPGAなどのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
 表示部321bは、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)表示装置であり、画像や情報を表示する。なお、表示部321bは、HMD(Head Mount Display)であってもよい。表示部321bは、例えば車両Mのカメラ10により撮像された車外の風景の画像、車両Mの速度やエンジン回転数などを表示する。
 ここで、車両Mと遠隔操作装置320との間の通信には、通信ラグが発生することが想定される。図8は、通信ラグが発生する間の車両Mの移動を示す図である。表示部321bが車両Mの状況をそのまま表示すると、車両Mと遠隔操作装置320との間の通信における時間的な上りの通信ラグが発生する。
 上りの通信ラグは、車両Mと遠隔操作システム300との間の通信に要する時間や遠隔操作システム300が車両Mからの情報を受信してから表示部321aに画像を表示するまでに要する処理時間等が含まれる。例えば、位置P1で車両Mの状況を撮像するとその状況が表示部321bに表示される。このとき上りの通信ラグは時間T1を要し、車両MはP1の位置からP2の位置に移動する。
 そして遠隔操作者Oが表示部321bを見て操作を行った後、車両Mが操作に応答するまでにも下りの通信ラグが発生する。下りの通信ラグは、遠隔操作者Oが操作を行った時から車両Mが制御情報を受信するまでの時間と車両Mが制御情報に基づく操作を開始するまでの処理時間等が含まれる。下りの通信ラグは、時間T2を要し、車両MはP2の位置からP3の位置に移動する。従って、操作者Oが見るP1の位置の車両Mの状況に必要な操作を行うと、操作が開始される車両MはP3の位置にあり、遠隔操作におけるずれが生じる。
 そこで表示部321bは、上り及び下りの通信ラグの影響を低減するように車両Mの状況を先読みした画像を表示する。先読みするとは、撮像された時点での車両Mの状況から所定時間経過した後の将来の車両Mの状況を推定することをいう。例えば推定状況生成部321aは、車両Mから受信した車両Mの状況を先読みし、撮像された時点での車両Mの状況から推定される推定状況を示す画像を生成して表示部321bに表示する。
 所定時間は想定される通信ラグを合計することにより決定される。例えば上りの通信ラグに要する時間T1と下りの通信ラグに要する時間T2の和が合計の通信ラグとして演算される。
 図9は、カメラ10によって撮像された画像Vに基づいて生成された推定状況に基づく画像を例示する図である。推定状況生成部321aは、P1の位置で撮像された車両Mの状況の画像Vに基づいてP3の位置の車両Mの状況の推定状況を生成する。推定状況生成部321aは、推定状況を示す画像を、例えばカメラ10によって撮像された画像を加工することにより生成する。例えば推定状況生成部321aは、推定状況を撮像された景色や物体の画像を車両Mの速度、移動方向等の情報に基づいて移動させることにより生成する。
 推定状況生成部321aは、物体が移動している場合には、連続する画像フレームを比較して物体の移動量や移動方向を推定する。そして、推定状況生成部321aは、車両の速度、移動方向の情報に基づいて所定時間経過後における物体の位置を推定し、推定状況を示す画像Sを生成する。また、推定状況を示す画像Sには、例えば撮像された物体や景色の将来的な位置を示す単純な枠線が示されてもよい。
 推定状況生成部321aは、撮像された車両Mの状況に変化が少ないと判断した場合は、撮像された画像Vの一部を拡大して所定時間経過後に相当する推定状況を示す画像Sを生成してもよい。図10は、撮像された画像Vの一部を拡大することにより生成された推定状況Sを例示する図である。例えば他の車両が前方に無く直線的な道路を車両Mが走行している場合、所定時間経過後の状況は、撮像された時点の画像の中央近傍の画像を速度データに基づいて拡大した画像で示される状況と類似していると推定される。そこで、推定状況生成部321aは、この拡大された画像Sを推定状況が示されている画像として生成する。
 その他、推定状況生成部321aは、通信装置310により取得された車両Mの行動計画に基づいて車両Mの状況を先読みして推定状況を生成してもよい。行動計画を参照すると、車両Mの右折、左折、レーンチェンジ等の方向制御や停止といった、撮像された車両Mの状況からは推定できない状況が将来的に発生することが予測される。そのため、推定状況生成部321aは、行動計画のイベントのタイミングと通信ラグを考慮して方向制御等の推定状況を生成する。
 この場合、推定状況生成部321aは、推定状況を示す画像をCG(Computer Graphics)等で合成された画像として生成してもよい。その他、推定状況生成部321aは、多少の通信ラグが生じていても他の車両と接触しないよう車間距離を十分に広げたり車両Mの速度を落としたりするよう遠隔操作者Oに遠隔操作を行わせ、安全マージンを確保するよう推定状況を示す画像を表示するようにしてもよい。例えば推定状況生成部321aは、推定状況に示す画像において他の車両を実際よりも近くに表示したり景色を実際よりも拡大して表示したりし、遠隔操作者Oに安全側になるような遠隔操作を行わせるようにしてもよい。即ち、推定状況生成部321aは、通信環境に基づいて遠隔操作で行われる操作の安全マージンが確保されるよう推定状況を示す画像を表示する。
 スピーカ322は、車両Mの物体認識装置16により認識された障害物の車両Mへの接近に応じて警告音を発する。シート323には、遠隔操作者Oが着座する。提示部321は、推定状況を示す画像を表示し、遠隔操作者Oにステアリングホイール324やペダル類325などの操作を運転操作子に対して行わせる。これらに対する操作量は、図示しないセンサによって検出され、遠隔操作受付部330に出力される。運転操作子は、ジョイスティックなど、他の態様の運転操作子であってもよい。遠隔操作受付部330は、運転操作子から入力された操作量に対応する情報を遠隔操作制御部340に出力する。遠隔操作制御部340は、転操作子から入力された操作量に対応する情報に基づいて、車両Mに送信する制御情報を生成する。制御情報は、通信装置310によって送信される。
 通信装置310は、このように生成された制御情報を、車両Mに送信する。なお、運転操作子には、操作量によって生じるべき反力を作用させるための反力出力装置が付設されている。反力を正確に決定するために、車両Mから遠隔操作装置320に対して、速度や角速度などの情報が供給されると好適である。送信される制御情報は、例えばステアリングホイール324やペダル類325に対する操作量である。
 次に、遠隔操作システム300の処理の流れについて説明する。図11は、遠隔操作システム300の処理の流れを示すフローチャートである。遠隔操作システム300は、遠隔操作リクエストを受信した後、通信装置310を介して車両Mから車両Mの状況を含む情報を受信する(ステップS100)。選択部311は、複数の遠隔操作装置320の中から車両Mとの通信環境が良好な一つの遠隔操作装置320を選択する(ステップS110)。選択された遠隔操作装置320において、推定状況生成部321aは、車両Mの状況を先読みした車両Mの推定状況を示す画像を生成する。そして推定状況を示す画像は、表示部321bに表示される(ステップS120)。
 遠隔操作受付部320は、表示部321bに表示された推定状況に基づいた遠隔操作者Oの各操作を受け付ける(ステップS130)。遠隔操作制御部340は、遠隔操作受付部320で受け付けた遠隔操作者Oの各操作を制御情報として通信装置310を介して車両Mに送信する(ステップS140)。
 上記のステップ110において、遠隔操作システム300は、遠隔操作リクエストを受信した後、選択部311によって複数の遠隔操作装置320の中から一つの遠隔操作装置320を選択しているが、選択部311によらずに自動的に一つの遠隔操作装置320を選択してもよい。例えば、遠隔操作リクエストを受信した後、通信装置310は、通信環境を監視して、複数の遠隔操作装置320の中から車両Mとの通信環境が最も良好な一つの遠隔操作装置320を自動的に選択するようにしてもよい。
 図12は、遠隔操作装置320を自動的に選択する処理を示すシーケンス図である。図においてm、p、yは正の整数である。自動運転が行なわれている複数の車両Mから遠隔操作リクエストが無作為に送信される。通信装置310は、車両Mとの通信環境が良好な順に複数の遠隔装置320を順位付ける。通信装置310は、まず車両Mとの通信環境が最も良好な遠隔装置320-mを選択する。通信装置310は、車両Mと遠隔装置320-mとの間の通信の接続を確立する。通信装置310は、車両Mと遠隔装置320-mとの間の通信の接続が確立できない場合、まず車両Mとの通信環境が2番目に良好な遠隔装置320-pを選択する。
 そして、通信装置310は、車両Mと遠隔装置320-pとの間の通信の接続を確立する。通信装置310は、車両Mと遠隔装置320-pとの間の通信の接続が確立できない場合は、車両Mとの通信環境が3番目に良好な遠隔装置320-yを選択する。通信装置310は、遠隔装置320-yとの間の通信の接続が確立できない場合は、上記と同様に遠隔装置320-yの次に通信環境が良好な通信装置320を選択すればよい。
 以上説明した第1実施形態の交通システム1によれば、自動運転が行われている車両Mが自動運転から遠隔操作に切り替えられる際に、複数の遠隔装置320の中から車両Mとの間の通信環境が最も良好な一つの遠隔装置320を選択することができる。
 また、交通システム1によれば、車両Mと遠隔操作システム300との間の通信に通信ラグが生じていても、通信ラグの影響を低減して遠隔操作者Oの遠隔操作を受け付けることができる。交通システム1は、車両Mが取得した車両Mの状況を遠隔操作システム300が受信すると、遠隔操作システム300は、車両Mの状況を先読みした推定状況を示す画像を生成して表示するため、遠隔操作者Oは、将来の車外の状況に合わせてステアリングホイール324やペダル類325に対する操作を行うことができる。
 <第2実施形態>
 第1実施形態では、車両Mと遠隔操作システム300との間の通信ラグに対して遠隔操作システム300側で推定状況を生成することにより車両が将来的に必要となる操作を遠隔操作者Oから受け付けるものとして説明した。第2実施形態では、車両M側が車両Mの状況を先読みし、先読みした将来の車両Mの状況を遠隔操作システム300に送信する。
 図13は、第2実施形態にかかる車両Mに搭載される構成の一例を示す図である。車両Mは、自身で取得した状況よりも先読みした情報を遠隔操作システム300に送信する。第2実施形態では、車両Mの第1制御部120は、推定状況生成部124を備える。
 推定状況生成部124は、通信装置20と遠隔操作システム300との間の通信ラグを演算する。そして推定状況生成部124は、通信ラグに基づいてカメラ10が撮像した車両Mの状況から、通信ラグに対応する所定時間の経過後に推定される推定状況を生成する。このとき、推定状況生成部124は、行動計画生成部123が生成する行動計画を参照して車両Mの状況を推定して推定状況を示す画像を生成してもよい。推定状況生成部124で生成された推定状況は、通信装置20を介して遠隔操作システム300に送信される。推定状況を受信した遠隔操作システム300において遠隔操作者Oは、表示される推定状況を示す画像を見ながら遠隔操作を行う。
 以上説明した第2実施形態によれば、車両M側で車両Mの状況を先読みすることで、将来の車両Mの状況を遠隔操作システム300に送信することができる。これにより交通システム1は、各車両Mで推定状況に関連する処理を行い、遠隔操作システム300の負荷を分散することができる。
 <第3実施形態>
 第1実施形態及び第2実施形態では、カメラ10で撮像した車両Mの状況から推定状況を生成するものとして説明した。第3実施形態では、カメラ10以外の撮像装置により撮像された画像を用いて推定状況を示す画像を生成する。
 図14は、定点カメラKで撮像される車両の状態を示す図である。ネットワークNW上には定点カメラKで撮像された景色をリアルタイムで提供するストリートビューがある。定点カメラKは、例えば360度の視野及びズーム機能を持ち、撮像された景色の画像はユーザが自由に視点方向及びズームを設定できる。
 車両Mが定点カメラKの視野内に位置している場合、推定状況を示す画像は定点カメラKで撮像された景色の画像を用いて合成された画像として生成されていてもよい。推定状況生成部321aは、定点カメラKの画像から推定状況の景色を車両Mの現在位置から推定される将来的な位置に対応して生成する。推定状況生成部321aは、推定状況の景色を視点方向とズームとを定めて生成する。動いている物体は、所定時間経過後の位置が推定されて生成され、推定された景色に合成される。これにより、推定状況を示す画像が生成される。
 以上説明した第3実施形態によれば、ネットワークNWに接続された定点カメラKで撮像された景色の画像データを用いることにより、車両Mと遠隔操作システム300との間で送受信される車両Mの状況の画像データの容量を低減することができ、通信ラグを低減することができる。
 以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1 交通システム
10 カメラ
16 物体認識装置
20 通信装置
30 HMI
80 運転操作子
100 自動運転制御ユニット
120 第1制御部
124 推定状況生成部
140 第2制御部
160 被遠隔操作制御部
161 遠隔操作決定部
300 遠隔操作システム
310 通信装置
311 選択部
320 遠隔操作装置
321 提示部
321a 推定状況生成部
330 遠隔操作受付部
340 遠隔操作制御部

Claims (12)

  1.  車両と通信し、遠隔操作のリクエストを含む情報を受信する通信部と、
     前記通信部により前記車両から受信された前記車両の状況を遠隔操作者に提示する提示部と、
     前記遠隔操作者による操作を受け付ける受付部と、
     前記受付部により受け付けられた操作に基づいて制御情報を生成し、前記通信部を用いて前記車両に送信する制御部と、
     を備える遠隔操作装置を複数備え、
     前記複数の遠隔操作装置のうち、前記遠隔操作のリクエストを送信した車両との通信環境が良好な遠隔操作装置が、遠隔操作を実行する、
     車両の遠隔操作システム。
  2.  前記複数の遠隔操作装置のうち、前記遠隔操作のリクエストを送信した車両との通信環境が良好な遠隔操作装置を選択する選択部を更に備える、
     請求項1記載の遠隔操作システム。
  3.  前記選択部は、前記遠隔操作のリクエストを送信した車両との通信距離が短い、または、通信速度が最も早い、または、通信が最も安定している遠隔操作装置のうちのいずれかを優先して選択する、
     請求項2記載の遠隔操作システム。
  4.  前記提示部は、前記通信部により前記車両から受信された前記車両の状況に基づいて、将来の車両の状況を推定し、前記推定した将来の車両の状況を前記遠隔操作者に提示する、
     請求項1に記載の遠隔操作システム。
  5.  前記提示部は、前記通信部により前記車両から受信された車両の状況に基づく画像を表示し、更に、前記通信部により前記車両から受信された車両の状況が、前記車両の前方に物体が少ない状況である場合、前記通信部により前記車両から受信された車両の状況に基づく画像の一部を拡大した画像を、前記将来の車両の状況を示す画像として表示する、
     請求項4に記載の遠隔操作システム。
  6.  前記通信部は、前記車両から自動運転の行動計画に関する情報を取得し、
     前記提示部は、前記行動計画に基づいて将来の車両の状況を推定する、
     請求項4に記載の遠隔操作システム。
  7.  前記提示部は、定点観測画像と、前記通信部により前記車両から受信された車両の状況に基づく画像とを合成することで、前記将来の車両の状況を示す画像を生成する、
     請求項4記載の遠隔操作システム。
  8.  前記車両が走行する予定のルートに通信障害発生予想位置が含まれるルートが含まれるか否かを判定する判定部と、
     前記判定部により通信障害発生予想位置が含まれるルートが含まれると判定された場合に、前記通信障害発生予想位置を回避するように経路を変更する変更部と、
    を備える、請求項1記載の遠隔操作システム。
  9.  請求項1記載の遠隔操作システムと、
     前記遠隔操作を受ける車両に搭載される車両制御システムと、
     を備える交通システム。
  10.  前記車両制御システムは、前記車両の状況に基づいて将来の車両の状況を推定し、前記推定した将来の車両の状況を、前記遠隔操作システムに送信する、
     請求項9に記載の交通システム。
  11.  前記車両制御システムは、行動計画に基づいて自動運転を実行し、前記行動計画に基づいて、将来の車両の状況を推定する、
     請求項10に記載の交通システム。
  12.  複数の遠隔操作装置が、
     車両と通信し、遠隔操作のリクエストを含む情報を受信し、
     前記車両から受信された前記車両の状況を遠隔操作者に提示し、
     前記遠隔操作者による操作を受け付け、
     前記受け付けられた操作に基づいて制御情報を生成し、前記車両に送信する遠隔操作方法であって、
     前記複数の遠隔操作装置のうち、前記遠隔操作のリクエストを送信した車両との通信環境が良好な遠隔操作装置が、遠隔操作を実行する、
     遠隔操作方法。
PCT/JP2016/083503 2016-11-11 2016-11-11 遠隔操作システム、交通システム、および遠隔操作方法 WO2018087879A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201680090343.9A CN109891470B (zh) 2016-11-11 2016-11-11 远程操作系统、交通系统及远程操作方法
PCT/JP2016/083503 WO2018087879A1 (ja) 2016-11-11 2016-11-11 遠隔操作システム、交通システム、および遠隔操作方法
US16/344,808 US11181902B2 (en) 2016-11-11 2016-11-11 Remote operation system, transportation system, and remote operation method
DE112016007429.8T DE112016007429T5 (de) 2016-11-11 2016-11-11 Entferntes Betriebssystem, Transportsystem und entferntes Betriebsverfahren
JP2018549711A JP6677817B2 (ja) 2016-11-11 2016-11-11 遠隔操作システム、交通システム、および遠隔操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/083503 WO2018087879A1 (ja) 2016-11-11 2016-11-11 遠隔操作システム、交通システム、および遠隔操作方法

Publications (1)

Publication Number Publication Date
WO2018087879A1 true WO2018087879A1 (ja) 2018-05-17

Family

ID=62110520

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/083503 WO2018087879A1 (ja) 2016-11-11 2016-11-11 遠隔操作システム、交通システム、および遠隔操作方法

Country Status (5)

Country Link
US (1) US11181902B2 (ja)
JP (1) JP6677817B2 (ja)
CN (1) CN109891470B (ja)
DE (1) DE112016007429T5 (ja)
WO (1) WO2018087879A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207539A (ja) * 2018-05-29 2019-12-05 株式会社Soken 管理装置
JP2020005123A (ja) * 2018-06-28 2020-01-09 株式会社Soken 車両の遠隔操作システム、車両制御装置、車両及び遠隔操作の開始タイミングを報知する方法
JP2020042764A (ja) * 2018-09-06 2020-03-19 株式会社Soken 車両遠隔操作支援システム
WO2020202373A1 (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 制御装置、制御方法及びプログラム
JP2020165832A (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 経路設定装置、経路設定方法及びプログラム
WO2020250645A1 (ja) * 2019-06-12 2020-12-17 株式会社Jvcケンウッド 車載通信装置、車両遠隔操作システム、通信方法およびプログラム
JP2021021661A (ja) * 2019-07-29 2021-02-18 トヨタ自動車株式会社 遠隔操作システム、プログラム及び車両
JP2021022246A (ja) * 2019-07-29 2021-02-18 トヨタ自動車株式会社 遠隔操作システム、プログラム及び車両
JP2021136584A (ja) * 2020-02-27 2021-09-13 株式会社デンソー 映像情報出力装置
JP2021179969A (ja) * 2019-07-25 2021-11-18 株式会社プロドローン 遠隔操縦システムおよびその操縦装置
US11214265B2 (en) * 2018-08-22 2022-01-04 Phantom Auto Inc. Vehicle teleoperator ranking and selection
JP2022048961A (ja) * 2020-09-15 2022-03-28 北京百度網訊科技有限公司 案内経路特定方法及び車両の走行制御方法、装置、機器、記憶媒体およびコンピュータプログラム
WO2022244329A1 (ja) * 2021-05-20 2022-11-24 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7418075B2 (ja) 2018-09-18 2024-01-19 キヤノン株式会社 撮像表示装置、ウェアラブルデバイスおよび撮像表示システム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6859720B2 (ja) * 2017-01-24 2021-04-14 いすゞ自動車株式会社 車両制御装置及び管理システム
US11168993B1 (en) 2017-03-29 2021-11-09 Apple Inc. Constrained registration of map information
US11578981B1 (en) * 2017-03-29 2023-02-14 Apple Inc. Constrained registration of map information
US11561107B2 (en) 2018-06-15 2023-01-24 Phantom Auto Inc. Vehicle routing evaluation based on predicted network performance
JP7311295B2 (ja) * 2019-03-29 2023-07-19 本田技研工業株式会社 制御装置、制御方法及びプログラム
JP7208114B2 (ja) * 2019-07-04 2023-01-18 本田技研工業株式会社 情報提供装置、情報提供方法、およびプログラム
JP7159991B2 (ja) * 2019-07-23 2022-10-25 トヨタ自動車株式会社 車両制御システム及び車両制御装置
JP7272164B2 (ja) * 2019-08-06 2023-05-12 トヨタ自動車株式会社 運転操作引継システム及び車両
JP7222332B2 (ja) * 2019-08-23 2023-02-15 トヨタ自動車株式会社 車両遠隔指示システム
JP7276023B2 (ja) * 2019-09-06 2023-05-18 トヨタ自動車株式会社 車両遠隔指示システム、及び自動運転車両
JP7234872B2 (ja) * 2019-09-12 2023-03-08 トヨタ自動車株式会社 車両遠隔指示システム
US11661089B2 (en) 2019-09-13 2023-05-30 Phantom Auto Inc. Mapping of intelligent transport systems to remote support agents
CN111016925B (zh) * 2019-12-12 2022-03-15 长城汽车股份有限公司 自动驾驶车辆的远程驾驶系统
CN111016924B (zh) * 2019-12-12 2022-07-12 长城汽车股份有限公司 自动驾驶车辆的远程驾驶控制方法、装置及远程驾驶系统
EP4002894A1 (en) 2020-11-16 2022-05-25 Volkswagen Ag Method, computer program and apparatus for invoking a tele-operated driving session
JP7351320B2 (ja) * 2021-03-09 2023-09-27 トヨタ自動車株式会社 車両制御システム及び車両制御方法
JP2022147730A (ja) * 2021-03-23 2022-10-06 トヨタ自動車株式会社 遠隔操作方法、遠隔操作装置、及び遠隔操作プログラム
JP2022174596A (ja) * 2021-05-11 2022-11-24 トヨタ自動車株式会社 自動運転システム、自動運転制御方法、及び自動運転制御プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305151A (ja) * 2007-06-07 2008-12-18 Denso Corp 車両用危険通知システム
JP2011150516A (ja) * 2010-01-21 2011-08-04 Ihi Aerospace Co Ltd 無人車両の半自律走行システム
JP2013045290A (ja) * 2011-08-24 2013-03-04 Aisin Seiki Co Ltd 車両用遠隔操作装置
JP2013203283A (ja) * 2012-03-29 2013-10-07 Fujitsu Ten Ltd 車両制御装置、及び、車両制御システム
JP2015108860A (ja) * 2013-12-03 2015-06-11 本田技研工業株式会社 車両制御装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5461292A (en) * 1994-07-18 1995-10-24 Zondlo; Robert Remote controlled guidance system for working vehicle
JP3809914B2 (ja) 1994-08-09 2006-08-16 株式会社フジタ 無人作業車の遠隔制御方法
JP3668704B2 (ja) * 2001-07-05 2005-07-06 株式会社ホンダロック 車載機器遠隔制御装置における通信モード変更方法
JP2008306544A (ja) 2007-06-08 2008-12-18 Denso Corp 車両用ナビゲーション装置
US20100106344A1 (en) * 2008-10-27 2010-04-29 Edwards Dean B Unmanned land vehicle having universal interfaces for attachments and autonomous operation capabilities and method of operation thereof
US8185302B2 (en) * 2010-08-26 2012-05-22 Ford Global Technologies, Llc Conservational vehicle routing
JP2013031389A (ja) 2011-08-01 2013-02-14 Original Soft:Kk 自動芝刈り機及びその制御方法
CN104169987A (zh) * 2012-03-22 2014-11-26 日立汽车系统株式会社 车辆用通信装置以及通信管理系统
US20150149265A1 (en) * 2013-11-27 2015-05-28 GM Global Technology Operations LLC Controlled parking of autonomous vehicles
CN103777632B (zh) * 2013-12-31 2017-12-26 闻泰通讯股份有限公司 一种用手机控制车辆的系统及方法
US9720410B2 (en) * 2014-03-03 2017-08-01 Waymo Llc Remote assistance for autonomous vehicles in predetermined situations
CN203894610U (zh) 2014-03-26 2014-10-22 东莞市奥时达信息技术有限公司 一种多方式汽车远程控制系统
JP6201916B2 (ja) 2014-07-04 2017-09-27 株式会社デンソー 車両の運転モード制御装置
US10604155B2 (en) 2014-09-11 2020-03-31 Honda Motor Co., Ltd. Driving assistance device
KR101682880B1 (ko) * 2015-03-19 2016-12-20 현대자동차주식회사 차량 및 이를 포함하는 원격 차량 조작 시스템
US9494439B1 (en) * 2015-05-13 2016-11-15 Uber Technologies, Inc. Autonomous vehicle operated with guide assistance of human driven vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305151A (ja) * 2007-06-07 2008-12-18 Denso Corp 車両用危険通知システム
JP2011150516A (ja) * 2010-01-21 2011-08-04 Ihi Aerospace Co Ltd 無人車両の半自律走行システム
JP2013045290A (ja) * 2011-08-24 2013-03-04 Aisin Seiki Co Ltd 車両用遠隔操作装置
JP2013203283A (ja) * 2012-03-29 2013-10-07 Fujitsu Ten Ltd 車両制御装置、及び、車両制御システム
JP2015108860A (ja) * 2013-12-03 2015-06-11 本田技研工業株式会社 車両制御装置

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207539A (ja) * 2018-05-29 2019-12-05 株式会社Soken 管理装置
JP2020005123A (ja) * 2018-06-28 2020-01-09 株式会社Soken 車両の遠隔操作システム、車両制御装置、車両及び遠隔操作の開始タイミングを報知する方法
JP7111530B2 (ja) 2018-06-28 2022-08-02 株式会社Soken 車両の遠隔操作システム、車両制御装置、車両及び遠隔操作の開始タイミングを報知する方法
US11794755B2 (en) 2018-08-22 2023-10-24 Phantom Auto Inc. Vehicle teleoperator ranking and selection
US20220073083A1 (en) * 2018-08-22 2022-03-10 Phantom Auto Inc. Vehicle teleoperator ranking and selection
US11214265B2 (en) * 2018-08-22 2022-01-04 Phantom Auto Inc. Vehicle teleoperator ranking and selection
JP2020042764A (ja) * 2018-09-06 2020-03-19 株式会社Soken 車両遠隔操作支援システム
JP7418075B2 (ja) 2018-09-18 2024-01-19 キヤノン株式会社 撮像表示装置、ウェアラブルデバイスおよび撮像表示システム
JPWO2020202373A1 (ja) * 2019-03-29 2020-10-08
US11924652B2 (en) 2019-03-29 2024-03-05 Honda Motor Co., Ltd. Control device and control method
CN113574848A (zh) * 2019-03-29 2021-10-29 本田技研工业株式会社 控制装置、控制方法以及程序
JP2020165832A (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 経路設定装置、経路設定方法及びプログラム
JP7236310B2 (ja) 2019-03-29 2023-03-09 本田技研工業株式会社 経路設定装置、経路設定方法及びプログラム
WO2020202373A1 (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 制御装置、制御方法及びプログラム
JP7256867B2 (ja) 2019-03-29 2023-04-12 本田技研工業株式会社 制御装置、制御方法及びプログラム
WO2020250645A1 (ja) * 2019-06-12 2020-12-17 株式会社Jvcケンウッド 車載通信装置、車両遠隔操作システム、通信方法およびプログラム
JP2021179969A (ja) * 2019-07-25 2021-11-18 株式会社プロドローン 遠隔操縦システムおよびその操縦装置
JP2021021661A (ja) * 2019-07-29 2021-02-18 トヨタ自動車株式会社 遠隔操作システム、プログラム及び車両
US11479266B2 (en) 2019-07-29 2022-10-25 Toyota Jidosha Kabushiki Kaisha Remote operation system, computer readable storage medium, and vehicle
JP7243512B2 (ja) 2019-07-29 2023-03-22 トヨタ自動車株式会社 遠隔操作システム、プログラム及び車両
JP7331531B2 (ja) 2019-07-29 2023-08-23 トヨタ自動車株式会社 遠隔操作システム、プログラム及び車両
JP2021022246A (ja) * 2019-07-29 2021-02-18 トヨタ自動車株式会社 遠隔操作システム、プログラム及び車両
JP7314834B2 (ja) 2020-02-27 2023-07-26 株式会社デンソー 映像情報出力装置
JP2021136584A (ja) * 2020-02-27 2021-09-13 株式会社デンソー 映像情報出力装置
JP7142739B2 (ja) 2020-09-15 2022-09-27 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 案内経路特定方法及び車両の走行制御方法、装置、機器、記憶媒体およびコンピュータプログラム
US11724716B2 (en) 2020-09-15 2023-08-15 Beijing Baidu Netcom Science Technology Co., Ltd. Method and apparatus of determining guide path, method and apparatus of controlling driving of vehicle, and electronic device
JP2022048961A (ja) * 2020-09-15 2022-03-28 北京百度網訊科技有限公司 案内経路特定方法及び車両の走行制御方法、装置、機器、記憶媒体およびコンピュータプログラム
WO2022244329A1 (ja) * 2021-05-20 2022-11-24 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
JPWO2018087879A1 (ja) 2019-09-26
US20200057436A1 (en) 2020-02-20
CN109891470B (zh) 2022-03-01
JP6677817B2 (ja) 2020-04-08
US11181902B2 (en) 2021-11-23
DE112016007429T5 (de) 2019-08-01
CN109891470A (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
JP6677817B2 (ja) 遠隔操作システム、交通システム、および遠隔操作方法
JP6493923B2 (ja) 情報表示装置、情報表示方法、および情報表示プログラム
WO2018138769A1 (ja) 車両制御装置、車両制御方法、および車両制御プログラム
JP6650386B2 (ja) 遠隔運転制御装置、車両制御システム、遠隔運転制御方法、および遠隔運転制御プログラム
JP6646168B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US20170337810A1 (en) Traffic condition estimation apparatus, vehicle control system, route guidance apparatus, traffic condition estimation method, and traffic condition estimation program
WO2018087828A1 (ja) 車両制御装置、車両制御システム、車両制御方法、および車両制御プログラム
JP6676196B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP2018154200A (ja) 経路決定装置、車両制御装置、経路決定方法、およびプログラム
JP2018203006A (ja) 車両制御システムおよび車両制御方法
JP7159137B2 (ja) 車両制御装置、車両制御方法、およびプログラム
WO2018131290A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JPWO2018087880A1 (ja) 車両制御装置、車両制御システム、車両制御方法、および車両制御プログラム
JP2019090627A (ja) 表示システム、表示方法、およびプログラム
WO2018122973A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JPWO2018142568A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018087801A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP2018076027A (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6465497B2 (ja) 情報表示装置、情報表示方法、および情報表示プログラム
WO2018179359A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6460420B2 (ja) 情報表示装置、情報表示方法、および情報表示プログラム
JP6696006B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JPWO2018142566A1 (ja) 通過ゲート決定装置、車両制御システム、通過ゲート決定方法、およびプログラム
WO2018123346A1 (ja) 車両制御装置、車両制御方法、及びプログラム
CN110462338B (zh) 车辆控制系统、服务器装置、车辆控制方法及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16921009

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018549711

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 16921009

Country of ref document: EP

Kind code of ref document: A1