WO2018155159A1 - 遠隔映像出力システム、及び遠隔映像出力装置 - Google Patents

遠隔映像出力システム、及び遠隔映像出力装置 Download PDF

Info

Publication number
WO2018155159A1
WO2018155159A1 PCT/JP2018/003942 JP2018003942W WO2018155159A1 WO 2018155159 A1 WO2018155159 A1 WO 2018155159A1 JP 2018003942 W JP2018003942 W JP 2018003942W WO 2018155159 A1 WO2018155159 A1 WO 2018155159A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
range
remote
vehicle
frame
Prior art date
Application number
PCT/JP2018/003942
Other languages
English (en)
French (fr)
Inventor
上田 伊織
星田 昌昭
岩間 智大
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2019501191A priority Critical patent/JPWO2018155159A1/ja
Publication of WO2018155159A1 publication Critical patent/WO2018155159A1/ja
Priority to US16/531,987 priority patent/US20190361436A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/0875Registering performance data using magnetic data carriers
    • G07C5/0891Video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/24Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions

Definitions

  • the present disclosure relates to a remote video output system and a remote video output device for remotely controlling an autonomous driving vehicle.
  • NHTSA National Highway Traffic Safety Administration
  • a remote control technology as a technology for a transition period until a fully unmanned autonomous driving vehicle is completed or as a technology for complementing a fully unmanned autonomous driving vehicle (see, for example, Patent Documents 1 to 3).
  • a method is conceivable in which a supervisor monitors a plurality of unmanned automatic driving vehicles at a remote control center and sends instructions to the unmanned driving vehicles when necessary.
  • This disclosure provides technology that contributes to safe and appropriate remote control.
  • the remote video output system includes a vehicle and a remote video output device.
  • the vehicle includes an imaging circuit that can capture at least the periphery of the traveling direction, and a wireless communication circuit that can transmit an image captured by the imaging circuit.
  • the remote video output device includes a communication circuit that can receive a first video from a wireless communication circuit via a network, and an output circuit that can output a second video.
  • the output circuit cuts out the first range from the first frame of the first video and outputs the first range. 2 video is output.
  • the output circuit starts from the second frame of the first video.
  • a second range narrower than the range of 1 is cut out and output as a second video.
  • FIG. 1 is a diagram illustrating an overall configuration of a remote automatic driving system according to Embodiment 1 of the present disclosure.
  • FIG. 2 is a diagram illustrating a configuration of the autonomous driving vehicle according to the first embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating a configuration of the remote control device according to the first embodiment of the present disclosure.
  • FIG. 4 is a flowchart showing a basic operation of the remote automatic driving system according to the first embodiment of the present disclosure.
  • FIG. 5 is a flowchart illustrating a processing flow of the transmission data amount adjustment method according to the first operation example.
  • FIG. 6A is a diagram illustrating an example of a monitoring image displayed on the display unit of the remote control device according to the first operation example.
  • FIG. 6A is a diagram illustrating an example of a monitoring image displayed on the display unit of the remote control device according to the first operation example.
  • FIG. 6B is a diagram illustrating an example of a monitoring image displayed on the display unit of the remote control device according to the first operation example.
  • FIG. 7 is a flowchart illustrating a process flow of the transmission data amount adjustment method according to the second operation example.
  • FIG. 8A is a diagram illustrating an example of a monitoring image displayed on the display unit of the remote control device in the second operation example.
  • FIG. 8B is a diagram illustrating an example of a monitoring image displayed on the display unit of the remote control device in the second operation example.
  • FIG. 9 is a flowchart illustrating a processing flow of the communication method switching method according to the operation example 3.
  • FIG. 10 is a flowchart illustrating a processing flow of the communication method switching method according to the fourth operation example.
  • FIG. 10 is a flowchart illustrating a processing flow of the communication method switching method according to the fourth operation example.
  • FIG. 11 is a flowchart illustrating the operation of the remote automatic driving system equipped with the high-quality image request function according to the operation example 5.
  • FIG. 12 is a flowchart illustrating the operation of the remote automatic driving system according to the operation example 6 in which the function for designating the travel route at the time of restarting the operation is installed.
  • FIG. 13 is a diagram illustrating an example of specifying a travel route on a monitoring image displayed on the display unit of the remote control device according to the operation example 6.
  • FIG. 14 is a flowchart showing the operation of the remote automatic driving system equipped with the function for specifying the travel route when restarting the operation according to the operation example 7.
  • FIG. 15 is a diagram illustrating an example of designating a travel route on a monitoring image displayed on the display unit of the remote control device according to the operation example 7.
  • FIG. 16 is a diagram illustrating an example of designating a travel route on a monitoring image displayed on the display unit of the remote control device according to a modification of the operation examples 6 and 7.
  • FIG. 17 is a flowchart illustrating a processing flow of the monitoring image display method including the danger range object according to the operation example 8.
  • FIG. 18A is a diagram illustrating an example of a monitoring image displayed on the display unit of the remote control device according to the operation example 8.
  • FIG. 18B is a diagram illustrating an example of a monitoring image displayed on the display unit of the remote control device according to the operation example 8.
  • FIG. 19 is a flowchart illustrating a processing flow of the monitoring image display method including the danger range object according to the operation example 9.
  • FIG. 20 is a flowchart illustrating a processing flow of the monitoring image display method in which the communication delay is visualized according to the operation example 10.
  • FIG. 21 is a diagram illustrating an example of a monitoring image displayed on the display unit of the remote control device according to the tenth operation example.
  • FIG. 22 is a flowchart illustrating a process flow of the monitoring image display method in which the communication delay is visualized according to the operation example 11.
  • FIG. 23 is a diagram illustrating an example of a monitoring image displayed on the display unit of the remote control device according to the operation example 11.
  • FIG. 24 is a diagram illustrating a configuration of an autonomous driving vehicle according to the second embodiment of the present disclosure.
  • FIG. 25 is a diagram illustrating a configuration of the remote control device according to the second embodiment of the present disclosure.
  • FIG. 26 is a flowchart illustrating a flow of basic processing when the remote control device according to the second embodiment of the present disclosure displays an image received from an autonomous driving vehicle.
  • FIG. 27 is a flowchart illustrating a flow of development processing when the remote control device according to the second embodiment of the present disclosure displays an image received from an autonomous driving vehicle.
  • FIG. 28 is a flowchart illustrating a basic operation of the remote automatic driving system according to the second embodiment of the present disclosure.
  • FIG. 29A is a diagram illustrating an example of a cutout range that is cut out when the autonomous driving vehicle goes straight.
  • FIG. 29B is a diagram illustrating an example of a cutout range that is cut out when the autonomous driving vehicle goes straight.
  • FIG. 30A is a diagram illustrating an example of a cutout range that is cut out when the autonomous driving vehicle curves.
  • FIG. 30B is a diagram illustrating an example of a cutout range that is cut out when the autonomous driving vehicle curves.
  • FIG. 31 is a diagram illustrating a state of the steered wheels when the autonomous driving vehicle goes straight.
  • FIG. 32 is a diagram illustrating a state of the steered wheels when the autonomous driving vehicle is turning right.
  • FIG. 33 is a diagram illustrating the state of the steered wheels when the autonomous driving vehicle is turning to the left.
  • FIG. 34 is a diagram illustrating a first relationship example between a frame image of a first video imaged by a visible light camera of an autonomous driving vehicle and a frame image of a second video image displayed on the display unit of the remote control device. It is.
  • FIG. 35 is a diagram illustrating a second relationship example between the frame image of the first video imaged by the visible light camera of the autonomous driving vehicle and the frame image of the second video image displayed on the display unit of the remote control device. It is.
  • FIG. 36 is a diagram illustrating an example of a frame image displayed on the display unit of the remote control device.
  • FIG. 37 is a diagram illustrating an example of a frame image captured by a visible light camera having a fisheye lens.
  • FIG. 38 is an overhead view of an intersection where an autonomous driving vehicle exists.
  • FIG. 39 is a diagram illustrating a frame image captured when the autonomous driving vehicle is located at the first point in FIG. 38.
  • FIG. 40 is a diagram illustrating a frame image captured when the autonomous driving vehicle is located at the second point in FIG. 38.
  • FIG. 41 is a diagram showing a frame image taken immediately after the autonomous driving vehicle starts a left turn from the first point in FIG. 38.
  • FIG. 42 is a top view of an intersection where an autonomous driving vehicle is present on which a dangerous range object is superimposed.
  • FIG. 43 is a diagram illustrating a display frame image generated from the cutout range in the frame image captured by the visible light camera of the autonomous driving vehicle located at the second point.
  • Embodiment 1 In an unmanned autonomous driving vehicle that incorporates remote control in part, it is necessary to transmit detection data obtained by detecting the state of the vehicle and surrounding conditions with a sensor from a vehicle to a remote control center via a network. However, for example, if high-quality image data is continuously transmitted from the vehicle to the remote control center, the communication cost increases. Further, the larger the amount of data to be transmitted, the greater the influence of communication delay.
  • the first embodiment of the present disclosure has been made in view of such a situation, and the first object of the first embodiment is to secure the safety of the amount of data transmitted from the autonomous driving vehicle to the remote control device. It is to provide a technology to reduce.
  • Autonomous driving vehicle will autonomously stop emergency when it detects a dangerous event such as a pedestrian jumping out.
  • a dangerous event such as a pedestrian jumping out.
  • the situation around the vehicle after an emergency stop is diverse, and it is difficult to predict the next behavior of a pedestrian or bicycle that caused the emergency stop. Therefore, it is difficult to accurately determine whether or not the autonomous driving vehicle can resume driving after an emergency stop.
  • an emergency stop is performed at the center of the road, there is a possibility that the vehicle is subsequently jammed, and it is required to quickly determine whether or not to resume driving.
  • the first embodiment of the present disclosure has been made in view of such a situation, and the second object of the first embodiment is to ensure safety while suppressing the obstacles to road operation in a rotating vehicle. It is to provide technology to do.
  • the first embodiment of the present disclosure has been made in view of such a situation, and a third object of the first embodiment is to improve the accuracy of remote control by a supervisor who monitors an autonomous driving vehicle via a network. It is to provide the technology to make.
  • FIG. 1 is a diagram illustrating an overall configuration of a remote automatic driving system according to Embodiment 1 of the present disclosure.
  • the automatic driving control device 10 mounted on the automatic driving vehicle 1 communicates with the remote control device 50 of the remote monitoring center 5 via the network 2.
  • the automatic operation control apparatus 10 includes a communication method (hereinafter referred to as a first communication method) using a wireless LAN (Wireless LAN: Wireless Local Area Network) and a communication method (hereinafter referred to as a first communication method) using a cellular phone network (cellular network). Two-way communication is performed with the remote control device 50 using a 2 communication method).
  • LTE Long-Term Evolution
  • the base station apparatus 2b has a radius of about several hundred m to several km as an area cover range, and each base station apparatus 2b communicates with the automatic operation control apparatus 10 within its own area cover range by the second communication method.
  • the base station device 2b receives the signal received from the automatic operation control device 10 via the switching center (not shown), the gateway device (not shown), the Internet 2c, and the router device 2d of the remote monitoring center 5 to the remote control device 50.
  • the base station device 2b receives the signal transmitted from the remote control device 50 via the router device 2d, the Internet 2c, the gateway device (not shown) and the exchange (not shown) of the remote monitoring center 5, and automatically It transmits to the operation control apparatus 10.
  • the wireless LAN router device 2a has a radius of about several tens of meters as an area cover range, and each base station device 2b communicates with the automatic operation control device 10 within its own area cover range by the first communication method.
  • the wireless LAN router device 2 a transmits the signal received from the automatic operation control device 10 to the remote control device 50 via the Internet 2 c and the router device 2 d of the remote monitoring center 5. Further, the wireless LAN router device 2 a receives the signal transmitted from the remote control device 50 via the router device 2 d of the remote monitoring center 5 and the Internet 2 c and transmits it to the automatic operation control device 10.
  • unmanned automatic driving vehicles When using unmanned automatic driving vehicles for business vehicles such as taxis, buses, transport trucks, etc., the biggest merit is the reduction of labor costs by eliminating the need for drivers.
  • the benefits of eliminating the need for a driver include an increase in the number of passengers that can be boarded and an increase in luggage installation space.
  • unmanned autonomous driving vehicles require remote monitoring, and communication is required between the unmanned autonomous driving vehicle and the remote monitoring center.
  • the communication cost greatly exceeds the driver's wage. appear. Therefore, in order to realize a remote automatic driving system, it is necessary to reduce communication costs while ensuring safety.
  • FIG. 2 is a diagram illustrating a configuration of the autonomous driving vehicle 1 according to the first embodiment of the present disclosure.
  • the automatic driving vehicle 1 includes an automatic driving control device 10, a detection unit 20, and an actuator 30.
  • Members necessary for the driving operation by the driver such as an accelerator pedal, a brake pedal, and a steering wheel may be installed in the vehicle or may be omitted.
  • Actuator 30 drives a load related to vehicle travel, such as an engine, a motor, a steering, a brake, and a ramp.
  • the detection unit 20 includes a visible light camera 21, a LIDAR (Light Detection and Ranging) 22, a millimeter wave radar 23, a vehicle speed sensor 24, and a GPS (Global Positioning System) sensor 25.
  • Visible light cameras 21 are installed at at least four locations on the front, rear and left and right sides of the vehicle. A bird's-eye view image is generated by combining the front image, the rear image, the left image, and the right image captured by these four visible light cameras 21. Further, a visible light camera 21 for photographing a distant portion in the traveling direction is installed in front of the vehicle.
  • the LIDAR 22 emits a light beam (for example, an infrared laser) around the vehicle, receives the reflected signal, and based on the received reflected signal, the distance from the surrounding object, the size of the object, Measure the composition of the object.
  • a light beam for example, an infrared laser
  • the moving speed of the object can also be measured.
  • a three-dimensional modeling image around the vehicle can be generated.
  • the millimeter wave radar 23 emits radio waves (millimeter waves) around the vehicle, receives the reflected signal, and measures the distance to an object existing around based on the received reflected signal. By installing a plurality of millimeter wave radars 23, a wide range of objects around the vehicle can be detected. The millimeter wave radar 23 can also detect a far object that is difficult to detect with the LIDAR 22.
  • the vehicle speed sensor 24 detects the speed of the autonomous driving vehicle 1.
  • the GPS sensor 25 detects position information of the autonomous driving vehicle 1. Specifically, the transmission time is received from each of a plurality of GPS satellites, and the latitude and longitude of the reception point are calculated based on the received plurality of transmission times.
  • the automatic operation control device 10 includes a control unit 11, a storage unit 12, and an input / output unit 13.
  • the control unit 11 includes an autonomous travel control unit 111, a risk level calculation unit 112, a communication delay estimation unit 113, a transmission data amount adjustment unit 114, and a communication method switching unit 115.
  • the function of the control unit 11 can be realized by cooperation of hardware resources and software resources, or only by hardware resources.
  • a hardware resource a processor, ROM (Read-Only Memory), RAM (Random-Access Memory), and other LSI (Large-Scale Integration) can be used.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • DSP Digital Signal Processor
  • the storage unit 12 includes, for example, an HDD (Hard Disk Drive) and an SSD (Solid-State Drive).
  • the storage unit 12 holds data necessary for autonomous traveling such as a three-dimensional map.
  • the input / output unit 13 includes a center input / output unit 131, a detection data input unit 132, and a control signal output unit 133.
  • the center input / output unit 131 has a communication interface conforming to a communication method with the remote control device 50 of the remote monitoring center 5.
  • the detection data input unit 132 acquires various types of detection data from the detection unit 20 and outputs them to the control unit 11.
  • the control signal output unit 133 outputs control signals for driving the various actuators 30 generated by the control unit 11 to the various actuators 30.
  • the autonomous traveling control unit 111 causes the autonomous driving vehicle 1 to autonomously travel based on a predetermined automatic driving algorithm. Specifically, the autonomous traveling control unit 111 recognizes the host vehicle and the situation around the host vehicle based on various detection data detected by the detection unit 20 and various information collected from the outside by radio. The autonomous traveling control unit 111 determines the behavior of the autonomous driving vehicle 1 by applying various parameters indicating the recognized situation to the autonomous driving algorithm. The autonomous traveling control unit 111 generates control signals for driving the various actuators 30 based on the determined behavior and outputs the control signals to the actuators 30.
  • the automatic driving algorithm is generated by artificial intelligence (AI) based on deep learning.
  • AI artificial intelligence
  • Various parameters of the automatic driving algorithm are initially set to values learned in advance by a high-spec computer, and updated values are appropriately downloaded from a data center on the cloud.
  • the risk level calculation unit 112 calculates the current risk level of the autonomous driving vehicle 1 based on various parameters such as LDW (Lane Departure Warning), FCW (Forward collision warning), sudden steering, sudden braking, time zone, location, and weather. Is calculated. For example, when any of the events of LDW, FCW, sudden steering, and sudden braking occurs, the degree of danger increases greatly.
  • the risk level calculation unit 112 may calculate the current risk level of the autonomous driving vehicle 1 based on a risk prediction algorithm generated by artificial intelligence based on deep learning.
  • the degree of risk can be calculated in consideration of various data detected by the detection unit 20.
  • the degree of risk is defined by a value in the range of 0 to 100, for example.
  • the communication delay estimation unit 113 estimates the delay time of the communication path of the first communication method or the second communication method. For example, it can be estimated from the difference between the transmission time at which a signal is transmitted from the automatic operation control device 10 and the reception time at which the remote control device 50 receives the signal. Specifically, the time stamp of the transmission time is inserted into the transmission signal, and the difference is detected by having the remote control device 50 return the reception time of the time stamp. When a time stamp is inserted in the signal transmitted from the remote control device 50, the difference between the reception time when the signal is received and the transmission time included in the time stamp is detected.
  • the transmission data amount adjustment unit 114 determines the amount of detection data to be transmitted to the remote control device 50 based on the risk calculated by the risk calculation unit 112 or the communication delay estimated by the communication delay estimation unit 113. adjust.
  • the transmission data amount adjustment unit 114 increases the data amount of the detection data to be transmitted as the degree of danger is higher or the communication delay amount is smaller.
  • the amount of data is image data generated by the visible light camera 21.
  • the next largest amount of data is the three-dimensional modeling data generated by LIDAR 22.
  • the next largest amount of data is detection information detected by the millimeter wave radar 23.
  • the vehicle information detected by the vehicle speed sensor 24 and the position information detected by the GPS sensor 25 are very small amounts of data.
  • the transmission data amount adjustment unit 114 can also adjust the data amount of the transmission data by adjusting the type of detection data to be transmitted. For example, when reducing the data amount of transmission data, the transmission data amount adjustment unit 114 excludes image data generated by the visible light camera 21 from transmission targets.
  • the transmission data amount adjusting unit 114 can adjust the data amount of the transmission data by adjusting the image quality of the image data to be transmitted. For example, the transmission data amount adjustment unit 114 adjusts at least one of the resolution and the frame rate of the image data. Further, the number of gradations per unit pixel may be adjusted.
  • the communication method switching unit 115 switches the communication method based on the risk calculated by the risk calculation unit 112 or the communication delay estimated by the communication delay estimation unit 113. For example, the communication method switching unit 115 compares the delay amount of the communication path of the first communication method with the delay amount of the communication path of the second communication method, and selects the communication method having the smaller delay amount. In an area where the wireless LAN router device 2a does not exist in the vicinity of the autonomous driving vehicle 1, the communication method switching unit 115 selects the second communication method.
  • the communication method switching unit 115 selects a relatively high-quality communication method when the degree of risk calculated by the degree-of-risk calculation unit 112 is higher than the set value, and relatively low quality when the risk level is equal to or lower than the set value. Select the communication method.
  • the communication quality of the second communication method is higher than that of the first communication method.
  • the base station device 2b of the cellular phone network has a wider individual coverage than the wireless LAN router device 2a, and the frequency of handovers is low.
  • standard techniques for handover have been established in mobile phone networks, and there is little possibility that communication will be interrupted during handover.
  • the communication method switching unit 115 selects a communication method having a relatively high communication cost when the risk calculated by the risk calculation unit 112 is higher than a set value, and relatively communicates when the risk is less than the set value.
  • a communication method with a low cost can also be selected.
  • the communication cost of the first communication method is lower than that of the second communication method.
  • the communication method switching unit 115 performs communication relatively when the degree of risk is lower than the set value even when the delay amount of the communication path of the first communication method is larger than the delay amount of the communication route of the second communication method. You may select the 1st communication system with low cost. However, when the delay amount of the communication path of the first communication method is absolutely large, it is desirable to select the second communication method.
  • the autonomous traveling control unit 111 transmits a control signal instructing an emergency stop to the braking actuator 30 to stop the autonomous driving vehicle 1.
  • Events that require an emergency stop include jumping out of a person or bicycle, sudden stopping of a preceding vehicle, interruption of another vehicle, or inability to communicate. Stops due to red lights, stops due to traffic jams, and stops due to arrival at the destination are not included in the emergency stop.
  • the autonomous traveling control unit 111 urgently stops the autonomous driving vehicle 1 and notifies the remote control device 50 that an emergency stop event has occurred via the network 2.
  • the transmission data amount adjustment unit 114 controls to transmit all types of detection data detected by the detection unit 20 to the remote control device 50. Accordingly, the image data is also included in the transmission target. Further, the transmission data amount adjustment unit 114 controls to transmit image data with the highest image quality to the remote control device 50 when an event requiring an emergency stop occurs.
  • the communication method switching unit 115 selects a communication method with the smallest amount of delay.
  • FIG. 3 is a diagram illustrating a configuration of the remote control device 50 according to the first embodiment of the present disclosure.
  • the remote control device 50 is constructed by at least one server or PC (Personal Computer).
  • the remote control device 50 includes a control unit 51, a storage unit 52, an input / output unit 53, a display unit 54, and an operation unit 55.
  • the display unit 54 includes a liquid crystal display or an organic electro-luminescence (OEL) display, and displays an image generated by the control unit 51.
  • the operation unit 55 includes input devices such as a keyboard, a mouse, and a touch panel, and outputs an operation signal generated due to a user operation to the control unit 51.
  • the operation unit 55 may be provided with a simulated control device such as a remote driving steering wheel, an accelerator pedal, and a brake pedal, but is not essential in the present embodiment.
  • the control unit 51 includes an image generation unit 511, a vehicle instruction signal generation unit 512, an image analysis unit 513, and a danger range determination unit 514.
  • the function of the control unit 51 can be realized by cooperation of hardware resources and software resources, or only by hardware resources.
  • Processors, ROM, RAM, and other LSIs can be used as hardware resources.
  • a CPU, GPU, DSP or the like can be used as the processor.
  • Programs such as operating systems and applications can be used as software resources.
  • the storage unit 52 includes, for example, an HDD and an SSD.
  • the storage unit 52 stores data necessary for remote monitoring of the autonomous driving vehicle 1, such as a three-dimensional map synchronized with the three-dimensional map stored in the storage unit 12 of the automatic driving control device 10.
  • the input / output unit 53 includes a vehicle input / output unit 531, an image signal output unit 532, and an operation signal input unit 533.
  • the vehicle input / output unit 531 has a communication interface conforming to a communication method with the automatic driving control device 10 of the autonomous driving vehicle 1.
  • the image signal output unit 532 outputs the image signal generated by the control unit 51 to the display unit 54.
  • the operation signal input unit 533 inputs the operation signal received from the operation unit 55 to the control unit 51.
  • the image generation unit 511 generates an image to be displayed on the display unit 54 based on the detection data received from the automatic operation control device 10 and the two-dimensional or three-dimensional map data.
  • the image generation unit 511 basically displays the image data captured by the visible light camera 21 of the autonomous driving vehicle 1 or the three-dimensional modeling image generated by the LIDAR 22 on the display unit 54 as it is.
  • the image generation unit 511 places the vehicle at a corresponding position on the 2D / 3D map.
  • an image in which the icon / pictogram of the object is superimposed is generated.
  • the user of the remote control device 50 (hereinafter referred to as a supervisor) makes a behavior determination for resuming driving after the autonomous driving vehicle 1 has been urgently stopped. It is assumed that the other behavior determination is performed autonomously by the automatic driving control device 10 in principle.
  • the vehicle instruction signal generation unit 512 receives an operation signal based on a driving resumption operation by the supervisor after the autonomous driving vehicle 1 has autonomously stopped urgently via the operation signal input unit 533, the automatic driving control device 10 An operation resumption instruction signal is transmitted to.
  • the description of the image analysis unit 513 and the danger range determination unit 514 will be described later.
  • FIG. 4 is a flowchart showing a basic operation of the remote automatic driving system according to the first embodiment of the present disclosure.
  • the automatic operation control device 10 transmits the detection data detected by the detection unit 20 to the remote control device 50 via the network 2 (S10).
  • the remote control device 50 receives the detection data (S20), generates a monitoring image based on the received detection data, and displays it on the display unit 54 (S21).
  • the automatic operation control device 10 stops the automatic operation vehicle 1 (S12) and transmits an emergency stop signal to the remote control device 50 via the network 2. (S13). Even after the emergency stop, the automatic operation control device 10 continues to transmit the detection data detected by the detection unit 20 to the remote control device 50 (S14).
  • the remote control device 50 sends an operation resumption instruction signal via the network 2 to the automatic operation control device. 10 (S25).
  • the automatic operation control device 10 receives the operation resumption instruction signal (S17), it resumes the operation of the automatic operation vehicle 1 (S18).
  • FIG. 5 is a flowchart showing a processing flow of the transmission data amount adjustment method according to the operation example 1.
  • the autonomous travel control unit 111 of the automatic driving control device 10 acquires various detection data from the detection unit 20 (S100).
  • the autonomous traveling control unit 111 identifies position information of an object around the own vehicle based on detection data acquired from at least one of the visible light camera 21, the LIDAR 22, and the millimeter wave radar 23.
  • the object is an object that is set in advance in the vehicle driving algorithm as a running obstacle such as a vehicle other than the vehicle, a bicycle, a pedestrian, or an animal.
  • at least one of the type of object and the movement vector can be detected, at least one of the type of object and the movement vector is also detected.
  • the risk level calculation unit 112 calculates the current risk level of the vehicle (S101).
  • the transmission data amount adjustment unit 114 detects the position of the vehicle detected by the GPS sensor 25 as detection data to be transmitted to the remote control device 50.
  • Information, vehicle speed information detected by the vehicle speed sensor 24, and information on objects around the vehicle are selected.
  • the autonomous traveling control unit 111 transmits the detection data including the position information of the selected own vehicle, the vehicle speed information of the own vehicle, and the information of the object around the own vehicle to the remote control device 50 via the network 2 (S103). ).
  • the transmission data amount adjustment unit 114 includes the visible light image data captured by the visible light camera 21 in the detection data transmitted to the remote control device 50.
  • the detection data includes the above-described position information of the own vehicle, vehicle speed information, and information on objects around the own vehicle. Furthermore, a three-dimensional modeling image generated by the LIDAR 22 may be included.
  • the autonomous traveling control unit 111 transmits detection data including visible light image data to the remote control device 50 via the network 2 (S104). The above processes from Step S100 to Step S104 are repeatedly executed (N in S105) until the operation of the automatic driving vehicle 1 is completed (Y in S105).
  • FIG. 6A and 6B are diagrams illustrating an example of a monitoring image displayed on the display unit 54 of the remote control device 50 in the operation example 1.
  • FIG. FIG. 6A shows an example of a monitoring image 54a displayed on the display unit 54 in a state where the degree of risk is equal to or less than the threshold value.
  • an icon C1i indicating the own vehicle based on the position information of the own vehicle and the position information of the object around the own vehicle
  • three icons O1i to O3i indicating the object around the own vehicle. It is displayed.
  • the distance relationship between the object and the own vehicle can be specified by the reflected signal detected by the LIDAR 22 or the millimeter wave radar 23. Further, by detecting the motion vector of the target object, it is possible to specify the traveling direction of each target object.
  • the overhead image showing the relative positional relationship between the vehicle and the object shown in FIG. 6A may be superimposed on the two-dimensional map image and displayed.
  • the image generation unit 511 of the remote control device 50 reads the two-dimensional map data of the area corresponding to the position information of the own vehicle from the storage unit 52, and the icon C1i indicating the own vehicle and the surroundings of the own vehicle on the two-dimensional map. Three icons O1i to O3i indicating the target object are superimposed.
  • FIG. 6B shows an example of a monitoring image 54b displayed on the display unit 54 in a state where the degree of risk exceeds the threshold value.
  • a visible light image generated by the visible light camera 21 that captures the front of the host vehicle is displayed.
  • the preceding vehicle of the first object O1, the bicycle of the second object O2, and the bicycle of the third object O3 are displayed as live-action images.
  • the amount of transmission data can be significantly reduced by not transmitting the image data to the remote control device 50 in a low risk state.
  • the image data is transmitted so that the supervisor of the remote monitoring center 5 can confirm the situation around the vehicle with a live-action image. Therefore, when the degree of danger is high, a sufficient monitoring system by the supervisor can be ensured.
  • FIG. 7 is a flowchart showing a processing flow of the transmission data amount adjustment method according to the operation example 2.
  • the autonomous travel control unit 111 of the automatic driving control device 10 acquires various detection data from the detection unit 20 (S110).
  • the risk level calculation unit 112 calculates the current risk level of the host vehicle (S111).
  • the transmission data amount adjustment unit 114 adds at least a relatively low resolution and a low frame rate to the detection data transmitted to the remote control device 50.
  • One visible light image data is included.
  • the detection data includes the above-described position information of the own vehicle, vehicle speed information of the own vehicle, and information on objects around the own vehicle.
  • the autonomous traveling control unit 111 transmits detection data including the visible light image data to the remote control device 50 via the network 2 (S113).
  • the transmission data amount adjustment unit 114 uses at least one visible light image with relatively high resolution and high frame rate as detection data to be transmitted to the remote control device 50. Include data.
  • the detection data includes the above-described position information of the own vehicle, vehicle speed information of the own vehicle, and information on objects around the own vehicle.
  • the autonomous traveling control unit 111 transmits detection data including the visible light image data to the remote control device 50 via the network 2 (S114). The above processes from Step S110 to Step S114 are repeatedly executed (N in S115) until the operation of the automatic driving vehicle 1 is completed (Y in S115).
  • a relatively high resolution image is, for example, an HD (High-Definition) image quality, a full HD image quality, a 4K image quality, and a relatively low resolution image is, for example, a QVGA (Quarter Video Graphics Array) image quality, This is an image of VGA (Video Graphics Array) image quality and HD image quality.
  • Relatively high frame rate images are, for example, 15 fps, 30 fps, and 60 fps images
  • relatively low frame rate images are, for example, 3 to 7 fps, 15 fps images.
  • FIG. 8A and 8B are diagrams illustrating an example of a monitoring image displayed on the display unit 54 of the remote control device 50 according to the operation example 2.
  • FIG. 8A shows an example of a monitoring image 54c displayed on the display unit 54 in a state where the degree of risk is equal to or less than the threshold value.
  • a low-resolution visible light image received from the automatic operation control device 10 is displayed.
  • FIG. 8B shows an example of a monitoring image 54d displayed on the display unit 54 in a state where the degree of risk exceeds the threshold value.
  • a high-resolution visible light image received from the automatic operation control device 10 is displayed.
  • the degree of risk when the degree of risk is low, it is possible to reduce the amount of transmission data by transmitting at least one of low resolution and low frame rate image data to the remote control device 50.
  • the degree of danger when the degree of danger is high, it is possible to ensure a sufficient monitoring system by the supervisor by transmitting at least one of the high resolution and high frame rate image data.
  • the automatic operation control device 10 transmits detection data including a three-dimensional modeling image detected by the LIDAR 22 and displays the remote control device 50.
  • the three-dimensional modeling image may be displayed on the unit 54.
  • the three-dimensional modeling image is a distance image described in a gray scale whose density changes according to the distance to the reflection object, and has a lower resolution than the visible light image. Therefore, even if a three-dimensional modeling image is transmitted instead of a visible light image, the data amount can be reduced.
  • FIG. 9 is a flowchart showing a processing flow of the communication method switching method according to the operation example 3.
  • the autonomous travel control unit 111 of the automatic driving control device 10 acquires various detection data from the detection unit 20 (S120).
  • the risk level calculation unit 112 calculates the current risk level of the host vehicle (S121).
  • the communication method switching unit 115 determines whether or not connection is possible in the first communication method (S123).
  • the wireless LAN router device 2a does not exist in the vicinity of the own vehicle, connection is impossible.
  • the communication method switching unit 115 selects the first communication method, and the autonomous traveling control unit 111 uses the first communication method to transmit the acquired detection data to the remote control device. 50 (S124).
  • step S122 If the risk exceeds the threshold value in step S122 (Y in S122), or if connection is not possible in the first communication method in step S123 (N in S123), the communication method switching unit 115 selects the second communication method. Then, the autonomous traveling control unit 111 transmits the acquired detection data to the remote control device 50 using the second communication method (S125). The processes from step S120 to step S125 are repeatedly executed (N in S126) until the operation of the automatic driving vehicle 1 is completed (Y in S126).
  • the communication cost can be suppressed by using the first communication method in a low risk state.
  • the communication quality can be kept relatively high by using the second communication method, and a sufficient monitoring system by the supervisor can be ensured.
  • FIG. 10 is a flowchart showing a processing flow of the communication method switching method according to the operation example 4.
  • the autonomous running control unit 111 of the automatic driving control device 10 acquires various types of detection data from the detection unit 20 (S130).
  • the communication method switching unit 115 estimates a communication delay amount (hereinafter referred to as a first delay amount) of the communication path of the first communication method (S131).
  • the communication method switching unit 115 estimates the communication delay amount (hereinafter referred to as the second delay amount) of the communication path of the second communication method (S132).
  • the communication method switching unit 115 selects the first communication method, and the autonomous traveling control unit 111 uses the first communication method to acquire the acquired detection data.
  • the data is transmitted to the remote control device 50 (S134).
  • the communication method switching unit 115 selects the second communication method, and the autonomous traveling control unit 111 uses the second communication method to acquire the acquired detection data.
  • the data is transmitted to the remote control device 50 (S135).
  • the processes from step S130 to step S135 are repeatedly executed (N in S136) until the operation of the automatic driving vehicle 1 is completed (Y in S136).
  • the communication delay amount between the automatic operation control device 10 and the remote control device 50 can be made as small as possible by selecting the communication method with the smaller communication delay amount.
  • the process shown in FIG. 10 is executed when the risk exceeds the threshold, and when the risk is equal to or less than the threshold, the first communication method is preferentially selected even if the first delay amount is larger. May be. In a state where the degree of risk is low, this is an example in which priority is given to reducing communication costs.
  • the monitor of the remote monitoring center 5 cannot see the live-action video when the degree of danger is low.
  • the monitor can only see a low-quality image when the degree of danger is low.
  • the automatic operation control device 10 transmits the high-quality image. Send a request signal.
  • the transmission data amount adjustment unit 114 of the automatic driving control device 10 receives the request signal for the high-quality image
  • the autonomous driving control unit 111 causes the remote control device 50 to transmit the high-quality image data.
  • FIG. 11 is a flowchart showing the operation of the remote automatic driving system equipped with the high-quality image request function according to the operation example 5.
  • the automatic operation control device 10 transmits the detection data detected by the detection unit 20 to the remote control device 50 via the network 2 (S10).
  • the remote control device 50 receives the detection data (S20), generates a monitoring image based on the received detection data, and displays it on the display unit 54 (S21).
  • the remote control device 50 sends a request signal for the high-quality image via the network 2. It transmits to the automatic driving
  • the automatic driving control device 10 receives the request signal for the high-quality image (S15), the automatic driving control device 10 transmits the high-quality image data to the remote control device 50 via the network 2 (S16).
  • the automatic operation control device 10 stops the automatic operation vehicle 1 (S12) and transmits an emergency stop signal to the remote control device 50 via the network 2. (S13). Even after the emergency stop, the automatic operation control device 10 continues to transmit the detection data detected by the detection unit 20 to the remote control device 50 (S14).
  • the remote control device 50 sends an operation resumption instruction signal via the network 2 to the automatic operation control device. 10 (S25).
  • the automatic operation control device 10 receives the operation resumption instruction signal (S17), it resumes the operation of the automatic operation vehicle 1 (S18).
  • the monitor when the monitor wants to see a high-quality image, it can be switched to a high-quality image, and a sufficient monitoring system by the monitor can be secured.
  • the supervisor only performs the operation resumption operation, and the automatic operation control device 10 has determined the specific operation resumption timing and the travel route at the start of operation at the time of operation resumption.
  • the automatic operation control device 10 that has received the operation resumption instruction from the remote control device 50 to autonomously resume operation. For example, a case where an obstacle that is difficult to avoid is detected. Specifically, there are cases where there is no traveling space for avoiding obstacles, when overtaking across the center line is necessary, and when overtaking is required on a curve or pedestrian crossing. In addition, when it encounters an oncoming vehicle on a narrow road and stops, it corresponds to a case where it is difficult to resume driving.
  • the automatic driving control device 10 determines the driving resumption timing and the travel route for starting the driving at the resumption of driving. Therefore, it is conceivable that the supervisor designates a travel route for starting movement when resuming operation.
  • FIG. 12 is a flowchart showing the operation of the remote automatic driving system according to the operation example 6 equipped with the function for specifying the travel route when restarting operation.
  • the automatic operation control device 10 transmits the detection data detected by the detection unit 20 to the remote control device 50 via the network 2 (S10).
  • the remote control device 50 receives the detection data (S20), generates a monitoring image based on the received detection data, and displays it on the display unit 54 (S21).
  • the automatic operation control device 10 stops the automatic operation vehicle 1 (S12) and transmits an emergency stop signal to the remote control device 50 via the network 2. (S13). Even after the emergency stop, the automatic operation control device 10 continues to transmit the detection data detected by the detection unit 20 to the remote control device 50 (S14).
  • the remote control device 50 A driving resumption instruction signal including the starting travel route is transmitted to the automatic driving control apparatus 10 via the network 2 (S25a).
  • the automatic driving control device 10 receives the driving resumption instruction signal including the starting travel route (S17a)
  • the automatic driving control device 10 restarts the operation of the automatic driving vehicle 1 using the travel route (S18).
  • FIG. 13 is a diagram illustrating an example of specifying a travel route on the monitoring image 54e displayed on the display unit 54 of the remote control device 50 according to the operation example 6.
  • a monitoring image 54e shown in FIG. 13 is a bird's-eye view image including the host vehicle.
  • a vehicle that has stopped ahead due to a failure is detected as the fourth object O4
  • a triangular guide plate is detected as the fifth object O5.
  • the autonomous driving control unit 111 of the automatic driving control device 10 is in a state where the vehicle is urgently stopped based on the approach of the distance between the vehicle and the fourth object O4 or the detection of the fifth object O5.
  • the autonomous traveling control unit 111 is basically an algorithm that does not pass over the center line.
  • the supervisor designates the travel route R1 of the movement start at the time of restarting the operation on the touch panel display with a finger. Further, the locus may be drawn with a pointing device such as a stylus pen. In the case of a display not equipped with a touch panel function, the travel route R1 is designated by a mouse operation.
  • the supervisor can determine the traveling route at the time of resuming the operation. By specifying, it is possible to resume operation quickly. Therefore, it can be avoided that the autonomous driving vehicle 1 stops at a certain place for a long time and hinders road operation.
  • the supervisor can change the traveling route to the destination and make the autonomous driving vehicle 1 make a U-turn.
  • the travel route designated by the monitor is a route that cannot travel due to physical or safety standards.
  • the autonomous travel control unit 111 of the automatic driving control device 10 determines the travel route designated by the remote control device 50. Is dismissed. Thereafter, the autonomous traveling control unit 111 autonomously determines a traveling route according to the current situation, notifies the remote control device 50 of the traveling route, and requests permission. When the travel route cannot be physically secured, the autonomous travel control unit 111 notifies the remote control device 50 that travel is impossible.
  • FIG. 14 is a flowchart showing the operation of the remote automatic driving system according to the operation example 7 equipped with a function for specifying a travel route when restarting operation.
  • the automatic operation control device 10 transmits the detection data detected by the detection unit 20 to the remote control device 50 via the network 2 (S10).
  • the remote control device 50 receives the detection data (S20), generates a monitoring image based on the received detection data, and displays it on the display unit 54 (S21).
  • the automatic operation control device 10 stops the automatic operation vehicle 1 (S12) and transmits an emergency stop signal to the remote control device 50 via the network 2. (S13). Even after the emergency stop, the automatic operation control device 10 continues to transmit the detection data detected by the detection unit 20 to the remote control device 50 (S14).
  • the remote control device 50 A driving resumption instruction signal including the starting travel route is transmitted to the automatic driving control apparatus 10 via the network 2 (S25a).
  • the automatic driving control device 10 When the automatic driving control device 10 receives the driving resumption instruction signal including the starting driving route (S17a), the automatic driving control device 10 determines whether the driving can be restarted on the driving route physically or on safety standards (S17b). When the vehicle can be driven (Y in S17b), the driving of the autonomous driving vehicle 1 is resumed on the travel route (S18). When driving is impossible (N in S17b), the automatic driving control device 10 derives an optimal travel route according to the current situation (S17c), and the remote control device 50 transmits the derived travel route via the network 2. (S17d).
  • the remote control device 50 receives the travel route (S26), and displays the received travel route in the monitoring image (S27). When an operation for permitting the travel route performed by the monitor watching the monitoring image is received (Y in S28), the remote control device 50 sends an automatic driving control to the travel route permission signal via the network 2. It transmits to the apparatus 10 (S29). When the automatic driving control device 10 receives the permission signal (S17e), it restarts the operation of the automatic driving vehicle 1 along the travel route (S18). If the monitor does not permit the travel route, the monitor needs to specify a new travel route.
  • FIG. 15 is a diagram illustrating an example of designating a travel route on the monitoring image 54f displayed on the display unit 54 of the remote control device 50 according to the operation example 7.
  • a travel route R1 in the monitoring image 54f shown in FIG. 15 is a travel route designated by the supervisor on the monitoring image 54e shown in FIG.
  • a monitoring image 54f shown in FIG. 15 shows a situation in which a person has come down from a stopped vehicle due to a failure after designation of a travel route by the supervisor.
  • the autonomous traveling control unit 111 detects a person who has descended from the vehicle as the sixth object O6, the autonomous traveling control unit 111 rejects the traveling route specified by the supervisor and travels along a traveling route R2 that passes through a position farther from the sixth object O6. To derive.
  • the autonomous traveling control unit 111 transmits the derived traveling route R2 to the remote control device 50, and the traveling route R2 is displayed on the display unit 54 of the remote control device 50.
  • the automatic operation control device 10 derives another travel route that can travel. Send to remote control device 50 for permission. Thereby, the safety
  • the supervisor specified the travel route by specifying the movement locus of the autonomous driving vehicle 1.
  • the travel route may be designated by designating the target location of the destination. For example, when it is desired to move the vehicle to the road shoulder once, a predetermined position of the road shoulder is designated.
  • FIG. 16 is a diagram illustrating an example when a travel route is designated on the monitoring image 54g displayed on the display unit 54 of the remote control device 50 according to the modified examples of the operation examples 6 and 7.
  • the monitoring person designates the target location S1 of the movement destination.
  • the four corner points of the target location S1 may be designated by a mouse operation.
  • the autonomous running control unit 111 of the automatic driving control device 10 sets the target location S1 of the destination designated by the remote control device 50 as a new destination, and resumes autonomous running toward the destination.
  • the supervisor of the remote monitoring center 5 the judgment of restarting the operation of the autonomous driving vehicle 1 after an emergency stop is made by the supervisor of the remote monitoring center 5.
  • the supervisor In order to improve the accuracy of judgment by the supervisor, it is necessary to provide appropriate judgment materials to the supervisor.
  • the supervisor In order to avoid the danger that occurs when the operation of the autonomous driving vehicle 1 is resumed, the supervisor needs to confirm that there are no obstacles around the autonomous driving vehicle 1. If objective judgment criteria for judging whether it is possible to resume operation if there are no obstacles in the range, it will be useful information for the supervisor and lead to suppression of variation in judgment. Therefore, it is conceivable that a dangerous range object indicating a dangerous range is superimposed and displayed around the autonomous driving vehicle 1 displayed on the display unit 54 of the remote control device 50.
  • FIG. 17 is a flowchart showing a process flow of the display method of the monitoring image including the danger range object according to the operation example 8.
  • the image generation unit 511 of the remote control device 50 receives detection data from the automatic operation control device 10 via the network 2 (S200).
  • the danger range determination unit 514 receives a communication delay amount between the automatic driving control device 10 and the remote control device 50 from the automatic driving control device 10 via the network 2 (S201).
  • the communication delay amount may be estimated on the remote control device 50 side.
  • the danger range determination unit 514 determines a danger range around the autonomous driving vehicle 1 based on the received communication delay amount (S202). The danger range determination unit 514 widens the danger range as the communication delay amount increases.
  • the image generation unit 511 generates a dangerous range object corresponding to the calculated dangerous range, and generates a monitoring image in which the generated dangerous range object is superimposed on the autonomous driving vehicle 1.
  • the image generation unit 511 displays the generated monitoring image on the display unit 54 (S203).
  • the processes from step S200 to step S203 are repeatedly executed (N in S204) until the operation of the automatic driving vehicle 1 is completed (Y in S204).
  • FIG. 18A and 18B are diagrams illustrating an example of a monitoring image displayed on the display unit 54 of the remote control device 50 according to the operation example 8.
  • FIG. FIG. 18A shows an example of a monitoring image 54h displayed on the display unit 54 in a state where the communication delay amount is relatively small.
  • a preceding vehicle is detected as the seventh object O7
  • a bicycle is detected as the eighth object O8.
  • a circular danger range object Z1 centered on the position of the vehicle is displayed superimposed on the live-action video.
  • FIG. 18B shows an example of a monitoring image 54i displayed on the display unit 54 in a state where the communication delay amount is relatively large.
  • the size of the danger range object Z1 is enlarged.
  • the shape of the danger range object Z1 is not limited to a perfect circle, but may be an elliptical shape extending in the traveling direction. Moreover, a polygonal shape may be sufficient.
  • the autonomous traveling control unit 111 may urgently stop the autonomous driving vehicle 1 due to erroneous detection of the sensor.
  • the monitor of the remote monitoring center 5 is required to promptly resume operation.
  • the dangerous range object Z1 is displayed in the monitoring images 54h and 54i, the monitoring person can instantaneously make a determination to resume driving. That is, if there is no obstacle in the danger range object Z1, it can be objectively and uniquely determined that driving can be resumed safely.
  • the danger range object Z1 also contributes to clarifying the responsibility range of the supervisor. That is, if the supervisor instructs to resume driving when there is no obstacle in the danger range object Z1, the supervisor is exempted even if a danger occurs around the automatic driving vehicle 1 due to a sudden event. .
  • the operation example 8 it is possible to improve the accuracy of the judgment of resumption of driving by the supervisor by displaying the danger range object superimposed on the surveillance image. Further, by dynamically changing the size of the danger range object according to the communication delay amount, an error from the actual danger range due to the communication delay amount can be compensated.
  • FIG. 19 is a flowchart showing a processing flow of the display method of the monitoring image including the danger range object according to the operation example 9.
  • the image generation unit 511 of the remote control device 50 receives detection data from the automatic operation control device 10 via the network 2 (S210).
  • the danger range determination unit 514 receives the degree of danger of the automatic driving control device 10 from the automatic driving control device 10 via the network 2 (S211).
  • the danger range determination unit 514 determines a danger range around the autonomous driving vehicle 1 based on the received risk level (S212). The risk range determination unit 514 widens the risk range as the risk level increases.
  • the image generation unit 511 generates a dangerous range object corresponding to the calculated dangerous range, and generates a monitoring image in which the generated dangerous range object is superimposed on the autonomous driving vehicle 1.
  • the image generation unit 511 displays the generated monitoring image on the display unit 54 (S213).
  • the processes from step S210 to step S213 are repeatedly executed (N in S214) until the operation of the automatic driving vehicle 1 is completed (Y in S214).
  • FIG. 20 is a flowchart showing the flow of processing of the monitoring image display method in which the communication delay is visualized according to the operation example 10.
  • the image generation unit 511 of the remote control device 50 receives the detection data from the automatic operation control device 10 via the network 2 (S220). This detection data includes vehicle speed information of the autonomous driving vehicle 1.
  • the image generation unit 511 receives the communication delay amount between the automatic driving control device 10 and the remote control device 50 from the automatic driving control device 10 via the network 2 (S221).
  • the communication delay amount may be estimated on the remote control device 50 side.
  • the image analysis unit 513 detects a moving body from within each frame of the received image data (S222).
  • the image analysis unit 513 searches the frame using the identifier of the moving body registered in advance so as to be recognized as an obstacle, and detects the moving body.
  • the image analysis unit 513 estimates the moving speed of the moving object detected in the frame of the image data (S223).
  • the image analysis unit 513 detects a motion vector of the moving object by detecting a difference between the position of the moving object detected in the current frame and the position of the moving object detected in the past frame.
  • the image analysis unit 513 can sequentially detect a motion vector between two consecutive frames, and can estimate the moving speed of the moving object by calculating an average value of the detected motion vectors. In addition, you may detect the moving speed of a moving body using an optical flow method.
  • the image analysis unit 513 estimates the actual current position of the autonomous driving vehicle 1 based on the received communication delay amount and the vehicle speed of the autonomous driving vehicle 1 (S224).
  • the image analysis unit 513 estimates the position where the value obtained by multiplying the vehicle speed (second speed) by the communication delay amount in the traveling direction of the automatic driving vehicle 1 is the current position of the automatic driving vehicle 1.
  • the traveling direction of the autonomous driving vehicle 1 can be estimated by detecting a motion vector of position information detected by the GPS sensor 25, for example.
  • the image analysis unit 513 estimates the actual current position of the moving object based on the received communication delay amount and the estimated moving speed of the moving object (S225).
  • the image analysis unit 513 estimates a position obtained by shifting a value obtained by multiplying the moving speed (second speed) by the communication delay amount in the moving direction of the moving body as the current position of the moving body.
  • the image generation unit 511 generates a monitoring image in which the autonomous driving vehicle 1 and the moving body at the estimated current position are superimposed (S226).
  • the monitoring image is an image in which the autonomous driving vehicle 1 and the moving body specified by the image data and the estimated autonomous driving vehicle 1 and the moving body at the current position coexist.
  • the processes from step S220 to step S226 are repeatedly executed (N in S227) until the operation of the automatic driving vehicle 1 is completed (Y in S227).
  • the processes of step S222 and step S223 can be omitted.
  • FIG. 21 is a diagram illustrating an example of the monitoring image 54j displayed on the display unit 54 of the remote control device 50 according to the operation example 10.
  • the own vehicle C1 in which the communication delay is not corrected that is, the own vehicle specified in the image data
  • the own vehicle C1a in which the communication delay is corrected the estimated current position
  • both of your vehicle are displayed.
  • both the ninth object O9 (bicycle) in a state where the communication delay is not corrected and the ninth object O9a in a state where the communication delay is corrected are displayed.
  • the operation example 10 by displaying at least one of the automatic driving vehicle 1 and the moving body corrected for the communication delay in the monitoring image, it is possible to improve the accuracy of the determination of the resumption of driving by the supervisor.
  • FIG. 22 is a flowchart illustrating a processing flow of the monitoring image display method in which the communication delay is visualized according to the operation example 11.
  • the image generation unit 511 of the remote control device 50 receives the detection data from the automatic operation control device 10 via the network 2 (S220).
  • the image generation unit 511 receives the communication delay amount between the automatic driving control device 10 and the remote control device 50 from the automatic driving control device 10 via the network 2 (S221).
  • the image analysis unit 513 detects a moving body from within each frame of the received image data (S222).
  • the image analysis unit 513 estimates the moving speed of the moving object detected in the frame of the image data (S223).
  • the image analysis unit 513 estimates the actual current position of the autonomous driving vehicle 1 based on the received communication delay amount and the vehicle speed of the autonomous driving vehicle 1 (S224).
  • the image analysis unit 513 estimates the actual current position of the moving object based on the received communication delay amount and the estimated moving speed of the moving object (S225).
  • the danger range determination unit 514 receives the degree of danger of the automatic driving control device 10 from the automatic driving control device 10 via the network 2 (S225a). The danger range determination unit 514 determines a danger range around the autonomous driving vehicle 1 based on the received danger level (S225b).
  • the image generation unit 511 generates a monitoring image in which the autonomous driving vehicle 1 and the moving body at the estimated current position, the dangerous range, and the object are superimposed (S226a).
  • the processes from step S220 to step S226a are repeatedly executed (N in S227) until the operation of the automatic driving vehicle 1 is completed (Y in S227).
  • FIG. 23 is a diagram illustrating an example of a monitoring image 54k displayed on the display unit 54 of the remote control device 50 according to the operation example 11.
  • the monitoring image 54k is displayed with the dangerous range object Z1 centered on the own vehicle C1a in which the communication delay is corrected being further superimposed.
  • the display position of the danger range object Z1 is more realistic in the position centered on the vehicle C1a in which the communication delay is corrected than in the position centered on the vehicle C1 in which the communication delay is not corrected. It is desirable.
  • the size of the danger range object Z1 may change dynamically according to the degree of danger as shown in FIG. 22, or may be fixed.
  • the operation example 11 by displaying at least one of the autonomous driving vehicle 1 and the moving body corrected for the communication delay, and the danger range object in the monitoring image, the accuracy of the determination of the resumption of driving by the supervisor is further improved. be able to.
  • the second embodiment of the present disclosure has been made in view of such a situation, and the purpose of the second embodiment is to allow a remote supervisor / pilot to grasp the situation of the autonomous driving vehicle 1 more accurately.
  • the overall configuration of the remote automatic driving system is the same as that of the first embodiment.
  • FIG. 24 is a diagram illustrating a configuration of the autonomous driving vehicle 1 according to the second embodiment of the present disclosure.
  • the automatic driving vehicle 1 includes an automatic driving control device 10, a detection unit 20, and an actuator 30.
  • Members necessary for the driving operation by the driver such as an accelerator pedal, a brake pedal, and a steering wheel may be installed in the vehicle or may be omitted.
  • Actuator 30 drives a load related to vehicle travel, such as an engine, a motor, a steering, a brake, and a ramp.
  • the detection unit 20 includes a visible light camera 21, a LIDAR (Light Detection and Ranging) 22, a millimeter wave radar 23, a vehicle speed sensor 24, a GPS sensor 25, and a steering angle sensor 26.
  • LIDAR Light Detection and Ranging
  • At least one visible light camera 21 is installed at a position where the front of the vehicle and the periphery of the traveling direction can be photographed.
  • the visible light camera 21 capable of photographing the front may be a monocular camera or a compound eye camera.
  • the distance to the object can be estimated based on the parallax image.
  • the visible light cameras 21 may be installed at four locations on the front, rear, and left and right sides of the vehicle. In this case, an overhead image / omnidirectional image can be generated by combining the front image, the rear image, the left image, and the right image captured by the four visible light cameras 21.
  • Each of the visible light cameras 21 includes a solid-state imaging device (for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, a CCD (Charge-Coupled Device) image sensor)) and a signal processing circuit as an imaging circuit.
  • the solid-state image sensor converts light incident through the lens into an electrical signal.
  • the signal processing circuit performs signal processing such as conversion from an analog signal to a digital signal and noise removal.
  • the signal-processed image data is output to the automatic operation control device 10.
  • the LIDAR 22 emits a light beam (for example, an infrared laser) around the vehicle, receives the reflected signal, and based on the received reflected signal, the distance from the surrounding object, the size of the object, Measure the composition of the object.
  • a light beam for example, an infrared laser
  • the moving speed of the object can also be measured.
  • a three-dimensional modeling image around the vehicle can be generated.
  • the millimeter wave radar 23 emits radio waves (millimeter waves) around the vehicle, receives the reflected signal, and measures the distance to an object existing around based on the received reflected signal. By installing a plurality of millimeter wave radars 23, a wide range of objects around the vehicle can be detected. The millimeter wave radar 23 can also detect a far object that is difficult to detect with the LIDAR 22.
  • the vehicle speed sensor 24 detects the speed of the autonomous driving vehicle 1.
  • the GPS sensor 25 detects position information of the autonomous driving vehicle 1. Specifically, the transmission time is received from each of a plurality of GPS satellites, and the latitude and longitude of the reception point are calculated based on the received plurality of transmission times.
  • the steering angle sensor 26 detects the steering angle of the steering wheel of the autonomous driving vehicle 1.
  • the automatic operation control device 10 includes a control unit 11, a storage unit 12, and an input / output unit 13.
  • the control unit 11 includes an autonomous travel control unit 111, a risk level calculation unit 112, an image compression encoding unit 116, a transmission data generation unit 117, and a remote travel control unit 118.
  • the function of the control unit 11 can be realized by cooperation of hardware resources and software resources, or only by hardware resources.
  • Processors, ROM, RAM, and other LSIs can be used as hardware resources.
  • a CPU, GPU, DSP or the like can be used as the processor.
  • Programs such as operating systems and applications can be used as software resources.
  • the storage unit 12 includes, for example, an HDD and an SSD.
  • the storage unit 12 holds data necessary for autonomous traveling such as a three-dimensional map.
  • the input / output unit 13 includes a wireless communication unit 131a, a detection data input unit 132, and a control signal output unit 133.
  • the wireless communication unit 131a includes an antenna, an RF (Radio-Frequency) unit, and a baseband unit, and performs wireless communication with the wireless LAN router device 2a or the base station device 2b.
  • the detection data input unit 132 acquires various types of detection data from the detection unit 20 and outputs them to the control unit 11.
  • the control signal output unit 133 outputs control signals for driving the various actuators 30 generated by the control unit 11 to the various actuators 30.
  • the autonomous traveling control unit 111 causes the autonomous driving vehicle 1 to autonomously travel based on a predetermined automatic driving algorithm. Specifically, the autonomous traveling control unit 111 recognizes the host vehicle and the situation around the host vehicle based on various detection data detected by the detection unit 20 and various information collected from the outside by radio. The autonomous traveling control unit 111 determines the behavior of the autonomous driving vehicle 1 by applying various parameters indicating the recognized situation to the autonomous driving algorithm. The autonomous traveling control unit 111 generates control signals for driving the various actuators 30 based on the determined behavior and outputs the control signals to the actuators 30.
  • the automatic driving algorithm is generated by artificial intelligence (AI) based on deep learning.
  • AI artificial intelligence
  • Various parameters of the automatic driving algorithm are initially set to values learned in advance by a high-spec computer, and updated values are appropriately downloaded from a data center on the cloud.
  • the risk level calculation unit 112 calculates the current risk level of the autonomous driving vehicle 1 based on various parameters such as LDW (Lane Departure Warning), FCW (Forward collision warning), sudden steering, sudden braking, time zone, location, and weather. Is calculated. For example, when any of the events of LDW, FCW, sudden steering, and sudden braking occurs, the degree of danger increases greatly.
  • the risk level calculation unit 112 may calculate the current risk level of the autonomous driving vehicle 1 based on a risk prediction algorithm generated by artificial intelligence based on deep learning.
  • the degree of risk can be calculated in consideration of various data detected by the detection unit 20.
  • the degree of risk is defined by a value in the range of 0 to 100, for example.
  • the image compression encoding unit 116 compresses and encodes image data acquired from the visible light camera 21.
  • image data is compression-encoded according to a compression encoding standard of MPEG (Motion Picture Experts Group).
  • MPEG Motion Picture Experts Group
  • at least one of pixel thinning and frame thinning may be performed as preprocessing for compression coding.
  • an image captured at 30 Hz / 60 Hz may be converted into a 15 Hz / 30 Hz image. In this case, the image quality is reduced, but the communication amount can be reduced.
  • the transmission data generation unit 117 generates data to be transmitted to the remote control device 50 via the wireless communication unit 131a.
  • the transmission data generation unit 117 includes the image data captured by the visible light camera 21 and compressed and encoded by the image compression encoding unit 116 in the data transmitted to the remote control device 50.
  • each image data is transmitted by four channels.
  • the omnidirectional image is generated by synthesizing the front image, the rear image, the left image, and the right image captured by the four visible light cameras 21 on the automatic driving control device 10 side, and the omnidirectional image is compressed and transmitted. It is also possible to use this method.
  • the transmission data generation unit 117 includes state data including the traveling speed, the steering angle, and the current position of the automatic driving control device 10 in the data transmitted to the remote control device 50.
  • the state data includes the degree of risk calculated by the degree-of-risk calculation unit 112 as necessary.
  • Image data and status data may be transmitted superimposed on one channel or transmitted on another channel.
  • the remote travel control unit 118 generates control signals for driving various actuators 30 based on the control commands transmitted from the remote control device 50 and outputs the control signals to the actuators 30.
  • the autonomous driving vehicle 1 basically travels in an autonomous mode, autonomous traveling may be difficult due to deterioration of road environment or weather conditions. In that case, it is switched to the remote operation mode. Also, when the operation is resumed after an emergency stop, the remote operation mode is temporarily switched. Moreover, when the autonomous driving vehicle 1 is a taxi or a bus, it may be switched to the remote operation mode for dealing with customers when getting on and off.
  • FIG. 25 is a diagram illustrating a configuration of the remote control device 50 according to the second embodiment of the present disclosure.
  • the remote control device 50 is constructed by at least one server or PC and a control stick.
  • the remote control device 50 includes a control unit 51, a storage unit 52, an input / output unit 53, a display unit 54, an operation unit 55, and a control unit 56.
  • the display unit 54 includes a liquid crystal display or an organic EL display.
  • the operation unit 55 includes input devices such as a keyboard, a mouse, and a touch panel, and outputs an operation signal generated due to a user operation to the control unit 51.
  • the control unit 56 has a control stick for remote control that simulates the control stick of the driver's seat of the autonomous driving vehicle 1. Specifically, a steering wheel 561, an accelerator pedal 562, a brake pedal 563, and a winker switch 564 are provided. Furthermore, you may have meters, such as a gear lever and a speedometer, a tachometer. The meter may be displayed on the display unit 54 as an image. Although not shown in FIG. 25, a microphone and a speaker may be provided as a voice interface for talking with a customer who is on the autonomous driving vehicle 1.
  • the control unit 51 includes an image expansion decoding unit 515, a delay time detection unit 516, a cutout unit 517, a size conversion unit 518, a vehicle instruction signal generation unit 512, an image analysis unit 513, a danger range determination unit 514, and an object superimposition unit 519. .
  • the function of the control unit 51 can be realized by cooperation of hardware resources and software resources, or only by hardware resources.
  • Processors, ROM, RAM, and other LSIs can be used as hardware resources.
  • a CPU, GPU, DSP or the like can be used as the processor.
  • Programs such as operating systems and applications can be used as software resources.
  • the storage unit 52 includes, for example, an HDD and an SSD.
  • the storage unit 52 stores data necessary for remote monitoring / remote control of the autonomous driving vehicle 1, such as a three-dimensional map synchronized with the three-dimensional map stored in the storage unit 12 of the automatic driving control device 10.
  • the input / output unit 53 includes a communication unit 531a, an image signal output unit 532, and an operation signal input unit 533.
  • the communication unit 531a includes a LAN connector for connecting to the router device 2d by wire / wireless.
  • the image signal output unit 532 is an interface for connecting to the display unit 54, and has, for example, an HDMI (registered trademark) (High-Definition Multimedia Interface) connector.
  • the image signal output unit 532 outputs an image captured by the visible light camera 21 of the autonomous driving vehicle 1 to the display unit 54.
  • the operation signal input unit 533 inputs the operation signal received from the operation unit 55 to the control unit 51.
  • the image decompression decoding unit 515 decompresses and decodes the compression-encoded image data received from the automatic operation control apparatus 10 via the communication unit 531a.
  • the delay time detection unit 516 detects a communication delay time until the remote control device 50 receives the image data transmitted by the automatic operation control device 10 via the network 2.
  • the delay time detection unit 516 detects the communication delay time based on the difference between the transmission time when the automatic operation control apparatus 10 transmits the image data and the reception time when the remote control apparatus 50 receives the image data.
  • the communication delay time is calculated based on the difference between the transmission time type stamp included in the image data and the reception time.
  • the communication delay time includes the standard processing time required for the compression encoding processing by the image compression encoding unit 116 of the automatic operation control device 10 and the expansion decoding processing by the image expansion decoding unit 515 of the remote control device 50.
  • the standard communication time is added to obtain a final communication delay time. If the time required for the compression encoding process and the decompression decoding process is negligibly small, the addition process is not necessary.
  • the cutout unit 517 cuts out an image in a predetermined range from the frame image included in the video received from the automatic operation control device 10.
  • the cutout unit 517 determines a range to be cut out from the frame image based on the speed, the steering angle, and the communication delay time detected by the delay time detection unit 516 received from the automatic driving control device 10. .
  • the cutout unit 517 estimates a viewpoint according to the current position of the autonomous driving vehicle 1 based on the speed, steering angle, and communication delay time of the autonomous driving vehicle 1. That is, the cutting unit 517 estimates the motion vector that the autonomous driving vehicle 1 has moved during the communication delay time based on the speed and the steering angle of the autonomous driving vehicle 1 and determines the current position and direction of the autonomous driving vehicle 1. presume.
  • the cutout unit 517 extracts an estimated image estimated to be seen from the viewpoint of the estimated current position of the autonomous driving vehicle 1 by cutting out a predetermined range in the frame image.
  • the size conversion unit 518 converts the image cut out by the cut-out unit 517 into an image having a size corresponding to the display size of the display unit 54.
  • a front image of the autonomous driving vehicle 1 is displayed on the display unit 54.
  • a front image viewed from the viewpoint of the driver hereinafter referred to as a virtual viewpoint
  • the virtual viewpoint is closer to the front landscape in the frame image during the communication delay time. Therefore, an estimated image estimated to be seen from the virtual viewpoint at the current position can be generated by cutting out a predetermined range in the frame image and enlarging the image in the cut-out range.
  • the size conversion unit 518 can enlarge the size of the clipped image by performing pixel interpolation on the image clipped by the cropping unit 517.
  • pixel interpolation for example, a bilinear method, a bicubic method, a Lanczos method, or the like can be used.
  • the vehicle instruction signal generation unit 512 generates a control command for remotely operating / remotely controlling the autonomous driving vehicle 1 based on the operation / operation given to the operation unit 55 or the operation unit 56.
  • the communication unit 531a transmits the generated control command to the automatic driving control device 10 via the network 2.
  • the image analysis unit 513 detects a moving body from each frame image included in the video received from the automatic operation control device 10.
  • the image analysis unit 513 searches the frame image using the identifier of the moving body registered in advance so as to be recognized as an obstacle, and detects the moving body.
  • the image analysis unit 513 estimates the motion vector of the moving object detected in the frame image. Specifically, the image analysis unit 513 detects a motion vector of the moving object by detecting a difference between the position of the moving object detected in the current frame image and the position of the moving object detected in the past frame image. To do.
  • the danger range determination unit 514 determines a danger range around the autonomous driving vehicle 1 based on the danger level received from the automatic driving control apparatus 10 via the network 2.
  • the danger range determination unit 514 increases the area of the danger range as the degree of danger increases.
  • the danger range determination unit 514 widens the danger range. At that time, the area of the danger range is increased as the speed of the movement vector is increased.
  • the object superimposing unit 519 superimposes the dangerous range object corresponding to the dangerous range determined by the dangerous range determining unit 514 on the frame image included in the video to be displayed on the display unit 54.
  • the image signal output unit 532 outputs a frame image on which the dangerous range object is superimposed to the display unit 54.
  • FIG. 26 is a flowchart illustrating a flow of basic processing when the remote control device 50 according to the second embodiment of the present disclosure displays an image received from the autonomous driving vehicle 1.
  • the communication unit 531a of the remote control device 50 receives image data of an image captured by the visible light camera 21 from the autonomous driving vehicle 1 via the network 2 (S300).
  • the communication unit 531a receives the speed data and the steering angle data of the autonomous driving vehicle 1 from the autonomous driving vehicle 1 via the network 2 (S301).
  • the delay time detection unit 516 detects the communication delay time of the received image data (S302).
  • the cutout unit 517 determines a cutout range based on the communication delay time, speed, and steering angle from the top frame image (S305).
  • the cutout unit 517 determines a cutout range based on the communication delay time, speed, and steering angle from the newly received frame image (S304). .
  • the cutout unit 517 cuts out the image of the determined cutout range from the frame image (S306).
  • the size conversion unit 518 converts the clipped image into a display size image (S307).
  • the image signal output unit 532 outputs the frame image converted to the display size to the display unit 54.
  • the frame rate of the video received from the autonomous driving vehicle 1 and the frame rate of the video displayed on the display unit 54 are set to be the same.
  • the next frame image for display is the latest from the autonomous driving vehicle 1. From the received frame image (S305, S306, S307). Note that the next frame image for display may be generated from the current frame image for display.
  • the processes in steps S300 to S307 are repeatedly executed until the operation ends (Y in S310) (N in S310).
  • FIG. 27 is a flowchart showing a flow of development processing when the remote control device 50 according to the second embodiment of the present disclosure displays an image received from the autonomous driving vehicle 1.
  • the communication unit 531a receives the degree of danger in addition to the speed data and the steering angle data of the autonomous driving vehicle 1 from the autonomous driving vehicle 1 via the network 2 (S301a).
  • the dangerous range determination unit 514 determines a dangerous range around the autonomous driving vehicle 1 based on the degree of danger received from the automatic driving control device 10 (S308).
  • a predetermined moving body for example, a pedestrian or a bicycle
  • the object superimposing unit 519 superimposes the dangerous range object corresponding to the determined dangerous range on the frame image to be displayed on the display unit 54 (S309).
  • the image signal output unit 532 outputs a frame image on which the dangerous range object is superimposed to the display unit 54.
  • Other processing is the same as the basic processing shown in FIG.
  • FIG. 28 is a flowchart showing a basic operation of the remote automatic driving system according to the second embodiment of the present disclosure.
  • the wireless communication unit 131a of the automatic driving control device 10 transmits the image data of the video imaged by the visible light camera 21 and the state data of the automatic driving vehicle 1 to the remote control device 50 via the network 2 (S30).
  • the communication unit 531a of the remote control device 50 receives the image data and the status data (S40).
  • the display unit 54 displays a front image of the autonomous driving vehicle 1 generated based on the image data and the state data (S41).
  • the autonomous traveling control unit 111 of the autonomous driving control device 10 causes the autonomous driving vehicle 1 to autonomously travel.
  • the display unit 54 of the remote control device 50 continues to display the front image of the autonomous driving vehicle 1 (S40, S41).
  • the vehicle instruction signal generation unit 512 of the remote control device 50 controls the control amount given to the control unit 56 by the remote operator. Is converted into a control command (S43).
  • the communication unit 531a transmits the control command to the automatic driving control device 10 via the network 2 (S44).
  • the remote driving control unit 118 of the automatic driving control device 10 controls the driving of the automatic driving vehicle 1 based on the control command received from the remote control device 50 (S32).
  • the processes in steps S30 to S32 and steps S40 to S44 are repeatedly executed until the operation ends (Y in S33, Y in S45) (N in S33, N in S45).
  • a frame image captured by the visible light camera 21 having a wide-angle lens is a rectangular image having a long aspect ratio in the horizontal direction.
  • FIG. 29A and FIG. 29B are diagrams showing an example of a cut-out range cut out when the autonomous driving vehicle 1 goes straight.
  • FIG. 29A shows the first frame image F1a included in the video received from the autonomous driving vehicle 1
  • FIG. 29B shows the second frame image F1b included in the video received from the autonomous driving vehicle 1.
  • the autonomous driving vehicle 1 is traveling straight at a constant speed, and the communication delay time of the second frame image F1b is longer than the communication delay time of the first frame image F1a.
  • the cutout range COb in the second frame image F1b is narrower than the cutout range COa in the first frame image F1a. This means that the longer the communication delay time is, the more the virtual viewpoint moves forward, and an image corresponding to the movement of the virtual viewpoint can be displayed by enlarging and displaying the image of the narrow cutout range COb.
  • first frame image F1a and the second frame image F1b may be the same. If the communication delay suddenly increases and the increase in communication delay can be grasped, but the next frame image is not transmitted from the autonomous driving vehicle 1, the extraction range is narrowed in the frame image already sent. And respond to the advance of the virtual viewpoint.
  • the communication delay time of the first frame image F1a and the communication delay time of the second frame image F1b are the same, and the speed of the autonomous driving vehicle 1 at the time of imaging the second frame image F1b is the imaging of the first frame image F1a.
  • the cutout range COb in the second frame image F1b is narrower than the cutout range COa in the first frame image F1a. It means that the virtual viewpoint moves forward as the speed of the autonomous driving vehicle 1 increases, and an image corresponding to the movement of the virtual viewpoint can be displayed by enlarging and displaying the image of the narrow cutout range COb.
  • the shape of the cutout range COa in the first frame image F1a is similar to the shape of the cutout range COb in the second frame image F1b.
  • FIGS. 30A and 30B are diagrams illustrating an example of a cut-out range cut out when the autonomous driving vehicle 1 is curved.
  • FIG. 30A shows the third frame image F1c included in the video received from the autonomous driving vehicle 1
  • FIG. 30B shows the fourth frame image F1d included in the video received from the autonomous driving vehicle 1.
  • the cutout range COb of the autonomous driving vehicle 1 immediately before the curve is in the state shown in FIG. 29B.
  • the remote control device 50 receives the steering angle from the autonomous driving vehicle 1.
  • the steering angle is based on the straight traveling direction of the autonomous driving vehicle 1, and the first direction (right direction, clockwise direction) D1 and its angle (positive value) or the second direction D2 (left direction, counterclockwise direction) ) And its angle (positive value).
  • the first direction may be expressed as a positive value and the second direction may be expressed as a negative value.
  • the rudder angle of the autonomous driving vehicle 1 at the time of capturing the third frame image F1c is the first angle in the first direction D1.
  • the image of the cutout range COc shifted in the first direction D1 is enlarged and displayed on the display unit 54 with reference to the cutout range COb in FIG. 29B. Thereby, an image corresponding to the rotational movement of the virtual viewpoint in the first direction D1 can be displayed.
  • the rudder angle of the autonomous driving vehicle 1 at the time of capturing the fourth frame image F1d is the second angle in the second direction D2.
  • an image of the cutout range COd shifted in the second direction D2 is enlarged and displayed on the display unit 54 with reference to the cutout range COb in FIG. 29B. Thereby, an image corresponding to the rotational movement of the virtual viewpoint in the second direction D2 can be displayed.
  • FIG. 31 is a diagram illustrating a state of the steered wheels when the autonomous driving vehicle 1 goes straight.
  • the left front wheel 31a and the right front wheel 31b among the left front wheel 31a, the right front wheel 31b, the left rear wheel 31c, and the right rear wheel 31d are used as steering wheels.
  • four visible light cameras 21 a to 21 d are installed on the front, rear, left, and right, and an image captured by the visible light camera 21 a installed on the front is transmitted to the remote control device 50.
  • FIG. 32 is a diagram showing the state of the steered wheels when the autonomous driving vehicle 1 is turning to the right.
  • the steered wheel is rotated by a first angle ⁇ 1 in the first direction (right direction, clockwise direction) with reference to the straight traveling direction of the autonomous driving vehicle 1.
  • the direction and angle data is transmitted to the remote control device 50 as steering angle data.
  • FIG. 33 is a diagram showing a state of the steered wheels when the autonomous driving vehicle 1 is turned to the left.
  • the steered wheels are rotated by a second angle ⁇ 2 in the second direction (left direction, counterclockwise direction) with reference to the straight traveling direction of the autonomous driving vehicle 1.
  • the direction and angle data is transmitted to the remote control device 50 as steering angle data.
  • FIG. 34 shows a first relationship between the frame image of the first video imaged by the visible light camera 21 of the autonomous driving vehicle 1 and the frame image of the second video image displayed on the display unit 54 of the remote control device 50. It is a figure which shows an example.
  • the first relationship example is an example where the communication delay of the frame image of the first video transmitted from the autonomous driving vehicle 1 is constant.
  • the remote control device 50 enlarges the image of the cutout area C01 in the first frame image F11 of the first video, and generates the first frame image F21 of the second video.
  • the images of the cutout areas CO2 to CO5 to be cut out from the second to fifth frame images F12 to F15 of the first video are enlarged in a 1: 1 relationship, and the second to second of the second video are expanded.
  • Fifth frame images F22 to F25 are generated.
  • FIG. 35 shows a second relationship between the frame image of the first video imaged by the visible light camera 21 of the autonomous driving vehicle 1 and the frame image of the second video image displayed on the display unit 54 of the remote control device 50. It is a figure which shows an example.
  • the second relation example is an example in the case where the communication delay of the first frame image transmitted from the autonomous driving vehicle 1 is irregular.
  • the communication delay between the second frame image F12 and the third frame image F13 of the first video is increased.
  • the remote control device 50 side does not wait for the reception of the third frame image F13 of the first video, and from the already received second frame image F12, the third frame image F23 of the second video and A fourth frame image F24 is generated.
  • the cut-out area C02b that is the basis of the third frame image F23 of the second video is narrower than the cut-out area C02a that is the base of the second frame image F22 of the second video, and the second video image
  • the cutout region C02c that is the basis of the 4-frame image F24 is narrower than the cutout region C02b that is the basis of the third frame image F23 of the second video.
  • FIG. 36 is a diagram illustrating an example of the frame image F2a displayed on the display unit 54 of the remote control device 50.
  • a frame image F2a illustrated in FIG. 36 is an image generated by enlarging the cutout range COa in the first frame image F1a illustrated in FIG. 29A and superimposing the dangerous range object Z1.
  • the remote operator of the remote monitoring center 5 can intuitively grasp the danger level of the autonomous driving vehicle 1 based on the width of the danger range object Z1.
  • FIG. 37 is a diagram illustrating an example of a frame image captured by the visible light camera 21 having a fisheye lens.
  • An image captured by the visible light camera 21 having a fisheye lens is basically a perfect circle image.
  • a frame image F1a having a rounded rectangular image region is obtained.
  • an omnidirectional image is generated by combining images captured by the four visible light cameras 21a-21d, a frame image having a rounded quadrangular image region is similarly obtained.
  • the size conversion unit 518 of the remote control device 50 performs coordinate conversion based on the distortion parameter set according to the viewing angle of the fisheye lens when converting the image cut out by the cut-out unit 517 into a display size image.
  • the size conversion unit 518 interpolates pixels estimated from surrounding pixels into blank pixels in the image after distortion correction by the coordinate conversion.
  • FIG. 38 is an overhead view of the intersection where the autonomous driving vehicle 1 exists.
  • the automatic driving vehicle 1 at the first point P1 shows a state when the vehicle is going straight before the right turn starts, and the automatic driving vehicle 1 at the second point P2 shows a state where the vehicle is turning right.
  • FIG. 39 is a diagram showing a frame image captured when the autonomous driving vehicle 1 is located at the first point P1 in FIG.
  • the frame image F1e on the left side of FIG. 39 is a frame image captured by the visible light camera 21 of the autonomous driving vehicle 1 located at the first point P1. Since the autonomous driving vehicle 1 is traveling straight, the cutout range COe in the frame image F1e is set at the center in the frame image F1e.
  • the remote control device 50 enlarges the image of the cutout range COe to generate a display frame image F2e.
  • FIG. 40 is a diagram showing a frame image captured when the autonomous driving vehicle 1 is located at the second point P2 in FIG.
  • the frame image F1f on the left side of FIG. 40 is a frame image captured by the visible light camera 21 of the autonomous driving vehicle 1 located at the second point P2. Since the autonomous driving vehicle 1 is turning right, the cutout range COf in the frame image F1f is set to a position shifted to the right from the center in the frame image F1e.
  • the cutout range COf is set to a trapezoidal shape whose left side is shorter than the right side. The larger the first angle ⁇ 1 of the steered wheel, the trapezoidal shape in which the left side is shorter than the right side.
  • the width perpendicular to the first direction D1 of the end portion E1 in the first direction D1 in the cutout range COf is the width perpendicular to the first direction D1 of the end portion E2 opposite to the first direction D1 in the cutout range COf. Wider.
  • the remote control device 50 enlarges the image of the cutout range COf to generate the display frame image F2f, the remote control device 50 corrects the trapezoidal distortion.
  • FIG. 41 is a view showing a frame image taken immediately after the autonomous driving vehicle 1 starts a left turn from the first point P1 in FIG.
  • the frame image F1g on the left side of FIG. 41 is a frame image captured by the visible light camera 21 of the autonomous driving vehicle 1 immediately after starting a left turn from the first point P1. Since the autonomous driving vehicle 1 is turning left, the cutout range COg in the frame image F1g is set to a position shifted to the left from the center in the frame image F1g.
  • the cutout range COg is set to a trapezoidal shape whose right side is shorter than the left side. The larger the second angle ⁇ 2 of the steered wheel, the trapezoidal shape in which the right side is shorter than the left side.
  • the width of the end E2 in the second direction D2 in the cutout range COg perpendicular to the second direction D2 is the width of the end E1 opposite to the second direction D2 in the cutout COg perpendicular to the second direction D2. Wider.
  • the remote control device 50 enlarges the image of the cutout range COg to generate the display frame image F2g, the remote control device 50 corrects the trapezoidal distortion.
  • FIG. 42 is a top view of the intersection where the autonomous driving vehicle 1 is present, where the dangerous range objects are superimposed.
  • the automatic driving vehicle 1 at the first point P1 shows a state when the vehicle is going straight before the right turn starts, and the automatic driving vehicle 1 at the second point P2 shows a state where the vehicle is turning right.
  • the danger range object Z1 is superimposed around the autonomous driving vehicle 1 at the second point P2.
  • FIG. 43 is a diagram showing a display frame image generated from the cutout range in the frame image captured by the visible light camera 21 of the autonomous driving vehicle 1 located at the second point P2.
  • a frame image F2f illustrated in FIG. 43 is an image in which the danger range object Z1 is superimposed on the frame image F2f on the right side of FIG.
  • the danger range object Z1 may be drawn with a colored transparent object, or may be drawn with a colored filled object.
  • an image received from the autonomous driving vehicle 1 is an image in which the position of the virtual viewpoint is corrected based on the communication delay time, the speed of the autonomous driving vehicle 1 and the steering angle. Convert to and display.
  • the remote supervisor / operator of the remote monitoring center 5 can grasp the current situation of the autonomous driving vehicle 1 more accurately. Therefore, the remote pilot can perform remote control with the same driving feeling as usual.
  • the steering wheel 561 and the accelerator pedal 562 of the remote control device 50 are arranged so that the steering wheel 561 and the accelerator pedal 561 are applied when a steering amount deviating from a steerable range determined according to the current situation of the autonomous driving vehicle 1 is applied by the remote operator. It is designed so that the movement of the pedal 562 becomes heavy.
  • a mechanism is introduced in which the autonomous driving vehicle 1 decelerates or stops autonomously.
  • the pilot can perform remote control without activating the safety specification.
  • the remote operator can be alerted according to the degree of danger.
  • a moving body such as a pedestrian is moving in a direction different from that of the autonomous driving vehicle 1
  • the position of the moving body in the video displayed on the display unit 54 is different from the actual position of the moving body.
  • the remote pilot can be alerted by enlarging the area of the danger range object.
  • the dangerous range object is displayed in the monitoring image, but the safe range object may be displayed instead of the dangerous range object.
  • the safe range determination unit (not shown) widens the safe range as the communication delay amount is smaller or the danger level is smaller.
  • the safe range has an inverse relationship with the above-described dangerous range.
  • the visible light camera 21, the LIDAR 22, and the millimeter wave radar 23 are used as sensors for detecting the surrounding situation of the vehicle.
  • another sensor such as an infrared camera or sonar may be used in combination.
  • the example in which the steering angle of the autonomous driving vehicle 1 is received from the autonomous driving vehicle 1 has been described.
  • the rotation angle of the steering wheel 561 of the remote control device 50 is set to the automatic driving vehicle 1.
  • the rudder angle may be used as it is. Since the control command transmitted from the remote control device 50 to the autonomous driving vehicle 1 has a small amount of data, if the communication line is stable, from the rotation of the steering wheel 561 until the steering wheel of the autonomous driving vehicle 1 actually rotates. This time is negligible.
  • the control command transmitted from the remote control device 50 does not have a large amount of data like video and does not require compression encoding processing and decompression decoding processing.
  • the position of the moving body may be corrected on the image based on the motion vector of the viewpoint movement of the autonomous driving vehicle 1 and the motion vector of the moving body.
  • the automatic operation control device (10) includes a detection data input unit (132) and a communication unit (131).
  • a detection data input part (132) acquires the detection data which show the surrounding condition of an automatic driving vehicle (1) from the detection apparatus (20) installed in the automatic driving vehicle (1).
  • the communication unit (131) transmits the detection data acquired by the detection data input unit (132) to the remote control device (50) monitoring the autonomous driving vehicle (1) via the network (2). Further, the communication unit (131) transmits detection data whose data amount has been changed according to a predetermined condition to the remote control device (50).
  • the amount of data transmitted to the remote control device (50) can be optimized according to the conditions.
  • the communication unit (131) transmits the detected data whose data amount is changed according to the risk level of the automatic driving vehicle (1) to the remote control device (50). May be sent to.
  • the amount of data transmitted to the remote control device (50) can be reduced while ensuring safety.
  • the detection device (20) may include an imaging device (21).
  • the communication unit (131) transmits image data in which the image quality of the image data acquired from the imaging device (21) is adjusted to the remote control device (50) according to the risk level of the autonomous driving vehicle (1). May be.
  • the amount of data transmitted to the remote control device (50) can be reduced while ensuring safety.
  • the autonomous driving vehicle (1) may be provided with a plurality of different types of detection devices (20).
  • the communication unit (131) also selects at least one type of detection data selected from a plurality of types of detection data acquired from the plurality of detection devices (20) according to the risk level of the autonomous driving vehicle (1). May be transmitted to the remote control device (50).
  • the amount of data transmitted to the remote control device (50) can be reduced while ensuring safety.
  • the communication unit (131) detects that the remote control device (50) is transmitting to the remote control device (50) via the network (2). A signal instructing high quality data may be received. Further, the communication unit (131) may transmit the detection data whose data amount is increased in response to a signal for instructing high quality to the remote control device (50).
  • the communication unit (131) is configured such that when the autonomous driving vehicle (1) is traveling, the amount of data is smaller when the autonomous driving is stopped due to the impossibility of autonomous traveling. Detection data having a large amount may be transmitted to the remote control device (50).
  • the automatic operation control device (10) includes a detection data input unit (132) and a communication unit (131).
  • a detection data input part (132) acquires the detection data which show the surrounding condition of an automatic driving vehicle (1) from the detection apparatus (20) installed in the automatic driving vehicle (1).
  • the communication unit (131) transmits the detection data acquired by the detection data input unit (132) to the remote control device (50) monitoring the autonomous driving vehicle (1) via the network (2). Further, the communication unit (131) transmits the detection data to the remote control device (50) by a communication method selected from a plurality of communication methods according to a predetermined condition.
  • the communication method can be optimized according to the conditions.
  • the automatic driving control method includes a step of acquiring detection data indicating a surrounding situation of the automatic driving vehicle (1) from a detection device (20) installed in the automatic driving vehicle (1). Further, the automatic driving control method includes a step of transmitting the acquired detection data to the remote control device (50) monitoring the automatic driving vehicle (1) via the network (2). Furthermore, the automatic driving control method includes a step of transmitting detection data whose data amount is changed according to a predetermined condition to the remote control device (50).
  • the amount of data transmitted to the remote control device (50) can be optimized according to the conditions.
  • the automatic driving control method includes a step of acquiring detection data indicating a surrounding situation of the automatic driving vehicle (1) from a detection device (20) installed in the automatic driving vehicle (1). Further, the automatic driving control method includes a step of transmitting the acquired detection data to the remote control device (50) monitoring the automatic driving vehicle (1) via the network (2). Furthermore, the automatic driving control method includes a step of transmitting the detection data to the remote control device (50) by a communication method selected from a plurality of communication methods according to a predetermined condition.
  • the communication method can be optimized according to the conditions.
  • the automatic driving control program causes the computer to execute processing for acquiring detection data indicating the surrounding situation of the automatic driving vehicle (1) from the detection device (20) installed in the automatic driving vehicle (1).
  • the automatic driving control program causes the computer to execute processing for transmitting the acquired detection data to the remote control device (50) monitoring the automatic driving vehicle (1) via the network (2).
  • the automatic operation control program causes the computer to execute a process of transmitting the detection data whose data amount is changed according to a predetermined condition to the remote control device (50).
  • the amount of data transmitted to the remote control device (50) can be optimized according to the conditions.
  • the automatic driving control program causes the computer to execute processing for acquiring detection data indicating the surrounding situation of the automatic driving vehicle (1) from the detection device (20) installed in the automatic driving vehicle (1).
  • the automatic driving control program causes the computer to execute processing for transmitting the acquired detection data to the remote control device (50) monitoring the automatic driving vehicle (1) via the network (2).
  • the automatic operation control program causes the computer to execute a process of transmitting the detection data to the remote control device (50) by a communication method selected from a plurality of communication methods according to a predetermined condition.
  • the communication method can be optimized according to the conditions.
  • the automatic driving vehicle (1) includes a detection data input unit (132) and a communication unit (131).
  • a detection data input part (132) acquires the detection data which show the surrounding condition of an automatic driving vehicle (1) from the detection apparatus (20) installed in the automatic driving vehicle (1).
  • the communication unit (131) transmits the detection data acquired by the detection data input unit (132) to the remote control device (50) monitoring the autonomous driving vehicle (1) via the network (2). Further, the communication unit (131) transmits detection data whose data amount has been changed according to a predetermined condition to the remote control device (50).
  • the amount of data transmitted to the remote control device (50) can be optimized according to the conditions.
  • the automatic driving vehicle (1) includes a detection data input unit (132) and a communication unit (131).
  • a detection data input part (132) acquires the detection data which show the surrounding condition of an automatic driving vehicle (1) from the detection apparatus (20) installed in the automatic driving vehicle (1).
  • the communication unit (131) transmits the detection data acquired by the detection data input unit (132) to the remote control device (50) monitoring the autonomous driving vehicle (1) via the network (2). Further, the communication unit (131) transmits the detection data to the remote control device (50) by a communication method selected from a plurality of communication methods according to a predetermined condition.
  • the communication method can be optimized according to the conditions.
  • the remote control device (50) includes a communication unit (531) and a display unit (54).
  • a communication part (531) acquires the detection data which show the self-driving vehicle (1) own vehicle and the surrounding condition from an autonomous driving vehicle (1) via a network (2).
  • the display unit (54) displays an image around the autonomous driving vehicle (1) generated based on the acquired detection data.
  • a display part (54) displays the range object which shows the safe range or danger range around the autonomous driving vehicle (1) in the image.
  • the range object changes dynamically based on the communication delay between the autonomous driving vehicle (1) and the remote control device (50) or the risk of the autonomous driving vehicle (1).
  • the size of the range object may be reduced as the communication delay increases.
  • the size of the range object may be increased as the communication delay increases.
  • An operation signal input unit (532) for receiving when the operation signal input unit (532) receives an operation signal based on a driving resumption operation by the supervisor after the autonomous driving vehicle (1) has stopped because autonomous traveling is impossible, the communication unit (531) May send a signal instructing the autonomous driving vehicle (1) to resume driving via the network (2).
  • the display unit (54) may display the range object indicating the danger range as a criterion for restarting driving whether or not an obstacle exists in the range object range.
  • the remote control method includes a step of acquiring detection data indicating the situation of the self-driving vehicle (1) and its surroundings from the autonomous driving vehicle (1) via the network (2). Further, the remote control method includes a step of displaying an image around the autonomous driving vehicle (1) generated based on the acquired detection data. In the displaying step, a range object indicating a safe range or a dangerous range around the autonomous driving vehicle (1) is displayed in the image. The range object changes dynamically based on the communication delay between the autonomous driving vehicle (1) and the remote control device (50) or the risk of the autonomous driving vehicle (1).
  • the remote control program causes the computer to execute processing for acquiring detection data indicating the state of the self-driving vehicle (1) and its surroundings from the autonomous driving vehicle (1) via the network (2). Further, the remote control program causes the computer to execute a process of displaying an image around the autonomous driving vehicle (1) generated based on the acquired detection data. In the display process, a range object indicating a safe range or a dangerous range around the autonomous driving vehicle (1) is displayed in the image. The range object changes dynamically based on the communication delay between the autonomous driving vehicle (1) and the remote control device (50) or the risk of the autonomous driving vehicle (1).
  • the remote control device (50) includes a communication unit (531) and a display unit (54).
  • a communication part (531) acquires the detection data which show the self-driving vehicle (1) own vehicle and the surrounding condition from an autonomous driving vehicle (1) via a network (2).
  • the display unit (54) displays an image around the autonomous driving vehicle generated based on the acquired detection data.
  • the display unit (54) includes, in the image, an automatic driving vehicle (1) that corrects a communication delay between the automatic driving vehicle (1) and the remote control device (50), and an automatic driving that does not correct the communication delay.
  • the vehicle (1) is displayed.
  • the communication unit (531) detects the surrounding state of the autonomous driving vehicle (1) from the autonomous driving vehicle (1) via the network (2).
  • the image data may be acquired as
  • the remote control device (50) may further include an image analysis unit (513) and an image generation unit (511).
  • the image analysis unit (513) detects a moving body from the image data, detects a motion vector of the moving body, and estimates a moving speed of the moving body.
  • the image generation unit (511) generates an image based on the communication delay between the autonomous driving vehicle (1) and the remote control device (50) and the moving speed of the moving object estimated by the image analysis unit (513). An image including a mobile object whose communication delay is corrected and a mobile object whose communication delay is not corrected is generated.
  • the display unit (54) displays a safety range or a danger range around the autonomous driving vehicle (1) with corrected communication delay in the image. You may display the range object to show.
  • the remote control method includes a step of acquiring detection data indicating the situation of the self-driving vehicle (1) and its surroundings from the autonomous driving vehicle (1) via the network (2). Further, the remote control method includes a step of displaying an image around the autonomous driving vehicle generated based on the acquired detection data. In the displaying step, the automatic driving vehicle (1) in which the communication delay between the automatic driving vehicle (1) and the remote control device (50) is corrected and the automatic driving vehicle (1) in which the communication delay is not corrected are displayed in the image. Is displayed.
  • the remote control program causes the computer to execute processing for acquiring detection data indicating the state of the self-driving vehicle (1) and its surroundings from the autonomous driving vehicle (1) via the network (2). Further, the remote control program causes the computer to execute a process of displaying an image around the autonomous driving vehicle generated based on the acquired detection data. In the processing to be displayed, the automatic driving vehicle (1) in which the communication delay between the automatic driving vehicle (1) and the remote control device (50) is corrected and the automatic driving vehicle (1 in which the communication delay is not corrected) are displayed in the image. ) And.
  • the remote control device (50) includes a communication unit (531), a display unit (54), and an operation signal input unit (533).
  • a communication part (531) acquires the detection data which show the surrounding condition of an autonomous driving vehicle (1) from an autonomous driving vehicle (1) via a network (2).
  • the display unit (54) displays an image around the autonomous driving vehicle (1) generated based on the acquired detection data.
  • the operation signal input unit (533) receives an operation signal based on an operation of a supervisor who monitors the autonomous driving vehicle (1) displayed on the display unit (54).
  • the operation signal input unit (533) receives an operation signal based on the driving resumption operation of the supervisor, the communication unit (531) A signal for instructing the autonomous driving vehicle (1) to resume driving is transmitted via the network (2).
  • the display unit (54) may be a touch panel display. Further, the communication unit (531) may transmit a signal indicating a travel route generated based on a trajectory input by the supervisor on the touch panel display.
  • the operability of the supervisor can be improved.
  • the display unit (54) includes an autonomous driving vehicle (included in a signal received from the autonomous driving vehicle (1) via the network (2)).
  • the travel route for starting the movement at the time of resuming the driving generated in 1) may be displayed in an image around the autonomous driving vehicle (1).
  • the operation signal input unit (533) receives an operation signal based on an operation of a supervisor who permits the travel route displayed on the display unit (54)
  • the communication unit (531) may transmit a signal for permitting the travel route to the autonomous driving vehicle (1).
  • the safety at the time of resuming operation can be improved by providing a process in which the supervisor permits the travel route generated by the autonomous driving vehicle (1).
  • the communication unit (531) may transmit a signal instructing the autonomous driving vehicle (1) to improve the quality of the detected data via the network (2).
  • the remote control method includes a step of acquiring detection data indicating a surrounding state of the autonomous driving vehicle (1) from the autonomous driving vehicle (1) via the network (2). Further, the remote control method includes a step of displaying an image around the autonomous driving vehicle (1) generated based on the acquired detection data. Furthermore, the remote control method includes a step of receiving an operation signal based on an operation of a supervisor who is monitoring the displayed autonomous driving vehicle (1). In addition, the remote control method allows automatic driving via the network (2) when the operation signal based on the driving resumption operation of the supervisor is accepted after the autonomous driving vehicle (1) stops autonomously and becomes stopped. A step of transmitting a signal instructing the vehicle (1) to resume driving.
  • the remote control program causes the computer to execute processing for acquiring detection data indicating the surrounding state of the autonomous driving vehicle (1) from the autonomous driving vehicle (1) via the network (2). Further, the remote control program causes the computer to execute a process of displaying an image around the autonomous driving vehicle (1) generated based on the acquired detection data. Furthermore, the remote control program causes the computer to execute a process of receiving an operation signal based on an operation of a supervisor who is monitoring the displayed autonomous driving vehicle (1). Further, the remote control program automatically operates via the network (2) when the operation signal based on the driving resumption operation by the supervisor is received after the autonomous driving vehicle (1) is stopped because it cannot autonomously travel. The computer is caused to execute a process of transmitting a signal instructing the vehicle (1) to resume driving.
  • the automatic operation control device (10) includes a detection data input unit (132), an autonomous travel control unit (111), and a communication unit (131).
  • a detection data input part (132) acquires the detection data which show the surrounding condition of an automatic driving vehicle (1) from the detection apparatus (20) installed in the automatic driving vehicle (1).
  • the autonomous traveling control unit (111) autonomously controls the autonomous driving vehicle (1) based on the acquired detection data.
  • the communication unit (131) transmits the detection data acquired by the detection data input unit (132) to the remote control device (50) monitoring the autonomous driving vehicle (1) via the network (2), An instruction signal is received from the remote control device (50) via the network (2).
  • the communication unit (131) instructs from the remote control device (50) the traveling route for starting operation when resuming driving.
  • the autonomous traveling control unit (111) transmits a signal rejecting the traveling route to the remote control device (50) when the instructed traveling route is a route incapable of traveling.
  • the autonomous traveling control unit (111) when the instructed traveling route is a route incapable of traveling, the autonomous traveling control unit (111) generates another traveling route capable of traveling, It may be transmitted to the remote control device (50).
  • the automatic driving control method includes a step of acquiring detection data indicating a surrounding situation of the automatic driving vehicle (1) from a detection device (20) installed in the automatic driving vehicle (1). Further, the automatic driving control method includes a step of autonomously driving and controlling the autonomous driving vehicle (1) based on the acquired detection data. Furthermore, the automatic driving control method includes a step of transmitting the acquired detection data to the remote control device (50) monitoring the automatic driving vehicle (1) via the network (2). Furthermore, the automatic driving control method includes a step of receiving an instruction signal from the remote control device (50) via the network (2). Further, in the automatic driving control method, when the autonomous driving vehicle (1) receives a signal instructing a driving route for starting movement when the driving is resumed after the autonomous driving (1) stops and becomes autonomous. If the instructed travel route is a route that cannot be traveled, a signal for rejecting the travel route is transmitted to the remote control device (50).
  • the automatic driving control program causes the computer to execute processing for acquiring detection data indicating the surrounding situation of the automatic driving vehicle (1) from the detection device (20) installed in the automatic driving vehicle (1).
  • the automatic driving control program causes the computer to execute processing for autonomously driving and controlling the automatic driving vehicle (1) based on the acquired detection data.
  • the automatic driving control program causes the computer to execute processing for transmitting the acquired detection data to the remote control device (50) that monitors the automatic driving vehicle (1) via the network (2).
  • the automatic operation control program causes the computer to execute a process of receiving an instruction signal from the remote control device (50) via the network (2).
  • the automatic driving control program receives a signal indicating a driving route for starting movement at the time of resuming operation from the remote control device (50) after the autonomous driving vehicle (1) has stopped because autonomous driving becomes impossible.
  • the computer is caused to execute a process of transmitting a signal for rejecting the travel route to the remote control device (50).
  • the automatic driving vehicle (1) includes a detection data input unit (132), an autonomous travel control unit (111), and a communication unit (131).
  • a detection data input part (132) acquires the detection data which show the surrounding condition of an automatic driving vehicle (1) from the detection apparatus (20) installed in the automatic driving vehicle (1).
  • the autonomous traveling control unit (111) autonomously controls the autonomous driving vehicle (1) based on the acquired detection data.
  • the communication unit (131) transmits the detection data acquired by the detection data input unit (132) to the remote control device (50) monitoring the autonomous driving vehicle (1) via the network (2), An instruction signal is received from the remote control device (50) via the network (2).
  • the communication unit (131) instructs from the remote control device (50) the traveling route for starting operation when resuming driving.
  • the autonomous traveling control unit (111) transmits a signal rejecting the traveling route to the remote control device (50) when the instructed traveling route is a route incapable of traveling.
  • the remote video output system (1, 50) includes a vehicle (1) and a remote video output device (50).
  • vehicle (1) includes an imaging circuit (21) capable of photographing at least the periphery in the traveling direction, and a wireless communication circuit (131a) capable of transmitting an image photographed by the imaging circuit (21).
  • the remote video output device (50) includes a communication circuit (531a) that can receive the first video from the wireless communication circuit (131a) via the network (2), and an output circuit that can output the second video ( 532).
  • the output circuit (532) when the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the first delay time, the output circuit (532) The first range (COa) is cut out from the first frame of the video and output as the second video.
  • an output circuit (532) when the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is a second delay time longer than the first delay time, an output circuit (532) cuts out the second range (COb) narrower than the first range (COa) from the second frame of the first video and outputs it as the second video.
  • the second frame of the first video may be the same as the first frame of the first video.
  • the second video can be generated at the specified display timing.
  • the remote video output device (50) further includes a display unit (54) connected to the output circuit (532).
  • the display unit (54) may output the second video.
  • the remote supervisor / pilot can view the second video in which the influence of the communication delay is compensated for in real time.
  • the video can be transmitted from the autonomous driving vehicle (1) to the remote control device (50) in a general video format.
  • the shape of the first range (COa) in the first frame of the first video is the first It may be similar to the shape of the second range (COb) in the second frame of the video.
  • the vehicle (1) further includes a speed detection circuit (24) for detecting a traveling speed. Also good.
  • the wireless communication circuit (131a) may be capable of transmitting the traveling speed.
  • the communication circuit (531a) of the remote video output device (50) may be able to receive the traveling speed from the wireless communication circuit (131a) via the network (2).
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time, and the communication circuit (531a)
  • the output circuit (532) may cut out the third range (COa) from the third frame of the first video and output it as the second video.
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time, and the communication circuit (531a)
  • the output circuit (532) outputs the fourth range (COb) narrower than the third range (COa) from the fourth frame of the first video.
  • the output circuit (532) may output the second video as the second video.
  • the third delay time may be greater than zero. Further, the third speed may include zero.
  • the shape of the third range (COa) in the third frame of the first video is the fourth video in the fourth frame of the first video. It may be similar to the shape of the range (COb).
  • the vehicle (1) may further include a steering angle detection circuit (26) for detecting a steering angle of the steering wheel.
  • the wireless communication circuit (131a) may be capable of transmitting the steering angle.
  • the communication circuit (531a) of the remote video output device (50) may be able to receive the steering angle from the wireless communication circuit (131a) via the network (2).
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time
  • the communication circuit (531a) When the received traveling speed is the third speed and the rudder angle received by the communication circuit (531a) is the first rudder angle, the output circuit (532) receives the fifth frame from the fifth frame of the first video.
  • the range (COb) may be cut out and output as the second video.
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time, and the communication circuit (531a)
  • the output circuit (532) starts from the sixth frame of the first video.
  • the sixth range (COc) may be cut out and output as the second video.
  • the second rudder angle is different from the first rudder angle.
  • the sixth range (COc) is different from the fifth range (COb).
  • the third delay time may be greater than zero.
  • the third speed may be greater than zero.
  • the steering angle of the steered wheels (31a, 31b) detected by the steering angle detection circuit (26) is based on the straight traveling direction of the vehicle (1).
  • the first direction and its angle, or the second direction opposite to the first direction and its angle may be used.
  • the first direction may be right. Further, the second direction may be left.
  • the rudder angle of the steered wheels (31a, 31b) can be transmitted as left-right symmetric numerical data.
  • the remote video output device (50) of the remote video output system (1, 50) there is a communication delay from the vehicle (1) to the remote video output device (50) via the network (2).
  • the traveling speed received by the communication circuit (531a) is the third speed
  • the rudder angle received by the communication circuit (531a) is the straight traveling direction
  • the output circuit (532) the seventh range (COb) may be cut out and output as the second video. In this case, the seventh range (COb) is cut out from the seventh frame of the first video.
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time, and the traveling speed received by the communication circuit (531a) is the third speed.
  • the output circuit (532) displays the eighth range (COc, COf) in the first video.
  • the output circuit (532) may output the second image by cutting out from the eighth frame.
  • the first angle ( ⁇ 1) is the first angle ( ⁇ 1) in the first direction with respect to the straight traveling direction
  • the eighth range (COc, COf) is the first video frame. This is a range that is shifted in the first direction (D1) with respect to the seventh range (COb).
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time
  • the traveling speed received by the communication circuit (531a) is the third speed.
  • the output circuit (532) displays the ninth range (COd, COg) in the first video.
  • the output circuit (532) may output from the ninth frame as the second video.
  • the second angle ( ⁇ 2) is the second angle ( ⁇ 2) in the second direction (D2) with respect to the straight traveling direction
  • the ninth range (COd, COg) is the first image.
  • the second range (D2) is different from the first direction (D1) with reference to the sixth range (COc).
  • the first angle may be a positive value.
  • the second angle may be a positive value.
  • the first direction (D1) of the end (E1) of the eighth direction (COc, COf) in the first direction (D1) May be wider than the width orthogonal to the first direction (D1) at the end (E2) opposite to the first direction (D1) in the eighth range (COc, COf).
  • the width of the end portion (E2) in the second direction (D2) of the ninth range (COd, COg) orthogonal to the second direction (D2) is in the ninth range (COd, COg).
  • the width of the end (E1) opposite to the second direction (D2) may be wider than the width orthogonal to the second direction (D1).
  • the second direction (D2) in the first video frame is the first direction in the first video frame. It may be the opposite of (D1).
  • the range to be cut out symmetrically can be moved.
  • the output circuit (532) of the remote video output device (50) is provided in the second video frame.
  • An object indicating a predetermined area may be superimposed and output. Further, the predetermined area may be a dangerous area.
  • the remote video output device (50) includes a communication circuit (531a) capable of receiving the first video via the network (2) and an output circuit (532) capable of outputting the second video.
  • the communication circuit (531a) can receive the first video through the network (2) from the wireless communication circuit (131a) of the external vehicle (1).
  • the vehicle (1) further includes an imaging circuit (21) capable of photographing at least the surroundings in the traveling direction, and the wireless communication circuit (131a) of the vehicle (1) transmits an image photographed by the imaging circuit (21). Is possible.
  • the output circuit (532) is connected to the first frame from the first frame of the first video. Is cut out and output as a second video.
  • the output circuit (532) A second range (COb) that is narrower than the first range (COa) is cut out from the second frame and output as a second video.
  • the second frame of the first video may be the same as the first frame of the first video.
  • the second video can be generated at the specified display timing.
  • the remote video output device (50) may further include a display unit (54) connected to the output circuit (532), and the display unit (54) The second video may be output.
  • the remote supervisor / pilot can view the second video in which the influence of the communication delay is compensated for in real time.
  • the first frame of the first video and the second frame of the first video are rectangular. Also good.
  • the video can be transmitted from the autonomous driving vehicle (1) to the remote control device (50) in a general video format.
  • the shape of the first range (COa) in the first frame of the first video is the first video. It may be similar to the shape of the second range (COb) in the second frame.
  • the vehicle (1) may further include a speed detection circuit (24) for detecting a traveling speed.
  • the wireless communication circuit (131a) may be capable of transmitting the traveling speed.
  • the communication circuit (531a) may be able to receive the traveling speed from the wireless communication circuit (131a) via the network (2).
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time, and the traveling speed received by the communication circuit (531a) is the first speed.
  • the output circuit (532) may cut out the third range (COa) from the third frame of the first video and output it as the second video.
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time
  • the traveling speed received by the communication circuit (531a) is the first speed.
  • the output circuit (532) cuts out the fourth range (COb) narrower than the third range (COa) from the fourth frame of the first video and outputs it as the second video. May be.
  • the third delay time may be greater than zero.
  • the third speed may include zero.
  • the shape of the third range (COa) in the third frame of the first video is the fourth range (in the fourth frame of the first video ( It may be similar to the shape of COb).
  • the vehicle (1) may further include a steering angle detection circuit (26) for detecting a steering angle of the steering wheel.
  • the wireless communication circuit (131a) may be capable of transmitting the steering angle.
  • the communication circuit (531a) may be able to receive the steering angle from the wireless communication circuit (131a) via the network (2).
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time, and the traveling speed received by the communication circuit (531a) is the third speed.
  • the output circuit (532) cuts out the fifth range (COb) from the fifth frame of the first video.
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time
  • the traveling speed received by the communication circuit (531a) is the third speed.
  • the output circuit (532) receives the fifth frame from the sixth frame of the first video.
  • a sixth range (COc) different from the range (COb) may be cut out and output as the second video.
  • the third delay time may be greater than zero.
  • the third speed may be greater than zero.
  • the rudder angle of the steered wheels detected by the rudder angle detection circuit (26) is based on the straight direction of the vehicle (1) and its angle.
  • the first direction may be right. Further, the second direction may be left.
  • the rudder angle of the steered wheels (31a, 31b) can be transmitted as left-right symmetric numerical data.
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time, and the communication
  • the traveling speed received by the circuit (531a) is the third speed and the rudder angle received by the communication circuit (531a) is the straight traveling direction
  • the output circuit (532) displays the seventh frame of the first video.
  • the seventh range (COb) may be cut out and output as the second video.
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time, and the traveling speed received by the communication circuit (531a) is the third speed.
  • the output circuit (532) displays the eighth range (COc, COf) in the first video. It may be cut out from the eighth frame and output as the second video.
  • the first angle ( ⁇ 1) is the first angle ( ⁇ 1) in the first direction with respect to the straight traveling direction
  • the eighth range (COc, COf) is the first video frame. This is a range that is shifted in the first direction (D1) with respect to the seventh range (COb).
  • the communication delay from the vehicle (1) to the remote video output device (50) via the network (2) is the third delay time
  • the traveling speed received by the communication circuit (531a) is the third speed.
  • the ninth range (COd, COg) is cut out from the ninth frame of the first video and
  • the output circuit (532) may output the second video.
  • the second angle ( ⁇ 2) is the second angle ( ⁇ 2) in the second direction (D2) with respect to the straight traveling direction
  • the ninth range (COd, COg) is the first image.
  • the second range (D2) is different from the first direction (D1) with reference to the sixth range (COc).
  • the first angle may be a positive value.
  • the second angle may be a positive value.
  • the end (E1) of the first direction (D1) in the eighth range (COc, COf) is orthogonal to the first direction (D1)
  • the width to be performed may be wider than the width orthogonal to the first direction (D1) at the end (E2) opposite to the first direction (D1) in the eighth range (COc, COf).
  • the width of the end portion (E2) of the second direction (D2) in the ninth range (COd, COg) orthogonal to the second direction (D2) is in the ninth range (COd, COg).
  • the width of the end (E1) opposite to the second direction (D2) may be wider than the width orthogonal to the second direction (D1).
  • the second direction (D2) in the frame of the first video is the first direction (D1) in the frame of the first video. ) May be the opposite.
  • the range to be cut out symmetrically can be moved.
  • the output circuit (532) superimposes an object indicating a predetermined area on the second video frame. It may be output. Further, the predetermined area may be a dangerous area.
  • the present disclosure is useful as a remote video output system and a remote video output device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Combustion & Propulsion (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Selective Calling Equipment (AREA)

Abstract

遠隔映像出力システムは、車両と、遠隔映像出力装置と、を有する。車両は、少なくとも進行方向の周囲を撮影可能な撮像回路と、撮像回路が撮影した映像を送信可能な無線通信回路と、を有する。遠隔映像出力装置は、無線通信回路より、ネットワークを介して第1の映像を受信可能な通信回路と、第2の映像を出力可能な出力回路と、を有する。遠隔映像出力装置において、車両からネットワークを介して遠隔映像出力装置までの通信遅延が第1遅延時間である場合、出力回路が、第1の映像の第1フレームから第1の範囲を切り出して第2の映像として出力する。遠隔映像出力装置において、車両からネットワークを介して遠隔映像出力装置までの通信遅延が、第1遅延時間より長い第2遅延時間である場合、出力回路が、第1の映像の第2フレームから第1の範囲より狭い第2の範囲を切り出して第2の映像として出力する。

Description

遠隔映像出力システム、及び遠隔映像出力装置
 本開示は、自動運転車両を遠隔制御するための遠隔映像出力システム、及び遠隔映像出力装置に関する。
 近年、自動運転車両の開発が加速している。運転手を必要としない無人運転車両の開発も進められている。無人運転車両ではステアリングやブレーキを搭載しないものも開発されており、タクシー、バス、運送トラック等の業務車両への使用が期待されている。
 しかしながら、NHTSA(National Highway Traffic Safety Administration)がレベル5として規定する完全自動運転の実現は、長い年月を要すると予想されている。完全無人自動運転車両が完成するまでの過渡期の技術として、または完全無人自動運転車両を補完する技術として遠隔制御技術を活用することが考えられる(例えば、特許文献1~3参照)。例えば、遠隔制御センタで監視者が複数の無人自動運転車両を監視し、必要なとき無人運転車両に指示を送る方法が考えられる。
特開2013-115803号公報 特開2000-184469号公報 特開2010-61346号公報
 本開示は、安全かつ適正な遠隔制御に資する技術を提供する。
 本開示の一態様の遠隔映像出力システムは、車両と、遠隔映像出力装置と、を有する。車両は、少なくとも進行方向の周囲を撮影可能な撮像回路と、撮像回路が撮影した映像を送信可能な無線通信回路と、を有する。遠隔映像出力装置は、無線通信回路より、ネットワークを介して第1の映像を受信可能な通信回路と、第2の映像を出力可能な出力回路と、を有する。遠隔映像出力装置において、車両からネットワークを介して遠隔映像出力装置までの通信遅延が第1遅延時間である場合、出力回路が、第1の映像の第1フレームから第1の範囲を切り出して第2の映像として出力する。遠隔映像出力装置において、車両からネットワークを介して遠隔映像出力装置までの通信遅延が、第1遅延時間より長い第2遅延時間である場合、出力回路が、第1の映像の第2フレームから第1の範囲より狭い第2の範囲を切り出して第2の映像として出力する。
 なお、以上の構成要素の任意の組み合わせ、本開示の表現を方法、装置、システム、コンピュータプログラムなどの間で変換したものもまた、本開示の態様として有効である。
 本開示によれば、安全かつ適正な遠隔制御を実現すことができる。
図1は、本開示の実施の形態1に係る遠隔型自動運転システムの全体構成を示す図である。 図2は、本開示の実施の形態1に係る自動運転車両の構成を示す図である。 図3は、本開示の実施の形態1に係る遠隔制御装置の構成を示す図である。 図4は、本開示の実施の形態1に係る遠隔型自動運転システムの基本動作を示すフローチャートである。 図5は、動作例1に係る送信データ量調整方法の処理の流れを示すフローチャートである。 図6Aは、動作例1に係る遠隔制御装置の表示部に表示される監視画像の一例を示す図である。 図6Bは、動作例1に係る遠隔制御装置の表示部に表示される監視画像の一例を示す図である。 図7は、動作例2に係る送信データ量調整方法の処理の流れを示すフローチャートである。 図8Aは、動作例2に遠隔制御装置の表示部に表示される監視画像の一例を示す図である。 図8Bは、動作例2に遠隔制御装置の表示部に表示される監視画像の一例を示す図である。 図9は、動作例3に係る通信方式切替方法の処理の流れを示すフローチャートである。 図10は、動作例4に係る通信方式切替方法の処理の流れを示すフローチャートである。 図11は、動作例5に係る、高画質画像要求機能が搭載された遠隔型自動運転システムの動作を示すフローチャートである。 図12は、動作例6に係る、運転再開時の走行ルートの指定機能が搭載された遠隔型自動運転システムの動作を示すフローチャートである。 図13は、動作例6に係る、遠隔制御装置の表示部に表示される監視画像上で走行ルートを指定する場合の一例を示す図である。 図14は、動作例7に係る、運転再開時の走行ルートの指定機能が搭載された遠隔型自動運転システムの動作を示すフローチャートである。 図15は、動作例7に係る、遠隔制御装置の表示部に表示される監視画像上で走行ルートを指定する場合の一例を示す図である。 図16は、動作例6、7の変形例に係る、遠隔制御装置の表示部に表示される監視画像上で走行ルートを指定する場合の一例を示す図である。 図17は、動作例8に係る、危険範囲オブジェクトを含む監視画像の表示方法の処理の流れを示すフローチャートである。 図18Aは、動作例8に係る遠隔制御装置の表示部に表示される監視画像の一例を示す図である。 図18Bは、動作例8に係る遠隔制御装置の表示部に表示される監視画像の一例を示す図である。 図19は、動作例9に係る、危険範囲オブジェクトを含む監視画像の表示方法の処理の流れを示すフローチャートである。 図20は、動作例10に係る、通信遅延が可視化された監視画像の表示方法の処理の流れを示すフローチャートである。 図21は、動作例10に係る遠隔制御装置の表示部に表示される監視画像の一例を示す図である。 図22は、動作例11に係る、通信遅延が可視化された監視画像の表示方法の処理の流れを示すフローチャートである。 図23は、動作例11に係る遠隔制御装置の表示部に表示される監視画像の一例を示す図である。 図24は、本開示の実施の形態2に係る自動運転車両の構成を示す図である。 図25は、本開示の実施の形態2に係る遠隔制御装置の構成を示す図である。 図26は、本開示の実施の形態2に係る遠隔制御装置が、自動運転車両から受信した映像を表示する際の基本処理の流れを示すフローチャートである。 図27は、本開示の実施の形態2に係る遠隔制御装置が、自動運転車両から受信した映像を表示する際の発展処理の流れを示すフローチャートである。 図28は、本開示の実施の形態2に係る遠隔型自動運転システムの基本動作を示すフローチャートである。 図29Aは、自動運転車両の直進時に切り出される切出範囲の一例を示す図である。 図29Bは、自動運転車両の直進時に切り出される切出範囲の一例を示す図である。 図30Aは、自動運転車両のカーブ時に切り出される切出範囲の一例を示す図である。 図30Bは、自動運転車両のカーブ時に切り出される切出範囲の一例を示す図である。 図31は、自動運転車両の直進時の操舵輪の状態を示す図である。 図32は、自動運転車両の右カーブ時の操舵輪の状態を示す図である。 図33は、自動運転車両の左カーブ時の操舵輪の状態を示す図である。 図34は、自動運転車両の可視光カメラで撮像された第1の映像のフレーム画像と、遠隔制御装置の表示部に表示させる第2の映像のフレーム画像との第1の関係例を示す図である。 図35は、自動運転車両の可視光カメラで撮像された第1の映像のフレーム画像と、遠隔制御装置の表示部に表示させる第2の映像のフレーム画像との第2の関係例を示す図である。 図36は、遠隔制御装置の表示部に表示されるフレーム画像の一例を示す図である。 図37は、魚眼レンズを有する可視光カメラで撮像されたフレーム画像の一例を示す図である。 図38は、自動運転車両が存在する交差点を上から俯瞰した図である。 図39は、図38の第1地点に自動運転車両が位置する際に撮像されたフレーム画像を示す図である。 図40は、図38の第2地点に自動運転車両が位置する際に撮像されたフレーム画像を示す図である。 図41は、図38の第1地点から自動運転車両が左折を開始した直後に撮像されたフレーム画像を示す図である。 図42は、危険範囲オブジェクトが重畳された、自動運転車両が存在する交差点を上から俯瞰した図である。 図43は、第2地点に位置する自動運転車両の可視光カメラで撮像されたフレーム画像内の切出範囲から生成された表示用のフレーム画像を示す図である。
 (実施の形態1)
 遠隔制御を一部に組み込んだ無人自動運転車両では、車両の状態や周囲の状況をセンサで検知した検知データを車両からネットワークを介して遠隔制御センタに送信する必要がある。しかしながら、例えば高画質の画像データを車両から遠隔制御センタに送信し続けると通信コストが高くなる。また送信するデータ量が大きくなるほど通信遅延の影響も大きくなる。
 本開示の実施の形態1はこうした状況に鑑みなされたものであり、実施の形態1の第1の目的は、自動運転車両から遠隔制御装置に送信されるデータ量を、安全性を確保しつつ減少させる技術を提供することにある。
 自動運転車両は、歩行者の飛び出し等の危険事象を検知すると自律的に緊急停止する。緊急停止後の車両の周囲状況は多種多様であり、緊急停止の原因となった歩行者や自転車の次の挙動を予測することも難しい。従って、自動運転車両が緊急停止後に運転を再開してよいか否かを的確に判断することは難しい。一方、道路の中央で緊急停止した場合、後続に車両が詰まっている可能性があり、運転を再開するか否かを迅速に判断することが求められる。
 本開示の実施の形態1はこうした状況に鑑みなされたものであり、実施の形態1の第2の目的は、自転運転車両において、道路運行の妨げになることを抑制しつつ、安全性を確保する技術を提供することにある。
 上述のように、遠隔制御センタで無人自動運転車両を監視するには、車両の状態や周囲の状況をセンサで検知した検知データを車両からネットワークを介して受信し、モニタに表示させる必要がある。しかしながら、通信遅延が発生すると実際の状況とモニタに表示されている状況とにずれが発生し、監視者が誤った情報をもとに誤った判断をしてしまう可能性がある。
 本開示の実施の形態1はこうした状況に鑑みなされたものであり、実施の形態1の第3の目的は、自動運転車両をネットワークを介して監視している監視者による遠隔制御の精度を向上させる技術を提供することにある。
 図1は、本開示の実施の形態1に係る遠隔型自動運転システムの全体構成を示す図である。自動運転車両1に搭載された自動運転制御装置10は、遠隔監視センタ5の遠隔制御装置50とネットワーク2を介して通信する。自動運転制御装置10は、無線LAN(Wireless LAN:Wireless Local Area Network)を使用した通信方式(以下、第1通信方式という)と、携帯電話網(セルラー網)を使用した通信方式(以下、第2通信方式という)を利用して、遠隔制御装置50と双方向通信を行う。
 2017年現在、日本では携帯電話網としてLTE(Long-Term Evolution)が普及しており、LTEは都市部のほぼ全てのエリアをカバーしている。基地局装置2bは半径約数百m~数kmをエリアカバー範囲としており、各基地局装置2bは自己のエリアカバー範囲内の自動運転制御装置10と第2通信方式で通信する。基地局装置2bは、自動運転制御装置10から受信した信号を、交換局(不図示)、ゲートウェイ装置(不図示)、インターネット2c及び遠隔監視センタ5のルータ装置2dを介して、遠隔制御装置50に送信する。また基地局装置2bは、遠隔制御装置50から送信された信号を、遠隔監視センタ5のルータ装置2d、インターネット2c、ゲートウェイ装置(不図示)及び交換局(不図示)を介して受信し、自動運転制御装置10に送信する。
 2017年現在、日本では無線LANのアクセスポイントが増加中であるが、アクセスポイントに通信可能なエリアは限られている。また無料で利用することができる、公衆無線LANのアクセスポイントも増加中であるが、その設置場所は特定の場所に限られている。今後、主要な幹線道路沿いに公衆無線LANのアクセスポイントが切れ目なく設置されることが期待されている。
 無線LANルータ装置2aは半径約数10mをエリアカバー範囲としており、各基地局装置2bは自己のエリアカバー範囲内の自動運転制御装置10と第1通信方式で通信する。無線LANルータ装置2aは、自動運転制御装置10から受信した信号をインターネット2c及び遠隔監視センタ5のルータ装置2dを介して遠隔制御装置50に送信する。また無線LANルータ装置2aは、遠隔制御装置50から送信された信号を、遠隔監視センタ5のルータ装置2d及びインターネット2cを介して受信し、自動運転制御装置10に送信する。
 無人自動運転車両をタクシー、バス、運送トラック等の業務車両に使用する場合、その最大のメリットは運転手が不要になることによる人件費の削減である。なお、運転手が不要になることによるメリットには、乗車可能人数の増加、荷物設置スペースの増加も挙げられる。しかしながら無人自動運転車両では遠隔監視が必要となり、無人自動運転車両と遠隔監視センタとの間で通信が必要となる。2017年現在の日本の通信事業者の料金体系では、車載カメラで撮影された高画質の画像を第2通信方式で遠隔監視センタに送信し続けた場合、運転手の賃金を大きく上回る通信コストが発生する。従って遠隔型自動運転システムを実現するには、安全性を確保しつつ通信コストを削減することが必要となる。
 図2は、本開示の実施の形態1に係る自動運転車両1の構成を示す図である。自動運転車両1は、自動運転制御装置10、検知部20及びアクチュエータ30を有する。アクセルペダル、ブレーキペダル、ステアリングホイール等の運転手による運転操作に必要な部材は車両内に設置されてもよいし、省略されてもよい。
 アクチュエータ30は、エンジン、モータ、ステアリング、ブレーキ、ランプ等の車両走行に係る負荷を駆動するものである。検知部20は、可視光カメラ21、LIDAR(Light Detection and Ranging)22、ミリ波レーダ23、車速センサ24、GPS(Global Positioning System)センサ25を含む。
 可視光カメラ21は車両の前方、後方、左右の少なくとも4箇所に設置される。これら4つの可視光カメラ21で撮影された前方画像、後方画像、左側画像、右側画像を合成することにより俯瞰画像が生成される。さらに車両の前方に、進行方向の遠方を撮影するための可視光カメラ21が設置される。
 LIDAR22は、車両の周囲に光線(例えば、赤外線レーザ)を放射して、その反射信号を受信し、受信した反射信号をもとに周囲に存在する対象物との距離、対象物の大きさ、対象物の組成を測定する。複数のLIDAR22または可動式のLIDAR22を設置することにより、対象物の移動速度も測定することができる。また、車両周囲の3次元モデリング画像を生成することができる。
 ミリ波レーダ23は、車両の周囲に電波(ミリ波)を放射して、その反射信号を受信し、受信した反射信号をもとに周囲に存在する対象物までの距離を測定する。複数のミリ波レーダ23を設置することにより、車両周囲の広範囲の対象物を検出することができる。ミリ波レーダ23は、LIDAR22で検出困難な、より遠方の対象物も検出可能である。
 車速センサ24は自動運転車両1の速度を検出する。GPSセンサ25は自動運転車両1の位置情報を検出する。具体的には複数のGPS衛星からそれぞれ発信時刻を受信し、受信した複数の発信時刻をもとに受信地点の緯度経度を算出する。
 自動運転制御装置10は制御部11、記憶部12及び入出力部13を有する。制御部11は自律走行制御部111、危険度算出部112、通信遅延推定部113、送信データ量調整部114及び通信方式切替部115を含む。制御部11の機能はハードウェア資源とソフトウェア資源の協働、又はハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM(Read-Only Memory)、RAM(Random-Access Memory)、その他のLSI(Large-Scale Integration)を利用できる。プロセッサとしてCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等を利用できる。ソフトウェア資源としてオペレーティングシステム、アプリケーション等のプログラムを利用できる。
 記憶部12は例えばHDD(Hard Disk Drive)、SSD(Solid-State Drive)で構成される。記憶部12には、3次元マップ等の自律走行に必要なデータが保持される。入出力部13はセンタ入出力部131、検知データ入力部132及び制御信号出力部133を含む。センタ入出力部131は、遠隔監視センタ5の遠隔制御装置50との通信方式に準拠した通信インタフェースを有する。検知データ入力部132は、検知部20から各種の検知データを取得し、制御部11に出力する。制御信号出力部133は、制御部11で生成された各種のアクチュエータ30を駆動するための制御信号を各種のアクチュエータ30に出力する。
 自律走行制御部111は所定の自動運転アルゴリズムに基づき、自動運転車両1を自律走行させる。具体的には自律走行制御部111は、検知部20により検知された各種検知データ、及び無線により外部から収集した各種の情報に基づき、自車および自車周辺の状況を認識する。自律走行制御部111は、認識した状況を示す各種パラメータを自動運転アルゴリズムに適用して自動運転車両1の行動を決定する。自律走行制御部111は決定した行動をもとに、各種のアクチュエータ30を駆動するための制御信号を生成し、アクチュエータ30に出力する。
 自動運転アルゴリズムは、ディープラーニングをもとにした人工知能(AI:Artificial Intelligence)により生成される。自動運転アルゴリズムの各種パラメータは、事前にハイスペックなコンピュータにより学習された値に初期設定されるとともに、クラウド上のデータセンタからアップデートされた値が適宜、ダウンロードされる。
 危険度算出部112は、LDW(Lane Departure Warning)、FCW(Forward collision warning)、急ハンドル、急ブレーキ、時間帯、場所、天候などの各種パラメータをもとに自動運転車両1の現在の危険度を算出する。例えば、LDW、FCW、急ハンドル及び急ブレーキのいずれかの事象が発生した場合、危険度は大きく上昇する。
 また危険度算出部112は、ディープラーニングをもとにした人工知能により生成された危険予知アルゴリズムに基づき自動運転車両1の現在の危険度を算出してもよい。この場合、検知部20により検知された各種データを加味して危険度を算出することができる。危険度は例えば、0~100の範囲の値で規定される。
 通信遅延推定部113は、第1通信方式または第2通信方式の通信路の遅延時間を推定する。例えば、自動運転制御装置10から信号を送信する送信時刻と、当該信号を遠隔制御装置50で受信する受信時刻との差分により推定することができる。具体的には送信信号に送信時刻のタイムスタンプを挿入し、遠隔制御装置50から当該タイムスタンプの受信時刻を返信してもらうことにより当該差分を検出する。なお遠隔制御装置50から送信された信号にタイムスタンプが挿入されている場合は、当該信号を受信した受信時刻と、当該タイムスタンプに含まれる送信時刻の差分を検出する。
 送信データ量調整部114は、危険度算出部112により算出された危険度または通信遅延推定部113により推定された通信遅延量をもとに、遠隔制御装置50に送信する検知データのデータ量を調整する。送信データ量調整部114は、危険度が高いほど又は通信遅延量が小さいほど、送信する検知データのデータ量を増加させる。
 上記した可視光カメラ21、LIDAR22、ミリ波レーダ23、車速センサ24及びGPSセンサ25の検知データの内、データ量が多いのは可視光カメラ21で生成された画像データである。次にデータ量が多いのがLIDAR22で生成された3次元モデリングデータである。次にデータ量が多いのがミリ波レーダ23で検知された検知情報である。車速センサ24で検知された車両情報およびGPSセンサ25で検知された位置情報はごく少量のデータである。
 送信データ量調整部114は、送信する検知データの種類を調整することにより、送信データのデータ量を調整することもできる。例えば送信データのデータ量を減少させる場合、送信データ量調整部114は、可視光カメラ21で生成された画像データを送信対象から除外する。
 また送信データ量調整部114は、送信する画像データの画質を調整することにより、送信データのデータ量を調整することもできる。例えば送信データ量調整部114は、画像データの解像度及びフレームレートの少なくとも一方を調整する。また単位画素当たりの階調数を調整してもよい。
 通信方式切替部115は、危険度算出部112により算出された危険度または通信遅延推定部113により推定された通信遅延量をもとに通信方式を切り替える。例えば通信方式切替部115は、第1通信方式の通信経路の遅延量と第2通信方式の通信経路の遅延量を比較して、遅延量が少ない方の通信方式を選択する。なお自動運転車両1の近傍に無線LANルータ装置2aが存在しないエリアでは、通信方式切替部115は第2通信方式を選択する。
 また通信方式切替部115は、危険度算出部112により算出された危険度が設定値より高い場合は相対的に高品質な通信方式を選択し、当該設定値以下の場合は相対的に低品質の通信方式を選択する。移動体端末の移動中の通信品質を考えた場合、第2通信方式の方が第1通信方式より通信品質が高いといえる。携帯電話網の基地局装置2bの方が、無線LANルータ装置2aより個々のカバー範囲が広く、ハンドオーバーの頻度が少ない。また携帯電話網ではハンドオーバーの標準技術が確立しており、ハンドオーバー時に通信が途切れる可能性は小さい。
 また通信方式切替部115は、危険度算出部112により算出された危険度が設定値より高い場合は相対的に通信コストが高い通信方式を選択し、当該設定値以下の場合は相対的に通信コストが安い通信方式を選択することもできる。第1通信方式として公衆無線LANを使用する場合、第1通信方式の方が第2通信方式より通信コストが安くなる。
 なお通信方式切替部115は、第1通信方式の通信経路の遅延量が第2通信方式の通信経路の遅延量より大きい場合であっても、危険度が設定値より低い場合は相対的に通信コストが安い第1通信方式を選択してもよい。ただし、第1通信方式の通信経路の遅延量が絶対的に大きい場合は第2通信方式を選択することが望ましい。
 自律走行制御部111は緊急停止が必要な事象が発生すると、制動用のアクチュエータ30に緊急停止を指示する制御信号を送信して自動運転車両1を停止させる。緊急停止が必要な事象として、人や自転車の飛び出し、前方車両の急停車、他車両の割り込み、通信不能などがある。なお赤信号により停止、渋滞による停止、及び目的地到着による停止は緊急停止に含まれない。自律走行制御部111は自動運転車両1を緊急停止させるとともに、ネットワーク2を介して遠隔制御装置50に緊急停止事象が発生したことを通知する。
 緊急停止が必要な事象が発生すると送信データ量調整部114は、検知部20で検知された全種類の検知データを遠隔制御装置50に送信するよう制御する。従って画像データも送信対象に含まれることになる。さらに送信データ量調整部114は緊急停止が必要な事象が発生すると、最高画質の画像データを遠隔制御装置50に送信するよう制御する。また緊急停止が必要な事象が発生すると通信方式切替部115は、遅延量が最も少ない通信方式を選択する。
 図3は、本開示の実施の形態1に係る遠隔制御装置50の構成を示す図である。遠隔制御装置50は、少なくとも1台のサーバ又はPC(Personal Computer)により構築される。遠隔制御装置50は制御部51、記憶部52、入出力部53、表示部54及び操作部55を有する。表示部54は液晶ディスプレイ又は有機EL(OEL:organic electro-luminescence)ディスプレイを有し、制御部51により生成された画像を表示する。操作部55はキーボード、マウス、タッチパネル等の入力装置を有し、ユーザの操作に起因して生成される操作信号を制御部51に出力する。なお操作部55には、遠隔運転用のステアリングホイール、アクセルペダル、ブレーキペダル等の模擬的な操縦装置が設けられてもよいが、本実施の形態では必須でない。
 制御部51は画像生成部511、車両指示信号生成部512、画像解析部513及び危険範囲決定部514を含む。制御部51の機能はハードウェア資源とソフトウェア資源の協働、又はハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM、RAM、その他のLSIを利用できる。プロセッサとしてCPU、GPU、DSP等を利用できる。ソフトウェア資源としてオペレーティングシステム、アプリケーション等のプログラムを利用できる。
 記憶部52は例えばHDD、SSDで構成される。記憶部52には、自動運転制御装置10の記憶部12に保持された3次元マップと同期が取れている3次元マップ等、自動運転車両1の遠隔監視に必要なデータが保持される。入出力部53は車両入出力部531、画像信号出力部532及び操作信号入力部533を含む。車両入出力部531は、自動運転車両1の自動運転制御装置10との通信方式に準拠した通信インタフェースを有する。画像信号出力部532は、制御部51により生成された画像信号を表示部54に出力する。操作信号入力部533は、操作部55から受け付けた操作信号を制御部51に入力する。
 画像生成部511は、自動運転制御装置10から受信した検知データ、及び2次元または3次元マップデータをもとに、表示部54に表示させるべき画像を生成する。画像生成部511は、自動運転車両1の可視光カメラ21で撮影された画像データ、又はLIDAR22で生成された3次元モデリング画像は基本的にそのまま表示部54に表示させる。GPSセンサ25で検知された自動運転車両1の位置情報、又はミリ波レーダ23で検知された対象物の情報については、画像生成部511は2次元/3次元マップの対応する位置に、自車または対象物のアイコン/ピクトグラムを重畳した画像を生成する。
 本実施の形態に係る遠隔型自動運転システムでは、自動運転車両1が緊急停止した後の、運転再開の行動決定を遠隔制御装置50のユーザ(以下、監視者という)が行い、自動運転車両1の他の行動決定は原則的に自動運転制御装置10が自律的に行うことを想定している。
 車両指示信号生成部512は操作信号入力部533を介して、自動運転車両1が自律的に緊急停止した後の、監視者による運転再開操作に基づく操作信号を受け付けたとき、自動運転制御装置10に運転再開指示信号を送信する。画像解析部513及び危険範囲決定部514の説明は後述する。
 図4は、本開示の実施の形態1に係る遠隔型自動運転システムの基本動作を示すフローチャートである。自動運転制御装置10は、検知部20により検知された検知データをネットワーク2を介して遠隔制御装置50に送信する(S10)。遠隔制御装置50は当該検知データを受信し(S20)、受信した検知データをもとに監視画像を生成し、表示部54に表示させる(S21)。
 自動運転制御装置10は、緊急停止する必要がある事象が発生すると(S11のY)、自動運転車両1を停止させるとともに(S12)、緊急停止信号をネットワーク2を介して遠隔制御装置50に送信する(S13)。緊急停止後も自動運転制御装置10は、検知部20により検知された検知データを遠隔制御装置50に送信し続ける(S14)。
 表示部54に表示されている監視画像を見ている監視者が行った運転再開操作を受け付けると(S24のY)、遠隔制御装置50は運転再開指示信号をネットワーク2を介して自動運転制御装置10に送信する(S25)。自動運転制御装置10は当該運転再開指示信号を受信すると(S17)、自動運転車両1の運転を再開させる(S18)。
 以下、安全性を確保しつつ自動運転制御装置10と遠隔制御装置50間の通信量を削減するために自動運転制御装置10から送信されるデータ量を適応的に調整する例を説明する。
 図5は、動作例1に係る送信データ量調整方法の処理の流れを示すフローチャートである。自動運転制御装置10の自律走行制御部111は、検知部20から各種の検知データを取得する(S100)。自律走行制御部111は、可視光カメラ21、LIDAR22及びミリ波レーダ23の少なくとも1つから取得された検知データをもとに、自車周辺の対象物の位置情報を特定する。当該対象物は、自車以外の車両、自転車、歩行者、動物などの、走行中の障害物として予め自車運転アルゴリズムに設定された対象物である。なお、対象物の種別及び移動ベクトルの少なくとも一方を検出できる場合は、対象物の種別及び移動ベクトルの少なくとも一方も検出する。
 危険度算出部112は、自車の現在の危険度を算出する(S101)。算出された危険度が予め設定された閾値以下の場合(S102のN)、送信データ量調整部114は、遠隔制御装置50に送信する検知データとして、GPSセンサ25により検知された自車の位置情報、車速センサ24により検知された自車の車速情報、及び自車周辺の対象物の情報を選定する。自律走行制御部111は、選定された自車の位置情報、自車の車速情報、及び自車周辺の対象物の情報を含む検知データをネットワーク2を介して遠隔制御装置50に送信する(S103)。
 上記危険度が上記閾値を超える場合(S102のY)、送信データ量調整部114は、遠隔制御装置50に送信する検知データに、可視光カメラ21により撮像された可視光画像データを含める。当該検知データには可視光画像データに加えて、上述の自車の位置情報、自車の車速情報、及び自車周辺の対象物の情報も含まれる。さらにLIDAR22により生成された3次元モデリング画像が含まれてもよい。自律走行制御部111は、可視光画像データを含む検知データをネットワーク2を介して遠隔制御装置50に送信する(S104)。以上のステップS100~ステップS104までの処理が、自動運転車両1の運転が終了するまで(S105のY)、繰り返し実行される(S105のN)。
 図6A、図6Bは、動作例1に遠隔制御装置50の表示部54に表示される監視画像の一例を示す図である。図6Aは、上記危険度が上記閾値以下の状態で表示部54に表示される監視画像54aの一例を示している。図6Aに示す例では、自車の位置情報、及び自車周辺の対象物の位置情報をもとに自車を示すアイコンC1iと、自車周辺の対象物を示す3つのアイコンO1i~O3iが表示されている。対象物と自車との距離関係は、LIDAR22またはミリ波レーダ23により検知される反射信号により特定することが可能である。また、対象物の動きベクトルを検出することにより、各対象物の進行方向も特定することが可能である。
 なお、図6Aに示した自車と対象物との相対的な位置関係を示す俯瞰画像を、2次元マップ画像に重畳させて表示させてもよい。遠隔制御装置50の画像生成部511は記憶部52から、自車の位置情報に対応するエリアの2次元マップデータを読み込み、当該2次元マップ上に、自車を示すアイコンC1iと、自車周辺の対象物を示す3つのアイコンO1i~O3iを重畳させる。
 図6Bは、上記危険度が上記閾値を超える状態で表示部54に表示される監視画像54bの一例を示している。図6Bに示す例では、自車の前方を撮影する可視光カメラ21で生成された可視光画像が表示されている。第1対象物O1の先行車両、第2対象物O2の自転車、及び第3対象物O3の自転車は実写映像で表示される。
 動作例1によれば、危険度が低い状態では画像データを遠隔制御装置50に送信しないことにより送信データ量を大幅に削減することができる。一方、危険度が高い状態では画像データを送信することにより、遠隔監視センタ5の監視者が実写映像で車両周辺の状況を確認することができる。従って危険度が高い状態では、監視者による十分な監視体制を確保することができる。
 図7は、動作例2に係る送信データ量調整方法の処理の流れを示すフローチャートである。自動運転制御装置10の自律走行制御部111は、検知部20から各種の検知データを取得する(S110)。危険度算出部112は、自車の現在の危険度を算出する(S111)。算出された危険度が予め設定された閾値以下の場合(S112のN)、送信データ量調整部114は、遠隔制御装置50に送信する検知データに、相対的に低解像度及び低フレームレートの少なくとも一方の可視光画像データを含める。当該検知データには当該可視光画像データに加えて、上述の自車の位置情報、自車の車速情報、及び自車周辺の対象物の情報も含まれる。自律走行制御部111は、当該可視光画像データを含む検知データをネットワーク2を介して遠隔制御装置50に送信する(S113)。
 上記危険度が上記閾値を超える場合(S112のY)、送信データ量調整部114は、遠隔制御装置50に送信する検知データに、相対的に高解像度及び高フレームレートの少なくとも一方の可視光画像データを含める。当該検知データには当該可視光画像データに加えて、上述の自車の位置情報、自車の車速情報、及び自車周辺の対象物の情報も含まれる。自律走行制御部111は、当該可視光画像データを含む検知データをネットワーク2を介して遠隔制御装置50に送信する(S114)。以上のステップS110~ステップS114までの処理が、自動運転車両1の運転が終了するまで(S115のY)、繰り返し実行される(S115のN)。
 相対的に高解像度の画像とは例えば、HD(High-Definition)画質、フルHD画質、4K画質の画像であり、相対的に低解像度の画像とは例えば、QVGA(Quarter Video Graphics Array)画質、VGA(Video Graphics Array)画質、HD画質の画像である。相対的に高フレームレートの画像とは例えば、15fps、30fps、60fpsの画像であり、相対的に低フレームレートの画像とは例えば、3~7fps、15fpsの画像である。
 図8A、図8Bは、動作例2に係る遠隔制御装置50の表示部54に表示される監視画像の一例を示す図である。図8Aは、上記危険度が上記閾値以下の状態で表示部54に表示される監視画像54cの一例を示している。図8Aに示す例では、自動運転制御装置10から受信した低解像度の可視光画像が表示されている。図8Bは、上記危険度が上記閾値を超える状態で表示部54に表示される監視画像54dの一例を示している。図8Bに示す例では、自動運転制御装置10から受信した高解像度の可視光画像が表示されている。
 動作例2によれば、危険度が低い状態では低解像度及び低フレームレートの少なくとも一方の画像データを遠隔制御装置50に送信することにより送信データ量を削減することができる。一方、危険度が高い状態では高解像度及び高フレームレートの少なくとも一方の画像データを送信することにより、監視者による十分な監視体制を確保することができる。
 なお、動作例1、2の変形例として上記危険度が上記閾値以下の場合、自動運転制御装置10からLIDAR22により検知された3次元モデリング画像を含む検知データを送信し、遠隔制御装置50の表示部54に当該3次元モデリング画像を表示させてもよい。3次元モデリング画像は、反射対象物までの距離に応じて濃淡が変わるグレースケールで記述された距離画像であり、可視光画像と比較して解像度も低い。従って可視光画像の代わりに3次元モデリング画像を送信しても、データ量を削減することができる。
 以下、安全性を確保しつつ自動運転制御装置10と遠隔制御装置50間の通信コストを削減するために通信方式を適応的に切り替える例を説明する。
 図9は、動作例3に係る通信方式切替方法の処理の流れを示すフローチャートである。自動運転制御装置10の自律走行制御部111は、検知部20から各種の検知データを取得する(S120)。危険度算出部112は、自車の現在の危険度を算出する(S121)。算出された危険度が予め設定された閾値以下の場合(S122のN)、通信方式切替部115は第1通信方式で接続可能か否か判定する(S123)。自車の近傍に無線LANルータ装置2aが存在しない場合は接続不可能となる。第1通信方式で接続可能な場合(S123のY)、通信方式切替部115は第1通信方式を選択し、自律走行制御部111は取得した検知データを第1通信方式を用いて遠隔制御装置50に送信する(S124)。
 ステップS122において上記危険度が上記閾値を超える場合(S122のY)、又はステップS123において第1通信方式で接続不可能な場合(S123のN)、通信方式切替部115は第2通信方式を選択し、自律走行制御部111は取得した検知データを第2通信方式を用いて遠隔制御装置50に送信する(S125)。以上のステップS120~ステップS125までの処理が、自動運転車両1の運転が終了するまで(S126のY)、繰り返し実行される(S126のN)。
 動作例3によれば、危険度が低い状態では第1通信方式を使用することにより通信コストを抑えることができる。一方、危険度が高い状態では第2通信方式を使用することにより通信品質を相対的に高い状態に維持することができ、監視者による十分な監視体制を確保することができる。
 以下、自動運転制御装置10と遠隔制御装置50間の通信遅延量を可及的に小さくするために通信方式を適応的に切り替える例を説明する。
 図10は、動作例4に係る通信方式切替方法の処理の流れを示すフローチャートである。自動運転制御装置10の自律走行制御部111は、検知部20から各種の検知データを取得する(S130)。通信方式切替部115は、第1通信方式の通信経路の通信遅延量(以下、第1遅延量という)を推定する(S131)。通信方式切替部115は、第2通信方式の通信経路の通信遅延量(以下、第2遅延量という)を推定する(S132)。
 第1遅延量が第2遅延量以下の場合(S133のN)、通信方式切替部115は第1通信方式を選択し、自律走行制御部111は取得した検知データを第1通信方式を用いて遠隔制御装置50に送信する(S134)。第1遅延量が第2遅延量より大きい場合(S133のY)、通信方式切替部115は第2通信方式を選択し、自律走行制御部111は取得した検知データを第2通信方式を用いて遠隔制御装置50に送信する(S135)。以上のステップS130~ステップS135までの処理が、自動運転車両1の運転が終了するまで(S136のY)、繰り返し実行される(S136のN)。
 動作例4によれば、通信遅延量が小さい方の通信方式を選択することにより、自動運転制御装置10と遠隔制御装置50間の通信遅延量を可及的に小さくすることができる。なお図10に示す処理は、上記危険度が上記閾値を超える場合に実行し、上記危険度が上記閾値以下の場合は第1遅延量の方が大きい場合でも第1通信方式を優先的に選択してもよい。危険度が低い状態では、通信コストの削減を優先する例である。
 上記動作例1では、危険度が低い状態では遠隔監視センタ5の監視者は実写映像を見ることができない。また上記動作例2では、危険度が低い状態では監視者は低画質の画像しか見ることができない。監視者が、自動運転制御装置10より先に危険を予知したり、何らかの違和感を感じた場合、高画質な自動運転車両1の周辺画像を見たい場合がある。
 遠隔制御装置50の車両指示信号生成部512は操作信号入力部533を介して、監視者の高画質画像を要求する操作に基づく操作信号を受け付けたとき、自動運転制御装置10に高画質画像の要求信号を送信する。自動運転制御装置10の送信データ量調整部114は、当該高画質画像の要求信号を受信すると、自律走行制御部111に高画質の画像データを遠隔制御装置50に送信させる。
 図11は、動作例5に係る、高画質画像要求機能が搭載された遠隔型自動運転システムの動作を示すフローチャートである。自動運転制御装置10は、検知部20により検知された検知データをネットワーク2を介して遠隔制御装置50に送信する(S10)。遠隔制御装置50は当該検知データを受信し(S20)、受信した検知データをもとに監視画像を生成し、表示部54に表示させる(S21)。表示部54に表示されている監視画像を見ている監視者による高画質画像を要求する操作を受け付けると(S22のY)、遠隔制御装置50は高画質画像の要求信号をネットワーク2を介して自動運転制御装置10に送信する(S23)。自動運転制御装置10は当該高画質画像の要求信号を受信すると(S15)、自動運転制御装置10は高画質の画像データをネットワーク2を介して遠隔制御装置50に送信する(S16)。
 自動運転制御装置10は、緊急停止する必要がある事象が発生すると(S11のY)、自動運転車両1を停止させるとともに(S12)、緊急停止信号をネットワーク2を介して遠隔制御装置50に送信する(S13)。緊急停止後も自動運転制御装置10は、検知部20により検知された検知データを遠隔制御装置50に送信し続ける(S14)。
 表示部54に表示されている監視画像を見ている監視者が行った運転再開操作を受け付けると(S24のY)、遠隔制御装置50は運転再開指示信号をネットワーク2を介して自動運転制御装置10に送信する(S25)。自動運転制御装置10は当該運転再開指示信号を受信すると(S17)、自動運転車両1の運転を再開させる(S18)。
 動作例5によれば、監視者が高画質の画像を見たいときに、高画質の画像に切替えることができ、監視者による十分な監視体制を確保することができる。
 これまでの説明では、監視者は運転再開操作を行うだけであり、具体的な運転再開のタイミング、及び運転再開時の動き出し時の走行ルートは自動運転制御装置10が決定していた。しかしながら遠隔制御装置50から運転再開指示を受信した自動運転制御装置10が、自律的に運転を再開することが難しい場合がある。例えば、回避することが困難な障害物を検出した場合が挙げられる。具体的には障害物を回避する走行スペースがない場合、中央線を跨いだ追越が必要な場合、カーブまたは横断歩道で追越が必要な場合などである。また細い道路で対向車と遭遇して停止した場合も運転再開が難しい場合に該当する。また、検問、事故、又は道路工事による交通規制により緊急停止した場合も、自動運転制御装置10が運転再開のタイミング及び運転再開時の動き出しの走行ルートを決定することが難しい。そこで運転再開時の動き出しの走行ルートを監視者が指定することが考えられる。
 図12は、動作例6に係る、運転再開時の走行ルートの指定機能が搭載された遠隔型自動運転システムの動作を示すフローチャートである。自動運転制御装置10は、検知部20により検知された検知データをネットワーク2を介して遠隔制御装置50に送信する(S10)。遠隔制御装置50は当該検知データを受信し(S20)、受信した検知データをもとに監視画像を生成し、表示部54に表示させる(S21)。
 自動運転制御装置10は、緊急停止する必要がある事象が発生すると(S11のY)、自動運転車両1を停止させるとともに(S12)、緊急停止信号をネットワーク2を介して遠隔制御装置50に送信する(S13)。緊急停止後も自動運転制御装置10は、検知部20により検知された検知データを遠隔制御装置50に送信し続ける(S14)。
 表示部54に表示されている監視画像を見ている監視者が行った、運転再開時の動き出しの走行ルートの指定を含む運転再開操作を受け付けると(S24aのY)、遠隔制御装置50は、動き出しの走行ルートを含む運転再開指示信号をネットワーク2を介して自動運転制御装置10に送信する(S25a)。自動運転制御装置10は動き出しの走行ルートを含む運転再開指示信号を受信すると(S17a)、当該走行ルートで自動運転車両1の運転を再開させる(S18)。
 図13は、動作例6に係る、遠隔制御装置50の表示部54に表示される監視画像54e上で走行ルートを指定する場合の一例を示す図である。図13に示す監視画像54eは、自車を含む俯瞰画像である。監視画像54e内において、第4対象物O4として前方に故障で停車している車両が検出され、第5対象物O5として三角案内板が検出されている。自動運転制御装置10の自律走行制御部111が、自車と第4対象物O4との距離接近、又は第5対象物O5の検出に基づき自車を緊急停止させた状態である。自律走行制御部111は基本的に、中央線を跨いだ追越をしないアルゴリズムになっている。
 監視者はタッチパネルディスプレイ上で、運転再開時の動き出しの走行ルートR1を指で軌跡を描いて指定する。また、スタイラスペン等のポインティングデバイスで軌跡を描いてもよい。なお、タッチパネル機能を搭載しないディスプレイの場合、マウス操作で走行ルートR1を指定する。
 動作例6によれば、自動運転制御装置10が緊急停止した後に、自律走行制御部111が運転再開時の走行ルートを決定することが困難な場合でも、監視者が運転再開時の走行ルートを指定することにより、迅速な運転再開が可能となる。従って、自動運転車両1が一定の場所に長時間停止して、道路運行の妨げになることを回避することができる。なお自動運転車両1が障害物を回避する走行ルートがない場合、監視者は目的地までの移動ルートを変更して、自動運転車両1をUターンさせることができる。
 動作例6において監視者により指定された走行ルートが、物理上または安全基準上、走行できないルートである場合がある。例えば、物理的に通れないルートが指定された場合、又は状況の変化により安全に走行できなくなった場合、自動運転制御装置10の自律走行制御部111は、遠隔制御装置50から指定された走行ルートを却下する。その後、自律走行制御部111は、現在の状況に応じて自律的に走行ルートを決定し、当該走行ルートを遠隔制御装置50に通知して許可を求める。なお、物理的に走行ルートを確保できない場合は、自律走行制御部111は走行不可能を遠隔制御装置50に通知する。
 図14は、動作例7に係る、運転再開時の走行ルートの指定機能が搭載された遠隔型自動運転システムの動作を示すフローチャートである。自動運転制御装置10は、検知部20により検知された検知データをネットワーク2を介して遠隔制御装置50に送信する(S10)。遠隔制御装置50は当該検知データを受信し(S20)、受信した検知データをもとに監視画像を生成し、表示部54に表示させる(S21)。
 自動運転制御装置10は、緊急停止する必要がある事象が発生すると(S11のY)、自動運転車両1を停止させるとともに(S12)、緊急停止信号をネットワーク2を介して遠隔制御装置50に送信する(S13)。緊急停止後も自動運転制御装置10は、検知部20により検知された検知データを遠隔制御装置50に送信し続ける(S14)。
 表示部54に表示されている監視画像を見ている監視者が行った、運転再開時の動き出しの走行ルートの指定を含む運転再開操作を受け付けると(S24aのY)、遠隔制御装置50は、動き出しの走行ルートを含む運転再開指示信号をネットワーク2を介して自動運転制御装置10に送信する(S25a)。
 自動運転制御装置10は、動き出しの走行ルートを含む運転再開指示信号を受信すると(S17a)、物理上または安全基準上、当該走行ルートで運転再開が可能であるか否か判定する(S17b)。運転可能である場合(S17bのY)、当該走行ルートで自動運転車両1の運転を再開させる(S18)。運転不可能である場合(S17bのN)、自動運転制御装置10は、現在の状況に応じて最適な走行ルートを導出し(S17c)、導出した走行ルートをネットワーク2を介して遠隔制御装置50に送信する(S17d)。
 遠隔制御装置50は当該走行ルートを受信し(S26)、受信した走行ルートを監視画像内に表示する(S27)。当該監視画像を見ている監視者が行った、当該走行ルートを許可する操作を受け付けると(S28のY)、遠隔制御装置50は、当該走行ルートの許可信号をネットワーク2を介して自動運転制御装置10に送信する(S29)。自動運転制御装置10は当該許可信号を受信すると(S17e)、当該走行ルートで自動運転車両1の運転を再開させる(S18)。なお監視者が当該走行ルートを許可しない場合は、監視者が新たな走行ルートを指定する必要がある。
 図15は、動作例7に係る、遠隔制御装置50の表示部54に表示される監視画像54f上で走行ルートを指定する場合の一例を示す図である。図15に示す監視画像54fにおける走行ルートR1は、図13に示した監視画像54e上で監視者が指定した走行ルートである。図15に示す監視画像54fは、監視者による走行ルートの指定後に、故障で停車中の車両から人物が降りてきた状況を示している。自律走行制御部111は第6対象物O6として車両から降りてきた人物を検出すると、監視者に指定された走行ルートを却下し、第6対象物O6からより離れた位置を通る走行ルートR2を導出する。自律走行制御部111は導出した走行ルートR2を遠隔制御装置50に送信し、遠隔制御装置50の表示部54に走行ルートR2が表示される。
 動作例7によれば、監視者が指定した運転再開時の走行ルートが物理上または安全基準上、走行できないルートである場合、自動運転制御装置10が走行可能な別の走行ルートを導出して遠隔制御装置50に送信して許可を求める。これにより、運転再開時の安全性を向上させることができる。
 動作例6、7では監視者が自動運転車両1の移動軌跡を指定することにより、走行ルートを指定した。この点、移動先の目標場所を指定することにより走行ルートを指定してもよい。例えば、路肩に車両を一旦移動させたい場合、路肩の所定位置を指定する。
 図16は、動作例6、7の変形例に係る、遠隔制御装置50の表示部54に表示される監視画像54g上で走行ルートを指定する場合の一例を示す図である。図16に示す監視画像54gにおいて、監視者は移動先の目標場所S1を指定する。例えば、目標場所S1の4隅の点をマウス操作で指定してもよい。自動運転制御装置10の自律走行制御部111は、遠隔制御装置50から指定された移動先の目標場所S1を、新たな目的地に設定して当該目的地に向けて自律走行を再開する。
 これまで説明してきたように自動運転車両1の緊急停止後の運転再開の判断は、遠隔監視センタ5の監視者により行われる。監視者による判断の精度を向上させるには、監視者に適切な判断材料を与える必要がある。自動運転車両1の運転再開時に発生する危険を回避するには、自動運転車両1の周囲に障害物が存在しないことを監視者が確認する必要がある。どの範囲に障害物が存在しなければ運転再開してよいか判断するための客観的な判断基準を提示できれば、監視者にとって有益な情報となり、判断のばらつきを抑えることにもつながる。そこで遠隔制御装置50の表示部54に表示される自動運転車両1の周囲に、危険範囲を示す危険範囲オブジェクトを重畳させて表示させることが考えられる。
 図17は、動作例8に係る、危険範囲オブジェクトを含む監視画像の表示方法の処理の流れを示すフローチャートである。遠隔制御装置50の画像生成部511は、自動運転制御装置10からネットワーク2を介して検知データを受信する(S200)。危険範囲決定部514は、自動運転制御装置10からネットワーク2を介して、自動運転制御装置10と遠隔制御装置50間の通信遅延量を受信する(S201)。なお、当該通信遅延量は遠隔制御装置50側で推定してもよい。
 危険範囲決定部514は、受信した通信遅延量をもとに自動運転車両1の周囲の危険範囲を決定する(S202)。危険範囲決定部514は、通信遅延量が大きいほど危険範囲を広くする。画像生成部511は、算出された危険範囲に対応する危険範囲オブジェクトを生成し、生成した危険範囲オブジェクトを自動運転車両1に重畳した監視画像を生成する。画像生成部511は、生成した監視画像を表示部54に表示させる(S203)。以上のステップS200~ステップS203までの処理が、自動運転車両1の運転が終了するまで(S204のY)、繰り返し実行される(S204のN)。
 図18A、図18Bは、動作例8に係る遠隔制御装置50の表示部54に表示される監視画像の一例を示す図である。図18Aは、上記通信遅延量が相対的に小さい状態で表示部54に表示される監視画像54hの一例を示している。監視画像54h内において、第7対象物O7として先行車両が検出され、第8対象物O8として自転車が検出されている。自車の位置を中心とする円形の危険範囲オブジェクトZ1が、実写映像上に重畳して表示されている。
 図18Bは、上記通信遅延量が相対的に大きい状態で表示部54に表示される監視画像54iの一例を示している。図18Aと比較して、危険範囲オブジェクトZ1の大きさが拡大している。通信遅延量が大きいほど監視画像の信頼性が低下するため、その分、危険範囲を大きく表示させている。なお、危険範囲オブジェクトZ1の形状は真円に限るものではなく、進行方向に伸びた楕円形状であってもよい。また多角形の形状であってもよい。
 客観的に緊急停止すべき事象が発生していない場合でも、センサの誤検知により自律走行制御部111が自動運転車両1を緊急停止させてしまう場合がある。この場合、遠隔監視センタ5の監視者は迅速に運転再開を指示することが求められる。その際、監視画像54h、54i内に危険範囲オブジェクトZ1が表示されていれば、監視者は運転再開の判断を瞬時に行うことができる。即ち、危険範囲オブジェクトZ1内に障害物が存在しなければ、安全に運転再開できると客観的かつ一意的に判断することができる。
 危険範囲オブジェクトZ1は、監視者の責任範囲を明確化することにも寄与する。即ち、危険範囲オブジェクトZ1内に障害物が存在しない状態で監視者が運転再開を指示した場合、突発的な事象により仮に自動運転車両1の周囲で危険が発生した場合でも監視者は免責される。
 動作例8によれば、監視画像に危険範囲オブジェクトを重畳して表示させることにより、監視者による運転再開の判断の精度を向上させることができる。また通信遅延量に応じて危険範囲オブジェクトの大きさを動的に変化させることにより、通信遅延量による実際の危険範囲との誤差を補償することができる。
 図19は、動作例9に係る、危険範囲オブジェクトを含む監視画像の表示方法の処理の流れを示すフローチャートである。遠隔制御装置50の画像生成部511は、自動運転制御装置10からネットワーク2を介して検知データを受信する(S210)。危険範囲決定部514は、自動運転制御装置10からネットワーク2を介して、自動運転制御装置10の危険度を受信する(S211)。
 危険範囲決定部514は、受信した危険度をもとに自動運転車両1の周囲の危険範囲を決定する(S212)。危険範囲決定部514は、危険度が高いほど危険範囲を広くする。画像生成部511は、算出された危険範囲に対応する危険範囲オブジェクトを生成し、生成した危険範囲オブジェクトを自動運転車両1に重畳した監視画像を生成する。画像生成部511は、生成した監視画像を表示部54に表示させる(S213)。以上のステップS210~ステップS213までの処理が、自動運転車両1の運転が終了するまで(S214のY)、繰り返し実行される(S214のN)。
 動作例9によれば、監視画像に危険範囲オブジェクトを重畳して表示させることにより、監視者による運転再開の判断の精度を向上させることができる。また自動運転車両1の危険度に応じて危険範囲オブジェクトの大きさを動的に変化させることにより、運転再開時の安全性を十分に確保することができる。
 監視者による運転再開の判断の精度を向上させるには、通信遅延による誤差を考慮する必要があるが、通信遅延を可視化して監視画像内に表示させることにより、監視者に通信遅延を直感的に認識させることが考えられる。
 図20は、動作例10に係る、通信遅延が可視化された監視画像の表示方法の処理の流れを示すフローチャートである。遠隔制御装置50の画像生成部511は、自動運転制御装置10からネットワーク2を介して検知データを受信する(S220)。この検知データには自動運転車両1の車速情報も含まれる。画像生成部511は、自動運転制御装置10からネットワーク2を介して、自動運転制御装置10と遠隔制御装置50間の通信遅延量を受信する(S221)。なお、当該通信遅延量は遠隔制御装置50側で推定してもよい。
 画像解析部513は、受信された画像データの各フレーム内から移動体を検出する(S222)。画像解析部513は、障害物として認識するよう予め登録された移動体の識別子を用いてフレーム内を探索し、移動体を検出する。画像解析部513は、画像データのフレーム内で検出された移動体の移動速度を推定する(S223)。画像解析部513は、現フレームで検出された移動体の位置と、過去フレームで検出された当該移動体の位置との差分を検出して当該移動体の動きベクトルを検出する。画像解析部513は、連続する2枚のフレーム間の動きベクトルを順次検出していき、検出した動きベクトルの平均値を算出することにより当該移動体の移動速度を推定することができる。なお、移動体の移動速度をオプティカルフロー法を用いて検出してもよい。
 画像解析部513は、実際の自動運転車両1の現在位置を、受信した通信遅延量と自動運転車両1の車速をもとに推定する(S224)。画像解析部513は、車速(秒速)に通信遅延量を掛けた値を、自動運転車両1の進行方向に移動させた位置を自動運転車両1の現在位置と推定する。自動運転車両1の進行方向は例えば、GPSセンサ25により検知された位置情報の動きベクトルを検出することにより推定することができる。
 画像解析部513は、実際の移動体の現在位置を、受信した通信遅延量と推定した移動体の移動速度をもとに推定する(S225)。画像解析部513は、移動速度(秒速)に通信遅延量を掛けた値を、当該移動体の移動方向にずらした位置を当該移動体の現在位置と推定する。
 画像生成部511は、推定された現在位置の自動運転車両1及び移動体を重畳させた監視画像を生成する(S226)。当該監視画像は、画像データで特定される自動運転車両1及び移動体と、推定された現在位置の自動運転車両1及び移動体が併存した画像となる。以上のステップS220~ステップS226までの処理が、自動運転車両1の運転が終了するまで(S227のY)、繰り返し実行される(S227のN)。なお自動運転制御装置10から移動体の位置、進行方向、及び移動速度が受信できる場合は、ステップS222及びステップS223の処理は省略可能である。
 図21は、動作例10に係る遠隔制御装置50の表示部54に表示される監視画像54jの一例を示す図である。監視画像54j内には、通信遅延が補正されない状態の自車C1(即ち、画像データに規定されている自車)と、通信遅延が補正された状態の自車C1a(推定された現在位置の自車)が両方表示されている。また通信遅延が補正されていない状態の第9対象物O9(自転車)と、通信遅延が補正された状態の第9対象物O9aが両方表示されている。
 動作例10によれば、通信遅延を補正した自動運転車両1及び移動体の少なくとも一方を監視画像内に表示させることにより、監視者による運転再開の判断の精度を向上させることができる。
 図22は、動作例11に係る、通信遅延が可視化された監視画像の表示方法の処理の流れを示すフローチャートである。遠隔制御装置50の画像生成部511は、自動運転制御装置10からネットワーク2を介して検知データを受信する(S220)。画像生成部511は、自動運転制御装置10からネットワーク2を介して、自動運転制御装置10と遠隔制御装置50間の通信遅延量を受信する(S221)。
 画像解析部513は、受信された画像データの各フレーム内から移動体を検出する(S222)。画像解析部513は、画像データのフレーム内で検出された移動体の移動速度を推定する(S223)。画像解析部513は、実際の自動運転車両1の現在位置を、受信した通信遅延量と自動運転車両1の車速をもとに推定する(S224)。画像解析部513は、実際の移動体の現在位置を、受信した通信遅延量と推定した移動体の移動速度をもとに推定する(S225)。
 危険範囲決定部514は、自動運転制御装置10からネットワーク2を介して、自動運転制御装置10の危険度を受信する(S225a)。危険範囲決定部514は、受信した危険度をもとに自動運転車両1の周囲の危険範囲を決定する(S225b)。
 画像生成部511は、推定された現在位置の自動運転車両1及び移動体、並びに危険範囲及オブジェクトを重畳させた監視画像を生成する(S226a)。以上のステップS220~ステップS226aまでの処理が、自動運転車両1の運転が終了するまで(S227のY)、繰り返し実行される(S227のN)。
 図23は、動作例11に係る遠隔制御装置50の表示部54に表示される監視画像54kの一例を示す図である。監視画像54kは、図21に示した監視画像54jと比較して、通信遅延が補正された状態の自車C1aを中心とした危険範囲オブジェクトZ1がさらに重畳されて表示されている。危険範囲オブジェクトZ1の表示位置は、通信遅延が補正されない状態の自車C1を中心とした位置より、通信遅延が補正された状態の自車C1aを中心とした位置の方が、実態に即しており望ましい。なお危険範囲オブジェクトZ1の大きさは、図22で示したように危険度に応じて動的に変化してもよいし、固定であってもよい。
 動作例11によれば、通信遅延を補正した自動運転車両1及び移動体の少なくとも一方、並びに危険範囲オブジェクトを監視画像内に表示させることにより、監視者による運転再開の判断の精度をさらに向上させることができる。
 (実施の形態2)
 上述のように、自動運転車両1と遠隔制御装置50間は無線による通信を行っているため、自動運転車両1から遠隔制御装置50に送信される車載カメラの映像には通信遅延が伴う。従って、遠隔側の監視者は通信遅延分、過去の映像を見ていることになる。通信遅延量が大きい場合、監視者の状況認識にずれが生じることになり、適切な遠隔制御を実現できない場合が発生する。
 本開示の実施の形態2はこうした状況に鑑みなされたものであり、実施の形態2の目的は、遠隔側の監視者/操縦者が、自動運転車両1の状況をより正確に把握するための技術を提供することにある。遠隔型自動運転システムの全体構成は実施の形態1と同様である。
 図24は、本開示の実施の形態2に係る自動運転車両1の構成を示す図である。自動運転車両1は、自動運転制御装置10、検知部20及びアクチュエータ30を有する。アクセルペダル、ブレーキペダル、ステアリングホイール等の運転手による運転操作に必要な部材は車両内に設置されてもよいし、省略されてもよい。
 アクチュエータ30は、エンジン、モータ、ステアリング、ブレーキ、ランプ等の車両走行に係る負荷を駆動するものである。検知部20は、可視光カメラ21、LIDAR(Light Detection and Ranging)22、ミリ波レーダ23、車速センサ24、GPSセンサ25、舵角センサ26を含む。
 可視光カメラ21は、車両前方、進行方向の周囲を撮影可能な位置に少なくとも1つ設置される。前方を撮影可能な可視光カメラ21は、単眼カメラであってもよいし、複眼カメラであってもよい。複眼カメラを使用する場合、視差映像をもとに対象物までの距離を推定することができる。また可視光カメラ21は、車両の前方、後方、左右の4箇所に設置されてもよい。この場合、4つの可視光カメラ21で撮影された前方画像、後方画像、左側画像、右側画像を合成することにより俯瞰画像/全方位画像が生成可能となる。
 可視光カメラ21は、それぞれ撮像回路として、固体撮像素子(例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、CCD(Charge-Coupled Device)イメージセンサ)と信号処理回路を含む。固体撮像素子は、レンズを透過して入射された光を電気信号に変換する。信号処理回路は、アナログ信号からデジタル信号への変換、ノイズ除去などの信号処理を行う。信号処理された画像データは、自動運転制御装置10に出力される。
 LIDAR22は、車両の周囲に光線(例えば、赤外線レーザ)を放射して、その反射信号を受信し、受信した反射信号をもとに周囲に存在する対象物との距離、対象物の大きさ、対象物の組成を測定する。複数のLIDAR22または可動式のLIDAR22を設置することにより、対象物の移動速度も測定することができる。また、車両周囲の3次元モデリング画像を生成することができる。
 ミリ波レーダ23は、車両の周囲に電波(ミリ波)を放射して、その反射信号を受信し、受信した反射信号をもとに周囲に存在する対象物までの距離を測定する。複数のミリ波レーダ23を設置することにより、車両周囲の広範囲の対象物を検出することができる。ミリ波レーダ23は、LIDAR22で検出困難な、より遠方の対象物も検出可能である。
 車速センサ24は自動運転車両1の速度を検出する。GPSセンサ25は自動運転車両1の位置情報を検出する。具体的には複数のGPS衛星からそれぞれ発信時刻を受信し、受信した複数の発信時刻をもとに受信地点の緯度経度を算出する。舵角センサ26は、自動運転車両1の操舵輪の舵角を検出する。
 自動運転制御装置10は制御部11、記憶部12及び入出力部13を有する。制御部11は自律走行制御部111、危険度算出部112、画像圧縮符号化部116、送信データ生成部117及び遠隔走行制御部118を含む。制御部11の機能はハードウェア資源とソフトウェア資源の協働、又はハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM、RAM、その他のLSIを利用できる。プロセッサとしてCPU、GPU、DSP等を利用できる。ソフトウェア資源としてオペレーティングシステム、アプリケーション等のプログラムを利用できる。
 記憶部12は例えばHDD、SSDで構成される。記憶部12には、3次元マップ等の自律走行に必要なデータが保持される。入出力部13は無線通信部131a、検知データ入力部132及び制御信号出力部133を含む。無線通信部131aは、アンテナ、RF(Radio Frequency)部、ベースバンド部を含み、無線LANルータ装置2a又は基地局装置2bと無線通信を行う。検知データ入力部132は、検知部20から各種の検知データを取得し、制御部11に出力する。制御信号出力部133は、制御部11で生成された各種のアクチュエータ30を駆動するための制御信号を各種のアクチュエータ30に出力する。
 自律走行制御部111は所定の自動運転アルゴリズムに基づき、自動運転車両1を自律走行させる。具体的には自律走行制御部111は、検知部20により検知された各種検知データ、及び無線により外部から収集した各種の情報に基づき、自車および自車周辺の状況を認識する。自律走行制御部111は、認識した状況を示す各種パラメータを自動運転アルゴリズムに適用して自動運転車両1の行動を決定する。自律走行制御部111は決定した行動をもとに、各種のアクチュエータ30を駆動するための制御信号を生成し、アクチュエータ30に出力する。
 自動運転アルゴリズムは、ディープラーニングをもとにした人工知能(AI:Artificial Intelligence)により生成される。自動運転アルゴリズムの各種パラメータは、事前にハイスペックなコンピュータにより学習された値に初期設定されるとともに、クラウド上のデータセンタからアップデートされた値が適宜、ダウンロードされる。
 危険度算出部112は、LDW(Lane Departure Warning)、FCW(Forward collision warning)、急ハンドル、急ブレーキ、時間帯、場所、天候などの各種パラメータをもとに自動運転車両1の現在の危険度を算出する。例えば、LDW、FCW、急ハンドル及び急ブレーキのいずれかの事象が発生した場合、危険度は大きく上昇する。
 また危険度算出部112は、ディープラーニングをもとにした人工知能により生成された危険予知アルゴリズムに基づき自動運転車両1の現在の危険度を算出してもよい。この場合、検知部20により検知された各種データを加味して危険度を算出することができる。危険度は例えば、0~100の範囲の値で規定される。
 画像圧縮符号化部116は、可視光カメラ21から取得される画像データを圧縮符号化する。例えば、MPEG(Motion Picture Experts Group)系の圧縮符号化規格に従い画像データを圧縮符号化する。なお圧縮符号化の前処理として、画素間引き及びフレーム間引きの少なくとも一方を行ってもよい。例えば、30Hz/60Hzで撮像された映像を、15Hz/30Hzの映像に変換してもよい。この場合、画質は低下するが通信量を削減することができる。
 送信データ生成部117は、無線通信部131aを介して遠隔制御装置50に送信するデータを生成する。送信データ生成部117は、遠隔制御装置50に送信するデータに、可視光カメラ21により撮像され、画像圧縮符号化部116により圧縮符号化された画像データを含める。なお4つの可視光カメラ21が設置されている場合、4チャンネルでそれぞれの画像データを送信する。なお、自動運転制御装置10側で4つの可視光カメラ21で撮影された前方画像、後方画像、左側画像、右側画像を合成して全方位画像を生成し、全方位画像を圧縮符号化して送信する方式でもよい。
 また送信データ生成部117は、遠隔制御装置50に送信するデータに、自動運転制御装置10の走行速度、舵角、現在位置を含む状態データを含める。当該状態データには必要に応じて、危険度算出部112により算出された危険度が含められる。画像データと状態データは、1チャンネルに重畳されて送信されてもよいし、別チャンネルで送信されてもよい。
 遠隔走行制御部118は、遠隔制御装置50から送信されてくる制御コマンドをもとに、各種のアクチュエータ30を駆動するための制御信号を生成し、アクチュエータ30に出力する。本実施の形態に係る自動運転車両1は基本的に、自律モードで走行するが、道路環境や気象条件の悪化などにより自律走行が困難になる場合がある。その場合、遠隔操作モードに切り替えられる。また緊急停止後の運転再開時にも、一時的に遠隔操作モードに切り替えられる。また自動運転車両1がタクシーやバスの場合、乗降時に顧客対応のために遠隔操作モードに切り替えられてもよい。
 図25は、本開示の実施の形態2に係る遠隔制御装置50の構成を示す図である。遠隔制御装置50は、少なくとも1台のサーバ又はPCと操縦桿により構築される。遠隔制御装置50は制御部51、記憶部52、入出力部53、表示部54、操作部55及び操縦部56を有する。表示部54は液晶ディスプレイ又は有機ELディスプレイを有する。操作部55はキーボード、マウス、タッチパネル等の入力装置を有し、ユーザの操作に起因して生成される操作信号を制御部51に出力する。
 操縦部56は、自動運転車両1の運転席の操縦桿を模した、遠隔操縦用の操縦桿を有する。具体的にはステアリングホイール561、アクセルペダル562、ブレーキペダル563及びウインカスイッチ564を有する。さらに、ギアレバー、及びスピードメータやタコメータ等のメータを有してもよい。なお、メータは画像として表示部54に表示させてもよい。なお図25には示していないが、自動運転車両1に乗車中の顧客と会話するための音声インタフェースとして、マイク及びスピーカが設けられてもよい。
 制御部51は画像伸張復号部515、遅延時間検出部516、切出部517、サイズ変換部518、車両指示信号生成部512、画像解析部513、危険範囲決定部514及びオブジェクト重畳部519を含む。制御部51の機能はハードウェア資源とソフトウェア資源の協働、又はハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM、RAM、その他のLSIを利用できる。プロセッサとしてCPU、GPU、DSP等を利用できる。ソフトウェア資源としてオペレーティングシステム、アプリケーション等のプログラムを利用できる。
 記憶部52は例えばHDD、SSDで構成される。記憶部52には、自動運転制御装置10の記憶部12に保持された3次元マップと同期が取れている3次元マップ等、自動運転車両1の遠隔監視/遠隔操縦に必要なデータが保持される。入出力部53は通信部531a、画像信号出力部532及び操作信号入力部533を含む。通信部531aは、ルータ装置2dと有線/無線で接続するためのLANコネクタを有する。画像信号出力部532は、表示部54に接続するためのインタフェースであり、例えばHDMI(登録商標)(High-Definition Multimedia Interface)コネクタを有する。画像信号出力部532は、自動運転車両1の可視光カメラ21で撮像された映像を表示部54に出力する。操作信号入力部533は、操作部55から受け付けた操作信号を制御部51に入力する。
 画像伸張復号部515は、自動運転制御装置10から通信部531aを介して受信した、圧縮符号化された画像データを伸張復号する。遅延時間検出部516は、自動運転制御装置10が送信した画像データを、ネットワーク2を介して遠隔制御装置50が受信するまでの通信遅延時間を検出する。遅延時間検出部516は、自動運転制御装置10が画像データを送信した送信時刻と、当該画像データを遠隔制御装置50が受信した受信時刻との差分をもとに通信遅延時間を検出する。
 具体的には、画像データに含まれる送信時刻のタイプスタンプと、受信時刻との差分をもとに通信遅延時間を算出する。本実施の形態では当該通信遅延時間に、自動運転制御装置10の画像圧縮符号化部116による圧縮符号化処理にかかる標準処理時間と、遠隔制御装置50の画像伸張復号部515による伸張復号処理にかかる標準処理時間を加えて、最終的な通信遅延時間とする。なお、圧縮符号化処理および伸張復号処理にかかる時間が、無視できる程度に小さい場合は、当該加算処理は不要である。
 切出部517は、自動運転制御装置10から受信した映像に含まれるフレーム画像から、所定範囲の画像を切り出す。切出部517は、自動運転制御装置10から受信した自動運転車両1の速度、舵角、及び遅延時間検出部516により検出された通信遅延時間をもとに、フレーム画像から切り出す範囲を決定する。
 具体的には切出部517は、自動運転車両1の速度、舵角及び通信遅延時間をもとに自動運転車両1の現在位置に応じた視点を推定する。即ち、切出部517は自動運転車両1の速度及び舵角をもとに、通信遅延時間の間に自動運転車両1が移動した動きベクトルを推定し、自動運転車両1の現在位置と向きを推定する。切出部517は、推定した自動運転車両1の現在位置の視点から見えると推定される推定画像を、フレーム画像内の所定範囲を切り出すことにより抽出する。
 サイズ変換部518は、切出部517により切り出された画像を、表示部54の表示サイズに応じたサイズの画像に変換する。本実施の形態では、自動運転車両1の前方映像を表示部54に表示することを想定している。即ち、自動運転車両1に運転手が乗っていると仮定した場合の運転手の視点(以下、仮想視点という)から見える前方映像を表示することを想定している。この場合、自動運転車両1が前進している場合、フレーム画像内の前方の風景に対して、通信遅延時間の間に仮想視点がより近づいていることになる。従って、フレーム画像内の所定範囲を切り出して、切り出した範囲の画像を拡大することにより、現在位置の仮想視点から見えると推定される推定画像を生成することができる。
 サイズ変換部518は、切出部517により切り出された画像を画素補間することにより、切り出された画像のサイズを拡大することができる。画素補間として例えば、バイリニア法、バイキュービック法、Lanczos法などを用いることができる。
 車両指示信号生成部512は、操作部55又は操縦部56に対して与えられた操作/操縦にもとづき、自動運転車両1を遠隔操作/遠隔操縦するための制御コマンドを生成する。通信部531aは、生成された制御コマンドをネットワーク2を介して自動運転制御装置10に送信する。
 画像解析部513は、自動運転制御装置10から受信した映像に含まれる各フレーム画像内から移動体を検出する。画像解析部513は、障害物として認識するよう予め登録された移動体の識別子を用いてフレーム画像内を探索し、移動体を検出する。画像解析部513は、フレーム画像内で検出された移動体の動きベクトルを推定する。具体的には画像解析部513は、現フレーム画像で検出された移動体の位置と、過去フレーム画像で検出された当該移動体の位置との差分を検出して当該移動体の動きベクトルを検出する。
 危険範囲決定部514は、自動運転制御装置10からネットワーク2を介して受信した危険度をもとに自動運転車両1の周囲の危険範囲を決定する。危険範囲決定部514は、危険度が高いほど危険範囲の面積を広くする。また画像解析部513により検出された移動体の動きベクトルの方向が、自動運転車両1に接近するものである場合、危険範囲決定部514は、危険範囲を広くする。その際、移動ベクトルの速さが速いほど、危険範囲の面積を広くする。
 オブジェクト重畳部519は、表示部54に表示すべき映像に含まれるフレーム画像に、危険範囲決定部514により決定された危険範囲に対応する危険範囲オブジェクトを重畳する。画像信号出力部532は、危険範囲オブジェクトが重畳されたフレーム画像を表示部54に出力する。
 図26は、本開示の実施の形態2に係る遠隔制御装置50が、自動運転車両1から受信した映像を表示する際の基本処理の流れを示すフローチャートである。遠隔制御装置50の通信部531aは、自動運転車両1からネットワーク2を介して、可視光カメラ21で撮像された映像の画像データを受信する(S300)。通信部531aは、自動運転車両1からネットワーク2を介して自動運転車両1の速度データ及び舵角データを受信する(S301)。遅延時間検出部516は、受信した画像データの通信遅延時間を検出する(S302)。
 先頭のフレーム画像の場合(S303のN)、切出部517は、先頭のフレーム画像内から、通信遅延時間、速度、舵角をもとに切出範囲を決定する(S305)。新たにフレーム画像を受信した場合(S303のY)、切出部517は、新たに受信したフレーム画像内から、通信遅延時間、速度、舵角をもとに切出範囲を決定する(S304)。切出部517は、決定した切出範囲の画像をフレーム画像内から切り出す(S306)。サイズ変換部518は、切り出された画像を、表示用サイズの画像に変換する(S307)。画像信号出力部532は、表示用サイズに変換されたフレーム画像を表示部54に出力する。
 本実施の形態では、自動運転車両1から受信する映像のフレームレートと、表示部54に表示させる映像のフレームレートを同じに設定している。表示用の次のフレーム画像を生成するタイミングで、自動運転車両1から次のフレーム画像を受信できていない場合は(S303のN)、表示用の次のフレーム画像を、自動運転車両1から直近に受信したフレーム画像から生成する(S305、S306、S307)。なお、表示用の次のフレーム画像を、表示用の現フレーム画像から生成してもよい。以上のステップS300~ステップS307の処理が、運転終了(S310のY)まで繰り返し実行される(S310のN)。
 図27は、本開示の実施の形態2に係る遠隔制御装置50が、自動運転車両1から受信した映像を表示する際の発展処理の流れを示すフローチャートである。以下、図26に示した基本処理との相違点を説明する。通信部531aは、自動運転車両1からネットワーク2を介して自動運転車両1の速度データ、舵角データに加えて危険度を受信する(S301a)。
 危険範囲決定部514は、自動運転制御装置10から受信した危険度をもとに自動運転車両1の周囲の危険範囲を決定する(S308)。なおフレーム画像内に所定の移動体(例えば、歩行者、自転車)が検出され、当該移動体が自動運転車両1に近づく方向に移動している場合、危険範囲を、少なくとも当該移動体が存在する方向に拡大する。オブジェクト重畳部519は、表示部54に表示すべきフレーム画像に、決定された危険範囲に対応する危険範囲オブジェクトを重畳する(S309)。画像信号出力部532は、危険範囲オブジェクトが重畳されたフレーム画像を表示部54に出力する。その他の処理は、図26に示した基本処理と同様である。
 図28は、本開示の実施の形態2に係る遠隔型自動運転システムの基本動作を示すフローチャートである。自動運転制御装置10の無線通信部131aは、可視光カメラ21により撮像された映像の画像データ、及び自動運転車両1の状態データをネットワーク2を介して遠隔制御装置50に送信する(S30)。遠隔制御装置50の通信部531aは、当該画像データ及び状態データを受信する(S40)。表示部54は、当該画像データ及び状態データをもとに生成された自動運転車両1の前方映像を表示する(S41)。
 自動運転車両1の走行モードが自律モードである場合(S31、S42の自律)、自動運転制御装置10の自律走行制御部111は、自動運転車両1を自律走行させる。遠隔制御装置50の表示部54は、自動運転車両1の前方映像の表示を継続する(S40、S41)。
 自動運転車両1の走行モードが遠隔操作モードである場合(S31、S42の遠隔)、遠隔制御装置50の車両指示信号生成部512は、操縦部56に対して遠隔操縦者により与えられた操縦量を制御コマンドに変換する(S43)。通信部531aは、当該制御コマンドをネットワーク2を介して自動運転制御装置10に送信する(S44)。自動運転制御装置10の遠隔走行制御部118は、遠隔制御装置50から受信した制御コマンドをもとに自動運転車両1を走行制御する(S32)。以上のステップS30~ステップS32の処理、及びステップS40~ステップS44の処理が、運転終了(S33のY、S45のY)まで繰り返し実行される(S33のN、S45のN)。
 以下、フレーム画像内から、所定の切出範囲の画像を切り出す具体例を説明する。以下の具体例では、自動運転車両1の前方に設置された、広角レンズを有する可視光カメラ21で撮像された映像を前提とする。広角レンズを有する可視光カメラ21で撮像されるフレーム画像は、水平方向に長いアクペクト比を持つ矩形形状の画像となる。
 図29A、図29Bは、自動運転車両1の直進時に切り出される切出範囲の一例を示す図である。図29Aは、自動運転車両1から受信する映像に含まれる第1フレーム画像F1aを示しており、図29Bは、自動運転車両1から受信する映像に含まれる第2フレーム画像F1bを示している。
 まず、自動運転車両1が一定の速度で直進しているとし、第2フレーム画像F1bの通信遅延時間が、第1フレーム画像F1aの通信遅延時間より長い場合を考える。この場合、第2フレーム画像F1b内の切出範囲CObの方が第1フレーム画像F1a内の切出範囲COaより狭くなる。通信遅延時間が長いほど仮想視点が前進していることを意味しており、狭い切出範囲CObの画像を拡大して表示することにより、仮想視点の移動に対応する画像を表示できる。
 なお、第1フレーム画像F1aと第2フレーム画像F1bは同一であってもよい。急に通信遅延が大きくなり、通信遅延の増大は把握できるものの、自動運転車両1から次のフレーム画像が伝送されてこない場合、既に送られて来ているフレーム画像において、切出範囲を狭くして、仮想視点の前進に対応する。
 次に、第1フレーム画像F1aの通信遅延時間と第2フレーム画像F1bの通信遅延時間を同じとし、第2フレーム画像F1bの撮像時の自動運転車両1の速度が、第1フレーム画像F1aの撮像時の自動運転車両1の速度より速い場合を考える。この場合も、第2フレーム画像F1b内の切出範囲CObの方が第1フレーム画像F1a内の切出範囲COaより狭くなる。自動運転車両1の速度が速いほど仮想視点が前進していることを意味しており、狭い切出範囲CObの画像を拡大して表示することにより、仮想視点の移動に対応する画像を表示できる。なお、第1フレーム画像F1a内の切出範囲COaの形状と、第2フレーム画像F1b内の切出範囲CObの形状は相似する。
 図30A、図30Bは、自動運転車両1のカーブ時に切り出される切出範囲の一例を示す図である。図30Aは、自動運転車両1から受信する映像に含まれる第3フレーム画像F1cを示しており、図30Bは、自動運転車両1から受信する映像に含まれる第4フレーム画像F1dを示している。カーブ直前の自動運転車両1の切出範囲CObは、図29Bの状態とする。
 自動運転車両1が一定の速度でカーブしているとし、第3フレーム画像F1cの通信遅延時間と、第4フレーム画像F1dの通信遅延時間は同じとする。遠隔制御装置50は自動運転車両1から舵角を受信する。舵角は、自動運転車両1の直進方向を基準に、第1方向(右方向、時計回り方向)D1とその角度(正の値)、又は、第2方向D2(左方向、反時計回り方向)とその角度(正の値)で表現される。なお第1方向を正の値、第2方向を負の値として表現してもよい。
 第3フレーム画像F1cの撮像時の自動運転車両1の舵角は、第1方向D1に第1角度である。この場合、図29Bの切出範囲CObを基準に、第1方向D1にずれた切出範囲COcの画像を拡大して表示部54に表示する。これにより、仮想視点の第1方向D1への回転移動に対応する画像を表示できる。
 第4フレーム画像F1dの撮像時の自動運転車両1の舵角は、第2方向D2に第2角度である。この場合、図29Bの切出範囲CObを基準に、第2方向D2にずれた切出範囲COdの画像を拡大して表示部54に表示する。これにより、仮想視点の第2方向D2への回転移動に対応する画像を表示できる。
 図31は、自動運転車両1の直進時の操舵輪の状態を示す図である。図31に示す自動運転車両1では、左前輪31a、右前輪31b、左後輪31c、右後輪31dの内、左前輪31a及び右前輪31bが操舵輪として使用される。また前後左右に4つの可視光カメラ21a-21dが設置されており、前方に設置された可視光カメラ21aで撮像された映像が、遠隔制御装置50に送信される。
 図32は、自動運転車両1の右カーブ時の操舵輪の状態を示す図である。操舵輪は、自動運転車両1の直進方向を基準に、第1方向(右方向、時計回り方向)に第1角度α1、回転している。この方向と角度のデータが、舵角データとして遠隔制御装置50に送信される。
 図33は、自動運転車両1の左カーブ時の操舵輪の状態を示す図である。操舵輪は、自動運転車両1の直進方向を基準に、第2方向(左方向、反時計回り方向)に第2角度α2、回転している。この方向と角度のデータが、舵角データとして遠隔制御装置50に送信される。
 図34は、自動運転車両1の可視光カメラ21で撮像された第1の映像のフレーム画像と、遠隔制御装置50の表示部54に表示させる第2の映像のフレーム画像との第1の関係例を示す図である。第1の関係例は、自動運転車両1から送信される第1の映像のフレーム画像の通信遅延が一定の場合の例である。この場合、遠隔制御装置50側では、第1の映像の第1フレーム画像F11内の切出領域C01の画像を拡大して、第2の映像の第1フレーム画像F21を生成する。以下同様に1:1の関係で、第1の映像の第2~第5フレーム画像F12~F15から、それぞれ切り出す切出領域CO2~CO5の画像を拡大して、第2の映像の第2~第5フレーム画像F22~25を生成する。
 図35は、自動運転車両1の可視光カメラ21で撮像された第1の映像のフレーム画像と、遠隔制御装置50の表示部54に表示させる第2の映像のフレーム画像との第2の関係例を示す図である。第2の関係例は、自動運転車両1から送信される第1のフレーム画像の通信遅延が不規則な場合の例である。図35に示す例では、第1の映像の第2フレーム画像F12と第3フレーム画像F13との間の通信遅延が大きくなった場合を示している。この場合、遠隔制御装置50側では、第1の映像の第3フレーム画像F13の受信を待たずに、既に受信している第2フレーム画像F12から、第2の映像の第3フレーム画像F23及び第4フレーム画像F24を生成する。
 第1の映像の第2フレーム画像F12との時間間隔が長くなるほど、第2フレーム画像F12の切出領域C02が狭くなっていく。第2の映像の第3フレーム画像F23のもとになる切出領域C02bは、第2の映像の第2フレーム画像F22のもとになる切出領域C02aより狭くなり、第2の映像の第4フレーム画像F24のもとになる切出領域C02cは、第2の映像の第3フレーム画像F23のもとになる切出領域C02bより狭くなる。
 図36は、遠隔制御装置50の表示部54に表示されるフレーム画像F2aの一例を示す図である。図36に示すフレーム画像F2aは、図29Aに示した第1フレーム画像F1a内の切出範囲COaを拡大し、危険範囲オブジェクトZ1を重畳して生成した画像である。遠隔監視センタ5の遠隔操縦者は、危険範囲オブジェクトZ1の広狭をもとに自動運転車両1の危険度を直感的に把握することができる。
 図37は、魚眼レンズを有する可視光カメラ21で撮像されたフレーム画像の一例を示す図である。魚眼レンズを有する可視光カメラ21で撮像される画像は、基本的に真円形状の画像となる。真円形状の画像を、矩形のフレーム領域に割り当てると、角丸四角形状の画像領域を持つフレーム画像F1aとなる。また、4つの可視光カメラ21a-21dで撮像された画像を合成して全方位画像を生成した場合も、同様に角丸四角形状の画像領域を持つフレーム画像となる。
 遠隔制御装置50のサイズ変換部518は、切出部517により切り出された画像を、表示サイズの画像に変換する際、魚眼レンズの視野角に応じて設定された歪パラメータに基づき座標変換する。サイズ変換部518は、当該座標変換による歪補正後の画像内の空白画素に、周囲の画素から推定した画素を補間する。
 以下、フレーム画像内から、所定の切出範囲の画像を切り出す別の具体例を説明する。以下の具体例は、自動運転車両1が交差点を右折する際の例である。
 図38は、自動運転車両1が存在する交差点を上から俯瞰した図である。第1地点P1の自動運転車両1は右折開始前の直進時の状態を示しており、第2地点P2の自動運転車両1は右折中の状態を示している。
 図39は、図38の第1地点P1に自動運転車両1が位置する際に撮像されたフレーム画像を示す図である。図39の左側のフレーム画像F1eは、第1地点P1に位置する自動運転車両1の可視光カメラ21で撮像されたフレーム画像である。自動運転車両1は直進中であるため、フレーム画像F1e内の切出範囲COeは、フレーム画像F1e内の中央部に設定される。遠隔制御装置50は、切出範囲COeの画像を拡大して表示用のフレーム画像F2eを生成する。
 図40は、図38の第2地点P2に自動運転車両1が位置する際に撮像されたフレーム画像を示す図である。図40の左側のフレーム画像F1fは、第2地点P2に位置する自動運転車両1の可視光カメラ21で撮像されたフレーム画像である。自動運転車両1は右折中であるため、フレーム画像F1f内の切出範囲COfは、フレーム画像F1e内の中央部より右にずれた位置に設定される。切出範囲COfは、左辺が右辺より短い台形形状に設定される。操舵輪の第1角度α1が大きいほど、より左辺が右辺に対して短い台形形状となる。切出範囲COfにおける第1方向D1の端部E1の、第1方向D1と直交する幅は、切出範囲COfにおける第1方向D1と反対の端部E2の、第1方向D1と直交する幅より広い。遠隔制御装置50は、切出範囲COfの画像を拡大して表示用のフレーム画像F2fを生成する際、台形歪を補正する。
 図41は、図38の第1地点P1から自動運転車両1が左折を開始した直後に撮像されたフレーム画像を示す図である。図41の左側のフレーム画像F1gは、第1地点P1から左折を開始した直後に自動運転車両1の可視光カメラ21で撮像されたフレーム画像である。自動運転車両1は左折中であるため、フレーム画像F1g内の切出範囲COgは、フレーム画像F1g内の中央部より左にずれた位置に設定される。切出範囲COgは、右辺が左辺より短い台形形状に設定される。操舵輪の第2角度α2が大きいほど、より右辺が左辺に対して短い台形形状となる。切出範囲COgにおける第2方向D2の端部E2の、第2方向D2と直交する幅は、切出範囲COgにおける第2方向D2と反対の端部E1の、第2方向D2と直交する幅より広い。遠隔制御装置50は、切出範囲COgの画像を拡大して表示用のフレーム画像F2gを生成する際、台形歪を補正する。
 図42は、危険範囲オブジェクトが重畳された、自動運転車両1が存在する交差点を上から俯瞰した図である。第1地点P1の自動運転車両1は右折開始前の直進時の状態を示しており、第2地点P2の自動運転車両1は右折中の状態を示している。図42では、第2地点P2の自動運転車両1の周囲に危険範囲オブジェクトZ1が重畳されている。
 図43は、第2地点P2に位置する自動運転車両1の可視光カメラ21で撮像されたフレーム画像内の切出範囲から生成された表示用のフレーム画像を示す図である。図43に示すフレーム画像F2fは、図40の右側のフレーム画像F2fに、危険範囲オブジェクトZ1が重畳された画像である。危険範囲オブジェクトZ1は、色付きの透過オブジェクトで描かれてもよいし、色付きの塗りつぶしオブジェクトで描かれてよい。
 以上説明したように実施の形態2によれば、自動運転車両1から受信する映像を、通信遅延時間、自動運転車両1の速度及び舵角をもとに、仮想視点の位置が補正された映像に変換して表示する。これにより、遠隔監視センタ5の遠隔監視者/操縦者が、自動運転車両1の現在の状況をより正確に把握することができる。従って、遠隔操縦者は、通常と同じ運転感覚で遠隔操縦を行うことができる。
 遠隔制御装置50のステアリングホイール561やアクセルペダル562は、自動運転車両1の現在状況に応じて決定される操縦可能範囲を逸脱した操縦量が遠隔操縦者により加えられたとき、ステアリングホイール561やアクセルペダル562の動きが重くなるように設計されている。また遠隔操縦者により与えられた操縦指示が、自動運転車両1の現在状況に応じて危険度の高いものである場合、自動運転車両1が自律的に減速または停止する仕組みが導入されている。これに対して本実施の形態によれば、遠隔操縦者が視認している自動運転車両1の周囲の状況と、実際の自動運転車両1の周囲の状況との齟齬が非常に小さいため、遠隔操縦者は上記安全仕様を発動させることなく、遠隔操縦することができる。
 また、表示部54に表示される映像に危険範囲オブジェクトを重畳することにより、遠隔操縦者に、危険度に応じた注意を喚起させることができる。歩行者などの移動体が、自動運転車両1と異なる方向に移動している場合、表示部54に表示される映像内の移動体の位置は、実際の移動体の位置と異なっている。特に自動運転車両1の方向に向かって移動している移動体が存在する場合、危険範囲オブジェクトの面積を拡大させることにより、遠隔操縦者に注意を喚起させることができる。
 以上、本開示を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。
 上記動作例8、9、11では、監視画像内に危険範囲オブジェクトを表示させたが、危険範囲オブジェクトの代わりに安全範囲オブジェクトを表示させてもよい。この場合、安全範囲決定部(不図示)は、通信遅延量が小さいほど又は危険度が小さいほど安全範囲を広くする。安全範囲は、上述の危険範囲と逆の関係になる。
 また上述の実施の形態1では、車両の周辺状況を検知するためのセンサとして、可視光カメラ21、LIDAR22及びミリ波レーダ23を使用する例を説明した。この点、赤外線カメラ、ソナー等の他のセンサをさらに併用してもよい。
 上述の実施の形態2では、自動運転車両1の舵角を、自動運転車両1から受信する例を説明した。この点、遠隔操縦中であり、遠隔制御装置50と自動運転車両1間の通信遅延時間が短時間で安定している状態では、遠隔制御装置50のステアリングホイール561の回転角を自動運転車両1の舵角としてそのまま使用してもよい。遠隔制御装置50から自動運転車両1に送信される制御コマンドはデータ量が少ないため、通信回線が安定していれば、ステアリングホイール561の回転から自動運転車両1の操舵輪が実際に回転するまでの時間は、無視できる程度の時間である。遠隔制御装置50から送信される制御コマンドは、映像のようにデータ量が多くなく、圧縮符号化処理及び伸張復号処理も不要である。
 なお上述の実施の形態2では、移動体の動きベクトルを検出して危険範囲オブジェクトZ1の面積を変化させる例を説明した。この点、表示部54に表示させるフレーム画像内において、自動運転車両1の視点移動の動きベクトルと、移動体の動きベクトルをもとに当該移動体の位置を画像上で補正してもよい。
 なお、実施の形態は、以下の項目によって特定されてもよい。
 [項目1-1]
 自動運転制御装置(10)は、検知データ入力部(132)と、通信部(131)と、を有する。検知データ入力部(132)は、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得する。通信部(131)は、検知データ入力部(132)により取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信する。また、通信部(131)は、所定の条件に応じてデータ量が変更された検知データを遠隔制御装置(50)に送信する。
 これによれば、遠隔制御装置(50)に送信するデータ量を条件に応じて最適化することができる。
 [項目1-2]
 項目1-1に記載の自動運転制御装置(10)において、通信部(131)は、自動運転車両(1)の危険度に応じてデータ量が変更された検知データを遠隔制御装置(50)に送信してもよい。
 これによれば、安全性を確保しつつ遠隔制御装置(50)に送信するデータ量を削減することができる。
 [項目1-3]
 項目1-2に記載の自動運転制御装置(10)において、検知装置(20)には撮像装置(21)が含まれてもよい。また、通信部(131)は、自動運転車両(1)の危険度に応じて、撮像装置(21)から取得された画像データの画質が調整された画像データを遠隔制御装置(50)に送信してもよい。
 これによれば、安全性を確保しつつ遠隔制御装置(50)に送信するデータ量を削減することができる。
 [項目1-4]
 項目1-2または1-3に記載の自動運転制御装置(10)において、自動運転車両(1)には、種類の異なる複数の検知装置(20)が設置されてもよい。また、通信部(131)は、自動運転車両(1)の危険度に応じて、複数の検知装置(20)から取得された複数種類の検知データの中から選択された少なくとも1種類の検知データを遠隔制御装置(50)に送信してもよい。
 これによれば、安全性を確保しつつ遠隔制御装置(50)に送信するデータ量を削減することができる。
 [項目1-5]
 項目1-1に記載の自動運転制御装置(10)において、通信部(131)は、遠隔制御装置(50)からネットワーク(2)を介して、遠隔制御装置(50)に送信されている検知データの高品質化を指示する信号を受信してもよい。また、通信部(131)は、高品質化を指示する信号に応じてデータ量が増加された検知データを遠隔制御装置(50)に送信してもよい。
 これによれば、遠隔制御装置(50)を使用して遠隔監視している監視者の利便性を向上させることができる。
 [項目1-6]
 項目1-1に記載の自動運転制御装置(10)において、通信部(131)は、自動運転車両(1)の走行中に対して、自律走行の不可能による停止中の方が、データ量が多い検知データを遠隔制御装置(50)に送信してもよい。
 これによれば、遠隔制御装置(50)を使用して遠隔監視している監視者の運転再開の判断の精度を向上させることができる。
 [項目1-7]
 自動運転制御装置(10)は、検知データ入力部(132)と、通信部(131)と、を有する。検知データ入力部(132)は、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得する。通信部(131)は、検知データ入力部(132)により取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信する。また、通信部(131)は、所定の条件に応じて複数の通信方式の中から選択された通信方式で、検知データを遠隔制御装置(50)に送信する。
 これによれば、条件に応じて通信方式を最適化することができる。
 [項目1-8]
 自動運転制御方法は、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得するステップを有する。また、自動運転制御方法は、取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信するステップを有する。さらに、自動運転制御方法は、所定の条件に応じてデータ量が変更された検知データを遠隔制御装置(50)に送信するステップを有する。
 これによれば、遠隔制御装置(50)に送信するデータ量を条件に応じて最適化することができる。
 [項目1-9]
 自動運転制御方法は、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得するステップを有する。また、自動運転制御方法は、取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信するステップを有する。さらに、自動運転制御方法は、所定の条件に応じて複数の通信方式の中から選択された通信方式で、検知データを遠隔制御装置(50)に送信するステップを有する。
 これによれば、条件に応じて通信方式を最適化することができる。
 [項目1-10]
 自動運転制御プログラムは、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得する処理をコンピュータに実行させる。また、自動運転制御プログラムは、取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信する処理をコンピュータに実行させる。さらに、自動運転制御プログラムは、所定の条件に応じてデータ量が変更された検知データを遠隔制御装置(50)に送信する処理をコンピュータに実行させる。
 これによれば、遠隔制御装置(50)に送信するデータ量を条件に応じて最適化することができる。
 [項目1-11]
 自動運転制御プログラムは、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得する処理をコンピュータに実行させる。また、自動運転制御プログラムは、取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信する処理をコンピュータに実行させる。さらに、自動運転制御プログラムは、所定の条件に応じて複数の通信方式の中から選択された通信方式で、検知データを遠隔制御装置(50)に送信する処理をコンピュータに実行させる。
 これによれば、条件に応じて通信方式を最適化することができる。
 [項目1-12]
 自動運転車両(1)は、検知データ入力部(132)と、通信部(131)と、を有する。検知データ入力部(132)は、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得する。通信部(131)は、検知データ入力部(132)により取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信する。また、通信部(131)は、所定の条件に応じてデータ量が変更された検知データを遠隔制御装置(50)に送信する。
 これによれば、遠隔制御装置(50)に送信するデータ量を条件に応じて最適化することができる。
 [項目1-13]
 自動運転車両(1)は、検知データ入力部(132)と、通信部(131)と、を有する。検知データ入力部(132)は、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得する。通信部(131)は、検知データ入力部(132)により取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信する。また、通信部(131)は、所定の条件に応じて複数の通信方式の中から選択された通信方式で、検知データを遠隔制御装置(50)に送信する。
 これによれば、条件に応じて通信方式を最適化することができる。
 [項目2-1]
 遠隔制御装置(50)は、通信部(531)と、表示部(54)と、を有する。通信部(531)は、自動運転車両(1)からネットワーク(2)を介して、自動運転車両(1)の自車および周辺の状況を示す検知データを取得する。表示部(54)は、取得された検知データに基づき生成された、自動運転車両(1)の周辺の画像を表示する。また、表示部(54)は、画像内に、自動運転車両(1)の周囲の安全範囲または危険範囲を示す範囲オブジェクトを表示する。範囲オブジェクトは、自動運転車両(1)と遠隔制御装置(50)との間の通信遅延、又は自動運転車両(1)の危険度に基づき動的に変化する。
 これによれば、遠隔制御装置(50)を使用して遠隔監視している監視者の判断の精度を向上させることができる。
 [項目2-2]
 項目2-1に記載の遠隔制御装置(50)において、範囲オブジェクトが安全範囲を示す場合、通信遅延が大きくなるほど、範囲オブジェクトの大きさを縮小してもよい。また、範囲オブジェクトが危険範囲を示す場合、通信遅延が大きくなるほど、範囲オブジェクトの大きさを拡大してもよい。
 これによれば、通信遅延の影響を除いた安全範囲または危険範囲を監視者に提示することができる。
 [項目2-3]
 項目2-1に記載の遠隔制御装置(50)において、範囲オブジェクトが安全範囲を示す場合、危険度が高くなるほど、範囲オブジェクトの大きさを縮小してもよい。また、範囲オブジェクトが危険範囲を示す場合、危険度が高くなるほど、範囲オブジェクトの大きさを拡大してもよい。
 これによれば、危険度に応じて最適化された安全範囲または危険範囲を監視者に提示することができる。
 [項目2-4]
 項目2-1から2-3のいずれかに記載の遠隔制御装置(50)において、表示部(54)に表示された自動運転車両(1)を監視している監視者の操作に基づく操作信号を受け付ける操作信号入力部(532)をさらに有してもよい。また、自動運転車両(1)が自律走行が不可能になって停止した後に、操作信号入力部(532)において、監視者の運転再開操作に基づく操作信号を受け付けたとき、通信部(531)は、ネットワーク(2)を介して自動運転車両(1)に運転再開を指示する信号を送信してもよい。さらに、表示部(54)は、危険範囲を示す範囲オブジェクトを、範囲オブジェクトの範囲内に障害物が存在するか否かを運転再開の判断基準として表示してもよい。
 これによれば、監視者による運転再開の判断の精度を向上させることができる。
 [項目2-5]
 遠隔制御方法は、自動運転車両(1)からネットワーク(2)を介して、自動運転車両(1)の自車および周辺の状況を示す検知データを取得するステップを有する。また、遠隔制御方法は、取得された検知データに基づき生成された、自動運転車両(1)の周辺の画像を表示するステップを有する。表示するステップでは、画像内に、自動運転車両(1)の周囲の安全範囲または危険範囲を示す範囲オブジェクトを表示する。範囲オブジェクトは、自動運転車両(1)と遠隔制御装置(50)との間の通信遅延、又は自動運転車両(1)の危険度に基づき動的に変化する。
 これによれば、遠隔制御装置(50)を使用して遠隔監視している監視者の判断の精度を向上させることができる。
 [項目2-6]
 遠隔制御プログラムは、自動運転車両(1)からネットワーク(2)を介して、自動運転車両(1)の自車および周辺の状況を示す検知データを取得する処理をコンピュータに実行させる。また、遠隔制御プログラムは、取得された検知データに基づき生成された、自動運転車両(1)の周辺の画像を表示する処理をコンピュータに実行させる。表示する処理では、画像内に、自動運転車両(1)の周囲の安全範囲または危険範囲を示す範囲オブジェクトを表示する。範囲オブジェクトは、自動運転車両(1)と遠隔制御装置(50)との間の通信遅延、又は自動運転車両(1)の危険度に基づき動的に変化する。
 これによれば、遠隔制御装置(50)を使用して遠隔監視している監視者の判断の精度を向上させることができる。
 [項目3-1]
 遠隔制御装置(50)は、通信部(531)と、表示部(54)と、を有する。通信部(531)は、自動運転車両(1)からネットワーク(2)を介して、自動運転車両(1)の自車および周辺の状況を示す検知データを取得する。表示部(54)は、取得された検知データに基づき生成された、自動運転車両の周辺の画像を表示する。また、表示部(54)は、画像内に、自動運転車両(1)と遠隔制御装置(50)との間の通信遅延を補正した自動運転車両(1)と、通信遅延を補正しない自動運転車両(1)を表示する。
 これによれば、遠隔制御装置(50)を使用して遠隔監視している監視者の判断の精度を向上させることができる。
 [項目3-2]
 項目3-1に記載の遠隔制御装置(50)において、通信部(531)は、自動運転車両(1)からネットワーク(2)を介して、自動運転車両(1)の周辺状況を示す検知データとして画像データを取得してもよい。また、遠隔制御装置(50)は、画像解析部(513)と、画像生成部(511)と、をさらに有してもよい。画像解析部(513)は、画像データ内から移動体を検出し、移動体の動きベクトルを検出し、移動体の移動速度を推定する。画像生成部(511)は、自動運転車両(1)と遠隔制御装置(50)との間の通信遅延と、画像解析部(513)により推定された移動体の移動速度をもとに、画像内に、通信遅延を補正した移動体と、通信遅延を補正しない移動体を含む画像を生成する。
 これによれば、監視者の判断の精度をさらに向上させることができる。
 [項目3-3]
 項目3-1または3-2に記載の遠隔制御装置(50)において、表示部(54)は、画像内に、通信遅延を補正した自動運転車両(1)の周囲の安全範囲または危険範囲を示す範囲オブジェクトを表示してもよい。
 これによれば、監視者の判断の精度をさらに向上させることができる。
 [項目3-4]
 遠隔制御方法は、自動運転車両(1)からネットワーク(2)を介して、自動運転車両(1)の自車および周辺の状況を示す検知データを取得するステップを有する。また、遠隔制御方法は、取得された検知データに基づき生成された、自動運転車両の周辺の画像を表示するステップを有する。表示するステップでは、画像内に、自動運転車両(1)と遠隔制御装置(50)との間の通信遅延を補正した自動運転車両(1)と、通信遅延を補正しない自動運転車両(1)とを表示する。
 これによれば、遠隔制御装置(50)を使用して遠隔監視している監視者の判断の精度を向上させることができる。
 [項目3-5]
 遠隔制御プログラムは、自動運転車両(1)からネットワーク(2)を介して、自動運転車両(1)の自車および周辺の状況を示す検知データを取得する処理をコンピュータに実行させる。また、遠隔制御プログラムは、取得された検知データに基づき生成された、自動運転車両の周辺の画像を表示する処理をコンピュータに実行させる。表示する処理では、画像内に、自動運転車両(1)と本遠隔制御装置(50)との間の通信遅延を補正した自動運転車両(1)と、通信遅延を補正しない自動運転車両(1)とを表示する。
 これによれば、遠隔制御装置(50)を使用して遠隔監視している監視者の判断の精度を向上させることができる。
 [項目4-1]
 遠隔制御装置(50)は、通信部(531)と、表示部(54)と、操作信号入力部(533)と、を有する。通信部(531)は、自動運転車両(1)からネットワーク(2)を介して、自動運転車両(1)の周辺状況を示す検知データを取得する。表示部(54)は、取得された検知データに基づき生成された、自動運転車両(1)の周辺の画像を表示する。操作信号入力部(533)は、表示部(54)に表示された自動運転車両(1)を監視している監視者の操作に基づく操作信号を受け付ける。自動運転車両(1)が自律走行が不可能になって停止した後に、操作信号入力部(533)において、監視者の運転再開操作に基づく操作信号を受け付けたとき、通信部(531)は、ネットワーク(2)を介して自動運転車両(1)に運転再開を指示する信号を送信する。
 これによれば、自動運転車両(1)の緊急停止後に安全性を確保しつつ迅速に運転を再開させることができる。
 [項目4-2]
 項目4-1に記載の遠隔制御装置(50)の操作信号入力部(533)において、自動運転車両(1)の運転再開時の動き出しの走行ルートを指示する監視者の操作に基づく操作信号を受け付けたとき、通信部(531)は、自動運転車両(1)に走行ルートを指示する信号を送信してもよい。
 これによれば、自動運転車両(1)が緊急停止後の運転再開時の走行ルートを自律的に決定することが困難な場合でも、迅速な運転再開が可能となる。
 [項目4-3]
 項目4-2に記載の遠隔制御装置(50)において、表示部(54)はタッチパネルディスプレイであってもよい。また、通信部(531)は、タッチパネルディスプレイに監視者が入力した軌跡をもとに生成された走行ルートを指示する信号を送信してもよい。
 これによれば、監視者の操作性を向上させることができる。
 [項目4-4]
 項目4-2または4-3に記載の遠隔制御装置(50)において、表示部(54)は、自動運転車両(1)からネットワーク(2)を介して受信した信号に含まれる自動運転車両(1)により生成された運転再開時の動き出しの走行ルートを、自動運転車両(1)の周辺の画像に含めて表示してもよい。
 これによれば、監視者が自動運転車両(1)が自律的に生成した運転再開時の動き出しの走行ルートを目視で確認することができる。
 [項目4-5]
 項目4-4に記載の遠隔制御装置(50)において、操作信号入力部(533)において、表示部(54)に表示された走行ルートを許可する監視者の操作に基づく操作信号を受け付けたとき、通信部(531)は、自動運転車両(1)に走行ルートを許可する信号を送信してもよい。
 これによれば、自動運転車両(1)が生成した走行ルートを監視者が許可する工程を設けることにより、運転再開時の安全性を向上させることができる。
 [項目4-6]
 項目4-1から4-5のいずれかに記載の遠隔制御装置(50)の操作信号入力部(533)において、検知データに対する監視者の高品質化を要求する操作を受け付けたとき、通信部(531)は、ネットワーク(2)を介して自動運転車両(1)に検知データの高品質化を指示する信号を送信してもよい。
 これによれば、監視者の利便性を向上させることができる。
 [項目4-7]
 遠隔制御方法は、自動運転車両(1)からネットワーク(2)を介して、自動運転車両(1)の周辺状況を示す検知データを取得するステップを有する。また、遠隔制御方法は、取得された検知データに基づき生成された、自動運転車両(1)の周辺の画像を表示するステップを有する。さらに、遠隔制御方法は、表示された自動運転車両(1)を監視している監視者の操作に基づく操作信号を受け付けるステップを有する。さらに、遠隔制御方法は、自動運転車両(1)が自律走行が不可能になって停止した後に、監視者の運転再開操作に基づく操作信号を受け付けたとき、ネットワーク(2)を介して自動運転車両(1)に運転再開を指示する信号を送信するステップを有する。
 これによれば、自動運転車両(1)の緊急停止後に安全性を確保しつつ迅速に運転を再開させることができる。
 [項目4-8]
 遠隔制御プログラムは、自動運転車両(1)からネットワーク(2)を介して、自動運転車両(1)の周辺状況を示す検知データを取得する処理をコンピュータに実行させる。また、遠隔制御プログラムは、取得された検知データに基づき生成された、自動運転車両(1)の周辺の画像を表示する処理をコンピュータに実行させる。さらに、遠隔制御プログラムは、表示された自動運転車両(1)を監視している監視者の操作に基づく操作信号を受け付ける処理をコンピュータに実行させる。さらに、遠隔制御プログラムは、自動運転車両(1)が自律走行が不可能になって停止した後に、監視者の運転再開操作に基づく操作信号を受け付けたとき、ネットワーク(2)を介して自動運転車両(1)に運転再開を指示する信号を送信する処理をコンピュータに実行させる。
 これによれば、自動運転車両(1)の緊急停止後に安全性を確保しつつ迅速に運転を再開させることができる。
 [項目4-9]
 自動運転制御装置(10)は、検知データ入力部(132)と、自律走行制御部(111)と、通信部(131)と、を有する。検知データ入力部(132)は、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得する。自律走行制御部(111)は、取得された検知データをもとに自動運転車両(1)を自律的に運転制御する。通信部(131)は、検知データ入力部(132)により取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信し、遠隔制御装置(50)からネットワーク(2)を介して指示信号を受信する。自律走行制御部(111)が自動運転車両(1)を自律走行の不可能により停止させた後に、通信部(131)が遠隔制御装置(50)から運転再開時の動き出しの走行ルートを指示する信号を受信したとき、自律走行制御部(111)は、指示された走行ルートが走行不能なルートである場合、走行ルートを拒否する信号を遠隔制御装置(50)に送信する。
 これによれば、自動運転車両(1)の運転再開時の安全性を確保することができる。
 [項目4-10]
 項目4-9に記載の自動運転制御装置(10)において、自律走行制御部(111)は、指示された走行ルートが走行不能なルートである場合、走行可能な別の走行ルートを生成し、遠隔制御装置(50)に送信してもよい。
 これによれば、自動運転制御装置(10)から新たな走行ルートを遠隔制御装置(50)に送信して監視者の確認を求めることにより、運転再開時の安全性を向上させることができる。
 [項目4-11]
 自動運転制御方法は、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得するステップを有する。また、自動運転制御方法は、取得された検知データをもとに自動運転車両(1)を自律的に運転制御するステップを有する。さらに、自動運転制御方法は、取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信するステップを有する。さらに、自動運転制御方法は、遠隔制御装置(50)からネットワーク(2)を介して指示信号を受信するステップを有する。さらに、自動運転制御方法は、自動運転車両(1)が自律走行が不可能になって停止した後に、遠隔制御装置(50)から運転再開時の動き出しの走行ルートを指示する信号を受信したとき、指示された走行ルートが走行不能なルートである場合、走行ルートを拒否する信号を遠隔制御装置(50)に送信するステップを有する。
 これによれば、自動運転車両(1)の運転再開時の安全性を確保することができる。
 [項目4-12]
 自動運転制御プログラムは、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得する処理をコンピュータに実行させる。また、自動運転制御プログラムは、取得された検知データをもとに自動運転車両(1)を自律的に運転制御する処理をコンピュータに実行させる。さらに、自動運転制御プログラムは、取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信する処理をコンピュータに実行させる。さらに、自動運転制御プログラムは、遠隔制御装置(50)からネットワーク(2)を介して指示信号を受信する処理をコンピュータに実行させる。さらに、自動運転制御プログラムは、自動運転車両(1)が自律走行が不可能になって停止した後に、遠隔制御装置(50)から運転再開時の動き出しの走行ルートを指示する信号を受信したとき、指示された走行ルートが走行不能なルートである場合、走行ルートを拒否する信号を遠隔制御装置(50)に送信する処理をコンピュータに実行させる。
 これによれば、自動運転車両(1)の運転再開時の安全性を確保することができる。
 [項目4-13]
 自動運転車両(1)は、検知データ入力部(132)と、自律走行制御部(111)と、通信部(131)と、を有する。検知データ入力部(132)は、自動運転車両(1)の周辺状況を示す検知データを、自動運転車両(1)に設置されている検知装置(20)から取得する。自律走行制御部(111)は、取得された検知データをもとに自動運転車両(1)を自律的に運転制御する。通信部(131)は、検知データ入力部(132)により取得された検知データを、ネットワーク(2)を介して自動運転車両(1)を監視している遠隔制御装置(50)に送信し、遠隔制御装置(50)からネットワーク(2)を介して指示信号を受信する。自律走行制御部(111)が自動運転車両(1)を自律走行の不可能により停止させた後に、通信部(131)が遠隔制御装置(50)から運転再開時の動き出しの走行ルートを指示する信号を受信したとき、自律走行制御部(111)は、指示された走行ルートが走行不能なルートである場合、走行ルートを拒否する信号を遠隔制御装置(50)に送信する。
 これによれば、自動運転車両(1)の運転再開時の安全性を確保することができる。
 [項目5-1]
 遠隔映像出力システム(1、50)は、車両(1)と、遠隔映像出力装置(50)と、を有する。車両(1)は、少なくとも進行方向の周囲を撮影可能な撮像回路(21)と、撮像回路(21)が撮影した映像を送信可能な無線通信回路(131a)と、を有する。遠隔映像出力装置(50)は、無線通信回路(131a)より、ネットワーク(2)を介して第1の映像を受信可能な通信回路(531a)と、第2の映像を出力可能な出力回路(532)と、を有する。遠隔映像出力装置(50)において、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第1遅延時間である場合、出力回路(532)が、第1の映像の第1フレームから第1の範囲(COa)を切り出して第2の映像として出力する。遠隔映像出力装置(50)において、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が、第1遅延時間より長い第2遅延時間である場合、出力回路(532)が、第1の映像の第2フレームから第1の範囲(COa)より狭い第2の範囲(COb)を切り出して第2の映像として出力する。
 これによれば、通信遅延の影響が補償された第2の映像を生成することができる。
 [項目5-2]
 項目5-1に記載の遠隔映像出力システム(1、50)において、第1の映像の第2フレームは、第1の映像の第1フレームと同一であってもよい。
 これによれば、通信遅延が大きくなっても、規定された表示タイミングで第2の映像を生成することができる。
 [項目5-3]
 項目5-1又は項目5-2に記載の遠隔映像出力システム(1、50)において、遠隔映像出力装置(50)は、出力回路(532)に接続された表示部(54)を更に有してもよく、表示部(54)は、第2の映像を出力してもよい。
 これによれば、遠隔側の監視者/操縦者が、通信遅延の影響が補償された第2の映像をリアルタイムに見ることができる。
 [項目5-4]
 項目5-1から項目5-3のいずれか1項に記載の遠隔映像出力システム(1、50)において、遠隔映像出力装置(50)の通信回路(531a)が受信する第1の映像の第1フレームと、第1の映像の第2フレームは、四角形であってもよい。
 これによれば、一般的な映像フォーマットで自動運転車両(1)から遠隔制御装置(50)に映像を送信することができる。
 [項目5-5]
 項目5-1から項目5-4のいずれか1項に記載の遠隔映像出力システム(1、50)において、第1の映像の第1フレームにおける第1の範囲(COa)の形は、第1の映像の第2フレームにおける第2の範囲(COb)の形と、相似であってもよい。
 これによれば、自動運転車両(1)の直進時の第2の映像を簡易な処理で生成することができる。
 [項目5-6]
 項目5-1から項目5-5のいずれか1項に記載の遠隔映像出力システム(1、50)において、車両(1)は、走行速度を検出する速度検出回路(24)を更に有してもよい。また、無線通信回路(131a)は、走行速度を送信可能であってもよい。さらに、遠隔映像出力装置(50)の通信回路(531a)は、無線通信回路(131a)よりネットワーク(2)を介して走行速度を受信可能であってもよい。さらに、遠隔映像出力装置(50)において、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第1速度の場合、出力回路(532)が、第1の映像の第3フレームから第3の範囲(COa)を切り出して第2の映像として出力してもよい。さらに、遠隔映像出力装置(50)において、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が、第1速度より速い第2速度の場合、出力回路(532)が、第1の映像の第4フレームから第3の範囲(COa)より狭い第4の範囲(COb)を切り出して第2の映像として出力回路(532)が出力してもよい。さらに、第3遅延時間はゼロより大きくてもよい。さらに、第3速度はゼロも含んでいてもよい。
 これによれば、速度変化の影響が補償された第2の映像を生成することができる。
 [項目5-7]
 項目5-6に記載の遠隔映像出力システム(1、50)において、第1の映像の第3フレームにおける第3の範囲(COa)の形は、第1の映像の第4フレームにおける第4の範囲(COb)の形と、相似であってもよい。
 これによれば、自動運転車両(1)の直進時の第2の映像を簡易な処理で生成することができる。
 [項目5-8]
 項目5-6又は項目5-7に記載の遠隔映像出力システム(1、50)において、車両(1)は、操舵輪の舵角を検出する舵角検出回路(26)を更に有してもよい。また、無線通信回路(131a)は、舵角を送信可能であってもよい。さらに、遠隔映像出力装置(50)の通信回路(531a)は、無線通信回路(131a)よりネットワーク(2)を介して舵角を受信可能であってもよい。さらに、遠隔映像出力装置(50)において、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第3速度であり、かつ、通信回路(531a)が受信した舵角が第1舵角である場合、出力回路(532)が、第1の映像の第5フレームから第5の範囲(COb)を切り出して第2の映像として出力してもよい。さらに、遠隔映像出力装置(50)において、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第3速度であり、かつ、通信回路(531a)が受信した舵角が、第2舵角である場合、出力回路(532)が、第1の映像の第6フレームから、第6の範囲(COc)を切り出して第2の映像として出力してもよい。第2舵角は第1舵角と異なる。第6の範囲(COc)は第5の範囲(COb)と異なる。さらに、第3遅延時間はゼロより大きくてもよい。さらに、第3速度はゼロより大きくてもよい。
 これによれば、舵角変化の影響が補償された第2の映像を生成することができる。
 [項目5-9]
 項目5-8に記載の遠隔映像出力システム(1、50)において、舵角検出回路(26)が検出する操舵輪(31a、31b)の舵角は、車両(1)の直進方向を基準に、第1方向とその角度、又は、第1方向と反対の第2方向とその角度で表現可能であってもよい。また、第1方向は右であってもよい。さらに、第2方向は左であってもよい。
 これによれば、操舵輪(31a、31b)の舵角を、左右対称の数値データで送信することができる。
 [項目5-10]
 項目5-9に記載の遠隔映像出力システム(1、50)の遠隔映像出力装置(50)において、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第3速度であり、かつ、通信回路(531a)が受信した舵角が直進方向である場合、出力回路(532)が、第7の範囲(COb)を切り出して第2の映像として出力してもよい。この場合、第7の範囲(COb)は第1の映像の第7フレームから切り出される。また、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第3速度であり、かつ、通信回路(531a)が受信した舵角が、第1の角度(α1)である場合、出力回路(532)が、第8の範囲(COc、COf)を、第1の映像の第8フレームから切り出して第2の映像として出力回路(532)が出力してもよい。この場合、第1の角度(α1)とは、直進方向を基準に第1方向に第1の角度(α1)であり、第8の範囲(COc、COf)は、第1の映像のフレームにおいて第7の範囲(COb)を基準に第1の方向(D1)にずれた範囲である。さらに、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第3速度であり、かつ、通信回路(531a)が受信した舵角が、第2の角度(α2)である場合、出力回路(532)が、第9の範囲(COd、COg)を、第1の映像の第9フレームから切り出して第2の映像として出力回路(532)が出力してもよい。この場合、第2の角度(α2)とは、直進方向を基準に第2方向(D2)に第2の角度(α2)であり、第9の範囲(COd、COg)は、第1の映像のフレームにおいて第6の範囲(COc)を基準に、第1の方向(D1)と異なる第2の方向(D2)にずれた範囲である。さらに、第1の角度は正の値であってもよい。さらに、第2の角度は正の値であってもよい。
 これによれば、舵角変化の影響が補償された第2の映像を生成することができる。
 [項目5-11]
 項目5-10に記載の遠隔映像出力システム(1、50)において、第8の範囲(COc、COf)の第1の方向(D1)の端部(E1)の、第1の方向(D1)と直交する幅は、第8の範囲(COc、COf)における第1の方向(D1)と反対の端部(E2)の、第1の方向(D1)と直交する幅より広くてもよい。また、第9の範囲(COd、COg)の第2の方向(D2)の端部(E2)の、第2の方向(D2)と直交する幅は、第9の範囲(COd、COg)における第2の方向(D2)と反対の端部(E1)の、第2の方向(D1)と直交する幅より広くてもよい。
 これによれば、舵角変化の影響が補償された第2の映像を生成することができる。
 [項目5-12]
 項目5-10又は項目5-11に記載の遠隔映像出力システム(1、50)において、第1の映像のフレームにおける第2の方向(D2)は、第1の映像のフレームにおける第1の方向(D1)と反対であってもよい。
 これによれば、左右対称に切り出す範囲を移動させることができる。
 [項目5-13]
 項目5-1から項目5-12のいずれか1項に記載の遠隔映像出力システム(1、50)において、遠隔映像出力装置(50)の出力回路(532)は、第2の映像のフレームにおいて所定の領域を示すオブジェクトを重畳して出力してもよい。また、所定の領域は、危険領域であってもよい。
 これによれば、遠隔側の監視者/操縦者に注意を喚起させることができる。
 [項目5-14]
 遠隔映像出力装置(50)は、ネットワーク(2)を介して第1の映像を受信可能な通信回路(531a)と、第2の映像を出力可能な出力回路(532)と、を有する。通信回路(531a)は、外部の車両(1)が有する無線通信回路(131a)よりネットワーク(2)を介して、第1の映像を受信可能である。車両(1)は、少なくとも進行方向の周囲を撮影可能な撮像回路(21)を、更に有し、車両(1)の無線通信回路(131a)は、撮像回路(21)が撮影した映像を送信可能である。車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第1遅延時間である場合、出力回路(532)が、第1の映像の第1フレームから第1の範囲(COa)を切り出して第2の映像として出力する。車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が、第1遅延時間より長い第2遅延時間である場合、出力回路(532)が、第1の映像の第2フレームから第1の範囲(COa)より狭い第2の範囲(COb)を切り出して第2の映像として出力する。
 これによれば、通信遅延の影響が補償された第2の映像を生成することができる。
 [項目5-15]
 項目5-14に記載の遠隔映像出力装置(50)において、第1の映像の第2フレームは、第1の映像の第1フレームと同一であってもよい。
 これによれば、通信遅延が大きくなっても、規定された表示タイミングで第2の映像を生成することができる。
 [項目5-16]
 項目5-14又は項目5-15に記載の遠隔映像出力装置(50)において、出力回路(532)に接続された表示部(54)を更に有してもよく、表示部(54)は、第2の映像を出力してもよい。
 これによれば、遠隔側の監視者/操縦者が、通信遅延の影響が補償された第2の映像をリアルタイムに見ることができる。
 [項目5-17]
 項目5-14から項目5-16のいずれか1項に記載の遠隔映像出力装置(50)において、第1の映像の第1フレームと、第1の映像の第2フレームは、四角形であってもよい。
 これによれば、一般的な映像フォーマットで自動運転車両(1)から遠隔制御装置(50)に映像を送信することができる。
 [項目5-18]
 項目5-14から項目5-17のいずれか1項に記載の遠隔映像出力装置(50)において、第1の映像の第1フレームにおける第1の範囲(COa)の形は、第1の映像の第2フレームにおける第2の範囲(COb)の形と、相似であってもよい。
 これによれば、自動運転車両(1)の直進時の第2の映像を簡易な処理で生成することができる。
 [項目5-19]
 項目5-14から項目5-18のいずれか1項に記載の遠隔映像出力装置(50)において、車両(1)は、走行速度を検出する速度検出回路(24)を更に有してもよい。また、無線通信回路(131a)は、走行速度を送信可能であってもよい。さらに、通信回路(531a)は、無線通信回路(131a)よりネットワーク(2)を介して走行速度を受信可能であってもよい。さらに、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第1速度の場合、出力回路(532)が、第1の映像の第3フレームから第3の範囲(COa)を切り出して第2の映像として出力してもよい。さらに、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が、第1速度より速い第2速度の場合、出力回路(532)が、第1の映像の第4フレームから第3の範囲(COa)より狭い第4の範囲(COb)を切り出して第2の映像として出力してもよい。さらに、第3遅延時間はゼロより大きくてもよい。さらに、第3速度はゼロも含んでいてもよい。
 これによれば、速度変化の影響が補償された第2の映像を生成することができる。
 [項目5-20]
 項目5-19に記載の遠隔映像出力装置(50)において、第1の映像の第3フレームにおける第3の範囲(COa)の形は、第1の映像の第4フレームにおける第4の範囲(COb)の形と、相似であってもよい。
 これによれば、自動運転車両(1)の直進時の第2の映像を簡易な処理で生成することができる。
 [項目5-21]
 項目5-19又は項目5-20に記載の遠隔映像出力装置(50)において、車両(1)は、操舵輪の舵角を検出する舵角検出回路(26)を更に有してもよい。また、無線通信回路(131a)は、舵角を送信可能であってもよい。さらに、通信回路(531a)は、無線通信回路(131a)よりネットワーク(2)を介して舵角を受信可能であってもよい。さらに、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第3速度であり、かつ、通信回路(531a)が受信した舵角が第1舵角である場合、出力回路(532)が、第1の映像の第5フレームから第5の範囲(COb)を切り出して第2の映像として出力してもよい。さらに、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第3速度であり、かつ、通信回路(531a)が受信した舵角が、第1舵角と異なる第2舵角である場合、出力回路(532)が、第1の映像の第6フレームから、第5の範囲(COb)と異なる第6の範囲(COc)を切り出して第2の映像として出力してもよい。さらに、第3遅延時間はゼロより大きくてもよい。さらに、第3速度はゼロより大きくてもよい。
 これによれば、舵角変化の影響が補償された第2の映像を生成することができる。
 [項目5-22]
 項目5-21に記載の遠隔映像出力装置(50)において、舵角検出回路(26)が検出する操舵輪の舵角は、車両(1)の直進方向を基準に、第1方向とその角度、又は、第1方向と反対の第2方向とその角度で表現可能であってもよい。また、第1方向は右であってもよい。さらに、第2方向は左であってもよい。
 これによれば、操舵輪(31a、31b)の舵角を、左右対称の数値データで送信することができる。
 [項目5-23]
 項目5-22に記載の遠隔映像出力装置(50)において、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第3速度であり、かつ、通信回路(531a)が受信した舵角が直進方向である場合、出力回路(532)が、第1の映像の第7フレームから第7の範囲(COb)を切り出して第2の映像として出力してもよい。また、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第3速度であり、かつ、通信回路(531a)が受信した舵角が、第1の角度(α1)である場合、出力回路(532)が、第8の範囲(COc、COf)を、第1の映像の第8フレームから切り出して第2の映像として出力してもよい。この場合、第1の角度(α1)とは、直進方向を基準に第1方向に第1の角度(α1)であり、第8の範囲(COc、COf)は、第1の映像のフレームにおいて第7の範囲(COb)を基準に第1の方向(D1)にずれた範囲である。さらに、車両(1)からネットワーク(2)を介して遠隔映像出力装置(50)までの通信遅延が第3遅延時間であり、かつ、通信回路(531a)が受信した走行速度が第3速度であり、かつ、通信回路(531a)が受信した舵角が、第2の角度(α2)である場合、第9の範囲(COd、COg)を、第1の映像の第9フレームから切り出して第2の映像として出力回路(532)が出力してもよい。この場合、第2の角度(α2)とは、直進方向を基準に第2方向(D2)に第2の角度(α2)であり、第9の範囲(COd、COg)は、第1の映像のフレームにおいて第6の範囲(COc)を基準に、第1の方向(D1)と異なる第2の方向(D2)にずれた範囲である。さらに、第1の角度は正の値であってもよい。さらに、第2の角度は正の値であってもよい。
 これによれば、舵角変化の影響が補償された第2の映像を生成することができる。
 [項目5-24]
 項目5-23に記載の遠隔映像出力装置(50)において、第8の範囲(COc、COf)における第1の方向(D1)の端部(E1)の、第1の方向(D1)と直交する幅は、第8の範囲(COc、COf)における第1の方向(D1)と反対の端部(E2)の、第1の方向(D1)と直交する幅より広くてもよい。また、第9の範囲(COd、COg)における第2の方向(D2)の端部(E2)の、第2の方向(D2)と直交する幅は、第9の範囲(COd、COg)における第2の方向(D2)と反対の端部(E1)の、第2の方向(D1)と直交する幅より広くてもよい。
 これによれば、舵角変化の影響が補償された第2の映像を生成することができる。
 [項目5-25]
 項目5-23又は項目5-24に記載の遠隔映像出力装置(50)において、第1の映像のフレームにおける第2の方向(D2)は、第1の映像のフレームにおける第1の方向(D1)と反対であってもよい。
 これによれば、左右対称に切り出す範囲を移動させることができる。
 [項目5-26]
 項目5-14から項目5-25のいずれか1項に記載の遠隔映像出力装置(50)において、出力回路(532)は、第2の映像のフレームにおいて所定の領域を示すオブジェクトを重畳して出力してもよい。また、所定の領域は、危険領域であってもよい。
 これによれば、遠隔側の監視者/操縦者に注意を喚起させることができる。
 本開示は、遠隔映像出力システム、及び遠隔映像出力装置として有用である。
 1 自動運転車両
 2 ネットワーク
 2a 無線LANルータ装置
 2b 基地局装置
 2c インターネット
 2d ルータ装置
 5 遠隔監視センタ
 10 自動運転制御装置
 11 制御部
 12 記憶部
 13 入出力部
 20 検知部
 21,21a,21b,21c,21d 可視光カメラ
 22 LIDAR
 23 ミリ波レーダ
 24 車速センサ
 25 GPSセンサ
 26 舵角センサ
 30 アクチュエータ
 31a 左前輪
 31b 右前輪
 31c 左後輪
 31d 右後輪
 50 遠隔制御装置
 51 制御部
 52 記憶部
 53 入出力部
 54 表示部
 54a,54b,54c,54d,54e,54f,54g,54h,54i,54j,54k 監視画像
 55 操作部
 56 操縦部
 111 自律走行制御部
 112 危険度算出部
 113 通信遅延推定部
 114 送信データ量調整部
 115 通信方式切替部
 116 画像圧縮符号化部
 117 送信データ生成部
 118 遠隔走行制御部
 131 センタ入出力部
 131a 無線通信部
 132 検知データ入力部
 133 制御信号出力部
 511 画像生成部
 512 車両指示信号生成部
 513 画像解析部
 514 危険範囲決定部
 515 画像伸張復号部
 516 遅延時間検出部
 517 切出部
 518 サイズ変換部
 519 オブジェクト重畳部
 531 車両入出力部
 531a 通信部
 532 画像信号出力部
 533 操作信号入力部
 561 ステアリングホイール
 562 アクセルペダル
 563 ブレーキペダル
 564 ウインカスイッチ
 C1,C1a 自車
 C1i 自車を示すアイコン
 COa,COb,COc,COd,COe,COf,COg 切出範囲
 D1 第1方向(右方向、時計回り方向)
 D2 第2方向(左方向、反時計回り方向)
 E1 第1方向の端部
 E2 第2方向の端部
 F1a 第1フレーム画像
 F1b 第2フレーム画像
 F1c 第3フレーム画像
 F1d 第4フレーム画像
 F1e フレーム画像
 F1f フレーム画像
 F1g フレーム画像
 F2a 表示用のフレーム画像
 F2e 表示用のフレーム画像
 F2f 表示用のフレーム画像
 F2g 表示用のフレーム画像
 F11 第1の映像の第1フレーム画像
 F12 第1の映像の第2フレーム画像
 F13 第1の映像の第3フレーム画像
 F14 第1の映像の第4フレーム画像
 F15 第1の映像の第5フレーム画像
 F21 第2の映像の第1フレーム画像
 F22 第2の映像の第2フレーム画像
 F23 第2の映像の第3フレーム画像
 F24 第2の映像の第4フレーム画像
 F25 第2の映像の第5フレーム画像
 C01 第1の映像の第1フレーム画像内の切出領域
 C02,C02a,C02b,C02c 第1の映像の第2フレーム画像内の切出領域
 C03 第1の映像の第3フレーム画像内の切出領域
 C04 第1の映像の第4フレーム画像内の切出領域
 C05 第1の映像の第5フレーム画像内の切出領域
 O1 第1対象物
 O2 第2対象物
 O3 第3対象物
 O4 第4対象物
 O5 第5対象物
 O6 第6対象物
 O7 第7対象物
 O8 第8対象物
 O9,O9a 第9対象物
 O1i,O2i,O3i 自車周辺の対象物を示すアイコン
 P1 第1地点
 P2 第2地点
 R1,R2 走行ルート
 S1 目標場所
 Z1 危険範囲オブジェクト
 α1 第1角度
 α2 第2角度

Claims (26)

  1.  少なくとも進行方向の周囲を撮影可能な撮像回路と、
     前記撮像回路が撮影した映像を送信可能な無線通信回路と、
     を備える車両と、
     前記無線通信回路より、ネットワークを介して第1の映像を受信可能な通信回路と、
     第2の映像を出力可能な出力回路と、
     を備える遠隔映像出力装置と、を備える遠隔映像出力システムであって、
     前記遠隔映像出力装置において、前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が第1遅延時間である場合、前記出力回路が、前記第1の映像の第1フレームから第1の範囲を切り出して前記第2の映像として出力し、
     前記遠隔映像出力装置において、前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が、前記第1遅延時間より長い第2遅延時間である場合、前記出力回路が、前記第1の映像の第2フレームから前記第1の範囲より狭い第2の範囲を切り出して前記第2の映像として出力する、
     遠隔映像出力システム。
  2.  請求項1に記載の遠隔映像出力システムであって、
     前記第1の映像の前記第2フレームは、前記第1の映像の前記第1フレームと同一である、
     遠隔映像出力システム。
  3.  請求項1又は請求項2に記載の遠隔映像出力システムであって、
     前記遠隔映像出力装置は、前記出力回路に接続された表示部を更に備え、
     前記表示部は、前記第2の映像を出力する、
     遠隔映像出力システム。
  4.  請求項1から請求項3のいずれか1項に記載の遠隔映像出力システムであって、
     前記遠隔映像出力装置の前記通信回路が受信する前記第1の映像の前記第1フレームと、前記第1の映像の前記第2フレームは、四角形である、
     遠隔映像出力システム。
  5.  請求項1から請求項4のいずれか1項に記載の遠隔映像出力システムであって、
     前記第1の映像の前記第1フレームにおける前記第1の範囲の形は、前記第1の映像の前記第2フレームにおける前記第2の範囲の形と、相似である、
     遠隔映像出力システム。
  6.  請求項1から請求項5のいずれか1項に記載の遠隔映像出力システムであって、
     前記車両は、走行速度を検出する速度検出回路を更に備え、
     前記無線通信回路は、前記走行速度を送信可能であり、
     前記遠隔映像出力装置の前記通信回路は、前記無線通信回路より前記ネットワークを介して前記走行速度を受信可能であって、
     前記遠隔映像出力装置において、前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が第1速度の場合、前記出力回路が、前記第1の映像の第3フレームから第3の範囲を切り出して前記第2の映像として出力し、
     前記遠隔映像出力装置において、前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が、前記第1速度より速い第2速度の場合、前記出力回路が、前記第1の映像の第4フレームから前記第3の範囲より狭い第4の範囲を切り出して前記第2の映像として出力する、
     遠隔映像出力システム。
  7.  請求項6に記載の遠隔映像出力システムであって、
     前記第1の映像の前記第3フレームにおける前記第3の範囲の形は、前記第1の映像の前記第4フレームにおける前記第4の範囲の形と、相似である、
     遠隔映像出力システム。
  8.  請求項6又は請求項7に記載の遠隔映像出力システムであって、
     前記車両は、操舵輪の舵角を検出する舵角検出回路を更に備え、
     前記無線通信回路は、前記舵角を送信可能であり、
     前記遠隔映像出力装置の前記通信回路は、前記無線通信回路より前記ネットワークを介して前記舵角を受信可能であって、
     前記遠隔映像出力装置において、前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が第3速度であり、かつ、前記通信回路が受信した前記舵角が第1舵角である場合、前記出力回路が、前記第1の映像の第5フレームから第5の範囲を切り出して前記第2の映像として出力し、
     前記遠隔映像出力装置において、前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が前記第3速度であり、かつ、前記通信回路が受信した前記舵角が、前記第1舵角と異なる第2舵角である場合、前記出力回路が、前記第1の映像の第6フレームから、前記第5の範囲と異なる第6の範囲を切り出して前記第2の映像として出力する、
     遠隔映像出力システム。
  9.  請求項8に記載の遠隔映像出力システムであって、
     前記舵角検出回路が検出する前記操舵輪の前記舵角は、前記車両の直進方向を基準に、第1方向とその角度、又は、前記第1方向と反対の第2方向とその角度で表現可能である、
     遠隔映像出力システム。
  10.  請求項9に記載の遠隔映像出力システムであって、
     前記遠隔映像出力装置において、前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が第3速度であり、かつ、前記通信回路が受信した前記舵角が直進方向である場合、前記出力回路が、前記第1の映像の第7フレームから第7の範囲を切り出して前記第2の映像として出力し、
     前記遠隔映像出力装置において、前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が前記第3速度であり、かつ、前記通信回路が受信した前記舵角が、直進方向を基準に前記第1方向に第1の角度である場合、前記出力回路が、前記第1の映像のフレームにおいて前記第7の範囲を基準に第1の方向にずれた第8の範囲を、前記第1の映像の第8フレームから切り出して前記第2の映像として出力し、
     前記遠隔映像出力装置において、前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が前記第3速度であり、かつ、前記通信回路が受信した前記舵角が、直進方向を基準に前記第2方向に第2の角度である場合、前記出力回路が、前記第1の映像のフレームにおいて前記第6の範囲を基準に、前記第1の方向と異なる第2の方向にずれた第9の範囲を、前記第1の映像の第9フレームから切り出して前記第2の映像として出力する、
     遠隔映像出力システム。
  11.  請求項10に記載の遠隔映像出力システムであって、
     前記第8の範囲における前記第1の方向の端部の、前記第1の方向と直交する幅は、前記第8の範囲における前記第1の方向と反対の端部の、前記第1の方向と直交する幅より広く、
     前記第9の範囲における前記第2の方向の端部の、前記第2の方向と直交する幅は、前記第9の範囲における前記第2の方向と反対の端部の、前記第2の方向と直交する幅より広い、
     遠隔映像出力システム。
  12.  請求項10又は請求項11に記載の遠隔映像出力システムであって、
     前記第1の映像のフレームにおける前記第2の方向は、前記第1の映像のフレームにおける前記第1の方向と反対である、
     遠隔映像出力システム。
  13.  請求項1から請求項12のいずれか1項に記載の遠隔映像出力システムであって、
     前記遠隔映像出力装置の前記出力回路は、前記第2の映像のフレームにおいて所定の領域を示すオブジェクトを重畳して出力する、
     遠隔映像出力システム。
  14.  ネットワークを介して第1の映像を受信可能な通信回路と、
     第2の映像を出力可能な出力回路と、を備える遠隔映像出力装置であって、
     前記通信回路は、外部の車両に備えられた無線通信回路より前記ネットワークを介して、前記第1の映像を受信可能であり、
     前記車両は、少なくとも進行方向の周囲を撮影可能な撮像回路を、更に備え、
     前記車両の前記無線通信回路は、前記撮像回路が撮影した映像を送信可能であり、
     前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が第1遅延時間である場合、前記出力回路が、前記第1の映像の第1フレームから第1の範囲を切り出して前記第2の映像として出力し、
     前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が、前記第1遅延時間より長い第2遅延時間である場合、前記出力回路が、前記第1の映像の第2フレームから前記第1の範囲より狭い第2の範囲を切り出して前記第2の映像として出力する、
     遠隔映像出力装置。
  15.  請求項14に記載の遠隔映像出力装置であって、
     前記第1の映像の前記第2フレームは、前記第1の映像の前記第1フレームと同一である、
     遠隔映像出力装置。
  16.  請求項14又は請求項15に記載の遠隔映像出力装置であって、
     前記出力回路に接続された表示部を更に備え、
     前記表示部は、前記第2の映像を出力する、
     遠隔映像出力装置。
  17.  請求項14から請求項16のいずれか1項に記載の遠隔映像出力装置であって、
     前記第1の映像の前記第1フレームと、前記第1の映像の前記第2フレームは、四角形である、
     遠隔映像出力装置。
  18.  請求項14から請求項17のいずれか1項に記載の遠隔映像出力装置であって、
     前記第1の映像の前記第1フレームにおける前記第1の範囲の形は、前記第1の映像の前記第2フレームにおける前記第2の範囲の形と、相似である、
     遠隔映像出力装置。
  19.  請求項14から請求項18のいずれか1項に記載の遠隔映像出力装置であって、
     前記車両は、走行速度を検出する速度検出回路を更に備え、
     前記無線通信回路は、前記走行速度を送信可能であり、
     前記通信回路は、前記無線通信回路より前記ネットワークを介して前記走行速度を受信可能であって、
     前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が第1速度の場合、前記出力回路が、前記第1の映像の第3フレームから第3の範囲を切り出して前記第2の映像として出力し、
     前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が、前記第1速度より速い第2速度の場合、前記出力回路が、前記第1の映像の第4フレームから前記第3の範囲より狭い第4の範囲を切り出して前記第2の映像として出力する、
     遠隔映像出力装置。
  20.  請求項19に記載の遠隔映像出力装置であって、
     前記第1の映像の前記第3フレームにおける前記第3の範囲の形は、前記第1の映像の前記第4フレームにおける前記第4の範囲の形と、相似である、
     遠隔映像出力装置。
  21.  請求項19又は請求項20に記載の遠隔映像出力装置であって、
     前記車両は、操舵輪の舵角を検出する舵角検出回路を更に備え、
     前記無線通信回路は、前記舵角を送信可能であり、
     前記通信回路は、前記無線通信回路より前記ネットワークを介して前記舵角を受信可能であって、
     前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が第3速度であり、かつ、前記通信回路が受信した前記舵角が第1舵角である場合、前記出力回路が、前記第1の映像の第5フレームから第5の範囲を切り出して前記第2の映像として出力し、
     前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が前記第3速度であり、かつ、前記通信回路が受信した前記舵角が、前記第1舵角と異なる第2舵角である場合、前記出力回路が、前記第1の映像の第6フレームから、前記第5の範囲と異なる第6の範囲を切り出して前記第2の映像として出力する、
     遠隔映像出力装置。
  22.  請求項21に記載の遠隔映像出力装置であって、
     前記舵角検出回路が検出する前記操舵輪の前記舵角は、前記車両の直進方向を基準に、第1方向とその角度、又は、前記第1方向と反対の第2方向とその角度で表現可能である、
     遠隔映像出力装置。
  23.  請求項22に記載の遠隔映像出力装置であって、
     前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が第3速度であり、かつ、前記通信回路が受信した前記舵角が直進方向である場合、前記出力回路が、前記第1の映像の第7フレームから第7の範囲を切り出して前記第2の映像として出力し、
     前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が前記第3速度であり、かつ、前記通信回路が受信した前記舵角が、直進方向を基準に前記第1方向に第1の角度である場合、前記出力回路が、前記第1の映像のフレームにおいて前記第7の範囲を基準に第1の方向にずれた第8の範囲を、前記第1の映像の第8フレームから切り出して前記第2の映像として出力し、
     前記車両から前記ネットワークを介して前記遠隔映像出力装置までの通信遅延が前記第3遅延時間であり、かつ、前記通信回路が受信した前記走行速度が前記第3速度であり、かつ、前記通信回路が受信した前記舵角が、直進方向を基準に前記第2方向に第2の角度である場合、前記出力回路が、前記第1の映像のフレームにおいて前記第6の範囲を基準に、前記第1の方向と異なる第2の方向にずれた第9の範囲を、前記第1の映像の第9フレームから切り出して前記第2の映像として出力する、
     遠隔映像出力装置。
  24.  請求項23に記載の遠隔映像出力装置であって、
     前記第8の範囲における前記第1の方向の端部の、前記第1の方向と直交する幅は、前記第8の範囲における前記第1の方向と反対の端部の、前記第1の方向と直交する幅より広く、
     前記第9の範囲における前記第2の方向の端部の、前記第2の方向と直交する幅は、前記第9の範囲における前記第2の方向と反対の端部の、前記第2の方向と直交する幅より広い、
     遠隔映像出力装置。
  25.  請求項23又は請求項24に記載の遠隔映像出力装置であって、
     前記第1の映像のフレームにおける前記第2の方向は、前記第1の映像のフレームにおける前記第1の方向と反対である、
     遠隔映像出力装置。
  26.  請求項14から請求項25のいずれか1項に記載の遠隔映像出力装置であって、
     前記出力回路は、前記第2の映像のフレームにおいて所定の領域を示すオブジェクトを重畳して出力する、
     遠隔映像出力装置。
PCT/JP2018/003942 2017-02-24 2018-02-06 遠隔映像出力システム、及び遠隔映像出力装置 WO2018155159A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019501191A JPWO2018155159A1 (ja) 2017-02-24 2018-02-06 遠隔映像出力システム、及び遠隔映像出力装置
US16/531,987 US20190361436A1 (en) 2017-02-24 2019-08-05 Remote monitoring system and remote monitoring device

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP2017-033167 2017-02-24
JP2017-033168 2017-02-24
JP2017033167 2017-02-24
JP2017033168 2017-02-24
JP2017033166 2017-02-24
JP2017033169 2017-02-24
JP2017-033169 2017-02-24
JP2017-033166 2017-02-24
JP2017-213101 2017-11-02
JP2017213101 2017-11-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/531,987 Continuation US20190361436A1 (en) 2017-02-24 2019-08-05 Remote monitoring system and remote monitoring device

Publications (1)

Publication Number Publication Date
WO2018155159A1 true WO2018155159A1 (ja) 2018-08-30

Family

ID=63254365

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/003942 WO2018155159A1 (ja) 2017-02-24 2018-02-06 遠隔映像出力システム、及び遠隔映像出力装置

Country Status (3)

Country Link
US (1) US20190361436A1 (ja)
JP (1) JPWO2018155159A1 (ja)
WO (1) WO2018155159A1 (ja)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109991978A (zh) * 2019-03-19 2019-07-09 莫日华 一种基于网络的智能自动驾驶的方法及装置
JP2020040612A (ja) * 2018-09-13 2020-03-19 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN111497839A (zh) * 2019-01-29 2020-08-07 大众汽车有限公司 用于运载工具和网络组件的系统、运载工具、网络组件、装置、方法和计算机程序
JP2020145612A (ja) * 2019-03-07 2020-09-10 株式会社Jvcケンウッド 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2020147213A (ja) * 2019-03-14 2020-09-17 トヨタ自動車株式会社 自動運転システムの制御装置と該装置による制御方法
JP2020167551A (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 制御装置、制御方法及びプログラム
JP2020165709A (ja) * 2019-03-28 2020-10-08 日産自動車株式会社 情報処理方法、情報処理装置、及び情報処理システム
JP2020175715A (ja) * 2019-04-16 2020-10-29 スズキ株式会社 車両停止制御装置及び車両停止制御方法
JP2021008158A (ja) * 2019-06-28 2021-01-28 トヨタ自動車株式会社 自動運転車両
JP2021008267A (ja) * 2019-07-01 2021-01-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両の動的パラメータテスト方法、装置、記憶媒体及び電子デバイス
CN112351241A (zh) * 2019-08-09 2021-02-09 丰田自动车株式会社 车辆用操作系统
CN112466140A (zh) * 2019-09-06 2021-03-09 丰田自动车株式会社 车辆远程指示系统
WO2021059715A1 (ja) * 2019-09-27 2021-04-01 株式会社デンソー 監視センタ、監視システム及び方法
WO2021065165A1 (ja) * 2019-09-30 2021-04-08 株式会社デンソー 監視センタ、監視システム及び方法
JP2021057724A (ja) * 2019-09-30 2021-04-08 株式会社デンソー 監視センタ、及び支援方法
CN112650212A (zh) * 2019-10-11 2021-04-13 丰田自动车株式会社 远程自动驾驶车辆及车辆远程指示系统
WO2021079108A1 (en) * 2019-10-21 2021-04-29 FlyLogix Limited Flight control systems, ground-based control centres, remotely piloted aircraft, and methods
WO2021079911A1 (ja) * 2019-10-23 2021-04-29 株式会社小糸製作所 センサシステム及びセンサユニット
WO2021177052A1 (ja) * 2020-03-03 2021-09-10 パナソニックIpマネジメント株式会社 情報処理方法、及び、情報処理システム
US11132562B2 (en) 2019-06-19 2021-09-28 Toyota Motor Engineering & Manufacturing North America, Inc. Camera system to detect unusual circumstances and activities while driving
WO2021193059A1 (ja) * 2020-03-26 2021-09-30 パナソニックIpマネジメント株式会社 情報処理方法及び情報処理システム
JP2021158507A (ja) * 2020-03-26 2021-10-07 Kddi株式会社 遠隔自動運転システム、遠隔操作装置、車載装置、遠隔自動運転方法及びコンピュータプログラム
JP2021179759A (ja) * 2020-05-13 2021-11-18 株式会社デンソー 電子制御装置
JP2021179761A (ja) * 2020-05-13 2021-11-18 ソフトバンク株式会社 移動体、並びに、その移動体の自動運転に用いられる情報処理装置、自動システム、その方法及びプログラム
JP2022040060A (ja) * 2020-08-27 2022-03-10 ネイバーラボス コーポレーション ロボット管制方法及びシステム
WO2022071323A1 (ja) * 2020-09-29 2022-04-07 Arithmer株式会社 プログラム、情報処理方法、情報処理端末及び地図情報提供装置
KR102384404B1 (ko) * 2020-10-29 2022-04-08 주식회사 아이에이 카메라 기반 차량 주행 정보 제어 시스템 및 카메라 기반 차량 주행 정보 제어 방법
JP2022542366A (ja) * 2019-07-25 2022-10-03 ケンブリッジ モバイル テレマティクス,インク. 車両の安全性能を評価すること
JP2022153794A (ja) * 2021-03-30 2022-10-13 Kddi株式会社 車両遠隔管理システム、車両遠隔管理方法及びコンピュータプログラム
JP2022549262A (ja) * 2019-09-23 2022-11-24 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 自動車による少なくとも運転支援下でのジャンクションの横断のための方法
WO2023277012A1 (ja) * 2021-06-28 2023-01-05 ソニーセミコンダクタソリューションズ株式会社 情報処理システム及び情報処理装置
WO2023053444A1 (ja) * 2021-10-01 2023-04-06 日本電気株式会社 移動体制御システム、移動体制御方法、および画像通信装置
KR20230085236A (ko) * 2021-12-03 2023-06-14 한국생산기술연구원 자율주행 원격제어시의 안전 제어를 위한 모니터링 시스템
WO2023189081A1 (ja) * 2022-03-31 2023-10-05 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2023210288A1 (ja) * 2022-04-25 2023-11-02 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理システム
JP7485139B1 (ja) 2023-03-30 2024-05-16 トヨタ自動車株式会社 制御装置、遠隔操作装置、遠隔操作システム、および、遠隔操作方法
WO2024157355A1 (ja) * 2023-01-24 2024-08-02 三菱電機株式会社 車上映像伝送制御装置、地上映像受信制御装置、映像伝送システム、制御回路、記憶媒体、車上映像伝送制御方法および地上映像受信制御方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11231287B2 (en) * 2016-12-22 2022-01-25 Nissan North America, Inc. Autonomous vehicle service system
JP6958252B2 (ja) * 2017-11-07 2021-11-02 トヨタ自動車株式会社 遠隔監視システム及び自律走行車両並びに遠隔監視方法
FR3080701B1 (fr) * 2018-04-26 2020-05-15 Transdev Group Systeme de surveillance de la circulation routiere avec affichage d'une image virtuelle d'objets mobiles evoluant dans une portion d'infrastructure routiere
USD980854S1 (en) * 2019-08-16 2023-03-14 Lyft, Inc. Display screen or portion thereof with graphical user interface
US12010659B2 (en) 2019-08-30 2024-06-11 Qualcomm Incorporated Techniques for a radio access network entity to adjust timing in wireless networks
CN110619666B (zh) * 2019-09-20 2022-05-27 阿波罗智能技术(北京)有限公司 用于标定相机的方法及装置
KR20210060690A (ko) * 2019-11-18 2021-05-27 현대자동차주식회사 차량 및 그 후방 영상 제공 방법
US11880293B1 (en) * 2019-11-26 2024-01-23 Zoox, Inc. Continuous tracing and metric collection system
US20210191387A1 (en) * 2019-12-23 2021-06-24 Autonomous Solutions, Inc. System and method for assisted teleoperations of vehicles
CN113506470A (zh) * 2020-03-24 2021-10-15 深圳市超捷通讯有限公司 超车辅助方法、车载装置及可读存储介质
CN111722626B (zh) * 2020-05-11 2023-07-18 北京经纬恒润科技股份有限公司 远程驾驶系统及其安全保护方法和安全保护模块
JP7375683B2 (ja) * 2020-06-16 2023-11-08 トヨタ自動車株式会社 情報処理装置、プログラム、及び情報処理方法
JP7315904B2 (ja) * 2020-06-19 2023-07-27 トヨタ自動車株式会社 車両制御装置
US20220113720A1 (en) * 2020-10-08 2022-04-14 Xtend Reality Expansion Ltd. System and method to facilitate remote and accurate maneuvering of unmanned aerial vehicle under communication latency
EP4378183A1 (en) * 2021-07-25 2024-06-05 Tusimple, Inc. Systems and methods for operating an autonomous vehicle
KR20230055722A (ko) * 2021-10-19 2023-04-26 현대모비스 주식회사 차량의 타겟 감지 시스템 및 방법
FR3132879A1 (fr) * 2022-02-22 2023-08-25 Ez-Wheel Ensemble de recharge pour véhicule à navigation autonome avec contrôle de sécurité
US20240098226A1 (en) * 2022-09-21 2024-03-21 Vay Technology Gmbh Systems and methods to account for latency associated with remote driving applications
CN117912283A (zh) * 2022-10-19 2024-04-19 腾讯科技(深圳)有限公司 车辆的驾驶控制方法及装置、设备、介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262477A (ja) * 2009-05-07 2010-11-18 Ihi Corp 遠隔操縦システム
JP2011028495A (ja) * 2009-07-24 2011-02-10 Technical Research & Development Institute Ministry Of Defence 無人走行車両の遠隔操縦装置
JP2013115803A (ja) * 2011-12-01 2013-06-10 Mitsubishi Heavy Ind Ltd 遠隔操縦車両システム
WO2014141479A1 (ja) * 2013-03-15 2014-09-18 株式会社日立製作所 遠隔操作システム
JP2016024613A (ja) * 2014-07-18 2016-02-08 株式会社デンソー 遠隔制御装置およびそれを用いた遠隔制御システム
JP2017004116A (ja) * 2015-06-05 2017-01-05 トヨタ自動車株式会社 車両用遠隔支援システム
JP2017022660A (ja) * 2015-07-14 2017-01-26 シャープ株式会社 表示装置、表示システム及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5787695B2 (ja) * 2011-09-28 2015-09-30 株式会社トプコン 画像取得装置
WO2015002885A1 (en) * 2013-07-01 2015-01-08 Rwd Consulting, Inc. Vehicle visibility improvement system
KR102366402B1 (ko) * 2015-05-21 2022-02-22 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
US10582259B2 (en) * 2015-06-30 2020-03-03 Gopro, Inc. Pipelined video interface for remote controlled aerial vehicle with camera

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262477A (ja) * 2009-05-07 2010-11-18 Ihi Corp 遠隔操縦システム
JP2011028495A (ja) * 2009-07-24 2011-02-10 Technical Research & Development Institute Ministry Of Defence 無人走行車両の遠隔操縦装置
JP2013115803A (ja) * 2011-12-01 2013-06-10 Mitsubishi Heavy Ind Ltd 遠隔操縦車両システム
WO2014141479A1 (ja) * 2013-03-15 2014-09-18 株式会社日立製作所 遠隔操作システム
JP2016024613A (ja) * 2014-07-18 2016-02-08 株式会社デンソー 遠隔制御装置およびそれを用いた遠隔制御システム
JP2017004116A (ja) * 2015-06-05 2017-01-05 トヨタ自動車株式会社 車両用遠隔支援システム
JP2017022660A (ja) * 2015-07-14 2017-01-26 シャープ株式会社 表示装置、表示システム及びプログラム

Cited By (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7177641B2 (ja) 2018-09-13 2022-11-24 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP2020040612A (ja) * 2018-09-13 2020-03-19 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN110893846A (zh) * 2018-09-13 2020-03-20 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
CN110893846B (zh) * 2018-09-13 2023-04-07 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
KR20200094683A (ko) * 2019-01-29 2020-08-07 폭스바겐 악티엔게젤샤프트 시스템, 차량, 네트워크 컴포넌트, 장치들, 방법들, 및 차량과 네트워크 컴포넌트를 위한 컴퓨터 프로그램들
JP7014828B2 (ja) 2019-01-29 2022-02-01 フォルクスヴァーゲン アクチエンゲゼルシャフト システム、車両、ネットワークコンポーネント、装置、方法ならびに車両およびネットワークコンポーネントのためのコンピュータプログラム
JP2020122789A (ja) * 2019-01-29 2020-08-13 フォルクスヴァーゲン アクチエンゲゼルシャフトVolkswagen Aktiengesellschaft システム、車両、ネットワークコンポーネント、装置、方法ならびに車両およびネットワークコンポーネントのためのコンピュータプログラム
US11912312B2 (en) 2019-01-29 2024-02-27 Volkswagen Aktiengesellschaft System, vehicle, network component, apparatuses, methods, and computer programs for a transportation vehicle and a network component
CN111497839B (zh) * 2019-01-29 2023-12-29 大众汽车有限公司 用于运载工具和网络组件的系统、运载工具、网络组件、装置、方法和计算机程序
KR102408587B1 (ko) * 2019-01-29 2022-06-16 폭스바겐 악티엔게젤샤프트 시스템, 차량, 네트워크 컴포넌트, 장치들, 방법들, 및 차량과 네트워크 컴포넌트를 위한 컴퓨터 프로그램들
CN111497839A (zh) * 2019-01-29 2020-08-07 大众汽车有限公司 用于运载工具和网络组件的系统、运载工具、网络组件、装置、方法和计算机程序
CN111506059A (zh) * 2019-01-29 2020-08-07 大众汽车有限公司 用于运载工具和网络组件的系统、运载工具、网络组件、装置、方法和计算机程序
JP2020145612A (ja) * 2019-03-07 2020-09-10 株式会社Jvcケンウッド 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2020147213A (ja) * 2019-03-14 2020-09-17 トヨタ自動車株式会社 自動運転システムの制御装置と該装置による制御方法
CN109991978A (zh) * 2019-03-19 2019-07-09 莫日华 一种基于网络的智能自动驾驶的方法及装置
JP7224998B2 (ja) 2019-03-28 2023-02-20 日産自動車株式会社 情報処理方法、情報処理装置、及び情報処理システム
JP2020165709A (ja) * 2019-03-28 2020-10-08 日産自動車株式会社 情報処理方法、情報処理装置、及び情報処理システム
JP7256668B2 (ja) 2019-03-29 2023-04-12 本田技研工業株式会社 制御装置、制御方法及びプログラム
JP2020167551A (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 制御装置、制御方法及びプログラム
JP2020175715A (ja) * 2019-04-16 2020-10-29 スズキ株式会社 車両停止制御装置及び車両停止制御方法
US11132562B2 (en) 2019-06-19 2021-09-28 Toyota Motor Engineering & Manufacturing North America, Inc. Camera system to detect unusual circumstances and activities while driving
JP7247786B2 (ja) 2019-06-28 2023-03-29 トヨタ自動車株式会社 自動運転車両
JP2021008158A (ja) * 2019-06-28 2021-01-28 トヨタ自動車株式会社 自動運転車両
JP2021008267A (ja) * 2019-07-01 2021-01-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両の動的パラメータテスト方法、装置、記憶媒体及び電子デバイス
US11634148B2 (en) 2019-07-01 2023-04-25 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method, apparatus, storage medium and electronic device for testing dynamic parameter of vehicle
JP7413503B2 (ja) 2019-07-25 2024-01-15 ケンブリッジ モバイル テレマティクス,インク. 車両の安全性能を評価すること
JP2022542366A (ja) * 2019-07-25 2022-10-03 ケンブリッジ モバイル テレマティクス,インク. 車両の安全性能を評価すること
US12049218B2 (en) 2019-07-25 2024-07-30 Cambridge Mobile Telematics Inc. Evaluating the safety performance of vehicles
JP7151662B2 (ja) 2019-08-09 2022-10-12 トヨタ自動車株式会社 車両用操作システム
CN112351241A (zh) * 2019-08-09 2021-02-09 丰田自动车株式会社 车辆用操作系统
JP2021028789A (ja) * 2019-08-09 2021-02-25 トヨタ自動車株式会社 車両用操作システム
EP4235334A3 (en) * 2019-09-06 2023-10-18 Toyota Jidosha Kabushiki Kaisha Vehicle remote instruction system
CN112466140A (zh) * 2019-09-06 2021-03-09 丰田自动车株式会社 车辆远程指示系统
EP3789840A1 (en) * 2019-09-06 2021-03-10 Toyota Jidosha Kabushiki Kaisha Vehicle remote instruction system
US11703852B2 (en) 2019-09-06 2023-07-18 Toyota Jidosha Kabushiki Kaisha Vehicle remote instruction system
US12066842B2 (en) 2019-09-06 2024-08-20 Toyota Jidosha Kabushiki Kaisha Vehicle remote instruction system
JP2022549262A (ja) * 2019-09-23 2022-11-24 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 自動車による少なくとも運転支援下でのジャンクションの横断のための方法
JP7366253B2 (ja) 2019-09-23 2023-10-20 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 自動車による少なくとも運転支援下でのジャンクションの横断のための方法
JP2021056621A (ja) * 2019-09-27 2021-04-08 株式会社デンソー 監視センタ、監視システム及び方法
WO2021059715A1 (ja) * 2019-09-27 2021-04-01 株式会社デンソー 監視センタ、監視システム及び方法
CN114450732A (zh) * 2019-09-27 2022-05-06 株式会社电装 监视中心、监视系统以及方法
CN114450732B (zh) * 2019-09-27 2024-03-22 株式会社电装 监视中心、监视系统以及方法
JP7180576B2 (ja) 2019-09-27 2022-11-30 株式会社デンソー 監視センタ、監視システム及び方法
CN114514568B (zh) * 2019-09-30 2024-05-28 株式会社电装 监视中心、监视系统以及方法
JP2021056745A (ja) * 2019-09-30 2021-04-08 株式会社デンソー 監視センタ、監視システム及び方法
CN114514568A (zh) * 2019-09-30 2022-05-17 株式会社电装 监视中心、监视系统以及方法
JP7160010B2 (ja) 2019-09-30 2022-10-25 株式会社デンソー 監視センタ、監視システム及び方法
WO2021065165A1 (ja) * 2019-09-30 2021-04-08 株式会社デンソー 監視センタ、監視システム及び方法
JP7215386B2 (ja) 2019-09-30 2023-01-31 株式会社デンソー 監視センタ、及び支援方法
JP2021057724A (ja) * 2019-09-30 2021-04-08 株式会社デンソー 監視センタ、及び支援方法
CN112650212A (zh) * 2019-10-11 2021-04-13 丰田自动车株式会社 远程自动驾驶车辆及车辆远程指示系统
WO2021079108A1 (en) * 2019-10-21 2021-04-29 FlyLogix Limited Flight control systems, ground-based control centres, remotely piloted aircraft, and methods
WO2021079911A1 (ja) * 2019-10-23 2021-04-29 株式会社小糸製作所 センサシステム及びセンサユニット
WO2021177052A1 (ja) * 2020-03-03 2021-09-10 パナソニックIpマネジメント株式会社 情報処理方法、及び、情報処理システム
JP7555030B2 (ja) 2020-03-26 2024-09-24 パナソニックIpマネジメント株式会社 情報処理方法及び情報処理システム
JP2021158507A (ja) * 2020-03-26 2021-10-07 Kddi株式会社 遠隔自動運転システム、遠隔操作装置、車載装置、遠隔自動運転方法及びコンピュータプログラム
WO2021193059A1 (ja) * 2020-03-26 2021-09-30 パナソニックIpマネジメント株式会社 情報処理方法及び情報処理システム
JP7179796B2 (ja) 2020-03-26 2022-11-29 Kddi株式会社 遠隔自動運転システム、遠隔操作装置、車載装置、遠隔自動運転方法及びコンピュータプログラム
JP7287342B2 (ja) 2020-05-13 2023-06-06 株式会社デンソー 電子制御装置
JP7223722B2 (ja) 2020-05-13 2023-02-16 ソフトバンク株式会社 移動体の自動運転に用いられる情報処理装置、自動運転システム、その方法及びプログラム
JP2021179761A (ja) * 2020-05-13 2021-11-18 ソフトバンク株式会社 移動体、並びに、その移動体の自動運転に用いられる情報処理装置、自動システム、その方法及びプログラム
JP2021179759A (ja) * 2020-05-13 2021-11-18 株式会社デンソー 電子制御装置
JP7370362B2 (ja) 2020-08-27 2023-10-27 ネイバーラボス コーポレーション ロボット管制方法及びシステム
US12072701B2 (en) 2020-08-27 2024-08-27 Naver Labs Corporation Control method and system for robot
JP2022040060A (ja) * 2020-08-27 2022-03-10 ネイバーラボス コーポレーション ロボット管制方法及びシステム
WO2022071323A1 (ja) * 2020-09-29 2022-04-07 Arithmer株式会社 プログラム、情報処理方法、情報処理端末及び地図情報提供装置
KR102384404B1 (ko) * 2020-10-29 2022-04-08 주식회사 아이에이 카메라 기반 차량 주행 정보 제어 시스템 및 카메라 기반 차량 주행 정보 제어 방법
JP2022153794A (ja) * 2021-03-30 2022-10-13 Kddi株式会社 車両遠隔管理システム、車両遠隔管理方法及びコンピュータプログラム
JP7467384B2 (ja) 2021-03-30 2024-04-15 Kddi株式会社 車両遠隔管理システム、車両遠隔管理方法及びコンピュータプログラム
WO2023277012A1 (ja) * 2021-06-28 2023-01-05 ソニーセミコンダクタソリューションズ株式会社 情報処理システム及び情報処理装置
WO2023276207A1 (ja) * 2021-06-28 2023-01-05 ソニーセミコンダクタソリューションズ株式会社 情報処理システム及び情報処理装置
WO2023053444A1 (ja) * 2021-10-01 2023-04-06 日本電気株式会社 移動体制御システム、移動体制御方法、および画像通信装置
KR102627908B1 (ko) * 2021-12-03 2024-01-25 한국생산기술연구원 자율주행 원격제어시의 안전 제어를 위한 모니터링 시스템
KR20230085236A (ko) * 2021-12-03 2023-06-14 한국생산기술연구원 자율주행 원격제어시의 안전 제어를 위한 모니터링 시스템
WO2023189081A1 (ja) * 2022-03-31 2023-10-05 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2023210288A1 (ja) * 2022-04-25 2023-11-02 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理システム
WO2024157355A1 (ja) * 2023-01-24 2024-08-02 三菱電機株式会社 車上映像伝送制御装置、地上映像受信制御装置、映像伝送システム、制御回路、記憶媒体、車上映像伝送制御方法および地上映像受信制御方法
JP7485139B1 (ja) 2023-03-30 2024-05-16 トヨタ自動車株式会社 制御装置、遠隔操作装置、遠隔操作システム、および、遠隔操作方法

Also Published As

Publication number Publication date
JPWO2018155159A1 (ja) 2019-12-19
US20190361436A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
WO2018155159A1 (ja) 遠隔映像出力システム、及び遠隔映像出力装置
CN109937568B (zh) 图像处理装置和图像处理方法
US11123876B2 (en) Method for sensor data processing
CN110678371B (zh) 车辆控制系统、车辆控制方法及存储介质
CN110709304B (zh) 车辆控制系统、车辆控制方法及存储介质
CN110574357B (zh) 成像控制设备、用于控制成像控制设备的方法以及移动体
JP2008299676A (ja) 死角情報要求/提供装置及びこれらを利用した車車間通信システム
JP2018142921A (ja) 自動運転制御装置、自動運転制御方法、自動運転制御プログラム、自動運転車両、遠隔制御装置、遠隔制御方法、及び遠隔制御プログラム
JPWO2018163725A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JPWO2020116195A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
JP6415382B2 (ja) 移動体用画像生成装置及びナビゲーション装置
US20200349367A1 (en) Image processing device, image processing method, and program
CN110770795A (zh) 生成装置和生成方法以及回放装置和回放方法
US11443520B2 (en) Image processing apparatus, image processing method, and image processing system
JP2022104107A (ja) 車両遠隔操作システム及び車両遠隔操作方法
US11671700B2 (en) Operation control device, imaging device, and operation control method
WO2020085101A1 (ja) 画像処理装置と画像処理方法およびプログラム
US20210248756A1 (en) Image processing apparatus, vehicle-mounted apparatus, image processing method, and program
JP2021022033A (ja) 車両遠隔指示システム
CN111345035B (zh) 信息处理装置、信息处理方法以及包含信息处理程序的介质
CN115868155A (zh) 控制设备、投影系统、控制方法和程序
JP7483627B2 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
US20230095186A1 (en) Information processing device, information processing system, and information processing method
JP7559784B2 (ja) 画像データの処理システム及び処理方法
US11303815B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18757903

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019501191

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18757903

Country of ref document: EP

Kind code of ref document: A1