WO2020071220A1 - 情報処理方法、及び、情報処理システム - Google Patents

情報処理方法、及び、情報処理システム

Info

Publication number
WO2020071220A1
WO2020071220A1 PCT/JP2019/037768 JP2019037768W WO2020071220A1 WO 2020071220 A1 WO2020071220 A1 WO 2020071220A1 JP 2019037768 W JP2019037768 W JP 2019037768W WO 2020071220 A1 WO2020071220 A1 WO 2020071220A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vehicle
monitoring
priority
presentation
Prior art date
Application number
PCT/JP2019/037768
Other languages
English (en)
French (fr)
Inventor
稔也 新井
孝弘 米田
雄太 下間
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019098800A external-priority patent/JP7253446B2/ja
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority to CN202310159070.0A priority Critical patent/CN116153074A/zh
Priority to EP19868905.1A priority patent/EP3862991B1/en
Priority to CN201980026933.9A priority patent/CN111989725B/zh
Publication of WO2020071220A1 publication Critical patent/WO2020071220A1/ja
Priority to US17/071,225 priority patent/US11388553B2/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0027Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Definitions

  • the present disclosure relates to an information processing method and an information processing system.
  • an operator at a remote location can place a vehicle on which a driver does not board or a vehicle that can operate autonomously without a driver.
  • a remote control system that operates indirectly.
  • sensing results obtained by observing the periphery of the vehicle from various sensors such as a millimeter-wave radar, a laser radar, and a camera mounted on the vehicle are communicated from the vehicle (hereinafter, referred to as an operated vehicle). Notify the operator via means.
  • the operator grasps the state of the operated vehicle and the surrounding state of the operated vehicle based on the transmitted sensing result, determines how to control the operated vehicle, and controls the vehicle. To consider. Then, the operator remotely controls the operated vehicle by transmitting a control signal relating to the traveling of the vehicle to the operated vehicle.
  • Patent Literature 1 discloses a technique for remotely controlling a vehicle existing in a remote control target area which is an area where the vehicle should be remotely controlled. As a result, the operator only needs to remotely control the vehicle in a limited area as the remote operation target area, and can reduce the time required to continuously remotely control the vehicle. Can be.
  • Patent Literature 1 discloses an invention for reducing the burden on an operator who remotely controls a vehicle, but does not disclose a method for reducing the monitoring burden on a supervisor who remotely monitors a vehicle.
  • the present disclosure provides an information processing method and an information processing system capable of reducing a monitoring burden on a monitor.
  • An information processing method uses a computer to acquire first position information indicating a first position that is a position of a vehicle to be monitored and a second position information that is a position requiring monitoring of the vehicle. Obtaining second position information indicating a position, determining a monitoring priority of the vehicle according to movement information on movement of the vehicle from the first position to the second position, and determining a monitoring priority based on the monitoring priority Generating presentation information for monitoring the vehicle, and causing the presentation device to output the presentation information.
  • the information processing system uses a computer to acquire first position information indicating a first position that is a position of a vehicle to be monitored, and a monitor for the vehicle.
  • a second obtaining unit that obtains second position information indicating a second position, which is a position requiring a position, and determines a monitoring priority of the vehicle according to movement information regarding movement from the first position to the second position.
  • a presentation control unit that generates presentation information for monitoring the vehicle based on the monitoring priority and outputs the presentation information to a presentation device.
  • a program according to an embodiment of the present disclosure is a program for causing a computer to execute the above information processing method.
  • a recording medium such as a system, a method, an integrated circuit, a computer program or a computer-readable CD-ROM, and the system, the integrated circuit, the computer program, and the recording medium. It may be realized by any combination of media.
  • FIG. 1 is a block diagram illustrating a configuration of a monitoring system according to an embodiment.
  • FIG. 2 is a schematic view of an example of the monitoring room according to the embodiment.
  • FIG. 3 is a block diagram illustrating a functional configuration of the server device according to the embodiment.
  • FIG. 4 is a diagram illustrating an example of a priority table stored in the operation DB according to the embodiment.
  • FIG. 5 is a diagram illustrating an example of a work information table stored in the operation DB according to the embodiment.
  • FIG. 6 is a block diagram illustrating a functional configuration of the recommendation unit according to the embodiment.
  • FIG. 7 is an explanatory diagram illustrating a first example of presentation information according to the embodiment.
  • FIG. 8 is an explanatory diagram illustrating a second example of the presentation information according to the embodiment.
  • FIG. 9 is an explanatory diagram illustrating a third example of the presentation information according to the embodiment.
  • FIG. 10 is an explanatory diagram illustrating a fourth example of the presentation information according to the embodiment.
  • FIG. 11 is an explanatory diagram illustrating a fifth example of the presentation information according to the embodiment.
  • FIG. 12 is an explanatory diagram illustrating a sixth example of the presentation information according to the embodiment.
  • FIG. 13 is an explanatory diagram illustrating a seventh example of the presentation information according to the embodiment.
  • FIG. 14 is a sequence diagram illustrating processing of the monitoring system according to the embodiment.
  • FIG. 15 is a flowchart illustrating a process of determining a monitoring priority in the recommendation unit according to the embodiment.
  • FIG. 16 is a flowchart illustrating processing of the monitoring control unit according to the embodiment.
  • FIG. 17 is a sequence diagram illustrating processing of the monitoring system according to the modification of the embodiment.
  • An information processing method uses a computer to acquire first position information indicating a first position that is a position of a vehicle to be monitored and a second position information that is a position requiring monitoring of the vehicle. Obtaining second position information indicating a position, determining a monitoring priority of the vehicle according to movement information on movement of the vehicle from the first position to the second position, and determining a monitoring priority based on the monitoring priority Generating presentation information for monitoring the vehicle, and causing the presentation device to output the presentation information.
  • the observer can determine whether or not it is necessary to monitor the vehicle by checking the presentation information output to the presentation device. That is, the observer can determine whether or not monitoring is necessary without constantly monitoring the vehicle and without analyzing the situation of the vehicle in detail.
  • the traveling environment of the vehicle differs depending on the position and affects the safe traveling of the vehicle. Therefore, by presenting the presentation information based on the monitoring priority according to the relationship between the position requiring monitoring and the position of the vehicle, the observer can refer to the presentation information for monitoring. Therefore, according to the information processing method according to an aspect of the present disclosure, a monitoring burden on a monitor can be reduced. Specifically, the burden of monitoring all the images and the burden of determining the necessity of monitoring the vehicle can be reduced.
  • the movement information may include at least one of a travel time from the first position to the second position, a distance, and a traveling route.
  • the monitoring priority can be determined using at least one of the arrival time, the distance, and the traveling route as the movement information. Therefore, according to the information processing method, it is possible to determine the monitoring priority according to the delay until the vehicle reaches the position requiring monitoring. Therefore, the monitoring person can specify the vehicle to be monitored preferentially by checking the presentation information based on the monitoring priority, and reduce the monitoring burden on the monitoring person.
  • the arrival time means the time required for the vehicle to move from the first position to the second position.
  • the movement information may include the arrival time and determine the monitoring priority according to the arrival time.
  • the observer can easily determine whether or not monitoring is required as a result by checking the presentation information corresponding to the arrival time. That is, the observer can specify a vehicle to be monitored preferentially in terms of time. Therefore, monitoring of the monitoring person can be made more efficient, and the monitoring burden on the monitoring person can be further reduced.
  • the second location may include a point specified from at least one of geographic information and traffic information.
  • the monitor can refer to the presentation information for monitoring.
  • the geographic information includes the shape of a road (for example, an intersection or a curve, a junction, a slope, a point where accidents frequently occur), and the traffic information includes dynamic road conditions (for example, traffic congestion information). That is, as a result, the observer can more appropriately determine the vehicle to be monitored with priority according to at least one of the static information at the second position and the dynamic information at the second position. it can. Therefore, the monitoring burden on the monitoring person can be further reduced.
  • the second position may include a point at which a person gets on or off.
  • the presentation information is generated in consideration of the movement information up to a point where there is a risk of contact with a person on the traveling route of the vehicle (for example, a bus stop or a point where the user gets on or off the vehicle).
  • the observer can confirm the presentation information and, as a result, determine the vehicle to be monitored preferentially in consideration of the movement information to the point where there is a risk of contact with a person. Therefore, the monitoring burden on the monitoring person can be further reduced.
  • the second position may include a point where an object satisfying a predetermined condition is located.
  • the information processing method it is possible to determine the monitoring priority according to the positional relationship with the object satisfying the predetermined condition.
  • the degree to which monitoring is required is affected not only by the geographical or traffic conditions, but also by the aspect of the located object. Therefore, by presenting the presentation information in which the position of the object satisfying the predetermined condition is considered, the monitor can refer to the presentation information for monitoring. Therefore, the monitoring burden on the monitoring person can be further reduced.
  • the predetermined condition may include that the object has a possibility of hindering the running of the vehicle, and may specify the object based on sensing data of the vehicle or vehicles around the vehicle.
  • the presentation device can present the presentation information in which the position of the object that may hinder the traveling of the vehicle is considered. In the vicinity of an object that may hinder the running of the vehicle, the degree of necessity of monitoring the vehicle tends to increase. Therefore, when the presentation information is presented, the monitor can refer to the presentation information for monitoring.
  • an object that may interfere with the running of a vehicle is a vehicle that is permitted to run with priority over other vehicles (eg, an emergency vehicle), a vehicle that is difficult to move (eg, an accident vehicle), or a vehicle that violates the driving rules.
  • Vehicles eg, runaway vehicles
  • vehicles that may interfere with vehicle sensing eg, large vehicles
  • vehicles of a special form eg, special work vehicles.
  • the monitor can confirm whether or not the vehicle needs to be monitored as a result by checking the presentation information in which the work information is further considered. That is, the observer can specify the vehicle to be monitored with priority in addition to the viewpoint of work for monitoring the vehicle. Therefore, monitoring of the monitoring person can be made more efficient, and the monitoring burden on the monitoring person can be further reduced.
  • the work information includes at least one of a work time required for monitoring the vehicle and a work time required for operation on the vehicle, and the movement information includes the arrival time, and includes the arrival time and the work time.
  • the monitoring priority may be determined accordingly.
  • the observer can determine whether or not the vehicle needs to be monitored as a result by checking the presentation information in which the arrival time and the work time are considered. That is, the observer can specify the vehicle to be monitored with priority in terms of the total time from when the vehicle arrives at the second position from the current position to when the monitoring or the operation is completed. For example, it is possible to perform monitoring while securing the time required for monitoring or operation until reaching the second position. Therefore, the monitoring burden on the monitoring person can be further reduced.
  • the difficulty of traveling at the second position may be acquired, and the monitoring priority may be determined according to a difference between the arrival time and the work time and the difficulty.
  • the observer confirms the difference between the arrival time and the work time and the presentation information in which the degree of difficulty of traveling at the second position is further considered, and as a result, is it necessary to monitor the vehicle? Can be determined. Therefore, the monitoring burden on the monitor can be further reduced.
  • the first position information is obtained from each of the plurality of vehicles, the second position information indicating a second position that is a position where monitoring of each of the plurality of vehicles is required, and the plurality of vehicles are respectively obtained.
  • the monitoring priority is determined using the first position information and the second position information for the vehicle, and the presentation information is used for monitoring a vehicle specified according to a high monitoring priority for each of the plurality of vehicles. Information may be included.
  • the monitor can confirm the presentation information output to the presentation device to know the vehicle that needs to be monitored out of the plurality of vehicles. That is, the observer can know the vehicle that needs to be monitored without constantly monitoring all of the plurality of vehicles and without analyzing all the situations of the plurality of vehicles in detail. Therefore, when there are a plurality of vehicles to be monitored, the effect of reducing the monitoring burden on the monitor can be further enjoyed.
  • one monitor monitors a plurality of vehicles, it is possible to monitor a plurality of vehicles with a smaller number of vehicles than the number of vehicles, and it is possible to reduce costs such as labor costs and facility costs for monitoring. .
  • the presentation information may include information indicating the specified vehicle as a monitoring target.
  • the presentation device presents information on a vehicle that needs to be monitored by a supervisor among a plurality of vehicles. That is, the vehicle that needs to be monitored is directly indicated. Therefore, the monitoring person can easily specify the vehicle that needs to be monitored, so that the monitoring burden on the monitoring person can be further reduced.
  • the presentation information may include information for monitoring a vehicle specified according to a high monitoring priority among the plurality of vehicles, based on information for monitoring other vehicles other than the specified vehicle. It may include information to be emphasized and presented.
  • the observer can easily know the information of the vehicle to be focused on among them. For example, in the case where images of a plurality of vehicles are displayed in sizes corresponding to the monitoring priorities, it is possible to visually recognize a vehicle to be noticed by the size of the images. Therefore, even when information on a plurality of vehicles is presented on the presentation device, the monitoring burden on the supervisor can be reduced.
  • the vehicle to be noted means a vehicle having a high monitoring priority.
  • the first position information may be obtained through communication with the vehicle, and the information processing method may further control a communication amount of the communication according to the monitoring priority. Good.
  • communication with the vehicle can be optimized according to the monitoring priority. For example, it is possible to reduce the communication volume, the number of times of communication, the communication frequency, the communication time, and the like with a vehicle having a low monitoring priority. Therefore, it is possible to reduce the monitoring burden on the monitor while suppressing the use of the network band with the vehicle according to the monitoring priority.
  • the presentation information may be output to the presentation device before the vehicle reaches the second position.
  • the information processing system uses a computer to acquire first position information indicating a first position that is a position of a vehicle to be monitored, and a monitor for the vehicle.
  • a second obtaining unit that obtains second position information indicating a second position, which is a position requiring a position, and determines a monitoring priority of the vehicle according to movement information regarding movement from the first position to the second position.
  • a presentation control unit that generates presentation information for monitoring the vehicle based on the monitoring priority and outputs the presentation information to a presentation device.
  • the remote monitoring system acquires the sensing result from the monitored vehicle via the communication means and transmits it to the monitor.
  • the observer grasps the state of the monitored vehicle and the state around the monitored vehicle based on the transmitted sensing result, and determines whether the monitored vehicle needs intervention by the operator.
  • the monitor may examine an appropriate intervention method including a method in which the operator indirectly steers.
  • the monitor determines that it is difficult for the monitored vehicle to travel autonomously, the monitor requests the operator to perform a remote operation.
  • the operator remotely controls the monitored vehicle by transmitting a control signal relating to the traveling of the vehicle to the monitored vehicle (that is, the operated vehicle). If the operator is a monitor, the operator may shift from monitoring to operation as it is.
  • Monitoring system configuration First, a monitoring system including a server device that executes an information processing method according to the present embodiment will be described with reference to FIGS.
  • FIG. 1 is a block diagram showing a configuration of a monitoring system 1 according to the present embodiment.
  • FIG. 2 is a schematic view of an example of the monitoring room according to the present embodiment.
  • the monitoring system 1 shown in FIG. 1 is an information processing system for monitoring vehicles M1, M2,..., MN that can be operated vehicles.
  • the vehicles M1, M2,..., MN are also referred to as “vehicles M1 and the like”.
  • the monitoring room shown in FIG. 2 is a room for a monitor to monitor the vehicle M1 and the like.
  • information obtained from the vehicle M1 and the like and information for monitoring the vehicle M1 and the like are presented to the observer, and an operation for the monitor by the observer can be performed.
  • an operation for remote operation of the operated vehicle may be performed.
  • the monitor may be an operator operating the operated vehicle, or may be a different person from the operator.
  • the monitoring system 1 is an information processing system that monitors a plurality of vehicles M1 and the like, but the number of vehicles monitored by the monitoring system 1 is not particularly limited.
  • the monitoring system 1 may be an information processing system that monitors one vehicle.
  • the monitoring system 1 includes a server device 10, an input device 20, and a display device 30.
  • the server device 10 is a processing device that makes a decision regarding monitoring by a monitor. Specifically, the server device 10 makes a determination regarding monitoring by information processing by a computer using the content input to the input device 20 and vehicle information obtained from the vehicle M1 or the like.
  • the server device 10 uses the position information (an example of the first position information) of the vehicle M1 or the like included in the vehicle information acquired from the vehicle M1 or the like to indicate the monitoring priority indicating the priority of monitoring the vehicle M1 or the like. It is characterized in that the degree is determined, and presentation information for monitoring the vehicle M1 and the like based on the monitoring priority is generated and output. Details will be described later.
  • the server device 10 is installed at a place where it can be communicably connected to the network N, and its physical location may be any location. As an example, if the server device 10 is arranged inside or near the monitoring room, there is an advantage that communication with the input device 20 and the display device 30 can be performed in a short time.
  • the input device 20 is an input device to which an operation by a monitor is input.
  • the input device 20 may be a keyboard, a mouse, a touch panel, or the like connected to the server device 10, or may be a button that can be operated by being pressed or touched.
  • the input device 20 provides information on the input operation to the server device 10.
  • the input device 20 is installed in a monitoring room. When the server device 10 is located at a remote location, the input device 20 and the server device 10 may be connected via a network.
  • the display device 30 is a device that acquires presentation information from the server device 10 and outputs the presentation information as an image.
  • the images include photographs, illustrations, characters, and the like.
  • the display device 30 is a liquid crystal display or the like.
  • the image output by the display device 30 is visually recognized by the observer, and determines whether the observer monitors the vehicle, which vehicle monitors the vehicle, or how the vehicle is monitored. Used for The display device 30 is an example of a presentation device.
  • the monitoring system 1 may include a device that outputs sound as a presentation device together with or instead of the display device 30.
  • the display device 30 is installed in a monitoring room. When the server device 10 is located at a remote place, the display device 30 and the server device 10 may be connected via a network.
  • the vehicle M1 is a vehicle on or off boarding a person, for example, an automatic driving vehicle.
  • the vehicle M1 is a vehicle that can be monitored by a monitor.
  • the vehicle M1 exists in an external space different from the monitoring room, for example, a road or a parking lot.
  • the vehicle M1 has a communication interface, is connected to the network N by communication, and is communicably connected to the server device 10 via the network N.
  • the vehicle M1 includes one or more cameras for photographing the periphery of the vehicle M1, and a position, a speed, an acceleration, a jerk (jerk), a steering angle, a remaining amount of fuel or a battery, an operation state of a direction indicator of the vehicle M1, Detects the operation state of ABS (Automatic Locking System) or AEB (Automatic Emergency Breaking), the position of peripheral objects, the presence or absence and number and types of peripheral objects, distance to peripheral objects, speed difference, acceleration difference, etc. It has a plurality of sensors.
  • the vehicle M1 transmits, via the communication interface and the network N, information including image data generated by photographing by one or more cameras and sensing data obtained by a plurality of sensors, such as the position of the vehicle M1 and the position of peripheral objects. It is transmitted to the server device 10.
  • the information transmitted by the vehicle M1 is also referred to as vehicle information.
  • vehicle information is also referred to as a type of vehicle information. That is, there may be a plurality of types of vehicle information itself.
  • control of acceleration / deceleration, control of a steering angle, and the like may be performed by the monitor via the network N as necessary. Such control by the observer is also called remote control.
  • the vehicle information further includes error information such as life and death information indicating whether or not a plurality of sensors are operating or information on a system error of the vehicle M1 itself, and call information for calling a supervisor from a passenger of the vehicle M1. May be included.
  • error information such as life and death information indicating whether or not a plurality of sensors are operating or information on a system error of the vehicle M1 itself, and call information for calling a supervisor from a passenger of the vehicle M1. May be included.
  • the vehicle information includes information indicating a legal speed at a position where the vehicle M1 travels, information indicating a positional relationship of the vehicle M1 with respect to a lane, or information set by the vehicle M1. Information about the movement route may be further included.
  • the information such as the position of the vehicle M1, the error information, the call information, the legal speed, the information indicating the positional relationship with the lane, and the travel route are examples of the information indicating the traveling state of the vehicle M1.
  • the information such as the presence or absence of a peripheral object is an example of information indicating the external state of the vehicle M1.
  • the vehicle information only needs to include at least information indicating the position of the vehicle M1.
  • the position of the vehicle M1 is an example of a first position
  • information indicating the first position is an example of first position information.
  • the first position means, for example, the current position of the vehicle M1.
  • the vehicle M1 may further include, as a sensor, a sound collection device (not shown) that collects sound around the vehicle M1.
  • the sound collection device has, for example, a microphone. From the sound (for example, the sound of a siren) around the vehicle M1 picked up by the microphone, an emergency vehicle (for example, an ambulance, a fire engine, or a police car) running around or stopped around the vehicle M1 Etc.) may be detected.
  • the emergency vehicle is an example of an object that satisfies a predetermined condition, and the predetermined condition includes a possibility that the vehicle M1 may be prevented from traveling.
  • the emergency vehicle travels with priority over a general vehicle. That is.
  • the emergency vehicle is not limited to being detected by the sound pickup device, and may be detected by, for example, image analysis of an image captured by one or more cameras.
  • a vehicle that is difficult to travel may be specified from images captured by one or more cameras or sensing data acquired by a plurality of sensors.
  • the vehicle that is difficult to travel is an example of an object that satisfies the predetermined condition, and the predetermined condition includes a possibility that the vehicle M1 may be prevented from traveling. It is difficult.
  • the vehicle information may include information such as the type, the position, and the speed of the object satisfying the predetermined condition.
  • the point at which the object that satisfies the predetermined condition is located is an example of a second position, which is a position where monitoring of the vehicle M1 and the like is required by the observer.
  • the detection of an object satisfying the above predetermined condition may be performed by the server device 10.
  • the vehicle information may include voice information or the like in the sensing data.
  • the predetermined condition may be other than the above as long as there is a possibility of affecting the traveling of the vehicle M1.
  • the predetermined condition may be running at a predetermined speed or higher.
  • the object satisfying the predetermined condition may be a dangerous vehicle that runs dangerously.
  • the second position may be a position specified from the sensing data.
  • the second position may be, for example, a point specified from at least one of geographic information and traffic information.
  • the second position may include, for example, a railroad crossing, a crossing, a merging, a diverging, a curve, and a point at the top of a slope.
  • the second position may include a point where the vehicle stops erroneously, a point where a person gets on or off the vehicle, and a point of a station.
  • a station is a facility that supplies fuel or the like to a vehicle or charges a battery.
  • the second position is a point on the traveling route of the vehicle.
  • the vehicles M2 to MN are the same vehicles as the vehicle M1, and move independently of the vehicle M1. Further, each of the vehicles M2 to MN transmits the image data and the sensing data generated by the own device to the server device 10 in the same manner as the vehicle M1.
  • the network N is a communication network to which the server device 10, the vehicle M1, and the like are connected.
  • the communication standard or communication method of the network N is, for example, a mobile phone network, a satellite communication network, a wide area communication network using Wi-Fi, or the like, but is not limited thereto.
  • the part connected to the vehicle M1 or the like is wireless.
  • the input device 20 and the display device 30 are arranged in the monitoring room.
  • the input device 20 and the display device 30 are arranged at positions where input and visual recognition by a monitor are easy.
  • the input device 20 and the display device 30 are arranged on a desk in front of a chair on which the observer is seated.
  • a display device 31 that displays image data acquired by the vehicle M1 and the like and an image such as a map indicating the position of the vehicle M1 is arranged at a position that can be visually recognized from the entire monitoring room.
  • the display device 31 displays an image or the like based on image data acquired from all the vehicles M1 of the vehicles M1, M2,...
  • the display device 31 is connected to, for example, the server device 10 and displays images of all vehicles transmitted from the server device 10. The displayed image is visually recognized by the monitor.
  • the number of observers may be smaller than the number of vehicles M1 and the like. It is assumed that the observer does not always monitor all of the vehicles M1 and the like, selects only those vehicles that are determined to need to be monitored, and does not monitor other vehicles. . By doing so, there is an advantage that the number of personnel required for monitoring can be reduced, and the vehicle that needs monitoring can be concentrated on the monitor. It is determined that monitoring is necessary, for example, when the vehicle is in a dangerous position, when the vehicle is in a dangerous state, when the vehicle is approaching the dangerous position, or when the vehicle is in a dangerous state. This is the case when it is expected to be. Note that the number of monitors may be one, or the number of monitors may be the same as the number of vehicles M1 and the like.
  • the observer visually recognizes the image presented by the display device 30 and determines which vehicle of the vehicle M1 or the like is to be monitored or how the vehicle is to be monitored. Then, the observer inputs the monitored vehicle or the monitoring method to the server device 10 via the input device 20.
  • the display device 30 presents an image of a vehicle to be monitored by a monitor or an image for selecting a vehicle to be monitored among vehicles M1, M2,..., MN that can be operated vehicles. You.
  • the server device 10 determines which vehicle to monitor based on the information presented by the display device 30. If the monitoring target recommended by the server device 10 is appropriate, the burden on the monitor to search for the monitoring target from the vehicle M1 or the like can be reduced.
  • FIG. 3 is a block diagram showing a functional configuration of server device 10 according to the present embodiment.
  • the server device 10 includes a communication unit 11, a vehicle management unit 12, an operation DB (database) 13, an operation management unit 14, a recommendation unit 15, a reception unit 16, a monitoring control It comprises a unit 17 and a video management unit 18.
  • the communication unit 11 is a communication interface connected to the network N and communicably connected to the vehicle M1 and the like via the network N.
  • the communication unit 11 acquires vehicle information from the vehicle M1 or the like.
  • the vehicle management unit 12 is a processing unit that manages the vehicle M1 and the like.
  • the vehicle management unit 12 acquires the vehicle information transmitted by the vehicle M1 and the like, and manages the position, speed, running state, and the like of the vehicle M1 and the like based on the acquired vehicle information.
  • the operation DB 13 is a database that stores information for operation of the vehicle M1 and the like.
  • the operation DB 13 holds map, traffic, and operation plan information as information for operation of the vehicle M1 and the like.
  • the operation plan includes information indicating a travel route on which the vehicle M1 and the like are scheduled to travel, and information indicating a planned position on the route of the vehicle M1 and the like at each point in time when the vehicle is traveling.
  • Map information includes geographical information such as terrain, information on road layout, and positional information on road supplementary elements (for example, positions specified by routes and latitudes).
  • Road-related elements include lane markings (roadway center line, lane boundary line, roadway outer line, etc.) that are displayed on the road and divide the width direction of the travel road, and structures near the road (traffic lights, road signs, guardrails, etc.). ) Is included.
  • the geographical information may include statistical risk information on driving (for example, accident or near-miss history information) accumulated along with the positional information on the map. Further, the geographic information may include risk information (for example, an intersection or a curve) based on a map shape (for example, a road shape). The geographic information here includes so-called static information. Further, the geographic information may further include a point at which a person gets on or off. The geographic information may include, for example, information such as a point where a bus stop or the like is located or a point of a destination of the own vehicle. A point on the map where there is a risk based on traveling or a map shape, or a point where a person gets on or off the vehicle is an example of the second position. Further, the geographic information further includes information on the risk value at the second position. The geographic information may include, for example, a priority indicating a priority of monitoring at the second location.
  • Traffic information includes traffic congestion information or event information on a map.
  • the event information may include information on an event such as a festival or an athletic meet, information on a time such as a school return time at a nearby school, and information on traveling such as traffic regulation.
  • the traffic information here includes dynamic information that can be replaced every moment or in real time.
  • the server device 10 may acquire the geographic information and the traffic information from a device external to the server device 10 and store the acquired information in the operation DB 13.
  • the operation DB 13 stores a table (priority table) in which a plurality of pieces of status information of the vehicle M1 and the like based on the vehicle information and a degree of monitoring of the vehicle M1 and the like in the plurality of pieces of status information required by a monitor are associated. I remember.
  • the operation DB 13 stores a table (work information table) in which a plurality of pieces of status information and a time (also referred to as a work time) required for monitoring the vehicle M1 and the like in the plurality of pieces of status information are related.
  • the operation DB 13 only needs to store at least the work information table T2 among the priority table T1 and the work information table T2 described below.
  • FIG. 4 is a diagram showing an example of the priority table T1 stored in the operation DB 13 according to the present embodiment.
  • the priority table T1 is a table in which priority and vehicle status information are associated with each other.
  • a plurality of vehicle status information is set, and a priority is set for each of the vehicle status information.
  • the priority is a numerical value according to the degree to which the monitoring of the vehicle is required by the observer. For example, the higher the numerical value, the higher the degree to which the monitoring by the observer is required.
  • the priority is a numerical value corresponding to the degree of hindrance to traveling by automatic driving, and indicates the magnitude of risk due to automatic driving or continuous automatic driving.
  • the priority is a numerical value based on the vehicle information.
  • Vehicle status information may be information indicating the status of the vehicle based on the vehicle information.
  • the “occurrence of an accident of the own vehicle” is information indicating the state of the vehicle, which is determined based on the traveling state, the image, the acceleration, and the like. For example, when an own vehicle and an object around the own vehicle are in contact with each other in the image, "occurrence of the own vehicle” is detected.
  • “sudden start” is information indicating the state of the vehicle, which is determined based on an image, acceleration, and the like. For example, when the acceleration within a predetermined period when the vehicle starts to move from a stopped state is equal to or more than a predetermined value, “sudden start” is detected.
  • the vehicle status information may be information based on an operation plan including a traveling route of the vehicle in addition to the vehicle information.
  • the “time schedule deviation” is information indicating the status of the vehicle, which is determined based on the position information of the vehicle included in the vehicle information and the operation plan. For example, when the current position of the vehicle is apart from the current planned position of the vehicle included in the operation plan by a predetermined distance or more, a “time schedule deviation” is detected.
  • the “railroad crossing” is information indicating the status of the vehicle, which is determined based on the position information of the vehicle included in the vehicle information and the geographic information. For example, when the current position of the vehicle is within a predetermined range from the railroad crossing, a “railroad crossing” is detected. The detection of the situation information is performed by the recommendation unit 15.
  • the five situation information (hereinafter also referred to as danger information) from “occurrence of an accident in own vehicle” to “time schedule deviation” shown in FIG. 4 is information for indicating that the vehicle is in a danger situation.
  • danger information two pieces of status information from “railroad crossing” to “occurrence of traffic congestion caused by own vehicle” (hereinafter, also referred to as caution information) are information for indicating that the vehicle may be in a dangerous situation in the future It is.
  • the caution information does not indicate that a problem has occurred in the traveling of the vehicle, but indicates a situation in which traveling by automatic driving is possible.
  • the priority shown in FIG. 4 may be a value weighted by a weight (coefficient) according to the situation information. For example, “occurrence of an accident in the own vehicle” is a situation that requires immediate monitoring by the observer, and the priority is set high because the weight value is high. On the other hand, “time schedule deviation” is a situation in which monitoring is not required than “occurrence of an accident in the own vehicle” and the weight value is low, so that the priority is set low. Specifically, the priority is set on the basis of the degree of monitoring required by the observer corresponding to each of a plurality of pieces of status information indicating the status of the vehicle based on the vehicle information and the weight corresponding to each of the plurality of pieces of status information. May be done.
  • the weight may be determined according to, for example, the severity of an accident that may occur for each of the plurality of pieces of status information or the incidence rate of the accident.
  • the accident occurrence rate is a probability that an event (for example, an accident or the like) that must be dealt with by a monitor if the situation of the vehicle (for example, “occurrence of traffic congestion caused by the own vehicle”) is left.
  • FIG. 5 is a diagram showing an example of the work information table T2 stored in the operation DB 13 according to the present embodiment.
  • the work information table T2 is a table in which work times and vehicle status information are associated with each other.
  • a plurality of vehicle status information is set, and a work time is set for each vehicle status information.
  • the type of the vehicle status information set in the work information table T2 indicates a status that can be obtained from, for example, geographic information or traffic information, and is at least the same as the status information of the vehicle set in the priority table T1. Some may be the same.
  • the position corresponding to the situation indicated by the situation information shown in FIG. 5 on the traveling route of the vehicle M1 or the like is the second position.
  • the work time is an example of work information related to the work of the monitor according to the degree of difficulty of traveling for each situation information, and includes at least one of a time required for the monitor to determine the situation and a time required for the monitor to respond.
  • the time required for the observer to determine the situation is, for example, the time required for the observer to check the image taken by the vehicle and to determine the situation around the vehicle.
  • the time required for the monitor to determine the situation is, for example, the time required to grasp the motion of a person on the pedestrian crossing in front of the vehicle.
  • the time required for the monitor to respond is, for example, the time required until the vehicle is stopped urgently or the vehicle is stopped at the shoulder of the road. For example, stopping the vehicle on the road shoulder is more complicated and time-consuming than stopping the vehicle urgently.
  • FIG. 5 shows an example in which the longer the work time, the higher the difficulty of traveling. However, the present invention is not limited to this.
  • the work information table T2 may be set for each of a plurality of monitoring persons. This makes it possible to determine the monitoring priority according to the work time of each monitor. Further, the example in which the work information table T2 includes the work time has been described, but the work information table T2 may include the work amount or the work difficulty. That is, the work information table T2 may be a table in which at least one of the work time, the work amount, and the work difficulty is associated with the situation information.
  • the operation management unit 14 is a processing unit that manages the operation of the vehicle M1 and the like.
  • the operation management unit 14 acquires information such as an operation plan of the vehicle M1 and the like from the operation DB 13, and transmits instruction information including a travel route of the vehicle M1 and the like to the vehicle M1 and the like. Further, the operation management unit 14 determines operation information including how much the operation of the vehicle M1 or the like is delayed with respect to the operation plan. Further, the operation management unit 14 acquires at least one of the geographic information and the traffic information from the operation DB 13, and presents at least one of the acquired geographic information and the traffic information to the recommendation unit 15.
  • the recommendation unit 15 is a processing unit that generates information for recommending a vehicle to be monitored by the monitor to the monitor.
  • the recommendation unit 15 acquires the vehicle information transmitted by the vehicle M1 or the like from the vehicle management unit 12, and acquires the operation information on the operation of the vehicle M1 or the like and at least one of the geographic information and the traffic information from the operation management unit 14. . Then, the recommendation unit 15 obtains, based on the acquired vehicle information, the operation information, and at least one of the geographic information and the traffic information, recommendation information for recommending a vehicle to be monitored by the monitor to the monitor. Generate.
  • the recommendation information includes information for specifying a vehicle to be recommended for monitoring.
  • the recommendation information is indicated by, for example, a monitoring priority indicating the degree to which the vehicle should be monitored with priority over other vehicles.
  • the recommendation information may be a monitoring recommendation degree indicating a degree of recommendation that the monitoring target is set for each vehicle. Note that the recommendation unit 15 may determine the monitoring priority based on at least the vehicle information.
  • the recommendation unit 15 When there is no vehicle to be monitored by the monitor (for example, when there is no vehicle whose monitoring priority is equal to or higher than the predetermined threshold), the recommendation unit 15 generates information indicating that monitoring is unnecessary. You may. Information indicating that monitoring is unnecessary is included in the recommendation information. Note that the recommendation unit 15 is an example of a determination unit.
  • FIG. 6 is a block diagram showing a functional configuration of the recommendation unit 15 according to the present embodiment.
  • the recommendation unit 15 includes a traveling risk calculation unit 15a, a route risk calculation unit 15b, an integrated risk calculation unit 15c, and a recommendation target determination unit 15d.
  • the driving risk calculation unit 15a is a processing unit that calculates a driving risk value of the vehicle M1 or the like from at least one of the vehicle information and the operation information.
  • the travel risk calculation unit 15a calculates a travel risk value based on at least one of the vehicle information acquired from the vehicle management unit 12 and the operation information acquired from the operation management unit 14.
  • the travel risk value indicates the degree to which a supervisor is required to monitor the traveling of the vehicle M1, and is calculated as a priority in the present embodiment.
  • the traveling risk calculation unit 15a calculates a traveling risk value for the vehicle M1 or the like based on the traveling state of the vehicle M1 or the like based on the above information and the priority shown in FIG.
  • the route risk calculation unit 15b is a processing unit that calculates a route risk value, which is a risk value on the route of the vehicle M1, based on the information based on the position and at least one of the geographic information and the traffic information.
  • the route risk calculation unit 15b calculates a route risk value of the vehicle M1 or the like from the position information (an example of the first position information) of the vehicle M1 or the like and at least one of the geographic information and the traffic information (an example of the second position information). I do.
  • the route risk calculation unit 15b determines a route according to a first position indicated by the first position information acquired from the operation management unit 14 and a second position which is a point specified from at least one of geographic information and traffic information. Calculate the risk value.
  • the route risk calculation unit 15b calculates a route risk value according to movement information (an example of position-based information) regarding movement of the vehicle M1 or the like from the first position to the second position.
  • the movement information is information obtained from the first position and the second position, and includes, for example, at least one of a travel time from the first position to the second position, a distance, and a traveling route.
  • the route risk value indicates the degree of monitoring required by the supervisor on the traveling route of the vehicle M1, and is calculated based on the arrival time in the present embodiment.
  • the arrival time in the present specification means the time required for the vehicle M1 to move from the first position to the second position, the distance on the traveling route from the first position to the second position, and the travel time of the vehicle. It is calculated from the speed and the like.
  • the arrival time is calculated from the speed of the predetermined object and the like. Is done.
  • the route risk calculator 15b calculates the first position information of the vehicle M1 or the like, the second position information based on the traveling route and at least one of the geographic information and the traffic information, and the work information (for example, work time) shown in FIG.
  • the route risk value of the vehicle M1 or the like may be calculated based on the above. That is, the route risk calculating unit 15b may calculate the route risk value based on the work information in addition to the first position information and the second position information.
  • the integrated risk calculation unit 15c calculates an integrated risk value that is a risk value of each of the vehicles M1 and the like based on the travel risk value calculated by the travel risk calculation unit 15a and the route risk value calculated by the route risk calculation unit 15b. It is a processing unit.
  • the integrated risk calculating unit 15c calculates one risk value for each of the vehicle M1 and the like by integrating the traveling risk value and the route risk value by a predetermined calculation. Note that the operation includes at least one of addition, subtraction, multiplication, and division.
  • the integrated risk calculation unit 15c calculates the integrated risk value of the vehicle M1 and the like by adding the travel risk value and the route risk value, for example.
  • the integrated risk calculating unit 15c determines, as the integrated risk value, the monitoring priority obtained by adding the traveling priority and the route priority. Further, when integrating the driving risk value and the route risk value by a predetermined calculation, the integrated risk calculating unit 15c may multiply at least one of the driving risk value and the route risk value by a predetermined weight (coefficient). Good.
  • the recommendation target determination unit 15d is a processing unit that determines a vehicle to be recommended as a monitoring target from each integrated risk value of the vehicle M1 and the like acquired from the integrated risk calculation unit 15c.
  • the recommendation target determination unit 15d may determine that a vehicle (an example of a target vehicle) having the highest monitoring priority or a threshold higher than the threshold value among the vehicles M1 and the like is a vehicle to be recommended as a monitoring target.
  • the number of vehicles recommended by the recommendation target determining unit 15d may be one or two or more.
  • the number of vehicles may be determined according to the monitoring capability of a monitor.
  • the recommendation target determining unit 15d may determine that there is no vehicle to recommend, for example.
  • the recommendation information includes information indicating that there is no vehicle to recommend.
  • the recommendation unit 15 only needs to have a component for determining a recommendation target from a route risk value. That is, the recommendation unit 15 only needs to include the route risk calculation unit 15b and the recommendation target determination unit 15d. Further, the monitoring priority may be determined at least according to the route risk value. That is, the monitoring priority may be determined in accordance with the movement information (for example, arrival time) regarding the movement of the vehicle from the first position to the second position.
  • the receiving unit 16 is a processing unit that receives operation information indicating an input operation by the monitor input to the input device 20.
  • the operation information includes, for example, an operation of switching a monitoring target.
  • the monitoring control unit 17 is a processing unit that determines a vehicle to be monitored.
  • the monitoring control unit 17 determines a vehicle to be monitored based on the recommendation information generated by the recommending unit 15 and the operation information received by the receiving unit 16, and generates monitoring information indicating the vehicle to be monitored. Generate.
  • the monitoring control unit 17 provides the generated monitoring information to the video management unit 18.
  • the monitoring information generated by the monitoring control unit 17 includes information for specifying a vehicle to be monitored. Further, the monitoring information may include information indicating a reason why the vehicle is determined to be a monitoring target.
  • the monitoring information includes, for example, information indicating which of the plurality of pieces of status information shown in FIG. 5 has been detected. Further, the monitoring information may include, for example, information indicating which status information of the plurality of status information illustrated in FIG. 4 has been detected.
  • the monitoring information may further include a monitoring priority.
  • the monitoring control unit 17 has an automatic update mode and a manual update mode as operation modes related to determination of a monitored vehicle.
  • the automatic update mode is a mode in which the monitoring target vehicle is determined according to the recommendation information and the monitoring information is generated, regardless of whether the operation information is received or regardless of the content of the received operation information.
  • the manual update mode is a mode in which the monitoring target vehicle is determined according to the operation information and the monitoring information is generated regardless of the presence or absence of the recommendation information or the content of the recommendation information.
  • the image management unit 18 is a processing unit that manages images to be displayed on the display device 30.
  • the video management unit 18 generates presentation information including image data related to a video to be displayed on the display device 30 and outputs the presentation information to the display device 30.
  • the video management unit 18 acquires the monitoring information from the monitoring control unit 17, and when the monitoring information includes information for specifying the vehicle to be monitored, the image management unit 18 receives the image received by the communication unit 11 from the monitoring target vehicle. Include data in presentation information.
  • the video management unit 18 is an example of a presentation control unit that generates presentation information and causes the display device 30 to output the generated presentation information.
  • the presentation information may include information indicating a vehicle to be monitored indicated by the monitoring information. Further, when the monitoring information includes information indicating one or more vehicles that can be monitored, the presentation information may include the monitoring priority of each of the one or more vehicles included in the monitoring information. In addition, when the monitoring information includes information indicating the monitoring direction, the presentation information may include an image of the monitoring direction included in the monitoring information. In addition, the presentation information may include information indicating that monitoring is unnecessary when there is no vehicle to be monitored by the monitor.
  • FIG. 7 is an explanatory diagram showing a first example of presentation information according to the present embodiment.
  • FIG. 7 shows an example in which the monitoring priority is presented as the presentation information.
  • the image 32 displayed by the display device 30 includes an image 34 indicating the monitoring priority of each vehicle M1 or the like. That is, the video management unit 18 causes the display device 30 to present the image 32 in which the vehicle M1 and the like are associated with the monitoring priority.
  • the monitoring priority is information indicating the degree to which the vehicle should be monitored with priority.
  • the monitoring priority is indicated by, for example, three levels of A (high), B (medium), and C (low). For example, it is indicated that the monitoring priority of the vehicle M1 is A and the monitoring priority of the vehicle M2 is B.
  • the image 32 includes an image 33 of a button for starting monitoring of each of the vehicles M1 and the like. Note that the monitoring priority may be a numerical value.
  • the monitoring priority may be, for example, a value obtained by adding the priorities corresponding to the detected status information among the plurality of status information.
  • the initial value of the monitoring priority may be a predetermined value (for example, 0). When the monitoring priority is the initial value, it means that a situation that requires immediate or future monitoring has not occurred.
  • the observer can know the vehicle that needs to be monitored without analyzing the situation of all of the plurality of vehicles in detail.
  • the presentation information is, for example, information for monitoring the vehicle M1 and the like specified in accordance with the monitoring priority of each of the plurality of vehicles M1 and the like.
  • the presentation information may include information for presenting a vehicle with a higher monitoring priority with higher priority.
  • the presentation information may include information indicating each of the plurality of vehicles M1 and the like in the order of monitoring priority.
  • the presentation information includes information indicating information for monitoring a vehicle specified according to a high monitoring priority among the plurality of vehicles M1 and the like in the order of monitoring priority of each of the plurality of specified vehicles. Is also good.
  • the presentation information is information indicating a vehicle specified according to the level of the monitoring priority among the plurality of vehicles M1 and the like, and information indicating the monitoring priority corresponding to the specified vehicle in association with each other. May be included.
  • the presentation information may include information for displaying a vehicle having a higher monitoring priority or a vehicle having a lower monitoring priority in order of the monitoring priority.
  • FIG. 7 shows an example in which the monitoring priority is displayed in descending order.
  • the presentation information includes information (an example of first information) for monitoring a vehicle specified according to the level of the monitoring priority among the plurality of vehicles M1 and the like, and a vehicle other than the specified vehicle. May be included in the information for monitoring (an example of the second information).
  • the presentation information includes information in which information (an example of the first information) indicating a vehicle having the highest monitoring priority or a vehicle having a higher monitoring threshold is emphasized than information (an example of the second information) of another vehicle. You may go out.
  • the presentation information may include information for presenting the button image 33 corresponding to the vehicle M1 having a higher monitoring priority in a different form from the button images 33 corresponding to other vehicles among the button images 33. Good.
  • FIG. 8 is an explanatory diagram showing a second example of the presentation information according to the present embodiment.
  • FIG. 8 shows an example in which the traveling risk value and the route risk value from which the monitoring priority is determined are presented as the presentation information.
  • the image 32a displayed by the display device 30 includes an image 34a indicating a traveling risk value and a route risk value for each vehicle M1 and the like. That is, the video management unit 18 causes the display device 30 to present the image 32a in which each of the vehicles M1 and the like is associated with the traveling risk value and the route risk value.
  • the traveling risk value and the route risk value are indicated in three stages, for example, A (high), B (medium), and C (low). For example, it is shown that the traveling risk value and the route risk value of the vehicle M1 are A, the traveling risk value of the vehicle M2 is A, and the route risk value is B.
  • the image 32a includes an image 33 of a button for starting monitoring of each of the vehicles M1 and the like.
  • the traveling risk value and the route risk value may be numerical values.
  • the travel risk value and the route risk value may be, for example, values obtained by adding priorities corresponding to the detected situation information among a plurality of pieces of situation information.
  • FIG. 9 is an explanatory diagram showing a third example of the presentation information according to the present embodiment.
  • FIG. 9 illustrates an example in which an image based on image data acquired from the vehicle M1 or the like is presented as presentation information.
  • the image 32b displayed by the display device 30 includes images 35 to 37 for each vehicle M1 and the like.
  • the image 35 is, for example, an image based on image data captured by one or more cameras of the vehicle M1 (an example of a target vehicle) having a high monitoring priority.
  • the images 36 and 37 which are images based on image data taken by one or more cameras of a vehicle (an example of another vehicle) having a lower monitoring priority than the vehicle M1 such as the vehicle M2.
  • the presentation information may include information for displaying the image 35 of the vehicle M1 having a higher monitoring priority with a larger area than the images 36 and 37 of the vehicle M2 having a lower monitoring priority than the vehicle M1.
  • the image 35 is an example of a first image included in the first information
  • the images 36 and 37 are examples of a second image included in the second information. That is, the presentation information may include information for displaying the first image with an area larger than the second image.
  • presenting the information indicating the target vehicle (for example, the image 35) larger than the information indicating the other vehicles (the images 36 and 37) is included in emphasizing and presenting.
  • the image 32b may include an image of a button for starting monitoring of the vehicle M1 or the like (see the image 33 of the button shown in FIG. 7).
  • the observer visually recognizes the image 32, 32a or 32b, selects a vehicle to be monitored, and operates the image 33 of the button corresponding to the selected vehicle. This operation is received by the input device 20, and operation information indicating this operation is received by the receiving unit 16.
  • FIGS. 7 to 9 have described an example in which an image for the monitor to select the vehicle to be monitored is displayed on the display device 30, that is, the image cannot be automatically switched to the image to be monitored.
  • the presentation information is information for displaying an image of a vehicle to be monitored by a monitor, that is, an example in which the display information is automatically switched to a monitoring target image will be described.
  • FIG. 10 is an explanatory diagram showing a fourth example of the presentation information according to the present embodiment.
  • FIG. 10 illustrates an example in which an image based on the image data acquired from the vehicle M1 is presented as the presentation information.
  • the image 38 displayed by the display device 30 is an image of the vehicle M1 having a high monitoring priority (for example, the highest).
  • the presentation information includes information for monitoring the vehicle M1 having the highest monitoring priority or higher than the threshold among the plurality of vehicles M1 and the like.
  • the presentation information includes an image 38 (see FIG. 8) captured by the vehicle M1 having the highest monitoring priority or higher than the threshold among the plurality of vehicles M1 or the like, or an image showing the vehicle M1.
  • the presentation information includes information indicating, as a monitoring target, a vehicle (for example, the vehicle M1) specified based on the monitoring priority, and for example, an image 38 captured by the vehicle M1 on an image displayed on the display device 30
  • the information may include information for switching to an image showing the vehicle.
  • FIG. 11 is an explanatory diagram showing a fifth example of the presentation information according to the present embodiment.
  • FIG. 11 shows an example in which the reason why the vehicle M1 is selected is presented on the image 38 shown in FIG. 10 as the presentation information. That is, the presentation information includes information indicating at least one contribution of the plurality of pieces of status information to the monitoring priority.
  • the image 38 displayed by the display device 30 includes an image 39 indicating the reason that the vehicle M1 has been determined as the monitoring target.
  • the image 39 is included in the information indicating the degree of contribution.
  • the fact that the vehicle M1 is determined as the monitoring target indicates that the “railroad crossing” has the highest contribution.
  • work information for example, work time
  • the detected status information May be superimposed on the image 38 and presented. That is, two or more pieces of status information corresponding to the vehicle M1 may be presented in a manner superimposed on the image 38. In this case, two or more pieces of status information and their corresponding priorities may be presented by being superimposed on the image 38.
  • the two or more pieces of status information and the priority are included in the information indicating the degree of contribution.
  • FIG. 12 is an explanatory diagram showing a sixth example of the presentation information according to the present embodiment. Specifically, an image 38 including an image 40 indicating that no monitoring target exists as information indicating that monitoring is unnecessary is displayed. Here are some examples.
  • the time when there is no vehicle whose monitoring priority is equal to or higher than the predetermined threshold, that is, the time when monitoring is unnecessary, may be recorded, and statistical information on the time when monitoring is unnecessary may be presented. For example, statistical information such as an average value, a median value, or a mode value of monitoring-unnecessary time, or a distribution in a specific period such as day, week, or month may be presented.
  • the process of recording the time when monitoring is unnecessary is performed by, for example, the monitoring control unit 17. Further, the statistical information may be included in the monitoring information.
  • a proposal for a period of leaving monitoring work such as a break may be presented from the statistical information of the time when monitoring is unnecessary. For example, information for prompting a break in a time period in which monitoring is unnecessary for a day is statistically long may be presented. The process of proposing a period apart from monitoring work such as a break is performed by the monitoring control unit 17, for example. Further, the proposal (for example, information for prompting a break) may be included in the monitoring information.
  • FIG. 13 is an explanatory diagram showing a seventh example of the presentation information according to the present embodiment. Specifically, as the information for urging the monitoring unnecessary time and the break, the average value of the monitoring unnecessary time and the break are prompted. An example in which an image 38 including an image 41 indicating the fact is displayed is shown.
  • FIG. 14 is a sequence diagram showing processing of the monitoring system 1 according to the present embodiment.
  • the sequence diagram illustrated in FIG. 14 is a diagram illustrating a flow of a process of determining a monitoring target to be recommended using position information.
  • FIG. 14 illustrates the vehicle M1 as a representative of the vehicle M1 and the like, the same processing is performed for the other vehicles M2 to MN.
  • step S101 the operation management unit 14 of the server device 10 sets the travel route of the vehicle M1 based on the operation plan of the vehicle M1 stored in the operation DB 13. Then, the operation management unit 14 transmits instruction information including the set moving route to the vehicle M1. The operation management unit 14 similarly sets a movement route for the other vehicles M2 to MN and transmits instruction information.
  • step S121 the vehicle M1 receives the instruction information transmitted by the operation management unit 14 in step S101. Then, based on the received instruction information, the vehicle M1 travels according to the moving route set by the operation management unit 14.
  • step S122 the vehicle M1 acquires vehicle information (that is, sensing data and image data) indicating a traveling position, speed, acceleration, steering angle, and the like.
  • vehicle information that is, sensing data and image data
  • step S123 the vehicle M1 transmits the vehicle information (that is, sensing data and image data) acquired in step S122 to the server device 10.
  • vehicle M1 also acquires vehicle information (that is, sensing data and image data) indicating a running position, speed, acceleration, steering angle, and the like after step S123, and transmits the acquired information to the server device 10.
  • vehicle information includes at least first position information indicating a first position that is the position of the vehicle M1.
  • steps S121 to S123 are similarly performed for the other vehicles M2 to MN.
  • step S102 the communication unit 11 of the server device 10 receives the vehicle information (that is, the sensing data and the image data) including the first position information transmitted by the vehicle M1 and the like in step S123.
  • the communication unit 11 provides the received vehicle information (that is, sensing data and image data) to the vehicle management unit 12.
  • step S102 the communication unit 11 acquires vehicle information (that is, sensing data and image data) by communication.
  • step S103 the operation management unit 14 of the server device 10 determines whether the first position information included in the vehicle information received in step S102 conforms to the operation plan, and indicates the operation result indicating the determination result. Generate information.
  • step S104 the recommendation unit 15 of the server device 10 acquires second position information indicating the second position from the operation management unit 14. Specifically, the route risk calculator 15b of the recommender 15 obtains the second position by obtaining at least one of the geographic information and the traffic information from the operation management unit 14. Note that the recommendation unit 15 may directly acquire the second position information from the operation DB 13.
  • step S105 the recommendation unit 15 determines a monitoring priority for each of the vehicles M1 and the like. Specifically, the recommendation unit 15 acquires the first position information included in the vehicle information received by the communication unit 11 in step S102 from the vehicle management unit 12, and acquires the operation information generated by the operation management unit 14 in step S103. The second position information is acquired from the operation management unit 14 in step S104.
  • the recommendation unit 15 determines the monitoring priority of the vehicle according to the degree to which the monitor needs to monitor the vehicle based on the acquired vehicle information, operation information, first position information, and second position information. Specifically, the traveling risk calculation unit 15a of the recommendation unit 15 calculates a traveling risk value based on the acquired vehicle information and operation information and a table (for example, a priority table T1) stored in the operation DB 13. I do. Further, the route risk calculation unit 15b of the recommendation unit 15 calculates a route risk value based on the acquired first position information and second position information. Then, the integrated risk calculation unit 15c determines an integrated risk value (an example of a monitoring priority) based on the traveling risk value and the route risk value.
  • a table for example, a priority table T1
  • step S105 the recommendation unit 15 only needs to obtain at least the first position information and the second position information. That is, in step S105, the monitoring priority may be determined based on the route risk value based on the first position information and the second position information. In step S105, the monitoring priority is determined for each of the plurality of vehicles M1 using the first position information and the second position information.
  • the recommendation unit 15 determines a recommendation target vehicle for which monitoring by a monitor is required based on the monitoring priority determined in step S105. Specifically, the recommendation target determining unit 15d of the recommendation unit 15 determines a vehicle having the highest monitoring priority or a vehicle having a monitoring priority equal to or higher than a predetermined threshold from a plurality of vehicles M1 or the like. May be determined. Note that the number of recommendation target vehicles determined in step S106 is not limited to one, but from the viewpoint of further reducing the burden of monitoring by a monitor, the smaller the number of recommendation target vehicles determined in step S106 is better. , For example.
  • the recommendation unit 15 may determine, based on the monitoring priority determined in step S105, that there is no recommendation target vehicle that is required to be monitored by the monitor. For example, when there is no vehicle whose monitoring priority is equal to or higher than the predetermined threshold from among the plurality of vehicles M1 and the like, the recommendation unit 15 may determine that there is no vehicle to be recommended for which monitoring by the monitor is required. Good. That is, in step S106, the recommendation unit 15 may determine whether or not there is a recommendation target vehicle that is required to be monitored by the monitor based on the monitoring priority determined in step S105.
  • ⁇ Circle around (2) ⁇ and provide the monitor control unit 17 with information for specifying the recommendation target vehicle or recommendation information including the absence of the recommendation target vehicle.
  • step S ⁇ b> 141 the input device 20 accepts an operation performed by the observer to switch the monitoring target.
  • This operation may be an operation based on a judgment made by the observer after visually confirming the information displayed by the display device 31 and examining which vehicle is to be monitored.
  • the input device 20 transmits operation information indicating the content of the received operation to the server device 10.
  • the operation information includes information indicating which vehicle among the vehicles M1 and the like has been switched to the monitoring target by the observer.
  • the operation information indicating that the operation has not been performed may be transmitted to the server device 10 or the operation information may not be transmitted.
  • step S107 the receiving unit 16 of the server device 10 receives the operation information transmitted by the input device 20 in step S141.
  • step S108 the monitoring control unit 17 determines a monitoring target by the monitor and generates monitoring information that can specify the monitoring target.
  • the monitoring control unit 17 determines the monitoring target based on the recommendation information provided by the recommendation unit 15 in step S106 and the operation information received by the reception unit 16.
  • the monitoring control unit 17 provides the generated monitoring information to the video management unit 18.
  • the monitoring control unit 17 determines in step S108 that the information indicates that the monitoring is unnecessary, the statistical information of the monitoring unnecessary time, Monitoring information including at least one of the proposals may be generated and provided to the video management unit 18.
  • the monitoring control unit 17 does not need to monitor, for example, the time from when the recommendation information indicating that the recommendation target vehicle does not exist to when the recommendation information including the information specifying the recommendation target vehicle is first acquired is obtained. It may be recorded as time.
  • step S109 the video management unit 18 generates presentation information to be presented to the observer based on the monitoring information provided from the monitoring control unit 17 in step S108.
  • step S110 the video management unit 18 transmits the presentation information generated in step S109 to the display device 30. That is, in steps S109 and S110, the video management unit 18 generates presentation information for monitoring the vehicle based on the monitoring priority, and transmits the generated presentation information to the display device 30.
  • step S131 the display device 30 receives the presentation information transmitted by the monitoring control unit 17 in step S109, and displays information on the monitored vehicle based on the presentation information. That is, the video management unit 18 causes the display device 30 to output the presentation information by transmitting the presentation information to the display device 30.
  • the priority is automatically changed in accordance with the time until the server device 10 reaches a high-risk point (that is, a point where traveling is difficult), and the like.
  • the vehicle to be monitored can be appropriately selected according to the time until it becomes difficult.
  • the video management unit 18 may cause the display device 30 to output the presentation information before the vehicle M1 reaches the second position.
  • FIG. 15 is a flowchart showing a process of determining the monitoring priority in the recommending unit 15 according to the present embodiment.
  • the processing shown in FIG. 15 shows the processing executed in step S105 shown in FIG. 14 in detail.
  • the recommendation unit 15 acquires vehicle information, operation information, first position information, and second position information. Specifically, the traveling risk calculation unit 15a of the recommendation unit 15 acquires the vehicle information from the vehicle management unit 12, and acquires the operation information from the operation management unit 14. In addition, the route risk calculation unit 15b of the recommendation unit 15 acquires the first position information and the second position information from the operation management unit 14.
  • the traveling risk calculator 15a calculates a traveling risk value of the vehicle based on the vehicle information and the operation information. Specifically, the traveling risk calculation unit 15a determines the priority of monitoring the vehicle based on the vehicle information and the operation information of the vehicle as the traveling risk value. That is, the traveling risk calculation unit 15a determines the degree of necessity of monitoring of the traveling of the vehicle by the supervisor based on the vehicle information and the operation information. The traveling risk calculation unit 15a determines a priority corresponding to the situation information detected in the vehicle from among a plurality of pieces of situation information included in the priority table T1 as a degree of need for monitoring in the vehicle.
  • the traveling risk calculation unit 15a sets a value obtained by adding a priority corresponding to the two or more pieces of situation information as a priority in traveling of the vehicle. decide.
  • the traveling risk calculation unit 15a detects “occurrence of the vehicle” and gives priority to the vehicle. The degree is determined to be “23”. Further, upon obtaining a call from a passenger of the vehicle, the recommendation unit 15 detects “call occurrence” and determines the priority of the vehicle to “18”. If the recommendation unit 15 determines that the vehicle is located near the railroad crossing from the vehicle position information and the geographical information, the recommendation unit 15 detects the “railroad crossing” and determines the priority of the vehicle to “4”. I do.
  • the degree of monitoring required by a monitor may be determined using the weight. For example, by multiplying the priority corresponding to the situation information by the weight corresponding to the situation information, the degree of need for monitoring by the monitor may be determined. That is, the degree of monitoring required by the monitor may be determined by calculation. In this case, a predetermined value is used as the weight.
  • the weight corresponding to each of the plurality of pieces of situation information may be sequentially determined according to the situation of the vehicle or the surroundings of the vehicle.
  • the weight may be determined according to information other than the status information corresponding to the weight.
  • the other information is, for example, in the situation information (for example, “crosswalk”) corresponding to the weight, the content of the other information (for example, the number of objects around the vehicle included in the vehicle information) by the monitor. This information changes the degree to which monitoring is required.
  • the other information is information that affects the degree of the situation information that needs to be monitored by the supervisor.
  • the situation information “crosswalk” (an example of the first situation information) changes the degree of monitoring required by the observer according to the number of objects around the vehicle, for example. For example, the greater the number of peripheral objects (for example, the number of people), the greater the danger of running the vehicle (for example, the higher the incidence of accidents). Therefore, the recommendation unit 15 may increase the value of the weight corresponding to “crosswalk” as the number of peripheral objects increases.
  • the other information is not limited to the vehicle information indicated by the number of peripheral objects, and is a plurality of pieces of status information other than the status information (an example of the second status information; for example, “sudden start” ), Operation information, or a combination thereof.
  • the recommendation unit 15 may increase the weight corresponding to “crosswalk” when “starting suddenly” is performed, compared to when not “starting suddenly”.
  • the plurality of pieces of status information include first status information (for example, “crosswalk”) and second status information (for example, “rapid start”) different from the first status information. Then, the weight corresponding to the first situation information may be determined according to at least one of the second situation information, the vehicle information, and the operation information.
  • first status information for example, “crosswalk”
  • second status information for example, “rapid start”
  • the weight corresponding to each of the plurality of pieces of status information may be determined in accordance with a time period during which the monitoring person has not responded (for example, does not monitor) since the status information was detected.
  • the weight corresponding to the situation information "call occurrence” is such that the supervisor did not respond to the call after the server device 10 acquired the call from the passenger of the vehicle. It may be determined according to the time (hereinafter, also referred to as unresponsive time). For example, it is considered that the longer the non-response time to “call occurrence” is, the higher the risk of running the vehicle is, and thus the higher the degree of monitoring required by the supervisor is. Therefore, the recommendation unit 15 may increase the value of the weight corresponding to “call occurrence” as the unhandled time for the call is longer.
  • the weights corresponding to the plurality of pieces of status information may be determined according to differences from the reference in the status information.
  • the weight corresponding to the situation information “time schedule deviation” is a time difference (for example, a delay from the operation plan) from a preset operation plan (an example of a reference in the situation information). Time).
  • the recommendation unit 15 may increase the value of the weight corresponding to “time schedule deviation” as the time difference from the operation plan is larger.
  • situation information “abnormal speed” (not shown) will be described.
  • the weight corresponding to the situation information “abnormal speed” may be determined according to a speed difference from a legal speed of the road on which the vehicle is traveling (an example of a reference in the situation information). For example, it is considered that the greater the speed difference from the legal speed, the greater the danger of running the vehicle, and the higher the degree of need for monitoring by the monitor. Therefore, the recommendation unit 15 may increase the value of the weight corresponding to “abnormal speed” as the speed difference from the legal speed is larger.
  • the legal speed is acquired based on, for example, the position information and the geographical information of the vehicle.
  • the route risk calculator 15b calculates a route risk value of the vehicle based on the first position information and the second position information.
  • the route risk calculation unit 15b sets the priority of monitoring the vehicle as a route risk value according to the movement information on the movement of the vehicle from the first position indicated by the first position information to the second position indicated by the second position information. decide. That is, the route risk calculating unit 15b determines the degree of necessity of monitoring by a monitor on the route of the vehicle based on the first position information and the second position information. For example, when the movement information is the arrival time, the route risk calculation unit 15b determines the priority to a higher value as the arrival time is shorter.
  • the route risk calculation unit 15b acquires the geographic information from the operation management unit 14, for example, and determines the priority on the route based on the priority of the second position included in the acquired geographic information and the arrival time. May be. For example, when the situation indicated by the two or more situation information has occurred at the second position, for example, when congestion has occurred at the junction, only one of the two has occurred. The priority may be determined to be higher than the case. That is, the route risk calculation unit 15b may determine the priority on the route according to the number of situations at the second position.
  • the second position may be a point where an object satisfying a predetermined condition such as an accident vehicle or an emergency vehicle is located.
  • the route risk calculation unit 15b may acquire the vehicle information from the vehicle management unit 12 and specify an object that satisfies the predetermined condition from the sensing data included in the acquired vehicle information. Then, the route risk calculation unit 15b may set the point where the specified object is located as the second position. For example, when calculating the route risk value of the vehicle M1, the route risk calculation unit 15b may specify the second position using the sensing data acquired from the vehicle M1, or the sensing data of the vehicles around the vehicle M1. May be used to specify the second position.
  • the integrated risk calculation unit 15c calculates an integrated risk value based on the traveling risk value and the route risk value as the monitoring priority. Specifically, the integrated risk calculating unit 15c calculates and integrates the priority calculated as the traveling risk value and the priority calculated as the route risk value, thereby changing the monitoring priority of the vehicle. decide. For example, the integrated risk calculation unit 15c may determine the monitoring priority by adding or multiplying the priority calculated as the traveling risk value and the priority calculated as the route risk value. The integrated risk calculation unit 15c may add or multiply after weighting at least one of the two priorities.
  • the recommendation unit 15 when there is a point on the route at a high risk of occurrence of a situation requiring a response, that is, when the second position is on the route, the recommendation unit 15 Time or distance (an example of movement information) is calculated, and the monitoring priority is changed according to the calculated arrival time or distance. That is, when there are a plurality of vehicles, the recommendation unit 15 determines the monitoring priority order based on the movement information.
  • the route risk calculation unit 15b may further acquire the degree of difficulty of traveling at the second position, and determine the priority of the vehicle on the route according to the acquired degree of difficulty and the arrival time.
  • the route risk calculation unit 15b may obtain the traveling difficulty by reading a table (not shown) in which the situation at the second position and the traveling difficulty are associated with each other from the operation DB 13.
  • the work information table T2 shown in FIG. 5 may include information on the degree of difficulty. Note that the longer the work time included in the work information table T2, the higher the difficulty level may be.
  • the route risk calculation unit 15b determines the priority to a higher value as the traveling difficulty is higher.
  • Driving difficulty indicates the degree of difficulty in traveling by automatic driving, and may include, for example, the degree of difficulty in different road conditions. For example, when it is necessary to make a detour or one-sided traffic in the construction, the traveling difficulty may be set high.
  • the route risk calculation unit 15b may further obtain work information related to monitoring work at the second position, and determine the priority of the vehicle on the route according to the obtained work information and movement information.
  • the route risk calculation unit 15b may determine the priority according to the arrival time and the work time. For example, the route risk calculating unit 15b may determine a higher priority as the arrival time is shorter or the working time is longer.
  • the route risk calculation unit 15b determines the priority to be a higher value as the difference between the arrival time and the work time (specifically, a value obtained by subtracting the work time from the arrival time, also referred to as the grace time) is shorter. You may.
  • the route risk calculation unit 15b weights the priority (for example, the priority obtained from the geographic information) corresponding to the situation of the second position according to the grace time, thereby changing the priority in the route. You may decide.
  • the route risk calculation unit 15b may output information indicating that the grace time is negative. Then, for example, when the grace time is negative, the recommendation target determination unit 15d may determine the vehicle as the recommendation target vehicle.
  • the route risk calculation unit 15b further obtains the degree of difficulty of traveling at the second position, and determines the priority according to the grace time, which is the difference between the arrival time and the work time, and the degree of difficulty. Good. For example, the route risk calculation unit 15b may determine the priority to be a higher value as the grace time is shorter or the difficulty is higher. The route risk calculation unit 15b weights the priority (for example, the priority obtained from the geographic information) corresponding to the situation of the second position according to the grace time and the difficulty level, thereby performing the route. May be determined.
  • the communication unit 11 or the vehicle management unit 12 is an example of a first acquisition unit that acquires first position information
  • the operation management unit 14 is an example of a second acquisition unit that acquires second position information.
  • FIG. 16 is a flowchart showing the processing of the monitoring control unit 17 according to the present embodiment.
  • the processing shown in FIG. 16 shows the processing executed in step S108 shown in FIG. 14 in detail.
  • step S301 the monitoring control unit 17 determines whether the receiving unit 16 has received operation information from the input device 20. If it is determined that the operation information has been received (Yes in Step S301), the process proceeds to Step S302, and if not (No in Step S301), Step S301 is executed again. That is, the monitoring control unit 17 waits in step S301 until receiving the operation information.
  • step S302 the monitoring control unit 17 acquires the content of the operation performed by the monitor based on the operation information received by the reception unit 16.
  • step S303 the monitoring control unit 17 determines whether an operation for switching the monitoring target has been performed. If it is determined that the operation has been performed (Yes in step S303), the process proceeds to step S321. If it is determined that the operation has not been performed (No in step S303), the process proceeds to step S304.
  • step S304 the monitoring control unit 17 determines whether the current operation mode is the automatic update mode. If the mode is the automatic update mode (Yes in step S304), the process proceeds to step S305; otherwise (No in step S304), the process proceeds to step S311.
  • step S305 the monitoring control unit 17 acquires the recommendation information provided by the recommendation unit 15 in step S106.
  • step S306 the monitoring control unit 17 determines whether or not the recommendation information includes information for specifying the vehicle to be recommended. If the recommendation information includes information specifying the recommendation target vehicle (Yes in S306), that is, if the recommendation unit 15 determines that the recommendation target vehicle exists, the process proceeds to step S307, otherwise (No in step S306). Proceeds to step S308.
  • step S307 the monitoring control unit 17 determines the recommended vehicle recommended by the recommendation information as the monitored vehicle.
  • step S308 the monitoring control unit 17 determines from the recommendation information that there is no monitoring target vehicle.
  • step S311 the monitoring control unit 17 determines to maintain the vehicle to be monitored at the present time.
  • step S321 the monitoring control unit 17 determines that the target vehicle of the switching operation performed by the monitor is a monitoring target vehicle.
  • step S309 the monitoring control unit 17 generates monitoring information indicating a monitoring target based on the determination in step S307, S308, S311 or S321.
  • step S309 a series of processing shown in FIG. 16 ends.
  • the monitoring information generated in step S309 is provided to the video management unit 18 and used for the processing in step S109.
  • the recommendation unit 15 may further recommend how to monitor the vehicle.
  • the “how to monitor the vehicle” includes, for example, monitoring at what speed the vehicle is traveling, what direction to watch from the vehicle, and the like.
  • the recommendation information includes not only information for specifying the vehicle but also information for specifying how to monitor the vehicle.
  • the video management unit 18 transmits the data corresponding to the monitoring method from the image data and the sensing data received by the communication unit 11 from the vehicle. Include it in the presentation information and present it to the supervisor. More specifically, when recommending which direction to watch from the vehicle as a vehicle monitoring method, the video management unit 18 uses a monitoring target among one or more cameras provided in the vehicle. An image acquired by a camera in a certain direction may be included in the presentation information.
  • FIG. 17 is a sequence diagram showing processing of the monitoring system 1 according to the present modification.
  • FIG. 17 illustrates the vehicles M1 and M2 as representatives of the vehicle M1 and the like, but similar processing is performed for other vehicles.
  • An example is shown in which the server device 10 acquires vehicle information and the like from the vehicles M1 and M2.
  • Steps S401 to S410 performed by the server device 10 are the same as steps S101 to S110 shown in FIG. 14, and a description thereof will be omitted.
  • Steps S421 to S423 performed by the vehicle M1 and steps S424 to S426 performed by the vehicle M2 are the same as steps S121 to S123 illustrated in FIG. 14, and a description thereof will be omitted.
  • Step S431 performed by the display device 30 is the same as step S131 illustrated in FIG. 14, and a description thereof will be omitted.
  • Step S441 performed by the input device 20 is the same as step S141 shown in FIG. 14, and a description thereof will be omitted. In the following, a description will be given assuming that the vehicle M1 has been determined as the monitoring target in step S408 from among the vehicles M1 and the like.
  • step S411 the server device 10 transmits to the vehicle M2 communication amount control information for controlling the amount of communication with the vehicle. That is, the server device 10 transmits the communication amount control information to the vehicle M2 not determined as the monitoring target in step S408.
  • the communication amount control information is information for reducing the communication amount between the vehicle M2 and the server device 10.
  • the traffic between the vehicle M2 and the server device 10 is controlled according to the monitoring priority.
  • the monitoring priority of the vehicle M2 is lower than the monitoring priority of the vehicle M1. Therefore, the server device 10 may generate the communication amount control information such that the communication amount between the vehicle M2 and the server device 10 is smaller than the communication amount between the vehicle M1 and the server device 10. Further, the server device 10 may generate the communication amount control information such that the communication amount between the vehicle M2 and the server device 10 is smaller after the monitoring target is determined than before the monitoring target is determined. Good.
  • the communication amount control information is transmitted to all the vehicles (other vehicles) other than the vehicle M1 in the plurality of vehicles M1 and the like.
  • the communication amount control information transmitted from another vehicle may be determined according to the monitoring priority of the vehicle.
  • a vehicle having a lower monitoring priority among other vehicles may be controlled to have a smaller communication amount than a vehicle having a higher monitoring priority among other vehicles.
  • the server device 10 may uniformly reduce the traffic of other vehicles.
  • step S427 the vehicle M2 receives the communication amount control information.
  • the vehicle M2 changes the communication amount with the server device 10 based on the received communication amount control information.
  • the vehicle M2 has a traffic volume of at least one of lowering the image quality of the image data transmitted from the vehicle M2, lowering the communication speed for transmitting the image data, and reducing the frame rate for capturing the image data. May be reduced.
  • the communication amount may be reduced by transmitting only image data captured by a predetermined camera to the server device 10.
  • the predetermined camera is, for example, a camera that is determined based on the moving route of the vehicle M2 and captures the traveling direction of the vehicle M2, for example.
  • step S411 may be performed by any component included in the server device 10.
  • the monitoring control unit 17 or the video management unit 18 may perform the processing in step S411.
  • the video management unit 18 may transmit the communication amount control information to the vehicle M2 via the communication unit 11.
  • the vehicle selected by the operation of the monitor is preferentially determined as the vehicle to be monitored in the vehicle selected by the operation of the monitor and the vehicle to be recommended by the recommendation unit.
  • the vehicle to be recommended may be determined as the vehicle to be monitored in preference to the vehicle selected by the operation by the monitor.
  • the monitoring control unit may give priority to the recommendation target vehicle and determine the recommendation target vehicle as the monitoring target vehicle.
  • the recommendation target determination unit of the recommendation unit determines the vehicle with the highest monitoring priority or the highest monitoring priority or the vehicle with the highest monitoring threshold as the recommendation target vehicle. It is not limited to this.
  • the recommendation unit may determine, for example, a vehicle in which predetermined situation information is detected among a plurality of pieces of situation information as a recommendation target vehicle. For example, the vehicle in which the situation information of “accident has occurred in own vehicle” may be determined as the recommendation target vehicle. Further, for example, the recommendation target determination unit may determine a vehicle whose grace time is detected to be equal to or shorter than a predetermined time as a recommendation target vehicle.
  • the recommendation unit may change the priority or the priority according to the status of the supervisor.
  • a description will be given of the “merging” shown in FIG. 5 as an example. It is assumed that the observer A has performed more countermeasures in the “merging” than the observer B in the past. In this case, the observer A can more smoothly deal with the “merging” than the observer B. Therefore, the work time of “merge” in the monitor A may be shorter than that of the monitor B.
  • the monitor control unit 17 may preferentially assign the monitor to the observer whose working time is short. Accordingly, when there are a plurality of observers, the observer who can smoothly deal with the situation information at the second position can monitor the vehicle.
  • the traveling risk calculation unit may add a value obtained by adding the priority corresponding to the two or more pieces of situation information.
  • the example in which the priority is determined as the traveling priority of the vehicle has been described, but the present invention is not limited to this.
  • the running risk calculation unit calculates statistical values such as an average value, a median value, a maximum value, and a minimum value of the two or more priorities corresponding to the two or more situation information in the priority (running risk value) in the running of the vehicle. May be determined.
  • the route risk calculation unit may calculate a value obtained by adding the priority corresponding to the two or more pieces of status information to the route of the vehicle.
  • the example in which the priority is determined as described above has been described.
  • the route risk calculation unit calculates statistical values such as an average value, a median value, a maximum value, and a minimum value of the two or more priorities corresponding to the two or more pieces of status information into the priority (route risk value) of the route of the vehicle. May be determined.
  • the priority in traveling and the priority in a route may be determined using, for example, a machine learning model.
  • a machine learning model learned using learning data is implemented inside the recommendation unit.
  • the recommendation unit may acquire, as the traveling priority, a priority output as a result of inputting the acquired vehicle information and operation information to the machine learning model as input data. Further, the recommendation unit may acquire, as the priority in the route, the priority output as a result of inputting the acquired first position information and the second position information as input data to the machine learning model.
  • the priority indicated by the priority table in the above-described embodiment and the like or the difficulty of traveling may be appropriately determined according to, for example, the surrounding situation at the second position.
  • the route risk calculation unit corrects the priority indicated by the priority table according to the number of peripheral objects (including, for example, pedestrians or bicycles) around the second position, or the type of the peripheral object, or The traveling difficulty may be determined.
  • the route risk calculation unit may increase the priority or the difficulty level as the number of peripheral objects around the second position increases.
  • a weight may be associated with each of the plurality of types of vehicle information.
  • a weight may be associated with each of the steering angle or the speed (an example of vehicle information). Then, the monitoring priority may be determined based on the weight.
  • the monitoring priority may be determined using not only the information of the monitoring target vehicle but also information of another vehicle.
  • the monitoring control unit obtains movement information of a vehicle different from the monitoring target vehicle, and the other vehicle is a destination of the monitoring target vehicle or moves toward a second position on a movement route. Is determined.
  • the monitoring control unit determines the monitoring priority to be higher than that in the other case.
  • the monitoring control unit determines the monitoring priority according to a difference between a time when another vehicle heading for the second position reaches the second position and a time when the vehicle to be monitored reaches the second position. May be.
  • another vehicle may be a monitoring target.
  • the communication method between the devices included in the monitoring system according to the above-described embodiment and the like is not particularly limited. Wireless communication or wired communication may be performed between the devices. In addition, wireless communication and wired communication may be combined between devices.
  • each processing unit for example, a vehicle management unit, an operation management unit, and a recommendation unit of the monitoring system according to the above-described embodiment and the like is typically realized as an LSI which is an integrated circuit. These may be individually integrated into one chip, or may be integrated into one chip so as to include some or all of them.
  • the integration into a circuit is not limited to an LSI, but may be realized by a dedicated circuit or a general-purpose processor.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the division of functional blocks in the block diagram is merely an example, and a plurality of functional blocks can be implemented as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be transferred to other functional blocks. You may. Also, the functions of a plurality of functional blocks having similar functions may be processed by a single piece of hardware or software in parallel or time division.
  • the server device is realized by a single device, but may be realized by a plurality of devices connected to each other.
  • the present disclosure is applicable to an information processing method for a monitor to monitor an operated vehicle.
  • monitoring system information processing system
  • Reference Signs List 10 server device
  • communication unit 11 communication unit
  • vehicle management unit 13 operation DB 14
  • Operation Management Department 15 Recommendation Department (Decision Department)
  • Driving risk calculating unit 15b
  • Route risk calculating unit 15c
  • Integrated risk calculating unit 15d Recommendation target determining unit 16
  • Receiving unit 17
  • Monitoring control unit 18
  • Video management unit (presentation control unit) 20
  • Input device 30, 31 Display device 32, 32a, 32b, 33 to 39 Image M1, M2,..., MN Vehicle N Network T1 Priority table T2 Work information table

Abstract

情報処理方法は、コンピュータを用いて、監視対象である車両の位置である第1位置を示す第1位置情報を取得し、車両に対する監視を要する位置である第2位置を示す第2位置情報を取得し、第1位置から第2位置までの車両による移動に関する移動情報に応じた車両についての監視優先度を決定し、監視優先度に基づいて車両の監視のための提示情報を生成し、提示情報を提示装置に出力させる。

Description

情報処理方法、及び、情報処理システム
 本開示は、情報処理方法、及び、情報処理システムに関する。
 無線LAN(Local Area Network)又は携帯電話回線等の無線通信を利用して、運転手が搭乗しない車両又は運転手が操作せず、自律的な走行が可能な車両を、遠隔地にいるオペレータが間接的に操作する遠隔操作システムがある。
 このような遠隔操作システムでは、車両に搭載されたミリ波レーダ、レーザーレーダ、カメラなど様々なセンサから車両周辺を観測して得られるセンシング結果を、車両(以降、被操作車両と記載)から通信手段を介してオペレータに伝える。オペレータは、伝えられたセンシング結果に基づいて、被操作車両の状態、及び、被操作車両の周辺の状態を把握し、被操作車両をどのように制御するかを判断し、車両の制御の方法を検討する。そして、オペレータは、車両の走行に関する制御信号を被操作車両に伝えることで、遠隔から被操作車両を制御する。
 例えば、特許文献1は、車両を遠隔操作すべきエリアである遠隔操作対象エリア内に存在する車両を遠隔操作する技術を開示している。これにより、オペレータは、遠隔操作対象エリアとして限定された範囲のみ車両を遠隔操作すればよく、連続して車両を遠隔操作する時間を短縮することができるので、オペレータの遠隔操作負担を低減することができる。
特開2017-147626号公報
 特許文献1のような従来技術では、オペレータによる被操作車両の操作に先立って、オペレータ又はオペレータとは別の操作を行わない監視者(以下、まとめて監視者とも記載)による被操作車両の監視が行われる。監視者は、いつ、どこで事故等の危険な状況が発生するかわからないため、できる限り全てのシーンを監視することが要求され、監視負担が大きい。そのため、監視者の監視負担を低減することが望まれる。しかし、特許文献1には、車両を遠隔操作するオペレータの負担を低減する発明は開示されているが、車両を遠隔監視する監視者の監視負担を低減する方法は開示されていない。
 そこで、本開示は、監視者の監視負担を低減することができる情報処理方法及び情報処理システムを提供する。
 本開示の一態様に係る情報処理方法は、コンピュータを用いて、監視対象である車両の位置である第1位置を示す第1位置情報を取得し、前記車両に対する監視を要する位置である第2位置を示す第2位置情報を取得し、前記第1位置から前記第2位置までの前記車両による移動に関する移動情報に応じた前記車両についての監視優先度を決定し、前記監視優先度に基づいて前記車両の監視のための提示情報を生成し、前記提示情報を提示装置に出力させる。
 また、本開示の一態様に係る情報処理システムは、コンピュータを用いて、監視対象である車両の位置である第1位置を示す第1位置情報を取得する第1取得部と、前記車両に対する監視を要する位置である第2位置を示す第2位置情報を取得する第2取得部と、前記第1位置から前記第2位置までの移動に関する移動情報に応じた前記車両についての監視優先度を決定する決定部と、前記監視優先度に基づいて前記車両の監視のための提示情報を生成し、前記提示情報を提示装置に出力させる提示制御部とを備える。
 また、本開示の一態様に係るプログラムは、上記の情報処理方法をコンピュータに実行させるためのプログラムである。
 なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 本開示の情報処理方法及び情報処理システムによれば、監視者の監視負担を低減することができる。
図1は、実施の形態に係る監視システムの構成を示すブロック図である。 図2は、実施の形態に係る監視ルームの一例の概観図である。 図3は、実施の形態に係るサーバ装置の機能構成を示すブロック図である。 図4は、実施の形態に係る運行DBが記憶する優先度テーブルの一例を示す図である。 図5は、実施の形態に係る運行DBが記憶する作業情報テーブルの一例を示す図である。 図6は、実施の形態に係る推薦部の機能構成を示すブロック図である。 図7は、実施の形態に係る提示情報の第一例を示す説明図である。 図8は、実施の形態に係る提示情報の第二例を示す説明図である。 図9は、実施の形態に係る提示情報の第三例を示す説明図である。 図10は、実施の形態に係る提示情報の第四例を示す説明図である。 図11は、実施の形態に係る提示情報の第五例を示す説明図である。 図12は、実施の形態に係る提示情報の第六例を示す説明図である。 図13は、実施の形態に係る提示情報の第七例を示す説明図である。 図14は、実施の形態に係る監視システムの処理を示すシーケンス図である。 図15は、実施の形態に係る推薦部における監視優先度を決定する処理を示すフロー図である。 図16は、実施の形態に係る監視制御部の処理を示すフロー図である。 図17は、実施の形態の変形例に係る監視システムの処理を示すシーケンス図である。
 本開示の一態様に係る情報処理方法は、コンピュータを用いて、監視対象である車両の位置である第1位置を示す第1位置情報を取得し、前記車両に対する監視を要する位置である第2位置を示す第2位置情報を取得し、前記第1位置から前記第2位置までの前記車両による移動に関する移動情報に応じた前記車両についての監視優先度を決定し、前記監視優先度に基づいて前記車両の監視のための提示情報を生成し、前記提示情報を提示装置に出力させる。
 これにより、監視者は、提示装置に出力された提示情報を確認することで、車両の監視を要するか否かを判断することができる。つまり、監視者は、車両を常に監視することなく、また車両の状況を詳細に分析することなく、監視を要するか否かを判断することができる。また、車両の走行環境は、位置に応じて異なり、車両の安全な走行に影響する。そのため、監視を要する位置と車両の位置との関係に応じた監視優先度に基づいて提示情報が提示されることにより、監視者は提示情報を監視の参考にすることができる。よって、本開示の一態様に係る情報処理方法によれば、監視者の監視負担を低減することができる。具体的には、全ての画像を監視することによる負担、及び、車両の監視の必要性を判断する負担を低減することができる。
 また、前記移動情報は、前記第1位置から前記第2位置までの到達時間、距離、及び、走行経路の少なくとも1つを含んでもよい。
 これにより、情報処理方法によれば、移動情報として、到達時間、距離、及び、走行経路の少なくとも1つを用いて監視優先度を決定することができる。そのため、情報処理方法によれば、車両が監視を要する位置に到達するまでの猶予に応じた監視優先度を決定することができる。よって、監視者は、当該監視優先度に基づいた提示情報を確認することで優先的に監視すべき車両を特定することができ、監視者の監視負担を低減することができる。なお、到達時間とは、第1位置から第2位置までの車両の移動に要する時間を意味する。
 また、前記移動情報は、前記到達時間を含み、前記到達時間に応じて前記監視優先度を決定してもよい。
 これにより、監視者は、到達時間に対応した提示情報を確認することで、結果的に監視を要するか否かを容易に判断することができる。つまり、監視者は、時間的観点で優先的に監視すべき車両を特定することができる。よって、監視者の監視を効率化することができ、監視者の監視負担をさらに低減することができる。
 また、さらに、前記第2位置における走行の困難度を取得し、前記困難度と前記到達時間とに応じて前記監視優先度を決定してもよい。
 これにより、監視者は、第2位置における走行の困難度がさらに考慮された提示情報を確認することで、第2位置の状況に応じて優先的に監視すべき車両をより正確に特定することができる。よって、監視者の監視負担をさらに低減することができる。
 また、前記第2位置は、地理的情報及び交通情報の少なくとも一方から特定される地点を含んでもよい。
 これにより、情報処理方法によれば、地理的情報又は交通情報が考慮された監視優先度を決定することができる。監視を要する度合いは、静的な地理的状況又は動的な交通状況に影響を受ける。そのため、地理的情報又は交通情報が考慮された監視優先度に基づいて提示情報が提示されることにより、監視者は提示情報を監視の参考にすることができる。例えば、地理的情報は道路の形状(例えば、交差点又はカーブ、合流、勾配、事故多発地点など)などを含み、交通情報は動的道路状況(例えば、渋滞情報など)を含む。つまり、監視者は、結果として、第2位置における静的な情報、及び、第2位置における動的な情報の少なくとも一方に応じて、優先的に監視すべき車両をより適切に判断することができる。よって、監視者の監視負担をさらに低減することができる。
 また、前記第2位置は、人が乗車又は降車する地点を含んでもよい。
 これにより、車両の走行経路上において人と接触する危険がある地点(例えば、バス停、又は自車両において乗車又は降車する地点)までの移動情報を考慮した提示情報が生成される。監視者は、当該提示情報を確認することで、結果として、人と接触する危険がある地点までの移動情報を考慮して、優先的に監視すべき車両を判断することができる。よって、監視者の監視負担をさらに低減することができる。
 また、前記第2位置は、所定条件を満たす物体が位置する地点を含んでもよい。
 これにより、情報処理方法によれば、所定条件を満たす物体との位置関係に応じた監視優先度を決定することができる。監視を要する度合いは、地理的状況又は交通状況だけでなく、位置する物体の態様に影響を受ける。そのため、所定条件を満たす物体の位置が考慮された提示情報が提示されることにより、監視者は提示情報を監視の参考にすることができる。よって、監視者の監視負担をさらに低減することができる。
 また、前記所定条件は、前記物体が前記車両の走行を妨げる可能性を有していることを含み、前記車両又は当該車両の周辺の車両のセンシングデータから、前記物体を特定してもよい。
 これにより、提示装置は、車両の走行を妨げる可能性がある物体の位置が考慮された提示情報を提示することができる。車両の走行を妨げる可能性がある物体の周辺では車両の監視を要する度合いが高くなりやすい。そのため、当該提示情報が提示されることにより、監視者は提示情報を監視の参考にすることができる。例えば、車両の走行を妨げる可能性がある物体は、他の車両よりも優先して走行が許可されている車両(例えば緊急車両)、移動困難である車両(例えば事故車両)、走行規則に違反している車両(例えば暴走車両)、車両のセンシングを妨げる可能性がある車両(例えば大型車両)、特殊な形態の車両(例えば特殊作業車両)などがある。
 また、さらに、前記第2位置における走行の困難度に応じた監視者の作業に関する作業情報を取得し、前記移動情報と前記作業情報とに応じて前記監視優先度を決定してもよい。
 これにより、監視者は、作業情報がさらに考慮された提示情報を確認することで、結果的に車両の監視を要するか否かを判断することができる。つまり、監視者は、車両の監視のための作業の観点も加えて優先的に監視すべき車両を特定することができる。よって、監視者の監視を効率化することができ、監視者の監視負担をさらに低減することができる。
 また、前記作業情報は、前記車両に対する監視にかかる作業時間及び前記車両に対する操作にかかる作業時間の少なくとも一方を含み、前記移動情報は、前記到達時間を含み、前記到達時間と前記作業時間とに応じて前記監視優先度を決定してもよい。
 これにより、監視者は、到達時間と作業時間とが考慮された提示情報を確認することで、結果的に車両の監視を要するか否かを判断することができる。つまり、監視者は、車両が現在地から第2位置に到着して監視又は操作が完了するまでのトータルの時間の観点で優先的に監視すべき車両を特定することができる。例えば、第2位置に到達するまでに監視又は操作に要する時間を確保しての監視が可能となる。よって、監視者の監視負担をさらに低減することができる。
 また、さらに、前記第2位置における走行の困難度を取得し、前記到達時間と前記作業時間との差分、及び、前記困難度に応じて前記監視優先度を決定してもよい。
 これにより、監視者は、到達時間と作業時間との差分、及び、第2位置における走行の困難度がさらに考慮された提示情報を確認することで、結果的に車両の監視が必要であるか否かを判断することができる。よって、さらに監視者の監視負担を低減することができる。
 また、複数の前記車両のそれぞれから前記第1位置情報を取得し、複数の前記車両のそれぞれに対する監視を要する位置である第2位置を示す前記第2位置情報を取得し、複数の前記車両それぞれについて前記第1位置情報及び前記第2位置情報を用いて監視優先度を決定し、前記提示情報は、複数の前記車両それぞれについての監視優先度の高さに応じて特定される車両の監視のための情報を含んでもよい。
 これにより、監視者は、提示装置に出力された提示情報を確認することで、複数の車両のうち監視が必要である車両を知ることができる。つまり、監視者は、複数の車両の全てを常に監視することなく、また複数の車両の全ての状況を詳細に分析することなく、監視を要する車両を知ることができる。よって、監視対象の車両が複数である場合は、監視者の監視負担の低減効果を、より一層享受することができる。また、一人の監視者が複数の車両を監視することで、車両の台数より少ない人数での複数の車両の監視が可能となり、監視にかかる人件費及び設備費などのコストを低減することができる。
 また、前記提示情報は、前記特定される車両を監視対象として示す情報を含んでもよい。
 これにより、提示装置は、複数の車両のうち、監視者による監視を要する車両の情報を提示する。つまり、監視を要する車両が直接的に示される。よって、監視者は監視を要する車両を容易に特定できるので、監視者の監視負担をさらに低減することができる。
 また、前記提示情報は、複数の前記車両のうち監視優先度の高さに応じて特定される車両の監視のための情報を前記特定される車両以外の他の車両の監視のための情報より強調して提示する情報を含んでもよい。
 これにより、監視者は、提示装置に複数の車両の情報が提示されている場合であっても、その中で注目すべき車両の情報を容易に知ることができる。例えば、複数の車両の画像が監視優先度に応じた大きさでそれぞれ表示されている場合、画像の大きさにより視覚的に注目すべき車両を知ることができる。よって、複数の車両の情報が提示装置に提示されている場合であっても、監視者の監視負担を低減することができる。なお、注目すべき車両とは、監視優先度が高い車両を意味する。
 また、前記第1位置情報の取得では、前記第1位置情報を前記車両との通信により取得し、前記情報処理方法は、さらに前記通信の通信量を前記監視優先度に応じて制御してもよい。
 これにより、監視優先度に応じて車両との通信を適正化することができる。例えば、監視優先度が低い車両との間の通信量、通信回数、通信頻度、通信時間などを減らすことができる。よって、車両との間のネットワーク帯域の使用を監視優先度に応じて抑制しつつ、監視者の監視負担を低減することができる。
 また、前記車両が前記第2位置に到達する前に、前記提示情報を前記提示装置に出力させてもよい。
 これにより、監視者は監視を要するタイミングが到来する前に監視を要するであろう車両を把握することができる。
 また、本開示の一態様に係る情報処理システムは、コンピュータを用いて、監視対象である車両の位置である第1位置を示す第1位置情報を取得する第1取得部と、前記車両に対する監視を要する位置である第2位置を示す第2位置情報を取得する第2取得部と、前記第1位置から前記第2位置までの移動に関する移動情報に応じた前記車両についての監視優先度を決定する決定部と、前記監視優先度に基づいて前記車両の監視のための提示情報を生成し、前記提示情報を提示装置に出力させる提示制御部とを備える。
 これにより、上記情報処理方法と同様の効果を奏する。
 なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 以下、実施の形態について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態)
 本実施の形態の情報処理方法等について、図1~図16を参照しながら説明する。
 遠隔監視システム(以下、単に監視システムとも記載)は、被監視車両から通信手段を介してセンシング結果を取得し監視者に伝える。監視者は、伝えられたセンシング結果に基づいて、被監視車両の状態、及び、被監視車両の周辺の状態を把握し、被監視車両に対してオペレータによる介入が必要なのかを判断する。なお、監視者は、オペレータが間接的に操縦する方法を含めて適切な介入方法を検討してもよい。そして、監視者は、被監視車両の自律的な走行が困難と判断した場合、オペレータに遠隔操作を依頼する。オペレータは、車両の走行に関する制御信号を被監視車両(すなわち被操作車両)に伝えることで、遠隔から被監視車両を制御する。なお、オペレータが監視者である場合は、オペレータは監視からそのまま操作に移行してよい。
 [監視システムの構成]
 まず、本実施の形態に係る情報処理方法を実行するサーバ装置を備える監視システムについて、図1~図13を参照しながら説明する。
 図1は、本実施の形態に係る監視システム1の構成を示すブロック図である。図2は、本実施の形態に係る監視ルームの一例の概観図である。
 図1に示される監視システム1は、被操作車両となり得る車両M1、M2、…、MNを監視するための情報処理システムである。以降において車両M1、M2、…、MNを、「車両M1等」ともいう。図2に示される監視ルームは、監視者が車両M1等を監視するための部屋である。監視ルームにおいて、車両M1等から得られる情報及び車両M1等の監視のための情報が監視者に提示され、監視者による監視のための操作がなされ得る。なお、監視者による監視のための操作に加えて、被操作車両の遠隔操作のための操作がなされてもよい。なお、監視者は、被操作車両を操作するオペレータであってもよいし、オペレータとは別の人であってもよい。また、監視システム1は複数の車両M1等を監視する情報処理システムである例について説明するが、監視システム1が監視する車両の数は特に限定されない。例えば、監視システム1は、1つの車両を監視する情報処理システムであってもよい。
 図1に示されるように監視システム1は、サーバ装置10と、入力装置20と、表示装置30とを備える。
 サーバ装置10は、監視者による監視に関する決定をする処理装置である。具体的には、サーバ装置10は、入力装置20に入力される内容と、車両M1等から得られる車両情報とを用いた、コンピュータによる情報処理により、監視に関する決定をする。本開示では、サーバ装置10が車両M1等から取得した車両情報に含まれる当該車両M1等の位置情報(第1位置情報の一例)を用いて車両M1等それぞれについて監視の優先度合いを示す監視優先度を決定し、当該監視優先度に基づく車両M1等の監視のための提示情報を生成及び出力する点に特徴を有する。詳細は、後述する。
 サーバ装置10は、ネットワークNに通信可能に接続され得る場所に設置され、その物理的な位置はどこであってもよい。一例として、サーバ装置10が、監視ルームの内部又は近傍に配置されていれば、入力装置20及び表示装置30との通信が短時間でなされ得る利点がある。
 入力装置20は、監視者による操作が入力される入力装置である。入力装置20は、サーバ装置10に接続されたキーボード、マウス又はタッチパネルなどであってもよいし、押下又は接触などにより操作可能なボタンなどであってもよい。入力装置20は、入力された操作に関する情報をサーバ装置10に提供する。入力装置20は、監視ルームに設置されている。サーバ装置10が遠隔地に配置されている場合、入力装置20とサーバ装置10とは、ネットワークを介して接続されていてもよい。
 表示装置30は、サーバ装置10から提示情報を取得し、提示情報を画像として出力する装置である。画像は、写真、イラスト又は文字等を含む。表示装置30は、液晶ディスプレイ等である。表示装置30が出力した画像は監視者によって視認され、監視者が車両を監視するか否か、監視者がどの車両を監視するか、又は、車両をどのように監視するか等を決定する際に用いられる。なお、表示装置30は、提示装置の一例である。監視システム1は、表示装置30とともに、又は、表示装置30に代えて、音を出力する装置を提示装置として備えてもよい。表示装置30は、監視ルームに設置されている。サーバ装置10が遠隔地に配置されている場合、表示装置30とサーバ装置10とは、ネットワークを介して接続されていてもよい。
 車両M1は、人が搭乗している、又は、搭乗していない、車両であり、例えば自動運転車両である。車両M1は、監視者による監視の対象となり得る車両である。車両M1は、監視ルームとは異なる外部の空間、例えば道路又は駐車場等に存在している。
 車両M1は、通信インタフェースを備えており、通信によってネットワークNに接続され、ネットワークNを介してサーバ装置10に通信可能に接続されている。車両M1は、車両M1の周囲を撮影する1以上のカメラ、並びに、車両M1の位置、速度、加速度、ジャーク(加加速度)、操舵角、燃料又はバッテリの残量、方向指示器の作動状態、ABS(Anti-lock Braking System)又はAEB(Automatic Emergency Braking)の作動状態、周辺物体の位置、周辺物体の有無、数及び種類、周辺物体との距離、速度差、及び、加速度差などを検知する複数のセンサを備えている。車両M1は、1以上のカメラが撮影により生成した画像データ、並びに、複数のセンサが取得した車両M1の位置等及び周辺物体の位置等のセンシングデータを含む情報を通信インタフェース及びネットワークNを介してサーバ装置10に送信する。なお、車両M1が送信する上記情報を車両情報ともいう。車両情報として送信される上述した様々な情報を車両情報の種類とも称する。つまり、車両情報自体は、複数種類あってもよい。なお、車両M1は、必要に応じて、監視者によりネットワークNを介して加減速の制御、及び、操舵角の制御などがなされ得る。監視者によるこのような制御を遠隔操作ともいう。
 車両情報には、複数のセンサが動作しているか否かを示す死活情報又は車両M1自体のシステムエラーに関する情報などのエラー情報、並びに、車両M1の搭乗者から監視者を呼び出す呼出情報などがさらに含まれていてもよい。また、車両M1が地図情報を記憶している場合、車両情報には、当該車両M1が走行する位置における法定速度、当該車両M1の車線に対する位置関係を示す情報、又は、当該車両M1が設定した移動経路に関する情報がさらに含まれていてもよい。
 また、車両情報のうち、上述の車両M1の位置等の情報、エラー情報、呼び出し情報、法定速度、車線に対する位置関係を示す情報、移動経路などは、当該車両M1の走行状態を示す情報の一例であり、周辺物体の有無等の情報などは、当該車両M1の外部状態を示す情報の一例である。なお、車両情報には、少なくとも車両M1の位置を示す情報が含まれていればよい。なお、車両M1の位置は、第1位置の一例であり、当該第1位置を示す情報は第1位置情報の一例である。第1位置は、例えば、車両M1の現在位置を意味する。
 また、車両M1は、センサとして、さらに、車両M1周囲の音声を集音する収音装置(図示しない)を備えていてもよい。収音装置は、例えば、マイクロフォンを有する。マイクロフォンで収音した車両M1の周囲の音声(例えば、サイレンの音)から、当該車両M1の周囲を走行している、又は、停止している緊急車両(例えば、救急車、消防車、又は、パトカーなど)を検知してもよい。なお、緊急車両は、所定条件を満たす物体の一例であり、所定条件は、車両M1の走行を妨げる可能性を有していることを含み、ここでは緊急車両が一般車両より優先して走行することである。また、緊急車両は、収音装置により検知されることに限定されず、例えば1以上のカメラで撮像された画像の画像解析により検知されてもよい。
 また、1以上のカメラが撮影した画像又は複数のセンサにより取得されたセンシングデータから、走行困難である車両(例えば、事故車両、又は、トラブルにより停止している車両)が特定されてもよい。なお、走行困難である車両は、所定条件を満たす物体の一例であり、所定条件は、車両M1の走行を妨げる可能性を有していることを含み、ここでは自車両以外の車両の移動が困難であることである。
 上記の所定条件を満たす物体の特定は、車両M1等で行われてもよい。この場合、車両情報には、所定条件を満たす物体の種類、位置、及び、速度などの情報が含まれていてもよい。なお、所定条件を満たす物体が位置する地点は、車両M1等に対する監視者による監視を要する位置である第2位置の一例である。また、上記の所定条件を満たす物体の検知は、サーバ装置10で行われてよい。この場合、車両情報には、センシングデータに音声情報などが含まれていてもよい。また、所定条件は、車両M1の走行に影響を及ぼす可能性があれば、上記以外であってもよい。例えば、所定条件は、所定の速度以上で走行することであってもよい。この場合、所定条件を満たす物体は、危険な走行をする危険車両であってもよい。
 以上のように、第2位置は、センシングデータから特定される位置であってもよい。なお、詳細は後述するが、第2位置は、例えば、地理的情報及び交通情報の少なくとも一方から特定される地点であってもよい。第2位置は、例えば、踏切、横断、合流、分流、カーブ、坂道の頂点の地点を含んでいてもよい。また、第2位置は、車両が誤停止する地点、人が乗車又は降車する地点、ステーションの地点を含んでいてもよい。ステーションとは、車両に燃料等を補給する、又は、バッテリを充電する施設である。なお、第2位置は、車両の走行経路上の地点である。
 車両M2~MNは、それぞれ、車両M1と同様の車両であり、車両M1とは独立に移動する。また、車両M2~MNは、それぞれ、自装置が生成した画像データ及びセンシングデータを車両M1と同様にサーバ装置10に送信する。
 ネットワークNは、サーバ装置10及び車両M1等それぞれが接続される通信ネットワークである。ネットワークNの通信規格又は通信方式は、例えば、携帯電話網、衛星通信網、Wi-fiなどを利用した広域通信網などであるが、これらに限定されない。車両M1等と接続する部分は無線である。
 監視ルームには、入力装置20及び表示装置30が配置されている。入力装置20及び表示装置30は、それぞれ監視者による入力及び視認が容易である位置に配置されている。例えば、入力装置20及び表示装置30は、監視者が着席する椅子の前方の机の上に配置されている。また、監視ルーム全体から視認され得る位置に、車両M1等が取得した画像データ、及び、車両M1の位置などを示す地図などの画像を表示する表示装置31が配置されている。例えば、表示装置31には、被操作車両となり得る車両M1、M2、…、MNの全ての車両M1等から取得した画像データに基づく画像などが表示される。表示装置31は、例えば、サーバ装置10と接続されており、サーバ装置10から送信された全車両の分の画像を表示する。表示した画像は、監視者により視認される。
 監視者は、複数人存在し得るが、監視者の人数は、車両M1等の台数より少なくてもよい。監視者は、常に車両M1等のすべてを監視しているわけではなく、監視が必要であると判断される車両だけを選択して監視しており、その他の車両を監視しないことが想定される。このようにすることで、監視のための必要人員を削減し、かつ、監視を要する車両を集中して監視者が監視できる利点がある。監視が必要であると判断されるのは、例えば、車両が危険な位置にある場合、車両が危険な状態にある場合、車両が危険な位置に近づいている、又は、車両が危険な状態になると予測される場合などである。なお、監視者は、1人であってもよいし、監視者の人数は車両M1等の台数と同じであってもよい。
 監視者は、表示装置30により提示される画像を視認して、車両M1等のうちのどの車両を監視するか、又は、車両をどのように監視するか等を決定する。そして、監視者は、監視対象の車両、又は、監視方法を、入力装置20を介してサーバ装置10に入力する。例えば、表示装置30には、被操作車両となり得る車両M1、M2、…、MNのうち、監視者の監視対象である車両の画像、又は、監視する車両を選択するための画像などが提示される。
 以降では、サーバ装置10が、どの車両を監視の対象とするかを監視者に推薦するための情報を生成する処理について詳しく説明する。この場合、監視者は、表示装置30により提示される情報に基づいて、どの車両を監視するかを決定する。サーバ装置10により推薦される監視の対象が適切であれば、監視者が車両M1等のうちから監視の対象を探す作業の負担が軽減され得る。
 図3は、本実施の形態に係るサーバ装置10の機能構成を示すブロック図である。
 図3に示されるように、サーバ装置10は、通信部11と、車両管理部12と、運行DB(データベース)13と、運行管理部14と、推薦部15と、受信部16と、監視制御部17と、映像管理部18とを備える。
 通信部11は、ネットワークNに接続され、ネットワークNを介して車両M1等と通信可能に接続される通信インタフェースである。通信部11は、車両M1等から車両情報を取得する。
 車両管理部12は、車両M1等の管理を行う処理部である。車両管理部12は、車両M1等が送信した車両情報を取得し、取得した車両情報に基づいて車両M1等のそれぞれの位置、速度、走行状態などを管理する。
 運行DB13は、車両M1等の運行のための情報を記憶しているデータベースである。運行DB13は、車両M1等の運行のための情報として、地図、交通及び運行計画の情報を保有している。運行計画とは、車両M1等の走行が予定される移動経路を示す情報、及び、走行中の各時点における車両M1等の経路上の予定される位置を示す情報を含む。
 地図情報は、地形、道路の配置に関する情報、及び、道路付帯要素の位置情報(例えば、経路及び緯度によって特定される位置)などの地理的情報を含む。道路付帯要素には、道路上に表示されて走行路の幅方向を区画する区画線(車道中央線、車線境界線、車道外側線等)や道路近傍の構造物(信号機、道路標識、ガードレール等)などが含まれる。
 地理的情報は、地図上の位置情報に付随して蓄積された走行上の統計的なリスク情報(例えば、事故又はヒヤリハットの履歴情報)を含んでいてもよい。また、地理的情報は、地図形状(例えば、道路形状)に基づくリスク情報(例えば、交差点、又は、カーブなど)を含んでいてもよい。ここでの地理的情報は、いわゆる静的な情報が含まれる。また、地理的情報は、さらに、人が乗車又は降車する地点を含んでいてもよい。地理的情報は、例えば、バス停などが位置する地点、又は、自車両の目的地の地点などの情報を含んでいてもよい。地図上における、走行若しくは地図形状に基づくリスクが存在する地点、又は、人が乗車又は降車する地点は、第2位置の一例である。また、さらに、地理的情報には、第2位置におけるリスク値に関する情報が含まれる。地理的情報は、例えば、第2位置における監視の優先度合いを示す優先度を含んでいてもよい。
 交通情報は、地図上の渋滞情報又はイベント情報などを含む。イベント情報は、祭り又は運動会などの行事に関する情報、付近の学校の通学帰宅時間であるなどの時間に関する情報、交通規制などの走行に関する情報が含まれてもよい。ここでの交通情報は、時々刻々と又はリアルタイムに代わり得る動的な情報が含まれる。
 サーバ装置10は、当該サーバ装置10の外部の装置から、上記の地理的情報及び交通情報を取得し、取得した情報を運行DB13に記憶してもよい。
 また、運行DB13は、車両情報に基づく車両M1等の複数の状況情報と、当該複数の状況情報における車両M1等に対する監視者による監視を要する度合いとが関係付けられたテーブル(優先度テーブル)を記憶している。また、運行DB13は、複数の状況情報と当該複数の状況情報における車両M1等に対する監視にかかる時間(作業時間ともいう)とが関係づけられたテーブル(作業情報テーブル)を記憶している。
 ここで、運行DB13が記憶している各種テーブルについて、図4及び図5を参照しながら説明する。なお、運行DB13は、以下に記載する優先度テーブルT1及び作業情報テーブルT2のうち、少なくとも作業情報テーブルT2を記憶していればよい。
 図4は、本実施の形態に係る運行DB13が記憶する優先度テーブルT1の一例を示す図である。
 図4に示されるように、優先度テーブルT1は、優先度と車両の状況情報とが対応付けられたテーブルである。優先度テーブルT1には、車両の状況情報が複数設定されており、当該車両の状況情報ごとに優先度が設定されている。
 ここで、優先度は、車両に対する監視者による監視を要する度合いに応じた数値であり、例えば、数値が高いほど監視者による監視を要する度合いが高いことを示す。つまり、優先度は、自動運転による走行に支障がでる度合いに応じた数値であり、自動運転又は自動運転を継続することによるリスクの大きさを示す。優先度は、車両情報に基づく数値である。
 車両の状況情報は、車両情報に基づく車両の状況を示す情報であってもよい。例えば、「自車両の事故発生」は、走行状態、画像、及び、加速度などに基づいて判定される、車両の状況を示す情報である。例えば、画像において自車両と自車両周辺の物体とが接触している場合に、「自車両の事故発生」が検知される。また、例えば、「急発進」は、画像、及び、加速度などに基づいて判定される、車両の状況を示す情報である。例えば、車両が停止している状態から動き始めたときにおける所定期間内の加速度が所定値以上である場合に、「急発進」が検出される。
 また、車両の状況情報は、車両情報に加えて、車両の移動経路を含む運行計画に基づく情報であってもよい。例えば、「タイムスケジュールずれ」は、車両情報に含まれる車両の位置情報、及び、運行計画などに基づいて判定される、車両の状況を示す情報である。例えば、現在の車両の位置が運行計画に含まれる当該車両の現在の予定位置から所定距離以上離れている場合に、「タイムスケジュールずれ」が検出される。また、例えば、「踏切」は、車両情報に含まれる車両の位置情報、及び、地理的情報などに基づいて判定される、車両の状況を示す情報である。例えば、現在の車両の位置が踏切から所定範囲内である場合に、「踏切」が検出される。なお、状況情報の検出は、推薦部15により行われる。
 図4に示される、「自車両で事故発生」から「タイムスケジュールずれ」までの5つの状況情報(以降において、危険情報ともいう)は、車両が危険な状況であることを示すための情報であり、「踏切」から「自車両に起因する渋滞発生」までの2つの状況情報(以降において、注意情報ともいう)は、車両がこれから危険な状況となる可能性があることを示すための情報である。注意情報は、車両の走行に問題が発生しているわけではなく、自動運転での走行が可能な状況である。
 なお、図4に示される優先度は、状況情報に応じた重み(係数)で重み付けされた値であってもよい。例えば、「自車両で事故発生」は、すぐにでも監視者による監視を必要としている状況であり、重みの値が高いので、優先度が高く設定される。一方、「タイムスケジュールずれ」は、「自車両で事故発生」よりも監視を必要としていない状況であり重みの値が低いので、優先度が低く設定される。具体的には、優先度は、車両情報に基づく車両の状況を示す複数の状況情報それぞれに対応する、監視者による監視を要する度合いと、複数の状況情報それぞれに対応する重みとに基づいて設定されてもよい。重みは、例えば、複数の状況情報ごとの発生しうる事故の重大さ又は事故の発生率などに応じて決定されてもよい。なお、事故の発生率とは、車両の状況(例えば、「自車両に起因する渋滞発生」)を放置すると、監視者が対処しないといけない事象(例えば、事故など)が発生する確率である。
 図5は、本実施の形態に係る運行DB13が記憶する作業情報テーブルT2の一例を示す図である。
 図5に示されるように、作業情報テーブルT2は、作業時間と車両の状況情報とが対応付けられたテーブルである。作業情報テーブルT2には、車両の状況情報が複数設定されており、当該車両の状況情報ごとに作業時間が設定されている。作業情報テーブルT2に設定される車両の状況情報の種類は、例えば、地理的情報又は交通情報などから取得され得る状況を示しており、優先度テーブルT1に設定されている車両の状況情報と少なくとも一部が同じであってもよい。車両M1等の走行経路上において図5に示される状況情報が示す状況に該当する位置が、第2位置となる。
 作業時間は、状況情報ごとの走行の困難度に応じた監視者の作業に関する作業情報の一例であり、監視者が状況判断にかかる時間、及び、監視者が対応にかかる時間の少なくとも一方を含む。監視者が状況判断にかかる時間は、例えば、監視者が車両により撮影された画像を確認してから当該車両の周囲の状況を判断するまでに要する時間である。監視者が状況判断にかかる時間は、例えば、車両の前方の横断歩道にいる人の動作を把握するのに要する時間である。また、監視者が対応にかかる時間は、例えば、車両を緊急停止させる、又は、車両を路肩の停止させるまでに要する時間である。例えば、車両を緊急停止させることより車両を路肩に停止させることの方が操作が複雑で有り、時間を要する。図5では、作業時間が長いほど走行の困難度が高い例を示しているが、これに限定されない。
 なお、作業情報テーブルT2は、複数の監視者ごとに設定されてもよい。これにより、監視者ごとの作業時間に応じた監視優先度を決定することができる。また、作業情報テーブルT2は、作業時間を含む例について説明したが、作業量、又は、作業難易度を含んでいてもよい。つまり、作業情報テーブルT2は、作業時間、作業量、及び、作業難易度の少なくとも1つと状況情報とが対応付けられたテーブルであればよい。
 図3を再び参照して、運行管理部14は、車両M1等の運行を管理する処理部である。運行管理部14は、運行DB13から車両M1等の運行計画などの情報を取得し、車両M1等の移動経路などを含む指示情報を車両M1等に送信する。また、運行管理部14は、車両M1等の運行が運行計画に対してどの程度遅延しているか等を含む運行情報を決定する。また、運行管理部14は、運行DB13から地理的情報及び交通情報の少なくとも一方を取得し、取得した地理的情報及び交通情報の少なくとも一方を推薦部15に提示する。
 推薦部15は、監視者による監視の対象となる車両を監視者に推薦するための情報を生成する処理部である。推薦部15は、車両M1等が送信した車両情報を車両管理部12から取得し、車両M1等の運行に関する運行情報、及び、地理的情報及び交通情報の少なくとも一方を運行管理部14から取得する。そして、推薦部15は、取得した車両情報、運行情報、並びに、地理的情報及び交通情報の少なくとも一方に基づいて、監視者による監視の対象となる車両を監視者に推薦するための推薦情報を生成する。推薦情報は、監視の推薦対象である車両を特定する情報を含む。推薦情報は、例えば、他の車両と比較して当該車両を優先して監視すべき度合いを示す監視優先度により示される。また、推薦情報は、車両ごとに監視の対象とされることが推奨される度合いを示す監視推薦度であってもよい。なお、推薦部15は、少なくとも車両情報に基づいて、監視優先度を決定すればよい。
 また、推薦部15は、監視者による監視の対象となる車両が存在しない場合(例えば、上記の監視優先度が所定の閾値以上である車両が存在しない場合)、監視不要を示す情報を生成してもよい。監視不要を示す情報は、推薦情報に含まれる。なお、推薦部15は、決定部の一例である。
 ここで、推薦部15の詳細について、さらに図6を参照しながら説明する。
 図6は、本実施の形態に係る推薦部15の機能構成を示すブロック図である。
 図6に示されるように、推薦部15は、走行リスク算出部15aと、経路リスク算出部15bと、統合リスク算出部15cと、推薦対象決定部15dとを有する。
 走行リスク算出部15aは、車両情報及び運行情報の少なくとも一方から車両M1等の走行リスク値を算出する処理部である。走行リスク算出部15aは、車両管理部12から取得した車両情報、及び、運行管理部14から取得した運行情報の少なくとも一方に基づいて、走行リスク値を算出する。走行リスク値は、車両M1の走行における監視者の監視を要する度合いを示しており、本実施の形態では優先度として算出される。
 走行リスク算出部15aは、上記の情報に基づく車両M1等の走行における状況と、図4に示す優先度とに基づいて、当該車両M1等における走行リスク値を算出する。
 経路リスク算出部15bは、位置に基づく情報と地理的情報及び交通情報の少なくとも一方とに基づいて、車両M1の経路上のリスク値である経路リスク値を算出する処理部である。経路リスク算出部15bは、車両M1等の位置情報(第1位置情報の一例)と地理的情報及び交通情報の少なくとも一方(第2位置情報の一例)とから車両M1等の経路リスク値を算出する。経路リスク算出部15bは、運行管理部14から取得した第1位置情報が示す第1位置と、地理的情報及び交通情報の少なくとも一方から特定される地点である第2位置とに応じて、経路リスク値を算出する。経路リスク算出部15bは、第1位置から第2位置までの車両M1等の移動に関する移動情報(位置に基づく情報の一例)に応じた経路リスク値を算出する。移動情報は、第1位置及び第2位置から得られる情報であり、例えば、第1位置から第2位置までの到達時間、距離、及び、走行経路の少なくとも1つを含む。以下において、移動情報は、到達時間を含む例について説明する。経路リスク値は、車両M1の走行経路における監視者の監視を要する度合いを示しており、本実施の形態では到達時間に基づいて算出される。なお、本明細書における到達時間は、第1位置から第2位置までの車両M1の移動に要する時間を意味し、第1位置から第2位置までの走行経路上の距離、及び、自車両の速度などから算出される。また、第2位置が所定の物体(例えば、後述する所定条件を満たす)が位置する地点であり、当該所定の物体が移動している場合、さらに当該所定の物体の速度などから到達時間が算出される。
 経路リスク算出部15bは、車両M1等の第1位置情報、走行経路と地理的情報及び交通情報の少なくとも一方とに基づく第2位置情報、並びに、図5に示す作業情報(例えば、作業時間)とに基づいて、当該車両M1等における経路リスク値を算出してもよい。つまり、経路リスク算出部15bは、第1位置情報、及び、第2位置情報に加えて、さらに作業情報に基づいて経路リスク値を算出してもよい。
 統合リスク算出部15cは、走行リスク算出部15aが算出した走行リスク値と経路リスク算出部15bが算出した経路リスク値とに基づいて、車両M1等それぞれのリスク値である統合リスク値を算出する処理部である。統合リスク算出部15cは、走行リスク値と経路リスク値とを所定の演算により統合することで、車両M1等それぞれに1つのリスク値を算出する。なお、演算とは、加算、減算、乗算及び除算の少なくとも1つを含む。統合リスク算出部15cは、例えば、走行リスク値と経路リスク値とを加算することで、当該車両M1等についての統合リスク値を算出する。なお、本実施の形態では、統合リスク算出部15cは、統合リスク値として、走行における優先度と、経路における優先度とを加算した監視優先度を決定する。また、統合リスク算出部15cは、走行リスク値と経路リスク値とを所定の演算により統合するときに、走行リスク値と経路リスク値との少なくとも一方に所定の重み(係数)を乗算してもよい。
 推薦対象決定部15dは、統合リスク算出部15cから取得した車両M1等それぞれの統合リスク値から監視対象として推薦する車両を決定する処理部である。推薦対象決定部15dは、車両M1等の中から監視優先度が最も高い、又は、閾値より高い車両(注目車両の一例)を監視対象として推薦する車両であると決定してもよい。
 推薦対象決定部15dが推薦する車両の数は、1つであってもよいし、2以上であってもよく、例えば、監視者の監視能力に応じて決定されてもよい。また、推薦対象決定部15dは、監視優先度が閾値より高い車両が存在しない場合、例えば、推薦する車両がないことを決定してもよい。この場合、推薦情報には、推薦する車両がないことを示す情報が含まれる。
 なお、推薦部15は、経路リスク値から推薦対象を決定するための構成要素を有していればよい。つまり、推薦部15は、経路リスク算出部15b及び推薦対象決定部15dを有していればよい。また、監視優先度は、少なくとも経路リスク値に応じて決定されればよい。すなわち、監視優先度は、第1位置から第2位置までの車両の移動に関する移動情報(例えば、到達時間)に応じて決定されればよい。
 図3を再び参照して、受信部16は、入力装置20に入力された監視者による入力操作を示す操作情報を受信する処理部である。操作情報は、例えば、監視の対象を切り替える操作を含む。
 監視制御部17は、監視の対象となる車両を決定する処理部である。監視制御部17は、推薦部15が生成した推薦情報と、受信部16が受信した操作情報とに基づいて、監視の対象となる車両を決定し、監視の対象となる車両を示す監視情報を生成する。監視制御部17は、生成した監視情報を映像管理部18に提供する。
 監視制御部17により生成される監視情報には、監視の対象となる車両を特定する情報が含まれる。また、監視情報には、監視の対象となる車両であると判定された理由を示す情報が含まれてもよい。監視情報には、例えば、図5に示される複数の状況情報のうちのどの状況情報が検知されたかを示す情報が含まれる。また、監視情報には、例えば、図4に示される複数の状況情報のうちのどの状況情報が検知されたかを示す情報が含まれてもよい。監視情報には、さらに、監視優先度が含まれていてもよい。
 監視制御部17は、監視対象車両の決定に係る動作モードとして、自動更新モードと手動更新モードとを有する。自動更新モードとは、操作情報を受信したか否か、又は、受信した操作情報の内容いかんにかかわらず、推薦情報に従って監視対象車両を決定して監視情報を生成するモードである。手動更新モードとは、推薦情報の有無、又は、推薦情報の内容いかんにかかわらず、操作情報に従って監視対象車両を決定して監視情報を生成するモードである。
 映像管理部18は、表示装置30に表示するための映像を管理する処理部である。映像管理部18は、表示装置30に表示するための映像に係る画像データを含む提示情報を生成して表示装置30に出力する。映像管理部18は、監視制御部17から監視情報を取得し、監視情報が監視の対象となる車両を特定する情報を含む場合には、その監視の対象の車両から通信部11が受信した画像データを提示情報に含める。なお、映像管理部18は、提示情報を生成し、生成した提示情報を表示装置30に出力させる提示制御部の一例である。
 提示情報は、具体的には、監視情報に示される監視の対象である車両を示す情報を含んでもよい。また、提示情報は、監視情報が監視の対象となりうる1以上の車両を示す情報を含んでいる場合には、監視情報に含まれる1以上の車両それぞれの監視優先度を含んでいてもよい。また、提示情報は、監視情報が監視の方向を示す情報を含んでいる場合には、監視情報に含まれる監視の方向を撮影した画像を含んでいてもよい。また、提示情報は、監視者による監視の対象となる車両が存在しない場合、監視不要を示す情報を含んでいてもよい。
 次に、映像管理部18が生成する、つまり表示装置30が表示する提示情報の例を説明する。
 図7は、本実施の形態に係る提示情報の第一例を示す説明図である。図7は、提示情報として、監視優先度が提示される例を示している。
 図7に示されるように、表示装置30が表示する画像32は、車両M1等ごとの監視優先度を示す画像34を含む。つまり、映像管理部18は、車両M1等と、監視優先度とを対応付けた画像32を表示装置30に提示させる。監視優先度は、車両を優先して監視すべき度合いを示す情報である。監視優先度は、例えば、A(高い)、B(中程度)及びC(低い)の3段階で示される。例えば、車両M1の監視優先度がAであり、車両M2の監視優先度がBであることが示されている。また、画像32は、車両M1等のそれぞれの監視を開始するためのボタンの画像33を含む。なお、監視優先度は、数値であってもよい。監視優先度は、例えば、複数の状況情報のうち、検知された状況情報に対応する優先度を足し合わせた値であってもよい。なお、監視優先度の初期値は、所定の値(例えば0)であってよい。監視優先度が初期値であることは、即時的な又は将来的な監視を要する状況が発生していないことを意味する。
 これにより、監視者は、複数の車両それぞれの監視優先度を確認することで、どの車両を監視すべきかを容易に判断することができる。監視者は、複数の車両の全ての状況を詳細に分析する等することなく、監視が必要である車両を知ることができる。
 なお、提示情報は、例えば、複数の車両M1等それぞれの監視優先度の高さに応じて特定される車両M1等の監視のための情報である。提示情報は、監視優先度が高い車両をより優先的に提示するための情報を含んでいてもよい。提示情報は、複数の車両M1等のそれぞれを示す情報を、監視優先度順に示す情報を含んでもよい。提示情報は、複数の車両M1等のうち監視優先度の高さに応じて特定される車両の監視のための情報を、複数の特定される車両それぞれの監視優先度順に示す情報を含んでいてもよい。また、提示情報は、複数の車両M1等のうち監視優先度の高さに応じて特定される車両を示す情報と、当該特定される車両に対応する監視優先度とを対応付けて示す情報を含んでいてもよい。また、提示情報は、監視優先度が高い車両又は低い車両から監視優先度順に表示するための情報を含んでいてもよい。図7では、監視優先度が高い順に表示している例を示している。
 また、提示情報は、複数の車両M1等のうち監視優先度の高さに応じて特定される車両の監視のための情報(第1情報の一例)を、特定される車両以外の他の車両の監視のための情報(第2情報の一例)より強調して提示する情報を含んでもよい。例えば、提示情報は、監視優先度が最も高い車両又は閾値より高い車両を示す情報(第1情報の一例)を他の車両の情報(第2情報の一例)より強調して提示する情報を含んでいてもよい。例えば、提示情報は、ボタンの画像33のうち、監視優先度が高い車両M1に対応するボタンの画像33を他の車両に対応するボタンの画像33と異なる態様で提示する情報を含んでいてもよい。
 図8は、本実施の形態に係る提示情報の第二例を示す説明図である。図8は、提示情報として、監視優先度が決定されるもととなった走行リスク値及び経路リスク値が提示される例を示している。
 図8に示されるように、表示装置30が表示する画像32aは、車両M1等ごとの走行リスク値及び経路リスク値を示す画像34aを含む。つまり、映像管理部18は、車両M1等ごとと、走行リスク値及び経路リスク値とを対応付けた画像32aを表示装置30に提示させる。走行リスク値及び経路リスク値は、例えば、A(高い)、B(中程度)及びC(低い)の3段階で示される。例えば、車両M1の走行リスク値及び経路リスク値がAであり、車両M2の走行リスク値がAであり、経路リスク値がBであることが示されている。また、画像32aは、車両M1等のそれぞれの監視を開始するためのボタンの画像33を含む。なお、走行リスク値及び経路リスク値は、数値であってもよい。走行リスク値及び経路リスク値は、例えば、複数の状況情報のうち、検知された状況情報に対応する優先度を足し合わせた値であってもよい。
 図9は、本実施の形態に係る提示情報の第三例を示す説明図である。図9は、提示情報として、車両M1等から取得した画像データに基づく画像が提示される例を示している。
 図9に示されるように、表示装置30が表示する画像32bは、車両M1等ごとの画像35~37を含む。画像35は、例えば、監視優先度が高い車両M1(注目車両の一例)の1以上のカメラが撮影した画像データに基づく画像である。画像36及び37も同様であり、車両M2等の車両M1より監視優先度が低い車両(他の車両の一例)の1以上のカメラが撮影した画像データに基づく画像である。このように、提示情報は、監視優先度が高い車両M1の画像35を、車両M1より監視優先度が低い車両M2等の画像36及び37より大きい面積で表示する情報を含んでいてもよい。なお、画像35は第1情報に含まれる第1画像の一例であり、画像36及び37は第2情報に含まれる第2画像の一例である。つまり、提示情報は、第1画像を第2画像より大きい面積で表示する情報を含んでいてもよい。また、注目車両を示す情報(例えば、画像35)を他の車両を示す情報(画像36及び37)より大きく提示することは、強調して提示することに含まれる。
 画像32bは、車両M1等のそれぞれの監視を開始するためのボタンの画像(図7に示すボタンの画像33を参照)を含んでいてもよい。
 監視者は、画像32、32a又は32bを視認し、監視の対象とする車両を選択し、選択した車両に対応するボタンの画像33を操作する。この操作は入力装置20により受け付けられ、この操作を示す操作情報が受信部16により受信される。
 図7~図9では、監視者が監視の対象である車両を選択するための画像が表示装置30に表示される、つまり監視対象の画像に自動で切り替えられない例について説明した。以下においては、提示情報が監視者による監視の対象である車両の画像を表示するための情報である例について、つまり、監視対象の画像に自動で切り替えられる例について説明する。
 図10は、本実施の形態に係る提示情報の第四例を示す説明図である。図10は、提示情報として、車両M1から取得した画像データに基づく画像が提示される例を示している。
 図10に示されるように、表示装置30が表示する画像38は、監視優先度が高い(例えば、最も高い)車両M1の画像である。このように、提示情報は、複数の車両M1等のうち監視優先度が最も高い又は閾値より高い車両M1の監視のための情報を含む。提示情報は、複数の車両M1等のうち監視優先度が最も高い又は閾値より高い車両M1が撮影した画像38(図8を参照)、又は、当該車両M1が映る画像を含む。言い換えると、提示情報は、監視優先度に基づいて特定される車両(例えば、車両M1)を監視対象として示す情報を含み、例えば、表示装置30に表示される画像を車両M1が撮影した画像38、又は、当該車両が映る画像に切り替えるための情報を含んでいてもよい。これにより、監視者が監視対象を選択する作業を省くことができるので、監視者の監視負担をさらに低減することができる。
 図11は、本実施の形態に係る提示情報の第五例を示す説明図である。図11は、提示情報として、図10に示す画像38に、車両M1が選択された理由が提示される例を示している。つまり、提示情報は、監視優先度に対する、複数の状況情報の少なくとも一つの寄与度を示す情報を含む。
 図11に示されるように、表示装置30が表示する画像38は、車両M1が監視対象に決定された理由を示す画像39を含む。画像39は、寄与度を示す情報に含まれる。図11において、車両M1が監視対象に決定されたのは、「踏切」の寄与度が最も高かったことを示している。なお、「踏切」に対応する作業情報(例えば、作業時間)が画像38に重畳して提示されてもよいし、「踏切」以外の状況情報が検知されている場合、その検知された状況情報が画像38に重畳して提示されてもよい。つまり、車両M1に対応する2以上の状況情報が画像38に重畳して提示されてもよい。この場合、2以上の状況情報と、それぞれに対応する優先度とが画像38に重畳されることで提示されてもよい。2以上の状況情報と、優先度とは、寄与度を示す情報に含まれる。
 なお、監視優先度が所定の閾値以上の車両が存在しない場合(例えば、監視対象車両が存在しない場合)、監視不要を示す提示情報が提示されてもよい。例えば、監視対象が存在しない旨を示す情報、監視作業の休憩を促す情報、又は監視作業とは異なる作業を促す情報などが提示されてよい。図12は、本実施の形態に係る提示情報の第六例を示す説明図であり、具体的には、監視不要を示す情報として監視対象が存在しない旨を示す画像40を含む画像38が表示されている例を示す。
 また、監視優先度が所定の閾値以上の車両が存在しない時間すなわち監視不要の時間を記録し、監視不要の時間の統計情報が提示されてもよい。例えば、監視不要の時間の平均値、中央値もしくは最頻値、又は日、週もしくは月などの特定期間における分布などの統計情報が提示されてよい。なお、監視不要の時間を記録する処理は、例えば、監視制御部17により行われる。また、統計情報は、監視情報に含まれていてもよい。
 また、監視不要の時間の統計情報から、休憩などの監視作業から離れる期間の提案が提示されてもよい。例えば、一日のうち監視不要の時間が統計的に長い時間帯において休憩を促す情報が提示されてよい。なお、休憩などの監視作業から離れる期間を提案する処理は、例えば、監視制御部17により行われる。また、当該提案(例えば、休憩を促す情報)は、監視情報に含まれていてもよい。
 図13は、本実施の形態に係る提示情報の第七例を示す説明図であり、具体的には、監視不要の時間及び休憩を促す情報として、監視不要の時間の平均値及び休憩を促すことを示す画像41を含む画像38が表示されている例を示す。
 [監視システムの動作]
 次に、上記のように構成された監視システム1による処理を以降で説明する。
 図14は、本実施の形態に係る監視システム1の処理を示すシーケンス図である。図14に示されるシーケンス図は、位置情報を用いて推薦される監視対象を決定する処理の流れを示す図である。なお、図14では、車両M1等の代表として車両M1を図示しているが、他の車両M2~MNについても同様の処理が行われる。
 図14に示されるように、ステップS101において、サーバ装置10の運行管理部14は、運行DB13に格納されている車両M1の運行計画に基づいて、車両M1の移動経路を設定する。そして、運行管理部14は、設定した移動経路を含む指示情報を車両M1に送信する。なお、運行管理部14は、他の車両M2~MNについても同様に移動経路を設定し指示情報を送信する。
 ステップS121において、車両M1は、ステップS101で運行管理部14が送信した指示情報を受信する。そして、車両M1は、受信した指示情報に基づいて、運行管理部14が設定した移動経路に従って走行する。
 ステップS122において、車両M1は、走行中の位置、速度、加速度又は操舵角などを示す車両情報(すなわちセンシングデータ、及び、画像データ)を取得する。
 ステップS123において、車両M1は、ステップS122で取得した車両情報(すなわちセンシングデータ、及び、画像データ)をサーバ装置10に送信する。なお、車両M1は、ステップS123の後にも、走行中の位置、速度、加速度又は操舵角などを示す車両情報(すなわちセンシングデータ、及び、画像データ)を取得し、サーバ装置10に送信する。なお、車両情報には、少なくとも車両M1の位置である第1位置を示す第1位置情報が含まれる。
 なお、ステップS121~S123の処理は、他の車両M2~MNでも同様に行われる。
 ステップS102において、サーバ装置10の通信部11は、ステップS123で車両M1等が送信した第1位置情報を含む車両情報(すなわちセンシングデータ、及び、画像データ)を受信する。通信部11は、受信した車両情報(すなわちセンシングデータ、及び、画像データ)を車両管理部12に提供する。なお、ステップS102において、通信部11は、車両情報(すなわちセンシングデータ、及び、画像データ)を通信により取得する。
 ステップS103において、サーバ装置10の運行管理部14は、ステップS102で受信した車両情報に含まれる第1位置情報が、運行計画に適合しているか否かを判断し、その判断の結果を示す運行情報を生成する。
 ステップS104において、サーバ装置10の推薦部15は、運行管理部14から第2位置を示す第2位置情報を取得する。具体的には、推薦部15の経路リスク算出部15bは、運行管理部14から地理的情報及び交通情報の少なくとも一方を取得することで、第2位置を取得する。なお、推薦部15は、運行DB13から直接第2位置情報を取得してもよい。
 ステップS105において、推薦部15は、複数の車両M1等それぞれに対して監視優先度を決定する。具体的には、推薦部15は、ステップS102で通信部11が受信した車両情報に含まれる第1位置情報を車両管理部12から取得し、ステップS103で運行管理部14が生成した運行情報を取得し、さらにステップS104で運行管理部14から第2位置情報を取得する。
 そして、推薦部15は、取得した車両情報、運行情報、第1位置情報及び第2位置情報に基づく当該車両に対する監視者による監視を要する度合いに応じた当該車両についての監視優先度を決定する。具体的には、推薦部15の走行リスク算出部15aは、取得した車両情報及び運行情報と、運行DB13に記憶されているテーブル(例えば、優先度テーブルT1)とに基づいて走行リスク値を算出する。また、推薦部15の経路リスク算出部15bは、取得した第1位置情報及び第2位置情報に基づいて経路リスク値を算出する。そして、統合リスク算出部15cは、走行リスク値と経路リスク値とに基づいて、統合リスク値(監視優先度の一例)を決定する。
 なお、ステップS105において、推薦部15は、少なくとも第1位置情報、及び、第2位置情報を取得すればよい。すなわち、ステップS105では、第1位置情報及び第2位置情報に基づいた経路リスク値に基づいて、監視優先度が決定されればよい。また、ステップS105において、複数の車両M1それぞれについて第1位置情報及び第2位置情報を用いて監視優先度を決定する。
 ステップS106において、推薦部15は、ステップS105で決定した監視優先度に基づいて、監視者による監視が求められる推薦対象車両を決定する。具体的には、推薦部15の推薦対象決定部15dは、複数の車両M1等の中から、監視優先度が最も高い車両、又は、監視優先度が所定の閾値以上である車両を推薦対象車両であると決定してもよい。なお、ステップS106において決定される推薦対象車両の数は1つに限定されないが、監視者による監視の負担をより低減する観点から、ステップS106において決定される推薦対象車両の数は少ない方がよく、例えば、1つであってもよい。
 また、ステップS106において、推薦部15は、ステップS105で決定した監視優先度に基づいて、監視者による監視が求められる推薦対象車両が存在しないことを決定してもよい。例えば、推薦部15は、複数の車両M1等の中から、監視優先度が所定の閾値以上である車両が存在しない場合、監視者による監視が求められる推薦対象車両が存在しないと決定してもよい。すなわち、ステップS106において、推薦部15は、ステップS105で決定した監視優先度に基づいて、監視者による監視が求められる推薦対象車両が存在するか否かを判定してもよい。
 そして、推薦対象車両を特定する情報又は推薦対象車両が存在しないことを含む推薦情報を監視制御部17に提供する。
 ステップS141において、入力装置20は、監視者による監視の対象を切り替えるための操作を受け付ける。この操作は、表示装置31が表示した情報を監視者が視認し、どの車両を監視の対象とするかを監視者が検討したうえで行った判断に基づく操作であり得る。そして、入力装置20は、受け付けた操作の内容を示す操作情報をサーバ装置10に送信する。操作情報は、監視者が車両M1等のうちのどの車両を監視対象に切り替えたかを示す情報を含む。なお、監視者による操作がなされなかった場合には、操作がなかったことを示す操作情報をサーバ装置10に送信してもよいし、操作情報を送信しないことにしてもよい。
 ステップS107において、サーバ装置10の受信部16は、入力装置20がステップS141で送信した操作情報を受信する。
 ステップS108において、監視制御部17は、監視者による監視の対象を決定し、監視の対象を特定し得る監視情報を生成する。監視制御部17は、監視の対象を決定する際には、ステップS106で推薦部15が提供した推薦情報と、受信部16が受信した操作情報とに基づいて監視の対象を決定する。監視制御部17は、生成した監視情報を映像管理部18に提供する。
 また、監視制御部17は、推薦対象車両が存在しないことを含む推薦情報を取得した場合、ステップS108において、監視不要を示す情報、監視不要の時間の統計情報、及び、監視作業から離れる期間の提案の少なくとも1つを含む監視情報を生成し、映像管理部18に提供してもよい。なお、監視制御部17は、例えば、推薦対象車両が存在しないことを示す推薦情報を取得してから、推薦対象車両を特定する情報を含む推薦情報を最初に取得するまでの時間を監視不要の時間として記録してもよい。
 ステップS109において、映像管理部18は、ステップS108で監視制御部17から提供された監視情報に基づいて、監視者に提示するための提示情報を生成する。
 ステップS110において、映像管理部18は、ステップS109で生成した提示情報を表示装置30に送信する。すなわち、ステップS109及びS110において、映像管理部18は、監視優先度に基づいて車両の監視のための提示情報を生成し、生成した提示情報を表示装置30に送信する。
 ステップS131において、表示装置30は、ステップS109で監視制御部17が送信した提示情報を受信し、提示情報に基づいて監視対象の車両に関する情報を表示する。すなわち、映像管理部18は、表示装置30に提示情報を送信することで、提示情報を表示装置30に出力させる。
 なお、監視制御部17の現時点における動作モードが手動更新モードである場合、ステップS107、及び、S141の処理は、行われなくてもよい。
 複数台の車両の様々な状況から監視の優先順位を決定し、どの車両を監視すべきかの判断を監視者に委ねている場合、監視者が複数の車両の予兆を認識して判断することは困難である。一方、本願では、サーバ装置10がリスクの高い地点(つまり、走行が困難な地点)に到達するまでの時間などに応じて自動的に優先度を変更するので、監視者は、車両の走行が困難になるまでの時間に応じて監視対象の車両を適切に選択することができる。また、映像管理部18は、車両M1が第2位置に到達する前に、提示情報を表示装置30に出力させてもよい。
 図15は、本実施の形態に係る推薦部15における監視優先度を決定する処理を示すフロー図である。図15に示される処理は、図14に示されるステップS105で実行される処理を詳細に示すものである。
 ステップS201において、推薦部15は、車両情報、運行情報、第1位置情報、及び、第2位置情報を取得する。具体的には、推薦部15の走行リスク算出部15aは、車両管理部12から車両情報を取得し、運行管理部14から運行情報を取得する。また、推薦部15の経路リスク算出部15bは、運行管理部14から第1位置情報、及び、第2位置情報を取得する。
 ステップS202において、走行リスク算出部15aは、車両情報及び運行情報に基づく車両の走行リスク値を算出する。具体的には、走行リスク算出部15aは、車両の車両情報及び運行情報に基づく、当該車両の監視の優先度を走行リスク値として決定する。すなわち、走行リスク算出部15aは、車両情報及び運行情報に基づいて、車両の走行に対する監視者による監視の必要な度合いを決定する。走行リスク算出部15aは、優先度テーブルT1に含まれる複数の状況情報の中から当該車両において検出された状況情報に対応する優先度を当該車両における監視を要する度合いとして決定する。走行リスク算出部15aは、例えば、複数の状況情報の中から2以上の状況情報が検出された場合、2以上の状況情報に対応する優先度を加算した値を当該車両の走行における優先度として決定する。
 走行リスク算出部15aは、例えば、走行状態、カメラの画像、及び、加速度などから、車両において事故が発生していると判定すると、「自車両で事故発生」を検知して、当該車両の優先度を「23」に決定する。また、推薦部15は、車両の搭乗者からの呼出を取得すると、「コール発生」を検知して、当該車両の優先度を「18」に決定する。また、推薦部15は、車両の位置情報と地理的情報とから、車両が踏切付近に位置していると判定すると、「踏切」を検知して、当該車両の優先度を「4」に決定する。
 なお、優先度テーブルT1に示す優先度が重み付けされていない値である場合、ステップS202において、重みを用いて監視者による監視を要する度合いが決定されてもよい。例えば、状況情報に対応する優先度と、当該状況情報に対応する重みとを掛け合わせることで、監視者による監視を要する度合いが決定されてもよい。つまり、監視者による監視を要する度合いは、演算により算出されることで決定されてもよい。この場合、重みは、予め定められた値が用いられる。
 なお、複数の状況情報それぞれに対応する重みは、車両又は当該車両の周囲の状況などに応じて逐次決定されてもよい。重みは、当該重みに対応する状況情報以外の他の情報に応じて決定されてもよい。他の情報は、例えば、当該重みに対応する状況情報(例えば、「横断歩道」)において、当該他の情報の内容(例えば、車両情報に含まれる当該車両の周辺物体の数)により監視者による監視を要する度合いが変化する情報である。つまり、他の情報は、状況情報における監視者による監視を要する度合いに影響を与える情報である。
 状況情報「横断歩道」(第一状況情報の一例)は、例えば、車両の周辺物体の数に応じて監視者による監視を要する度合いが変化する。例えば、周辺物体の数(例えば、人の人数)が多いほど車両の走行の危険性が上がる(例えば、事故の発生率が高くなる)ので、監視者による監視を要する度合いが高くなると考えられる。そのため、推薦部15は、周辺物体の数が多いほど、「横断歩道」に対応する重みの値を大きくしてもよい。なお、他の情報は、周辺物体の数に示される車両情報に限定されず、複数の状況情報のうち当該状況情報以外の状況情報(第2状況情報の一例であり、例えば、「急発進」)であってもよいし、運行情報であってもよいし、それらの組み合わせであってもよい。例えば、横断歩道の近くに停止していた車両が動き出した場合、「急発進」であると横断歩道における車両の走行の危険性が上がるので、監視者による監視を要する度合いが高くなると考えられる。そのため、推薦部15は、「急発進」している場合、「急発進」していない場合に比べ、「横断歩道」に対応する重みを大きくしてもよい。
 上記のように、複数の状況情報は、第一状況情報(例えば、「横断歩道」)、及び、当該第一状況情報と異なる第二状況情報(例えば、「急発進」)を含む。そして、第一状況情報に対応する重みは、第二状況情報、車両情報、及び、運行情報の少なくとも1つに応じて決定されてもよい。
 また、複数の状況情報それぞれに対応する重みは、当該状況情報が検知されてから監視者が対応していない(例えば、監視していない)時間に応じて決定されてもよい。状況情報「コール発生」を例に説明すると、状況情報「コール発生」に対応する重みは、車両の搭乗者からの呼出をサーバ装置10が取得してから監視者が当該呼出に対応しなかった時間(以降において、未対応時間ともいう)に応じて決定されてもよい。例えば、「コール発生」に対する未対応時間が長いほど、車両の走行の危険性が上がるので、監視者による監視を要する度合いが高くなると考えられる。そのため、推薦部15は、呼出に対する未対応時間が長いほど、「コール発生」に対応する重みの値を大きくしてもよい。
 また、複数の状況情報それぞれに対応する重みは、当該状況情報における基準との相違に応じて決定されてもよい。状況情報「タイムスケジュールずれ」を例に説明すると、状況情報「タイムスケジュールずれ」に対応する重みは、予め設定された運行計画(状況情報における基準の一例)からの時間差(例えば、運行計画から遅れている時間)に応じて決定されてもよい。例えば、運行計画からの時間差が大きいほど、車両の走行の危険性が上がるので、監視者による監視を要する度合いが高くなると考えられる。そのため、推薦部15は、運行計画からの時間差が大きいほど、「タイムスケジュールずれ」に対応する重みの値を大きくしてもよい。
 また、状況情報における基準値との相違に応じて重みを決定する他の例として、状況情報「速度異常」(図示しない)について説明する。状況情報「速度異常」に対応する重みは、車両が走行している道路の法定速度(状況情報における基準の一例)からの速度差に応じて決定されてもよい。例えば、法定速度からの速度差が大きいほど、車両の走行の危険性が上がるので、監視者による監視を要する度合いが高くなると考えられる。そのため、推薦部15は、法定速度からの速度差が大きいほど、「速度異常」に対応する重みの値を大きくしてもよい。なお、法定速度は、例えば、車両の位置情報及び地理的情報に基づいて取得される。
 ステップS203において、経路リスク算出部15bは、第1位置情報及び第2位置情報に基づく車両の経路リスク値を算出する。経路リスク算出部15bは、第1位置情報が示す第1位置から第2位置情報が示す第2位置までの車両の移動に関する移動情報に応じて、当該車両の監視の優先度を経路リスク値として決定する。すなわち、経路リスク算出部15bは、第1位置情報及び第2位置情報に基づいて、車両の経路に対する監視者による監視の必要な度合いを決定する。経路リスク算出部15bは、例えば、移動情報が到達時間である場合、到達時間が短いほど、優先度を高い値に決定する。経路リスク算出部15bは、例えば、運行管理部14から地理的情報を取得し、取得した地理的情報に含まれる第2位置の優先度と、到達時間とに基づいて、経路における優先度を決定してもよい。経路リスク算出部15bは、例えば、第2位置に2以上の状況情報が示す状況が発生している場合、例えば、合流地点において渋滞が発生している場合、どちらか一方のみが発生している場合に比べ優先度を高い値に決定してもよい。すなわち、経路リスク算出部15bは、第2位置における状況の数に応じて、経路における優先度を決定してもよい。
 なお、第2位置は、事故車両又は緊急車両などの所定条件を満たす物体が位置する地点であってもよい。この場合、経路リスク算出部15bは、車両管理部12から車両情報を取得し、取得した車両情報に含まれるセンシングデータから所定条件を満たす物体を特定してもよい。そして、経路リスク算出部15bは、特定した物体が位置する地点を第2位置としてもよい。経路リスク算出部15bは、例えば、車両M1における経路リスク値を算出する場合、車両M1から取得したセンシングデータを用いて第2位置を特定してもよいし、車両M1の周辺の車両のセンシングデータを用いて第2位置を特定してもよい。
 ステップS204において、統合リスク算出部15cは、走行リスク値と経路リスク値とに基づく統合リスク値を監視優先度として算出する。具体的には、統合リスク算出部15cは、走行リスク値として算出された優先度と、経路リスク値として算出された優先度とを演算して統合することで、当該車両についての監視優先度を決定する。統合リスク算出部15cは、例えば、走行リスク値として算出された優先度と、経路リスク値として算出された優先度とを加算又は乗算することで監視優先度を決定してもよい。統合リスク算出部15cは、2つの優先度の少なくとも一方を重み付けした後に、加算又は乗算してもよい。
 以上のように、推薦部15は、対応が必要な状況が発生するリスクが高い地点が経路上にある場合、つまり経路上に第2位置がある場合、当該第2位置に到達するまでの到達時間又は距離(移動情報の一例)を算出し、算出した到達時間又は距離に応じて監視優先度を変動させる。すなわち、推薦部15は、複数の車両が存在する場合、移動情報に基づいて監視の優先順位を決定する。
 なお、経路リスク算出部15bは、さらに、第2位置における走行の困難度を取得し、取得した困難度と到達時間とに応じて当該車両の経路における優先度を決定してもよい。経路リスク算出部15bは、例えば、第2位置における状況と、走行の困難度とが対応付けられたテーブル(図示しない)を運行DB13から読み出すことで、走行の困難度を取得してもよい。例えば、図5に示す作業情報テーブルT2に困難度に関する情報が含まれていてもよい。なお、作業情報テーブルT2に含まれる作業時間が長いほど、困難度が高いとしてもよい。経路リスク算出部15bは、走行の困難度が高いほど、優先度を高い値に決定する。
 走行の困難度は、自動運転による走行が困難な度合いを示しており、例えば、道路状態が普段と異なることに対する困難度を含んでいてもよい。例えば、工事で迂回又は片側通行をする必要がある場合などは、走行の困難度が高く設定されてもよい。
 なお、経路リスク算出部15bは、さらに、第2位置における監視の作業に関する作業情報を取得し、取得した作業情報と移動情報とに応じて当該車両の経路における優先度を決定してもよい。経路リスク算出部15bは、移動情報が到達時間を含み、作業情報が作業時間(例えば、図5参照)を含む場合、到達時間と作業時間とに応じて優先度を決定してもよい。経路リスク算出部15bは、例えば、到達時間が短いほど、又は、作業時間が長いほど優先度を高い値に決定してもよい。経路リスク算出部15bは、到達時間と作業時間との差分(具体的には、到達時間から作業時間を減算した値であり、猶予時間ともいう)が短いほど、優先度を高い値に決定してもよい。経路リスク算出部15bは、第2位置の状況に対応した優先度(例えば、地理的情報から取得される優先度)に対して猶予時間に応じた重みづけを行うことで、経路における優先度を決定してもよい。
 これにより、監視者は、第2位置に到達するまでに、必要な時間を確保して当該車両を監視することが可能となる。監視者は、例えば、第2位置に到達するまでに、車両の状況を把握し、必要な場合に操作を行うことができる。つまり、監視者は、より適切に対象車両を監視することができる。なお、経路リスク算出部15bは、猶予時間がマイナスとなった場合、猶予時間がマイナスであることを示す情報を出力してもよい。そして、推薦対象決定部15dは、例えば、猶予時間がマイナスであった場合、当該車両を推薦対象車両として決定してもよい。
 なお、経路リスク算出部15bは、さらに、第2位置における走行の困難度を取得し、到達時間と作業時間との差分である猶予時間、及び、困難度に応じて優先度を決定してもよい。経路リスク算出部15bは、例えば、猶予時間が短いほど、又は、困難度が高いほど優先度を高い値に決定してもよい。経路リスク算出部15bは、第2位置の状況に対応した優先度(例えば、地理的情報から取得される優先度)に対して、猶予時間及び困難度に応じた重みづけを行うことで、経路における優先度を決定してもよい。
 なお、通信部11又は車両管理部12は、第1位置情報を取得する第1取得部の一例であり、運行管理部14は第2位置情報を取得する第2取得部の一例である。
 図16は、本実施の形態に係る監視制御部17の処理を示すフロー図である。図16に示される処理は、図14に示されるステップS108で実行される処理を詳細に示すものである。
 ステップS301において、監視制御部17は、受信部16が入力装置20から操作情報を受信したか否かを判定する。操作情報を受信したと判定した場合(ステップS301でYes)にはステップS302に進み、そうでない場合(ステップS301でNo)には、再びステップS301を実行する。つまり、監視制御部17は、操作情報を受信するまでステップS301で待機状態をとる。
 ステップS302において、監視制御部17は、受信部16が受信した操作情報に基づいて、監視者による操作の内容を取得する。
 ステップS303において、監視制御部17は、監視対象の切り替えのための操作がなされたか否かを判定する。上記操作がなされたと判定した場合(ステップS303でYes)にはステップS321に進み、上記操作がなされていないと判定した場合(ステップS303でNo)にはステップS304に進む。
 ステップS304において、監視制御部17は、現時点における動作モードが自動更新モードであるか否かを判定する。自動更新モードである場合(ステップS304でYes)にはステップS305に進み、そうでない場合(ステップS304でNo)にはステップS311に進む。
 ステップS305において、監視制御部17は、ステップS106で推薦部15により提供された推薦情報を取得する。
 ステップS306において、監視制御部17は、推薦情報が推薦対象車両を特定する情報を含むか否かを判定する。推薦情報が推薦対象車両を特定する情報を含む場合(S306でYes)、つまり推薦部15により推薦対象車両が存在すると判定された場合にはステップS307に進み、そうでない場合(ステップS306でNo)にはステップS308に進む。
 ステップS307において、監視制御部17は、推薦情報により推薦される推薦対象車両を、監視対象車両に決定する。
 ステップS308において、監視制御部17は、推薦情報により監視対象車両が存在しないと決定する。
 ステップS311において、監視制御部17は、現時点における監視の対象の車両を維持する決定をする。
 ステップS321において、監視制御部17は、監視者による切り替え操作の切り替え先の車両を監視対象車両とする決定をする。
 ステップS309において、監視制御部17は、ステップS307、S308、S311又はS321の決定に基づいて、監視の対象を示す監視情報を生成する。ステップS309の処理を終えたら図16に示される一連の処理を終了する。ステップS309で生成された監視情報は、映像管理部18に提供されステップS109の処理に用いられる。
 なお、上記では、推薦部15が監視の対象となる車両を推薦する場合を説明したが、推薦部15は、さらに、当該車両をどのように監視するかを含めて推薦してもよい。「当該車両をどのように監視するか」とは、例えば、車両がどの程度の速度で走行しているかを監視すること、車両から見てどの方向を監視するかなどを含む。その場合、推薦情報は、車両を特定する情報だけでなく、車両をどのように監視するかを特定する情報を含む。そして、映像管理部18は、監視情報が、さらに車両の監視方法を特定する情報を含む場合には、その車両から通信部11が受信した画像データ及びセンシングデータのうち監視方法に該当するデータを提示情報に含め、監視者に提示する。より具体的には、映像管理部18は、車両の監視方法として、車両から見てどの方向を監視するかを推薦する場合には、車両が備えている1以上のカメラのうち監視の対象である方向のカメラが取得した画像を提示情報に含めてもよい。
 (実施の形態の変形例)
 本変形例の情報処理方法等について、図17を参照しながら説明する。なお、本変形例に係る監視システムの構成は、実施の形態と同様であり、説明を省略する。
 図17は、本変形例に係る監視システム1の処理を示すシーケンス図である。図17では、車両M1等の代表として車両M1及びM2を図示しているが、他の車両についても同様の処理が行われる。サーバ装置10が車両M1及びM2から車両情報等を取得している例を示している。また、サーバ装置10が行うステップS401~S410は、図14に示すステップS101~S110と同様であり、説明を省略する。また、車両M1が行うステップS421~S423、及び、車両M2が行うステップS424~S426は、図14に示すステップS121~S123と同様であり、説明を省略する。また、表示装置30が行うステップS431は、図14に示すステップS131と同様であり、説明を省略する。また、入力装置20が行うステップS441は、図14に示すステップS141と同様であり、説明を省略する。なお、以降においては、車両M1等の中から、ステップS408で監視対象に車両M1が決定されたとして説明する。
 ステップS411において、サーバ装置10は、車両との間の通信量を制御するための通信量制御情報を車両M2に送信する。つまり、サーバ装置10は、ステップS408で監視対象に決定されなかった車両M2に対して、通信量制御情報を送信する。ここで、通信量制御情報とは、車両M2とサーバ装置10との間の通信量を下げるための情報である。
 車両M2とサーバ装置10との間の通信量は、監視優先度に応じて制御される。車両M2の監視優先度は、車両M1の監視優先度より低い。そのため、サーバ装置10は、車両M2とサーバ装置10との間の通信量が車両M1とサーバ装置10との通信量より小さくなるように通信量制御情報を生成してもよい。また、サーバ装置10は、車両M2とサーバ装置10との通信量を、監視対象が決定される前より監視対象が決定された後の方が小さくなるように通信量制御情報を生成してもよい。
 なお、監視対象が車両M1に決定された場合、複数の車両M1等において当該車両M1以外の全ての車両(他の車両ともいう)に通信量制御情報が送信される。他の車両の送信される通信量制御情報は、当該車両の監視優先度に応じて決定されてもよい。他の車両の中で監視優先度が低い車両は、他の車両の中で監視優先度が高い車両に比べて通信量をより小さくなるように制御されてもよい。これにより、車両M1等とサーバ装置10との間の通信量を抑制しつつ、他の車両の中で以降において監視対象となる可能性が高い車両の情報をより多く送信することができる。なお、サーバ装置10は、他の車両の通信量を一律に小さくしてもよい。
 ステップS427において、車両M2は、通信量制御情報を受信する。
 ステップS428において、車両M2は、受信した通信量制御情報に基づいてサーバ装置10との通信量を変更する。車両M2は、車両M2から送信される画像データの画質を下げること、画像データを送信する通信速度を下げること、及び、画像データを撮影するフレームレートを小さくすることの少なくとも1つにより、通信量を小さくしてもよい。また、車両M2は、当該車両M2の周囲を撮影する2以上のカメラを備える場合、所定のカメラが撮影した画像データのみをサーバ装置10に送信することで通信量を小さくしてもよい。所定のカメラとは、例えば、車両M2の移動経路などにより決定され、例えば車両M2の進行方向を撮影しているカメラである。
 なお、ステップS411の処理は、サーバ装置10が備えるどの構成要素が実施してもよい。例えば、監視制御部17、又は、映像管理部18がステップS411の処理を行ってもよい。例えば、映像管理部18は、表示装置30に提示情報を送信した後、通信部11を介して通信量制御情報を車両M2に送信してもよい。
 (その他の実施の形態)
 以上、本開示について実施の形態及び変形例(以降において、実施の形態等とも記載する)に基づいて説明したが、本開示は、上記実施の形態等に限定されるものではない。
 例えば、上記実施の形態等では、監視者による操作により選択された車両と、推薦部の推薦対象車両とでは、監視者による操作により選択された車両が優先して監視対象車両に決定される例について説明したが、これに限定されない。監視者による操作により選択された車両より推薦対象車両が優先して、監視対象車両に決定されてもよい。監視制御部は、例えば、監視優先度が所定の値以上である場合、推薦対象車両を優先して、監視対象車両に決定してもよい。
 また、上記実施の形態等において、推薦部の推薦対象決定部は、監視優先度が最も高い又は監視優先度が最も高い車両又は閾値より高い車両を推薦対象車両に決定する例について説明したが、これに限定されない。推薦部は、例えば、複数の状況情報のうち所定の状況情報が検知された車両を推薦対象車両に決定してもよい。例えば、「自車両で事故発生」の状況情報が検知された車両を推薦対象車両に決定してもよい。また、例えば、推薦対象決定部は、猶予時間が所定時間以下であることが検知された車両を推薦対象車両に決定してもよい。
 また、上記実施の形態等において、推薦部は、監視者が複数存在する場合、監視者の状態によって優先度又は優先順位を変更してもよい。図5に示される「合流」を例に説明する。監視者Aは、「合流」における対処を過去に監視者Bよりも多く行っていたとする。この場合、監視者Aは、監視者Bよりも「合流」に対する対処を円滑に行うことができる。そのため、監視者Aにおける「合流」の作業時間を監視者Bより短くしてもよい。監視制御部17は、例えば、監視者が複数いる場合に、「合流」に対する監視が必要になった場合、作業時間が短い監視者に当該監視を優先的に割り当ててもよい。これにより、監視者が複数いる場合、第2位置の状況情報に円滑に対処することができる監視者に車両の監視を行わせることができる。
 また、上記実施の形態等において、走行リスク算出部は、例えば、複数の状況情報の中から2以上の状況情報が検出された場合、2以上の状況情報に対応する優先度を加算した値を当該車両の走行における優先度として決定する例について説明したが、これに限定されない。走行リスク算出部は、2以上の状況情報に対応する2以上の優先度の平均値、中央値、最大値、及び、最小値などの統計値を当該車両の走行における優先度(走行リスク値)として決定してもよい。
 また、上記実施の形態等において、経路リスク算出部は、例えば、第2位置における情報の数が2以上存在する場合、2以上の状況情報に対応する優先度を加算した値を当該車両の経路における優先度として決定する例について説明したが、これに限定されない。経路リスク算出部は、2以上の状況情報に対応する2以上の優先度の平均値、中央値、最大値、及び、最小値などの統計値を当該車両の経路における優先度(経路リスク値)として決定してもよい。
 また、上記実施の形態等において、走行における優先度、及び、経路における優先度は、例えば、機械学習モデルを用いて決定されてもよい。推薦部の内部に、学習データを用いて学習された機械学習モデルが実装される。推薦部は、取得した車両情報及び運行情報を入力データとして機械学習モデルに入力した結果として出力される優先度を走行における優先度として取得してもよい。また、推薦部は、取得した第1位置情報及び第2位置情報を入力データとして機械学習モデルに入力した結果として出力される優先度を経路における優先度として取得してもよい。
 また、上記実施の形態等における優先度テーブルが示す優先度、又は、走行の困難度は、例えば、第2位置における周囲の状況に応じて適宜決定されてもよい。経路リスク算出部は、第2位置の周辺における周辺物体(例えば、歩行者又は自転車を含む)の数、又は、周辺物体の種類に応じて、優先度テーブルが示す優先度を補正する、又は、走行の困難度を決定してもよい。経路リスク算出部は、第2位置の周囲における周辺物体の数が多いほど、優先度又は困難度を高くしてもよい。
 また、上記実施の形態等において、車両情報自体が複数種類あることを説明したが、複数種類の車両情報ごとに重みが対応付けられていてもよい。例えば、操舵角又は速度(車両情報の一例)のそれぞれに、重みが対応付けられていてもよい。そして、監視優先度は、当該重みに基づいて決定されてもよい。
 また、監視対象の車両の情報だけでなく他の車両の情報を用いて監視優先度を決定してもよい。具体的には、監視制御部は、監視対象の車両とは別の車両の移動情報を取得し、別の車両が監視対象の車両の移動先である又は移動経路上の第2位置に向かっているか否かを判定する。別の車両が第2位置に向かっていると判定された場合、監視制御部は、監視優先度をそうでない場合と比べて高く決定する。さらに、監視制御部は、第2位置にむかっている別の車両が第2位置へ到達する時間と、監視対象の車両が第2位置に到達する時間との差に応じて監視優先度を決定してもよい。なお、別の車両も監視対象であってよい。
 また、上記実施の形態等における監視システムが備える装置間の通信方法については特に限定されるものではない。装置間では、無線通信が行われてもよいし、有線通信が行われてもよい。また、装置間では、無線通信および有線通信が組み合わされてもよい。
 また、上記実施の形態等に係る監視システムの各処理部(例えば、車両管理部、運行管理部、及び、推薦部など)は典型的に集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
 また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続及び設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 なお、上記実施の形態等において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示の各実施の形態は例示された数字に制限されない。
 また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
 また、上記実施の形態等では、サーバ装置は、単一の装置で実現されていたが、互いに接続された複数の装置で実現されてもよい。
 また、フロー図における各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
 その他、上記実施の形態等に対して当業者が思い付く各種変形を施して得られる形態、本開示の趣旨を逸脱しない範囲で実施の形態等における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。
 本開示は、監視者が被操作車両を監視するための情報処理方法に利用可能である。
 1  監視システム(情報処理システム)
 10  サーバ装置
 11  通信部
 12  車両管理部
 13  運行DB
 14  運行管理部
 15  推薦部(決定部)
 15a  走行リスク算出部
 15b  経路リスク算出部
 15c  統合リスク算出部
 15d  推薦対象決定部
 16  受信部
 17  監視制御部
 18  映像管理部(提示制御部)
 20  入力装置
 30、31  表示装置
 32、32a、32b、33~39  画像
 M1、M2、・・・、MN  車両
 N  ネットワーク
 T1  優先度テーブル
 T2  作業情報テーブル

Claims (17)

  1.  コンピュータを用いて、
     監視対象である車両の位置である第1位置を示す第1位置情報を取得し、
     前記車両に対する監視を要する位置である第2位置を示す第2位置情報を取得し、
     前記第1位置から前記第2位置までの前記車両による移動に関する移動情報に応じた前記車両についての監視優先度を決定し、
     前記監視優先度に基づいて前記車両の監視のための提示情報を生成し、
     前記提示情報を提示装置に出力させる
     情報処理方法。
  2.  前記移動情報は、前記第1位置から前記第2位置までの到達時間、距離、及び、走行経路の少なくとも1つを含む
     請求項1に記載の情報処理方法。
  3.  前記移動情報は、前記到達時間を含み、
     前記到達時間に応じて前記監視優先度を決定する
     請求項2に記載の情報処理方法。
  4.  さらに、前記第2位置における走行の困難度を取得し、
     前記困難度と前記到達時間とに応じて前記監視優先度を決定する
     請求項3に記載の情報処理方法。
  5.  前記第2位置は、地理的情報及び交通情報の少なくとも一方から特定される地点を含む
     請求項1~4のいずれか1項に記載の情報処理方法。
  6.  前記第2位置は、人が乗車又は降車する地点を含む
     請求項5に記載の情報処理方法。
  7.  前記第2位置は、所定条件を満たす物体が位置する地点を含む
     請求項1~4のいずれか1項に記載の情報処理方法。
  8.  前記所定条件は、前記物体が前記車両の走行を妨げる可能性を有していることを含み、
     前記車両又は当該車両の周辺の車両のセンシングデータから、前記物体を特定する
     請求項7に記載の情報処理方法。
  9.  さらに、前記第2位置における走行の困難度に応じた監視者の作業に関する作業情報を取得し、
     前記移動情報と前記作業情報とに応じて前記監視優先度を決定する
     請求項2に記載の情報処理方法。
  10.  前記作業情報は、前記車両に対する監視にかかる作業時間及び前記車両に対する操作にかかる作業時間の少なくとも一方を含み、
     前記移動情報は、前記到達時間を含み、
     前記到達時間と前記作業時間とに応じて前記監視優先度を決定する
     請求項9に記載の情報処理方法。
  11.  さらに、前記第2位置における走行の困難度を取得し、
     前記到達時間と前記作業時間との差分、及び、前記困難度に応じて前記監視優先度を決定する
     請求項10に記載の情報処理方法。
  12.  複数の前記車両のそれぞれから前記第1位置情報を取得し、
     複数の前記車両のそれぞれに対する監視を要する位置である第2位置を示す前記第2位置情報を取得し、
     複数の前記車両それぞれについて前記第1位置情報及び前記第2位置情報を用いて監視優先度を決定し、
     前記提示情報は、複数の前記車両それぞれについての監視優先度の高さに応じて特定される車両の監視のための情報を含む
     請求項1~11のいずれか1項に記載の情報処理方法。
  13.  前記提示情報は、前記特定される車両を監視対象として示す情報を含む
     請求項12に記載の情報処理方法。
  14.  前記提示情報は、複数の前記車両のうち監視優先度の高さに応じて特定される車両の監視のための情報を前記特定される車両以外の他の車両の監視のための情報より強調して提示する情報を含む
     請求項12に記載の情報処理方法。
  15.  前記第1位置情報の取得では、前記第1位置情報を前記車両との通信により取得し、
     前記情報処理方法は、さらに前記通信の通信量を前記監視優先度に応じて制御する
     請求項1~14のいずれか1項に記載の情報処理方法。
  16.  前記車両が前記第2位置に到達する前に、前記提示情報を前記提示装置に出力させる
     請求項1~15のいずれか1項に記載の情報処理方法。
  17.  コンピュータを用いて、
     監視対象である車両の位置である第1位置を示す第1位置情報を取得する第1取得部と、
     前記車両に対する監視を要する位置である第2位置を示す第2位置情報を取得する第2取得部と、
     前記第1位置から前記第2位置までの移動に関する移動情報に応じた前記車両についての監視優先度を決定する決定部と、
     前記監視優先度に基づいて前記車両の監視のための提示情報を生成し、前記提示情報を提示装置に出力させる提示制御部とを備える
     情報処理システム。
PCT/JP2019/037768 2018-10-05 2019-09-26 情報処理方法、及び、情報処理システム WO2020071220A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202310159070.0A CN116153074A (zh) 2018-10-05 2019-09-26 信息处理方法
EP19868905.1A EP3862991B1 (en) 2018-10-05 2019-09-26 Information processing method and information processing system
CN201980026933.9A CN111989725B (zh) 2018-10-05 2019-09-26 信息处理方法、以及信息处理系统
US17/071,225 US11388553B2 (en) 2018-10-05 2020-10-15 Information processing method and information processing system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018189775 2018-10-05
JP2018-189775 2018-10-05
JP2019-098800 2019-05-27
JP2019098800A JP7253446B2 (ja) 2018-10-05 2019-05-27 情報処理方法、及び、情報処理システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/071,225 Continuation US11388553B2 (en) 2018-10-05 2020-10-15 Information processing method and information processing system

Publications (1)

Publication Number Publication Date
WO2020071220A1 true WO2020071220A1 (ja) 2020-04-09

Family

ID=70054529

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/037768 WO2020071220A1 (ja) 2018-10-05 2019-09-26 情報処理方法、及び、情報処理システム

Country Status (3)

Country Link
JP (1) JP7428839B2 (ja)
CN (1) CN116153074A (ja)
WO (1) WO2020071220A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927497A (zh) * 2021-01-14 2021-06-08 阿里巴巴集团控股有限公司 一种浮动车识别方法、相关方法和装置
CN115410393A (zh) * 2021-05-27 2022-11-29 丰田自动车株式会社 警报器控制方法、信息处理装置及非暂时性的计算机可读介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2893544B2 (ja) * 1990-01-11 1999-05-24 日本信号株式会社 異常交通流の検出装置
JP2001136513A (ja) * 1999-11-08 2001-05-18 Yokogawa Electric Corp 監視システム
JP2002094971A (ja) * 2000-09-14 2002-03-29 Omron Corp 表示切替装置および表示切替システム
JP2004198377A (ja) * 2002-12-20 2004-07-15 Zenrin Co Ltd 移動体監視システム
JP2017147626A (ja) 2016-02-18 2017-08-24 トヨタ自動車株式会社 遠隔操作システム
JP2018032433A (ja) * 2014-10-30 2018-03-01 三菱電機株式会社 自動運転支援システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2893544B2 (ja) * 1990-01-11 1999-05-24 日本信号株式会社 異常交通流の検出装置
JP2001136513A (ja) * 1999-11-08 2001-05-18 Yokogawa Electric Corp 監視システム
JP2002094971A (ja) * 2000-09-14 2002-03-29 Omron Corp 表示切替装置および表示切替システム
JP2004198377A (ja) * 2002-12-20 2004-07-15 Zenrin Co Ltd 移動体監視システム
JP2018032433A (ja) * 2014-10-30 2018-03-01 三菱電機株式会社 自動運転支援システム
JP2017147626A (ja) 2016-02-18 2017-08-24 トヨタ自動車株式会社 遠隔操作システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927497A (zh) * 2021-01-14 2021-06-08 阿里巴巴集团控股有限公司 一种浮动车识别方法、相关方法和装置
CN115410393A (zh) * 2021-05-27 2022-11-29 丰田自动车株式会社 警报器控制方法、信息处理装置及非暂时性的计算机可读介质
CN115410393B (zh) * 2021-05-27 2023-08-29 丰田自动车株式会社 警报器控制方法、信息处理装置及非暂时性的计算机可读介质

Also Published As

Publication number Publication date
CN116153074A (zh) 2023-05-23
JP2023076554A (ja) 2023-06-01
JP7428839B2 (ja) 2024-02-06

Similar Documents

Publication Publication Date Title
JP7253446B2 (ja) 情報処理方法、及び、情報処理システム
JP7428839B2 (ja) 情報処理方法
CN106463054B (zh) 高级驾驶辅助系统(adas)的自适应报警管理
RU2726238C2 (ru) Автономное транспортное средство с поддержкой направления
US11610477B2 (en) Traffic assistance system, server, and vehicle-mounted device
JP7249879B2 (ja) 情報処理方法、及び、情報処理システム
JP7187242B2 (ja) 情報処理方法、及び、情報処理システム
US11620915B2 (en) Flight device, flight system, flight method, and program
JP7338739B2 (ja) 情報処理装置、制御方法、及びプログラム
US20240087371A1 (en) Information processing method and information processing system
US20230081876A1 (en) Remote assistance system and program
US11645914B2 (en) Apparatus and method for controlling driving of vehicle
KR102319383B1 (ko) 블랙박스 영상을 이용하여 교통 법규 위반 차량을 자동으로 신고하는 장치 및 방법
JP7330758B2 (ja) 情報処理方法、及び、情報処理システム
CN114630779A (zh) 信息处理方法、以及信息处理系统
WO2023007663A1 (ja) 監視システム、監視装置、及び監視方法
JP7422344B2 (ja) 報知制御装置、報知装置、報知制御方法および報知制御プログラム
CN116337104B (zh) 一种区域路径导航方法、系统、设备及存储介质
WO2024048517A1 (ja) 情報処理方法、及び、情報処理装置
WO2022176111A1 (ja) 改善項目検出装置、改善項目検出方法、及びプログラム
WO2023157239A1 (ja) 情報提供装置、ユーザ端末、危険度マップ提供システム、情報提供方法及び記録媒体
CN116802104A (zh) 控制模式选择和转变

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19868905

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2019868905

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2019868905

Country of ref document: EP

Effective date: 20210506