WO2023145173A1 - 処理方法、処理システム、処理プログラム、マップ生成方法、記憶媒体 - Google Patents

処理方法、処理システム、処理プログラム、マップ生成方法、記憶媒体 Download PDF

Info

Publication number
WO2023145173A1
WO2023145173A1 PCT/JP2022/040230 JP2022040230W WO2023145173A1 WO 2023145173 A1 WO2023145173 A1 WO 2023145173A1 JP 2022040230 W JP2022040230 W JP 2022040230W WO 2023145173 A1 WO2023145173 A1 WO 2023145173A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
automatic driving
analysis
processing
driving
Prior art date
Application number
PCT/JP2022/040230
Other languages
English (en)
French (fr)
Inventor
駿 清水
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022162851A external-priority patent/JP2023109142A/ja
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2023145173A1 publication Critical patent/WO2023145173A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map

Definitions

  • the present disclosure relates to technology related to automatic driving of moving bodies.
  • Patent Document 1 discloses a technique for generating and supplying a map for driving an automatic vehicle.
  • a map is generated based on an evaluation performed depending on acceleration data values of an automatically driving vehicle as a mobile object.
  • Patent Document 1 the evaluation result that depends on the acceleration data value is simply added to the map. Therefore, there is a shortage of data to evaluate automated driving vehicles and appropriately extract issues in automated driving.
  • the problem of the present disclosure is to provide a processing method, a processing system, and a processing program that can extract problems in automatic driving.
  • Another object of the present disclosure is to provide a map generation method and a storage medium useful for a processing method capable of extracting problems in automatic driving.
  • a first aspect of the present disclosure is A processing method executed by a processor to perform processing related to automatic driving of a mobile object, Of the dynamic data embedded in the digital map in association with the travel points of the mobile object, automated driving data representing the automated driving state of the mobile object at the analysis travel point, and the operator's response to the automatic driving state at the analysis travel point extracting audio evaluation data representing an audio evaluation of generating, based on the automated driving data, factor analysis data correlated with the voice evaluation data as a result of analyzing the factors of the automated driving state at the analysis driving point.
  • a second aspect of the present disclosure is A processing system having a processor and performing processing related to automatic operation of a mobile body,
  • the processor Of the dynamic data embedded in the digital map in association with the travel points of the mobile object, automated driving data representing the automated driving state of the mobile object at the analysis travel point, and the operator's response to the automatic driving state at the analysis travel point extracting audio evaluation data representing an audio evaluation of and generating, based on the automatic driving data, factor analysis data correlated with the voice evaluation data as a result of analyzing the factors of the automatic driving state at the analysis driving point.
  • a third aspect of the present disclosure is A processing program stored in a storage medium and containing instructions executed by a processor to perform processing related to automatic operation of a mobile object, the instruction is Of the dynamic data embedded in the digital map in association with the travel points of the mobile object, automated driving data representing the automated driving state of the mobile object at the analysis travel point, and the operator's response to the automatic driving state at the analysis travel point extracting audio evaluation data representing an audio evaluation of generating, based on the automatic driving data, factor analysis data correlated with the voice evaluation data as a result of analyzing the factors of the automatic driving state at the analysis driving point.
  • the automatic driving data representing the automatic driving state of the mobile body at the analysis traveling point
  • the automatic driving data Voice evaluation data representing the operator's evaluation of the driving condition
  • factor analysis data correlated with the voice evaluation data is generated based on the automatic driving data as a result of analyzing the factors of the automatic driving state at the analysis travel point. Therefore, according to the generated factor analysis data, it is possible to extract issues in automatic driving from the analyzed factors.
  • a fourth aspect of the present disclosure is A map generation method executed by a processor to generate a digital map provided to the processing method of the first aspect in relation to automated driving of a vehicle, comprising: Acquiring automatic driving data representing the automatic driving state of the moving object; Acquiring voice evaluation data representing a voice evaluation of an automated driving state from an operator; embedding automated driving data and voice evaluation data as dynamic data associated with travel points of the vehicle in a digital map and storing in a storage medium.
  • the automatic driving data representing the automatic driving state of the moving body not only the automatic driving data representing the automatic driving state of the moving body but also the voice evaluation data representing the operator's evaluation of the automatic driving state is transmitted during the automatic driving of the moving body. can be obtained in real time. Therefore, in the fourth aspect, the acquired automatic driving data and voice evaluation data are embedded in the digital map and stored in the storage medium as dynamic data associated with the traveling point of the mobile object. Therefore, the stored digital map is useful as a digital map to be subjected to the processing method of the first mode capable of extracting problems in automatic driving.
  • a fifth aspect of the present disclosure includes: A storage medium for storing a digital map generated by the map generation method of the fourth aspect.
  • the digital map stored in the storage medium of the fifth aspect in this way is useful as a digital map provided for the processing method of the first aspect that can extract problems in automatic driving according to the principle described in the fourth aspect. .
  • FIG. 4 is a flowchart showing a map generation flow according to the first embodiment; It is a block diagram which shows the functional structure of the processing system by 1st embodiment. It is a flowchart which shows the processing flow by 1st embodiment.
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • FIG. 4 is a schematic diagram for explaining the processing flow according to the first embodiment;
  • It is a block diagram which shows the functional structure of the processing system by 2nd embodiment. It is a flowchart which shows the processing flow by 2nd embodiment. It is a schematic diagram for demonstrating the processing flow by 2nd embodiment.
  • FIG. 7 is a flow chart showing a processing flow according to a modification of FIG. 6; FIG.
  • the processing system 1 of the first embodiment shown in FIG. 1 performs processing related to automatic driving of the moving body 2 shown in FIG. 2 (hereinafter referred to as automatic driving-related processing).
  • the control system 3 of the first embodiment shown in FIG. 2 controls the automatic operation of the moving body 2.
  • the mobile body 2 is, for example, an automobile or the like, which can travel on a travel road in a boarding state of a boarding operator who is a passenger in the first embodiment.
  • automatic driving control is realized in which levels are classified according to the degree of manual intervention of the boarding operator in the driving task.
  • Autonomous driving control may be achieved through autonomous driving control, such as conditional driving automation, advanced driving automation, or full driving automation, in which the system performs all driving tasks when activated.
  • Autonomous driving control may be achieved through advanced driving assistance control, such as driving assistance or partial driving automation, in which an on-board operator performs some or all driving tasks.
  • Automatic driving control may be realized by either one, combination, or switching between autonomous driving control and advanced driving support control.
  • a sensor system 4, a communication system 5, and an information presentation system 6 are mounted on the mobile object 2.
  • the sensor system 4 acquires sensor data that can be used by the control system 3 by detecting the external and internal worlds of the moving object 2 . Therefore, the sensor system 4 includes an external sensor 40 and an internal sensor 42 .
  • the external sensor 40 acquires external world data as sensor data from the external world that is the surrounding environment of the mobile body 2 .
  • the external world sensor 40 may acquire external world data by detecting targets existing in the external world of the moving body 2 .
  • the target detection type external sensor 40 is, for example, at least one type of camera, LiDAR (Light Detection and Ranging/Laser Imaging Detection and Ranging), radar, sonar, and the like.
  • the inner world sensor 42 acquires inner world data as sensor data from the inner world, which is the internal environment of the moving object 2 .
  • the inner world sensor 42 may acquire inner world data by detecting a specific motion physical quantity in the inner world of the moving object 2 .
  • the physical quantity sensing type internal sensor 42 is at least one of, for example, a running speed sensor, an acceleration sensor, a gyro sensor, and the like.
  • the inner world sensor 42 may acquire inner world data by detecting a specific state of the boarding operator in the inner world of the moving object 2 .
  • the operator detection type internal sensor 42 is at least one of, for example, a voice sensor 42a, a driver status monitor (registered trademark), a biosensor, a seating sensor, an actuator sensor, an in-vehicle device sensor, a mouse, a trackball, and the like.
  • the voice sensor 42a detects the voice uttered by the boarding operator of the moving body 2.
  • the communication system 5 acquires communication data that can be used by the control system 3 by wireless communication.
  • the communication system 5 may receive positioning signals from artificial satellites of GNSS (Global Navigation Satellite System) existing outside the mobile object 2 .
  • the positioning type communication system 5 is, for example, a GNSS receiver or the like.
  • the communication system 5 may transmit and receive communication signals to and from a V2X system existing outside the mobile object 2 .
  • the V2X type communication system 5 is, for example, at least one of a DSRC (Dedicated Short Range Communications) communication device, a cellular V2X (C-V2X) communication device, and the like.
  • the communication system 5 may transmit and receive communication signals to and from terminals existing in the inner world of the mobile object 2 .
  • the terminal communication type communication system 5 is, for example, at least one of Bluetooth (registered trademark) equipment, Wi-Fi (registered trademark) equipment, infrared communication equipment, and the like.
  • the information presentation system 6 presents notification information to the boarding operator within the mobile object 2 .
  • the information presentation system 6 may present notification information by visually stimulating the boarding operator.
  • the visual stimulus type information presentation system 6 is at least one of, for example, a HUD (Head-Up Display), an MFD (Multi-Function Display), a combination meter, a navigation unit, a light-emitting unit, and the like.
  • the information presentation system 6 may present notification information by stimulating the sense of hearing of the boarding operator.
  • the auditory stimulus type information presentation system 6 is at least one of a speaker, a buzzer, a vibration unit, and the like.
  • the control system 3 includes at least one dedicated computer.
  • the dedicated computer that constitutes the control system 3 is, for example, a LAN (Local Area Network) line, a wire harness, an internal bus, a wireless communication line, etc., through at least one type of sensor system 4, communication system 5, and information presentation It is connected to system 6.
  • LAN Local Area Network
  • the dedicated computer that constitutes the control system 3 may be an integrated ECU (Electronic Control Unit) that integrates the operation control of the moving body 2 .
  • the dedicated computer that constitutes the control system 3 may be a judgment ECU that judges the operation task in the operation control of the moving body 2 .
  • a dedicated computer that configures the control system 3 may be a monitoring ECU that monitors the operation control of the moving body 2 .
  • a dedicated computer that configures the control system 3 may be an evaluation ECU that evaluates the operation control of the mobile body 2 .
  • a dedicated computer that configures the control system 3 may be a navigation ECU that navigates the travel route of the mobile body 2 .
  • a dedicated computer that configures the control system 3 may be a locator ECU that estimates the self-state quantity of the moving body 2 .
  • the dedicated computer that constitutes the control system 3 may be an actuator ECU that controls the travel actuators of the moving body 2 .
  • the dedicated computer that constitutes the control system 3 may be an HCU (HMI (Human Machine Interface) Control Unit) that controls information presentation by the information presentation system 6 in the mobile body 2 .
  • the dedicated computer that configures the control system 3 may be a computer other than the mobile unit 2 that configures an external center or a mobile terminal that can communicate via the V2X type communication system 5, for example.
  • a dedicated computer that constitutes the control system 3 has at least one memory 30 and at least one processor 32 .
  • the memory 30 stores computer-readable programs and data non-temporarily, and includes at least one type of non-transitory storage medium such as a semiconductor memory, a magnetic medium, and an optical medium. tangible storage medium).
  • the processor 32 is, for example, CPU (Central Processing Unit), GPU (Graphics Processing Unit), RISC (Reduced Instruction Set Computer)-CPU, DFP (Data Flow Processor), GSP (Graph Streaming Processor), etc. At least one type as a core.
  • the memory 30 in the control system 3 stores a digital map Md (see FIG. 7 described later) provided to the processing system 1 including map data Dm that can be used for automatic operation of the mobile object 2 .
  • the memory 30 acquires and stores the latest map data Dm through communication with an external center via the V2X type communication system 5, for example.
  • the map data Dm is two-dimensional or three-dimensional data as information representing the traveling environment of the mobile body 2 .
  • the two-dimensional map data Dm may include an orthoimage. High-precision map data may be employed as the three-dimensional map data Dm.
  • Such map data Dm includes, for example, positional coordinates, shape, road surface condition, lane structure, connection structure, roadside structure, parking structure, internal/external relationship of intersections, parallel structure with sidewalks, intersection structure with railroad tracks, etc. It may include road information representing at least one of them.
  • the map data Dm may include indication information representing at least one of position coordinates, shape, direction, color, type, etc., of road signs attached to roads, road markings, and lane markings. .
  • the map data Dm may include feature information representing at least one of the positional coordinates, shape, direction, color, type, etc. of structures facing the road, traffic lights, and railroad crossing gates. good.
  • the map data Dm includes traffic rules such as legal speed, traffic classification, traffic direction, priority at intersections, necessity of temporary stop, necessity of vigilance, permit/denial of parking/stopping, permit/denial of lane change, permit/denial of right/left turn. , permission/prohibition of turning, presence/absence of regulation, traffic rules for each signal operation, and the like.
  • the processor 32 executes a plurality of instructions contained in the control program stored in the memory 30 in order to perform automatic operation control of the moving body 2 including processing for generating the digital map Md. .
  • the control system 3 constructs a plurality of functional blocks for performing automatic operation control of the moving body 2 including the process of generating the digital map Md.
  • a plurality of functional blocks built in the control system 3 include a recognition block 300, a planning block 320, a control block 340 and a map generation block 360 as shown in FIG.
  • the recognition block 300 acquires sensor data from the external sensor 40 and internal sensor 42 of the sensor system 4 .
  • the recognition block 300 acquires communication data from the communication system 5 .
  • a recognition block 300 acquires the map data Dm from the memory 30 .
  • the recognition block 300 recognizes the internal and external environment of the moving body 2 by fusing these acquired data as input. Furthermore, the recognition block 300 recognizes the voice uttered by the boarding operator of the mobile body 2 based on the sensor data from the voice sensor 42a.
  • the planning block 320 acquires recognition data representing recognition results from the recognition block 300 .
  • the planning block 320 judges the future route, future action, future trajectory of the mobile body 2, and future transitions of interactions between the mobile body 2 and users on other roads based on the acquired recognition data for each driving scene, and plots them in time series.
  • plan to Planning block 320 may then implement the plan using a vehicle driving model, such as a simulation model or a machine learning model.
  • the control block 340 acquires planning commands representing planning results from the planning block 320 .
  • the control block 340 implements the function of the Dynamic Driving Task, which controls the automatic driving of the mobile body 2 according to the scheduled instructions obtained.
  • the control block 340 gives control commands for realizing the respective behaviors to the plurality of travel actuators that cause the moving body 2 to behave in accordance with the planned commands.
  • the map generation block 360 acquires recognition data from the recognition block 300.
  • the map generation block 360 acquires the decision data representing the decision results at the time of planning and the plan command from the plan block 320 .
  • Map generation block 360 obtains control instructions from control block 340 .
  • the map generation block 360 executes the generation method for generating the digital map Md according to the map generation flow shown in FIG. 4 as a control flow. This map generation flow is repeatedly executed while the moving body 2 is activated.
  • Each "S" in the map generation flow means a plurality of steps executed by a plurality of instructions included in the map generation program of the control program.
  • the map generation block 360 identifies the current travel point of the moving object 2 (hereinafter referred to as the current travel point) based on the recognition data from the recognition block 300.
  • the map generation block 360 acquires the automatic driving data Dd representing the automatic driving state of the moving body 2 at the current travel point.
  • the map generating block 360 generates the automatic driving data Dd based on the recognition data from the recognition block 300, the judgment data and planning command from the planning block 320, and the control command from the control block 340.
  • the automatic driving data Dd based on the recognition data includes at least one of the recognition results such as type, position, traveling direction, speed, acceleration/deceleration, etc. regarding the recognition object in the recognition block 300.
  • the automatic driving data Dd based on the recognition data includes at least one of the road information, sign information, feature information, rule information, etc. exemplified with respect to the map data Dm as the recognition result of the recognition block 300.
  • the automatic driving data Dd based on the determination data at least one of the road information, sign information, feature information, rule information, and the like exemplified with respect to the map data Dm is the determination result at the time of planning in the planning block 320.
  • the automatic driving data Dd based on the determination data includes information about the driving scene determined at the time of planning in the planning block 320, such as the type of driving environment, the driving position within the driving lane, the road surface condition of the driving lane, and the presence or absence of objects within the driving lane. , and the operation state of the traffic light, etc., at least one type of determination result may be included.
  • At least one of flooding, cracks, accumulated snow, accumulated ash, and the like may be assumed as the road surface condition of the driving lane.
  • At least one of manholes, bridge joints, cones, and the like may be assumed as the presence or absence of an object in the travel lane.
  • the automatic driving data Dd based on the determination data includes at least one type of future data, such as position coordinates, driving direction, speed, acceleration/deceleration, etc., regarding other road users determined to be obstacles at the time of planning in the planning block 320.
  • a transition (predicted trajectory) may be included.
  • the automatic driving data Dd based on the judgment data includes at least one type, such as type and size, related to other road users judged to be obstacles at the time of planning in the planning block 320, in association with future transitions.
  • the other road users are assumed to be at least one of vulnerable road users such as humans such as pedestrians and animals, and non-vulnerable road users such as vehicles such as automobiles, trucks, motorcycles, and bicycles. may have been
  • the automatic driving data Dd based on the planning command and/or the control command includes, for example, the trajectory, position, speed, acceleration/deceleration, yaw angle, yaw rate, steering angle, and other roads related to the moving body 2 controlled by the control block 340. At least one type of actual parameter, such as the margin with the user, may be included.
  • the automatic driving data Dd based on the planning command and/or the control command includes, for example, the trajectory, position, speed, acceleration/deceleration, yaw angle, yaw rate, steering angle, etc. of the moving body 2 controlled by the control block 340. , may include at least one target parameter.
  • the automatic driving data Dd based on the plan command and/or the control command may contain the deviation between the at least one type of actual parameter and the target parameter.
  • the map generation block 360 determines whether or not the voice evaluation data Da representing the evaluation by the boarding operator of the automatic driving state of the mobile body 2 at the current travel point has been acquired. At this time, the map generation block 360 determines whether or not the speech evaluation data Da is acquired based on the speech recognition data representing the speech recognition result among the recognition data from the recognition block 300 .
  • the speech recognition data determined as the speech evaluation data Da is obtained by patterning the contents of the evaluation speech so as to express the speech obtained by evaluating the driving scene and the actual behavior at the current traveling point by the boarding operator.
  • the evaluation voice of the driving scene is, for example, the presence or absence of obstacles for the moving body 2, the state of the traffic lights involved in the running of the moving body 2, the type of the driving environment at the current driving point, and the like.
  • Evaluate by At least one type of the evaluation voice of the actual behavior is evaluated by voice among, for example, sudden braking, sudden steering, and sudden deceleration of the moving body 2 .
  • Specific examples of such evaluation voices include "sudden braking even though the traffic light is green" and "sudden steering even though there is no obstacle ahead of the lane".
  • the map generation block 360 in S30 may acquire the speech recognition data itself from the recognition block 300 as the speech evaluation data Da.
  • the map generation block 360 in S30 may convert the speech recognition data from the recognition block 300 into text data, and then acquire the converted text data as the speech evaluation data Da. In either case, the map generation block 360 in S30 determines whether or not the speech evaluation data Da represents the evaluation speech, and if the result is affirmative, it determines that the speech evaluation data Da has been acquired. You can go down.
  • the map generation flow proceeds to S40.
  • the map generation block 360 embeds and stores the acquired automatic driving data Dd and voice evaluation data Da in the digital map Md of the memory 30 as dynamic data to be associated with the current driving point of the map data Dm in the digital map Md. do.
  • a digital map Md in which the current travel point is also associated with a time stamp and embedded therein may be stored.
  • the processing system 1 shown in FIG. 1 is installed, for example, at an external center such as a data analysis center.
  • the processing system 1 comprises an information presentation unit 7 and an input unit 8 .
  • the information presentation unit 7 presents information to the processing operator of the processing system 1 .
  • the information presentation unit 7 may be, for example, a liquid crystal panel or an organic EL panel that displays image data including the digital map Md.
  • the information presentation unit 7 may be, for example, a speaker or the like that outputs the audio evaluation data Da included in the digital map Md as audio.
  • the input unit 8 receives input from the processing operator.
  • the input unit 8 is, for example, at least one type of mouse, trackball, keyboard, and the like.
  • the information presentation unit 7 and the input unit 8 are preferably configured so as to jointly provide a GUI (Graphical User Interface) to the processing operator.
  • GUI Graphic User Interface
  • the processing operator may be a person different from the boarding operator, or may be the same person as the boarding operator.
  • the processing system 1 further includes a processing computer 1a as at least one dedicated computer.
  • the processing computer 1a is connected to the information presentation unit 7 and the input unit 8 via at least one of, for example, LAN (Local Area Network) lines, wire harnesses, internal buses, wireless communication lines, and the like.
  • LAN Local Area Network
  • the processing computer 1a has at least one memory 10 and at least one processor 12.
  • the memory 10 stores computer-readable programs and data non-temporarily, for example, at least one type of non-transitory physical storage medium (non-transitory storage medium) among semiconductor memory, magnetic medium, optical medium, etc. tangible storage medium).
  • the processor 12 includes, as a core, at least one of CPU, GPU, RISC-CPU, and the like.
  • a memory 10 in the processing computer 1a stores a digital map Md provided by a control system 3 that controls at least one mobile object 2.
  • the provision of the digital map Md from the control system 3 to the processing computer 1a is realized by data transmission via a communication network between the two sides 3, 1a or by physically moving the memory 30 between the two sides 3, 1a. be.
  • the digital map Md may be transferred between the memory 30 connected to the processing computer 1a and the memory 10 of the processing computer 1a.
  • the memory 30 holding the digital map Md may substantially form part of the memory 10 by connection to the processing computer 1a.
  • the processor 12 executes a plurality of instructions contained in the processing program stored in the memory 10 in order to perform automatic driving-related processing of the moving object 2 by the processing system 1.
  • the processing computer 1 a constructs a plurality of functional blocks for performing automatic driving-related processing of the moving body 2 by the processing system 1 .
  • a plurality of functional blocks constructed in the processing computer 1a include an extraction block 100 and a factor analysis block 120 as shown in FIG.
  • These blocks 100 and 110 execute a processing method for performing automatic driving-related processing of the moving body 2 according to the processing flow shown in FIG.
  • This processing flow is executed according to a command from the processing operator of the processing system 1 .
  • Each "S" in the processing flow means a plurality of steps executed by a plurality of instructions included in the processing program.
  • the extraction block 100 causes the information presentation unit 7 to display a selection request image requesting selection of the digital map Md in order to start the factor analysis process of the automatic driving state as automatic driving related processing of the moving body 2.
  • the extraction block 100 determines whether or not the digital map Md for starting the factor analysis process has been selected from among the digital maps Md stored in the memory 10 by an input operation to the input unit 8 from the processing operator. do. As a result, when the digital map Md is selected, the processing flow proceeds to S120.
  • the extraction block 100 causes the information presentation unit 7 to display the map data Dm included in the selected digital map Md (hereinafter simply referred to as the digital map Md), as shown in FIG.
  • the extraction block 100 extracts a travel point Po for which a specific reference parameter Bp is out of the allowable range among the automatic driving data Dd included in the dynamic parameters embedded in the digital map Md in association with the travel point of the mobile object 2. is superimposed on the map data Dm.
  • the extraction block 100 superimposes the travel point Pa associated with the voice evaluation data Da, among the dynamic parameters embedded in the digital map Md in association with the travel point of the mobile object 2, onto the map data Dm. indicate.
  • the reference parameter Bp represents the actual behavior of the mobile body 2 under automatic driving control, such as trajectory, position, speed, acceleration/deceleration, yaw angle, yaw rate, steering angle, and margin with other road users. At least one of the actual parameter and the deviation of the actual parameter from the target parameter is employed. Therefore, the extraction block 100 extracts the travel points Po at which the reference parameter Bp exceeds the threshold value or falls outside the allowable range of the threshold value or more by time-series analysis or frequency analysis of the parameter Bp, and superimposes them on the map data Dm.
  • the driving point Pa associated with the voice evaluation data Da is displayed superimposed on the driving point Po as shown in FIG. 7 when the reference parameter Bp matches the driving point Po outside the allowable range. Good.
  • the driving area is also displayed in the form of a heat map according to the difference between the reference parameter Bp and the threshold value of the allowable range, as shown in FIG. It is preferable to superimpose and display the map data Dm.
  • gradation schematically shows a state in which the display color changes in a heat map according to the magnitude of the difference between the reference parameter Bp and the threshold value of the allowable range.
  • the extraction block 100 extracts the factors from among the driving points Pa associated with the voice evaluation data Da, including the driving points Pa whose reference parameter Bp is out of the allowable range. It is determined whether or not the analysis travel point Pac to be analyzed has been selected by the processing operator through the input unit 8 . As a result, when the analysis travel point Pac is selected, the processing flow proceeds to S140. At this time, when an analysis travel point Pac is selected in which the reference parameter Bp coincides with the travel point Po whose reference parameter Bp is outside the allowable range, as shown in FIG. .
  • the extraction block 100 extracts the automatic driving data Dd and the voice evaluation data at the selected analysis driving point Pac (hereinafter simply referred to as the analysis driving point Pac) among the dynamic parameters embedded in the digital map Md. Da is extracted. At this time, all of the automatic driving data Dd embedded in the digital map Md in association with the analyzed travel point Pac may be extracted, or a portion of all the data Dd including the reference parameter Bp may be extracted. .
  • the factor analysis block 120 acquires from the memory 10 the factor definition data Df that serves as the basis for the factor analysis process. At this time, as the factor definition data Df, data correlated with the automatic driving data Dd at the analyzed travel point Pac and the voice evaluation data Da at the same point Pac are read.
  • the factor definition data Df defines the causal relationship from the traveling scene of the moving body 2 at the analysis traveling point Pac to the actual behavior, and is stored in the memory 10 .
  • the factor definition data Df of the first embodiment is such that commands generated by processing factors in the respective blocks 300, 320, and 340 of the control system 3 correspond to actual behavior of the moving body 2 with respect to a driving scene in the real world. It defines a time-series branching tree that gives rise to . Therefore, the factor analysis block 120 determines the driving scene and actual behavior for determining the factor definition data Df based on at least the reference parameter Bp of the automatic driving data Dd at the analysis driving point Pac and the voice evaluation data Da at the same point Pac. . The factor analysis block 120 selects the factor definition data Df corresponding to the driving scene and actual behavior determined in this way in the memory 10 .
  • the factor definition data Df illustrated in FIG. 9 includes a driving scene that causes sudden braking of the moving body 2 as an actual behavior, recognition factors in the recognition block 300, planning factors and planning instructions in the planning block 320, and control block A chronological causal relationship is defined for the control command at 340 .
  • the factor definition data Df exemplified in FIG. A chronological causal relationship is defined for the control commands in block 340 .
  • 9 and 10 exemplify the factor definition data Df by branching trees from a plurality of driving scenes for a single actual behavior. 11 and 12 corresponding to FIGS. 9 and 10, respectively, tree portions corresponding to the number of judgments of the driving scene and actual behavior by the factor analysis block 120. should be read from at least the memory 10 .
  • the factor analysis block 120 is defined in the read factor definition data Df (hereinafter simply referred to as factor definition data Df) of the automatic driving data Dd at the analysis travel point Pac.
  • Backing data Ddb backing each of the factors and commands is selected as illustrated in FIGS.
  • the backing data Ddb selected at this time is data backing the causal relationship between the driving scene and the actual behavior determined from the factor definition data Df that correlates with the voice evaluation data Da in S150. At least the former is the data Da. Therefore, the backing data Ddb can also be said to be data correlated with the voice evaluation data Da.
  • the supporting data Ddb supporting at least the latter of the planning command and the control command preferably includes the reference parameter Bp at the analysis travel point Pac.
  • the factor analysis block 120 analyzes the factors of the automatic driving state at the analysis driving point Pac based on the selected supporting data Ddb (hereinafter simply referred to as supporting data Ddb). Resulting factor analysis data Dc is generated.
  • the factor analysis data Dc maximizes the likelihood calculated from the backing data Ddb as the causal relationship between the driving scene and the actual behavior correlated with the voice evaluation data Da in the branch tree in the factor definition data Df.
  • the tree portion becomes data extracted as exemplified in FIGS. Therefore, the factor analysis data Dc can also be said to be data correlated with the voice evaluation data Da.
  • the factor analysis data Dc is generated based on the supporting data Ddb including the reference parameter Bp at the analysis travel point Pac as the supporting data Ddb supporting at least the latter of the planning command and the control command. should be.
  • the factor analysis block 120 stores the generated factor analysis data Dc in the memory 10 in subsequent S180.
  • factor analysis data Dc may be stored in memory 10 in association with supporting data Ddb as illustrated in FIGS.
  • the factor analysis data Dc may be stored in the memory 10 in association with at least the map data Dm of the digital map Md.
  • the factor analysis data Dc accumulated in this manner may be fed back to the development or design of a vehicle running model or the like used in the planning block 320, for example.
  • the factor analysis data Dc may be used for maintenance including calibration of the moving body 2 .
  • the factor analysis data Dc may be used to update the digital map Md or the map data Dm that constitutes it.
  • the automatic driving data Dd representing the automatic driving state of the mobile body 2 at the analysis traveling point Pac
  • the automatic driving data Dd Voice evaluation data Da representing the evaluation of the driving state from the boarding operator is extracted. Therefore, according to the first embodiment, factor analysis data Dc correlated with the voice evaluation data Da is generated based on the automatic driving data Dd as a result of analyzing the factors of the automatic driving state at the analysis driving point Pac. Therefore, according to the generated factor analysis data Dc, it is possible to extract issues in automatic driving from the analyzed factors.
  • the travel point Po of the moving object 2 at which the reference parameter Bp, which is the criterion for factor analysis, is out of the allowable range in the automatic driving data Dd is set as the analysis travel point Pac, and the Automatic driving data Dd and voice evaluation data Da may be extracted.
  • the factor analysis data Dc can be generated for the analysis travel point Pac at which there is a high possibility that the reference parameter Bp has fallen outside the allowable range due to problems in automatic driving. Therefore, according to the generated factor analysis data Dc, it is possible to extract problems in automatic driving with high accuracy.
  • the factor analysis data Dc when generated based on the reference parameter Bp that reflects the problem in the automatic driving data Dd guarantees reliability for highly accurate problem extraction in automatic driving. It becomes possible to
  • the factor analysis data Dc based on the selected data Ddb is generated by selecting the supporting data Ddb as the automatic driving data Dd correlated with the voice evaluation data Da.
  • the automatic driving data Dd which is based on the generation of the factor analysis data Dc that correlates with the voice evaluation data Da, is correlated with the common voice evaluation data Da to support data Ddb that is suitable for factor analysis. can be squeezed. Therefore, in generating the factor analysis data Dc from which problems in automatic driving can be extracted, it is possible to reduce the load of the analysis process and shorten the time required for the analysis process.
  • the acquired automatic driving data Dd and voice evaluation data Da are embedded in the digital map Md and stored in the memory 30 of the control system 3 as dynamic data associated with the travel points of the mobile object 2. be done. Therefore, the digital map Md stored in the memory 30 is useful as a digital map Md provided for a processing method in the processing system 1 capable of extracting problems in automatic driving.
  • the second embodiment is a modification of the first embodiment.
  • the memory 10 of the processing system 1 stores a first processing program that constructs the blocks 100 and 120 and executes the processing flow described in the first embodiment as the first processing flow. Furthermore, in the second embodiment, a second processing program for constructing blocks 2100, 2120, and 2140 shown in FIG. 17 and executing the second processing flow shown in FIG. 18 is stored in the memory 10 of the processing system 1. ing.
  • the second process flow may be automatically executed following the first process flow, or may be executed separately from the first process flow according to instructions from the process operator of the processing system 1 .
  • Each "S" in the second processing flow means a plurality of steps executed by a plurality of instructions included in the second processing program.
  • the risk update block 2100 updates the risk identification data Di given to the digital map Md based on the factor analysis data Dc accumulated by at least the latest first process flow among the past times.
  • the risk identification data Di represents the risk level for automatic driving identified for each traveling point on the road in the map data Dm included in the digital map Md.
  • the risk identification data Di of this embodiment represents three categories of high, medium, and low as categories of risk levels for automatic driving.
  • the risk update block 2100 in S2100 automatically updates the risk level at the analysis driving point Pac based on the factor of the automatic driving state at the analysis driving point Pac, which is represented by the factor analysis data Dc in association with the digital map Md. to decide.
  • the risk level may be determined based on at least one of the automatic driving data Dd and the voice evaluation data Da as the supporting data Ddb stored in association with the factor analysis data Dc. For example, when the number of lanes is a hindrance to the lane change in the factor analysis data Dc, it is possible to improve the accuracy of risk level judgment by also based on the automatic driving data Dd. Also, for example, if the visibility is the cause of the sudden stop against the green light in the factor analysis data Dc, or if there is a local rule, etc., based on the voice evaluation data Da, the risk level judgment accuracy is increased. becomes possible.
  • the risk update block 2100 in S2100 automatically updates the risk identification data Di regarding the travel area containing the analyzed travel point Pac on the digital map Md according to the determined risk level.
  • the digital map Md not only the risk identification data Di of the travel area including the analysis travel point Pac, but also the travel area containing the factors represented by the factor analysis data Dc at the analysis travel point Pac are identified as risks.
  • the identification data Di may be updated. Further, in S2100 as described above, if the factor analysis data Dc is fed back to the development or design of, for example, a vehicle running model, the results of such development or design are also reflected in the judgment and update of the risk level. may
  • the risk display block 2120 causes the information presentation unit 7 to display the updated risk identification data Di superimposed on the map data Dm included in the digital map Md as shown in FIG.
  • the risk identification data Di identifiably represents a risk level for each driving area defined by including a plurality of driving points on the road in the map data Dm.
  • the risk identification data Di of this embodiment is displayed in a heat map with different colors such as red, yellow, and green corresponding to the high, medium, and low risk levels.
  • the states in which the display colors are different according to the risk levels are schematically shown by different hatching.
  • the high-risk-level risk identification data Di may represent a travel area in which automatic driving is prohibited because the automatic driving performance of the mobile body 2 itself is insufficient.
  • the risk identification data Di of the medium risk level indicates that the automatic driving performance of the moving object 2 is insufficient to guarantee the automatic driving performance. It is preferable to represent the area.
  • the risk identification data Di of the low risk level may represent a travel area in which automatic driving is permitted, assuming that the automatic driving performance of the moving body 2 is guaranteed.
  • the risk display block 2120 in S2110 causes the information presentation unit 7 to display a route selection button bs, a narrow area display button bn, and a selection end button be superimposed on the wide area map data Dm as shown in FIG. Therefore, as shown in FIG. 18, in S2120 following S2110, the risk display block 2120 checks whether or not any one of the buttons bs, bn, and be has been selected by the input operation to the input unit 8 by the processing operator. judge.
  • the second processing flow proceeds to S2130.
  • the risk display block 2120 causes the processing operator to select a planned travel route for the moving body 2 to travel when the digital map Md is to be generated from the next time onward, by the input operation to the input unit 8.
  • the risk display block 2120 in S2130 may superimpose at least one type of route candidate on the map data Dm and display it on the information presentation unit 7 in order to automatically support the selection of the planned travel route by the processing operator. At this time, at least one of the risk level represented by the risk identification data Di and the past planned travel route corresponding to the factor analysis data Dc should be considered. Further, at this time, in response to the selection of the travel area by the processing operator's input operation to the input unit 8, the factors represented by the factor analysis data Dc for the selected area are displayed superimposed on the map data Dm. may After completion of S2130, the second process flow returns to S2110.
  • the second processing flow proceeds to S2140.
  • the risk display block 2120 waits for the processing operator to select a travel area whose display is to be enlarged from the wide map data Dm by an input operation to the input unit 8.
  • FIG. As a result, when the travel area whose display is to be enlarged is selected, the second processing flow proceeds to S2150.
  • a return button (not shown) may be displayed and selected by the processing operator's input operation to the input unit 8, whereby the second processing flow may return to S2110.
  • the risk display block 2120 causes the information presentation unit 7 to display the updated risk identification data Di in S2110 by superimposing it on the map data Dm of the narrow area enlarged as shown in FIG. 20 from the wide area shown in FIG. .
  • the risk display block 2120 also causes the information presentation unit 7 to display a return button br for returning to the display of the wide area map data Dm, superimposed on the small area map data Dm, as shown in FIG. Therefore, as shown in FIG. 18, in subsequent S2160, the risk display block 2120 waits for the return button br to be selected by the input operation to the input unit 8 from the processing operator. As a result, when the return button br is selected, the second processing flow returns to S2110.
  • the second processing flow proceeds to S2170.
  • the route reflection block 2140 updates the digital map Md stored in the memory 10 so that the travel route data Dr representing the selected scheduled travel route as shown in FIG. 21 is added together with the risk identification data Di. do.
  • the factor analysis data Dc may also be added to the digital map Md.
  • the digital map Md thus updated is provided from the processing system 1 to the control system 3 of the mobile unit 2 by data transmission via a communication network or by physically moving the memory 30 at S2170 as shown in FIG. It will happen.
  • the execution of S2170 is completed, the current execution of the second processing flow ends.
  • the risk identification data Di that identifiably expresses the risk level based on the generated factor analysis data Dc is displayed superimposed on the digital map Md. According to this, the analyzed factor can be reflected in the risk level and presented to the processing operator. Therefore, it becomes possible to enhance the usefulness of the factor analysis data Dc.
  • the processing system 1 instructs the processing system 1 to select the planned travel route for the mobile object 2 to travel under the display of the risk identification data Di. According to this, the processing operator can select the planned travel route necessary for generating the digital map Md from the next time on, while considering the risk level based on the factor analysis data Dc. Therefore, it becomes possible to enhance the usefulness of the factor analysis data Dc.
  • the travel route data Dr representing the selected planned travel route and the risk identification data Di are added to the digital map Md and provided to the mobile object 2 .
  • the boarding operator can check the planned driving route necessary for generating the digital map Md from the next time on, taking into consideration the risk level based on the factor analysis data Dc. Therefore, it becomes possible to enhance the usefulness of the factor analysis data Dc.
  • the third embodiment is a modification of the second embodiment.
  • the memory 10 of the processing system 1 stores first and second processing programs that respectively execute the first and second processing flows described in the second embodiment.
  • a second control program that constructs blocks 300, 320, 340, and 360 and executes a second control flow that includes the map generation flow described in the first embodiment is stored in the memory 30.
  • a first control program for constructing blocks 3300 and 3320 shown in FIG. 22 and executing the first control flow shown in FIG. 23 is stored in the memory 30 of the control system 3.
  • the first control flow may be automatically executed prior to the second control flow, or may be executed separately from the second control flow in response to a command from the boarding operator during activation of the mobile body 2. .
  • the second control flow should also be executed in response to a command from the boarding operator while the mobile body 2 is running.
  • Each "S" in the first control flow means a plurality of steps executed by a plurality of instructions included in the first control program.
  • the data extraction block 3300 reads out the latest digital map Md provided from the processing system 1 and stored in the memory 10 from the memory 10 . Therefore, the data extraction block 3300 in S3100 extracts the risk identification data Di and the travel route data Dr added to the read digital map Md from the map Md. At this time, the factor analysis data Dc added to the read digital map Md may also be extracted.
  • S3110 to S3170 subsequent to S3100 are executed according to S2110 to S2170 of the second embodiment, respectively.
  • the risk indication block 2120 in the second processing flow of the second embodiment is replaced by the risk indication block 3320 shown in FIG. 22 in the first control flow of the third embodiment.
  • the information presentation unit 7 in the second processing flow of the second embodiment is replaced by the information presentation system 6 of the moving body 2 in the first control flow of the third embodiment.
  • the input unit 8 in the second processing flow of the second embodiment is replaced by the internal sensor 42 of the moving object 2 or an input terminal capable of communicating with the communication system 5 in the first control flow of the third embodiment.
  • the memory 10 of the processing system 1 in the second processing flow of the second embodiment is replaced by the memory 30 of the control system 3 in the first control flow of the third embodiment.
  • the processing operator of the processing system 1 in the second processing flow of the second embodiment is replaced by the boarding operator of the moving body 2 in the first control flow of the third embodiment.
  • the scheduled travel route selected by the processing operator in accordance with the execution of S2130 in the processing system 1 is updated by being reselected by the boarding operator.
  • S3120 and S3150 which follow S2120 and S2150, respectively, if the displayed selection end button be is selected in a state in which the planned travel route has not been reselected by the execution of S3130, S3170 is omitted (not shown). is skipped and the current execution of the first control flow ends.
  • the mobile body 2 when the digital map Md is generated, the mobile body 2 is also instructed to select the planned travel route to travel under the display of the risk identification data Di. According to this, the boarding operator can confirm the planned driving route necessary for generating the digital map Md from the next time onward while considering the risk level based on the factor analysis data Dc. can also be selected. Therefore, it becomes possible to enhance the usefulness of the factor analysis data Dc.
  • the dedicated computer that constitutes the processing system 1 and/or the control system 3 may have at least one of digital circuits and analog circuits as a processor.
  • Digital circuits here include, for example, ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), SOC (System on a Chip), PGA (Programmable Gate Array), and CPLD (Complex Programmable Logic Device). , at least one Such digital circuits may also have a memory that stores the program.
  • the travel points Po whose reference parameter Bp is outside the allowable range may not be displayed in S120.
  • the display at S100 may be skipped and the selection of the digital map Md at S110 may be automatically performed by the extraction block 100.
  • FIG. In addition to this modification, as shown in FIG. 24, or in another modification, although not shown, the display in S120 is skipped, and the selection of the analysis driving point Pac in S130 is performed by the extraction block 100. It may be performed automatically.
  • the risk level determined by S2100 and displayed as the risk identification data Di by S2110 and S3110 may be set to two categories, or four categories or more.
  • S2150 and S3150 for displaying the narrow-area map data Dm in the modified examples of the second and third embodiments the selection of the planned travel route is instructed and accepted according to the set of S2120 and S2130 and the set of S3120 and S3130, respectively.
  • S2110-S2160 may be skipped so that the digital map Md updated by adding the risk identification data Di may be provided to the control system 3 of the mobile body 2 in S2170.
  • the control system 3 of the moving body 2 may execute processing according to S2100 instead of executing S3100.
  • the boarding operator may be replaced by a monitoring operator who monitors the mobile body 2 at, for example, an external center outside the mobile body 2 .
  • the monitoring operator may function as the processing operator.
  • Automatic driving data Dd, Ddb
  • voice evaluation data representing a voice evaluation from an operator of the automated driving state at the analysis travel point
  • Dc factor analysis data
  • Extracting the automated driving data and the voice evaluation data includes: The automatic driving data and the voice evaluation data are used as the analysis driving points, with the traveling point (Po) of the moving body at which the reference parameter (Bp), which is the starting criterion for factor analysis, is out of the allowable range among the automatic driving data.
  • Generating the factor analysis data includes: The processing method according to technical idea 2, including generating the factor analysis data based on the reference parameter.
  • Generating the factor analysis data includes: The processing method according to any one of technical ideas 1 to 3, including selecting the automatic driving data (Ddb) correlated with the voice evaluation data and generating the factor analysis data based on the selected data. .
  • a processor executed by a processor (32) to generate a digital map (Md) provided to the processing method according to any one of technical ideas 1 to 8 in relation to automatic driving of a mobile object (2) a map generation method comprising: Acquiring automatic operation data (Dd) representing an automatic operation state of the moving body; Acquiring voice evaluation data (Da) representing a voice evaluation of the automatic driving state from an operator; and embedding the automatic driving data and the voice evaluation data as dynamic data associated with the travel points of the mobile body in the digital map and storing the data in a storage medium (30).
  • Dd Acquiring automatic operation data
  • Da representing a voice evaluation of the automatic driving state from an operator
  • embedding the automatic driving data and the voice evaluation data as dynamic data associated with the travel points of the mobile body in the digital map and storing the data in a storage medium (30).

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

移動体の自動運転に関連する処理を遂行するために、プロセッサにより実行される処理方法は、デジタルマップ(Md)において移動体の走行ポイントに関連付けて埋め込まれた動的データのうち、分析走行ポイント(Pac)における移動体の自動運転状態を表す自動運転データ(Dd)と、分析走行ポイント(Pac)における自動運転状態に対してのオペレータからの音声による評価を表す音声評価データ(Da)とを、抽出することと、分析走行ポイント(Pac)での自動運転状態の要因を分析した結果として、音声評価データ(Da)に相関する要因分析データ(Dc)を、自動運転データ(Dd)に基づき生成することとを、含む。

Description

処理方法、処理システム、処理プログラム、マップ生成方法、記憶媒体 関連出願の相互参照
 この出願は、2022年1月26日に日本に出願された特許出願第2022-10353号、及び、2022年10月10日に日本に出願された特許出願第2022-162851号を基礎としており、基礎の出願の内容を、全体的に、参照により援用している。
 本開示は、移動体の自動運転に関連する技術に、関する。
 特許文献1は、自動運連車両を運転するためのマップを生成して供給する技術を、開示している。この特許文献1に開示の技術では、移動体としての自動運転車両の加速度データ値に依存して行われた評価に基づくことで、マップが生成されている。
特開2019-69754号公報
 しかし、特許文献1に開示の技術では、加速度データ値に依存する評価結果が、単にマップに付加されているに過ぎない。そのため、自動運転車両を評価して自動運転における課題を適切に抽出するには、データが不足する状況となる。
 本開示の課題は、自動運転における課題を抽出可能な処理方法、処理システム、及び処理プログラムを提供することにある。本開示の別の課題は、自動運転における課題を抽出可能な処理方法に有用なマップ生成方法、及び記憶媒体を提供することにある。
 以下、課題を解決するための本開示の技術的手段について、説明する。
 本開示の第一態様は、
 移動体の自動運転に関連する処理を遂行するために、プロセッサにより実行される処理方法であって、
 デジタルマップにおいて移動体の走行ポイントに関連付けて埋め込まれた動的データのうち、分析走行ポイントにおける移動体の自動運転状態を表す自動運転データと、分析走行ポイントにおける自動運転状態に対してのオペレータからの音声による評価を表す音声評価データとを、抽出することと、
 分析走行ポイントでの自動運転状態の要因を分析した結果として、音声評価データに相関する要因分析データを、自動運転データに基づき生成することとを、含む。
 本開示の第二態様は、
 プロセッサを有し、移動体の自動運転に関連する処理を遂行する処理システムであって、
 プロセッサは、
 デジタルマップにおいて移動体の走行ポイントに関連付けて埋め込まれた動的データのうち、分析走行ポイントにおける移動体の自動運転状態を表す自動運転データと、分析走行ポイントにおける自動運転状態に対してのオペレータからの音声による評価を表す音声評価データとを、抽出することと、
 分析走行ポイントでの自動運転状態の要因を分析した結果として、音声評価データに相関する要因分析データを、自動運転データに基づき生成することとを、実行するように構成される。
 本開示の第三態様は、
 移動体の自動運転に関連する処理を遂行するために記憶媒体に記憶され、プロセッサにより実行される命令を含む処理プログラムであって、
 命令は、
 デジタルマップにおいて移動体の走行ポイントに関連付けて埋め込まれた動的データのうち、分析走行ポイントにおける移動体の自動運転状態を表す自動運転データと、分析走行ポイントにおける自動運転状態に対してのオペレータからの音声による評価を表す音声評価データとを、抽出させることと、
 分析走行ポイントでの自動運転状態の要因を分析した結果として、音声評価データに相関する要因分析データを、自動運転データに基づき生成させることとを、含む。
 このような第一~第三態様では、デジタルマップにおいて移動体の走行ポイントに関連付けて埋め込まれた動的データのうち、分析走行ポイントにおける移動体の自動運転状態を表す自動運転データと、当該自動運転状態に対してのオペレータからの評価を表す音声評価データとが、抽出される。そこで第一~第三態様によると、分析走行ポイントでの自動運転状態の要因を分析した結果として、音声評価データに相関する要因分析データが自動運転データに基づき生成される。故に、生成された要因分析データによれば、分析された要因から自動運転における課題を抽出することが可能となる。
 本開示の第四態様は、
 移動体の自動運転に関連して第一態様の処理方法に提供されるデジタルマップを生成するために、プロセッサにより実行されるマップ生成方法であって、
 移動体の自動運転状態を表す自動運転データを、取得することと、
 自動運転状態に対してのオペレータからの音声による評価を表す音声評価データを、取得することと、
 移動体の走行ポイントに関連付ける動的データとして自動運転データ及び音声評価データを、デジタルマップに埋め込んで記憶媒体に記憶することとを、含む。
 このような第四態様によると、移動体の自動運転状態を表す自動運転データだけでなく、当該自動運転状態に対してのオペレータからの評価を表す音声評価データが、移動体の自動運転中にリアルタイムに取得され得る。そこで第四態様では、取得された自動運転データ及び音声評価データが、移動体の走行ポイントに関連付ける動的データとしてデジタルマップに埋め込まれて記憶媒体に記憶される。故に、記憶されたデジタルマップは、自動運転における課題を抽出可能な第一態様の処理方法に供されるデジタルマップとして、有用となる。
 本開示の第五態様は、
 第四態様のマップ生成方法により生成されたデジタルマップを、記憶する記憶媒体である。
 このように第五態様の記憶媒体に記憶されたデジタルマップは、自動運転における課題を抽出可能な第一態様の処理方法に供されるデジタルマップとして、第四態様で説明の原理により有用となる。
第一実施形態による処理システムの全体構成を示すブロック図である。 第一実施形態による制御システムの全体構成を示すブロック図である。 第一実施形態による制御システムの機能構成を示すブロック図である。 第一実施形態によるマップ生成フローを示すフローチャートである。 第一実施形態による処理システムの機能構成を示すブロック図である。 第一実施形態による処理フローを示すフローチャートである。 第一実施形態による処理フローを説明するための模式図である。 第一実施形態による処理フローを説明するための模式図である。 第一実施形態による処理フローを説明するための模式図である。 第一実施形態による処理フローを説明するための模式図である。 第一実施形態による処理フローを説明するための模式図である。 第一実施形態による処理フローを説明するための模式図である。 第一実施形態による処理フローを説明するための模式図である。 第一実施形態による処理フローを説明するための模式図である。 第一実施形態による処理フローを説明するための模式図である。 第一実施形態による処理フローを説明するための模式図である。 第二実施形態による処理システムの機能構成を示すブロック図である。 第二実施形態による処理フローを示すフローチャートである。 第二実施形態による処理フローを説明するための模式図である。 第二実施形態による処理フローを説明するための模式図である。 第二実施形態による処理フローを説明するための模式図である。 第三実施形態による処理システムの機能構成を示すブロック図である。 第三実施形態による処理フローを示すフローチャートである。 図6の変形例による処理フローを示すフローチャートである。
 以下、本開示の実施形態を図面に基づき複数説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことで、重複する説明を省略する場合がある。また、各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。さらに、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。
 (第一実施形態)
 図1に示す第一実施形態の処理システム1は、図2に示す移動体2の自動運転に関連する処理(以下、自動運転関連処理という)を、遂行する。
 図2に示す第一実施形態の制御システム3は、移動体2の自動運転を制御する。ここで移動体2は、第一実施形態では乗員となる搭乗オペレータの搭乗状態において走行路を走行可能な、例えば自動車等である。こうした移動体2においては、運転タスクにおける搭乗オペレータの手動介入度に応じてレベル分けされる、自動運転制御が実現される。自動運転制御は、条件付運転自動化、高度運転自動化、又は完全運転自動化といった、作動時のシステムが全ての運転タスクを実行する自律走行制御により、実現されてもよい。自動運転制御は、運転支援、又は部分運転自動化といった、搭乗オペレータが一部若しくは全ての運転タスクを実行する高度運転支援制御により、実現されてもよい。自動運転制御は、それら自律走行制御と高度運転支援制御とのいずれか一方、組み合わせ、又は切り替えにより実現されてもよい。
 移動体2には、センサ系4、通信系5、及び情報提示系6が搭載される。センサ系4は、制御システム3により利用可能なセンサデータを、移動体2の外界及び内界の検出により取得する。そのためにセンサ系4は、外界センサ40及び内界センサ42を含んで構成されている。
 外界センサ40は、移動体2の周辺環境となる外界から、センサデータとしての外界データを取得する。外界センサ40は、移動体2の外界に存在する物標を検知することで、外界データを取得してもよい。物標検知タイプの外界センサ40は、例えばカメラ、LiDAR(Light Detection and Ranging / Laser Imaging Detection and Ranging)、レーダ、及びソナー等のうち、少なくとも一種類である。
 内界センサ42は、移動体2の内部環境となる内界から、センサデータとしての内界データを取得する。内界センサ42は、移動体2の内界において特定の運動物理量を検知することで、内界データを取得してもよい。物理量検知タイプの内界センサ42は、例えば走行速度センサ、加速度センサ、及びジャイロセンサ等のうち、少なくとも一種類である。内界センサ42は、移動体2の内界において搭乗オペレータの特定状態を検知することで、内界データを取得してもよい。オペレータ検知タイプの内界センサ42は、例えば音声センサ42a、ドライバーステータスモニター(登録商標)、生体センサ、着座センサ、アクチュエータセンサ、車内機器センサ、マウス、及びトラックボール等のうち、少なくとも一種類である。ここで特に音声センサ42aは、移動体2の搭乗オペレータにより発せられた音声を、検知する。
 通信系5は、制御システム3により利用可能な通信データを、無線通信により取得する。通信系5は、移動体2の外界に存在するGNSS(Global Navigation Satellite System)の人工衛星から、測位信号を受信してもよい。測位タイプの通信系5は、例えばGNSS受信機等である。通信系5は、移動体2の外界に存在するV2Xシステムとの間において、通信信号を送受信してもよい。V2Xタイプの通信系5は、例えばDSRC(Dedicated Short Range Communications)通信機、及びセルラV2X(C-V2X)通信機等のうち、少なくとも一種類である。通信系5は、移動体2の内界に存在する端末との間において、通信信号を送受信してもよい。端末通信タイプの通信系5は、例えばブルートゥース(Bluetooth:登録商標)機器、Wi-Fi(登録商標)機器、及び赤外線通信機器等のうち、少なくとも一種類である。
 情報提示系6は、移動体2内において搭乗オペレータへ向けた報知情報を、提示する。情報提示系6は、搭乗オペレータの視覚を刺激することで、報知情報を提示してもよい。視覚刺激タイプの情報提示系6は、例えばHUD(Head-Up Display)、MFD(Multi-Function Display)、コンビネーションメータ、ナビゲーションユニット、及び発光ユニット等のうち、少なくとも一種類である。情報提示系6は、搭乗オペレータの聴覚を刺激することで、報知情報を提示してもよい。聴覚刺激タイプの情報提示系6は、例えばスピーカ、ブザー、及びバイブレーションユニット等のうち、少なくとも一種類である。
 制御システム3は、少なくとも一つの専用コンピュータを含んで構成されている。制御システム3を構成する専用コンピュータは、例えばLAN(Local Area Network)回線、ワイヤハーネス、内部バス、及び無線通信回線等のうち、少なくとも一種類を介してセンサ系4、通信系5、及び情報提示系6に接続されている。
 制御システム3を構成する専用コンピュータは、移動体2の運転制御を統合する、統合ECU(Electronic Control Unit)であってもよい。制御システム3を構成する専用コンピュータは、移動体2の運転制御における運転タスクを判断する、判断ECUであってもよい。制御システム3を構成する専用コンピュータは、移動体2の運転制御を監視する、監視ECUであってもよい。制御システム3を構成する専用コンピュータは、移動体2の運転制御を評価する、評価ECUであってもよい。
 制御システム3を構成する専用コンピュータは、移動体2の走行経路をナビゲートする、ナビゲーションECUであってもよい。制御システム3を構成する専用コンピュータは、移動体2の自己状態量を推定する、ロケータECUであってもよい。制御システム3を構成する専用コンピュータは、移動体2の走行アクチュエータを制御する、アクチュエータECUであってもよい。制御システム3を構成する専用コンピュータは、移動体2において情報提示系6による情報提示を制御する、HCU(HMI(Human Machine Interface) Control Unit)であってもよい。制御システム3を構成する専用コンピュータは、例えばV2Xタイプの通信系5を介して通信可能な外部センタ又はモバイル端末等を構成する、移動体2以外のコンピュータであってもよい。
 制御システム3を構成する専用コンピュータは、メモリ30及びプロセッサ32を、少なくとも一つずつ有している。メモリ30は、コンピュータにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。プロセッサ32は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、RISC(Reduced Instruction Set Computer)-CPU、DFP(Data Flow Processor)、及びGSP(Graph Streaming Processor)等のうち、少なくとも一種類をコアとして含んでいる。
 制御システム3においてメモリ30は、移動体2の自動運転に利用可能なマップデータDmを含んで処理システム1に提供されるデジタルマップMd(後述の図7参照)を、記憶する。メモリ30は、例えばV2Xタイプの通信系5を介した外部センタとの通信等により、最新のマップデータDmを取得して記憶する。ここでマップデータDmは、移動体2の走行環境を表す情報として、二次元又は三次元にデータ化されている。二次元のマップデータDmとしては、オルソ画像を含んでいてもよい。三次元のマップデータDmとしては、高精度マップデータが採用されるとよい。
 こうしたマップデータDmは、道路に関して例えば、位置座標、形状、路面状態、レーン構造、接続構造、道路端構造、駐車構造、交差点の内外関係、歩道との並列構造、及び線路との交差構造等のうち、少なくとも一種類を表した道路情報を含んでいてもよい。マップデータDmは、道路に付属する道路標識、道路標示、並びに区画線に関して例えば、位置座標、形状、向き、色彩、及び種別等のうち、少なくとも一種類を表した標示情報を含んでいてもよい。マップデータDmは、道路に面する構造物、信号機、並びに踏切遮断機に関して例えば、位置座標、形状、向き、色彩、及び種別等のうち、少なくとも一種類を表した地物情報を含んでいてもよい。マップデータDmは、交通ルールとして例えば、法定速度、通行区分、通行方向、交差点での優先度、一旦停止の要否、警戒の要否、駐停車の許否、レーンチェンジの許否、右左折の許否、転回の許否、規制の有無、及び信号機動作毎の通行ルール等のうち、少なくとも一種類を表したルール情報を含んでいてもよい。
 図2に示す制御システム3においてプロセッサ32は、デジタルマップMdの生成処理を含む移動体2の自動運転制御を遂行するためにメモリ30に記憶された、制御プログラムに含まれる複数の命令を実行する。これにより制御システム3は、デジタルマップMdの生成処理を含む移動体2の自動運転制御を遂行するための機能ブロックを、複数構築する。制御システム3において構築される複数の機能ブロックには、図3に示すように認識ブロック300、計画ブロック320、制御ブロック340、及びマップ生成ブロック360が含まれている。
 認識ブロック300は、センサ系4の外界センサ40及び内界センサ42からセンサデータを取得する。認識ブロック300は、通信系5から通信データを取得する。認識ブロック300は、メモリ30からマップデータDmを取得する。認識ブロック300は、これらの取得データを入力としてフュージョンすることで、移動体2の内外環境を認識する。さらに認識ブロック300は、移動体2の搭乗オペレータにより発せられた音声を、音声センサ42aからのセンサデータに基づき認識する。
 計画ブロック320は、認識ブロック300から認識結果を表す認識データを、取得する。計画ブロック320は、移動体2の将来経路、将来アクション、及び将来軌道、並びに移動体2と他道路ユーザとのインタラクションの将来推移を、取得の認識データに基づき走行シーン毎に判断して時系列に計画する。このとき計画ブロック320は、例えばシミュレーションモデル又は機械学習モデル等の車両走行モデルを用いて、計画を実現してもよい。
 制御ブロック340は、計画ブロック320から計画結果を表す計画指令を、取得する。制御ブロック340は、取得の計画指令に従って移動体2の自動運転を制御する、動的運転タスク(Dynamic Driving Task)の機能を実現する。このとき、計画指令に従う挙動を移動体2に生じさせる複数の走行アクチュエータには、それぞれ当該挙動を実現するための制御指令が、制御ブロック340から与えられることになる。
 マップ生成ブロック360は、認識ブロック300から認識データを取得する。マップ生成ブロック360は、計画ブロック320から計画時の判断結果を表す判断データ、及び計画指令を取得する。マップ生成ブロック360は、制御ブロック340から制御指令を取得する。マップ生成ブロック360は、デジタルマップMdを生成する生成方法を、制御フローとしての図4に示すマップ生成フローに従って実行する。本マップ生成フローは、移動体2の起動中に繰り返し実行される。尚、マップ生成フローにおける各「S」は、制御プログラムのうちマップ生成プログラムに含まれた複数命令によって実行される複数ステップを、それぞれ意味している。
 S10においてマップ生成ブロック360は、認識ブロック300からの認識データに基づき、移動体2の現在における走行ポイント(以下、現在走行ポイントという)を特定する。次にS20においてマップ生成ブロック360は、現在走行ポイントにおける移動体2の自動運転状態を表す自動運転データDdを、取得する。このときマップ生成ブロック360は、認識ブロック300からの認識データと、計画ブロック320からの判断データ及び計画指令と、制御ブロック340からの制御指令とに基づき、自動運転データDdを生成する。
 具体的に、認識データに基づく自動運転データDdには、認識ブロック300での認識物体に関する、例えば種別、位置、走行方向、速度、及び加減速度等の認識結果のうち、少なくとも一種類が含まれていてもよい。認識データに基づく自動運転データDdには、上記マップデータDmに関して例示された道路情報、標示情報、地物情報、及びルール情報等のうち、少なくとも一種類が認識ブロック300での認識結果として含まれていてもよい。
 判断データに基づく自動運転データDdには、上記マップデータDmに関して例示された道路情報、標示情報、地物情報、及びルール情報等のうち、少なくとも一種類が計画ブロック320での計画時の判断結果として含まれていてもよい。判断データに基づく自動運転データDdには、計画ブロック320での計画時に判断された走行シーンに関する、例えば走行環境の種別、走行レーン内の走行位置、走行レーンの路面状態、走行レーン内の物体有無、及び信号機の動作状態等のうち、少なくとも一種類の判断結果が含まれていてもよい。ここで走行レーンの路面状態には、例えば冠水、亀裂、積雪、及び積灰等のうち、少なくとも一種類が想定されていてもよい。走行レーン内の物体有無には、例えばマンホール、橋のジョイント、及びコーン等のうち、少なくとも一種類が想定されていてもよい。
 判断データに基づく自動運転データDdには、計画ブロック320での計画時に障害物として判断された他道路ユーザに関する、例えば位置座標、走行方向、速度、及び加減速度等のうち、少なくとも一種類の将来推移(予測軌道)が含まれていてもよい。判断データに基づく自動運転データDdには、計画ブロック320での計画時に障害物として判断された他道路ユーザに関する、例えば種別、及びサイズ等のうち、少なくとも一種類が将来推移と関連付けて含まれていてもよい。ここで他道路ユーザには、例えば歩行者等の人間、及び動物といった脆弱な道路ユーザ、並びに例えば自動車、トラック、バイク、及び自転車等の車両といった非脆弱な道路ユーザのうち、少なくとも一種類が想定されていてもよい。
 計画指令及び/又は制御指令に基づく自動運転データDdには、制御ブロック340により制御された移動体2に関する、例えば軌道、位置、速度、加減速度、ヨー角、ヨーレート、転舵角、及び他道路ユーザとのマージン等のうち、少なくとも一種類の実パラメータが含まれていてもよい。計画指令及び/又は制御指令に基づく自動運転データDdには、制御ブロック340により制御された移動体2に関する、例えば軌道、位置、速度、加減速度、ヨー角、ヨーレート、及び転舵角等のうち、少なくとも一種類の目標パラメータが含まれていてもよい。計画指令及び/又は制御指令に基づく自動運転データDdには、そうした少なくとも一種類の実パラメータ及び目標パラメータ間での偏差が、含まれていてもよい。
 続くS30においてマップ生成ブロック360は、現在走行ポイントにおける移動体2の自動運転状態に対しての搭乗オペレータによる評価を表す音声評価データDaを、取得したか否かを判定する。このときマップ生成ブロック360は、認識ブロック300からの認識データのうち音声の認識結果を表す音声認識データに基づき、音声評価データDaの取得有無を判定する。
 具体的に音声評価データDaと判定される音声認識データは、現在走行ポイントにおける走行シーンと実挙動とをそれぞれ搭乗オペレータが評価した音声を表すように、当該評価音声の内容がパターン化されて搭乗オペレータへと事前に展開されている。ここで走行シーンの評価音声は、例えば移動体2に対する障害物の存在有無、移動体2の走行に関与する信号機の状態、及び現在走行ポイントにおける走行環境の種類等のうち、少なくとも一種類を音声により評価する。実挙動の評価音声は、例えば移動体2の急制動、急転舵、及び急減速等のうち、少なくとも一種類を音声により評価する。こうした評価音声の具体例としては、「信号機が青信号なのに急制動」、及び「障害物がレーン前方に無いのに急転舵」等が挙げられる。
 S30におけるマップ生成ブロック360は、認識ブロック300からの音声認識データ自体を、音声評価データDaとして取得してもよい。S30におけるマップ生成ブロック360は、認識ブロック300からの音声認識データをテキストデータへ変換してから、当該変換後のテキストデータを音声評価データDaとして取得してもよい。いずれの場合にもS30におけるマップ生成ブロック360は、音声評価データDaが評価音声を表すか否かを判定することで、その結果が肯定判定の場合に音声評価データDaの取得有りとの判定を下してもよい。
 S30において音声評価データDaが取得有りと判定された場合には、マップ生成フローはS40へ移行する。S40においてマップ生成ブロック360は、デジタルマップMdにおいてマップデータDmの現在走行ポイントに関連付ける動的データとして、取得された自動運転データDd及び音声評価データDaを、メモリ30のデジタルマップMdに埋め込んで記憶する。このとき、現在走行ポイントにタイムスタンプも関連付けて埋め込まれたデジタルマップMdが、記憶されてもよい。こうしてS40の実行が完了すると、現在走行ポイントに対するマップ生成フローの今回実行が終了する。また、S30において音声評価データDaが取得無しと判定された場合にも、現在走行ポイントに対するマップ生成フローの今回実行が終了する。
 図1に示す処理システム1は、例えばデータ解析センタ等の外部センタに、設置される。処理システム1は、情報提示ユニット7及び入力ユニット8を含んで構成されている。情報提示ユニット7は、処理システム1の処理オペレータへ向けて情報を提示する。情報提示ユニット7は、デジタルマップMdを含む画像データを表示する、例えば液晶パネル、又は有機ELパネル等であってもよい。情報提示ユニット7は、デジタルマップMdに含まれる音声評価データDaを音声として出力する、例えばスピーカ等であってもよい。入力ユニット8は、処理オペレータから入力を受け付ける。入力ユニット8は、例えばマウス、トラックボール、及びキーボード等のうち少なくとも一種類である。ここで情報提示ユニット7と入力ユニット8とは、それらの共同により、処理オペレータに対するGUI(Graphical User Interface)を提供可能に構成されているとよい。以上において処理オペレータは、搭乗オペレータとは相異の人間であってもよいし、搭乗オペレータと同一の人間であってもよい。
 処理システム1は、さらに少なくとも一つの専用コンピュータとして、処理コンピュータ1aを含んで構成されている。処理コンピュータ1aは、例えばLAN(Local Area Network)回線、ワイヤハーネス、内部バス、及び無線通信回線等のうち、少なくとも一種類を介して情報提示ユニット7及び入力ユニット8に接続されている。
 処理コンピュータ1aは、メモリ10及びプロセッサ12を、少なくとも一つずつ有している。メモリ10は、コンピュータにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。プロセッサ12は、例えばCPU、GPU、及びRISC-CPU等のうち、少なくとも一種類をコアとして含んでいる。
 処理コンピュータ1aにおいてメモリ10は、少なくとも一つの移動体2を制御する制御システム3から提供されるデジタルマップMdを、記憶する。制御システム3から処理コンピュータ1aへのデジタルマップMdの提供は、双方3,1a間の通信ネットワークを介したデータ伝送により、又は双方3,1a間でのメモリ30の物理的な移動により、実現される。ここでメモリ30の物理的な移動による場合、処理コンピュータ1aに接続されたメモリ30と、当該処理コンピュータ1aのメモリ10との間において、デジタルマップMdが転送されてもよい。メモリ30の物理的な移動による場合、デジタルマップMdを保持するメモリ30が、処理コンピュータ1aへの接続により実質的にメモリ10の一部を構成してもよい。
 処理コンピュータ1aにおいてプロセッサ12は、処理システム1により移動体2の自動運転関連処理を遂行するためにメモリ10に記憶された、処理プログラムに含まれる複数の命令を実行する。これにより処理コンピュータ1aは、処理システム1により移動体2の自動運転関連処理を遂行するための機能ブロックを、複数構築する。処理コンピュータ1aにおいて構築される複数の機能ブロックには、図5に示すように抽出ブロック100、及び要因分析ブロック120が含まれている。
 これらのブロック100,110は、移動体2の自動運転関連処理を遂行する処理方法を、図6に示す処理フローに従って実行する。本処理フローは、処理システム1の処理オペレータからの指令に応じて実行される。尚、処理フローにおける各「S」は、処理プログラムに含まれた複数命令によって実行される複数ステップを、それぞれ意味している。
 S100において抽出ブロック100は、移動体2の自動運転関連処理として、自動運転状態の要因分析処理を開始するためにデジタルマップMdの選択を要求する選択要求画像を、情報提示ユニット7に表示させる。次にS110において抽出ブロック100は、メモリ10に記憶のデジタルマップMdのうち、要因分析処理を開始するデジタルマップMdが、処理オペレータから入力ユニット8への入力操作によって選択されたか否かを、判定する。その結果、デジタルマップMdが選択されると、処理フローがS120へ移行する。
 S120において抽出ブロック100は、選択されたデジタルマップMd(以下、単にデジタルマップMdという)に含まれるマップデータDmを、図7に示すように情報提示ユニット7に表示させる。このとき抽出ブロック100は、デジタルマップMdにおいて移動体2の走行ポイントに関連付けて埋め込まれた動的パラメータに含まれる自動運転データDdのうち、特定の基準パラメータBpが許容範囲外にある走行ポイントPoを、マップデータDmに重畳して表示する。それと共に抽出ブロック100は、デジタルマップMdにおいて移動体2の走行ポイントに関連付けて埋め込まれた動的パラメータのうち、音声評価データDaに関連付けられている走行ポイントPaを、マップデータDmに重畳して表示する。
 具体的に基準パラメータBpとしては、自動運転制御による移動体2の実挙動を表す、例えば軌道、位置、速度、加減速度、ヨー角、ヨーレート、転舵角、及び他道路ユーザとのマージン等の実パラメータ、並びに当該実パラメータの目標パラメータに対する偏差のうち、少なくとも一種類が採用される。そこで抽出ブロック100は、基準パラメータBpが閾値超過若しくは閾値以上の許容範囲外となる走行ポイントPoを、同パラメータBpの時系列分析又は周波数分析により抽出して、マップデータDmに重畳表示させる。
 S120において、音声評価データDaと関連付けられた走行ポイントPaは、基準パラメータBpが許容範囲外の走行ポイントPoと一致している場合、図7に示すように当該走行ポイントPo上に重畳表示されるとよい。S120において、基準パラメータBpが許容範囲外の走行ポイントPoが連続する走行エリアでは、図7に示すように基準パラメータBpと許容範囲の閾値との差分に応じたヒートマップ状に、当該走行エリアもマップデータDmに重畳表示されるとよい。尚、図7では、基準パラメータBpと許容範囲の閾値との差分の大小に応じてヒートマップ状に表示色が変化している状態を、模式的にグラデーションによって示している。
 図6に示すように続くS130において抽出ブロック100は、基準パラメータBpが許容範囲外の走行ポイントPoと一致する走行ポイントPaを含んだ、音声評価データDaと関連付けられた走行ポイントPaのうち、要因分析処理の対象とする分析走行ポイントPacが、処理オペレータから入力ユニット8への入力操作によって選択されたか否かを、判定する。その結果、分析走行ポイントPacが選択されると、処理フローがS140へ移行する。このとき、図8に示すように基準パラメータBpが許容範囲外の走行ポイントPoと一致する分析走行ポイントPacの選択される場合、当該基準パラメータBpは要因分析処理の開始基準に相当することとなる。
 図6に示すS140において抽出ブロック100は、デジタルマップMdに埋め込まれた動的パラメータのうち、選択された分析走行ポイントPac(以下、単に分析走行ポイントPacという)における自動運転データDd及び音声評価データDaを、抽出する。このとき、分析走行ポイントPacに関連付けてデジタルマップMdに埋め込まれた全ての自動運転データDdが抽出されてもよいし、当該全データDdのうち基準パラメータBpを含む一部が抽出されてもよい。
 続くS150において要因分析ブロック120は、要因分析処理のベースとなる要因定義データDfを、メモリ10から取得する。このとき要因定義データDfとしては、分析走行ポイントPacにおける自動運転データDdと、同ポイントPacにおける音声評価データDaとに、相関するデータが読み出される。
 具体的に要因定義データDfは、図9,10に例示するように、分析走行ポイントPacにおける移動体2の走行シーンから実挙動までの因果関係を定義して、メモリ10に記憶されている。特に第一実施形態の要因定義データDfは、現実世界での走行シーンに対して、制御システム3の各ブロック300,320,340での処理要因により生成された指令が、移動体2に実挙動を生じさせるまでの、時系列の分岐ツリーを定義している。そこで要因分析ブロック120は、分析走行ポイントPacにおける自動運転データDdのうち少なくとも基準パラメータBpと、同ポイントPacにおける音声評価データDaとに基づき、要因定義データDfを決める走行シーン及び実挙動を判断する。要因分析ブロック120は、こうして判断された走行シーンと実挙動とに対応する要因定義データDfを、メモリ10において選別する。
 ここで図9に例示の要因定義データDfは、実挙動として移動体2に急制動を生じさせる走行シーン、認識ブロック300での認識要因、計画ブロック320での計画要因及び計画指令、並びに制御ブロック340での制御指令に関して、時系列な因果関係を定義している。また一方、図10に例示の要因定義データDfは、実挙動として移動体2に急転舵を生じさせる走行シーン、認識ブロック300での認識要因、計画ブロック320での計画要因及び計画指令、並びに制御ブロック340での制御指令に関して、時系列な因果関係を定義している。尚、図9,10は、単一となる実挙動に対して複数の走行シーンからの分岐ツリーにより、要因定義データDfを例示している。但し、S150において選別の要因定義データDfとしては、図9,10とそれぞれ対応する図11,12に例示するように、要因分析ブロック120による走行シーン及び実挙動の各判断数に応じたツリー部分が、少なくともメモリ10から読み出されればよい。
 図6に示すように、続くS160において要因分析ブロック120は、分析走行ポイントPacにおける自動運転データDdのうち、読み出された要因定義データDf(以下、単に要因定義データDfという)に定義された要因及び指令のそれぞれ裏付けとなる裏付けデータDdbを、図13,14に例示するように選別する。このとき選別される裏付けデータDdbは、S150により音声評価データDaに相関する要因定義データDfから判断された走行シーンと実挙動との間の因果関係を裏付けるデータとして、自動運転データDd及び音声評価データDaのうち少なくとも前者となる。故に裏付けデータDdbも、音声評価データDaに相関するデータといえる。またこのとき第一実施形態では、計画指令及び制御指令のうち少なくとも後者を裏付ける裏付けデータDdbには、分析走行ポイントPacにおける基準パラメータBpが含まれるとよい。
 図6に示すように、続くS170において要因分析ブロック120は、選別された裏付けデータDdb(以下、単に裏付けデータDdbという)に基づくことで、分析走行ポイントPacでの自動運転状態の要因を分析した結果となる要因分析データDcを、生成する。このとき要因分析データDcは、要因定義データDfにおける分岐ツリーのうち、音声評価データDaに相関する走行シーンと実挙動との間の因果関係として裏付けデータDdbから算出される尤度が最大となるツリー部分を、図15,16に例示するように抽出したデータとなる。故に要因分析データDcも、音声評価データDaに相関するデータといえる。またこのとき第一実施形態では、計画指令及び制御指令のうち少なくとも後者を裏付ける裏付けデータDdbとして、分析走行ポイントPacにおける基準パラメータBpを含んだ裏付けデータDdbに基づくことで、要因分析データDcが生成されるとよい。
 図6に示すように、続くS180において要因分析ブロック120は、生成された要因分析データDcを、メモリ10への記憶により蓄積する。このとき要因分析データDcは、図15,16に例示するように裏付けデータDdbと関連付けて、メモリ10に記憶されてもよい。またこのとき要因分析データDcは、デジタルマップMdのうち少なくともマップデータDmと関連付けて、メモリ10に記憶されてもよい。こうして蓄積された要因分析データDcは、例えば計画ブロック320に利用される車両走行モデル等の開発又は設計に対して、フィードバックされてもよい。要因分析データDcは、移動体2のキャリブレーションを含めたメンテナンスに、利用されてもよい。要因分析データDcは、デジタルマップMd又はそれを構成するマップデータDmの更新に、利用されてもよい。
 (作用効果)
 以上説明した第一実施形態の作用効果を、以下に説明する。
 第一実施形態では、デジタルマップMdにおいて移動体2の走行ポイントに関連付けて埋め込まれた動的データのうち、分析走行ポイントPacにおける移動体2の自動運転状態を表す自動運転データDdと、当該自動運転状態に対しての搭乗オペレータからの評価を表す音声評価データDaとが、抽出される。そこで第一実施形態によると、分析走行ポイントPacでの自動運転状態の要因を分析した結果として、音声評価データDaに相関する要因分析データDcが自動運転データDdに基づき生成される。故に、生成された要因分析データDcによれば、分析された要因から自動運転における課題を抽出することが可能となる。
 第一実施形態によると、自動運転データDdのうち要因分析の判断基準となる基準パラメータBpが許容範囲外である移動体2の走行ポイントPoを分析走行ポイントPacとして、当該分析走行ポイントPacでの自動運転データDd及び音声評価データDaが抽出されてもよい。この場合、自動運転における課題に起因して基準パラメータBpが許容範囲外となった可能性の高い分析走行ポイントPacに対して、要因分析データDcが生成され得る。故に、生成された要因分析データDcによれば、自動運転における課題を高精度に抽出することが可能となる。ここで特に第一実施形態では、自動運転データDdのうち課題を反映する基準パラメータBpに基づき生成された場合の要因分析データDcは、自動運転における高精度な課題抽出に対して信頼性を担保することが可能となる。
 第一実施形態によると、音声評価データDaに相関する自動運転データDdとしての裏付けデータDdbの選別により、当該選別データDdbに基づく要因分析データDcが生成される。これによれば、音声評価データDaに相関する要因分析データDcの生成において基づくことになる自動運転データDdは、共通の音声評価データDaに相関することで要因分析に適した裏付けデータDdbに、絞られ得る。故に、自動運転における課題を抽出可能な要因分析データDcの生成において、分析処理の負荷低減及び分析処理の時間短縮を実現することが可能となる。
 第一実施形態によると、移動体の2自動運転状態を表す自動運転データDdだけでなく、当該自動運転状態に対しての搭乗オペレータからの評価を表す音声評価データDaが、移動体2の自動運転中にリアルタイムに取得され得る。そこで第一実施形態では、取得された自動運転データDd及び音声評価データDaが、移動体2の走行ポイントに関連付けた動的データとして、デジタルマップMdに埋め込まれて制御システム3のメモリ30に記憶される。故に、メモリ30に記憶されたデジタルマップMdは、自動運転における課題を抽出可能な処理システム1での処理方法に供されるデジタルマップMdとして、有用となる。
 (第二実施形態)
 第二実施形態は、第一実施形態の変形例である。
 第二実施形態では、ブロック100,120を構築して第一実施形態で説明の処理フローを第一処理フローとして実行する第一処理プログラムが、処理システム1のメモリ10に記憶されている。その上でさらに第二実施形態では、図17に示すブロック2100,2120,2140を構築して図18に示す第二処理フローを実行する第二処理プログラムが、処理システム1のメモリ10に記憶されている。ここで第二処理フローは、第一処理フローに後続して自動実行されてもよいし、処理システム1の処理オペレータからの指令に応じて第一処理フローとは別に実行されてもよい。尚、第二処理フローにおける各「S」は、第二処理プログラムに含まれた複数命令によって実行される複数ステップを、それぞれ意味している。
 S2100においてリスク更新ブロック2100は、過去回のうち少なくとも最新回の第一処理フローによって蓄積された要因分析データDcに基づき、デジタルマップMdに付与されるリスク識別データDiを、更新する。ここでリスク識別データDiは、デジタルマップMdに含まれるマップデータDmにおいて道路上の走行ポイント毎に識別された、自動運転にとってのリスクレベルを表している。特に本実施形態のリスク識別データDiは、自動運転に対するリスクレベルの区分として、高、中、及び低の三区分を表している。
 そこでS2100におけるリスク更新ブロック2100は、デジタルマップMdと関連付けて要因分析データDcが表している、分析走行ポイントPacでの自動運転状態の要因に基づくことで、分析走行ポイントPacでのリスクレベルを自動判断する。このとき、要因分析データDcに関連付けて記憶された裏付けデータDdbとしての、自動運転データDd及び音声評価データDaのうち少なくとも一方に基づき、リスクレベルが判断されてもよい。例えば、要因分析データDcでのレーンチェンジに対する阻害要因がレーン数にあった場合等には、自動運転データDdにも基づくことで、リスクレベルの判断精度を高めることが可能となる。また例えば、要因分析データDcでの青信号に対する急停止要因が視認性にあった場合、又はローカルルールが存在する場合等には、音声評価データDaにも基づくことで、リスクレベルの判断精度を高めることが可能となる。
 S2100におけるリスク更新ブロック2100は、デジタルマップMdにおいて分析走行ポイントPacを包含する走行エリアに関してのリスク識別データDiを、判断されたリスクレベルにより自動更新する。このときデジタルマップMdにおいては、分析走行ポイントPacを包含する走行エリアのリスク識別データDiだけでなく、分析走行ポイントPacでの要因分析データDcが表している要因を内在した走行エリアについても、リスク識別データDiが更新されてもよい。また、以上の如きS2100においては要因分析データDcが、例えば車両走行モデル等の開発又は設計に対してフィードバックされている場合、そうした開発又は設計の結果がリスクレベルの判断及び更新にも、反映されてもよい。
 続くS2110においてリスク表示ブロック2120は、更新されたリスク識別データDiを、図19に示すようにデジタルマップMdに含まれるマップデータDmに重畳して、情報提示ユニット7に表示させる。このときリスク識別データDiは、マップデータDmにおいて道路上の走行ポイントを複数ずつ含んで規定される走行エリア毎に、リスクレベルを識別可能に表現する。特に本実施形態のリスク識別データDiは、リスクレベルの高、中、及び低の各区分に応じた、例えば赤、黄、及び緑の相異色によってヒートマップ状に表示されている。尚、図19では、リスクレベルに応じて表示色が相異している状態を、模式的にハッチングの違いによって示している。
 ここで、高リスクレベルのリスク識別データDiは、移動体2の自動運転性能自体が不足しているとして、自動運転を禁止する走行エリアを、表しているとよい。一方、中リスクレベルのリスク識別データDiは、移動体2の自動運転性能がその保証に到るには不十分であるとして、自動運転を規制若しくは手動介入可能に搭乗オペレータへと注意を促す走行エリアを、表しているとよい。また一方、低リスクレベルのリスク識別データDiは、移動体2の自動運転性能が保証されるとして、自動運転を許可する走行エリアを、表しているとよい。
 S2110におけるリスク表示ブロック2120は、図19に示すようにルート選定ボタンbs、狭域表示ボタンbn、及び選定終了ボタンbeを、広域のマップデータDmに重畳して情報提示ユニット7に表示させる。そこで、図18に示すようにS2110に続くS2120においてリスク表示ブロック2120は、処理オペレータから入力ユニット8への入力操作によって、ボタンbs,bn,beのうちいずれか一つが選択されたか否かを、判定する。
 S2120においてルート選定ボタンbsが選択された場合、第二処理フローはS2130へ移行する。S2130においてリスク表示ブロック2120は、デジタルマップMdの次回以降での生成に際して移動体2に走行させる予定走行ルートを、入力ユニット8への入力操作によって処理オペレータに選定させる。ここまでの説明からS2120でのルート選定ボタンbsは、リスク識別データDiの表示下において予定走行ルートの選定を処理オペレータへ指示するためにマップデータDmに重畳表示されるといえ、それに応じてS2130は、当該選定を受け付ける処理といえる。
 S2130におけるリスク表示ブロック2120は、処理オペレータによる予定走行ルートの選定を自動支援するために、少なくとも一種類のルート候補をマップデータDmに重畳して情報提示ユニット7に表示させてもよい。このとき、リスク識別データDiの表しているリスクレベルと、要因分析データDcに対応する過去の予定走行ルートとのうち、少なくとも一方が考慮されるとよい。またこのとき、処理オペレータによる入力ユニット8への入力操作によって走行エリアが選択されるのに応じて、当該選択エリアに対して要因分析データDcの表す要因が、マップデータDmに重畳して表示されてもよい。S2130の完了後、第二処理フローはS2110へと戻る。
 S2120において狭域表示ボタンbnが選択された場合、第二処理フローはS2140へ移行する。S2140においてリスク表示ブロック2120は、処理オペレータから入力ユニット8への入力操作によって、広域のマップデータDmのうち表示を拡大させる走行エリアが選択されるのを待つ。その結果、表示を拡大させる走行エリアが選択されると、第二処理フローがS2150へ移行する。尚、S2140では、図示しないリターンボタンが表示されて、処理オペレータから入力ユニット8への入力操作により選択されることで、第二処理フローがS2110へと戻ってもよい。
 S2150においてリスク表示ブロック2120は、図19に示す広域から図20に示すように拡大した、狭域のマップデータDmに重畳して、S2110により更新のリスク識別データDiを情報提示ユニット7に表示させる。このときリスク表示ブロック2120は、広域マップデータDmの表示へ戻るためのリターンボタンbrも図20に示すように、狭域マップデータDmに重畳して情報提示ユニット7に表示させる。そこで、図18に示すように続くS2160においてリスク表示ブロック2120は、処理オペレータから入力ユニット8への入力操作によって、リターンボタンbrが選択されるのを待つ。その結果、リターンボタンbrが選択されると、第二処理フローがS2110へと戻る。
 S2120において、S2130での予定走行ルートの選定後に選定終了ボタンbeが選択された場合、第二処理フローがS2170へと移行する。S2170においてルート反映ブロック2140は、選定された予定走行ルートを図21に示すように表現する走行ルートデータDrが、リスク識別データDiと共に付加されるように、メモリ10に記憶のデジタルマップMdを更新する。このとき、要因分析データDcもデジタルマップMdに付加されるとよい。こうして更新されたデジタルマップMdは、図18の如くS2170では、通信ネットワークを介したデータ伝送により、又はメモリ30の物理的な移動により、処理システム1から移動体2の制御システム3へ提供されることとなる。S2170の実行が完了すると、第二処理フローの今回実行が終了する。
 (作用効果)
 以上説明した第二実施形態に特有の作用効果を、以下に説明する。
 第二実施形態によると、生成された要因分析データDcに基づくリスクレベルを識別可能に表現するリスク識別データDiが、デジタルマップMdに重畳して表示される。これによれば、分析された要因をリスクレベルに反映させて処理オペレータに提示することができる。故に、要因分析データDcの有用性を高めることが可能となる。
 第二実施形態によると、デジタルマップMdの生成に際して移動体2に走行させる予定走行ルートの選定が、処理システム1でのリスク識別データDiの表示下において指示される。これによれば、デジタルマップMdを次回以降に生成するために必要な予定走行ルートについて処理オペレータは、要因分析データDcに基づくリスクレベルを考慮しつつ選定することができる。故に、要因分析データDcの有用性を高めることが可能となる。
 第二実施形態によると、選定された予定走行ルートを表現する走行ルートデータDrと、リスク識別データDiとが、デジタルマップMdに付加して移動体2へと提供される。これによれば、デジタルマップMdを次回以降に生成するために必要な予定走行ルートについて搭乗オペレータは、要因分析データDcに基づくリスクレベルを考慮して確認することができる。故に、要因分析データDcの有用性を高めることが可能となる。
 (第三実施形態)
 第三実施形態は、第二実施形態の変形例である。
 第三実施形態では、第二実施形態で説明の第一及び第二処理フローをそれぞれ実行する、第一及び第二処理プログラムが処理システム1のメモリ10に記憶されている。それと共に第三実施形態では、ブロック300,320,340,360を構築して第一実施形態で説明のマップ生成フローを含んだ第二制御フローを実行する第二制御プログラムが、制御システム3のメモリ30に記憶されている。これらの上でさらに第三実施形態では、図22に示すブロック3300,3320を構築して図23に示す第一制御フローを実行する第一制御プログラムが、制御システム3のメモリ30に記憶されている。ここで第一制御フローは、第二制御フローに先立って自動実行されてもよいし、移動体2の起動中に搭乗オペレータからの指令に応じて第二制御フローとは別に実行されてもよい。特に後者の場合には第二制御フローについても、移動体2の起動中に搭乗オペレータからの指令に応じて実行されるとよい。尚、第一制御フローにおける各「S」は、第一制御プログラムに含まれた複数命令によって実行される複数ステップを、それぞれ意味している。
 S3100においてデータ抽出ブロック3300は、処理システム1から提供されてメモリ10に記憶された最新のデジタルマップMdを、当該メモリ10から読み出す。そこで、S3100におけるデータ抽出ブロック3300は、読み出したデジタルマップMdに付加されているリスク識別データDi及び走行ルートデータDrを、当該マップMdから抽出する。このとき、読み出したデジタルマップMdに付加されている要因分析データDcも、抽出されてもよい。
 S3100に後続するS3110~S3170は、それぞれ第二実施形態のS2110~S2170に準じて実行される。但し、第二実施形態の第二処理フローにおけるリスク表示ブロック2120は、第三実施形態の第一制御フローでは図22に示すリスク表示ブロック3320によって代替される。第二実施形態の第二処理フローにおける情報提示ユニット7は、第三実施形態の第一制御フローでは移動体2の情報提示系6によって代替される。第二実施形態の第二処理フローにおける入力ユニット8は、第三実施形態の第一制御フローでは移動体2の内界センサ42、又は通信系5と通信可能な入力端末によって代替される。第二実施形態の第二処理フローにおける処理システム1のメモリ10は、第三実施形態の第一制御フローでは制御システム3のメモリ30によって代替される。第二実施形態の第二処理フローにおける処理システム1の処理オペレータは、第三実施形態の第一制御フローでは移動体2の搭乗オペレータによって代替される。
 ここでS2130に準ずるS3130では、処理システム1における当該S2130の実行に応じて処理オペレータにより選定された予定走行ルートが、搭乗オペレータにより再選定されることで更新されることになる。また、S2120,S2150にそれぞれずるS3120,S3150では、S3130の実行により予定走行ルートが再選定はされていない状態で、表示された選定終了ボタンbeが選択されると、図示は省略するが、S3170がスキップされて第一制御フローの今回実行が終了することになる。
 (作用効果)
 以上説明した第三実施形態に特有の作用効果を、以下に説明する。
 第三実施形態によると、デジタルマップMdの生成に際して移動体2に走行させる予定走行ルートの選定が、移動体2でもリスク識別データDiの表示下において指示される。これによれば、デジタルマップMdを次回以降に生成するために必要な予定走行ルートについて搭乗オペレータは、要因分析データDcに基づくリスクレベルを考慮しつつ確認することができ、さらに必要に応じて再選定することもできる。故に、要因分析データDcの有用性を高めることが可能となる。
 (他の実施形態)
 ここまで複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
 第一~第三実施形態の変形例において、処理システム1及び/又は制御システム3を構成する専用コンピュータは、デジタル回路及びアナログ回路のうち、少なくとも一方をプロセッサとして有していてもよい。ここでデジタル回路とは、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、及びCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを記憶したメモリを、有していてもよい。
 第一~第三実施形態の変形例では、基準パラメータBpが許容範囲外の走行ポイントPoは、S120において表示されなくてもよい。図24に示すように第一~第三実施形態の変形例では、S100による表示がスキップされて、S110によるデジタルマップMdの選択が抽出ブロック100により自動遂行されてもよい。図24に示すようにこの変形例に加えて、又は図示は省略するがこの変形例と別な変形例では、S120による表示がスキップされて、S130による分析走行ポイントPacの選択が抽出ブロック100により自動遂行されてもよい。
 第二及び第三実施形態の変形例では、S2100により判断されてS2110,S3110によりリスク識別データDiとして表示されるリスクレベルが二区分、又は四区分以上に設定されてもよい。第二及び第三実施形態の変形例において狭域のマップデータDmを表示するS2150,S3150では、それぞれS2120,S2130の組及びS3120,S3130の組に準じて予定走行ルートの選定が指示並びに受付されてもよい。第三実施形態の変形例では、S2110~S2160がスキップされることで、リスク識別データDiの付加によって更新されたデジタルマップMdが、S2170において移動体2の制御システム3へと提供されてもよい。第三実施形態の変形例では、S3100が実行される代わりに、S2100に準ずる処理が移動体2の制御システム3によって実行されてもよい。
 以上説明した第一~第三実施形態及び変形例において搭乗オペレータは、移動体2の外部となる例えば外部センタ等において、当該移動体2を監視する監視オペレータにより代替されてもよい。この変形例の場合に監視オペレータは、処理オペレータとして機能してもよい。
 (付言)
 本明細書には、以下に列挙する複数の技術的思想と、それらの複数の組み合わせが開示されている。
 (技術的思想1)
 移動体(2)の自動運転に関連する処理を遂行するために、プロセッサ(12)により実行される処理方法であって、
 デジタルマップ(Md)において前記移動体の走行ポイントに関連付けて埋め込まれた動的データのうち、分析走行ポイント(Pac)における前記移動体の自動運転状態を表す自動運転データ(Dd,Ddb)と、前記分析走行ポイントにおける前記自動運転状態に対してのオペレータからの音声による評価を表す音声評価データ(Da)とを、抽出することと、
 前記分析走行ポイントでの前記自動運転状態の要因を分析した結果として、前記音声評価データに相関する要因分析データ(Dc)を、前記自動運転データに基づき生成することとを、含む処理方法。
 (技術的思想2)
 前記自動運転データ及び前記音声評価データを抽出することは、
 前記自動運転データのうち要因分析の開始基準となる基準パラメータ(Bp)が許容範囲外である前記移動体の走行ポイント(Po)を前記分析走行ポイントとして、前記自動運転データ及び前記音声評価データを抽出することを、含む技術的思想1に記載の処理方法。
 (技術的思想3)
 前記要因分析データを生成することは、
 前記基準パラメータに基づき前記要因分析データを生成することを、含む技術的思想2に記載の処理方法。
 (技術的思想4)
 前記要因分析データを生成することは、
 前記音声評価データに相関する前記自動運転データ(Ddb)を選別し、当該選別データに基づき前記要因分析データを生成することを、含む技術的思想1~3のいずれか一項に記載の処理方法。
 (技術的思想5)
 生成された前記要因分析データを、記憶媒体(10)に記憶することを、さらに含む技術的思想1~4のいずれか一項に記載の処理方法。
 (技術的思想6)
 生成された前記要因分析データに基づくリスクレベルを識別可能に表現するリスク識別データ(Di)を、前記デジタルマップに重畳して表示させることを、含む技術的思想1~5のいずれか一項に記載の処理方法。
(技術的思想7)
 前記デジタルマップの生成に際して前記移動体に走行させる予定走行ルートの選定を、前記リスク識別データの表示下において指示することを、含む技術的思想6に記載の処理方法。
 (技術的思想8)
 選定された前記予定走行ルートを表現する走行ルートデータ(Dr)と、前記リスク識別データとを、前記デジタルマップに付加して前記移動体へ提供することを、含む技術的思想7に記載の処理方法。
 (技術的思想9)
 移動体(2)の自動運転に関連して技術的思想1~8のいずれか一項に記載の処理方法に提供されるデジタルマップ(Md)を生成するために、プロセッサ(32)により実行されるマップ生成方法であって、
 前記移動体の自動運転状態を表す自動運転データ(Dd)を、取得することと、
 前記自動運転状態に対してのオペレータからの音声による評価を表す音声評価データ(Da)を、取得することと、
 前記移動体の走行ポイントに関連付ける動的データとして前記自動運転データ及び前記音声評価データを、前記デジタルマップに埋め込んで記憶媒体(30)に記憶することとを、含むマップ生成方法。
 (技術的思想10)
 技術的思想9に記載のマップ生成方法により生成された前記デジタルマップを、記憶する記憶媒体。
 尚、以上において技術的思想1~9は、方法及びプログラムの形態で実現されてもよい。

Claims (12)

  1.  移動体(2)の自動運転に関連する処理を遂行するために、プロセッサ(12)により実行される処理方法であって、
     デジタルマップ(Md)において前記移動体の走行ポイントに関連付けて埋め込まれた動的データのうち、分析走行ポイント(Pac)における前記移動体の自動運転状態を表す自動運転データ(Dd,Ddb)と、前記分析走行ポイントにおける前記自動運転状態に対してのオペレータからの音声による評価を表す音声評価データ(Da)とを、抽出することと、
     前記分析走行ポイントでの前記自動運転状態の要因を分析した結果として、前記音声評価データに相関する要因分析データ(Dc)を、前記自動運転データに基づき生成することとを、含む処理方法。
  2.  前記自動運転データ及び前記音声評価データを抽出することは、
     前記自動運転データのうち要因分析の開始基準となる基準パラメータ(Bp)が許容範囲外である前記移動体の走行ポイント(Po)を前記分析走行ポイントとして、前記自動運転データ及び前記音声評価データを抽出することを、含む請求項1に記載の処理方法。
  3.  前記要因分析データを生成することは、
     前記基準パラメータに基づき前記要因分析データを生成することを、含む請求項2に記載の処理方法。
  4.  前記要因分析データを生成することは、
     前記音声評価データに相関する前記自動運転データ(Ddb)を選別し、当該選別データに基づき前記要因分析データを生成することを、含む請求項1~3のいずれか一項に記載の処理方法。
  5.  生成された前記要因分析データを、記憶媒体(10)に記憶することを、さらに含む請求項1~3のいずれか一項に記載の処理方法。
  6.  生成された前記要因分析データに基づくリスクレベルを識別可能に表現するリスク識別データ(Di)を、前記デジタルマップに重畳して表示させることを、含む請求項1~3のいずれか一項に記載の処理方法。
  7.  前記デジタルマップの生成に際して前記移動体に走行させる予定走行ルートの選定を、前記リスク識別データの表示下において指示することを、含む請求項6に記載の処理方法。
  8.  選定された前記予定走行ルートを表現する走行ルートデータ(Dr)と、前記リスク識別データとを、前記デジタルマップに付加して前記移動体へ提供することを、含む請求項7に記載の処理方法。
  9.  移動体(2)の自動運転に関連して請求項1~3のいずれか一項に記載の処理方法に提供されるデジタルマップ(Md)を生成するために、プロセッサ(32)により実行されるマップ生成方法であって、
     前記移動体の自動運転状態を表す自動運転データ(Dd)を、取得することと、
     前記自動運転状態に対してのオペレータからの音声による評価を表す音声評価データ(Da)を、取得することと、
     前記移動体の走行ポイントに関連付ける動的データとして前記自動運転データ及び前記音声評価データを、前記デジタルマップに埋め込んで記憶媒体(30)に記憶することとを、含むマップ生成方法。
  10.  請求項9に記載のマップ生成方法により生成された前記デジタルマップを、記憶する記憶媒体。
  11.  プロセッサ(12)を有し、移動体(2)の自動運転に関連する処理を遂行する処理システムであって、
     前記プロセッサは、
     デジタルマップ(Md)において前記移動体の走行ポイントに関連付けて埋め込まれた動的データのうち、分析走行ポイント(Pac)における前記移動体の自動運転状態を表す自動運転データ(Dd,Ddb)と、前記分析走行ポイントにおける前記自動運転状態に対してのオペレータからの音声による評価を表す音声評価データ(Da)とを、抽出することと、
     前記分析走行ポイントでの前記自動運転状態の要因を分析した結果として、前記音声評価データに相関する要因分析データ(Dc)を、前記自動運転データに基づき生成することとを、実行するように構成される処理システム。
  12.  移動体(2)の自動運転に関連する処理を遂行するために記憶媒体(10)に記憶され、プロセッサ(12)により実行される命令を含む処理プログラムであって、
     前記命令は、
     デジタルマップ(Md)において前記移動体の走行ポイントに関連付けて埋め込まれた動的データのうち、分析走行ポイント(Pac)における前記移動体の自動運転状態を表す自動運転データ(Dd,Ddb)と、前記分析走行ポイントにおける前記自動運転状態に対してのオペレータからの音声による評価を表す音声評価データ(Da)とを、抽出させることと、
     前記分析走行ポイントでの前記自動運転状態の要因を分析した結果として、前記音声評価データに相関する要因分析データ(Dc)を、前記自動運転データに基づき生成させることとを、含む処理プログラム。
PCT/JP2022/040230 2022-01-26 2022-10-27 処理方法、処理システム、処理プログラム、マップ生成方法、記憶媒体 WO2023145173A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2022-010353 2022-01-26
JP2022010353 2022-01-26
JP2022-162851 2022-10-10
JP2022162851A JP2023109142A (ja) 2022-01-26 2022-10-10 処理方法、処理システム、処理プログラム、マップ生成方法、記憶媒体

Publications (1)

Publication Number Publication Date
WO2023145173A1 true WO2023145173A1 (ja) 2023-08-03

Family

ID=87471328

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040230 WO2023145173A1 (ja) 2022-01-26 2022-10-27 処理方法、処理システム、処理プログラム、マップ生成方法、記憶媒体

Country Status (1)

Country Link
WO (1) WO2023145173A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019109706A (ja) * 2017-12-18 2019-07-04 トヨタ自動車株式会社 サーバ装置、情報処理方法、データ構造および危険情報提供方法
JP2019131096A (ja) * 2018-02-01 2019-08-08 三菱電機株式会社 車両制御支援システムおよび車両制御支援装置
JP2020042642A (ja) * 2018-09-12 2020-03-19 トヨタ自動車株式会社 運転評価装置、運転評価システム、運転評価方法、及び運転評価用コンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019109706A (ja) * 2017-12-18 2019-07-04 トヨタ自動車株式会社 サーバ装置、情報処理方法、データ構造および危険情報提供方法
JP2019131096A (ja) * 2018-02-01 2019-08-08 三菱電機株式会社 車両制御支援システムおよび車両制御支援装置
JP2020042642A (ja) * 2018-09-12 2020-03-19 トヨタ自動車株式会社 運転評価装置、運転評価システム、運転評価方法、及び運転評価用コンピュータプログラム

Similar Documents

Publication Publication Date Title
CN105806353B (zh) 自动驾驶装置
JP7268740B2 (ja) 車両制御装置、及び車両制御方法
US11620419B2 (en) Systems and methods for identifying human-based perception techniques
JP6450413B2 (ja) 車両制御装置
US11897505B2 (en) In-vehicle operation of simulation scenarios during autonomous vehicle runs
US20200310448A1 (en) Behavioral path-planning for a vehicle
CN108628299A (zh) 移动体、移动体控制系统及移动体控制方法
CN111583697B (zh) 驾驶支持系统和服务器装置
JP2017001596A (ja) 停車位置設定装置及び方法
JP2018190026A (ja) 自動運転車両の制御システムおよび制御方法
JPWO2020049685A1 (ja) 車両制御装置、自動運転車開発システム、車両制御方法、およびプログラム
WO2023145173A1 (ja) 処理方法、処理システム、処理プログラム、マップ生成方法、記憶媒体
WO2023145491A1 (ja) 運転システムの評価方法及び記憶媒体
WO2023145490A1 (ja) 運転システムの設計方法及び運転システム
JP2023109142A (ja) 処理方法、処理システム、処理プログラム、マップ生成方法、記憶媒体
JP7456329B2 (ja) 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法
WO2022197847A1 (en) Computerized detection of unsafe driving scenarios
WO2023157543A1 (ja) 遠隔支援システム、遠隔支援方法、遠隔支援プログラム
WO2022264962A1 (ja) 挙動予測システム、挙動予測装置、挙動予測方法、挙動予測プログラム
JP7444295B2 (ja) 処理装置、処理方法、処理プログラム、処理システム
WO2023228781A1 (ja) 処理システム及び情報提示装置
JP7294091B2 (ja) 表示制御装置および表示制御プログラム
US20230019934A1 (en) Presentation control apparatus
WO2022168671A1 (ja) 処理装置、処理方法、処理プログラム、処理システム
US20230398866A1 (en) Systems and methods for heads-up display

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22924028

Country of ref document: EP

Kind code of ref document: A1