WO2024084961A1 - 情報処理装置、情報処理システム、及びプログラム - Google Patents

情報処理装置、情報処理システム、及びプログラム Download PDF

Info

Publication number
WO2024084961A1
WO2024084961A1 PCT/JP2023/036091 JP2023036091W WO2024084961A1 WO 2024084961 A1 WO2024084961 A1 WO 2024084961A1 JP 2023036091 W JP2023036091 W JP 2023036091W WO 2024084961 A1 WO2024084961 A1 WO 2024084961A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
control
information processing
processing device
Prior art date
Application number
PCT/JP2023/036091
Other languages
English (en)
French (fr)
Inventor
正義 孫
Original Assignee
ソフトバンクグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022192162A external-priority patent/JP2024061557A/ja
Application filed by ソフトバンクグループ株式会社 filed Critical ソフトバンクグループ株式会社
Publication of WO2024084961A1 publication Critical patent/WO2024084961A1/ja

Links

Definitions

  • This disclosure relates to an information processing device, an information processing system, and a program.
  • JP Patent Publication No. 2022-035198 describes a vehicle with an autonomous driving function.
  • an information processing device includes a calculation unit that calculates control variables for controlling the wheel speed and inclination of each of the four wheels of the vehicle and the suspension that supports the wheels based on sensor information including road information indicating the road conditions of the road on which the vehicle is traveling, and a control unit that controls autonomous driving based on the control variables calculated by the calculation unit.
  • control unit controls the autonomous driving in units of one billionth of a second based on the control variable calculated by the calculation unit.
  • the information processing device of the first or second aspect includes a determination unit that determines, from the obtainable sensor information, control information to be used in calculating the wheel speed of each of the four wheels, the inclination of each of the four wheels, and each of the control variables for controlling the suspensions supporting each of the four wheels, and the calculation unit calculates a plurality of the control variables for the control unit to control the autonomous driving based on the control information determined by the determination unit.
  • the decision unit updates the information to be decided as the control information from among the sensor information based on the control result of the autonomous driving by the control unit.
  • the calculation unit calculates the control variable based on preference information related to the riding sensation preferences of the occupants of the vehicle and the sensor information.
  • the fifth aspect of the information processing device further includes an acquisition unit that acquires bodily sensation information related to the bodily sensation of the occupant, and the calculation unit calculates the control variable based on the preference information analyzed from the acquired bodily sensation information.
  • the bodily sensation information is at least one of the voice, line of sight, and biological information of the occupant.
  • the calculation unit calculates the control variables for controlling the wheel speed, inclination, and suspension supporting the wheels of each of the four wheels of the host vehicle based on the sensor information including the road information indicating the road conditions of the road on which the host vehicle is traveling and other vehicle information regarding other vehicles that are traveling, and the control unit controls the autonomous driving of the host vehicle based on the control variables calculated by the calculation unit.
  • the other vehicle is a preceding vehicle traveling ahead of the host vehicle on the road.
  • the information processing device of the ninth aspect is provided with an update unit that updates a learning model for calculating the control variables of the host vehicle based on the other vehicle information.
  • the information processing device is mounted on the vehicle and includes an acquisition unit that acquires first sensor information as the sensor information of a sensor mounted on the vehicle and second sensor information of another vehicle traveling around the vehicle, the calculation unit calculates the control variable based on the acquired first sensor information and second sensor information, and the control unit controls the autonomous driving so that the vehicle travels in harmony with the other vehicle based on the control variable calculated by the calculation unit.
  • control unit transmits the calculated control variable to the other vehicle so that the other vehicle runs in synchronization with the vehicle.
  • the calculation unit further calculates the control variables corresponding to each of the other vehicles, and the control unit transmits the control variables to each of the corresponding other vehicles to control the autonomous driving of each of the other vehicles.
  • an information processing system includes the vehicle equipped with any one of the information processing devices of the 11th to 13th aspects, and the other vehicle, and the vehicle transmits the control variable to the other vehicle, and the other vehicle controls automatic driving so as to travel in harmony with the vehicle based on the control variable received from the vehicle.
  • a program for causing a computer of the fifteenth aspect to function as an information processing device of any one of the first to thirteenth aspects.
  • FIG. 1 is a diagram illustrating the risk prediction capability of the AI for ultra-high performance autonomous driving according to the first embodiment.
  • 1 is a diagram illustrating an example of a network configuration in a vehicle according to a first embodiment; 1 is a flowchart executed by the Central Brain in the first embodiment.
  • This is the first explanatory diagram explaining an example of control of autonomous driving by the Central Brain in the first embodiment.
  • This is a second explanatory diagram illustrating an example of control of autonomous driving by the Central Brain in the first embodiment.
  • This is a third explanatory diagram illustrating an example of control of autonomous driving by the Central Brain in the first embodiment.
  • This is the fourth explanatory diagram explaining an example of control of autonomous driving by the Central Brain in the first embodiment.
  • FIG. 13 is a diagram showing a schematic configuration of a control system according to a fourth embodiment. 13 is a flowchart executed by the Central Brain in the fourth embodiment. A block diagram showing an example of the functional configuration of the Central Brain in the fifth embodiment. 13 is a flowchart executed by the Central Brain in the fifth embodiment. This is a sequence diagram executed in collaboration by the Central Brain in the fifth embodiment.
  • FIG. 1 shows an overview of the AI's risk prediction capabilities for ultra-high performance autonomous driving according to this embodiment.
  • multiple types of sensor information are converted into AI data and stored in the cloud.
  • the AI predicts and determines the best mix of situations every nanosecond (one billionth of a second) and optimizes the operation of the vehicle 12.
  • FIG. 2 is a diagram for explaining the configuration of the Central Brain 120 within the vehicle 12.
  • the Central Brain 120 is an example of an information processing device.
  • the Central Brain 120 is connected to multiple Gate Ways 130 for communication.
  • the Central Brain 120 is connected to an external cloud via the Gate Ways 130.
  • the Central Brain 120 is configured to be able to access an external cloud via the Gate Ways 130.
  • the Central Brain 120 is configured not to be directly accessible from the outside.
  • the Central Brain 120 outputs a request signal to the server every time a predetermined time has elapsed. Specifically, the Central Brain 120 outputs a request signal representing a query to the server every billionth of a second.
  • sensors used in this embodiment include radar, LiDAR, high pixel/telephoto/ultra-wide-angle/360-degree/high performance cameras, vision recognition, fine sound, ultrasound, vibration, infrared, ultraviolet, electromagnetic waves, temperature, humidity, spot AI weather forecasts, high-precision multi-channel GPS, low altitude satellite information, long-tail incident AI data, etc.
  • Long-tail incident AI data is trip data for vehicles with Level 5 implementation.
  • Sensor information collected from multiple types of sensors includes biological information such as the gaze, voice, heart rate, and body temperature of the occupants of the vehicle 12, weight center of gravity shift, detection of road material, detection of outside air temperature, detection of outside humidity, detection of the up, down, side, and diagonal inclination angle of a slope, how the road is frozen, detection of moisture content, detection of the material, wear condition, and air pressure of each tire, road width, whether or not overtaking is prohibited, oncoming vehicles, vehicle type information of the vehicles in front and behind, the cruising state of those vehicles, and surrounding conditions (birds, animals, soccer balls, wrecked vehicles, earthquakes, fires, wind, typhoons, heavy rain, light rain, blizzards, fog, etc.), and in this embodiment, these detections are performed every billionth of a second.
  • the Central Brain 120 functions as a calculation unit that calculates control variables for controlling the wheel speed, inclination, and suspension supporting the wheels of each of the four wheels of the vehicle 12 based on sensor information including road information (e.g., road material, up/down, lateral and diagonal inclination angle of a slope, how the road is frozen, and amount of moisture on the road, etc.) detected by the above sensors, which indicates the road conditions of the road on which the vehicle 12 is traveling.
  • the inclination of the wheels includes both the inclination of the wheels relative to an axis horizontal to the road and the inclination of the wheels relative to an axis perpendicular to the road.
  • the Central Brain 120 calculates a total of 16 control variables for controlling the wheel speed of each of the four wheels, the inclination of each of the four wheels relative to an axis horizontal to the road, the inclination of each of the four wheels relative to an axis perpendicular to the road, and the suspension supporting each of the four wheels.
  • the calculation of the above 16 control variables is performed every billionth of a second.
  • the wheel speed of each of the four wheels can also be referred to as the "spin rate (revolutions) of the in-wheel motor mounted on each of the four wheels," and the inclination of each of the four wheels with respect to an axis horizontal to the road can also be referred to as the "horizontal angle of each of the four wheels.”
  • the above control variables are, for example, values for optimal steering suited to a mountain road when the vehicle is traveling on a mountain road, and values for driving at an optimal angle suited to the parking lot when the vehicle is parked in a parking lot.
  • the Central Brain 120 functions as a control unit that controls automatic driving in units of one billionth of a second based on the control variables calculated above. Specifically, the Central Brain 120 controls the in-wheel motors mounted on each of the four wheels based on the 16 control variables described above, thereby controlling the wheel speed and inclination of each of the four wheels of the vehicle 12, and the suspensions supporting each of the four wheels, thereby performing automatic driving.
  • the Central Brain 120 repeatedly executes the flowchart shown in Figure 3.
  • step S10 the Central Brain 120 acquires sensor information including road information detected by the sensor. The Central Brain 120 then proceeds to step S11.
  • step S11 the Central Brain 120 calculates the above 16 control variables based on the sensor information acquired in step S10. Then, the Central Brain 120 proceeds to step S12.
  • step S12 the Central Brain 120 controls the autonomous driving based on the control variables calculated in step S11. Then, the Central Brain 120 ends the processing of this flowchart.
  • FIGS. 4 to 8 are explanatory diagrams explaining an example of autonomous driving control by the Central Brain 120. Note that FIG. 4 to FIG. 6 are explanatory diagrams showing the vehicle 12 from a front perspective, and FIG. 7 and FIG. 8 are explanatory diagrams showing the vehicle 12 from a bottom perspective.
  • Figure 4 shows the vehicle 12 traveling on a flat road R1.
  • the Central Brain 120 controls the in-wheel motors 31 mounted on each of the four wheels 30 based on the above 16 control variables calculated for the road R1, thereby controlling the wheel speed and inclination of each of the four wheels 30, as well as the suspensions 32 supporting each of the four wheels 30, to perform automatic driving.
  • Figure 5 shows the vehicle 12 traveling on mountain road R2.
  • the Central Brain 120 controls the in-wheel motors 31 mounted on each of the four wheels 30 based on the above 16 control variables calculated for mountain road R2, thereby controlling the wheel speed and inclination of each of the four wheels 30, as well as the suspensions 32 supporting each of the four wheels 30, to perform automatic driving.
  • Figure 6 shows the case where the vehicle 12 is driving through a puddle R3.
  • the Central Brain 120 controls the in-wheel motors 31 mounted on each of the four wheels 30 based on the above 16 control variables calculated for puddle R3, thereby controlling the wheel speed and inclination of each of the four wheels 30, as well as the suspensions 32 supporting each of the four wheels 30, to perform automatic driving.
  • Figure 7 shows a case where the vehicle 12 curves in the direction indicated by arrow A1.
  • the Central Brain 120 controls the in-wheel motors 31 mounted on each of the four wheels 30 based on the above 16 control variables calculated in accordance with the approaching curve, thereby controlling the wheel speed and inclination of each of the four wheels 30, as well as the suspensions 32 (not shown) supporting each of the four wheels 30, thereby performing automatic driving.
  • Figure 8 shows the case where the vehicle 12 moves parallel in the direction indicated by the arrow A2.
  • the Central Brain 120 controls the in-wheel motors 31 mounted on each of the four wheels 30 based on the above 16 control variables calculated in accordance with the parallel movement in the direction indicated by the arrow A2, thereby controlling the wheel speed and inclination of each of the four wheels 30, and the suspensions 32 (not shown) supporting each of the four wheels 30, thereby performing automatic driving.
  • the vehicle in question was not able to analyze road conditions and control the in-wheel motors.
  • the vehicle in question was unable to perform appropriate automatic driving based on road conditions, for example, when traveling on mountain roads or through puddles.
  • the vehicle 12 can perform automatic driving with the speed, steering, etc. controlled according to the environment, such as road conditions, based on the configuration described above.
  • FIG. 9 shows a schematic diagram of an example of a hardware configuration of a computer 1200 functioning as the Central Brain 120.
  • a program installed on the computer 1200 can cause the computer 1200 to function as one or more "parts" of an apparatus according to the present embodiment, or to execute operations or one or more "parts” associated with an apparatus according to the present embodiment, and/or to execute a process or steps of a process according to the present embodiment.
  • Such a program can be executed by the CPU 1212 to cause the computer 1200 to execute specific operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.
  • the computer 1200 includes a CPU 1212, a RAM 1214, and a graphics controller 1216, which are interconnected by a host controller 1210.
  • the computer 1200 also includes input/output units such as a communication interface 1222, a storage device 1224, a DVD drive, and an IC card drive, which are connected to the host controller 1210 via an input/output controller 1220.
  • the DVD drive may be a DVD-ROM drive, a DVD-RAM drive, or the like.
  • the storage device 1224 may be a hard disk drive, a solid state drive, or the like.
  • the computer 1200 also includes a ROM 1230 and a legacy input/output unit such as a keyboard, which are connected to the input/output controller 1220 via an input/output chip 1240.
  • the CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit.
  • the graphics controller 1216 acquires image data generated by the CPU 1212 into a frame buffer or the like provided in the RAM 1214 or into itself, and causes the image data to be displayed on the display device 1218.
  • the communication interface 1222 communicates with other electronic devices via a network.
  • the storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200.
  • the DVD drive reads programs or data from a DVD-ROM or the like and provides them to the storage device 1224.
  • the IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.
  • ROM 1230 stores therein a boot program or the like executed by computer 1200 upon activation, and/or a program that depends on the hardware of computer 1200.
  • I/O chip 1240 may also connect various I/O units to I/O controller 1220 via USB ports, parallel ports, serial ports, keyboard ports, mouse ports, etc.
  • the programs are provided by a computer-readable storage medium such as a DVD-ROM or an IC card.
  • the programs are read from the computer-readable storage medium, installed in storage device 1224, RAM 1214, or ROM 1230, which are also examples of computer-readable storage media, and executed by CPU 1212.
  • the information processing described in these programs is read by computer 1200, and brings about cooperation between the programs and the various types of hardware resources described above.
  • An apparatus or method may be constructed by realizing the operation or processing of information according to the use of computer 1200.
  • CPU 1212 may execute a communication program loaded into RAM 1214 and instruct communication interface 1222 to perform communication processing based on the processing described in the communication program.
  • communication interface 1222 reads transmission data stored in a transmission buffer area provided in RAM 1214, storage device 1224, a DVD-ROM, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.
  • the CPU 1212 may also cause all or a necessary portion of a file or database stored in an external recording medium such as the storage device 1224, a DVD drive (DVD-ROM), an IC card, etc. to be read into the RAM 1214, and perform various types of processing on the data on the RAM 1214. The CPU 1212 may then write back the processed data to the external recording medium.
  • an external recording medium such as the storage device 1224, a DVD drive (DVD-ROM), an IC card, etc.
  • CPU 1212 may perform various types of processing on data read from RAM 1214, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout this disclosure and specified by the instruction sequence of the program, and write back the results to RAM 1214.
  • CPU 1212 may also search for information in a file, database, etc. in the recording medium.
  • CPU 1212 may search for an entry whose attribute value of the first attribute matches a specified condition from among the multiple entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.
  • the above-described programs or software modules may be stored in a computer-readable storage medium on the computer 1200 or in the vicinity of the computer 1200.
  • a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the programs to the computer 1200 via the network.
  • FIG. 10 is a block diagram showing an example of the functional configuration of a computer 1200 functioning as a Central Brain 120.
  • the CPU 1212 of the computer 1200 has, as its functional components, a determination unit 1212A, an acquisition unit 1212B, a calculation unit 1212C, and a control unit 1212D. Each functional component is realized by the CPU 1212 reading and executing a program installed in the computer 1200.
  • the determination unit 1212A determines, from the obtainable sensor information, control information to be used in calculating each of the 16 control variables for controlling the wheel speed of each of the four wheels, the inclination of each of the four wheels relative to an axis horizontal to the road, the inclination of each of the four wheels relative to an axis perpendicular to the road, and the suspensions supporting each of the four wheels.
  • the determination unit 1212A obtains sensor information detectable by each sensor used in the vehicle 12 while the vehicle 12 is stopped, and determines, from the sensor information, the control information to be used in calculating each control variable.
  • the acquisition unit 1212B acquires sensor information detected by each of the above sensors every billionth of a second while the vehicle 12 is in autonomous driving.
  • the calculation unit 1212C calculates multiple control variables for the control unit 1212D to control the autonomous driving every billionth of a second based on the control information determined in advance by the determination unit 1212A from among the sensor information acquired by the acquisition unit 1212B during autonomous driving of the vehicle 12. Specifically, the calculation unit 1212C calculates a total of 16 control variables for controlling the wheel speed of each of the four wheels, the inclination of each of the four wheels with respect to an axis horizontal to the road, the inclination of each of the four wheels with respect to an axis perpendicular to the road, and the suspension supporting each of the four wheels.
  • the control unit 1212D controls the autonomous driving of the vehicle 12 every billionth of a second based on the control variables calculated by the calculation unit 1212C.
  • the determination unit 1212A also updates the information to be determined as control information from among the sensor information during autonomous driving of the vehicle 12, based on the results of autonomous driving control by the control unit 1212D. For example, if parking in a parking lot takes longer than expected as a result of autonomous driving control, the determination unit 1212A updates the control information used to calculate the control variables for controlling autonomous driving related to parking in the parking lot.
  • the CPU 1212 reads out a program installed in the computer 1200, expands it into the RAM 1214, and executes it, thereby executing the processing of the flowchart shown in FIG. 11. Note that, as a prerequisite for this processing, the CPU 1212 determines, from among the sensor information that can be acquired, control information to be used for calculating each of the 16 control variables for controlling the wheel speed of each of the four wheels, the inclination of each of the four wheels with respect to an axis horizontal to the road, the inclination of each of the four wheels with respect to an axis perpendicular to the road, and the suspension supporting each of the four wheels.
  • step S20 the CPU 1212 acquires sensor information including road information detected by the sensor. The CPU 1212 then proceeds to step S21.
  • step S21 the CPU 1212 calculates the 16 control variables based on the control information determined in advance from the sensor information acquired in step S20. The CPU 1212 then proceeds to step S22.
  • step S22 the CPU 1212 controls the automatic driving based on the control variables calculated in step S21. Then, the CPU 1212 proceeds to step S23.
  • step S23 the CPU 1212 updates the information determined as control information from among the sensor information based on the results of the autonomous driving control performed in step S22. Then, the CPU 1212 ends the processing of this flowchart.
  • the CPU 1212 determines, from among the obtainable sensor information, control information to be used in calculating a total of 16 control variables for controlling the wheel speed of each of the four wheels, the inclination of each of the four wheels relative to an axis horizontal to the road, the inclination of each of the four wheels relative to an axis perpendicular to the road, and the suspension supporting each of the four wheels.
  • the CPU 1212 then calculates the above-mentioned 16 control variables for controlling autonomous driving based on the control information determined while the vehicle 12 is stopped. This allows the computer 1200 to reduce the processing load on the CPU 1212 during autonomous driving, compared to a case in which information to be used in calculating each of a plurality of control variables during autonomous driving is determined.
  • the CPU 1212 updates the information determined as control information from among the sensor information based on the control results of the autonomous driving. This allows the computer 1200 to optimize the information used to calculate each of the multiple control variables during autonomous driving.
  • the Central Brain 120 acquires sensor information including bodily sensation information sensed by the occupant in the vehicle 12 (e.g., biological information such as the occupant's gaze, voice, heart rate, and body temperature) sensed by the above-mentioned sensors and road information indicating the road conditions of the road on which the vehicle 12 is traveling (e.g., the material of the road, the up/down/side/side/diagonal inclination angle of the slope, how the road is frozen, and the amount of moisture on the road).
  • the Central Brain 120 functions as a calculation unit that calculates control variables for controlling the wheel speed, inclination, and suspension supporting the wheels of each of the four wheels of the vehicle 12.
  • FIG. 12 is a block diagram for explaining the functional configuration of the Central Brain 120.
  • the Central Brain 120 executes an information processing program to function as an acquisition unit 200, a calculation unit 210, and a control unit 220.
  • the acquisition unit 200 acquires preference information and sensor information including road information and bodily sensation information. For example, the acquisition unit 200 acquires, as preference information, the occupant's preferences for the riding sensation, such as whether or not the vehicle can travel on an incline, whether or not the vehicle can travel through puddles, and whether or not the vehicle can travel by moving parallel to the ground, which have been preset by the occupant. The acquisition unit 200 also acquires road information, such as the material of the road, the up/down/side/side/diagonal inclination angle of the slope, how the road is frozen, and the amount of moisture on the road, detected by a sensor mounted on the vehicle 12. The acquisition unit 200 also acquires, as bodily sensation information, the occupant's line of sight, voice, and biological information such as heart rate and body temperature.
  • preference information the occupant's preferences for the riding sensation
  • the acquisition unit 200 acquires, as preference information, the occupant's preferences for the riding sensation, such as whether or not the vehicle can travel on an incline, whether or not the vehicle
  • the calculation unit 210 uses the acquired road information, preference information, and bodily sensation information to calculate control variables for controlling the wheel speed, inclination, and suspension that supports the wheels of each of the four wheels of the vehicle 12. For example, the calculation unit 210 calculates control variables for controlling the ride sensation to suit the occupant's preferences according to road information and preference information including whether or not driving on slopes, driving through puddles, and driving by parallel movement is possible.
  • the calculation unit 210 also analyzes the bodily sensation information to calculate preference information indicating the preferences of the occupant, and calculates control variables using the calculated preference information and road information. For example, if the occupant's heart rate and body temperature included in the bodily sensation information are elevated, the calculation unit 210 determines that the current driving is not to the occupant's liking, and calculates control variables to orient the fore-and-aft direction of the vehicle 12 in the traveling direction and to control the wheel speed of the vehicle 12 to be reduced.
  • the calculation unit 210 also calculates preference information based on the line of sight of the occupant contained in the sensory information, and calculates a control variable. For example, when the line of sight of the occupant is directed 90 degrees to the left with respect to the traveling direction, the calculation unit 210 calculates a control variable for controlling the vehicle 12 to rotate in the fore-and-aft direction 90 degrees to the left with respect to the traveling direction and to continue traveling in the traveling direction (e.g., to crab-ride).
  • a control variable for controlling the vehicle 12 to rotate in the fore-and-aft direction 90 degrees to the left with respect to the traveling direction and to continue traveling in the traveling direction (e.g., to crab-ride).
  • the calculation unit 210 also calculates preference information according to the occupant's voice and gaze contained in the bodily sensation information, and calculates a control variable. For example, the calculation unit 210 analyzes the occupant's voice, "I want to take a closer look,” contained in the bodily sensation information, and extracts the characteristic of "I want to look.” The calculation unit 210 calculates a control variable that reduces the wheel speed of the vehicle 12 and controls the suspension so that the body of the vehicle 12 tilts in the direction of the occupant's gaze, according to the extracted characteristic.
  • the control unit 220 controls the autonomous driving of the vehicle 12 based on the control variables calculated by the calculation unit 210.
  • the Central Brain 120 repeatedly executes the flowchart shown in FIG. 13.
  • step S30 the Central Brain 120 acquires the preference information set by the occupant.
  • the Central Brain 120 then proceeds to step S31.
  • step S31 the Central Brain 120 acquires sensory information detected by the sensor. The Central Brain 120 then proceeds to step S32.
  • step S32 the Central Brain 120 acquires sensor information including road information detected by the sensor. The Central Brain 120 then proceeds to step S33.
  • step S33 the Central Brain 120 calculates the 16 control variables based on the acquired preference information, bodily sensation information, and sensor information. Then, the Central Brain 120 proceeds to step S34.
  • step S34 the Central Brain 120 controls the autonomous driving based on the control variables calculated in step S33. Then, the Central Brain 120 ends the processing of this flowchart.
  • FIG. 14 is a diagram showing a schematic configuration of a control system 10 according to the fourth embodiment. 14, the control system 10 includes a plurality of vehicles 12A, 12B, and 12C. Note that the number of vehicles 12 in the control system 10 is not limited to three, and may be more or less than three.
  • Each vehicle 12A, 12B, 12C is equipped with a Central Brain 120A, 120B, 120C, respectively.
  • Each Central Brain 120A, 120B, 120C is connected to each other via network N so that they can communicate with each other.
  • Each Central Brain 120A, 120B, 120C transmits sensor information detected by each sensor used in each vehicle 12A, 12B, 12C to each other every billionth of a second.
  • the Central Brain 120 functions as a calculation unit that calculates the above 16 control variables (the wheel speed of each of the four wheels, the inclination of each of the four wheels with respect to an axis horizontal to the road, the inclination of each of the four wheels with respect to an axis perpendicular to the road, and the control variables for controlling the suspension supporting each of the four wheels) of the host vehicle based on sensor information including road information indicating the road conditions of the road on which the host vehicle (e.g., vehicle 12A) is traveling and other vehicle information regarding other vehicles (e.g., vehicles 12B and 12C) that are traveling.
  • the other vehicles are preceding vehicles that travel ahead of the host vehicle on the road.
  • the other vehicle information is, for example, sensor information detected by each sensor used in the other vehicles.
  • a learning model for calculating each of the above 16 control variables is stored in the storage device 1224 of the computer 1200 functioning as the Central Brain 120.
  • the learning model is a machine learning model that outputs control variables by inputting sensor information of the vehicle itself and information of other vehicles.
  • the Central Brain 120 calculates the above 16 control variables by inputting sensor information of the vehicle itself and information of other vehicles acquired every billionth of a second into the learning model.
  • AI Artificial Intelligence
  • the Central Brain 120 functions as an update unit that updates a learning model for calculating the control variables of the vehicle itself based on the acquired other vehicle information.
  • the data used to update the learning model is not limited to other vehicle information, and other information such as sensor information of the vehicle itself may also be used.
  • the Central Brain 120 functions as a control unit that controls the autonomous driving of the vehicle based on the calculated 16 control variables.
  • the CPU 1212 reads out a program installed in the computer 1200, expands it into the RAM 1214, and executes it, thereby executing the processing of the flowchart shown in FIG. 15.
  • step S40 the Central Brain 120 acquires sensor information including road information detected by a sensor of the vehicle, and then proceeds to step S41.
  • step S41 the Central Brain 120 acquires other vehicle information. Then, the Central Brain 120 proceeds to step S42.
  • step S42 the Central Brain 120 calculates the 16 control variables based on the sensor information acquired in step S40 and the other vehicle information acquired in step S41. The Central Brain 120 then proceeds to step S43.
  • step S43 the Central Brain 120 controls the autonomous driving based on the control variables calculated in step S42. Then, the Central Brain 120 ends the processing of the flowchart. Note that, although omitted in FIG. 15, the processing of the flowchart may include a process of updating the learning model for calculating the control variables of the vehicle itself based on the other vehicle information acquired in step S41.
  • the Central Brain 120 calculates the above 16 control variables of the host vehicle based on the sensor information of the host vehicle and the information of other vehicles.
  • the Central Brain 120 then controls the autonomous driving of the host vehicle based on the above 16 calculated control variables.
  • the Central Brain 120 can control the autonomous driving of the host vehicle based on the information of the host vehicle and the information of other vehicles, which is expected to improve the accuracy of autonomous driving compared to when the autonomous driving of the host vehicle is controlled based only on the information of the host vehicle.
  • the other vehicle is a preceding vehicle traveling ahead of the host vehicle on the road.
  • the Central Brain 120 updates the learning model for calculating the control variables of the host vehicle based on the other vehicle information.
  • the Central Brain 120 can update the learning model for calculating the control variables of the host vehicle based on actual measurement data when the preceding vehicle travels on the road, which is expected to improve the accuracy of autonomous driving when the host vehicle travels on a road on which the preceding vehicle has traveled.
  • the Central Brain 120 acquires sensor information detected by other vehicles traveling around the vehicle 12, and calculates control variables based on the sensor information in the vehicle 12 and the other vehicles.
  • vehicle 12 when distinguishing the vehicle 12 from other vehicles, they will be described as “vehicle 12" and “other vehicles 14".
  • Central Brains installed in the vehicle 12 and the other vehicles 14 when distinguishing between the Central Brains installed in the vehicle 12 and the other vehicles 14, they will be described as "Central Brain 120" in the vehicle 12 and "Central Brain 120A" in the other vehicles 14.
  • Figure 16 is a block diagram for explaining the functional configuration of Central Brain 120 and Central Brain 120A.
  • the Central Brain 120 of the vehicle 12 functions as an acquisition unit 200, a calculation unit 210, a control unit 220, and a transmission unit 230.
  • the Central Brain 120A of the other vehicle 14 functions as an acquisition unit 300, a transmission unit 310, a reception unit 320, and a control unit 330.
  • the acquisition unit 200 in the vehicle 12 acquires sensor information from sensors mounted on the vehicle 12 and acquires sensor information transmitted from other vehicles 14.
  • the calculation unit 210 uses sensor information acquired from the vehicle 12 and the other vehicle 14 to calculate control variables for controlling the wheel speed, inclination, and suspension that supports the wheels of each of the four wheels of the vehicle 12. For example, when another vehicle 14 is traveling ahead of the vehicle 12 in the traveling direction, the calculation unit 210 detects sensor information including road information, and calculates control variables for controlling the wheel speed, inclination, and suspension that supports the wheels of each of the four wheels of the vehicle 12 so that the vehicle 12 travels following the other vehicle 14.
  • the calculation unit 210 calculates the control variables, for example, using sensor information acquired from the other vehicle 14, taking into account the influence of the conditions of the road around the other vehicle 14.
  • the calculation unit 210 detects the situation of the other vehicle 14 and calculates control variables to drive in accordance with the movement of the other vehicle 14, thereby automatically driving the vehicle 12. For example, when the other vehicle 14 moves closer to the vehicle 12 due to road conditions, the calculation unit 210 calculates control variables to move to the opposite side of the other vehicle's position by the same distance as the other vehicle approached the vehicle 12. In other words, the calculation unit 210 calculates control variables according to the movement of the other vehicle 14 traveling around the vehicle 12, and automatically drives the vehicle 12 to maintain a constant distance from the other vehicle 14.
  • the control unit 220 controls the autonomous driving of the vehicle 12 based on the control variables calculated by the calculation unit 210.
  • the transmission unit 230 transmits the calculated control variables to the other vehicle 14.
  • the acquisition unit 300 in the other vehicle 14 acquires sensor information from a sensor mounted on the other vehicle 14.
  • the transmitter 310 transmits the acquired sensor information to the vehicle 12.
  • the receiving unit 320 receives the control variables transmitted from the vehicle 12.
  • the control unit 330 controls the autonomous driving of the other vehicle 14 based on the control variables received from the vehicle 12.
  • the vehicle 12 and the other vehicles 14 perform automatic driving based on the control variables calculated by the vehicle 12.
  • one of the multiple vehicles 12 transmits control variables calculated from sensor information acquired from the vehicle 12 and the other vehicles 14 to the other vehicles 14 other than the vehicle 12, and the vehicle 12 and the other vehicles 14 perform automatic driving based on the control variables.
  • the other vehicles 14 perform automatic driving based on the control variables calculated by the vehicle 12, so that the vehicle 12 and the other vehicles 14 perform automatic driving so that they move in a synchronized manner.
  • the vehicle 12 and the other vehicles 14 each perform autonomous driving based on the same control variables calculated by the vehicle 12.
  • the vehicle 12 may calculate control variables corresponding to each of the other vehicles 14, and the vehicle 12 and the other vehicles 14 may each perform autonomous driving based on the corresponding control variables.
  • vehicle 12 acquires sensor information from each of the other vehicles 14, and calculates control variables for vehicle 12 and each of the other vehicles 14 using the acquired sensor information. Vehicle 12 transmits each of the calculated control variables to the corresponding other vehicles 14, and vehicle 12 and each of the other vehicles 14 perform autonomous driving based on their respective control variables.
  • the Central Brain 120 repeatedly executes the flowchart shown in FIG. 17.
  • step S50 the Central Brain 120 acquires sensor information including road information detected by the sensor. The Central Brain 120 then proceeds to step S51.
  • step S51 the Central Brain 120 acquires sensor information including road information detected by other vehicles 14. Then, the Central Brain 120 proceeds to step S52.
  • step S52 the Central Brain 120 calculates the above 16 control variables based on the sensor information of the vehicle 12 and other vehicles 14 acquired in steps S50 and S51. The Central Brain 120 then proceeds to step S53.
  • step S53 the Central Brain 120 transmits the control variables calculated in step S52 to the other vehicles 14. Then, the Central Brain 120 proceeds to step S54.
  • step S54 the Central Brain 120 controls the autonomous driving based on the control variables calculated in step S52. Then, the Central Brain 120 ends the processing of this flowchart.
  • the Central Brain 120 in the vehicle 12 and the Central Brain 120A in the other vehicle 14 cooperate to repeatedly execute the processing in the sequence diagram shown in FIG. 18.
  • step S60 Central Brain 120 and Central Brain 120A acquire sensor information including road information detected by the sensors.
  • step S61 the Central Brain 120A transmits the sensor information to the vehicle 12.
  • step S62 the Central Brain 120 acquires sensor information from other vehicles 14.
  • step S63 the Central Brain 120 uses the acquired sensor information to acquire control variables.
  • step S64 the Central Brain 120 transmits the calculated control variables to the other vehicles 14.
  • step S65 the Central Brain 120A receives the control variables transmitted from the vehicle 12.
  • step S66 Central Brain 120 and Central Brain 120A use the control variables to control the automatic operation. Then, Central Brain 120 and Central Brain 120A end the processing of the sequence diagram.
  • the blocks in the flowcharts and block diagrams in this embodiment may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing the operation. Particular stages and “parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium.
  • the dedicated circuitry may include digital and/or analog hardware circuitry and may include integrated circuits (ICs) and/or discrete circuits.
  • the programmable circuitry may include reconfigurable hardware circuitry including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements, such as, for example, field programmable gate arrays (FPGAs) and programmable logic arrays (PLAs).
  • FPGAs field programmable gate arrays
  • PDAs programmable logic arrays
  • a computer-readable storage medium may include any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture that includes instructions that can be executed to create a means for performing the operations specified in the flowchart or block diagram.
  • Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like.
  • Computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.
  • RAMs random access memories
  • ROMs read-only memories
  • EPROMs or flash memories erasable programmable read-only memories
  • EEPROMs electrically erasable programmable read-only memories
  • SRAMs static random access memories
  • CD-ROMs compact disk read-only memories
  • DVDs digital versatile disks
  • Blu-ray disks memory sticks, integrated circuit cards, and the like.
  • the computer readable instructions may include either assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.
  • ISA instruction set architecture
  • machine instructions machine-dependent instructions
  • microcode firmware instructions
  • state setting data or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.
  • the computer-readable instructions may be provided to a processor of a general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or to a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN) such as the Internet, so that the processor of the general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or to a programmable circuit, executes the computer-readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams.
  • processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.

Abstract

情報処理装置は、車両が走行する道路の道路状況を示す道路情報を含むセンサ情報に基づいて、前記車両の4つの車輪それぞれの車輪速、傾き、及び前記車輪を支持するサスペンションを制御するための制御変数を算出する算出部と、前記算出部が算出した前記制御変数に基づいて、自動運転を制御する制御部と、を備える。

Description

情報処理装置、情報処理システム、及びプログラム
 本開示は、情報処理装置、情報処理システム、及びプログラムに関する。
 特開2022-035198号公報には、自動運転機能を有する車両について記載されている。
 本開示の一実施態様によれば、情報処理装置が提供される。第1態様の情報処理装置は、車両が走行する道路の道路状況を示す道路情報を含むセンサ情報に基づいて、前記車両の4つの車輪それぞれの車輪速、傾き、及び前記車輪を支持するサスペンションを制御するための制御変数を算出する算出部と、前記算出部が算出した前記制御変数に基づいて、自動運転を制御する制御部と、を備える。
 第2態様の情報処理装置では、第1態様の情報処理装置において、前記制御部は、前記算出部が算出した前記制御変数に基づいて、10億分の1秒単位で前記自動運転を制御する。
 第3態様の情報処理装置では、第1態様又は第2態様の情報処理装置において、取得可能な前記センサ情報の中から、4つの前記車輪それぞれの車輪速、4つの前記車輪それぞれの傾き、及び4つの前記車輪それぞれを支持するサスペンションを制御するためのそれぞれの前記制御変数の算出に用いる制御情報を決定する決定部を備え、前記算出部は、前記決定部が決定した前記制御情報に基づいて、前記制御部が前記自動運転を制御するための複数の前記制御変数を算出する。
 第4態様の情報処理装置では、第3態様の情報処理装置において、前記決定部は、前記制御部による前記自動運転の制御結果に基づいて、前記センサ情報の中から前記制御情報として決定する情報を更新する。
 第5態様の情報処理装置では、第1態様から第4態様の何れか1つの情報処理装置において、前記算出部は、前記車両に乗車する乗員の乗車感覚の好みに係る嗜好情報及び前記センサ情報に基づいて、前記制御変数を算出する。
 第6態様の情報処理装置では、第5態様の情報処理装置において、前記乗員の体感に係る体感情報を取得する取得部をさらに備え、前記算出部は、取得した前記体感情報から解析された前記嗜好情報に基づいて前記制御変数を算出する。
 第7態様の情報処理装置では、第6態様の情報処理装置において、前記体感情報は、前記乗員の音声、視線、及び生体情報の少なくとも1つの情報である。
 第8態様の情報処理装置では、第1態様から第7態様の何れか1つの情報処理装置において、前記算出部は、自車両が走行する前記道路の道路状況を示す前記道路情報を含む前記センサ情報及び走行中の他車両に関する他車両情報に基づいて、前記自車両の4つの車輪それぞれの車輪速、傾き、及び前記車輪を支持するサスペンションを制御するための前記制御変数を算出し、前記制御部は、前記算出部が算出した前記制御変数に基づいて、前記自車両の自動運転を制御する。
 第9態様の情報処理装置では、第8態様の情報処理装置において、前記他車両は、前記道路において前記自車両の前方を先行して走行する先行車両である。
 第10態様の情報処理装置では、第9態様の情報処理装置において、前記他車両情報に基づいて、前記自車両の前記制御変数を算出するための学習モデルを更新する更新部を備える。
 第11態様の情報処理装置では、第1態様から第10態様の何れか1つの情報処理装置において、前記情報処理装置は前記車両に搭載され、前記車両に搭載されたセンサの前記センサ情報としての第1センサ情報、及び前記車両の周辺を走行する他車両の第2センサ情報を取得する取得部を備え、前記算出部は、取得した前記第1センサ情報及び前記第2センサ情報に基づいて、前記制御変数を算出し、前記制御部は、前記算出部が算出した前記制御変数に基づいて、前記車両が前記他車両と同調して走行するように自動運転を制御する。
 第12態様の情報処理装置では、第11態様の情報処理装置において、前記制御部は、前記他車両が前記車両と同調して走行するように、算出した前記制御変数を前記他車両に送信する。
 第13態様の情報処理装置では、第12態様の情報処理装置において、前記算出部は、前記他車両の各々に対応した前記制御変数をさらに算出し、前記制御部は、前記制御変数を対応する前記他車両の各々に送信して、前記他車両の自動運転をそれぞれ制御する。
 本開示の一実施態様によれば、情報処理システムが提供される。第14態様の情報処理システムは、第11態様から第13態様の何れか1つの情報処理装置を搭載した前記車両、及び前記他車両を備え、前記車両は、前記制御変数を前記他車両に送信し、前記他車両は、前記車両から受信した前記制御変数に基づいて、前記車両に同調して走行するように自動運転を制御する。
 本開示の一実施態様によれば、第15態様のコンピュータを、第1態様から第13態様の何れか1つの情報処理装置として機能させるためのプログラムが提供される。
 なお、上記の本開示の概要は、本開示の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、本開示となりうる。
第1の実施形態に係る超高性能自動運転のAIの危険予測能力について概略的に示す図である。 第1の実施形態に係る車両内のネットワーク構成の一例を概略的に示す図である。 第1の実施形態に係るCentral Brainにより実行されるフローチャートである。 第1の実施形態に係るCentral Brainによる自動運転の制御例を説明する第1の説明図である。 第1の実施形態に係るCentral Brainによる自動運転の制御例を説明する第2の説明図である。 第1の実施形態に係るCentral Brainによる自動運転の制御例を説明する第3の説明図である。 第1の実施形態に係るCentral Brainによる自動運転の制御例を説明する第4の説明図である。 第1の実施形態に係るCentral Brainによる自動運転の制御例を説明する第5の説明図である。 Central Brainとして機能するコンピュータのハードウェア構成の一例を概略的に示す図である。 第2の実施形態に係るCentral Brainとして機能するコンピュータの機能構成の例を示すブロック図である。 第2の実施形態に係るCentral Brainにより実行されるフローチャートである。 第3の実施形態に係るCentral Brainの機能構成の一例を示すブロック図である。 第3の実施形態に係るCentral Brainにより実行されるフローチャートである。 第4の実施形態に係る制御システムの概略構成を示す図である。 第4の実施形態に係るCentral Brainにより実行されるフローチャートである。 第5の実施形態に係るCentral Brainの機能構成の一例を示すブロック図である。 第5の実施形態に係るCentral Brainにより実行されるフローチャートである。 第5の実施形態に係るCentral Brainにより協働して実行されるシーケンス図である。
 以下、本開示の実施形態を説明するが、以下の実施形態は本開示を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが本開示の解決手段に必須であるとは限らない。
 (第1の実施形態)
 まず、本実施形態に係る第1の実施形態について説明する。
 図1は、本実施形態に係る超高性能自動運転のAIの危険予測の能力について概略的に示す。本実施形態においては、複数種類のセンサ情報をAIデータ化してクラウドに蓄積する。AIがナノセカンド(10億分の1秒)ごとに状況のベストミックスを予測、判断し、車両12の運行を最適化する。
 図2は、Central Brain120の車両12内の構成を説明するための図である。Central Brain120は、情報処理装置の一例である。
 図2に示されているように、Central Brain120には、複数のGate Way130が通信可能に接続されている。Central Brain120は、Gate Way130を介して外部のクラウドに接続されている。Central Brain120は、Gate Way130を介して外部のクラウドへアクセスすることができるように構成されている。その一方で、Gate Way130の存在により、外部からCentral Brain120へ直接アクセスすることはできないように構成されている。
 Central Brain120は、所定時間が経過する毎に、要求信号をサーバへ出力する。具体的には、Central Brain120は、10億分の1秒毎に、問い合わせを表す要求信号をサーバへ出力する。
 本実施形態において使用するセンサの例として、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョン認識、微細音、超音波、振動、赤外線、紫外線、電磁波、温度、湿度、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報、ロングテールインシデントAI data等が挙げられる。ロングテールインシデントAI dataとはレベル5の実装した自動車のTripデータである。
 複数種類のセンサから取り入れるセンサ情報として、車両12に乗車している乗員の視線、音声、心拍数及び体温等の生体情報、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、周囲の状況(鳥、動物、サッカーボール、事故車、地震、火事、風、台風、大雨、小雨、吹雪、霧、など)等が挙げられ、本実施形態では、これらの検知を10億分の1秒毎に実施する。
 本実施形態においては、Central Brain120は、上記のセンサにより検知された、車両12が走行する道路の道路状況を示す道路情報(例:道路の材質、坂道の上下横斜め傾き角度、道路の凍り方、及び道路の水分量等)を含むセンサ情報に基づいて、車両12の4つの車輪それぞれの車輪速、傾き、及び車輪を支持するサスペンションを制御するための制御変数を算出する算出部として機能する。なお、車輪の傾きは、道路に対して水平な軸に対する車輪の傾き、及び道路に対して垂直な軸に対する車輪の傾きの双方を含む。具体的には、Central Brain120は、4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための計16の制御変数を算出する。本実施形態では、上記16の制御変数の算出を10億分の1秒毎に実施する。なお、上記の4つの車輪それぞれの車輪速は「4つの車輪にそれぞれ搭載されたインホイールモータのスピン数(回転数)」と言うこともでき、上記の道路に対して水平な軸に対する4つの車輪それぞれの傾きは「4つの車輪それぞれの水平アングル」と言うこともできる。そして、上記の制御変数は、例えば、車両が山道を走行する場合には当該山道に合わせた最適なステアリングを行うための数値となり、車両を駐車場に駐車する場合には当該駐車場に合わせた最適なアングルで走行するための数値となる。
 また、本実施形態においては、Central Brain120は、上記で算出した制御変数に基づいて、10億分の1秒単位で自動運転を制御する制御部として機能する。具体的には、Central Brain120は、上記16の制御変数に基づいて、4つの車輪にそれぞれ搭載されたインホイールモータを制御することで、車両12の4つの車輪それぞれの車輪速、傾き、及び4つの車輪それぞれを支持するサスペンションを制御して自動運転を行う。
 Central Brain120は、図3に示されているフローチャートを繰り返し実行する。
 ステップS10において、Central Brain120は、センサにより検知された道路情報を含むセンサ情報を取得する。そして、Central Brain120は、ステップS11に進む。
 ステップS11において、Central Brain120は、ステップS10で取得したセンサ情報に基づいて、上記16の制御変数を算出する。そして、Central Brain120は、ステップS12に進む。
 ステップS12において、Central Brain120は、ステップS11で算出した制御変数に基づいて、自動運転を制御する。そして、Central Brain120は、当該フローチャートの処理を終了する。
 図4から図8は、Central Brain120による自動運転の制御例を説明する説明図である。なお、図4から図6は、車両12を前方から見た視点の説明図であり、図7及び図8は、車両12を下方から見た視点の説明図である。
 図4は、車両12が平坦な道路R1を走行中の場合を示している。Central Brain120は、道路R1に合わせて算出した上記16の制御変数に基づいて、4つの車輪30にそれぞれ搭載されたインホイールモータ31を制御することで、4つの車輪30それぞれの車輪速、傾き、及び4つの車輪30それぞれを支持するサスペンション32を制御して自動運転を行う。
 図5は、車両12が山道R2を走行中の場合を示している。Central Brain120は、山道R2に合わせて算出した上記16の制御変数に基づいて、4つの車輪30にそれぞれ搭載されたインホイールモータ31を制御することで、4つの車輪30それぞれの車輪速、傾き、及び4つの車輪30それぞれを支持するサスペンション32を制御して自動運転を行う。
 図6は、車両12が水たまりR3を走行中の場合を示している。Central Brain120は、水たまりR3に合わせて算出した上記16の制御変数に基づいて、4つの車輪30にそれぞれ搭載されたインホイールモータ31を制御することで、4つの車輪30それぞれの車輪速、傾き、及び4つの車輪30それぞれを支持するサスペンション32を制御して自動運転を行う。
 図7は、車両12が矢印A1で示す方向にカーブする場合を示している。Central Brain120は、進入するカーブ路に合わせて算出した上記16の制御変数に基づいて、4つの車輪30にそれぞれ搭載されたインホイールモータ31を制御することで、4つの車輪30それぞれの車輪速、傾き、及び4つの車輪30それぞれを支持するサスペンション32(図示せず)を制御して自動運転を行う。
 図8は、車両12が矢印A2で示す方向に平行移動する場合を示している。Central Brain120は、矢印A2で示す方向への平行移動に合わせて算出した上記16の制御変数に基づいて、4つの車輪30にそれぞれ搭載されたインホイールモータ31を制御することで、4つの車輪30それぞれの車輪速、傾き、及び4つの車輪30それぞれを支持するサスペンション32(図示せず)を制御して自動運転を行う。
 なお、図4から図8で示す車輪30及びサスペンション32の状態(傾き)は、あくまで一例であり、各図で示す状態とは異なる車輪30及びサスペンション32の状態が生じうることは言うまでもない。
 ここで、従来の車両に搭載されたインホイールモータは、それぞれの駆動輪を独立して制御することができるが、当該車両では、道路状況等を分析してインホイールモータを制御することまではできなかった。そのため、当該車両では、例えば、山道又は水たまり等を走行する場合に道路状況等に基づく適切な自動運転が行えなかった。
 しかし、本実施形態に係る車両12によれば、上記で説明した構成に基づいて、道路状況等の環境に適してスピード及びステアリング等が制御された自動運転を行うことができる。
 図9は、Central Brain120として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
 本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
 CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
 通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
 ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
 プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
 例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
 また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
 様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
 上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
 (第2の実施形態)
 次に、本実施形態に係る第2の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図10は、Central Brain120として機能するコンピュータ1200の機能構成の例を示すブロック図である。
 図10に示すように、コンピュータ1200のCPU1212は、機能構成として、決定部1212A、取得部1212B、算出部1212C、及び制御部1212Dを有する。各機能構成は、CPU1212がコンピュータ1200にインストールされたプログラムを読み出し、実行することにより実現される。
 決定部1212Aは、取得可能なセンサ情報の中から、4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための計16の制御変数それぞれの算出に用いる制御情報を決定する。一例として、決定部1212Aは、車両12の停止中に、車両12で使用する各センサが検知可能なセンサ情報を取得し、そのセンサ情報の中から各制御変数の算出に用いる制御情報を決定する。
 取得部1212Bは、車両12の自動運転中に、上記の各センサが検知したセンサ情報を10億分の1秒毎に取得する。
 算出部1212Cは、車両12の自動運転中に、取得部1212Bが取得したセンサ情報のうち決定部1212Aが事前に決定した制御情報に基づいて、制御部1212Dが自動運転を制御するための複数の制御変数を10億分の1秒毎に算出する。具体的には、算出部1212Cは、4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための計16の制御変数を算出する。
 制御部1212Dは、算出部1212Cが算出した制御変数に基づいて、車両12の自動運転を10億分の1秒毎に制御する。
 また、決定部1212Aは、制御部1212Dによる自動運転の制御結果に基づいて、車両12の自動運転中に、センサ情報の中から制御情報として決定する情報を更新する。例えば、決定部1212Aは、自動運転の制御結果として駐車場への駐車に想定以上の時間を要した場合、当該駐車場への駐車に係る自動運転を制御するための制御変数の算出に用いる制御情報を更新する。
 次に、Central Brain120として機能するコンピュータ1200により実行される処理の流れについて説明する。コンピュータ1200では、CPU1212がコンピュータ1200にインストールされたプログラムを読み出して、RAM1214に展開して実行することにより、図11に示すフローチャートの処理が実行される。なお、当該処理の前提として、CPU1212は、取得可能なセンサ情報の中から、4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための計16の制御変数それぞれの算出に用いる制御情報を決定する。
 ステップS20において、CPU1212は、センサにより検知された道路情報を含むセンサ情報を取得する。そして、CPU1212は、ステップS21に進む。
 ステップS21において、CPU1212は、ステップS20で取得したセンサ情報の中から事前に決定した制御情報に基づいて、上記16の制御変数を算出する。そして、CPU1212は、ステップS22に進む。
 ステップS22において、CPU1212は、ステップS21で算出した制御変数に基づいて、自動運転を制御する。そして、CPU1212は、ステップS23に進む。
 ステップS23において、CPU1212は、ステップS22で行った自動運転の制御結果に基づいて、センサ情報の中から制御情報として決定する情報を更新する。そして、CPU1212は、当該フローチャートの処理を終了する。
 上記のように、第2の実施形態に係るCentral Brain120として機能するコンピュータ1200では、CPU1212は、取得可能なセンサ情報の中から、4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための計16の制御変数それぞれの算出に用いる制御情報を決定する。そして、CPU1212は、車両12の停止中に決定した制御情報に基づいて、自動運転を制御するための上記16の制御変数を算出する。これにより、当該コンピュータ1200では、自動運転中に複数の制御変数それぞれの算出に用いる情報を決定する場合に比べて、自動運転中におけるCPU1212の処理負荷を軽減することができる。
 また、上記のコンピュータ1200では、CPU1212は、自動運転の制御結果に基づいて、センサ情報の中から制御情報として決定する情報を更新する。これにより、当該コンピュータ1200では、自動運転中に複数の制御変数それぞれの算出に用いる情報を最適化していくことができる。
 (第3の実施形態)
 次に、本実施形態に係る第3の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 第3の実施形態においては、Central Brain120は、乗員によって予め設定された車両12に乗車する乗員の乗車感覚の好みに係る嗜好情報に加え、上記のセンサにより検知された、車両12に乗車している乗員が体感している体感情報(例:乗員の視線、音声、心拍数及び体温等の生体情報等)及び車両12が走行する道路の道路状況を示す道路情報(例:道路の材質、坂道の上下横斜め傾き角度、道路の凍り方、及び道路の水分量等)を含むセンサ情報を取得する。Central Brain120は、嗜好情報と道路情報及び体感情報を含むセンサ情報とに基づいて、車両12の4つの車輪それぞれの車輪速、傾き、及び車輪を支持するサスペンションを制御するための制御変数を算出する算出部として機能する。
 図12は、Central Brain120の機能構成を説明するためのブロック図である。一例として図12に示されるように、Central Brain120が、情報処理プログラムを実行することで、取得部200、算出部210、及び制御部220として機能する。
 取得部200は、嗜好情報と道路情報及び体感情報を含むセンサ情報とを取得する。例えば、取得部200は、嗜好情報として、乗員によって予め設定された傾斜面の走行の可否、水たまりの走行の可否、及び平行移動による走行の可否等の乗員の乗車感覚の好みを取得する。また、取得部200は、車両12に搭載されているセンサによって検知された道路の材質、坂道の上下横斜め傾き角度、道路の凍り方、及び道路の水分量等の道路情報を取得する。また、取得部200は、体感情報として、乗員の視線と、音声と、心拍数及び体温等の生体情報と、を取得する。
 算出部210は、取得した道路情報、嗜好情報、及び体感情報を用いて、車両12の4つの車輪それぞれの車輪速、傾き、及び車輪を支持するサスペンションを制御するための制御変数を算出する。例えば、算出部210は、傾斜面の走行、水たまりの走行、及び平行移動による走行の可否等を含む嗜好情報と、道路情報と、に応じて、乗員の好みの乗車感覚となるように制御するための制御変数を算出する。
 また、算出部210は、体感情報を解析して乗員の好みを示す嗜好情報を算出し、算出した嗜好情報及び道路情報を用いて制御変数を算出する。例えば、算出部210は、体感情報に含まれる乗員の心拍数及び体温が上昇した場合、現在の走行が乗員の好みではないと判断して、車両12の前後方向を進行方向に向け、かつ車両12の車輪速を減速するように制御する制御変数を算出する。
 また、算出部210は、体感情報に含まれる乗員の視線に応じて嗜好情報を算出し、制御変数を算出する。例えば、算出部210は、乗員の視線が進行方向に対して左90度方向を向いていた場合、車両12の前後方向を進行方向に対して左90度方向に回転し、かつ車両12が進行方向への走行を継続する(例えば、カニ走りする)ように制御するための制御変数を算出する。
 また、算出部210は、体感情報に含まれる乗員の音声及び視線に応じて嗜好情報を算出し、制御変数を算出する。例えば、算出部210は、体感情報に含まれる乗員の「じっくり見たい」という音声を解析し、「見たい」という特徴を抽出する。算出部210は、抽出した特徴に応じて、車両12の車輪速を減速し、かつ乗員の視線の方向に車両12の車体が傾くようにサスペンションを制御する制御変数を算出する。
 制御部220は、算出部210によって算出された制御変数に基づいて、車両12の自動運転を制御する。
 Central Brain120は、図13に示されているフローチャートを繰り返し実行する。
 ステップS30において、Central Brain120は、乗員によって設定された嗜好情報を取得する。そして、Central Brain120は、ステップS31に進む。
 ステップS31において、Central Brain120は、センサにより検知された体感情報を取得する。そして、Central Brain120は、ステップS32に進む。
 ステップS32において、Central Brain120は、センサにより検知された道路情報を含むセンサ情報を取得する。そして、Central Brain120は、ステップS33に進む。
 ステップS33において、Central Brain120は、取得した嗜好情報、体感情報、及びセンサ情報に基づいて、上記16の制御変数を算出する。そして、Central Brain120は、ステップS34に進む。
 ステップS34において、Central Brain120は、ステップS33で算出した制御変数に基づいて、自動運転を制御する。そして、Central Brain120は、当該フローチャートの処理を終了する。
 (第4の実施形態)
 次に、本実施形態に係る第4の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図14は、第4の実施形態に係る制御システム10の概略構成を示す図である。
 図14に示すように、制御システム10は、複数の車両12A、12B、12Cを含む。なお、制御システム10における車両12の台数は3台に限らず、これより多くても少なくてもよい。
 各車両12A、12B、12Cは、Central Brain120A、120B、120Cをそれぞれ搭載している。各Central Brain120A、120B、120Cは、ネットワークNを介して相互に通信可能に接続されている。そして、各Central Brain120A、120B、120Cは、各車両12A、12B、12Cで使用する各センサが検知したセンサ情報を、10億分の1秒毎に送信し合っている。
 第4の実施形態においては、Central Brain120は、自車両(例:車両12A)が走行する道路の道路状況を示す道路情報を含むセンサ情報及び走行中の他車両(例:車両12B及び車両12C)に関する他車両情報に基づいて、自車両の上記16の制御変数(4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための制御変数)を算出する算出部として機能する。上記の他車両は、道路において自車両の前方を先行して走行する先行車両である。また、上記の他車両情報は、例えば、他車両で使用する各センサが検知したセンサ情報である。
 また、第4の実施形態では、Central Brain120として機能するコンピュータ1200の記憶装置1224に、上記16の制御変数をそれぞれ算出するための学習モデルが記憶されている。当該学習モデルは、自車両のセンサ情報及び他車両情報を入力することで、制御変数を出力する機械学習モデルである。そして、Central Brain120は、10億分の1秒毎に取得した自車両のセンサ情報及び他車両情報を学習モデルに入力することで、上記16の制御変数を算出する。つまり、Central Brain120は、機械学習、より詳しくは深層学習(Deep Learning)を用いて、自車両のセンサ情報及び他車両情報から制御変数を算出可能なAI(Artificial Intelligence)で構成されているといえる。
 また、第4の実施形態においては、Central Brain120は、取得した他車両情報に基づいて、自車両の制御変数を算出するための学習モデルを更新する更新部として機能する。なお、学習モデルを更新するために用いるデータは他車両情報に限られず、自車両のセンサ情報等の他の情報を用いてもよい。
 そして、第4の実施形態においては、Central Brain120は、算出した上記16の制御変数に基づいて、自車両の自動運転を制御する制御部として機能する。
 次に、Central Brain120により実行される処理の流れについて説明する。Central Brain120として機能するコンピュータ1200では、CPU1212がコンピュータ1200にインストールされたプログラムを読み出して、RAM1214に展開して実行することにより、図15に示すフローチャートの処理が実行される。
 ステップS40において、Central Brain120は、自車両のセンサにより検知された道路情報を含むセンサ情報を取得する。そして、Central Brain120は、ステップS41に進む。
 ステップS41において、Central Brain120は、他車両情報を取得する。そして、Central Brain120は、ステップS42に進む。
 ステップS42において、Central Brain120は、ステップS40で取得したセンサ情報及びステップS41で取得した他車両情報に基づいて、上記16の制御変数を算出する。そして、Central Brain120は、ステップS43に進む。
 ステップS43において、Central Brain120は、ステップS42で算出した制御変数に基づいて、自動運転を制御する。そして、Central Brain120は、当該フローチャートの処理を終了する。なお、図15では省略しているが、当該フローチャートの処理において、ステップS41で取得した他車両情報に基づいて、自車両の制御変数を算出するための学習モデルを更新する処理が行われてもよい。
 上記のように、第4の実施形態に係るCentral Brain120は、自車両のセンサ情報及び他車両情報に基づいて、自車両の上記16の制御変数を算出する。そして、Central Brain120は、算出した上記16の制御変数に基づいて、自車両の自動運転を制御する。これにより、当該Central Brain120によれば、自車両の情報及び他車両の情報に基づいて自車両の自動運転を制御できるため、自車両の情報のみに基づいて自車両の自動運転を制御する場合に比べて、自動運転の精度の向上が期待できる。
 また、第4の実施形態では、他車両は、道路において自車両の前方を先行して走行する先行車両である。そして、第4の実施形態に係るCentral Brain120は、他車両情報に基づいて、自車両の制御変数を算出するための学習モデルを更新する。これにより、当該Central Brain120によれば、先行車両が道路を走行した際の実測データに基づいて自車両の制御変数を算出するための学習モデルを更新できるため、先行車両が走行した道路を自車両が走行する際における自動運転の精度の向上が期待できる。
 (第5の実施形態)
 次に、本実施形態に係る第5の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 また、第5の実施形態においては、Central Brain120は、車両12の周辺を走行する他車両から、他車両が検知したセンサ情報を取得し、車両12及び他車両におけるセンサ情報に基づいて、制御変数を算出する。なお、以下では、車両12を他車両と区別する場合においては、「車両12」、及び「他車両14」と記載して区別する。また、同様に、車両12及び他車両14に搭載されているCentral Brainを区別する場合には、車両12における「Central Brain120」、及び他車両14における「Central Brain120A」と記載して区別する。
 図16は、Central Brain120、及びCentral Brain120Aの機能構成を説明するためのブロック図である。
 一例として図16に示すように、車両12のCentral Brain120は、取得部200、算出部210、制御部220、送信部230として機能する。また、他車両14のCentral Brain120Aは、取得部300、送信部310、受信部320、及び制御部330として機能する。
 車両12における取得部200は、車両12に搭載されているセンサからセンサ情報を取得し、他車両14から送信されたセンサ情報を取得する。
 算出部210は、車両12及び他車両14から取得したセンサ情報を用いて、車両12の4つの車輪それぞれの車輪速、傾き、及び車輪を支持するサスペンションを制御するための制御変数を算出する。例えば、算出部210は、車両12の進行方向における前方を他車両14が走行している場合、道路情報を含むセンサ情報を検知し、当該他車両14に追従して走行するように車両12の4つの車輪それぞれの車輪速、傾き、及び車輪を支持するサスペンションを制御するための制御変数を算出する。ここで、算出部210は、例えば、他車両14から取得したセンサ情報を用いて、他車両14の周辺を走行する道路の状況による影響を考慮して制御変数を算出する。
 また、算出部210は、車両12の右側方を他車両14が並走している場合、当該他車両14の状況を検知し、当該他車両14の動きに合わせて走行するように制御変数を算出して、車両12の自動運転を行う。例えば、算出部210は、道路の状況によって、他車両14が車両12に近づくように走行した場合、他車両の位置と逆側に、他車両が車両12に近付いた距離と同一の距離だけ移動するように制御変数を算出する。すなわち、算出部210は、車両12の周辺を走行する他車両14の動きに応じて制御変数を算出し、他車両14と一定間隔を保つように車両12の自動運転を行う。
 制御部220は、算出部210によって算出された制御変数に基づいて、車両12の自動運転を制御する。
 送信部230は、算出した制御変数を他車両14に送信する。
 他車両14における取得部300は、他車両14に搭載されているセンサからセンサ情報を取得する。
 送信部310は、取得したセンサ情報を車両12に送信する。
 受信部320は、車両12から送信された制御変数を受信する。
 制御部330は、車両12から受信した制御変数に基づいて、他車両14の自動運転を制御する。
 すなわち、上記では、車両12が算出した制御変数に基づいて、車両12及び他車両14が自動運転を行う。例えば、複数の車両12が縦列して走行している場合において、複数の車両12のうちの車両12が、車両12及び他車両14から取得したセンサ情報から算出された制御変数を車両12以外の他車両14に送信し、車両12及び他車両14は、制御変数に基づいて自動運転を行う。車両12が算出した制御変数に基づいて、他車両14が自動運転を行うことによって、車両12及び他車両14が同調した動きとなるように自動運転が行われる。
 なお、第5の実施形態では、車両12が算出した同一の制御変数に基づいて車両12及び他車両14が自動運転を各々行う形態について説明した。しかし、これに限定されない。車両12が他車両14の各々に対応する制御変数を算出し、車両12及び他車両14がそれぞれ対応する制御変数に基づいて自動運転を行ってもよい。
 例えば、車両12は、他車両14の各々からセンサ情報を取得し、取得したセンサ情報を用いて車両12及び他車両14の各々の制御変数を算出する。車両12は、算出した各々の制御変数をそれぞれ対応する他車両14に送信し、車両12及び他車両14は、各々の制御変数に基づいて、それぞれ自動運転を行う。
 Central Brain120は、図17に示されているフローチャートを繰り返し実行する。
 ステップS50において、Central Brain120は、センサにより検知された道路情報を含むセンサ情報を取得する。そして、Central Brain120は、ステップS51に進む。
 ステップS51において、Central Brain120は、他車両14が検知した道路情報を含むセンサ情報を取得する。そして、Central Brain120は、ステップS52に進む。
 ステップS52において、Central Brain120は、ステップS50及びステップS51で取得した車両12及び他車両14のセンサ情報に基づいて、上記16の制御変数を算出する。そして、Central Brain120は、ステップS53に進む。
 ステップS53において、Central Brain120は、ステップS52で算出した制御変数を他車両14に送信する。そして、Central Brain120は、ステップS54に進む。
 ステップS54において、Central Brain120は、ステップS52で算出した制御変数に基づいて、自動運転を制御する。そして、Central Brain120は、当該フローチャートの処理を終了する。
 車両12におけるCentral Brain120、及び他車両14におけるCentral Brain120Aは、図18に示されているシーケンス図における処理を協働して繰り返し実行する。
 ステップS60において、Central Brain120、及びCentral Brain120Aは、センサにより検知された道路情報を含むセンサ情報を取得する。
 ステップS61において、Central Brain120Aは、センサ情報を車両12に送信する。
 ステップS62において、Central Brain120は、他車両14からセンサ情報を取得する。
 ステップS63において、Central Brain120は、取得したセンサ情報を用いて、制御変数を取得する。
 ステップS64において、Central Brain120は、算出した制御変数を他車両14に送信する。
 ステップS65において、Central Brain120Aは、車両12から送信された制御変数を受信する。
 ステップS66において、Central Brain120、及びCentral Brain120Aは、制御変数を用いて、自動運転を制御する。そして、Central Brain120及びCentral Brain120Aは、当該シーケンス図の処理を終了する。
 以上、本開示を実施の形態を用いて説明したが、本開示の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
 本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
 コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
 コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
 コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
 特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
 以上、本開示を実施の形態を用いて説明したが、本開示の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
 特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
 2022年10月20日に出願された日本国特許出願2022-168190号の開示、2022年11月30日に出願された日本国特許出願2022-192162号の開示、2022年11月30日に出願された日本国特許出願2022-192163号の開示、2022年12月2日に出願された日本国特許出願2022-193627号の開示、及び2022年11月30日に出願された日本国特許出願2022-192164号の開示は、その全体が参照により本明細書に取り込まれる。
 本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (15)

  1.  車両が走行する道路の道路状況を示す道路情報を含むセンサ情報に基づいて、前記車両の4つの車輪それぞれの車輪速、傾き、及び前記車輪を支持するサスペンションを制御するための制御変数を算出する算出部と、
     前記算出部が算出した前記制御変数に基づいて、自動運転を制御する制御部と、
     を備える、
     情報処理装置。
  2.  前記制御部は、前記算出部が算出した前記制御変数に基づいて、10億分の1秒単位で前記自動運転を制御する、
     請求項1に記載の情報処理装置。
  3.  取得可能な前記センサ情報の中から、4つの前記車輪それぞれの車輪速、4つの前記車輪それぞれの傾き、及び4つの前記車輪それぞれを支持するサスペンションを制御するためのそれぞれの前記制御変数の算出に用いる制御情報を決定する決定部を備え、
     前記算出部は、前記決定部が決定した前記制御情報に基づいて、前記制御部が前記自動運転を制御するための複数の前記制御変数を算出する、
     請求項1に記載の情報処理装置。
  4.  前記決定部は、前記制御部による前記自動運転の制御結果に基づいて、前記センサ情報の中から前記制御情報として決定する情報を更新する、
     請求項3に記載の情報処理装置。
  5.  前記算出部は、前記車両に乗車する乗員の乗車感覚の好みに係る嗜好情報及び前記センサ情報に基づいて、前記制御変数を算出する、
     請求項1に記載の情報処理装置。
  6.  前記乗員の体感に係る体感情報を取得する取得部をさらに備え、
     前記算出部は、取得した前記体感情報から解析された前記嗜好情報に基づいて前記制御変数を算出する、
     請求項5に記載の情報処理装置。
  7.  前記体感情報は、前記乗員の音声、視線、及び生体情報の少なくとも1つの情報である、
     請求項6に記載の情報処理装置。
  8.  前記算出部は、自車両が走行する前記道路の道路状況を示す前記道路情報を含む前記センサ情報及び走行中の他車両に関する他車両情報に基づいて、前記自車両の4つの車輪それぞれの車輪速、傾き、及び前記車輪を支持するサスペンションを制御するための前記制御変数を算出し、
     前記制御部は、前記算出部が算出した前記制御変数に基づいて、前記自車両の自動運転を制御する、
     請求項1に記載の情報処理装置。
  9.  前記他車両は、前記道路において前記自車両の前方を先行して走行する先行車両である、
     請求項8に記載の情報処理装置。
  10.  前記他車両情報に基づいて、前記自車両の前記制御変数を算出するための学習モデルを更新する更新部を備える、
     請求項9に記載の情報処理装置。
  11.  前記情報処理装置は前記車両に搭載され、
     前記車両に搭載されたセンサの前記センサ情報としての第1センサ情報、及び前記車両の周辺を走行する他車両の第2センサ情報を取得する取得部を備え、
     前記算出部は、取得した前記第1センサ情報及び前記第2センサ情報に基づいて、前記制御変数を算出し、
     前記制御部は、前記算出部が算出した前記制御変数に基づいて、前記車両が前記他車両と同調して走行するように自動運転を制御する、
     請求項1に記載の情報処理装置。
  12.  前記制御部は、前記他車両が前記車両と同調して走行するように、算出した前記制御変数を前記他車両に送信する、
     請求項11に記載の情報処理装置。
  13.  前記算出部は、前記他車両の各々に対応した前記制御変数をさらに算出し、
     前記制御部は、前記制御変数を対応する前記他車両の各々に送信して、前記他車両の自動運転をそれぞれ制御する、
     請求項12記載の情報処理装置。
  14.  請求項11から請求項13の何れか1項に記載の情報処理装置を搭載した前記車両、及び前記他車両を備えた情報処理システムであって、
     前記車両は、前記制御変数を前記他車両に送信し、
     前記他車両は、前記車両から受信した前記制御変数に基づいて、前記車両に同調して走行するように自動運転を制御する、
     情報処理システム。
  15.  コンピュータを、請求項1から請求項13の何れか1項に記載の情報処理装置として機能させるためのプログラム。
PCT/JP2023/036091 2022-10-20 2023-10-03 情報処理装置、情報処理システム、及びプログラム WO2024084961A1 (ja)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP2022-168190 2022-10-20
JP2022168190 2022-10-20
JP2022-192162 2022-11-30
JP2022-192163 2022-11-30
JP2022-192164 2022-11-30
JP2022192162A JP2024061557A (ja) 2022-10-20 2022-11-30 情報処理装置及びプログラム
JP2022192164A JP2024061559A (ja) 2022-10-20 2022-11-30 情報処理装置、情報処理システム、及びプログラム
JP2022192163A JP2024061558A (ja) 2022-10-20 2022-11-30 情報処理装置及びプログラム
JP2022193627A JP2024061564A (ja) 2022-10-20 2022-12-02 情報処理装置及びプログラム
JP2022-193627 2022-12-02

Publications (1)

Publication Number Publication Date
WO2024084961A1 true WO2024084961A1 (ja) 2024-04-25

Family

ID=90737377

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/036091 WO2024084961A1 (ja) 2022-10-20 2023-10-03 情報処理装置、情報処理システム、及びプログラム

Country Status (1)

Country Link
WO (1) WO2024084961A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241100A (ja) * 1991-01-25 1992-08-28 Sumitomo Electric Ind Ltd 車間通信を利用した走行支援装置
JP2016007989A (ja) * 2014-06-26 2016-01-18 クラリオン株式会社 車両制御装置及び車両制御方法
JP2022083518A (ja) * 2020-11-25 2022-06-06 日立Astemo株式会社 車両統合制御装置、および、車両統合制御方法
JP2022129649A (ja) * 2021-02-25 2022-09-06 Ntn株式会社 車両運動制御装置、車両運動制御システムおよび車両

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241100A (ja) * 1991-01-25 1992-08-28 Sumitomo Electric Ind Ltd 車間通信を利用した走行支援装置
JP2016007989A (ja) * 2014-06-26 2016-01-18 クラリオン株式会社 車両制御装置及び車両制御方法
JP2022083518A (ja) * 2020-11-25 2022-06-06 日立Astemo株式会社 車両統合制御装置、および、車両統合制御方法
JP2022129649A (ja) * 2021-02-25 2022-09-06 Ntn株式会社 車両運動制御装置、車両運動制御システムおよび車両

Similar Documents

Publication Publication Date Title
KR102062608B1 (ko) 자율 주행 차량의 제어 피드백에 기초한 맵 업데이트 방법 및 시스템
JP6878493B2 (ja) 自動運転車両(adv)に用いるピッチ角の補正方法
JP6738932B2 (ja) シミュレーションプラットフォームに配置された、機械学習モデルを訓練するためのシステム及び方法
US10802484B2 (en) Planning feedback based decision improvement system for autonomous driving vehicle
JP6784794B2 (ja) 自動運転車の経路計画用のドリフト補正の方法
JP2020514145A (ja) シミュレーションに基づく自動運転車の感知要求の評価方法
KR20180092314A (ko) 모션 계획에 기초한 자율 주행 차량의 운행 방법 및 시스템
CN111538323B (zh) 限定自动驾驶系统的安全可驾驶区域的方法
JP2020015490A (ja) 冗長超音波レーダを備える自律走行車{ autonomous driving vehicles with redundant ultrasonic radar }
JP2020015493A (ja) 自動運転車両のためのオブジェクト移動を予測するための方法およびシステム
JP6808775B2 (ja) 複数のキューを利用したオブジェクト追跡
CN111532253A (zh) 用于自动驾驶系统的具有功能安全监视器的故障运行结构
CN115136204A (zh) 多模态、多技术载具信号检测
JP7143269B2 (ja) 車両挙動予測のための圧縮環境特徴の表示
CN111459155A (zh) 用于自主驾驶应用的动态确定车辆有效传感器覆盖的方法
JP7017582B2 (ja) 自動運転車のトルクフィードバックに基づく車両縦方向自動キャリブレーションシステム
WO2024084961A1 (ja) 情報処理装置、情報処理システム、及びプログラム
CN112041774A (zh) 用于3级自动驾驶车辆的基于摄像机的横向位置校准
DE102022107848A1 (de) System und verfahren zur aktualisierung von karten mit hoher auflösung
JP2024061558A (ja) 情報処理装置及びプログラム
WO2024085040A1 (ja) 情報処理装置、車両、及びプログラム
JP2024062341A (ja) 情報処理装置
WO2024090288A1 (ja) Central Brain制御の冗長設定
JP2024062326A (ja) 情報処理装置及びプログラム
WO2024080168A1 (ja) 自動運転走行試験方法及びプログラム