WO2024090195A1 - 情報処理システム、通信方法、及び、移動体 - Google Patents

情報処理システム、通信方法、及び、移動体 Download PDF

Info

Publication number
WO2024090195A1
WO2024090195A1 PCT/JP2023/036690 JP2023036690W WO2024090195A1 WO 2024090195 A1 WO2024090195 A1 WO 2024090195A1 JP 2023036690 W JP2023036690 W JP 2023036690W WO 2024090195 A1 WO2024090195 A1 WO 2024090195A1
Authority
WO
WIPO (PCT)
Prior art keywords
ecu
area
optical communication
vehicle
information processing
Prior art date
Application number
PCT/JP2023/036690
Other languages
English (en)
French (fr)
Inventor
陸也 江副
裕一 森岡
康史 林田
康之 加藤
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2024090195A1 publication Critical patent/WO2024090195A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles

Definitions

  • This technology relates to an information processing system, a communication method, and a mobile object, and in particular to an information processing system, a communication method, and a mobile object that use optical communication.
  • zone architecture will become the mainstream E/E (Electric & Electronic) architecture for vehicles (see, for example, Patent Document 1).
  • This technology was developed in light of these circumstances, and aims to improve the reliability of data transmission in moving objects such as vehicles.
  • the information processing system is provided in a moving body and includes multiple integrated ECUs (Electronic Control Units) each controlling multiple functions, with each of the integrated ECUs being connected via an optical communication path, and at least some of the integrated ECUs being connected to two or more of the optical communication paths.
  • ECUs Electronic Control Units
  • multiple integrated ECUs each controlling multiple functions are connected via optical communication paths, and at least some of the integrated ECUs are connected to two or more of the optical communication paths, and data is transmitted and received via the two or more of the optical communication paths.
  • the mobile body of the third aspect of the present technology includes multiple integrated ECUs each controlling multiple functions, and each of the integrated ECUs is connected via an optical communication path, with at least some of the integrated ECUs being connected to two or more of the optical communication paths.
  • multiple integrated ECUs each controlling multiple functions are connected via optical communication paths, and at least some of the integrated ECUs are connected to two or more of the optical communication paths.
  • multiple integrated ECUs each controlling multiple functions are connected via optical communication paths, at least some of the integrated ECUs are connected to two or more of the optical communication paths, and data is transmitted and received via the two or more of the optical communication paths.
  • FIG. 1 is a block diagram showing an example of the configuration of a vehicle control system.
  • FIG. 2 is a diagram showing an example of a sensing region.
  • FIG. 2 is a diagram illustrating an example of data flow within a vehicle.
  • FIG. 1 is a diagram illustrating an example of the configuration of an information processing system provided in a vehicle.
  • 5 illustrates an example of a usage rate of sensor data of each sensor in the information processing system of FIG. 4 .
  • 1 illustrates a first embodiment of an information processing system to which the present technology is applied.
  • 7 shows an example of a usage rate of sensor data in each area of the information processing system of FIG. 6.
  • FIG. 13 is a diagram illustrating an example of a method for diverting the wavelength of sensor data to another use.
  • FIG. 2 illustrates a second embodiment of an information processing system to which the present technology is applied.
  • 13 illustrates a third embodiment of an information processing system to which the present technology is applied.
  • 13 illustrates a fourth embodiment of an information processing system to which the present technology is applied.
  • 13 illustrates a fifth embodiment of an information processing system to which the present technology is applied.
  • FIG. 4 is a diagram showing a flow of data transmitted from a master ECU.
  • FIG. 2 is a diagram showing a flow of data transmitted from an area ECU of a redundant network.
  • FIG. 2 is a diagram showing a flow of data transmitted from an ECU in a non-redundant network.
  • FIG. 2 is a diagram illustrating an example of the configuration of a master ECU.
  • FIG. 2 is a diagram illustrating an example of the configuration of an area ECU in a redundant network.
  • FIG. 2 is a diagram illustrating an example of the configuration of an area ECU in a non-redundant network.
  • FIG. 2 is a diagram illustrating an example of the configuration of an entertainment ECU.
  • FIG. 2 is a diagram illustrating an example of the configuration of an ECU. 13 illustrates a sixth embodiment of an information processing system to which the present technology is applied.
  • FIG. 11 is a diagram illustrating an example of a method for adding an information processing system.
  • FIG. 2 is a block diagram illustrating an example of the configuration of a computer.
  • FIG. 1 is a block diagram showing an example of the configuration of a vehicle control system 11, which is an example of a mobility device control system to which the present technology is applied.
  • the vehicle control system 11 is installed in the vehicle 1 and performs processing related to driving assistance and autonomous driving of the vehicle 1.
  • the vehicle control system 11 includes a vehicle control ECU (Electronic Control Unit) 21, a communication unit 22, a map information storage unit 23, a location information acquisition unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a memory unit 28, a driving assistance/automated driving control unit 29, a DMS (Driver Monitoring System) 30, an HMI (Human Machine Interface) 31, and a vehicle control unit 32.
  • vehicle control ECU Electronic Control Unit
  • a communication unit 22 includes a communication unit 22, a map information storage unit 23, a location information acquisition unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a memory unit 28, a driving assistance/automated driving control unit 29, a DMS (Driver Monitoring System) 30, an HMI (Human Machine Interface) 31, and a vehicle control unit 32.
  • the vehicle control ECU 21, communication unit 22, map information storage unit 23, position information acquisition unit 24, external recognition sensor 25, in-vehicle sensor 26, vehicle sensor 27, memory unit 28, driving assistance/automatic driving control unit 29, driver monitoring system (DMS) 30, human machine interface (HMI) 31, and vehicle control unit 32 are connected to each other so as to be able to communicate with each other via a communication network 41.
  • the communication network 41 is composed of an in-vehicle communication network or bus that complies with a digital two-way communication standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), FlexRay (registered trademark), or Ethernet (registered trademark).
  • the communication network 41 may be used differently depending on the type of data being transmitted.
  • CAN may be applied to data related to vehicle control
  • Ethernet may be applied to large-volume data.
  • each part of the vehicle control system 11 may be directly connected without going through the communication network 41, using wireless communication intended for communication over relatively short distances, such as near field communication (NFC) or Bluetooth (registered trademark).
  • NFC near field communication
  • Bluetooth registered trademark
  • the vehicle control ECU 21 is composed of various processors, such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit).
  • the vehicle control ECU 21 controls all or part of the functions of the vehicle control system 11.
  • the communication unit 22 communicates with various devices inside and outside the vehicle, other vehicles, servers, base stations, etc., and transmits and receives various types of data. At this time, the communication unit 22 can communicate using multiple communication methods.
  • the communication unit 22 communicates with servers (hereinafter referred to as external servers) on an external network via base stations or access points using wireless communication methods such as 5G (fifth generation mobile communication system), LTE (Long Term Evolution), and DSRC (Dedicated Short Range Communications).
  • the external network with which the communication unit 22 communicates is, for example, the Internet, a cloud network, or an operator-specific network.
  • the communication method that the communication unit 22 uses with the external network is not particularly limited as long as it is a wireless communication method that allows digital two-way communication at a communication speed equal to or higher than a predetermined distance.
  • the communication unit 22 can communicate with a terminal present in the vicinity of the vehicle using P2P (Peer To Peer) technology.
  • the terminal present in the vicinity of the vehicle can be, for example, a terminal attached to a mobile object moving at a relatively slow speed, such as a pedestrian or a bicycle, a terminal installed at a fixed position in a store, or an MTC (Machine Type Communication) terminal.
  • the communication unit 22 can also perform V2X communication.
  • V2X communication refers to communication between the vehicle and others, such as vehicle-to-vehicle communication with other vehicles, vehicle-to-infrastructure communication with roadside devices, vehicle-to-home communication with a home, and vehicle-to-pedestrian communication with a terminal carried by a pedestrian, etc.
  • the communication unit 22 can, for example, receive from the outside a program for updating the software that controls the operation of the vehicle control system 11 (Over the Air).
  • the communication unit 22 can further receive map information, traffic information, information about the surroundings of the vehicle 1, etc. from the outside.
  • the communication unit 22 can also transmit information about the vehicle 1 and information about the surroundings of the vehicle 1 to the outside.
  • Information about the vehicle 1 that the communication unit 22 transmits to the outside includes, for example, data indicating the state of the vehicle 1, the recognition results by the recognition unit 73, etc.
  • the communication unit 22 performs communication corresponding to a vehicle emergency notification system such as e-Call.
  • the communication unit 22 receives electromagnetic waves transmitted by a road traffic information and communication system (VICS (Vehicle Information and Communication System) (registered trademark)) such as a radio beacon, optical beacon, or FM multiplex broadcasting.
  • VICS Vehicle Information and Communication System
  • the communication unit 22 can communicate with each device in the vehicle using, for example, wireless communication.
  • the communication unit 22 can perform wireless communication with each device in the vehicle using a communication method that allows digital two-way communication at a communication speed equal to or higher than a predetermined speed via wireless communication, such as wireless LAN, Bluetooth, NFC, or WUSB (Wireless USB).
  • the communication unit 22 can also communicate with each device in the vehicle using wired communication.
  • the communication unit 22 can communicate with each device in the vehicle using wired communication via a cable connected to a connection terminal (not shown).
  • the communication unit 22 can communicate with each device in the vehicle using a communication method that allows digital two-way communication at a communication speed equal to or higher than a predetermined speed via wired communication, such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), or MHL (Mobile High-definition Link).
  • a communication method that allows digital two-way communication at a communication speed equal to or higher than a predetermined speed via wired communication, such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), or MHL (Mobile High-definition Link).
  • devices in the vehicle refers to devices that are not connected to the communication network 41 in the vehicle.
  • Examples of devices in the vehicle include mobile devices and wearable devices carried by passengers such as the driver, and information devices that are brought into the vehicle and temporarily installed.
  • the map information storage unit 23 stores one or both of a map acquired from an external source and a map created by the vehicle 1.
  • the map information storage unit 23 stores a three-dimensional high-precision map, a global map that is less accurate than a high-precision map and covers a wide area, etc.
  • High-precision maps include, for example, dynamic maps, point cloud maps, and vector maps.
  • a dynamic map is, for example, a map consisting of four layers of dynamic information, semi-dynamic information, semi-static information, and static information, and is provided to the vehicle 1 from an external server or the like.
  • a point cloud map is a map composed of a point cloud (point group data).
  • a vector map is, for example, a map that associates traffic information such as the positions of lanes and traffic lights with a point cloud map, and is adapted for ADAS (Advanced Driver Assistance System) and AD (Autonomous Driving).
  • the point cloud map and vector map may be provided, for example, from an external server, or may be created by the vehicle 1 based on sensing results from the camera 51, radar 52, LiDAR 53, etc. as a map for matching with a local map described below, and stored in the map information storage unit 23.
  • map data of, for example, an area of several hundred meters square regarding the planned route along which the vehicle 1 will travel is acquired from the external server, etc., in order to reduce communication capacity.
  • the location information acquisition unit 24 receives GNSS signals from Global Navigation Satellite System (GNSS) satellites and acquires location information of the vehicle 1.
  • GNSS Global Navigation Satellite System
  • the acquired location information is supplied to the driving assistance/automated driving control unit 29.
  • the location information acquisition unit 24 is not limited to a method using GNSS signals, and may acquire location information using a beacon, for example.
  • the external recognition sensor 25 includes various sensors used to recognize the situation outside the vehicle 1, and supplies sensor data from each sensor to each part of the vehicle control system 11.
  • the type and number of sensors included in the external recognition sensor 25 are arbitrary.
  • the external recognition sensor 25 includes a camera 51, a radar 52, a LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) 53, and an ultrasonic sensor 54.
  • the external recognition sensor 25 may be configured to include one or more types of sensors among the camera 51, the radar 52, the LiDAR 53, and the ultrasonic sensor 54.
  • the number of cameras 51, radars 52, LiDAR 53, and ultrasonic sensors 54 is not particularly limited as long as it is a number that can be realistically installed on the vehicle 1.
  • the types of sensors included in the external recognition sensor 25 are not limited to this example, and the external recognition sensor 25 may include other types of sensors. Examples of the sensing areas of each sensor included in the external recognition sensor 25 will be described later.
  • the imaging method of camera 51 is not particularly limited.
  • cameras of various imaging methods such as a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, and an infrared camera, which are imaging methods capable of distance measurement, can be applied to camera 51 as necessary.
  • ToF Time Of Flight
  • stereo camera stereo camera
  • monocular camera stereo camera
  • infrared camera infrared camera
  • the present invention is not limited to this, and camera 51 may simply be used to obtain a photographed image, without being related to distance measurement.
  • the external recognition sensor 25 can be equipped with an environmental sensor for detecting the environment relative to the vehicle 1.
  • the environmental sensor is a sensor for detecting the environment such as the weather, climate, brightness, etc., and can include various sensors such as a raindrop sensor, a fog sensor, a sunlight sensor, a snow sensor, an illuminance sensor, etc.
  • the external recognition sensor 25 includes a microphone that is used to detect sounds around the vehicle 1 and the location of sound sources.
  • the in-vehicle sensor 26 includes various sensors for detecting information inside the vehicle, and supplies sensor data from each sensor to each part of the vehicle control system 11. There are no particular limitations on the types and number of the various sensors included in the in-vehicle sensor 26, so long as they are of the types and number that can be realistically installed in the vehicle 1.
  • the in-vehicle sensor 26 may be equipped with one or more types of sensors including a camera, radar, a seating sensor, a steering wheel sensor, a microphone, and a biometric sensor.
  • the camera equipped in the in-vehicle sensor 26 may be a camera using various imaging methods capable of measuring distances, such as a ToF camera, a stereo camera, a monocular camera, or an infrared camera. Without being limited to this, the camera equipped in the in-vehicle sensor 26 may be a camera simply for acquiring captured images, regardless of distance measurement.
  • the biometric sensor equipped in the in-vehicle sensor 26 is provided, for example, on a seat, steering wheel, etc., and detects various types of biometric information of passengers such as the driver.
  • the vehicle sensor 27 includes various sensors for detecting the state of the vehicle 1, and supplies sensor data from each sensor to each part of the vehicle control system 11. There are no particular limitations on the types and number of the various sensors included in the vehicle sensor 27, so long as they are of the types and number that can be realistically installed on the vehicle 1.
  • the vehicle sensor 27 includes a speed sensor, an acceleration sensor, an angular velocity sensor (gyro sensor), and an inertial measurement unit (IMU) that integrates these.
  • the vehicle sensor 27 includes a steering angle sensor that detects the steering angle of the steering wheel, a yaw rate sensor, an accelerator sensor that detects the amount of accelerator pedal operation, and a brake sensor that detects the amount of brake pedal operation.
  • the vehicle sensor 27 includes a rotation sensor that detects the number of rotations of the engine or motor, an air pressure sensor that detects the air pressure of the tires, a slip ratio sensor that detects the slip ratio of the tires, and a wheel speed sensor that detects the rotation speed of the wheels.
  • the vehicle sensor 27 includes a battery sensor that detects the remaining charge and temperature of the battery, and an impact sensor that detects external impacts.
  • the memory unit 28 includes at least one of a non-volatile storage medium and a volatile storage medium, and stores data and programs.
  • the memory unit 28 is used, for example, as an EEPROM (Electrically Erasable Programmable Read Only Memory) and a RAM (Random Access Memory), and the storage medium may be a magnetic storage device such as a hard disc drive (HDD), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the memory unit 28 stores various programs and data used by each part of the vehicle control system 11.
  • the memory unit 28 includes an EDR (Event Data Recorder) and a DSSAD (Data Storage System for Automated Driving), and stores information about the vehicle 1 before and after an event such as an accident, and information acquired by the in-vehicle sensor 26.
  • EDR Event Data Recorder
  • DSSAD Data Storage System for Automated Driving
  • the driving assistance/automated driving control unit 29 controls driving assistance and automatic driving of the vehicle 1.
  • the driving assistance/automated driving control unit 29 includes an analysis unit 61, an action planning unit 62, and an operation control unit 63.
  • the analysis unit 61 performs analysis processing of the vehicle 1 and the surrounding conditions.
  • the analysis unit 61 includes a self-position estimation unit 71, a sensor fusion unit 72, and a recognition unit 73.
  • the self-position estimation unit 71 estimates the self-position of the vehicle 1 based on the sensor data from the external recognition sensor 25 and the high-precision map stored in the map information storage unit 23. For example, the self-position estimation unit 71 generates a local map based on the sensor data from the external recognition sensor 25, and estimates the self-position of the vehicle 1 by matching the local map with the high-precision map.
  • the position of the vehicle 1 is based on, for example, the center of the rear wheel pair axle.
  • the local map is, for example, a three-dimensional high-precision map or an occupancy grid map created using technology such as SLAM (Simultaneous Localization and Mapping).
  • the three-dimensional high-precision map is, for example, the point cloud map described above.
  • the occupancy grid map is a map in which the three-dimensional or two-dimensional space around the vehicle 1 is divided into grids of a predetermined size, and the occupancy state of objects is shown on a grid-by-grid basis.
  • the occupancy state of objects is indicated, for example, by the presence or absence of an object and the probability of its existence.
  • the local map is also used, for example, in detection processing and recognition processing of the situation outside the vehicle 1 by the recognition unit 73.
  • the self-position estimation unit 71 may estimate the self-position of the vehicle 1 based on the position information acquired by the position information acquisition unit 24 and the sensor data from the vehicle sensor 27.
  • the sensor fusion unit 72 performs sensor fusion processing to combine multiple different types of sensor data (e.g., image data supplied from the camera 51 and sensor data supplied from the radar 52) to obtain new information.
  • Methods for combining different types of sensor data include integration, fusion, and association.
  • the recognition unit 73 executes a detection process to detect the situation outside the vehicle 1, and a recognition process to recognize the situation outside the vehicle 1.
  • the recognition unit 73 performs detection and recognition processing of the situation outside the vehicle 1 based on information from the external recognition sensor 25, information from the self-position estimation unit 71, information from the sensor fusion unit 72, etc.
  • the recognition unit 73 performs detection processing and recognition processing of objects around the vehicle 1.
  • Object detection processing is, for example, processing to detect the presence or absence, size, shape, position, movement, etc. of an object.
  • Object recognition processing is, for example, processing to recognize attributes such as the type of object, and to identify a specific object.
  • detection processing and recognition processing are not necessarily clearly separated, and there may be overlap.
  • the recognition unit 73 detects objects around the vehicle 1 by performing clustering to classify a point cloud based on sensor data from the radar 52, the LiDAR 53, or the like into clusters of points. This allows the presence or absence, size, shape, and position of objects around the vehicle 1 to be detected.
  • the recognition unit 73 detects the movement of objects around the vehicle 1 by performing tracking to follow the movement of clusters of point clouds classified by clustering. This allows the speed and direction of travel (movement vector) of objects around the vehicle 1 to be detected.
  • the recognition unit 73 detects or recognizes vehicles, people, bicycles, obstacles, structures, roads, traffic lights, traffic signs, road markings, etc. based on image data supplied from the camera 51.
  • the recognition unit 73 may also recognize the types of objects around the vehicle 1 by performing recognition processing such as semantic segmentation.
  • the recognition unit 73 can perform recognition processing of traffic rules around the vehicle 1 based on the map stored in the map information storage unit 23, the result of self-location estimation by the self-location estimation unit 71, and the result of recognition of objects around the vehicle 1 by the recognition unit 73. Through this processing, the recognition unit 73 can recognize the positions and states of traffic lights, the contents of traffic signs and road markings, the contents of traffic regulations, and lanes on which travel is possible, etc.
  • the recognition unit 73 can perform recognition processing of the environment around the vehicle 1.
  • the surrounding environment that the recognition unit 73 recognizes may include weather, temperature, humidity, brightness, and road surface conditions.
  • the behavior planning unit 62 creates a behavior plan for the vehicle 1. For example, the behavior planning unit 62 creates the behavior plan by performing route planning and route following processing.
  • Global path planning is a process that plans a rough route from the start to the goal. This route planning is called trajectory planning, and also includes a process of local path planning that takes into account the motion characteristics of vehicle 1 on the planned route and generates a trajectory that allows safe and smooth progress in the vicinity of vehicle 1.
  • Path following is a process of planning operations for safely and accurately traveling along a route planned by a route plan within a planned time.
  • the action planning unit 62 can, for example, calculate the target speed and target angular velocity of the vehicle 1 based on the results of this path following process.
  • the operation control unit 63 controls the operation of the vehicle 1 to realize the action plan created by the action planning unit 62.
  • the operation control unit 63 controls the steering control unit 81, the brake control unit 82, and the drive control unit 83 included in the vehicle control unit 32 described below, and performs acceleration/deceleration control and directional control so that the vehicle 1 proceeds along the trajectory calculated by the trajectory plan.
  • the operation control unit 63 performs cooperative control aimed at realizing ADAS functions such as collision avoidance or impact mitigation, following driving, maintaining vehicle speed, collision warning for the vehicle itself, and lane departure warning for the vehicle itself.
  • the operation control unit 63 performs cooperative control aimed at automatic driving, which drives autonomously without the driver's operation.
  • the DMS 30 performs processes such as authenticating the driver and recognizing the driver's state based on the sensor data from the in-vehicle sensors 26 and the input data input to the HMI 31 (described later).
  • Examples of the driver's state to be recognized include physical condition, alertness, concentration, fatigue, line of sight, level of intoxication, driving operation, posture, etc.
  • the DMS 30 may also perform authentication processing for passengers other than the driver and recognition processing for the status of the passengers.
  • the DMS 30 may also perform recognition processing for the situation inside the vehicle based on sensor data from the in-vehicle sensor 26. Examples of the situation inside the vehicle that may be recognized include temperature, humidity, brightness, odor, etc.
  • HMI31 inputs various data and instructions, and displays various data to the driver, etc.
  • the HMI 31 is equipped with an input device that allows a person to input data.
  • the HMI 31 generates input signals based on data and instructions input via the input device, and supplies the signals to each part of the vehicle control system 11.
  • the HMI 31 is equipped with input devices such as a touch panel, buttons, switches, and levers. Without being limited to these, the HMI 31 may further be equipped with an input device that allows information to be input by a method other than manual operation, such as voice or gestures.
  • the HMI 31 may use, as an input device, an externally connected device such as a remote control device that uses infrared or radio waves, or a mobile device or wearable device that supports the operation of the vehicle control system 11.
  • the HMI 31 generates visual information, auditory information, and tactile information for the occupants or the outside of the vehicle.
  • the HMI 31 also performs output control to control the output, output content, output timing, output method, etc. of each piece of generated information.
  • the HMI 31 generates and outputs, as visual information, information indicated by images or light, such as an operation screen, a status display of the vehicle 1, a warning display, and a monitor image showing the situation around the vehicle 1.
  • the HMI 31 also generates and outputs, as auditory information, information indicated by sounds, such as voice guidance, warning sounds, and warning messages.
  • the HMI 31 also generates and outputs, as tactile information, information that is imparted to the occupants' sense of touch by, for example, force, vibration, movement, etc.
  • the output device from which the HMI 31 outputs visual information may be, for example, a display device that presents visual information by displaying an image itself, or a projector device that presents visual information by projecting an image.
  • the display device may be a device that displays visual information within the field of vision of the passenger, such as a head-up display, a transmissive display, or a wearable device with an AR (Augmented Reality) function, in addition to a display device having a normal display.
  • the HMI 31 may also use display devices such as a navigation device, instrument panel, CMS (Camera Monitoring System), electronic mirror, lamp, etc., provided in the vehicle 1 as output devices that output visual information.
  • CMS Camera Monitoring System
  • the output device through which the HMI 31 outputs auditory information can be, for example, an audio speaker, headphones, or earphones.
  • Haptic elements using haptic technology can be used as an output device for the HMI 31 to output haptic information.
  • the haptic elements are provided on parts of the vehicle 1 that are in contact with passengers, such as the steering wheel and the seat.
  • the vehicle control unit 32 controls each part of the vehicle 1.
  • the vehicle control unit 32 includes a steering control unit 81, a brake control unit 82, a drive control unit 83, a body control unit 84, a light control unit 85, and a horn control unit 86.
  • the steering control unit 81 detects and controls the state of the steering system of the vehicle 1.
  • the steering system includes, for example, a steering mechanism including a steering wheel, an electric power steering, etc.
  • the steering control unit 81 includes, for example, a steering ECU that controls the steering system, an actuator that drives the steering system, etc.
  • the brake control unit 82 detects and controls the state of the brake system of the vehicle 1.
  • the brake system includes, for example, a brake mechanism including a brake pedal, an ABS (Antilock Brake System), a regenerative brake mechanism, etc.
  • the brake control unit 82 includes, for example, a brake ECU that controls the brake system, and an actuator that drives the brake system.
  • the drive control unit 83 detects and controls the state of the drive system of the vehicle 1.
  • the drive system includes, for example, an accelerator pedal, a drive force generating device for generating drive force such as an internal combustion engine or a drive motor, and a drive force transmission mechanism for transmitting the drive force to the wheels.
  • the drive control unit 83 includes, for example, a drive ECU for controlling the drive system, and an actuator for driving the drive system.
  • the body system control unit 84 detects and controls the state of the body system of the vehicle 1.
  • the body system includes, for example, a keyless entry system, a smart key system, a power window device, a power seat, an air conditioning system, an airbag, a seat belt, a shift lever, etc.
  • the body system control unit 84 includes, for example, a body system ECU that controls the body system, an actuator that drives the body system, etc.
  • the light control unit 85 detects and controls the state of various lights of the vehicle 1. Examples of lights to be controlled include headlights, backlights, fog lights, turn signals, brake lights, projection, and bumper displays.
  • the light control unit 85 includes a light ECU that controls the lights, an actuator that drives the lights, and the like.
  • the horn control unit 86 detects and controls the state of the car horn of the vehicle 1.
  • the horn control unit 86 includes, for example, a horn ECU that controls the car horn, an actuator that drives the car horn, etc.
  • FIG. 2 is a diagram showing an example of a sensing area by the camera 51, radar 52, LiDAR 53, ultrasonic sensor 54, etc. of the external recognition sensor 25 in FIG. 1. Note that FIG. 2 shows a schematic view of the vehicle 1 as seen from above, with the left end side being the front end of the vehicle 1 and the right end side being the rear end of the vehicle 1.
  • Sensing area 101F and sensing area 101B show examples of sensing areas of ultrasonic sensors 54. Sensing area 101F covers the periphery of the front end of vehicle 1 with multiple ultrasonic sensors 54. Sensing area 101B covers the periphery of the rear end of vehicle 1 with multiple ultrasonic sensors 54.
  • sensing results in sensing area 101F and sensing area 101B are used, for example, for parking assistance for vehicle 1.
  • Sensing area 102F to sensing area 102B show examples of sensing areas of a short-range or medium-range radar 52. Sensing area 102F covers a position farther in front of the vehicle 1 than sensing area 101F. Sensing area 102B covers a position farther in the rear of the vehicle 1 than sensing area 101B. Sensing area 102L covers the rear periphery of the left side of the vehicle 1. Sensing area 102R covers the rear periphery of the right side of the vehicle 1.
  • the sensing results in sensing area 102F are used, for example, to detect vehicles, pedestrians, etc., that are in front of vehicle 1.
  • the sensing results in sensing area 102B are used, for example, for collision prevention functions behind vehicle 1.
  • the sensing results in sensing area 102L and sensing area 102R are used, for example, to detect objects in blind spots to the sides of vehicle 1.
  • Sensing area 103F to sensing area 103B show examples of sensing areas by camera 51. Sensing area 103F covers a position farther in front of vehicle 1 than sensing area 102F. Sensing area 103B covers a position farther in the rear of vehicle 1 than sensing area 102B. Sensing area 103L covers the periphery of the left side of vehicle 1. Sensing area 103R covers the periphery of the right side of vehicle 1.
  • the sensing results in sensing area 103F can be used, for example, for recognition of traffic lights and traffic signs, lane departure prevention support systems, and automatic headlight control systems.
  • the sensing results in sensing area 103B can be used, for example, for parking assistance and surround view systems.
  • the sensing results in sensing area 103L and sensing area 103R can be used, for example, for surround view systems.
  • Sensing area 104 shows an example of the sensing area of LiDAR 53. Sensing area 104 covers a position farther in front of vehicle 1 than sensing area 103F. On the other hand, sensing area 104 has a narrower range in the left-right direction than sensing area 103F.
  • the sensing results in the sensing area 104 are used, for example, to detect objects such as surrounding vehicles.
  • Sensing area 105 shows an example of the sensing area of long-range radar 52. Sensing area 105 covers a position farther in front of vehicle 1 than sensing area 104. On the other hand, sensing area 105 has a narrower range in the left-right direction than sensing area 104.
  • the sensing results in the sensing area 105 are used, for example, for ACC (Adaptive Cruise Control), emergency braking, collision avoidance, etc.
  • ACC Adaptive Cruise Control
  • emergency braking braking
  • collision avoidance etc.
  • the sensing areas of the cameras 51, radar 52, LiDAR 53, and ultrasonic sensors 54 included in the external recognition sensor 25 may have various configurations other than those shown in FIG. 2. Specifically, the ultrasonic sensor 54 may also sense the sides of the vehicle 1, and the LiDAR 53 may sense the rear of the vehicle 1.
  • the installation positions of the sensors are not limited to the examples described above. The number of sensors may be one or more.
  • IOWN Innovative Optical and Wireless Network
  • ICT Information and Communication Technology
  • the IOWN concept aims to build an innovative network infrastructure and information processing infrastructure that combines high capacity, low latency, and low power consumption by using photonics-electronics convergence technology.
  • IOWN is comprised of the following three main technical elements:
  • the first technological element is APN (All-Photonics Network), which introduces photonics (light)-based technology in everything from the network to the terminals.
  • the second technological element is CF (Cognitive Foundation (registered trademark)), which connects everything and enables its control.
  • the third technological element is DTC (Digital Twin Computing (registered trademark)), which enables things like future predictions by combining the real world and the digital world.
  • FIG. 3 shows a simple example of data flow between the master ECU, entertainment system, and sensors of vehicle 1. Specifically, it shows an example of data flow between the master ECU that executes processes related to in-vehicle entertainment and the entertainment system, and between the master ECU that executes processes related to autonomous driving and advanced safety technology and the sensors.
  • the master ECU is a centralized information processing device with the highest computing power within vehicle 1.
  • the entertainment system is a system that executes processes related to in-car entertainment such as videos, music, and games, and provides in-car entertainment to passengers in vehicle 1.
  • the sensors include, for example, a camera 51, a radar 52, a LiDAR 53, an ultrasonic sensor 54, and an in-vehicle sensor 55.
  • content data for in-car entertainment is transmitted from the master ECU to the entertainment system.
  • the content data is large in volume and requires low latency.
  • Control data including operation commands entered by the user, is transmitted from the entertainment system to the master ECU.
  • the control data is very small in size compared to the content data.
  • the amount of data sent on the downlink from the master ECU to the entertainment ECU is large.
  • the sensor data is large in volume and requires low latency.
  • Control data including control commands for controlling the sensors, is transmitted from the master ECU to the sensors.
  • the volume of the control data is very small compared to the sensor data.
  • an APN introduction of an APN to at least a portion of vehicle 1 enables low-latency and large-volume data transmission. This makes it possible to realize technologies that require low-latency and large-volume data transmission, such as in-car entertainment, autonomous driving, and advanced safety technologies, and to improve reliability.
  • FIG. 4 shows an example configuration of an information processing system 201 that can be installed in the vehicle 1.
  • the information processing system 201 includes a master ECU 211, a camera ECU 212C, a radar ECU 212R, a LiDAR ECU 212L, an ultrasonic ECU 212U, and an entertainment (ENT) ECU 213.
  • function ECU 212 is an ECU that only executes control of specified functions.
  • the master ECU 211, camera ECU 212C, radar ECU 212R, LiDAR ECU 212L, and ultrasonic ECU 212U are connected in a loop by an optical cable 221. Both ends of the loop-shaped optical communication path (hereinafter referred to as the optical communication loop) are connected to the master ECU 211. In other words, the start and end of the optical communication loop are set in the master ECU 211.
  • the entertainment ECU 213 is connected to the optical communication loop by, for example, the optical cable 221 and a beam splitter (not shown).
  • optical communication path is, for example, a communication path for optical communication formed by an optical cable.
  • the master ECU 211 is a centralized arithmetic processing device with the highest computing power within the vehicle 1.
  • the master ECU 211 supplies control data to each function ECU 212 and the entertainment ECU 213 via the optical cable 221, and controls each function ECU 212 and the entertainment ECU 213.
  • the master ECU 211 receives sensor data from each function ECU 212 via the optical cable 221, and controls the vehicle 1 based on the sensor data.
  • the master ECU 211 transmits various content data to the entertainment ECU 213 via the optical cable 221.
  • the master ECU 211 may also have a communication function with the outside of the vehicle 1.
  • the camera ECU 212C is connected to each camera 51 (not shown) provided on the vehicle 1 via an electric cable 222 (not shown).
  • the camera ECU 212C controls each camera 51 and acquires sensor data from each camera 51.
  • the camera ECU 212C converts the sensor data acquired from each camera 51 into a format for transmission by optical communication, and transmits it to the master ECU 211 via the optical cable 221.
  • the radar ECU 212R is connected to each radar 52 (not shown) provided on the vehicle 1 via an electric cable 222 (not shown).
  • the radar ECU 212R controls each radar 52 and acquires sensor data from each radar 52.
  • the radar ECU 212R converts the sensor data acquired from each radar 52 into a format for transmission by optical communication, and supplies the data to the master ECU 211 via the optical cable 221.
  • the LiDAR ECU 212L is connected to each LiDAR 53 (in FIG. 4, the front LiDAR 53F, left LiDAR 53L, right LiDAR 53R, and rear LiDAR 53B) provided in the vehicle 1 via an electrical cable 222.
  • the LiDAR ECU 212L controls each LiDAR 53 and acquires sensor data from each LiDAR 53.
  • the LiDAR ECU 212L converts the sensor data acquired from each LiDAR 53 into a format for transmission by optical communication, and supplies the data to the master ECU 211 via an optical cable 221.
  • the ultrasonic ECU 212U is connected to each ultrasonic sensor 54 (not shown) provided in the vehicle 1 via an electric cable 222 (not shown).
  • the ultrasonic ECU 212U controls each ultrasonic sensor 54 and acquires sensor data from each ultrasonic sensor 54.
  • the ultrasonic ECU 212U converts the sensor data acquired from each ultrasonic sensor 54 into a format for transmission by optical communication, and supplies the data to the master ECU 211 via the optical cable 221.
  • the entertainment ECU 213 is an ECU that controls processing related to various in-vehicle entertainment such as videos, music, games, etc.
  • the entertainment ECU 213 controls an entertainment system based on content data supplied from the master ECU 211 to provide in-vehicle entertainment.
  • each function ECU 212 can transmit each sensor data simultaneously without conflict.
  • the wavelength of the sensor data transmitted from the camera ECU 212C is set to a predetermined wavelength in the red wavelength band (hereinafter referred to as the R wavelength).
  • the wavelength of the sensor data transmitted from the radar ECU 212R is set to a predetermined wavelength in the yellow wavelength band (hereinafter referred to as the Y wavelength).
  • the wavelength of the sensor data transmitted from the LiDAR ECU 212L is set to a predetermined wavelength in the green wavelength band (hereinafter referred to as the G wavelength).
  • the wavelength of the sensor data transmitted from the ultrasonic ECU 212U is set to a predetermined wavelength in the blue wavelength band (hereinafter referred to as the B wavelength).
  • the wavelength of the content data transmitted from the master ECU 211 is also possible to set the wavelength of the content data transmitted from the master ECU 211 to a wavelength different from the wavelength of the sensor data output from each function ECU 212. This allows the master ECU 211 to transmit the content data without causing a conflict with each sensor data.
  • wavelengths colors
  • the types of wavelengths (colors) of light that can be output by optical devices are limited. Also, depending on the wavelengths output, the cost of the optical device may increase. Therefore, it is desirable to limit the types of wavelengths that can be used.
  • the master ECU 211 can transmit content data using unused wavelengths among the wavelengths of the sensor data transmitted from each function ECU 212, thereby making effective use of wavelength resources.
  • Figure 5 shows the usage rate of the master ECU 211 for the sensor data of each sensor when the vehicle 1 turns right.
  • the usage rate of sensor data sensing the front area A1F in front of vehicle 1 and the right area A1R to the right will be nearly 100%.
  • the usage rate of sensor data sensing the left area A1L to the left of vehicle 1 and the rear area A1B to the rear will be nearly 0%.
  • the master ECU 211 cannot divert any of the wavelengths of the sensor data to transmit content data. As a result, the efficiency of wavelength resource usage decreases.
  • this technology improves the efficiency of wavelength resource usage and also improves the reliability of data transmission.
  • FIG. 6 shows an example of the configuration of an information processing system 301a which is a first embodiment of the information processing system 301 to which the present technology is applied.
  • the information processing system 301a is provided in the vehicle 1 and performs various types of information processing.
  • the information processing system 301a includes various integrated ECUs.
  • An integrated ECU is an ECU that controls multiple functions.
  • the information processing system 301a includes, as integrated ECUs, a master ECU 311, a front area ECU 312F, a left area ECU 312L, a right area ECU 312R, and a rear area ECU 312B.
  • the information processing system 301a also includes an entertainment (ENT) ECU 313.
  • the master ECU 311 and each area ECU 312 are connected in a loop by optical cables 321 to form an optical communication loop. Specifically, starting from the master ECU 311, the right area ECU 312R, rear area ECU 312B, left area ECU 312L, and front area ECU 312F are connected in a clockwise (right-handed) direction in that order. Both ends of the optical communication loop are connected to the master ECU 311, and the start and end of the optical communication loop are set in the master ECU 311.
  • the master ECU 311 and each area ECU 312 on the optical communication loop are connected to two optical communication paths, clockwise and counterclockwise, respectively.
  • the entertainment ECU 313 is connected to an optical communication loop, for example, by an optical cable 321 and a beam splitter (not shown).
  • the master ECU 311, each area ECU 312, and the entertainment ECU 313 perform end-to-end communication. Therefore, the master ECU 311 and each area ECU 312 can transmit and receive data in both clockwise and counterclockwise directions (both rotational directions of the optical communication loop). The master ECU 311 and the entertainment ECU 313 can transmit and receive data in one direction.
  • the master ECU 31 is a centralized information processing device with the highest computing power within the vehicle 1.
  • the master ECU 311 transmits control data to each area ECU 312 and entertainment ECU 313 via an optical cable 321, and controls each area ECU 312 and entertainment ECU 313.
  • the master ECU 311 controls the transmission of sensor data (e.g., transmission frequency) from each area ECU 312 by controlling the allocation of tokens to each area ECU 312 based on the state of the vehicle 1.
  • sensor data e.g., transmission frequency
  • the master ECU 311 receives sensor data from each area ECU 312 via the optical cable 321, and controls the vehicle 1 based on the sensor data. For example, the master ECU 311 transmits various content data to the entertainment ECU 313 via the optical cable 321.
  • the master ECU 311 may also have a communication function with the outside of the vehicle 1.
  • Each area ECU 312 is also called a zone ECU.
  • Each area ECU 312 is connected to sensors that are physically located close to each other within the vehicle 1 via electrical cables 322, and is an information processing device that integrates and executes the control of the sensors.
  • the sensors include, for example, a camera 51, a radar 52, a LiDAR 53, an ultrasonic sensor 54, and an in-vehicle sensor 55. Although each sensor uses a different physical phenomenon, they all have high linearity. For example, when performing sensor fusion, it is expected that each sensor will be placed in a position that is physically (spatially) close to each other.
  • Each area ECU 312 acquires sensor data from the sensors to be controlled, converts the acquired sensor data into a format for transmission via optical communication, and transmits the data to the master ECU 211 via the optical cable 221.
  • the front area ECU 312F is a set of sensors arranged in the front of the vehicle 1, and mainly performs integrated control of the sensors that perform sensing of the front area A1F in front of the vehicle 1.
  • the left area ECU 312L is a set of sensors located on the left side of the vehicle 1, and mainly performs integrated control of the sensors that perform sensing of the left area A1L on the left side of the vehicle 1.
  • the right area ECU 312R is a set of sensors located on the right side of the vehicle 1, and mainly performs integrated control of the sensors that perform sensing of the right area A1R on the right side of the vehicle 1.
  • the rear area ECU 312B is a group of sensors arranged at the rear of the vehicle 1, and mainly performs integrated control of the sensors that perform sensing of the rear area A1B at the rear of the vehicle 1.
  • the entertainment ECU 313 is an ECU that controls processing related to various in-vehicle entertainment such as videos, music, games, etc.
  • the entertainment ECU 313 controls an entertainment system based on content data supplied from the master ECU 311 to provide in-vehicle entertainment.
  • Each area ECU 312 transmits sensor data at a different wavelength (color) to prevent conflicts on the optical communication path.
  • the front area ECU 312F transmits sensor data at the R wavelength.
  • the left area ECU 312L transmits sensor data at the G wavelength.
  • the right area ECU 312R transmits sensor data at the Y wavelength.
  • the rear area ECU 312B transmits sensor data at the B wavelength.
  • Figure 7 shows an example of the usage rate of the master ECU 311 for sensor data from sensors that sense each area of the vehicle 1 when the vehicle 1 turns right.
  • the usage rate of sensor data from the sensors sensing the front area A1F and right area A1R is high.
  • the usage rate of sensor data from the sensors sensing the left area A1L and rear area A1B is low, reaching nearly 0%.
  • the vehicle 1 turns right, for example, it is possible to stop the transmission of sensor data from the left area ECU 312L and the rear area ECU 312B. Then, the wavelength of the sensor data whose transmission has been stopped can be diverted to another use.
  • Figure 8 shows an example of how the wavelength of sensor data whose transmission has been stopped can be repurposed for other purposes.
  • the column marked “R (front)” in Figure 8 indicates the use of the R wavelength for sensor data in the front area A1F.
  • the column marked “Y (right)” indicates the use of the Y wavelength for sensor data in the right area A1R.
  • the column marked “G (left)” indicates the use of the G wavelength for sensor data in the left area A1L.
  • the column marked “B (rear)” indicates the use of the B wavelength for sensor data in the rear area A1B.
  • the horizontal axis indicates time t.
  • vehicle 1 travels straight until time t2. Vehicle 1 turns right from time t2 to time t4. Vehicle 1 travels straight from time t4 to time t6. Vehicle 1 turns left from time t6 to time t8. Vehicle 1 travels straight from time t8 onwards.
  • the vehicle 1 when the vehicle 1 is traveling straight, it mainly monitors the area A1F ahead. Therefore, when the vehicle 1 is traveling straight, the sensor data of the area A1F ahead is mainly used, and the sensor data of other areas is almost unnecessary.
  • vehicle 1 when vehicle 1 is turning left, it mainly monitors the front area A1F and the left area A1L. Therefore, when vehicle 1 is turning left, the sensor data of the front area A1F and the left area A1L is mainly used, and the sensor data of other areas becomes almost unnecessary.
  • vehicle 1 when vehicle 1 is turning right, it mainly monitors the front area A1F and the right area A1R. Therefore, when vehicle 1 is turning right, the sensor data of the front area A1F and the right area A1R is mainly used, and the sensor data of other areas becomes almost unnecessary.
  • the vehicle 1 while the vehicle 1 is reversing, it mainly monitors the rear area A1B. Therefore, while the vehicle 1 is reversing, the sensor data of the rear area A1B is mainly used, and the sensor data of other areas becomes almost unnecessary.
  • the sensor data of the previous area A1F is used throughout the entire period in FIG. 8. That is, the R wavelength is used for the sensor data of the previous area A1F throughout the entire period in FIG. 8. Therefore, the previous area ECU 312F transmits the sensor data of the R wavelength to the master ECU 311 throughout the entire period in FIG. 8.
  • the R wavelength cannot be used for any purpose other than the sensor data for the previous area A1F.
  • the sensor data of the right area A1R is used during the period from time t2 to time t4 while the vehicle 1 is turning right. That is, during the period from time t2 to time t4, the Y wavelength is used for the sensor data of the right area A1R. Therefore, during the period from time t2 to time t4, the right area ECU 312R transmits the sensor data of the Y wavelength to the master ECU 311.
  • the Y wavelength can be used for purposes other than the sensor data of the right area A1R.
  • the Y wavelength is diverted (bandwidth diverted) to movie content data.
  • the master ECU 311 uses the Y wavelength to transmit movie content data to the entertainment ECU 313.
  • the sensor data of the left area A1L is used during the period from time t6 to time t8 while the vehicle 1 is turning left. That is, the G wavelength is used for the sensor data of the left area A1L during the period from time t6 to time t8. Therefore, during the period from time t6 to time t8, the left area ECU 312L transmits the sensor data of the G wavelength to the master ECU 311.
  • the G wavelength can be used for purposes other than the sensor data of the left area A1L.
  • the G wavelength is diverted (bandwidth diverted) to movie content data.
  • the master ECU 311 uses the G wavelength to transmit movie content data to the entertainment ECU 313.
  • the sensor data of the rear area A1B is not used.
  • the B wavelength is not used for the sensor data of the rear area A1B. Therefore, during the entire period in FIG. 8, the rear area ECU 312B does not transmit the sensor data of the B wavelength to the master ECU 311.
  • the B wavelength can be used for purposes other than the sensor data of the rear area A1B.
  • the B wavelength is diverted (bandwidth diverted) to game content data.
  • the master ECU 311 uses the B wavelength to transmit game content data to the entertainment ECU 313.
  • the master ECU 311 transmits movie content data to the entertainment ECU 313 using the G wavelength, and transmits game content data to the entertainment ECU 313 using the B wavelength.
  • the front area ECU 312F transmits sensor data of the front area A1F to the master ECU 311 using the R wavelength.
  • the Y wavelength is not used.
  • master ECU 311 transmits control data to right area ECU 312R at G wavelength and grants a token to right area ECU 312R. After that, master ECU 311 resumes the process of transmitting movie content data to entertainment ECU 313 at G wavelength.
  • the right area ECU 312R to which the token has been assigned starts the process of transmitting sensor data of the right area A1R to the master ECU 311 at wavelength Y.
  • master ECU 311 transmits control data to right area ECU 312R at G wavelength and seizes the token from right area ECU 312R. After that, master ECU 311 resumes the process of transmitting movie content data to entertainment ECU 313 at G wavelength.
  • the right area ECU 312R stops transmitting sensor data for right area A1R.
  • master ECU 311 transmits control data to left area ECU 312L at G wavelength and grants a token to left area ECU 312L. After that, master ECU 311 stops the process of transmitting movie content data to entertainment ECU 313 at G wavelength.
  • the left area ECU 312L which has been granted a token, starts a process of transmitting sensor data of the left area A1L to the master ECU 311 at wavelength G.
  • the master ECU 311 starts a process of transmitting movie content data to the entertainment ECU 313 at wavelength Y.
  • master ECU 311 transmits control data to left area ECU 312L on wavelength Y and seizes the token from left area ECU 312L. After that, master ECU 311 resumes the process of transmitting movie content data to entertainment ECU 313 on wavelength Y.
  • the left area ECU 312L stops transmitting sensor data for left area A1L.
  • optical communications As described above, by applying optical communications to vehicle 1, it becomes possible to transmit large volumes of data with low latency, improving the reliability of data transmission. In addition, by using optical communications instead of conventional electrical communications, low power consumption is achieved.
  • sensor data from each area is transmitted simultaneously without conflicts, and the efficiency of using the wavelengths transmitting each data is improved.
  • sensor data at a wavelength that is diverted to transmit content data may be transmitted intermittently.
  • the master ECU 311 may periodically pass a token to the area ECU 312B, and the area ECU 312B may periodically transmit sensor data at wavelength B to the master ECU 311.
  • Fig. 9 shows a configuration example of an information processing system 301b which is a second embodiment of the information processing system 301 to which the present technology is applied.
  • the same reference numerals are given to parts corresponding to the information processing system 301a in Fig. 6, and the description thereof will be omitted as appropriate.
  • the dashed dotted line in front of the driver's seat of vehicle 1 indicates the boundary between the engine room at the front of vehicle 1 and the cabin of vehicle 1. At this boundary, for example, steel plates and sound-absorbing material are provided for insulation, soundproofing, safety, etc. This is also the case in the subsequent figures.
  • the information processing system 301b includes a master ECU 311, a front area ECU 312F, a left area ECU 312L, a right area ECU 312R, a left rear area ECU 312BL, a right rear area ECU 312BR, a roof area ECU 312LF, a front entertainment ECU 313F, a rear entertainment ECU 313B, and a gateway ECU 314.
  • the master ECU 311 and the roof area ECU 312LF constitute a master unit 331.
  • entertainment ECU 313 when there is no need to distinguish between the front entertainment ECU 313F and the rear entertainment ECU 313B, they will simply be referred to as entertainment ECU 313.
  • the left rear area ECU 312BL is a set of sensors located on the left rear of the vehicle 1, and mainly performs integrated control of the sensors that perform sensing of the left rear area of the vehicle 1.
  • the right rear area ECU 312BR is a set of sensors located on the right rear of the vehicle 1, and mainly performs integrated control of the sensors that perform sensing of the right rear area of the vehicle 1.
  • the roof area ECU 312LF is a set of sensors arranged on the roof of the vehicle 1, and mainly performs integrated control of the sensors that sense the surroundings of the vehicle 1 from above.
  • the front entertainment ECU 313F is an ECU that controls processing related to in-vehicle entertainment for the front seats of the vehicle 1.
  • the front entertainment ECU 313F controls an entertainment system based on content data supplied from the master ECU 311, and provides various in-vehicle entertainment to passengers in the front seats.
  • the rear entertainment ECU 313B is an ECU that controls processing related to in-vehicle entertainment for the rear seats of the vehicle 1.
  • the rear entertainment ECU 313B controls an entertainment system based on content data supplied from the master ECU 311, and provides various in-vehicle entertainment to passengers in the rear seats.
  • the gateway ECU 314 performs arbitration processing between multiple communication networks. For example, the gateway ECU 314 performs processing to match communication speeds and communication protocols between different communication networks, and to filter unnecessary data.
  • the multiple communication networks include, for example, a driving communication network and a non-driving communication network.
  • the driving communication network is, for example, a communication network for a system that performs engine control, motor control, brake control, steering control, etc.
  • the non-driving communication network is, for example, a communication network for a system that performs control of an in-car entertainment system, a car navigation system, a body system, etc.
  • the master unit 331 is arranged, for example, in a space provided on the roof of the vehicle 1.
  • the front area ECU 312F is arranged, for example, in the front of the engine room of the vehicle 1.
  • the left area ECU 312L is arranged, for example, to the left of the engine room of the vehicle 1.
  • the right area ECU 312R is arranged, for example, to the right of the engine room of the vehicle 1.
  • the gateway ECU 314 is arranged, for example, in the center of the engine room of the vehicle 1.
  • the left rear area ECU 312BL is arranged, for example, to the left rear of the vehicle 1.
  • the right rear area ECU 312BR is arranged, for example, to the right rear of the vehicle 1.
  • the front entertainment ECU 313F is arranged, for example, in the front of the vehicle interior.
  • the rear entertainment ECU 313B is arranged, for example, to the rear of the vehicle interior.
  • the master ECU 311 and each area ECU 312 are connected in a loop by an optical cable 321 to form an optical communication loop.
  • the left area ECU 312L, front area ECU 312F, right area ECU 312R, right rear area ECU 312BR, and left rear area ECU 312BL are connected in clockwise (right-handed) order.
  • Both ends of the optical communication loop are connected to the master ECU 311, and the start and end of the optical communication loop are set in the master ECU 311.
  • the master ECU 311 and each area ECU 312 on the optical communication loop are connected to two optical communication paths, clockwise and counterclockwise, respectively.
  • the roof area ECU 312LF is, for example, connected directly to the master ECU 311 without going through an optical communication loop.
  • the roof area ECU 312LF may be connected to an optical communication loop. Also, for example, the master ECU 311 and the roof area ECU 312LF may be integrated to form a single ECU.
  • Each entertainment ECU 313 is connected to an optical communication loop, for example, by an optical cable 321 and a beam splitter (not shown).
  • the gateway ECU 314 is connected to the left area ECU 312L and the right area ECU 312R via an electrical cable 322. In other words, the gateway ECU 314 is connected to the information processing system 301b via two electrical communication paths.
  • the electrical communication path is, for example, a communication path for electrical communication formed by an electrical cable.
  • the master ECU 311, each area ECU 312, and each entertainment ECU 313 communicate end-to-end. Therefore, the master ECU 311 and each area ECU 312 on the optical communication loop can send and receive data in a clockwise and counterclockwise direction, respectively. The master ECU 311 and each entertainment ECU 313 can send and receive data in one direction, respectively.
  • the front area ECU 312F transmits sensor data to the master ECU 311 at the R wavelength.
  • the left area ECU 312L transmits sensor data to the master ECU 311 at the G wavelength.
  • the right area ECU 312R transmits sensor data to the master ECU 311 at the Y wavelength.
  • the left rear area ECU 312BL transmits sensor data to the master ECU 311 at the B wavelength.
  • the right rear area ECU 312BR transmits sensor data to the master ECU 311 at a specified wavelength within the purple wavelength band (hereinafter referred to as the P wavelength).
  • each area ECU 312 can transmit sensor data to the master ECU 311 simultaneously without interference.
  • the master ECU 311 can transmit content data to each entertainment ECU 313 using wavelengths that are not being used to transmit sensor data.
  • the information processing system 301b has a larger number of area ECUs 312 than the information processing system 301a. Therefore, the information processing system 301b can sense the surroundings of the vehicle 1 in more detail.
  • Fig. 10 shows a configuration example of an information processing system 301c which is a third embodiment of the information processing system 301 to which the present technology is applied.
  • the same reference numerals are given to parts corresponding to the information processing system 301b in Fig. 9, and the description thereof will be omitted as appropriate.
  • the information processing system 301c differs from the information processing system 301b in that a rear area ECU 312B is provided instead of the left rear area ECU 312BL and the right rear area ECU 312BR.
  • the master unit 331, the front area ECU 312F, the left area ECU 312L, the right area ECU 312R, the front entertainment ECU 313F, the rear entertainment ECU 313B, and the gateway ECU 314 are disposed in the same positions as those of the information processing system 301b in FIG. 9.
  • the rear area ECU 312B is disposed, for example, at the rear of the vehicle 1.
  • the master ECU 311, the front area ECU 312F, the left area ECU 312L, and the right area ECU 312R are connected in a loop by an optical cable 321 to form an optical communication loop.
  • the left area ECU 312L, the front area ECU 312F, and the right area ECU 312R are connected in a clockwise (right-handed) direction in that order.
  • Both ends of the optical communication loop are connected to the master ECU 311, and the start and end of the optical communication loop are set in the master ECU 311.
  • the master ECU 311 and each area ECU 312 on the optical communication loop are connected to two optical communication paths, clockwise and counterclockwise, respectively.
  • the roof area ECU 312LF is, for example, connected directly to the master ECU 311 without going through an optical communication loop.
  • the roof area ECU 312LF may be connected to an optical communication loop. Also, for example, the master ECU 311 and the roof area ECU 312LF may be integrated to form a single ECU.
  • the rear area ECU 312B and each entertainment ECU 313 are connected to an optical communication loop, for example, by an optical cable 321 and a beam splitter (not shown).
  • the gateway ECU 314 is connected to the front area ECU 312F and the right area ECU 312R via an electrical cable 322. In other words, the gateway ECU 314 is connected to the information processing system 301b via two electrical communication paths.
  • the master ECU 311, each area ECU 312, and each entertainment ECU 313 communicate end-to-end. Therefore, the master ECU 311 and each area ECU 312 on the optical communication loop can transmit and receive data in a clockwise and counterclockwise direction, respectively.
  • the master ECU 311, the rear area ECU 312B, and each entertainment ECU 313 can transmit and receive data in one direction, respectively.
  • the front area ECU 312F transmits sensor data to the master ECU 311 at the R wavelength.
  • the left area ECU 312L transmits sensor data to the master ECU 311 at the G wavelength.
  • the right area ECU 312R transmits sensor data to the master ECU 311 at the Y wavelength.
  • the rear area ECU 312B transmits sensor data to the master ECU 311 at the B wavelength.
  • each area ECU 312 can transmit sensor data to the master ECU 311 simultaneously without interference.
  • the master ECU 311 can transmit content data to each entertainment ECU 313 using wavelengths that are not being used to transmit sensor data.
  • information processing system 301c has a reduced number of ECUs 312 in the rear area of vehicle 1, where the need for sensing is lower than in other areas. This, for example, reduces the required costs and reduces the number of wavelengths used to transmit data.
  • FIG. 11 shows a configuration example of an information processing system 301d which is a fourth embodiment of the information processing system 301 to which the present technology is applied.
  • the same reference numerals are given to parts corresponding to those of the information processing system 301c in Fig. 10, and the description thereof will be omitted as appropriate.
  • the information processing system 301d differs from the information processing system 301c in that the roof area ECU 312LF has been removed. Also, the information processing system 301d differs in that the master unit 341 is made up of the master ECU 311 and the front entertainment ECU 313F.
  • the front area ECU 312F, left area ECU 312L, right area ECU 312R, rear area ECU 312B, rear entertainment ECU 313B, and gateway ECU 314 are disposed in the same positions as those of the information processing system 301c in FIG. 10.
  • the master unit 341 is disposed, for example, at the front of the vehicle interior.
  • the master ECU 311, the front area ECU 312F, the left area ECU 312L, and the right area ECU 312R are connected in a loop by an optical cable 321 to form an optical communication loop.
  • the left area ECU 312L, the front area ECU 312F, and the right area ECU 312R are connected in a clockwise (right-handed) direction in that order.
  • Both ends of the optical communication loop are connected to the master ECU 311, and the start and end of the optical communication loop are set in the master ECU 311.
  • the master ECU 311 and each area ECU 312 on the optical communication loop are connected to two optical communication paths, clockwise and counterclockwise, respectively.
  • the front entertainment ECU 313F is, for example, connected directly to the master ECU 311 without going through an optical communication loop.
  • the front entertainment ECU 313F may be connected to an optical communication loop. Also, for example, the master ECU 311 and the front entertainment ECU 313F may be integrated to form a single ECU.
  • the rear area ECU 312B and the rear entertainment ECU 313B are connected to an optical communication loop, for example, by an optical cable 321 and a beam splitter (not shown).
  • the gateway ECU 314 is connected to the front area ECU 312F via two electrical cables 322. In other words, the gateway ECU 314 is connected to the information processing system 301d via two electrical communication paths.
  • the master ECU 311, each area ECU 312, and each entertainment ECU 313 communicate end-to-end. Therefore, the master ECU 311 and each area ECU 312 on the optical communication loop can transmit and receive data in a clockwise and counterclockwise direction, respectively.
  • the master ECU 311 and the rear area ECU 312B and rear entertainment ECU 313B can transmit and receive data in one direction, respectively.
  • the front area ECU 312F transmits sensor data to the master ECU 311 at the R wavelength.
  • the left area ECU 312L transmits sensor data to the master ECU 311 at the G wavelength.
  • the right area ECU 312R transmits sensor data to the master ECU 311 at the Y wavelength.
  • the rear area ECU 312B transmits sensor data to the master ECU 311 at the B wavelength.
  • each area ECU 312 can transmit sensor data to the master ECU 311 simultaneously without interference.
  • the master ECU 311 can transmit content data to each entertainment ECU 313 using wavelengths that are not being used to transmit sensor data.
  • the number of area ECUs 312 is reduced in the information processing system 301d compared to the information processing system 301c. This, for example, reduces the necessary costs and reduces the number of wavelengths used to transmit data.
  • Fig. 12 shows a configuration example of an information processing system 301e which is a fifth embodiment of the information processing system 301 to which the present technology is applied.
  • the same reference numerals are given to parts corresponding to the information processing system 301d in Fig. 11, and the description thereof will be omitted as appropriate.
  • the information processing system 301e differs from the information processing system 301d in that the master unit 351 is made up of the master ECU 311 and the right area ECU 312R, and the front entertainment ECU 313F is provided independently.
  • the front area ECU 312F, left area ECU 312L, rear area ECU 312B, rear entertainment ECU 313B, and gateway ECU 314 are disposed in the same positions as in the information processing system 301d of FIG. 11.
  • the front entertainment ECU 313F is disposed in the same position as in the information processing system 301b of FIG. 9.
  • the master unit 351 is disposed, for example, to the right of the engine room of the vehicle 1.
  • the master ECU 311, the front area ECU 312F, and the left area ECU 312L are connected in a loop by an optical cable 321 to form an optical communication loop. Specifically, starting from the master ECU 311, the left area ECU 312L and the front area ECU 312F are connected in a clockwise (right) direction. Both ends of the optical communication loop are connected to the master ECU 311, and the start and end of the optical communication loop are set in the master ECU 311.
  • the master ECU 311 and each area ECU 312 on the optical communication loop are connected to two optical communication paths, clockwise and counterclockwise, respectively.
  • the right area ECU 312R is, for example, connected directly to the master ECU 311 without going through an optical communication loop.
  • the right area ECU 312R may be connected to an optical communication loop. Also, for example, the master ECU 311 and the right area ECU 312R may be integrated to form a single ECU.
  • the rear area ECU 312B and each entertainment ECU 313 are connected to an optical communication loop, for example, by an optical cable 321 and a beam splitter (not shown).
  • the gateway ECU 314 is connected to the master ECU 311 via two electrical cables 322.
  • the gateway ECU 314 is connected to the front area ECU 312F via an electrical cable 322.
  • the gateway ECU 314 is connected to the information processing system 301d via three electrical communication paths.
  • the master ECU 311, each area ECU 312, and each entertainment ECU 313 communicate end-to-end. Therefore, the master ECU 311 and each area ECU 312 on the optical communication loop can transmit and receive data in a clockwise and counterclockwise direction, respectively.
  • the master ECU 311, the rear area ECU 312B, and each entertainment ECU 313 can transmit and receive data in one direction, respectively.
  • the front area ECU 312F transmits sensor data to the master ECU 311 at the R wavelength.
  • the left area ECU 312L transmits sensor data to the master ECU 311 at the G wavelength.
  • the rear area ECU 312B transmits sensor data to the master ECU 311 at the B wavelength.
  • each area ECU 312 can transmit sensor data to the master ECU 311 simultaneously without interference.
  • the master ECU 311 can transmit content data to each entertainment ECU 313 using wavelengths that are not being used to transmit sensor data.
  • the right area ECU 312R communicates directly with the master ECU 311, so there are no limitations on the wavelength at which the sensor data is transmitted.
  • the optical communication loop is closed within the engine room. Therefore, the number of wires between the cabin and engine room of the vehicle 1 can be reduced, and the number of holes for wiring in the iron plate between the cabin and engine room can be reduced.
  • Figures 13 to 15 show schematic diagrams of how the ECUs in the information processing system 301e in Figure 12 are connected.
  • the area ECU 312 connected to the optical communication loop is referred to as the area ECU 312a.
  • the front area ECU 312F and the left area ECU 312L of the information processing system 301e correspond to the area ECU 312a.
  • the area ECU 312 that is not connected to the optical communication loop is referred to as the area ECU 312b.
  • the rear area ECU 312B of the information processing system 301e corresponds to the area ECU 312b.
  • the master ECU 311 and the area ECU 312a form a redundant network.
  • a redundant network is a network in which each ECU is connected to two or more optical communication paths, and even if an abnormality occurs in one optical communication path, data can be transmitted via the other optical communication paths.
  • the redundant network is provided, for example, so that the vehicle 1 meets a specified level of ASIL (Automotive Safety Integrity Level).
  • a non-redundant network is a network in which each ECU is connected to a single optical communication path, and data transmission is stopped if an abnormality occurs in the optical communication path.
  • the area ECU 312a is connected to the master ECU 311 in the clockwise direction via the optical cable 321.
  • the area ECU 312a is connected to the master ECU 311 in the counterclockwise direction via the optical cable 321 and the beam splitter 371-1.
  • Beam splitter 371-1 is connected to beam splitter 371-2 via optical cable 321.
  • Front entertainment ECU 313F is connected to beam splitter 371-2 via optical cable 321.
  • Beam splitter 371-2 is connected to beam splitter 371-3 via optical cable 321.
  • Rear entertainment ECU 313B is connected to beam splitter 371-3 via optical cable 321.
  • Area ECU 312b is connected to beam splitter 371-3 via optical cable 321.
  • data transmitted in a clockwise direction from the master ECU 311 passes through the beam splitter 371-1 and is reflected by the beam splitter 371-1.
  • the data that passes through the beam splitter 371-1 is received by the area ECU 312a and passes through the area ECU 312a.
  • the data that passes through the area ECU 312a returns to the master ECU 311.
  • the data reflected by beam splitter 371-1 passes through beam splitter 371-2 and is reflected by beam splitter 371-2.
  • the data reflected by beam splitter 371-2 is received by front entertainment ECU 313F.
  • the data that passes through beam splitter 371-2 passes through beam splitter 371-3 and is reflected by beam splitter 371-3.
  • the data reflected by beam splitter 371-3 is received by rear entertainment ECU 313B.
  • the data that passes through beam splitter 371-3 is received by area ECU 312b.
  • data transmitted in the counterclockwise direction from the master ECU 311 is received by the area ECU 312a and passes through the area ECU 312a.
  • the data that passes through the area ECU 312a passes through the beam splitter 371-1 and returns to the master ECU 311.
  • the master ECU 311 can transmit data in both rotation directions of the optical communication loop.
  • the area ECU 312a can receive data transmitted from the master ECU 311 in either rotation direction of the optical communication loop.
  • the area ECU 312b, the front entertainment ECU 313F, and the rear entertainment ECU 313B only receive data transmitted from the master ECU 311b in the clockwise direction of the optical communication loop. Note that the data transmitted from the master ECU 311 in each rotation direction of the optical communication loop has different directivities, so it is possible to separate them without interference.
  • data transmitted clockwise from the area ECU 312a is received by the master ECU 311.
  • Data transmitted counterclockwise from the area ECU 312a passes through the beam splitter 371-1 and is received by the master ECU 311.
  • the area ECU 312a can transmit data in both rotation directions of the optical communication loop. Furthermore, the master ECU 311 can receive data transmitted from the area ECU 312a in either rotation direction of the optical communication loop. On the other hand, the area ECU 312b, the front entertainment ECU 313F, and the rear entertainment ECU 313B do not receive data transmitted from the area ECU 312a.
  • the data transmitted from area ECU 312b passes through beam splitters 371-3 and 371-2, and is reflected in a clockwise direction by beam splitter 371-1.
  • the data reflected by beam splitter 371-1 is received by master ECU 311.
  • data transmitted from the front entertainment ECU 313F is reflected in a counterclockwise direction by beam splitter 371-2.
  • the data reflected by beam splitter 371-2 is reflected in a clockwise direction by beam splitter 371-1 and is received by the master ECU 311.
  • data transmitted from rear entertainment ECU 313B is reflected in a counterclockwise direction by beam splitter 371-3.
  • the data reflected by beam splitter 371-3 passes through beam splitter 371-2, is reflected in a clockwise direction by beam splitter 371-1, and is received by master ECU 311.
  • the master ECU 311 can receive data transmitted in the counterclockwise direction of the optical communication loop from the area ECU 312b, the front entertainment ECU 313F, and the rear entertainment ECU 313B.
  • data transmitted in a clockwise direction from the master ECU 311 is received by all ECUs and returns to the master ECU 311.
  • Data transmitted in a counterclockwise direction from the master ECU 311 is received by the area ECU 312a in the optical communication loop and returns to the master ECU 311.
  • the master ECU 311 transmitting the same data clockwise and counterclockwise, even if an abnormality such as a disconnection occurs in the optical communication loop, the area ECU 312a can reliably receive data from the master ECU 311. Furthermore, the master ECU 311 can detect an abnormality in the optical communication loop based on whether or not the transmitted data is returned.
  • Data transmitted from the area ECU 312a is received only by the master ECU 311, regardless of the transmission direction.
  • the master ECU 311 can reliably receive data from the area ECU 312a.
  • the data sent from the area ECU 312b, the front entertainment ECU 313F, and the rear entertainment ECU 313B is transmitted in the opposite direction to the direction in which data is received from the master ECU 311, and is received only by the master ECU 311.
  • the master ECU 311 and area ECU 312a can continue communicating using clockwise data.
  • FIG. 16 shows an example of the configuration of the master ECU 311.
  • the master ECU 311 includes a SoC 401, a photoelectric conversion element 402A, and a photoelectric conversion element 402B.
  • SoC401 is connected to optical cable 321A via photoelectric conversion element 402A, and to optical cable 321B via photoelectric conversion element 402B.
  • SoC401 can transmit and receive data to and from the outside via photoelectric conversion element 402A and optical cable 321A. SoC401 can transmit and receive data to and from the outside via photoelectric conversion element 402B and optical cable 321B. Therefore, SoC401 can transmit and receive data via two optical communication paths.
  • FIG. 17 shows an example of the configuration of the area ECU 312a.
  • Area ECU 312a includes SoC 421, photoelectric conversion element 422A, photoelectric conversion element 422B, beam splitter 423A, and beam splitter 423B.
  • SoC421 is connected to optical cable 321A via photoelectric conversion element 422A and beam splitter 423A. SoC421 is connected to optical cable 321B via photoelectric conversion element 422B and beam splitter 423B.
  • area ECU 312a is equipped with a photoelectric conversion element and a beam splitter for each system of the optical communication path.
  • the data output from SoC 421 via photoelectric conversion element 422A is reflected by beam splitter 423A and input to optical cable 321A.
  • the data output from SoC421 via photoelectric conversion element 422B is reflected by beam splitter 423B and input to optical cable 321B.
  • Data input from optical cable 321A to area ECU 312a passes through beam splitter 423A and is reflected by beam splitter 423A.
  • the data that passes through beam splitter 423A passes further through beam splitter 423B and is input to optical cable 321B.
  • the data reflected by beam splitter 423A is input to SoC 421 via photoelectric conversion element 422A.
  • Data input from optical cable 321B to area ECU 312a passes through beam splitter 423B and is reflected by beam splitter 423B.
  • the data that passes through beam splitter 423B passes further through beam splitter 423A and is input to optical cable 321A.
  • the data reflected by beam splitter 423B is input to SoC 421 via photoelectric conversion element 422B.
  • the area ECU 312a is capable of transmitting and receiving data via two optical communication paths: an optical communication path including optical cable 321A, and an optical communication path including optical cable 321B.
  • the area ECU 312a is also capable of transmitting data received from the optical communication path including optical cable 321A as is, and transferring it to the optical communication path including optical cable 321B.
  • the area ECU 312a is capable of transmitting data received from the optical communication path including optical cable 321B as is, and transferring it to the optical communication path including optical cable 321A.
  • FIG. 18 shows an example of the configuration of the area ECU 312b.
  • Area ECU 312b includes a SoC 451 and a photoelectric conversion element 452.
  • the SoC 451 is connected to the optical cable 321 via the photoelectric conversion element 452.
  • Data output from SoC451 via photoelectric conversion element 452 is input to optical cable 321.
  • Data input from optical cable 321 is input to SoC451 via photoelectric conversion element 452.
  • FIG. 19 shows an example of the configuration of the entertainment ECU 313.
  • the entertainment ECU 313 includes a SoC 471 and a photoelectric conversion element 472.
  • the entertainment ECU 313 has a similar configuration to the area ECU 312b.
  • SoC471 is connected to optical cable 321A via photoelectric conversion element 472.
  • Optical cables 321A to 321C are each connected to beam splitter 371.
  • the data output from SoC461 to optical cable 321A via photoelectric conversion element 472 is input to beam splitter 371.
  • the data input to beam splitter 371 is reflected in the direction of optical cable 321B and input to optical cable 321B.
  • the data input to the beam splitter 371 from the optical cable 321B passes through the beam splitter 371 and is reflected by the beam splitter 371.
  • the data that passes through the beam splitter 371 is input directly to the optical cable 321C.
  • the data reflected by the beam splitter 371 is input to the SoC 461 via the optical cable 321A and the photoelectric conversion element 462.
  • the data input from optical cable 321C to beam splitter 371 passes through beam splitter 371 and is input directly to optical cable 321B.
  • the entertainment ECU 313 can transmit data only to the optical communication path that includes the optical cable 321B. Also, the entertainment ECU 313 can receive data only from the optical communication path that includes the optical cable 321B.
  • Example of EUC configuration> 20A to 20C show examples of ECU configurations that can be applied to the master ECU 311, the area ECU 312, and the entertainment ECU 313.
  • ECU 501a in FIG. 20A includes a SoC 511, a photoelectric conversion element 512, and an electrical cable 513.
  • the SoC 511 and the photoelectric conversion element 512 are connected via an electrical cable 513.
  • the photoelectric conversion element 512 is connected to an optical cable 321.
  • the SoC 511 performs information processing using electrical signals.
  • ECU 501b in FIG. 20B includes a SoC 531 and a photoelectric conversion element 532.
  • the SoC 531 is directly connected to the photoelectric conversion element 532.
  • the photoelectric conversion element 512 is connected to the optical cable 321.
  • ECU501b internal communication is performed using optical signals. Also, SoC531 processes information using electrical signals.
  • ECU501c in FIG. 20C is equipped with SoC551.
  • SoC551 is directly connected to optical cable 321.
  • SoC531 performs information processing using optical signals.
  • ECU501c performs all information processing using optical signals.
  • Fig. 21 shows a configuration example of an information processing system 301f which is a sixth embodiment of the information processing system 301 to which the present technology is applied.
  • the same reference numerals are given to parts corresponding to the information processing system 301d in Fig. 11, and the description thereof will be omitted as appropriate.
  • Information processing system 301f differs from information processing system 301d in that it includes a left front area ECU 312FL, a right front area ECU 312FR, a left rear area ECU 312BL, and a right rear area ECU 312BR instead of a front area ECU 312F, a left area ECU 12L, a right area ECU 312R, and a rear area ECU 312B.
  • the left front area ECU 312FL is disposed, for example, at the left front of the engine compartment of the vehicle 1.
  • the left front area ECU 312FL is a set of sensors disposed at the left front of the vehicle 1, and mainly performs integrated control of sensors that perform sensing of the left front area A11FL at the left front of the vehicle 1.
  • the left front area A11FL covers an area of 270 degrees or more at the left front of the vehicle 1.
  • the right front area ECU 312FR is disposed, for example, in the right front of the engine compartment of the vehicle 1.
  • the right front area ECU 312FR is a set of sensors disposed in the right front of the vehicle 1, and mainly performs integrated control of sensors that perform sensing of the right front area A11FR on the right front side of the vehicle 1.
  • the right front area A11FR covers an area of 270 degrees or more on the right front side of the vehicle 1.
  • the left rear area ECU 312BL is disposed, for example, at the rear left of the vehicle 1.
  • the left rear area ECU 312BL is a set of sensors disposed at the rear left of the vehicle 1, and mainly performs integrated control of sensors that perform sensing of the left rear area A11BL at the rear left of the vehicle 1.
  • the left rear area A11BL covers an area of 270 degrees or more at the rear left of the vehicle 1.
  • the right rear area ECU 312BR is disposed, for example, at the right rear of the vehicle 1.
  • the right rear area ECU 312BR is a set of sensors disposed at the right rear of the vehicle 1, and mainly performs integrated control of sensors that perform sensing of the right rear area A11BR at the right rear of the vehicle 1.
  • the right rear area A11BR covers an area of 270 degrees or more at the right rear of the vehicle 1.
  • the left front area ECU 312FL, the master ECU 311, and the right rear area ECU 312BR are connected via an optical cable 321A. That is, the left front area ECU 312FL and the right rear area ECU 312BR, which are arranged almost diagonally on the vehicle 1, are connected to the master ECU 311 via a first optical communication path.
  • the rear entertainment ECU 313B is connected to the first optical communication path via the optical cable 321A and a beam splitter (not shown).
  • the right front area ECU 312FR, the master ECU 311, and the left rear area ECU 312BL are connected via an optical cable 321B.
  • the right front area ECU 312FR and the left rear area ECU 312BL, which are arranged almost diagonally on the vehicle 1, are connected to the master ECU 311 via a second optical communication path.
  • the gateway ECU 314 is connected to the left front area ECU 312FL and the right front area ECU 312FR via an electrical cable 322. In other words, the gateway ECU 314 is connected to the information processing system 301f via two electrical communication paths.
  • the area ECUs 312 located diagonally on the vehicle 1 are connected as a pair to the same optical communication path. That is, the left front area ECU 312FL and the right rear area ECU 312BR are connected as a pair to the same optical communication path. The right front area ECU 312FR and the left rear area ECU 312BL are connected as a pair to the same optical communication path.
  • each area ECU 312 is arranged in an X-layout with two optical communication paths for redundancy. This makes it possible, for example, if an abnormality occurs in one optical communication path, to continue omnidirectional sensing of the vehicle 1 using the other optical communication path and continue autonomous driving.
  • optical cable 321B even if an abnormality occurs in optical cable 321B, it is possible to continue sensing in all directions, including the left front and right rear of vehicle 1, using left front area ECU 312FL and right rear area ECU 312BR, and continue autonomous driving.
  • optical cable 321A even if an abnormality occurs in optical cable 321A, it is possible to continue sensing in all directions, including the right front and left rear of vehicle 1, using right front area ECU 312FR and left rear area ECU 312BL, and continue autonomous driving.
  • each area ECU 312 can be set for each optical communication path of each system. In other words, the same wavelength can be used between different optical communication paths.
  • the left front area ECU 312FL uses the R wavelength
  • the right rear area ECU 312BR uses the B wavelength
  • the right front area ECU 312FR uses the R wavelength
  • the left rear area ECU 312BL uses the B wavelength. This makes it possible to reduce the number of types of wavelengths used throughout the vehicle 1.
  • the information processing system 301 that provides the autonomous driving function and entertainment function described above will be provided in the form of a later addition (add-on) to the vehicle.
  • vehicle grades will be classified according to the presence or absence of an information processing system 301.
  • lower grade vehicles that do not have an autonomous driving function or an entertainment function will not be equipped with an information processing system 301, and higher grade vehicles that do have an autonomous driving function or an entertainment function will be equipped with an information processing system 301. This will make it possible to change the grade of a vehicle according to the presence or absence of an information processing system while sharing the basic system.
  • FIG. 22 shows an example of a method for adding an information processing system 301 to an existing vehicle control system 601. Note that in the figure, parts corresponding to the information processing system 301a in FIG. 6 are given the same reference numerals, and their explanation will be omitted as appropriate.
  • the vehicle control system 601 includes a power plant network 611, a body network 612, and a gateway ECU 613.
  • the power plant system network 611 is composed of a network such as a CAN that mainly uses conventional electrical communication.
  • the engine ECU 621 and the brake ECU 622 are connected via an electrical cable 641.
  • the power plant system network 611 is also connected to a gateway ECU 613 via the electrical cable 641.
  • the engine ECU 621 controls the engine of the vehicle 1.
  • the brake ECU 622 controls the brakes of the vehicle 1.
  • the body system network 612 is composed of a network such as a CAN that is based on conventional electrical communication.
  • the body ECU 631 and the navigation audio ECU 632 are connected via an electrical cable 642.
  • the body system network 612 is also connected to the gateway ECU 613 via the electrical cable 642.
  • the body ECU 631 controls the body systems of the vehicle 1.
  • the navigation audio ECU 632 controls the navigation system and audio system of the vehicle 1.
  • the vehicle control system 601 and the information processing system 301 are connected, for example, via an electrical cable 602.
  • the gateway ECU 613 of the vehicle control system 601 and the gateway ECU 314 of the information processing system 301 are connected via the electrical cable 602. This enables data to be transmitted and received between the vehicle control system 601 and the information processing system 301 through arbitration processing between the gateway ECU 613 and the gateway ECU 314.
  • the amount of control data transmitted from the master ECU 311 to each area ECU 312 is small. Therefore, for example, the master ECU 311 and each area ECU 312 may be connected by an electric cable, and the master ECU 311 may transmit control data to each area ECU 312 via an electric communication path.
  • each entertainment ECU 313 may be connected by an electric cable, and each entertainment ECU 313 may transmit control data to the master ECU 311 via an electric communication path.
  • each ECU in the information processing system 301 is connected via an optical cable 321, but in the circuit beyond each ECU, a communication method such as CAN, LIN, LAN, FlexRay, or Ethernet is used depending on the amount of data to be transmitted, the required transmission speed, delay time, etc.
  • a communication method such as CAN, LIN, LAN, FlexRay, or Ethernet is used depending on the amount of data to be transmitted, the required transmission speed, delay time, etc.
  • each ECU may be integrated into one as appropriate.
  • OBD On-Board Diagnostics, an in-vehicle fault diagnosis device
  • this technology can be applied to moving bodies other than vehicles that perform sensing for each area using sensors installed in each area.
  • the above-mentioned series of processes can be executed by hardware or software.
  • the programs constituting the software are installed in a computer.
  • the computer includes a computer built into dedicated hardware, and a general-purpose personal computer, for example, capable of executing various functions by installing various programs.
  • FIG. 23 is a block diagram showing an example of the hardware configuration of a computer that executes the above-mentioned series of processes using a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • an input/output interface 1005 Connected to the input/output interface 1005 are an input unit 1006, an output unit 1007, a storage unit 1008, a communication unit 1009, and a drive 1010.
  • the input unit 1006 includes an input switch, a button, a microphone, an image sensor, etc.
  • the output unit 1007 includes a display, a speaker, etc.
  • the storage unit 1008 includes a hard disk, a non-volatile memory, etc.
  • the communication unit 1009 includes a network interface, etc.
  • the drive 1010 drives removable media 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 1001 loads a program recorded in the storage unit 1008, for example, into the RAM 1003 via the input/output interface 1005 and the bus 1004, and executes the program, thereby performing the above-mentioned series of processes.
  • the program executed by the computer 1000 can be provided by being recorded on a removable medium 1011 such as a package medium, for example.
  • the program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 1008 via the input/output interface 1005 by inserting the removable medium 1011 into the drive 1010.
  • the program can also be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008.
  • the program can be pre-installed in the ROM 1002 or storage unit 1008.
  • the program executed by the computer may be a program in which processing is performed chronologically in the order described in this specification, or a program in which processing is performed in parallel or at the required timing, such as when called.
  • a system refers to a collection of multiple components (devices, modules (parts), etc.), regardless of whether all the components are in the same housing. Therefore, multiple devices housed in separate housings and connected via a network, and a single device in which multiple modules are housed in a single housing, are both systems.
  • this technology can be configured as cloud computing, in which a single function is shared and processed collaboratively by multiple devices over a network.
  • each step described in the above flowchart can be executed by a single device, or can be shared and executed by multiple devices.
  • one step includes multiple processes
  • the multiple processes included in that one step can be executed by one device, or can be shared and executed by multiple devices.
  • a vehicle is provided with a plurality of integrated ECUs (Electronic Control Units) each of which controls a plurality of functions, an information processing system, wherein each of the integrated ECUs is connected via an optical communication path, and at least a part of the integrated ECUs is connected to two or more of the optical communication paths.
  • the integrated ECU includes: a plurality of area ECUs provided in respective predetermined areas of the moving body, each of which performs integrated control of sensors arranged in each of the areas; a master ECU that receives sensor data of the sensors from each of the area ECUs via the optical communication path and executes processing based on the received sensor data.
  • the master ECU and at least some of the area ECUs are connected to an optical communication loop that is the loop-shaped optical communication path, and data can be transmitted and received in both rotation directions of the optical communication loop;
  • the information processing system according to (2) wherein both ends of the optical communication loop are connected to the master ECU.
  • the information processing system described in (3) above, wherein the area ECU connected to the optical communication loop transmits data in both rotational directions of the optical communication loop and transfers data received from one of the optical communication loops to the other.
  • each of the area ECUs transmits the sensor data to the master ECU at a different wavelength.
  • the master ECU controls transmission of the sensor data from each of the area ECUs based on a state of the moving object.
  • the master ECU transmits entertainment content data within the moving body via the optical communication path using the wavelength of the sensor data for which transmission has been stopped.
  • the gateway ECU connects a first communication network to which each of the integrated ECUs is connected via the optical communication path to a second communication network within the vehicle.
  • the integrated ECU connected to the optical communication path of two or more systems includes a beam splitter and a photoelectric conversion element for each system.
  • a plurality of integrated ECUs each controlling a plurality of functions are connected via an optical communication path; At least a part of the integrated ECUs is connected to two or more of the optical communication paths, and data is transmitted and received via the two or more of the optical communication paths.
  • a plurality of integrated ECUs each controlling a plurality of functions are provided, The integrated ECUs are connected to each other via optical communication paths, and at least some of the integrated ECUs are connected to two or more of the optical communication paths.
  • 1 Vehicle 11 Vehicle control system, 51 Camera, 52 Radar, 53 LiDAR, 54 Ultrasonic sensor, 301, 301a to 301f Information processing system, 311 Master ECU, 312, 312a, 312b Area ECU, 312F Front area ECU, 312FL Left front area ECU, 312FR Right front area ECU, 312L Left area ECU, 312R Right area ECU, 312BL Left rear area ECU, 312BR Right rear area ECU, 312B Rear area ECU U, 313 Entertainment ECU, 313F Front entertainment ECU, 313B Rear entertainment ECU, 314 Gateway ECU, 321 Optical cable, 322 Electric cable, 371-1 to 371-3 Beam splitter, 401 SoC, 402A, 402B Photoelectric conversion element, 431 SoC, 432A, 432B Photoelectric conversion element, 433A, 433B Beam splitter, 451 SoC, 452 Photoelectric conversion element, 471 SoC, 472 Photoelectric conversion element

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)

Abstract

本技術は、移動体におけるデータ伝送の信頼性を向上させることができるようにする情報処理システム、通信方法、及び、移動体に関する。 情報処理システムは、移動体に設けられ、それぞれ複数の機能を制御する複数の統合ECU(Electronic Control Unit)を備え、各前記統合ECUが光通信経路を介して接続され、少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続されている。本技術は、例えば、車両に適用できる。

Description

情報処理システム、通信方法、及び、移動体
 本技術は、情報処理システム、通信方法、及び、移動体に関し、特に、光通信を用いた情報処理システム、通信方法、及び、移動体に関する。
 将来、車両のE/E(Electric & Electronic)アーキテクチャとして、ゾーンアーキテクチャが主流になると予想されている(例えば、特許文献1参照)。
米国特許出願公開第2020/125858号明細書
 ゾーンアーキテクチャにおいては、自動運転の進化等に伴い、ゾーン毎に大容量のセンサデータが収集され、車両内で伝送されることが想定される。また、データ伝送に障害が発生すると、自動運転等の機能が停止するおそれがある。従って、車両内のデータ伝送の信頼性の向上が望まれている。
 本技術は、このような状況に鑑みてなされたものであり、車両等の移動体におけるデータ伝送の信頼性を向上させるようにするものである。
 本技術の第1の側面の情報処理システムは、移動体に設けられ、それぞれ複数の機能を制御する複数の統合ECU(Electronic Control Unit)を備え、各前記統合ECUが光通信経路を介して接続され、少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続されている。
 本技術の第2の側面の通信方法は、移動体において、複数の機能をそれぞれ制御する複数の統合ECUが光通信経路を介して接続され、少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続され、2系統以上の前記光通信経路を介してデータの送受信を行う。
 本技術の第3の側面の移動体は、それぞれ複数の機能を制御する複数の統合ECUを備え、各前記統合ECUが光通信経路を介して接続され、少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続されている。
 本技術の第1の側面又は第3の側面においては、それぞれ複数の機能を制御する複数の統合ECUが光通信経路を介して接続され、少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続される。
 本技術の第2の側面においては、移動体において、複数の機能をそれぞれ制御する複数の統合ECUが光通信経路を介して接続され、少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続され、2系統以上の前記光通信経路を介してデータの送受信が行われる。
車両制御システムの構成例を示すブロック図である。 センシング領域の例を示す図である。 車両内のデータの流れの例を示す図である。 車両に設けられる情報処理システムの構成例を示す図である。 図4の情報処理システムの各センサのセンサデータの使用率の例を示している。 本技術を適用した情報処理システムの第1の実施の形態を示している。 図6の情報処理システムの各エリアのセンサデータの使用率の例を示している。 センサデータの波長を他の用途に転用する方法の例を示す図である。 本技術を適用した情報処理システムの第2の実施の形態を示している。 本技術を適用した情報処理システムの第3の実施の形態を示している。 本技術を適用した情報処理システムの第4の実施の形態を示している。 本技術を適用した情報処理システムの第5の実施の形態を示している。 マスタECUから送信されたデータの流れを示す図である。 冗長系ネットワークのエリアECUから送信されたデータの流れを示す図である。 非冗長系ネットワークのECUから送信されたデータの流れを示す図である。 マスタECUの構成例を示す図である。 冗長系ネットワークのエリアECUの構成例を示す図である。 非冗長系ネットワークのエリアECUの構成例を示す図である。 エンタテイメントECUの構成例を示す図である。 ECUの構成例を示す図である。 本技術を適用した情報処理システムの第6の実施の形態を示している。 情報処理システムの追加方法の例を示す図である。 コンピュータの構成例を示すブロック図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.車両制御システムの構成例
 2.本技術の背景
 3.実施の形態
 4.変形例
 5.その他
 <<1.車両制御システムの構成例>>
 図1は、本技術が適用される移動装置制御システムの一例である車両制御システム11の構成例を示すブロック図である。
 車両制御システム11は、車両1に設けられ、車両1の走行支援及び自動運転に関わる処理を行う。
 車両制御システム11は、車両制御ECU(Electronic Control Unit)21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、走行支援・自動運転制御部29、DMS(Driver Monitoring System)30、HMI(Human Machine Interface)31、及び、車両制御部32を備える。
 車両制御ECU21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、走行支援・自動運転制御部29、ドライバモニタリングシステム(DMS)30、ヒューマンマシーンインタフェース(HMI)31、及び、車両制御部32は、通信ネットワーク41を介して相互に通信可能に接続されている。通信ネットワーク41は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったディジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク41は、伝送されるデータの種類によって使い分けられてもよい。例えば、車両制御に関するデータに対してCANが適用され、大容量データに対してイーサネットが適用されるようにしてもよい。なお、車両制御システム11の各部は、通信ネットワーク41を介さずに、例えば近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続される場合もある。
 なお、以下、車両制御システム11の各部が、通信ネットワーク41を介して通信を行う場合、通信ネットワーク41の記載を省略するものとする。例えば、車両制御ECU21と通信部22が通信ネットワーク41を介して通信を行う場合、単に車両制御ECU21と通信部22とが通信を行うと記載する。
 車両制御ECU21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種のプロセッサにより構成される。車両制御ECU21は、車両制御システム11全体又は一部の機能の制御を行う。
 通信部22は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行う。このとき、通信部22は、複数の通信方式を用いて通信を行うことができる。
 通信部22が実行可能な車外との通信について、概略的に説明する。通信部22は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行う。通信部22が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部22が外部ネットワークに対して行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でディジタル双方向通信が可能な無線通信方式であれば、特に限定されない。
 また例えば、通信部22は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車等の比較的低速で移動する移動体が装着する端末、店舗等に位置が固定されて設置される端末、又は、MTC(Machine Type Communication)端末である。さらに、通信部22は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信をいう。
 通信部22は、例えば、車両制御システム11の動作を制御するソフトウエアを更新するためのプログラムを外部から受信することができる(Over The Air)。通信部22は、さらに、地図情報、交通情報、車両1の周囲の情報等を外部から受信することができる。また例えば、通信部22は、車両1に関する情報や、車両1の周囲の情報等を外部に送信することができる。通信部22が外部に送信する車両1に関する情報としては、例えば、車両1の状態を示すデータ、認識部73による認識結果等がある。さらに例えば、通信部22は、eコール等の車両緊急通報システムに対応した通信を行う。
 例えば、通信部22は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)(登録商標))により送信される電磁波を受信する。
 通信部22が実行可能な車内との通信について、概略的に説明する。通信部22は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部22は、例えば、無線LAN、Bluetooth、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部22は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部22は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。通信部22は、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。
 ここで、車内の機器とは、例えば、車内において通信ネットワーク41に接続されていない機器を指す。車内の機器としては、例えば、運転者等の搭乗者が所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。
 地図情報蓄積部23は、外部から取得した地図及び車両1で作成した地図の一方又は両方を蓄積する。例えば、地図情報蓄積部23は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。
 高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップ等である。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両1に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ベクターマップは、例えば、車線や信号機の位置といった交通情報等をポイントクラウドマップに対応付け、ADAS(Advanced Driver Assistance System)やAD(Autonomous Driving)に適合させた地図である。
 ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、カメラ51、レーダ52、LiDAR53等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両1で作成され、地図情報蓄積部23に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両1がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。
 位置情報取得部24は、GNSS(Global Navigation Satellite System)衛星からGNSS信号を受信し、車両1の位置情報を取得する。取得した位置情報は、走行支援・自動運転制御部29に供給される。なお、位置情報取得部24は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得してもよい。
 外部認識センサ25は、車両1の外部の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。外部認識センサ25が備えるセンサの種類や数は任意である。
 例えば、外部認識センサ25は、カメラ51、レーダ52、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)53、及び、超音波センサ54を備える。これに限らず、外部認識センサ25は、カメラ51、レーダ52、LiDAR53、及び、超音波センサ54のうち1種類以上のセンサを備える構成でもよい。カメラ51、レーダ52、LiDAR53、及び、超音波センサ54の数は、現実的に車両1に設置可能な数であれば特に限定されない。また、外部認識センサ25が備えるセンサの種類は、この例に限定されず、外部認識センサ25は、他の種類のセンサを備えてもよい。外部認識センサ25が備える各センサのセンシング領域の例は、後述する。
 なお、カメラ51の撮影方式は、特に限定されない。例えば、測距が可能な撮影方式であるToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じてカメラ51に適用することができる。これに限らず、カメラ51は、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。
 また、例えば、外部認識センサ25は、車両1に対する環境を検出するための環境センサを備えることができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。
 さらに、例えば、外部認識センサ25は、車両1の周囲の音や音源の位置の検出等に用いられるマイクロフォンを備える。
 車内センサ26は、車内の情報を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車内センサ26が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
 例えば、車内センサ26は、カメラ、レーダ、着座センサ、ステアリングホイールセンサ、マイクロフォン、生体センサのうち1種類以上のセンサを備えることができる。車内センサ26が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ26が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ26が備える生体センサは、例えば、シートやステアリングホイール等に設けられ、運転者等の搭乗者の各種の生体情報を検出する。
 車両センサ27は、車両1の状態を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車両センサ27が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
 例えば、車両センサ27は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を備える。例えば、車両センサ27は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを備える。例えば、車両センサ27は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを備える。例えば、車両センサ27は、バッテリの残量及び温度を検出するバッテリセンサ、並びに、外部からの衝撃を検出する衝撃センサを備える。
 記憶部28は、不揮発性の記憶媒体及び揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶する。記憶部28は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)及びRAM(Random Access Memory)として用いられ、記憶媒体としては、HDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイスを適用することができる。記憶部28は、車両制御システム11の各部が用いる各種プログラムやデータを記憶する。例えば、記憶部28は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を備え、事故等のイベントの前後の車両1の情報や車内センサ26によって取得された情報を記憶する。
 走行支援・自動運転制御部29は、車両1の走行支援及び自動運転の制御を行う。例えば、走行支援・自動運転制御部29は、分析部61、行動計画部62、及び、動作制御部63を備える。
 分析部61は、車両1及び周囲の状況の分析処理を行う。分析部61は、自己位置推定部71、センサフュージョン部72、及び、認識部73を備える。
 自己位置推定部71は、外部認識センサ25からのセンサデータ、及び、地図情報蓄積部23に蓄積されている高精度地図に基づいて、車両1の自己位置を推定する。例えば、自己位置推定部71は、外部認識センサ25からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両1の自己位置を推定する。車両1の位置は、例えば、後輪対車軸の中心が基準とされる。
 ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両1の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部73による車両1の外部の状況の検出処理及び認識処理にも用いられる。
 なお、自己位置推定部71は、位置情報取得部24により取得される位置情報、及び、車両センサ27からのセンサデータに基づいて、車両1の自己位置を推定してもよい。
 センサフュージョン部72は、複数の異なる種類のセンサデータ(例えば、カメラ51から供給される画像データ、及び、レーダ52から供給されるセンサデータ)を組み合わせて、新たな情報を得るセンサフュージョン処理を行う。異なる種類のセンサデータを組合せる方法としては、統合、融合、連合等がある。
 認識部73は、車両1の外部の状況の検出を行う検出処理、及び、車両1の外部の状況の認識を行う認識処理を実行する。
 例えば、認識部73は、外部認識センサ25からの情報、自己位置推定部71からの情報、センサフュージョン部72からの情報等に基づいて、車両1の外部の状況の検出処理及び認識処理を行う。
 具体的には、例えば、認識部73は、車両1の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複する場合がある。
 例えば、認識部73は、レーダ52又はLiDAR53等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両1の周囲の物体を検出する。これにより、車両1の周囲の物体の有無、大きさ、形状、位置が検出される。
 例えば、認識部73は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両1の周囲の物体の動きを検出する。これにより、車両1の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。
 例えば、認識部73は、カメラ51から供給される画像データに基づいて、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示等を検出又は認識する。また、認識部73は、セマンティックセグメンテーション等の認識処理を行うことにより、車両1の周囲の物体の種類を認識してもよい。
 例えば、認識部73は、地図情報蓄積部23に蓄積されている地図、自己位置推定部71による自己位置の推定結果、及び、認識部73による車両1の周囲の物体の認識結果に基づいて、車両1の周囲の交通ルールの認識処理を行うことができる。認識部73は、この処理により、信号機の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線等を認識することができる。
 例えば、認識部73は、車両1の周囲の環境の認識処理を行うことができる。認識部73が認識対象とする周囲の環境としては、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。
 行動計画部62は、車両1の行動計画を作成する。例えば、行動計画部62は、経路計画、経路追従の処理を行うことにより、行動計画を作成する。
 なお、経路計画(Global path planning)とは、スタートからゴールまでの大まかな経路を計画する処理である。この経路計画には、軌道計画と言われ、計画した経路において、車両1の運動特性を考慮して、車両1の近傍で安全かつ滑らかに進行することが可能な軌道生成(Local path planning)を行う処理も含まれる。
 経路追従とは、経路計画により計画された経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部62は、例えば、この経路追従の処理の結果に基づき、車両1の目標速度と目標角速度を計算することができる。
 動作制御部63は、行動計画部62により作成された行動計画を実現するために、車両1の動作を制御する。
 例えば、動作制御部63は、後述する車両制御部32に含まれる、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両1が進行するように、加減速制御及び方向制御を行う。例えば、動作制御部63は、衝突回避又は衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のADASの機能実現を目的とした協調制御を行う。例えば、動作制御部63は、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行う。
 DMS30は、車内センサ26からのセンサデータ、及び、後述するHMI31に入力される入力データ等に基づいて、運転者の認証処理、及び、運転者の状態の認識処理等を行う。認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。
 なお、DMS30が、運転者以外の搭乗者の認証処理、及び、当該搭乗者の状態の認識処理を行うようにしてもよい。また、例えば、DMS30が、車内センサ26からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。
 HMI31は、各種のデータや指示等の入力と、各種のデータの運転者等への提示を行う。
 HMI31によるデータの入力について、概略的に説明する。HMI31は、人がデータを入力するための入力デバイスを備える。HMI31は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム11の各部に供給する。HMI31は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、及び、レバーといった操作子を備える。これに限らず、HMI31は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに備えてもよい。さらに、HMI31は、例えば、赤外線又は電波を利用したリモートコントロール装置や、車両制御システム11の操作に対応したモバイル機器又はウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。
 HMI31によるデータの提示について、概略的に説明する。HMI31は、搭乗者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成を行う。また、HMI31は、生成された各情報の出力、出力内容、出力タイミング及び出力方法等を制御する出力制御を行う。HMI31は、視覚情報として、例えば、操作画面、車両1の状態表示、警告表示、車両1の周囲の状況を示すモニタ画像等の画像や光により示される情報を生成及び出力する。また、HMI31は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成及び出力する。さらに、HMI31は、触覚情報として、例えば、力、振動、動き等により搭乗者の触覚に与えられる情報を生成及び出力する。
 HMI31が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、搭乗者の視界内に視覚情報を表示する装置であってもよい。また、HMI31は、車両1に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプ等が有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。
 HMI31が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。
 HMI31が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、車両1の搭乗者が接触する部分に設けられる。
 車両制御部32は、車両1の各部の制御を行う。車両制御部32は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を備える。
 ステアリング制御部81は、車両1のステアリングシステムの状態の検出及び制御等を行う。ステアリングシステムは、例えば、ステアリングホイール等を備えるステアリング機構、電動パワーステアリング等を備える。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うステアリングECU、ステアリングシステムの駆動を行うアクチュエータ等を備える。
 ブレーキ制御部82は、車両1のブレーキシステムの状態の検出及び制御等を行う。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を備える。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うブレーキECU、ブレーキシステムの駆動を行うアクチュエータ等を備える。
 駆動制御部83は、車両1の駆動システムの状態の検出及び制御等を行う。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を備える。駆動制御部83は、例えば、駆動システムの制御を行う駆動ECU、駆動システムの駆動を行うアクチュエータ等を備える。
 ボディ系制御部84は、車両1のボディ系システムの状態の検出及び制御等を行う。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を備える。ボディ系制御部84は、例えば、ボディ系システムの制御を行うボディ系ECU、ボディ系システムの駆動を行うアクチュエータ等を備える。
 ライト制御部85は、車両1の各種のライトの状態の検出及び制御等を行う。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うライトECU、ライトの駆動を行うアクチュエータ等を備える。
 ホーン制御部86は、車両1のカーホーンの状態の検出及び制御等を行う。ホーン制御部86は、例えば、カーホーンの制御を行うホーンECU、カーホーンの駆動を行うアクチュエータ等を備える。
 図2は、図1の外部認識センサ25のカメラ51、レーダ52、LiDAR53、及び、超音波センサ54等によるセンシング領域の例を示す図である。なお、図2において、車両1を上面から見た様子が模式的に示され、左端側が車両1の前端(フロント)側であり、右端側が車両1の後端(リア)側となっている。
 センシング領域101F及びセンシング領域101Bは、超音波センサ54のセンシング領域の例を示している。センシング領域101Fは、複数の超音波センサ54によって車両1の前端周辺をカバーしている。センシング領域101Bは、複数の超音波センサ54によって車両1の後端周辺をカバーしている。
 センシング領域101F及びセンシング領域101Bにおけるセンシング結果は、例えば、車両1の駐車支援等に用いられる。
 センシング領域102F乃至センシング領域102Bは、短距離又は中距離用のレーダ52のセンシング領域の例を示している。センシング領域102Fは、車両1の前方において、センシング領域101Fより遠い位置までカバーしている。センシング領域102Bは、車両1の後方において、センシング領域101Bより遠い位置までカバーしている。センシング領域102Lは、車両1の左側面の後方の周辺をカバーしている。センシング領域102Rは、車両1の右側面の後方の周辺をカバーしている。
 センシング領域102Fにおけるセンシング結果は、例えば、車両1の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域102Bにおけるセンシング結果は、例えば、車両1の後方の衝突防止機能等に用いられる。センシング領域102L及びセンシング領域102Rにおけるセンシング結果は、例えば、車両1の側方の死角における物体の検出等に用いられる。
 センシング領域103F乃至センシング領域103Bは、カメラ51によるセンシング領域の例を示している。センシング領域103Fは、車両1の前方において、センシング領域102Fより遠い位置までカバーしている。センシング領域103Bは、車両1の後方において、センシング領域102Bより遠い位置までカバーしている。センシング領域103Lは、車両1の左側面の周辺をカバーしている。センシング領域103Rは、車両1の右側面の周辺をカバーしている。
 センシング領域103Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域103Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステムに用いることができる。センシング領域103L及びセンシング領域103Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。
 センシング領域104は、LiDAR53のセンシング領域の例を示している。センシング領域104は、車両1の前方において、センシング領域103Fより遠い位置までカバーしている。一方、センシング領域104は、センシング領域103Fより左右方向の範囲が狭くなっている。
 センシング領域104におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。
 センシング領域105は、長距離用のレーダ52のセンシング領域の例を示している。センシング領域105は、車両1の前方において、センシング領域104より遠い位置までカバーしている。一方、センシング領域105は、センシング領域104より左右方向の範囲が狭くなっている。
 センシング領域105におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。
 なお、外部認識センサ25が含むカメラ51、レーダ52、LiDAR53、及び、超音波センサ54の各センサのセンシング領域は、図2以外に各種の構成をとってもよい。具体的には、超音波センサ54が車両1の側方もセンシングするようにしてもよいし、LiDAR53が車両1の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでもよいし、複数であってもよい。
 <<2.本技術の背景>>
 次に、図3乃至図5を参照して、本技術の背景について説明する。
 現在、ICT(Information and Communication Technology)の新たな情報通信基盤を構築するIOWN(Innovative Optical and Wireless Network)構想が進められている。IOWN構想とは、光電融合技術を用いることで、大容量、低遅延、低消費電力を兼ね備えた革新的なネットワーク基盤及び情報処理基盤の構築を目指す構想である。IOWNは、主に次の3つの技術的な要素から構成される。
 1つ目の技術的な要素は、ネットワークから端末まで、全てにフォトニクス(光)ベースの技術を導入したAPN(All-Photonics Network)である。2つ目の技術的な要素は、あらゆるものをつなぎ、その制御を実現するCF(Cognitive Foundation(登録商標))である。3つ目の技術的な要素は、実世界とデジタル世界の掛け合わせによる未来予測などを実現するDTC(Digital Twin Computing(登録商標))である。
 図3は、車両1のマスタECU、エンタテイメントシステム、及び、センサ類との間のデータの流れの例を簡単に示している。具体的には、車内エンタテイメントに関する処理を実行するマスタECUとエンタテイメントシステムとの間のデータの流れ、及び、自動運転・先進安全技術に関する処理を実行するマスタECUとセンサ類との間のデータの流れの例を示している。
 マスタECUは、車両1内で最も高い演算能力を有する中央集権的な情報処理装置である。
 エンタテイメントシステムは、動画、音楽、ゲーム等の車内エンタテイメントに関する処理を実行し、車両1の搭乗者に車内エンタテイメントを提供するシステムである。
 センサ類は、例えば、カメラ51、レーダ52、LiDAR53、超音波センサ54、及び、車内センサ55等を含む。
 マスタECUからエンタテイメントシステムには、例えば、車内エンタテイメント用のコンテンツデータが伝送される。コンテンツデータは、大容量であり、低遅延が要求される。
 エンタテイメントシステムからマスタECUには、ユーザ操作による操作コマンド等を含む制御データが伝送される。制御データは、コンテンツデータと比較して容量が非常に小さい。
 従って、車内エンタテイメント系では、マスタECUからエンタテイメントECUへのダウンリンク側のデータ量が多くなる。
 センサ類からマスタECUには、各種のセンサデータが伝送される。センサデータは、大容量であり、低遅延が要求される。
 マスタECUからセンサ類には、センサ類を制御するための制御コマンド等の含む制御データが伝送される。制御データは、センサデータと比較して容量が非常に小さい。
 従って、自動運転・先進安全技術系では、センサ類からマスタECUへのアップリンク側のデータ量が多くなる。
 これに対して、車両1の少なくとも一部にAPNを導入することにより、低遅延及び大容量のデータ伝送が可能になる。これにより、車内エンタテイメントや自動運転・先進安全技術のように低遅延及び大容量のデータ伝送を要する技術の実現、信頼性の向上が可能になる。
 図4は、車両1に設けることが可能な情報処理システム201の構成例を示している。
 情報処理システム201は、マスタECU211、カメラECU212C、レーダECU212R、LiDAR ECU212L、超音波ECU212U、及び、エンタテイメント(ENT)ECU213を備える。
 なお、以下、マスタECU211、カメラECU212C、レーダECU212R、LiDAR ECU212L、超音波ECU212Uを個々に区別する必要がない場合、単に機能ECU212と総称する。機能ECU212は、所定の機能の制御のみを実行するECUである。
 マスタECU211、カメラECU212C、レーダECU212R、LiDAR ECU212L、及び、超音波ECU212Uは、光ケーブル221によりループ状に接続されている。ループ状の光通信経路(以下、光通信ループと称する)の両端は、マスタECU211に接続されている。すなわち、光通信ループの始端及び終端がマスタECU211に設定されている。エンタテイメントECU213は、例えば、光ケーブル221及び図示せぬビームスプリッタにより、光通信ループに接続されている。
 なお、光通信経路とは、例えば、光ケーブルにより形成される光通信用の通信経路である。
 マスタECU211は、車両1内で最も高い演算能力を有する中央集権的な演算処理装置である。例えば、マスタECU211は、光ケーブル221を介して、各機能ECU212及びエンタテイメントECU213に制御データを供給し、各機能ECU212及びエンタテイメントECU213を制御する。例えば、マスタECU211は、光ケーブル221を介して、各機能ECU212からセンサデータを受信し、センサデータに基づいて、車両1の制御を実行する。例えば、マスタECU211は、光ケーブル221を介して、エンタテイメントECU213に各種のコンテンツデータを送信する。なお、マスタECU211は、車両1外との通信機能を備えていてもよい。
 カメラECU212Cは、電気ケーブル222(不図示)を介して、車両1に設けられている各カメラ51(不図示)に接続されている。カメラECU212Cは、各カメラ51を制御するとともに、各カメラ51からセンサデータを取得する。カメラECU212Cは、各カメラ51から取得したセンサデータを、光通信により伝送する形式に変換し、光ケーブル221を介して、マスタECU211に送信する。
 レーダECU212Rは、電気ケーブル222(不図示)を介して、車両1に設けられている各レーダ52(不図示)に接続されている。レーダECU212Rは、各レーダ52を制御するとともに、各レーダ52からセンサデータを取得する。レーダECU212Rは、各レーダ52から取得したセンサデータを、光通信により伝送する形式に変換し、光ケーブル221を介して、マスタECU211に供給する。
 LiDAR ECU212Lは、電気ケーブル222を介して、車両1に設けられている各LiDAR53(図4では、前LiDAR53F、左LiDAR53L、右LiDAR53R、及び、後LiDAR53B)に接続されている。LiDAR ECU212Lは、各LiDAR53を制御するとともに、各LiDAR53からセンサデータを取得する。LiDAR ECU212Lは、各LiDAR53から取得したセンサデータを、光通信により伝送する形式に変換し、光ケーブル221を介して、マスタECU211に供給する。
 超音波ECU212Uは、電気ケーブル222(不図示)を介して、車両1に設けられている各超音波センサ54(不図示)に接続されている。超音波ECU212Uは、各超音波センサ54を制御するとともに、各超音波センサ54からセンサデータを取得する。超音波ECU212Uは、各超音波センサ54から取得したセンサデータを、光通信により伝送する形式に変換し、光ケーブル221を介して、マスタECU211に供給する。
 エンタテイメントECU213は、例えば、動画、音楽、ゲーム等の各種の車内エンタテイメントに関する処理を制御するECUである。例えば、エンタテイメントECU213は、マスタECU211から供給されるコンテンツデータに基づいて、エンタテイメントシステムを制御し、車内エンタテイメントを提供する。
 ここで、例えば、各機能ECU212からそれぞれ異なる波長(色)でセンサデータを送信することにより、各機能ECU212が、各センサデータをコンフリクトさせずに同時に伝送することが可能になる。例えば、カメラECU212Cから送信されるセンサデータの波長は、赤色の波長帯域内の所定の波長(以下、R波長と称する)に設定される。例えば、レーダECU212Rから送信されるセンサデータの波長は、黄色の波長帯域内の所定の波長(以下、Y波長と称する)に設定される。例えば、LiDAR ECU212Lから送信されるセンサデータの波長は、緑色の波長帯域内の所定の波長(以下、G波長と称する)に設定される。例えば、超音波ECU212Uから送信されるセンサデータの波長が、青色の波長帯域内の所定の波長(以下、B波長と称する)に設定される。
 また、例えば、マスタECU211から送信されるコンテンツデータの波長を、各機能ECU212から出力されるセンサデータの波長と異なる波長に設定することが想定される。これにより、マスタECU211が、コンテンツデータを各センサデータとコンフリクトさせずに伝送することが可能になる。
 ただし、光電変換デバイス等の光デバイスが出力可能な光の波長(色)の種類は、限定される。また、出力する波長によっては、光デバイスのコストが上昇するおそれがある。従って、使用する波長の種類を抑制することが望ましい。
 これに対して、例えば、マスタECU211が、各機能ECU212から送信されるセンサデータの波長のうち、使用されていない波長を用いてコンテンツデータを送信することにより、波長資源の有効活用が可能になる。
 図5は、車両1が右折する場合の各センサのセンサデータに対するマスタECU211の使用率を示している。
 例えば、車両1が右折する場合、車両1の前方の前エリアA1F及び右方向の右エリアA1Rのセンシングを行うセンサデータの使用率がほぼ100%になる。一方、車両1の左方向の左エリアA1L及び後方の後エリアA1Bのセンシングを行うセンサデータの使用率はほぼ0%になる。
 従って、車両1が右折する場合、カメラ51のセンサデータ、レーダ52のセンサデータ、LiDAR53のセンサデータ、及び、超音波センサ54のセンサデータの使用率がそれぞれ約50%になる。そのため、車両1が右折する場合、各機能ECU212は、各センサデータの使用率が50%であるので、センサデータの送信を停止することはできず、送信を継続する必要がある。
 従って、マスタECU211は、各センサデータの使用率が約50%であるにも関わらず、いずれのセンサデータの波長もコンテンツデータの送信に転用することができない。その結果、波長資源の使用効率が低下する。
 これに対して、本技術は、波長資源の使用効率を向上させるとともに、データ伝送の信頼性を向上させるものである。
 <<3.実施の形態>>
 次に、図6乃至図22を参照して、本技術の実施の形態について説明する。
  <情報処理システム301の第1の実施の形態>
 図6は、本技術を適用した情報処理システム301の第1の実施の形態である情報処理システム301aの構成例を示している。
 情報処理システム301aは、車両1に設けられ、各種の情報処理を実行する。情報処理システム301aは、各種の統合ECUを備える。統合ECUとは、複数の機能を制御するECUである。具体的には、情報処理システム301aは、統合ECUとして、マスタECU311、前エリアECU312F、左エリアECU312L、右エリアECU312R、及び、後エリアECU312Bを備える。また、情報処理システム301aは、エンタテイメント(ENT)ECU313を備える。
 なお、以下、前エリアECU312F乃至後エリアECU312Bを個々に区別する必要がない場合、単にエリアECU312と称する。
 マスタECU311及び各エリアECU312は、光ケーブル321によりループ状に接続され、光通信ループを形成している。具体的には、マスタECU311を起点にして、右エリアECU312R、後エリアECU312B、左エリアECU312L、前エリアECU312Fが、順に時計回り(右回り)に接続されている。光通信ループの両端はマスタECU311に接続され、光通信ループの始端及び終端がマスタECU311に設定されている。光通信ループ上のマスタECU311及び各エリアECU312は、それぞれ時計回り及び回りの2系統の光通信経路に接続されている。
 エンタテイメントECU313は、例えば、光ケーブル321及び図示せぬビームスプリッタにより、光通信ループに接続されている。
 マスタECU311と、各エリアECU312及びエンタテイメントECU313とは、エンド・トゥー・エンド通信を行う。従って、マスタECU311と各エリアECU312とは、それぞれ時計回り及び反時計回りの両方向(光通信ループの両方の回転方向)においてデータを送受信することが可能である。マスタECU311とエンタテイメントECU313とは、1方向にデータを送受信することが可能である。
 マスタECU311は、図3のマスタECU211と同様に、車両1内で最も高い演算能力を有する中央集権的な情報処理装置である。例えば、マスタECU311は、光ケーブル321を介して、各エリアECU312及びエンタテイメントECU313に制御データを送信し、各エリアECU312及びエンタテイメントECU313を制御する。例えば、マスタECU311は、車両1の状態に基づいて、各エリアECU312へのトークンの付与等を制御することにより、各エリアECU312のセンサデータの送信(例えば、送信頻度等)を制御する。
 例えば、マスタECU311は、光ケーブル321を介して、各エリアECU312からセンサデータを受信し、センサデータに基づいて、車両1の制御を実行する。例えば、マスタECU311は、光ケーブル321を介して、エンタテイメントECU313に各種のコンテンツデータを送信する。なお、マスタECU311は、車両1外との通信機能を備えていてもよい。
 各エリアECU312は、ゾーンECUとも称される。各エリアECU312は、車両1内の物理的レイアウトが近いセンサ類に電気ケーブル322を介して接続され、センサ類の制御を統合して実行する情報処理装置である。
 なお、センサ類は、例えば、カメラ51、レーダ52、LiDAR53、超音波センサ54、及び、車内センサ55等を含む。各センサは、使用する物理現象は異なるが、いずれも直進性が高い。例えば、センサフュージョンする場合、各センサは、物理的(空間的)に近い位置に配置されることが想定される。
 各エリアECU312は、制御対象となるセンサ類からセンサデータを取得し、取得したセンサデータを、光通信により伝送する形式に変換し、光ケーブル221を介して、マスタECU211に送信する。
 前エリアECU312Fは、車両1の前方に配置されたセンサ類であって、主に車両1の前方の前エリアA1Fのセンシングを実行するセンサ類の制御を統合して実行する。
 左エリアECU312Lは、車両1の左方に配置されたセンサ類であって、主に車両1の左方の左エリアA1Lのセンシングを実行するセンサ類の制御を統合して実行する。
 右エリアECU312Rは、車両1の右方に配置されたセンサ類であって、主に車両1の右方の右エリアA1Rのセンシングを実行するセンサ類の制御を統合して実行する。
 後エリアECU312Bは、車両1の後方に配置されたセンサ類であって、主に車両1の後方の後エリアA1Bのセンシングを実行するセンサ類の制御を統合して実行する。
 エンタテイメントECU313は、例えば、動画、音楽、ゲーム等の各種の車内エンタテイメントに関する処理を制御するECUである。例えば、エンタテイメントECU313は、マスタECU311から供給されるコンテンツデータに基づいて、エンタテイメントシステムを制御し、車内エンタテイメントを提供する。
 各エリアECU312は、光通信経路上でのコンフリクトを防ぐために、それぞれ異なる波長(色)でセンサデータを送信する。例えば、前エリアECU312Fは、R波長でセンサデータを送信する。例えば、左エリアECU312Lは、G波長でセンサデータを送信する。例えば、右エリアECU312Rは、Y波長でセンサデータを送信する。例えば、後エリアECU312Bは、B波長でセンサデータを送信する。
 図7は、車両1が右折する場合、車両1の各エリアのセンシングを行うセンサ類のセンサデータに対するマスタECU311の使用率の例を示している。
 車両1が右折する場合、前エリアA1F及び右エリアA1Rのセンシングを行うセンサ類のセンサデータの使用率が高くなる。一方、左エリアA1L及び後エリアA1Bのセンシングを行うセンサ類のセンサデータの使用率は低くなり、ほぼ0%になる。
 従って、車両1が右折する場合、例えば、左エリアECU312L及び後エリアECU312Bからのセンサデータの送信を停止することが可能である。そして、送信が停止されたセンサデータの波長は、他の用途に転用することが可能である。
 図8は、送信が停止されたセンサデータの波長を他の用途に転用する方法の例を示している。
 図8の「R(前)」と記載された列は、前エリアA1Fのセンサデータ用のR波長の用途を示している。「Y(右)」と記載された列は、右エリアA1Rのセンサデータ用のY波長の用途を示している。「G(左)」と記載された列は、左エリアA1Lのセンサデータ用のG波長の用途を示している。「B(後)」と記載された列は、後エリアA1Bのセンサデータ用のB波長の用途を示している。横軸は時刻tを示している。
 この例では、時刻t2までの期間において、車両1が直進している。時刻t2から時刻t4までの期間において、車両1が右折している。時刻t4から時刻t6までの期間において、車両1が直進している。時刻t6から時刻t8までの期間において、車両1が左折している。時刻t8以降の期間において、車両1が直進している。
 例えば、車両1は、直進中に、前エリアA1Fを主に監視する。従って、車両1の直進中に、前エリアA1Fのセンサデータが主に使用され、他のエリアのセンサデータはほぼ不要になる。
 例えば、車両1は、左折中に、前エリアA1F及び左エリアA1Lを主に監視する。従って、車両1の左折中に、前エリアA1F及び左エリアA1Lのセンサデータが主に使用され、他のエリアのセンサデータはほぼ不要になる。
 例えば、車両1は、右折中に、前エリアA1F及び右エリアA1Rを主に監視する。従って、車両1の右折中に、前エリアA1F及び右エリアA1Rのセンサデータが主に使用され、他のエリアのセンサデータはほぼ不要になる。
 例えば、車両1は、後進中に、後エリアA1Bを主に監視する。従って、車両1の後進中に、後エリアA1Bのセンサデータが主に使用され、他のエリアのセンサデータはほぼ不要になる。
 従って、図8の全ての期間において、前エリアA1Fのセンサデータが使用される。すなわち、図8の全ての期間において、R波長が、前エリアA1Fのセンサデータに使用される。従って、図8の全ての期間において、前エリアECU312Fは、R波長のセンサデータをマスタECU311に送信する。
 一方、図8の全ての期間において、R波長は、前エリアA1Fのセンサデータ以外の用途に使用できない。
 車両1が右折中の時刻t2から時刻t4までの期間において、右エリアA1Rのセンサデータが使用される。すなわち、時刻t2から時刻t4までの期間において、Y波長が、右エリアA1Rのセンサデータに使用される。従って、時刻t2から時刻t4までの期間において、右エリアECU312Rは、Y波長のセンサデータをマスタECU311に送信する。
 一方、時刻t2から時刻t4までの期間以外の期間において、Y波長は、右エリアA1Rのセンサデータ以外の用途に使用可能である。この例では、時刻t6以降の期間において、Y波長が、映画のコンテンツデータに転用(帯域転用)されている。すなわち、時刻t6以降の期間において、マスタECU311が、Y波長を使用して、映画のコンテンツデータをエンタテイメントECU313に送信している。
 車両1が左折中の時刻t6から時刻t8までの期間において、左エリアA1Lのセンサデータが使用される。すなわち、時刻t6から時刻t8までの期間において、G波長が、左エリアA1Lのセンサデータに使用される。従って、時刻t6から時刻t8までの期間において、左エリアECU312Lは、G波長のセンサデータをマスタECU311に送信する。
 一方、時刻t6から時刻t8までの期間以外の期間において、G波長は、左エリアA1Lのセンサデータ以外の用途に使用可能である。この例では、時刻t6までの期間において、G波長が、映画のコンテンツデータに転用(帯域転用)されている。すなわち、時刻t6までの期間において、マスタECU311が、G波長を使用して、映画のコンテンツデータをエンタテイメントECU313に送信している。
 図8の全ての期間において、後エリアA1Bのセンサデータは使用されない。すなわち、図8の全ての期間において、B波長は、後エリアA1Bのセンサデータに使用されない。従って、図8の全ての期間において、後エリアECU312Bは、B波長のセンサデータをマスタECU311に送信しない。
 一方、図8の全ての期間において、B波長は、後エリアA1Bのセンサデータ以外の用途に使用可能である。この例では、図8の全ての期間において、B波長が、ゲームのコンテンツデータに転用(帯域転用)されている。すなわち、図8の全ての期間において、マスタECU311が、B波長を使用して、ゲームのコンテンツデータをエンタテイメントECU313に送信している。
 ここで、各波長の転用方法の具体例について説明する。
 例えば、図8の処理の開始時に、マスタECU311は、G波長で映画のコンテンツデータをエンタテイメントECU313に送信し、B波長でゲームのコンテンツデータをエンタテイメントECU313に送信している。前エリアECU312Fは、R波長で前エリアA1FのセンサデータをマスタECU311に送信している。Y波長は、使用されていない。
 車両1が右折を開始する時刻t2より少し前の時刻t1において、マスタECU311は、G波長で制御データを右エリアECU312Rに送信し、右エリアECU312Rにトークンを付与する。その後、マスタECU311は、G波長で映画のコンテンツデータをエンタテイメントECU313に送信する処理を再開する。
 車両1が右折を開始する時刻t2において、トークンが付与された右エリアECU312Rは、Y波長で右エリアA1RのセンサデータをマスタECU311に送信する処理を開始する。
 車両1が右折を完了し、直進を開始する時刻t4より少し前の時刻t3において、マスタECU311は、G波長で制御データを右エリアECU312Rに送信し、右エリアECU312Rからトークンを奪う。その後、マスタECU311は、G波長で映画のコンテンツデータをエンタテイメントECU313に送信する処理を再開する。
 車両1が直進を開始する時刻t4において、トークンが奪われた右エリアECU312Rは、右エリアA1Rのセンサデータの送信を停止する。
 車両1が左折を開始する時刻t6より少し前の時刻t5において、マスタECU311は、G波長で制御データを左エリアECU312Lに送信し、左エリアECU312Lにトークンを付与する。その後、マスタECU311は、G波長で映画のコンテンツデータをエンタテイメントECU313に送信する処理を停止する。
 車両1が左折を開始する時刻t6において、トークンが付与された左エリアECU312Lは、G波長で左エリアA1LのセンサデータをマスタECU311に送信する処理を開始する。また、マスタECU311は、Y波長で映画のコンテンツデータをエンタテイメントECU313に送信する処理を開始する。
 車両1が左折を完了し、直進を開始する時刻t8より少し前の時刻t7において、マスタECU311は、Y波長で制御データを左エリアECU312Lに送信し、左エリアECU312Lからトークンを奪う。その後、マスタECU311は、Y波長で映画のコンテンツデータをエンタテイメントECU313に送信する処理を再開する。
 車両1が直進を開始する時刻t8において、トークンが奪われた左エリアECU312Lは、左エリアA1Lのセンサデータの送信を停止する。
 以上のように、車両1に光通信を適用することにより、大容量のデータを低遅延で伝送することが可能になり、データ伝送の信頼性が向上する。また、従来の電気通信の代わりに光通信を使用することにより、低消費電力化が実現される。
 また、各エリアのセンサデータがコンフリクトさせずに同時に伝送されるとともに、各データを伝送する波長の使用効率が向上する。
 なお、例えば、コンテンツデータの送信に転用されている波長のセンサデータが、間欠的に送信されるようにしてもよい。例えば、図8の例において、マスタECU311は、定期的にエリアECU312Bにトークンを渡して、エリアECU312Bが、定期的にB波長でセンサデータをマスタECU311に送信するようにしてもよい。
  <情報処理システム301の第2の実施の形態>
 図9は、本技術を適用した情報処理システム301の第2の実施の形態である情報処理システム301bの構成例を示している。なお、図中、図6の情報処理システム301aと対応する部分には、同じ符号を付しており、その説明は適宜省略する。
 車両1の運転席の前の一点鎖線は、車両1の前方のエンジンルームと車両1のキャビンとの間の境界を示している。この境界部分に、例えば、断熱、消音、安全性等を考慮して、鉄板と消音材が設けられる。なお、これは、以降の図でも同様である。
 情報処理システム301bは、マスタECU311、前エリアECU312F、左エリアECU312L、右エリアECU312R、左後エリアECU312BL、右後エリアECU312BR、ルーフエリアECU312LF、前エンタテイメントECU313F、後エンタテイメントECU313B、及び、ゲートウエイECU314を備える。マスタECU311及びルーフエリアECU312LFは、マスタユニット331を構成する。
 なお、以下、前エンタテイメントECU313F及び後エンタテイメントECU313Bを個々に区別する必要がない場合、単にエンタテイメントECU313と称する。
 左後エリアECU312BLは、車両1の左後方に配置されたセンサ類であって、主に車両1の左後方のエリアのセンシングを実行するセンサ類の制御を統合して実行する。
 右後エリアECU312BRは、車両1の右後方に配置されたセンサ類であって、主に車両1の右後方のエリアのセンシングを実行するセンサ類の制御を統合して実行する。
 ルーフエリアECU312LFは、車両1のルーフに配置されたセンサ類であって、主に上方から車両1の周囲のセンシングを実行するセンサ類の制御を統合して実行する。
 前エンタテイメントECU313Fは、車両1の前方の座席用の車内エンタテイメントに関する処理を制御するECUである。例えば、前エンタテイメントECU313Fは、マスタECU311から供給されるコンテンツデータに基づいて、エンタテイメントシステムを制御し、前方の座席の搭乗者に各種の車内エンタテイメントを提供する。
 後エンタテイメントECU313Bは、車両1の後方の座席用の車内エンタテイメントに関する処理を制御するECUである。例えば、後エンタテイメントECU313Bは、マスタECU311から供給されるコンテンツデータに基づいて、エンタテイメントシステムを制御し、後方の座席の搭乗者に各種の車内エンタテイメントを提供する。
 ゲートウエイECU314は、複数系統の通信ネットワーク間の調停処理等を実行する。例えば、ゲートウエイECU314は、異なる系統の通信ネットワーク間で通信速度及び通信プロトコルの整合処理、不要データのフィルタリング処理等を実行する。
 複数系統の通信ネットワークは、例えば、走行系の通信ネットワーク、及び、非走行系の通信ネットワークを含む。走行系の通信ネットワークは、例えば、エンジン制御、モータ制御、ブレーキ制御、ステアリング制御等を実行するシステムの通信ネットワークである。非走行系の通信ネットワークは、例えば、車内エンタテイメントシステム、カーナビゲーションシステム、ボディ系システムの制御等を実行するシステムの通信ネットワークである。
 マスタユニット331は、例えば、車両1のルーフ上に設けられている空間に配置される。前エリアECU312F、例えば、車両1のエンジンルームの前方に配置される。左エリアECU312Lは、例えば、車両1のエンジンルームの左方に配置される。右エリアECU312Rは、例えば、車両1のエンジンルームの右方に配置される。ゲートウエイECU314は、例えば、車両1のエンジンルームの中央に配置されている。左後エリアECU312BLは、例えば、車両1の左後方に配置される。右後エリアECU312BRは、例えば、車両1の右後方に配置される。前エンタテイメントECU313Fは、例えば、車内の前方に配置される。後エンタテイメントECU313Bは、例えば、車内の後方に配置される。
 マスタECU311及び各エリアECU312は、光ケーブル321によりループ状に接続され、光通信ループを形成している。具体的には、マスタECU311を起点にして、左エリアECU312L、前エリアECU312F、右エリアECU312R、右後エリアECU312BR、及び、左後エリアECU312BLが、順に時計回り(右回り)に接続されている。光通信ループの両端はマスタECU311に接続され、光通信ループの始端及び終端がマスタECU311に設定されている。光通信ループ上のマスタECU311及び各エリアECU312は、それぞれ時計回り及び反時計回りの2系統の光通信経路に接続されている。
 ルーフエリアECU312LFは、例えば、光通信ループを介さずに、直接マスタECU311に接続されている。
 なお、ルーフエリアECU312LFは、光通信ループに接続されてもよい。また、例えば、マスタECU311とルーフエリアECU312LFが統合されて、1つのECUが構成されてもよい。
 各エンタテイメントECU313は、例えば、光ケーブル321及び図示せぬビームスプリッタにより、光通信ループに接続されている。
 ゲートウエイECU314は、電気ケーブル322を介して、左エリアECU312L及び右エリアECU312Rに接続されている。すなわち、ゲートウエイECU314は、2系統の電気通信経路を介して情報処理システム301bに接続されている。
 なお、電気通信経路とは、例えば、電気ケーブルにより形成される電気通信用の通信経路である。
 マスタECU311と、各エリアECU312及び各エンタテイメントECU313とは、エンド・トゥー・エンド通信を行う。従って、光通信ループ上のマスタECU311及び各エリアECU312とは、それぞれ時計回り及び反時計回りにデータを送受信することが可能である。マスタECU311と各エンタテイメントECU313とは、それぞれ1方向にデータを送受信することが可能である。
 例えば、前エリアECU312Fは、R波長でセンサデータをマスタECU311に送信する。例えば、左エリアECU312Lは、G波長でセンサデータをマスタECU311に送信する。例えば、右エリアECU312Rは、Y波長でセンサデータをマスタECU311に送信する。例えば、左後エリアECU312BLは、B波長でセンサデータをマスタECU311に送信する。例えば、右後エリアECU312BRは、紫色の波長帯域内の所定の波長(以下、P波長と称する)でセンサデータをマスタECU311に送信する。
 従って、各エリアECU312は、干渉することなく、同時にセンサデータをマスタECU311に送信することができる。また、マスタECU311は、センサデータの送信に使用されていない波長を用いて、コンテンツデータを各エンタテイメントECU313に送信することが可能である。
 なお、ルーフエリアECU312LFは、マスタECU311と直接通信するため、センサデータを送信する波長は限定されない。
 以上のように、情報処理システム301bは、情報処理システム301aと比較して、エリアECU312の数が増加している。従って、情報処理システム301bは、車両1の周囲のセンシングをより詳細に行うことができる。
  <情報処理システム301の第3の実施の形態>
 図10は、本技術を適用した情報処理システム301の第3の実施の形態である情報処理システム301cの構成例を示している。なお、図中、図9の情報処理システム301bと対応する部分には、同じ符号を付しており、その説明は適宜省略する。
 情報処理システム301cは、情報処理システム301bと比較して、左後エリアECU312BL及び右後エリアECU312BRの代わりに、後エリアECU312Bが設けられている点が異なる。
 マスタユニット331、前エリアECU312F、左エリアECU312L、右エリアECU312R、前エンタテイメントECU313F、後エンタテイメントECU313B、及び、ゲートウエイECU314は、図9の情報処理システム301bと同様の位置に配置されている。後エリアECU312Bは、例えば、車両1の後方に配置されている。
 マスタECU311、前エリアECU312F、左エリアECU312L、及び、右エリアECU312Rは、光ケーブル321によりループ状に接続され、光通信ループを形成している。具体的には、マスタECU311を起点にして、左エリアECU312L、前エリアECU312F、右エリアECU312Rが、順に時計回り(右回り)に接続されている。光通信ループの両端はマスタECU311に接続され、光通信ループの始端及び終端がマスタECU311に設定されている。光通信ループ上のマスタECU311及び各エリアECU312は、それぞれ時計回り及び反時計回りの2系統の光通信経路に接続されている。
 ルーフエリアECU312LFは、例えば、光通信ループを介さずに、直接マスタECU311に接続されている。
 なお、ルーフエリアECU312LFは、光通信ループに接続されてもよい。また、例えば、マスタECU311とルーフエリアECU312LFが統合されて、1つのECUが構成されてもよい。
 後エリアECU312B及び各エンタテイメントECU313は、例えば、光ケーブル321及び図示せぬビームスプリッタにより、光通信ループに接続されている。
 ゲートウエイECU314は、電気ケーブル322を介して、前エリアECU312F及び右エリアECU312Rに接続されている。すなわち、ゲートウエイECU314は、2系統の電気通信経路を介して情報処理システム301bに接続されている。
 マスタECU311と、各エリアECU312及び各エンタテイメントECU313とは、エンド・トゥー・エンド通信を行う。従って、光通信ループ上のマスタECU311及び各エリアECU312とは、それぞれ時計回り及び反時計回りにデータを送受信することが可能である。マスタECU311と後エリアECU312B及び各エンタテイメントECU313とは、それぞれ1方向にデータを送受信することが可能である。
 例えば、前エリアECU312Fは、R波長でセンサデータをマスタECU311に送信する。例えば、左エリアECU312Lは、G波長でセンサデータをマスタECU311に送信する。例えば、右エリアECU312Rは、Y波長でセンサデータをマスタECU311に送信する。例えば、後エリアECU312Bは、B波長でセンサデータをマスタECU311に送信する。
 従って、各エリアECU312は、干渉することなく、同時にセンサデータをマスタECU311に送信することができる。また、マスタECU311は、センサデータの送信に使用されていない波長を用いて、コンテンツデータを各エンタテイメントECU313に送信することが可能である。
 なお、ルーフエリアECU312LFは、マスタECU311と直接通信するため、センサデータを送信する波長は限定されない。
 以上のように、情報処理システム301cは、情報処理システム301bと比較して、センシングの必要性が他のエリアより低い車両1の後方のエリアECU312の数が削減されている。これにより、例えば、必要なコストが削減されたり、データの送信に用いる波長の種類が削減されたりする。
  <情報処理システム301の第4の実施の形態>
 図11は、本技術を適用した情報処理システム301の第4の実施の形態である情報処理システム301dの構成例を示している。なお、図中、図10の情報処理システム301cと対応する部分には、同じ符号を付しており、その説明は適宜省略する。
 情報処理システム301dは、情報処理システム301cと比較して、ルーフエリアECU312LFが削除されている点が異なる。また、マスタECU311及び前エンタテイメントECU313Fにより、マスタユニット341が構成されている点が異なる。
 前エリアECU312F、左エリアECU312L、右エリアECU312R、後エリアECU312B、後エンタテイメントECU313B、及び、ゲートウエイECU314は、図10の情報処理システム301cと同様の位置に配置されている。マスタユニット341は、例えば、車内の前方に配置されている。
 マスタECU311、前エリアECU312F、左エリアECU312L、及び、右エリアECU312Rは、光ケーブル321によりループ状に接続され、光通信ループを形成している。具体的には、マスタECU311を起点にして、左エリアECU312L、前エリアECU312F、右エリアECU312Rが、順に時計回り(右回り)に接続されている。光通信ループの両端はマスタECU311に接続され、光通信ループの始端及び終端がマスタECU311に設定されている。光通信ループ上のマスタECU311及び各エリアECU312は、それぞれ時計回り及び反時計回りの2系統の光通信経路に接続されている。
 前エンタテイメントECU313Fは、例えば、光通信ループを介さずに、直接マスタECU311に接続されている。
 なお、前エンタテイメントECU313Fは、光通信ループに接続されてもよい。また、例えば、マスタECU311と前エンタテイメントECU313Fが統合され、1つのECUが構成されてもよい。
 後エリアECU312B及び後エンタテイメントECU313Bは、例えば、光ケーブル321及び図示せぬビームスプリッタにより、光通信ループに接続されている。
 ゲートウエイECU314は、2本の電気ケーブル322を介して、前エリアECU312Fと接続されている。すなわち、ゲートウエイECU314は、2系統の電気通信経路を介して情報処理システム301dに接続されている。
 マスタECU311と、各エリアECU312及び各エンタテイメントECU313とは、エンド・トゥー・エンド通信を行う。従って、光通信ループ上のマスタECU311及び各エリアECU312とは、それぞれ時計回り及び反時計回りにデータを送受信することが可能である。マスタECU311と後エリアECU312B及び後エンタテイメントECU313Bとは、それぞれ1方向にデータを送受信することが可能である。
 例えば、前エリアECU312Fは、R波長でセンサデータをマスタECU311に送信する。例えば、左エリアECU312Lは、G波長でセンサデータをマスタECU311に送信する。例えば、右エリアECU312Rは、Y波長でセンサデータをマスタECU311に送信する。例えば、後エリアECU312Bは、B波長でセンサデータをマスタECU311に送信する。
 従って、各エリアECU312は、干渉することなく、同時にセンサデータをマスタECU311に送信することができる。また、マスタECU311は、センサデータの送信に使用されていない波長を用いて、コンテンツデータを各エンタテイメントECU313に送信することが可能である。
 以上のように、情報処理システム301dは、情報処理システム301cと比較して、エリアECU312の数が削減されている。これにより、例えば、必要なコストが削減されたり、データの送信に用いる波長の種類が削減されたりする。
  <情報処理システム301の第5の実施の形態>
 図12は、本技術を適用した情報処理システム301の第5の実施の形態である情報処理システム301eの構成例を示している。なお、図中、図11の情報処理システム301dと対応する部分には、同じ符号を付しており、その説明は適宜省略する。
 情報処理システム301eは、情報処理システム301dと比較して、マスタECU311及び右エリアECU312Rにより、マスタユニット351が構成され、前エンタテイメントECU313Fが単独で設けられている点が異なる。
 前エリアECU312F、左エリアECU312L、後エリアECU312B、後エンタテイメントECU313B、及び、ゲートウエイECU314は、図11の情報処理システム301dと同様の位置に配置されている。前エンタテイメントECU313Fは、図9の情報処理システム301bと同様の位置に配置されている。マスタユニット351は、例えば、車両1のエンジンルームの右方に配置されている。
 マスタECU311、前エリアECU312F、及び、左エリアECU312Lは、光ケーブル321によりループ状に接続され、光通信ループを形成している。具体的には、マスタECU311を起点にして、左エリアECU312L、前エリアECU312Fが、順に時計回り(右回り)に接続されている。光通信ループの両端はマスタECU311に接続され、光通信ループの始端及び終端がマスタECU311に設定されている。光通信ループ上のマスタECU311及び各エリアECU312は、それぞれ時計回り及び反時計回りの2系統の光通信経路に接続されている。
 右エリアECU312Rは、例えば、光通信ループを介さずに、直接マスタECU311に接続されている。
 なお、右エリアECU312Rは、光通信ループに接続されてもよい。また、例えば、マスタECU311と右エリアECU312Rが統合されて、1つのECUが構成されてもよい。
 後エリアECU312B及び各エンタテイメントECU313は、例えば、光ケーブル321及び図示せぬビームスプリッタにより、光通信ループに接続されている。
 ゲートウエイECU314は、2本の電気ケーブル322を介して、マスタECU311と接続されている。ゲートウエイECU314は、電気ケーブル322を介して、前エリアECU312Fと接続されている。すなわち、ゲートウエイECU314は、3系統の電気通信経路を介して情報処理システム301dに接続されている。
 マスタECU311と、各エリアECU312及び各エンタテイメントECU313とは、エンド・トゥー・エンド通信を行う。従って、光通信ループ上のマスタECU311及び各エリアECU312とは、それぞれ時計回り及び反時計回りにデータを送受信することが可能である。マスタECU311と後エリアECU312B及び各エンタテイメントECU313とは、それぞれ1方向にデータを送受信することが可能である。
 例えば、前エリアECU312Fは、R波長でセンサデータをマスタECU311に送信する。例えば、左エリアECU312Lは、G波長でセンサデータをマスタECU311に送信する。例えば、後エリアECU312Bは、B波長でセンサデータをマスタECU311に送信する。
 従って、各エリアECU312は、干渉することなく、同時にセンサデータをマスタECU311に送信することができる。また、マスタECU311は、センサデータの送信に使用されていない波長を用いて、コンテンツデータを各エンタテイメントECU313に送信することが可能である。
 なお、右エリアECU312Rは、マスタECU311と直接通信するため、センサデータを送信する波長は限定されない。
 以上のように、情報処理システム301eでは、光通信ループがエンジンルーム内で閉じている。従って、車両1のキャビンとエンジンルームとの間の配線数を削減することができ、キャビンとエンジンルームとの間の鉄板に配線用の穴の数を削減することができる。
  <情報処理システム301内のデータの流れ>
 次に、図13乃至図15を参照して、情報処理システム301内のデータの流れについて、具体的に説明する。
 図13乃至図15は、図12の情報処理システム301eの各ECUの接続方法を模式的に示している。
 図中、光通信ループに接続されているエリアECU312をエリアECU312aとしている。例えば、情報処理システム301eの前エリアECU312F及び左エリアECU312Lが、エリアECU312aに該当する。
 また、光通信ループに接続されていないエリアECU312をエリアECU312bとしている。例えば、情報処理システム301eの後エリアECU312Bが、エリアECU312bに該当する。
 マスタECU311及びエリアECU312aは、冗長系ネットワークを構成する。冗長系ネットワークとは、各ECUが2系統以上の光通信経路に接続され、1系統の光通信経路に異常が生じても、他の系統の光通信経路を介してデータの伝送が可能なネットワークである。冗長系ネットワークは、例えば、車両1がASIL(Automotive Safety Integrity Level)の所定のレベルを満たすために設けられる。
 エリアECU312b、前エンタテイメントECU313F、及び、後エンタテイメントECU313Bは、非冗長系ネットワークを構成する。非冗長系ネットワークとは、各ECUが1系統の光通信経路に接続され、光通信経路に異常が生じた場合、データの伝送が停止されるネットワークである。
 エリアECU312aは、時計回りの方向において、光ケーブル321を介して、マスタECU311に接続されている。エリアECU312aは、反時計回りの方向において、光ケーブル321及びビームスプリッタ371-1を介して、マスタECU311に接続されている。
 ビームスプリッタ371-1は、光ケーブル321を介して、ビームスプリッタ371-2に接続されている。前エンタテイメントECU313Fは、光ケーブル321を介して、ビームスプリッタ371-2に接続されている。ビームスプリッタ371-2は、光ケーブル321を介して、ビームスプリッタ371-3に接続されている。後エンタテイメントECU313Bは、光ケーブル321を介して、ビームスプリッタ371-3に接続されている。エリアECU312bは、光ケーブル321を介して、ビームスプリッタ371-3に接続されている。
 図13に示されるように、マスタECU311から時計回りの方向に送信されたデータは、ビームスプリッタ371-1を透過するとともに、ビームスプリッタ371-1により反射される。ビームスプリッタ371-1を透過したデータは、エリアECU312aにより受信されるとともに、エリアECU312aを透過する。エリアECU312aを透過したデータは、マスタECU311に戻る。
 ビームスプリッタ371-1により反射されたデータは、ビームスプリッタ371-2を透過するとともに、ビームスプリッタ371-2により反射される。ビームスプリッタ371-2により反射されたデータは、前エンタテイメントECU313Fにより受信される。ビームスプリッタ371-2を透過したデータは、ビームスプリッタ371-3を透過するとともに、ビームスプリッタ371-3により反射される。ビームスプリッタ371-3により反射されたデータは、後エンタテイメントECU313Bにより受信される。ビームスプリッタ371-3を透過したデータは、エリアECU312bにより受信される。
 図13に示されるように、マスタECU311から反時計回りの方向に送信されたデータは、エリアECU312aにより受信されるとともに、エリアECU312aを透過する。エリアECU312aを透過したデータは、ビームスプリッタ371-1を透過し、マスタECU311に戻る。
 このように、マスタECU311は、光通信ループの両方の回転方向においてデータの送信が可能である。また、エリアECU312aは、マスタECU311から光通信ループのいずれの回転方向に送信されたデータも受信可能である。一方、エリアECU312b、前エンタテイメントECU313F、及び、後エンタテイメントECU313Bは、マスタECU311bから光通信ループの時計回りの方向に送信されたデータのみを受信する。なお、マスタECU311から光通信ループの各回転方向に送信されたデータは、指向性が異なるため、干渉せずに分離することが可能である。
 図14に示されるように、エリアECU312aから時計回りに送信されたデータは、マスタECU311により受信される。また、エリアECU312aから反時計回りに送信されたデータは、ビームスプリッタ371-1を透過し、マスタECU311により受信される。
 このように、エリアECU312aは、光通信ループの両方の回転方向においてデータの送信が可能である。また、マスタECU311は、エリアECU312aから光通信ループのいずれの回転方向に送信されたデータも受信可能である。一方、エリアECU312b、前エンタテイメントECU313F、及び、後エンタテイメントECU313Bは、エリアECU312aから送信されたデータを受信しない。
 図15に示されるように、エリアECU312bから送信されたデータは、ビームスプリッタ371-3及びビームスプリッタ371-2を透過し、ビームスプリッタ371-1により時計回りの方向に反射される。ビームスプリッタ371-1により反射されたデータは、マスタECU311により受信される。
 図15に示されるように、前エンタテイメントECU313Fから送信されたデータは、ビームスプリッタ371-2により反時計回りの方向に反射される。ビームスプリッタ371-2により反射されたデータは、ビームスプリッタ371-1により時計回りの方向に反射され、マスタECU311により受信される。
 図15に示されるように、後エンタテイメントECU313Bから送信されたデータは、ビームスプリッタ371-3により反時計回りの方向に反射される。ビームスプリッタ371-3により反射されたデータは、ビームスプリッタ371-2を透過し、ビームスプリッタ371-1により時計回りの方向に反射され、マスタECU311により受信される。
 このように、マスタECU311は、エリアECU312b、前エンタテイメントECU313F、及び、後エンタテイメントECU313Bから光通信ループの反時計回りの方向に送信されたデータを受信可能である。
 以上のように、マスタECU311から時計回りの方向に送信されたデータは、全てのECUにより受信されるとともに、マスタECU311に戻って来る。また、マスタECU311から反時計回りの方向に送信されたデータは、光通信ループ内のエリアECU312aにより受信されるとともに、マスタECU311に戻って来る。
 従って、マスタECU311が同じデータを時計回り及び反時計回りに送信することにより、光通信ループにおいて断線等の異常が発生しても、エリアECU312aが、確実にマスタECU311からデータを受信することが可能になる。また、マスタECU311は、送信したデータが戻って来るか否かにより、光通信ループの異常を検出することができる。
 エリアECU312aから送信されたデータは、送信方向に関わらず、マスタECU311のみにより受信される。
 従って、エリアECU312aが同じデータを時計回り及び反時計回りに送信することにより、光通信ループにおいて断線等の異常が発生しても、マスタECU311が、確実にエリアECU312aからデータを受信することが可能になる。
 エリアECU312b、前エンタテイメントECU313F、及び、後エンタテイメントECU313Bからそれぞれ送信されたデータは、マスタECU311からデータを受信する方向とは逆方向に伝送され、マスタECU311のみにより受信される。
 例えば、非冗長系ネットワークのいずれかのECUが、バグ等により全帯域を占有するようなデータ送信を行った場合、光通信ループにおいて反時計回りの指向性のデータの伝送が困難になるおそれがある。一方、光通信ループにおいて、指向性が異なる時計回りのデータの伝送は継続可能である。従って、例えば、マスタECU311とエリアECU312aとは、時計回りのデータを用いて通信を継続することが可能である。
  <マスタECU311の構成例>
 図16は、マスタECU311の構成例を示している。
 マスタECU311は、SoC401、光電変換素子402A、及び、光電変換素子402Bを備える。
 SoC401は、光電変換素子402Aを介して光ケーブル321Aに接続され、光電変換素子402Bを介して光ケーブル321Bに接続されている。
 SoC401は、光電変換素子402A及び光ケーブル321Aを介して、外部とデータの送受信が可能である。SoC401は、光電変換素子402B及び光ケーブル321Bを介して、外部とデータの送受信が可能である。従って、SoC401は、2系統の光通信経路を介してデータの送受信が可能である。
  <エリアECU312aの構成例>
 図17は、エリアECU312aの構成例を示している。
 エリアECU312aは、SoC421、光電変換素子422A、光電変換素子422B、ビームスプリッタ423A、及び、ビームスプリッタ423Bを備える。
 SoC421は、光電変換素子422A及びビームスプリッタ423Aを介して、光ケーブル321Aに接続されている。SoC421は、光電変換素子422B及びビームスプリッタ423Bを介して、光ケーブル321Bに接続されている。すなわち、エリアECU312aは、光通信経路の系統毎に光電変換素子及びビームスプリッタを備える。
 SoC421から光電変換素子422Aを介して出力されたデータは、ビームスプリッタ423Aにより反射され、光ケーブル321Aに入力される。
 SoC421から光電変換素子422Bを介して出力されたデータは、ビームスプリッタ423Bにより反射され、光ケーブル321Bに入力される。
 光ケーブル321AからエリアECU312aに入力されたデータは、ビームスプリッタ423Aを透過するとともに、ビームスプリッタ423Aにより反射される。ビームスプリッタ423Aを透過したデータは、さらにビームスプリッタ423Bを透過し、光ケーブル321Bに入力される。ビームスプリッタ423Aにより反射されたデータは、光電変換素子422Aを介して、SoC421に入力される。
 光ケーブル321BからエリアECU312aに入力されたデータは、ビームスプリッタ423Bを透過するとともに、ビームスプリッタ423Bにより反射される。ビームスプリッタ423Bを透過したデータは、さらにビームスプリッタ423Aを透過し、光ケーブル321Aに入力される。ビームスプリッタ423Bにより反射されたデータは、光電変換素子422Bを介して、SoC421に入力される。
 このように、エリアECU312aは、光ケーブル321Aを含む光通信経路、及び、光ケーブル321Bを含む光通信経路の2系統の光通信経路を介してデータを送受信することが可能である。また、エリアECU312aは、光ケーブル321Aを含む光通信経路から受信したデータを、そのまま透過し、光ケーブル321Bを含む光通信経路に転送することが可能である。同様に、エリアECU312aは、光ケーブル321Bを含む光通信経路から受信したデータを、そのまま透過し、光ケーブル321Aを含む光通信経路に転送することが可能である。
  <エリアECU312bの構成例>
 図18は、エリアECU312bの構成例を示している。
 エリアECU312bは、SoC451及び光電変換素子452を備える。
 SoC451は、光電変換素子452を介して、光ケーブル321に接続されている。
 SoC451から光電変換素子452を介して出力されたデータは、光ケーブル321に入力される。また、光ケーブル321から入力されたデータは、光電変換素子452を介してSoC451に入力される。
  <エンタテイメントECU313の構成例>
 図19は、エンタテイメントECU313の構成例を示している。
 エンタテイメントECU313は、SoC471及び光電変換素子472を備える。エンタテイメントECU313は、エリアECU312bと同様の構成を備える。
 SoC471は、光電変換素子472を介して、光ケーブル321Aに接続されている。
 光ケーブル321A乃至光ケーブル321Cは、それぞれビームスプリッタ371に接続されている。
 SoC461から光電変換素子472を介して光ケーブル321Aに出力されたデータは、ビームスプリッタ371に入力される。ビームスプリッタ371に入力されたデータは、光ケーブル321Bの方向に反射され、光ケーブル321Bに入力される。
 光ケーブル321Bからビームスプリッタ371に入力されたデータは、ビームスプリッタ371を透過するとともに、ビームスプリッタ371により反射される。ビームスプリッタ371を透過したデータは、そのまま光ケーブル321Cに入力される。ビームスプリッタ371により反射されたデータは、光ケーブル321A及び光電変換素子462を介して、SoC461に入力される。
 光ケーブル321Cからビームスプリッタ371に入力されたデータは、ビームスプリッタ371を透過し、そのまま光ケーブル321Bに入力される。
 このように、エンタテイメントECU313は、光ケーブル321Bを含む光通信経路のみにデータを送信することが可能である。また、エンタテイメントECU313は、光ケーブル321Bを含む光通信経路からのみデータを受信することが可能である。
 なお、光ケーブル321Bを含む光通信経路から受信したデータは、一部がそのまま光ケーブル321Cを含む光通信経路に転送される。光ケーブル321Cを含む光通信経路から入力されたデータは、そのまま光ケーブル321Bを含む光通信経路に転送される。
  <EUCの構成例>
 図20のA乃至Cは、マスタECU311、エリアECU312、及び、エンタテイメントECU313に適用可能なECUの構成例を示している。
 図20のAのECU501aは、SoC511、光電変換素子512、及び、電気ケーブル513を備える。
 SoC511と光電変換素子512とは、電気ケーブル513を介して接続されている。光電変換素子512は、光ケーブル321に接続されている。
 ECU501aでは、内部の通信が電気信号により実行される。また、SoC511は、電気信号により情報処理を実行する。
 図20のBのECU501bは、SoC531及び光電変換素子532を備える。
 SoC531は、光電変換素子532に直接接続されている。光電変換素子512は、光ケーブル321に接続されている。
 ECU501bでは、内部の通信が光信号により実行される。また、SoC531は、電気信号により情報処理を実行する。
 図20のCのECU501cは、SoC551を備える。
 SoC551は、光ケーブル321に直接接続されている。SoC531は、光信号により情報処理を実行する。すなわち、ECU501cは、全ての情報処理を光信号により実行する。
  <情報処理システム301の第6の実施の形態>
 図21は、本技術を適用した情報処理システム301の第6の実施の形態である情報処理システム301fの構成例を示している。なお、図中、図11の情報処理システム301dと対応する部分には、同じ符号を付しており、その説明は適宜省略する。
 情報処理システム301fは、情報処理システム301dと比較して、前エリアECU312F、左エリアECU12L、右エリアECU312R、及び、後エリアECU312Bの代わりに、左前エリアECU312FL、右前エリアECU312FR、左後エリアECU312BL、及び、右後エリアECU312BRを備える点が異なる。
 左前エリアECU312FLは、例えば、車両1のエンジンルーム内の左前方に配置される。左前エリアECU312FLは、車両1の左前方に配置されたセンサ類であって、主に車両1の左前方の左前エリアA11FLのセンシングを実行するセンサ類の制御を統合して実行する。左前エリアA11FLは、車両1の左前方の270度以上の領域をカバーする。
 右前エリアECU312FRは、例えば、車両1のエンジンルーム内の右前方に配置される。右前エリアECU312FRは、車両1の右前方に配置されたセンサ類であって、主に車両1の右前方の右前エリアA11FRのセンシングを実行するセンサ類の制御を統合して実行する。右前エリアA11FRは、車両1の右前方の270度以上の領域をカバーする。
 左後エリアECU312BLは、例えば、車両1の左後方に配置される。左後エリアECU312BLは、車両1の左後方に配置されたセンサ類であって、主に車両1の左後方の左後エリアA11BLのセンシングを実行するセンサ類の制御を統合して実行する。左後エリアA11BLは、車両1の左後方の270度以上の領域をカバーする。
 右後エリアECU312BRは、例えば、車両1の右後方に配置される。右後エリアECU312BRは、車両1の右後方に配置されたセンサ類であって、主に車両1の右後方の右後エリアA11BRのセンシングを実行するセンサ類の制御を統合して実行する。右後エリアA11BRは、車両1の右後方の270度以上の領域をカバーする。
 左前エリアECU312FL、マスタECU311、及び、右後エリアECU312BRが光ケーブル321Aを介して接続されている。すなわち、車両1のほぼ対角線上に配置されている左前エリアECU312FL及び右後エリアECU312BRが、第1の光通信経路を介して、マスタECU311に接続されている。後エンタテイメントECU313Bは、光ケーブル321A及び図示せぬビームスプリッタを介して、第1の光通信経路に接続されている。
 右前エリアECU312FR、マスタECU311、及び、左後エリアECU312BLが光ケーブル321Bを介して接続されている。すなわち、車両1のほぼ対角線上に配置されている右前エリアECU312FR及び左後エリアECU312BLが、第2の光通信経路を介して、マスタECU311に接続されている。
 ゲートウエイECU314は、電気ケーブル322を介して、左前エリアECU312FL及び右前エリアECU312FRに接続されている。すなわち、ゲートウエイECU314は、2系統の電気通信経路を介して情報処理システム301fに接続されている。
 以上のように、車両1の対角線上に存在するエリアECU312が、ペアとして同じ光通信経路に接続されている。すなわち、左前エリアECU312FL及び右後エリアECU312BRが、ペアとして同じ光通信経路に接続されている。右前エリアECU312FR及び左後エリアECU312BLが、ペアとして同じ光通信経路に接続されている。
 このように、各エリアECU312が、2系統の光通信経路により、Xレイアウト状に配置され、冗長化されている。これにより、例えば、一方の光通信経路に異常が発生しても、片方の光通信経路を用いて、車両1の全方位のセンシングを継続し、自動運転を継続することが可能になる。
 例えば、光ケーブル321Bに異常が発生しても、左前エリアECU312FL及び右後エリアECU312BRを用いて、車両1の左前方及び右後方を含む全方位のセンシングを継続し、自動運転を継続することが可能になる。例えば、光ケーブル321Aに異常が発生しても、右前エリアECU312FR及び左後エリアECU312BLを用いて、車両1の右前方及び左後方を含む全方位のセンシングを継続し、自動運転を継続することが可能になる。
 また、各系統の光通信経路毎に、各エリアECU312が使用する波長を設定することができる。すなわち、異なる光通信経路間で、同じ波長を使用することができる。
 例えば、左前エリアECU312FLが、R波長を使用し、右後エリアECU312BRが、B波長を使用する。また、右前エリアECU312FRが、R波長を使用し、左後エリアECU312BLが、B波長を使用する。これにより、車両1全体で使用する波長の種類を削減することができる。
  <情報処理システム301の追加方法>
 次に、図22を参照して、情報処理システム301の追加方法について説明する。
 例えば、上述した自動運転機能やエンタテイメント機能を提供する情報処理システム301は、車両に後から追加(アドオン)する形式で提供されることが想定される。
 例えば、販売済みの車両に情報処理システム301を追加することにより、販売済みの車両に、自動運転機能やエンタテイメント機能を後から追加することが可能になる。
 例えば、情報処理システム301の有無により、車両のグレードを分類することが想定される。例えば、自動運転機能やエンタテイメント機能を備えない下位のグレードの車両に、情報処理システム301を設けず、自動運転機能やエンタテイメント機能を備える上位のグレードの車両に、情報処理システム301を設けることが想定される。これにより、基本のシステムを共有しつつ、情報処理システムの有無により、車両のグレードを変更することが可能になる。
 図22は、既存の車両制御システム601に、情報処理システム301を追加する方法の一例を示している。なお、図中、図6の情報処理システム301aと対応する部分には同じ符号を付しており、その説明は適宜省略する。
 車両制御システム601は、パワープラント系ネットワーク611、ボディ系ネットワーク612、及び、ゲートウエイECU613を備える。
 パワープラント系ネットワーク611は、従来の電気通信を主体としたCAN等のネットワークにより構成される。パワープラント系ネットワーク611においては、エンジンECU621及びブレーキECU622が、電気ケーブル641を介して接続されている。また、パワープラント系ネットワーク611は、電気ケーブル641を介して、ゲートウエイECU613に接続されている。
 エンジンECU621は、車両1のエンジンを制御する。ブレーキECU622は、車両1のブレーキを制御する。
 ボディ系ネットワーク612は、従来の電気通信を主体としたCAN等のネットワークにより構成される。ボディ系ネットワーク612においては、ボディECU631及びナビオーディオECU632が、電気ケーブル642を介して接続されている。また、ボディ系ネットワーク612は、電気ケーブル642を介して、ゲートウエイECU613に接続されている。
 ボディECU631は、車両1のボディ系システムを制御する。ナビオーディオECU632は、車両1のナビゲーションシステム及びオーディオシステムを制御する。
 車両制御システム601と情報処理システム301とは、例えば、電気ケーブル602を介して接続される。具体的には、車両制御システム601のゲートウエイECU613と、情報処理システム301のゲートウエイECU314とが、電気ケーブル602を介して接続される。これにより、ゲートウエイECU613及びゲートウエイECU314の調停処理により、車両制御システム601と情報処理システム301との間で、データの送受信が可能になる。
 このように、既存の車両制御システム601に情報処理システム301を追加することが可能になる。
 <<4.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
 上述した図3から明らかなように、マスタECU311から各エリアECU312への制御データの伝送量は小さくなる。従って、例えば、マスタECU311と各エリアECU312との間を電気ケーブルにより接続し、マスタECU311が、電気通信経路を介して各エリアECU312に制御データを送信するようにしてもよい。
 同様に、上述した図3から明らかなように、各エンタテイメントECU313からマスタECU311への制御データの伝送量は小さくなる。従って、例えば、マスタECU311と各エンタテイメントECU313との間を電気ケーブルにより接続し、各エンタテイメントECU313が、電気通信経路を介してマスタECU311に制御データを送信するようにしてもよい。
 以上では、情報処理システム301の各ECUが光ケーブル321を介して接続される例を示したが、各ECUからの先の回路では、伝送されるデータ量や、要求される伝送速度や遅延時間等に基づいて、CAN、LIN、LAN、FlexRay、イーサネット等の通信方式が使い分けられる。
 上述した例以外にも、各ECUは、適宜統合して1つにまとめてもよい。
 例えば、OBD(On-Board Diagnostics、車載式故障診断装置)を車両1に接続する場合、各ECUからの情報が集約されるマスタECU311又はゲートウエイECU314に接続できるようにすることが望ましい。
 例えば、本技術は、車両以外の移動体であって、エリア毎に設けられたセンサ類を用いてエリア毎にセンシングを行う移動体に適用できる。
 <<5.その他>>
  <コンピュータの構成例>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ1000において、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、及びドライブ1010が接続されている。
 入力部1006は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記憶部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
 以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記憶部1008に記録されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ1000では、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
  <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 移動体に設けられ、それぞれ複数の機能を制御する複数の統合ECU(Electronic Control Unit)を備え、
 各前記統合ECUが光通信経路を介して接続され、少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続されている
 情報処理システム。
(2)
 前記統合ECUは、
  前記移動体の所定のエリア毎に設けられ、各前記エリアに配置されているセンサ類の制御をそれぞれ統合して実行する複数のエリアECUと、
  前記光通信経路を介して、各前記エリアECUから前記センサ類のセンサデータを受信し、受信した前記センサデータに基づく処理を実行するマスタECUと
 を備える
 前記(1)に記載の情報処理システム。
(3)
 前記マスタECU、及び、少なくとも一部の前記エリアECUは、ループ状の前記光通信経路である光通信ループに接続され、前記光通信ループの両方の回転方向においてデータの送受信が可能であり、
 前記光通信ループの両端が、前記マスタECUに接続されている
 前記(2)に記載の情報処理システム。
(4)
 前記光通信ループに接続されている前記エリアECUは、前記光通信ループの両方の回転方向にデータを送信するとともに、前記光通信ループの一方から受信したデータを他方に転送する
 前記(3)に記載の情報処理システム。
(5)
 前記光通信ループが前記移動体のエンジンルーム内で閉じている
 前記(3)又は(4)に記載の情報処理システム。
(6)
 前記光通信ループに接続されている前記エリアECUのうち少なくとも1つが、前記移動体のルーフに配置されている
 前記(3)乃至(5)のいずれかに記載の情報処理システム。
(7)
 前記マスタECUは、さらに電気通信経路を介して前記エリアECUに接続され、前記電気通信経路を介して制御データを前記エリアECUに送信する
 前記(2)乃至(6)のいずれかに記載の情報処理システム。
(8)
 前記移動体のほぼ第1の対角線上に配置されている前記エリアECUが、第1の光通信経路を介して前記マスタECUに接続され、前記移動体のほぼ第2の対角線上に配置されている前記エリアECUが、第2の光通信経路を介して前記マスタECUに接続されている
 前記(2)に記載の情報処理システム。
(9)
 各前記エリアECUは、それぞれ異なる波長で前記センサデータを前記マスタECUに送信する
 前記(2)乃至(8)のいずれかに記載の情報処理システム。
(10)
 前記マスタECUは、前記移動体の状態に基づいて、各前記エリアECUの前記センサデータの送信を制御する
 前記(9)に記載の情報処理システム。
(11)
 前記マスタECUは、送信を停止した前記センサデータの波長により、前記光通信経路を介して、前記移動体内におけるエンタテイメント用のコンテンツデータを送信する
 前記(10)に記載の情報処理システム。
(12)
 前記光通信経路を介して前記マスタECUに接続され、前記コンテンツデータに基づいて、前記エンタテイメントに関する処理を制御するエンタテイメントECUを
 さらに備える前記(11)に記載の情報処理システム。
(13)
 前記エンタテイメントECUは、さらに電気通信経路を介して前記マスタECUに接続され、前記電気通信経路を介して制御データを前記マスタECUに送信する
 前記(12)に記載の情報処理システム。
(14)
 2以上の前記統合ECUが、ループ上の前記光通信経路である光通信ループに接続され、前記光通信ループの両方の回転方向においてデータの送受信が可能である
 前記(1)に記載の情報処理システム。
(15)
 前記統合ECUの一部が、光ケーブル及びビームスプリッタを介して前記光通信ループに接続され、前記光通信ループの所定の回転方向のみにデータを送信し、前記光通信ループにおいて前記所定の回転方向と逆方向に送信されるデータのみを受信する
 前記(14)に記載の情報処理システム。
(16)
 2系統以上の電気通信経路を介して前記統合ECUに接続され、複数系統の通信ネットワーク間の調停処理を実行するゲートウエイECUを
 さらに備える前記(1)乃至(15)のいずれかに記載の情報処理システム。
(17)
 前記ゲートウエイECUは、各前記統合ECUが前記光通信経路を介して接続されている第1の通信ネットワークを、前記移動体内の第2の通信ネットワークに接続する
 前記(16)に記載の情報処理システム。
(18)
 2系統以上の前記光通信経路に接続されている前記統合ECUは、系統毎にビームスプリッタ及び光電変換素子を備える
 前記(1)に記載の情報処理システム。
(19)
 移動体において、複数の機能をそれぞれ制御する複数の統合ECUが光通信経路を介して接続され、
 少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続され、2系統以上の前記光通信経路を介してデータの送受信を行う
 通信方法。
(20)
 それぞれ複数の機能を制御する複数の統合ECUを備え、
 各前記統合ECUが光通信経路を介して接続され、少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続されている
 移動体。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 1 車両, 11 車両制御システム, 51 カメラ, 52 レーダ, 53 LiDAR, 54 超音波センサ, 301,301a乃至301f 情報処理システム, 311 マスタECU, 312,312a,312b エリアECU, 312F 前エリアECU, 312FL 左前エリアECU, 312FR 右前エリアECU, 312L 左エリアECU, 312R 右エリアECU, 312BL 左後エリアECU, 312BR 右後エリアECU, 312B 後エリアECU, 313 エンタテイメントECU, 313F 前エンタテイメントECU, 313B 後エンタテイメントECU, 314 ゲートウエイECU, 321 光ケーブル, 322 電気ケーブル, 371-1乃至371-3 ビームスプリッタ, 401 SoC, 402A,402B 光電変換素子, 431 SoC, 432A,432B 光電変換素子, 433A,433B ビームスプリッタ, 451 SoC, 452 光電変換素子, 471 SoC, 472 光電変換素子

Claims (20)

  1.  移動体に設けられ、それぞれ複数の機能を制御する複数の統合ECU(Electronic Control Unit)を備え、
     各前記統合ECUが光通信経路を介して接続され、少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続されている
     情報処理システム。
  2.  前記統合ECUは、
      前記移動体の所定のエリア毎に設けられ、各前記エリアに配置されているセンサ類の制御をそれぞれ統合して実行する複数のエリアECUと、
      前記光通信経路を介して、各前記エリアECUから前記センサ類のセンサデータを受信し、受信した前記センサデータに基づく処理を実行するマスタECUと
     を備える
     請求項1に記載の情報処理システム。
  3.  前記マスタECU、及び、少なくとも一部の前記エリアECUは、ループ状の前記光通信経路である光通信ループに接続され、前記光通信ループの両方の回転方向においてデータの送受信が可能であり、
     前記光通信ループの両端が、前記マスタECUに接続されている
     請求項2に記載の情報処理システム。
  4.  前記光通信ループに接続されている前記エリアECUは、前記光通信ループの両方の回転方向にデータを送信するとともに、前記光通信ループの一方から受信したデータを他方に転送する
     請求項3に記載の情報処理システム。
  5.  前記光通信ループが前記移動体のエンジンルーム内で閉じている
     請求項3に記載の情報処理システム。
  6.  前記光通信ループに接続されている前記エリアECUのうち少なくとも1つが、前記移動体のルーフに配置されている
     請求項3に記載の情報処理システム。
  7.  前記マスタECUは、さらに電気通信経路を介して前記エリアECUに接続され、前記電気通信経路を介して制御データを前記エリアECUに送信する
     請求項2に記載の情報処理システム。
  8.  前記移動体のほぼ第1の対角線上に配置されている前記エリアECUが、第1の光通信経路を介して前記マスタECUに接続され、前記移動体のほぼ第2の対角線上に配置されている前記エリアECUが、第2の光通信経路を介して前記マスタECUに接続されている
     請求項2に記載の情報処理システム。
  9.  各前記エリアECUは、それぞれ異なる波長で前記センサデータを前記マスタECUに送信する
     請求項2に記載の情報処理システム。
  10.  前記マスタECUは、前記移動体の状態に基づいて、各前記エリアECUの前記センサデータの送信を制御する
     請求項9に記載の情報処理システム。
  11.  前記マスタECUは、送信を停止した前記センサデータの波長により、前記光通信経路を介して、前記移動体内におけるエンタテイメント用のコンテンツデータを送信する
     請求項10に記載の情報処理システム。
  12.  前記光通信経路を介して前記マスタECUに接続され、前記コンテンツデータに基づいて、前記エンタテイメントに関する処理を制御するエンタテイメントECUを
     さらに備える請求項11に記載の情報処理システム。
  13.  前記エンタテイメントECUは、さらに電気通信経路を介して前記マスタECUに接続され、前記電気通信経路を介して制御データを前記マスタECUに送信する
     請求項12に記載の情報処理システム。
  14.  2以上の前記統合ECUが、ループ上の前記光通信経路である光通信ループに接続され、前記光通信ループの両方の回転方向においてデータの送受信が可能である
     請求項1に記載の情報処理システム。
  15.  前記統合ECUの一部が、光ケーブル及びビームスプリッタを介して前記光通信ループに接続され、前記光通信ループの所定の回転方向のみにデータを送信し、前記光通信ループにおいて前記所定の回転方向と逆方向に送信されるデータのみを受信する
     請求項14に記載の情報処理システム。
  16.  2系統以上の電気通信経路を介して前記統合ECUに接続され、複数系統の通信ネットワーク間の調停処理を実行するゲートウエイECUを
     さらに備える請求項1に記載の情報処理システム。
  17.  前記ゲートウエイECUは、各前記統合ECUが前記光通信経路を介して接続されている第1の通信ネットワークを、前記移動体内の第2の通信ネットワークに接続する
     請求項16に記載の情報処理システム。
  18.  2系統以上の前記光通信経路に接続されている前記統合ECUは、系統毎にビームスプリッタ及び光電変換素子を備える
     請求項1に記載の情報処理システム。
  19.  移動体において、複数の機能をそれぞれ制御する複数の統合ECUが光通信経路を介して接続され、
     少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続され、2系統以上の前記光通信経路を介してデータの送受信を行う
     通信方法。
  20.  それぞれ複数の機能を制御する複数の統合ECUを備え、
     各前記統合ECUが光通信経路を介して接続され、少なくとも一部の前記統合ECUが2系統以上の前記光通信経路に接続されている
     移動体。
PCT/JP2023/036690 2022-10-26 2023-10-10 情報処理システム、通信方法、及び、移動体 WO2024090195A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-171114 2022-10-26
JP2022171114 2022-10-26

Publications (1)

Publication Number Publication Date
WO2024090195A1 true WO2024090195A1 (ja) 2024-05-02

Family

ID=90830675

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/036690 WO2024090195A1 (ja) 2022-10-26 2023-10-10 情報処理システム、通信方法、及び、移動体

Country Status (1)

Country Link
WO (1) WO2024090195A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57208746A (en) * 1981-06-18 1982-12-21 Toyota Motor Corp Transmission controlling system
JPS59154838A (ja) * 1983-02-23 1984-09-03 Sumitomo Electric Ind Ltd 伝送制御方式
JPH04353045A (ja) * 1991-05-29 1992-12-08 Honda Motor Co Ltd 自動車における電装品の制御システム
JPH05235870A (ja) * 1992-02-19 1993-09-10 Nippondenso Co Ltd 車両用多重通信システム
JP2006339985A (ja) * 2005-06-01 2006-12-14 Xanavi Informatics Corp 車載通信システム
WO2017222074A1 (ja) * 2016-06-24 2017-12-28 矢崎総業株式会社 車両用回路体
WO2021192674A1 (ja) * 2020-03-25 2021-09-30 住友電気工業株式会社 光コネクタ、光ハーネスおよび車載通信システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57208746A (en) * 1981-06-18 1982-12-21 Toyota Motor Corp Transmission controlling system
JPS59154838A (ja) * 1983-02-23 1984-09-03 Sumitomo Electric Ind Ltd 伝送制御方式
JPH04353045A (ja) * 1991-05-29 1992-12-08 Honda Motor Co Ltd 自動車における電装品の制御システム
JPH05235870A (ja) * 1992-02-19 1993-09-10 Nippondenso Co Ltd 車両用多重通信システム
JP2006339985A (ja) * 2005-06-01 2006-12-14 Xanavi Informatics Corp 車載通信システム
WO2017222074A1 (ja) * 2016-06-24 2017-12-28 矢崎総業株式会社 車両用回路体
WO2021192674A1 (ja) * 2020-03-25 2021-09-30 住友電気工業株式会社 光コネクタ、光ハーネスおよび車載通信システム

Similar Documents

Publication Publication Date Title
KR20190056800A (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2021241189A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2020116194A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
WO2020241303A1 (ja) 自動走行制御装置、および自動走行制御システム、並びに自動走行制御方法
CN115520198A (zh) 图像处理方法、系统和车辆
WO2022158185A1 (ja) 情報処理装置、情報処理方法、プログラムおよび移動装置
WO2022004423A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2024090195A1 (ja) 情報処理システム、通信方法、及び、移動体
WO2022239319A1 (ja) 通信装置、通信方法、及び、車両
WO2022190624A1 (ja) 情報処理システム、情報処理方法、プログラム、及び、クラスタシステム
WO2024062976A1 (ja) 情報処理装置及び情報処理方法
WO2023106235A1 (ja) 情報処理装置、情報処理方法、および車両制御システム
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2023145460A1 (ja) 振動検出システムおよび振動検出方法
WO2023074419A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2023054090A1 (ja) 認識処理装置、認識処理方法、および認識処理システム
WO2023007785A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023021756A1 (ja) 情報処理システム、情報処理装置、及び情報処理方法
WO2023149089A1 (ja) 学習装置、学習方法及び学習プログラム
WO2023063145A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20240019539A1 (en) Information processing device, information processing method, and information processing system
WO2024043053A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20240054897A1 (en) Information processing device, information processing method, program, mobile device, and information processing system
WO2024062842A1 (ja) 固体撮像装置
WO2023171401A1 (ja) 信号処理装置、信号処理方法、および記録媒体