WO2023276816A1 - データ処理方法、および通信システム - Google Patents

データ処理方法、および通信システム Download PDF

Info

Publication number
WO2023276816A1
WO2023276816A1 PCT/JP2022/024888 JP2022024888W WO2023276816A1 WO 2023276816 A1 WO2023276816 A1 WO 2023276816A1 JP 2022024888 W JP2022024888 W JP 2022024888W WO 2023276816 A1 WO2023276816 A1 WO 2023276816A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
vehicle
unit
processing method
input
Prior art date
Application number
PCT/JP2022/024888
Other languages
English (en)
French (fr)
Inventor
正俊 小見山
敬介 西尾
繁 梶岡
真紀子 田内
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to CN202280046981.6A priority Critical patent/CN117597904A/zh
Priority to JP2023531861A priority patent/JPWO2023276816A1/ja
Publication of WO2023276816A1 publication Critical patent/WO2023276816A1/ja
Priority to US18/397,364 priority patent/US20240127637A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/565Conversion or adaptation of application format or content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/10Detection; Monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/24Negotiation of communication capabilities

Definitions

  • the present disclosure relates to a data processing method and a communication system executed by an in-vehicle device unit.
  • Patent Literature 1 discloses a technology that is an in-vehicle device mounted on a vehicle and collects data related to the vehicle from within the vehicle and uploads it to a predetermined server.
  • the data uploaded from the onboard device to the server is raw data whose meaning cannot be understood from the data itself. For this reason, it is necessary to process the raw data so that the meaning of the raw data can be understood on the server side.
  • One aspect of the present disclosure is to reduce the processing load on the server side in technology for collecting vehicle data. Also, the function or performance of the vehicle-mounted device may be expanded with a low development load.
  • a third process is performed to convert the data after the second process into data whose meaning can be understood without comparing it with other data. Furthermore, the data after the third processing is provided to the server.
  • the input I/F 155A in the embodiment corresponds to the acquisition section in the present disclosure
  • the filtering sections 20B and 156B in the embodiment correspond to the first processing section in the present disclosure
  • the standardization units 20C and 156C in the embodiment correspond to the second processing unit in the present disclosure
  • the normalization unit 20D in the embodiment corresponds to the third processing unit in the present disclosure
  • the communication unit 13 in the embodiment corresponds to the providing unit in the present disclosure.
  • the functions of the filtering units 20B and 156B correspond to the first processing in the present disclosure
  • the functions of the standardization units 20C and 156C correspond to the second processing in the present disclosure. Equivalent to.
  • the function of the normalization unit 20D corresponds to the third process in the present disclosure
  • the function of the structuring unit 20E corresponds to the fourth process in the present disclosure.
  • the functions of the determination units 20A and 156A correspond to the functions of determining the capability of the vehicle-mounted device in the present disclosure.
  • the communication unit 213 corresponds to the relay unit in the present disclosure.
  • the mobility IoT system 1 of this embodiment includes a plurality of data collection devices 2, a management center 3, and a service providing server 4, as shown in FIG. IoT is an abbreviation for Internet of Things.
  • the data collection device 2 is mounted on the vehicle and has a function of performing data communication with the management center 3 via the wide area wireless communication network NW.
  • the management center 3 is a device that manages the mobility IoT system 1.
  • the management center 3 has a function of performing data communication with the plurality of data collecting devices 2 and the service providing server 4 via the wide area wireless communication network NW.
  • the service providing server 4 is, for example, a server installed to provide a service for managing vehicle operation.
  • the mobility IoT system 1 may include a plurality of service providing servers with different service contents.
  • the data collection device 2 includes a main body portion 2A, which is the main body portion of the vehicle-mounted device, and an expansion unit 2B detachably attached to the main body portion 2A.
  • a plurality of expansion units 2B may be provided as shown in FIG.
  • the extension unit 2B is configured to be electrically connectable to and detachable from the main body 2A mounted on the vehicle using connectors 150A to 190A.
  • the main unit 2A includes a microcomputer 11, a vehicle interface (hereinafter referred to as vehicle I/F) 12, a communication unit 13, and a storage unit 14, as shown in FIG.
  • vehicle I/F vehicle interface
  • storage unit 14 as shown in FIG.
  • the microcomputer 11 includes a first core 21, a second core 22, a ROM 23, a RAM 24, a flash memory 25, an input/output section 26, and a bus 27.
  • the microcomputer 11 Various functions of the microcomputer 11 are realized by the first core 21 and the second core 22 executing a program stored in a non-transitional material recording medium.
  • the ROM 23 corresponds to a non-transitional substantive recording medium storing programs. Also, by executing this program, a method corresponding to the program is executed. Part or all of the functions executed by the first core 21 and the second core 22 may be configured in hardware by one or a plurality of ICs or the like.
  • the flash memory 25 is a data rewritable nonvolatile memory.
  • the flash memory 25 includes a standardized vehicle data storage section 25A for storing standardized vehicle data, which will be described later.
  • the input/output unit 26 is a circuit for inputting/outputting data between the outside of the microcomputer 11 and the first core 21 and the second core 22 .
  • the bus 27 connects the first core 21, the second core 22, the ROM 23, the RAM 24, the flash memory 25, and the input/output unit 26 so that data can be input/output to each other.
  • the communication unit 13 performs data communication with the management center 3 via the wide area wireless communication network NW.
  • the storage unit 14 is a storage device for storing various data.
  • the vehicle I/F 12 is an input/output circuit for inputting/outputting signals between the electronic control unit and sensors mounted on the vehicle.
  • Vehicle I/F 12 includes a power supply voltage input port, a general-purpose input/output port, a CAN communication port, an Ethernet communication port, and the like.
  • a CAN communication port is a port for transmitting and receiving data according to the CAN communication protocol.
  • the Ethernet communication port is a port for transmitting and receiving data based on the Ethernet communication protocol.
  • CAN is an abbreviation for Controller Area Network. CAN is a registered trademark. Ethernet is a registered trademark.
  • An expansion unit 2B is connected to the CAN communication port and the Ethernet communication port as described later, and another electronic control device mounted on the vehicle is connected via the expansion unit 2B.
  • the main unit 2A of the data collection device 2 can transmit and receive communication frames to and from other electronic control devices.
  • Each port of the vehicle I/F 12 has a plurality of connectors 125A to 125G connectable to the expansion unit 2B, as shown in FIG. Different expansion units 2B can be connected to the connectors 125A to 125G. Further, the vehicle I/F 12 is configured to be able to communicate with a communication protocol preset for each of the connectors 125A-125G.
  • the expansion unit 2B has a function for expanding or enhancing the functions and performance of the main body 2A.
  • the expansion unit 2B has a function that the main unit 2A does not have, or a function that takes part of the processing performed in the main unit 2A to increase the speed of the main unit 2A by providing resources for the main unit 2A. .
  • the expansion unit 2B is electrically arranged between the vehicle I/F 12 and the vehicle-side device 2C.
  • the vehicle I/F 12 can acquire data from the vehicle-side device 2C via the extension unit 2B, and in particular, can collect data to be transmitted to the management center 3 via the extension unit 2B. Moreover, the vehicle I/F 12 can transmit data to the vehicle-side device 2C via the expansion unit 2B.
  • the data collection device 2 includes a vehicle expansion unit 150, a sensor expansion unit 160, a display expansion unit 170, a USB expansion unit 180, and a network expansion unit 190 as expansion units 2B.
  • a vehicle expansion unit 150 a sensor expansion unit 160
  • a display expansion unit 170 a USB expansion unit 180
  • a network expansion unit 190 as expansion units 2B.
  • many expansion units 150 to 190 are provided, but the number and type of expansion units 150 to 190 to be provided can be arbitrarily set according to the type and grade of the vehicle. Therefore, the main body part 2A can function as the data collection device 2 without the expansion unit 2B.
  • the vehicle expansion unit 150 includes on-vehicle device side connectors 150A and 150B and device side connectors 150C to 150H.
  • the on-vehicle-side connectors 150A and 150B are connectors on the side connected to the main body 2A
  • the device-side connectors 150C to 150H are connectors on the side connected to the vehicle-side device 2C.
  • the vehicle extension unit 150 communicates with other electronic control units arranged in the vehicle via the equipment-side connectors 150C to 150H, and receives data obtained from the vehicle-side equipment 2C located inside the vehicle as input data. and That is, the vehicle extension unit 150 uses vehicle data for controlling the vehicle as input data.
  • the vehicle expansion unit 150 has a function of transmitting and receiving data to and from the main unit 2A via the vehicle-mounted device side connectors 150A and 150B.
  • the in-vehicle device side connector 150A is a connector compatible with the Ethernet communication protocol, and configured to be connectable with the connector 125A on the vehicle I/F 12 side.
  • the in-vehicle device side connector 150B is a connector corresponding to CAN, GPIO, and UART communication protocols, and is configured to be connectable with the connector 125B on the vehicle I/F 12 side.
  • GPIO means a general-purpose IO port and is an abbreviation for General Purpose Input/Output.
  • UART is an abbreviation for Universal Asynchronous Receiver/Transmitter.
  • the device-side connector 150C is a connector compatible with the UART communication protocol.
  • the device-side connector 150D is a connector compatible with the Ethernet communication protocol.
  • the device-side connector 150E is a connector compatible with the GPIO communication protocol.
  • the device-side connector 150F is a connector compatible with the CAN communication protocol.
  • the device-side connector 150G is a connector compatible with the CAN FD communication protocol.
  • the device-side connector 150H is a connector compatible with the LIN communication protocol. Note that these device-side connectors 150C to 150H may be configured to be accommodated in one connector case.
  • CAN FD is an abbreviation for CAN with Flexible Data Rate.
  • LIN is an abbreviation for Local Interconnect Network.
  • the in-vehicle device side connector 160A of the sensor expansion unit 160 is a connector compatible with UART and Ethernet communication protocols, and is configured to be connectable with the connector 125C on the vehicle I/F 12 side.
  • the display expansion unit 170 includes an in-vehicle device side connector 170A and a device side connector 170B.
  • the display expansion unit 170 is connected to the vehicle I/F 12 via the vehicle-mounted device side connector 170A.
  • the display expansion unit 170 is connected to the display 175 via the equipment side connector 170B.
  • the display expansion unit 170 receives display data such as video as input data.
  • the in-vehicle device side connector 170A is compatible with, for example, LVDS format video data
  • the device side connector 170B is compatible with, for example, HDMI format video data.
  • HDMI is a registered trademark.
  • Display expansion unit 170 converts the format of video data sent from vehicle I/F 12 and outputs the data to display 175 .
  • the expansion unit 2B may have a data conversion function or a communication protocol conversion function like the display expansion unit 170 does.
  • the network expansion unit 190 includes an in-vehicle device side connector 190A, a Bluetooth antenna 195A, a WiFi antenna 195B, and a cellular antenna 195C.
  • Bluetooth and WiFi are registered trademarks.
  • the in-vehicle device side connector 190A is a connector compatible with communication protocols of PCI express (Peripheral Component Interconnect Express), USB, and UART.
  • a plurality of output lines included in the vehicle-mounted device connector 190A may be provided so as to correspond to the data received from each of the antennas 195A, 195B, and 195C. Also, one output line may be provided for outputting the data received from each antenna 195A, 195B, 195C.
  • the management center 3 includes a control unit 31, a communication unit 32, and a storage unit 33, as shown in FIG.
  • the storage unit 33 is a storage device for storing various data.
  • the main body 2A of the data collection device 2 includes a first unit 101 as a functional block realized by the first core 21 executing the program stored in the ROM 23, as shown in FIG.
  • the main unit 2A includes a second unit 102 as a functional block implemented by the second core 22 executing the program stored in the ROM 23 .
  • the second application 106 executes processing related to services provided by the service providing server 4 .
  • the second application 106 is configured to be able to access the standardized vehicle data storage section 25A of the flash memory 25 and refer to the standardized vehicle data in order to execute service-related processing.
  • the method of realizing these elements that make up the management center 3 is not limited to software, and some or all of the elements may be realized using one or more pieces of hardware.
  • the electronic circuit may be realized by a digital circuit including many logic circuits, an analog circuit, or a combination thereof.
  • Mobility GW 111 includes shadow storage unit 112 and vehicle control unit 113 .
  • the shadow storage unit 112 stores a shadow 114 containing data for each vehicle on which the data collection device 2 is mounted.
  • a shadow 114 indicates a group of vehicle data for a certain vehicle.
  • the vehicle control unit 113 has a function of controlling the vehicle on which the data collection device 2 is mounted based on instructions from the service providing server 4 .
  • the vehicle expansion unit 150 is an electronic control device mainly composed of a microcomputer having a CPU 153 and a memory 154 such as ROM and RAM.
  • Various functions of the microcomputer are realized by CPU 153 executing a program stored in a non-transitional substantive recording medium.
  • the memory 154 corresponds to a non-transitional substantive recording medium storing programs. Also, by executing this program, a method corresponding to the program is executed.
  • a part or all of the functions executed by the CPU 153 may be configured as hardware using one or a plurality of ICs or the like.
  • the number of microcomputers provided in the vehicle expansion unit 150 may be one or more.
  • Functions executed by the CPU 153 include an input I/F 155A, an output I/F 155B, a determination section 156A, a filtering section 156B, and a standardization section 156C.
  • the vehicle expansion unit 150 includes a plurality of input lines 152C-152H, a plurality of output lines 151A-151F, and at least one connector 150A-190A.
  • Input lines 152C to 152H are provided for each communication protocol of data to be handled, and data is input. Note that, in the present embodiment, even when a plurality of wirings are required for one communication protocol, the plurality of wirings are referred to as one input line. The same applies to output lines.
  • the input lines 152C-152H are wires connected to the device-side connectors 150C-150H.
  • the input line 152C is wiring corresponding to UART.
  • the input line 152D is a wiring compatible with Ethernet.
  • the input line 152E is a wiring corresponding to GPIO.
  • the input line 152F is wiring corresponding to CAN.
  • the input line 152G is a wiring corresponding to CAN FD.
  • the input line 152H is a wiring corresponding to LIN.
  • the output lines 151B to 151F are wires that are collectively connected to the in-vehicle device side connector 150B.
  • the output line 151B is wiring for a battery power supply.
  • the output line 151C is wiring for an ignition power supply.
  • the output line 151D is a communication line for CAN communication.
  • the output line 151E is a communication line for GPIO communication.
  • the output line 151F is a communication line for UART communication.
  • the vehicle-mounted device side connector 150B may be provided for each of the output lines 151A to 151F. Also, one of the output lines 151B to 151F may be unconnected.
  • the vehicle expansion unit 150 is connected to the vehicle I/F 12 through both connectors 150A and 150B.
  • the number of input lines 152C to 152H to which data is transmitted is set smaller than the number of output lines 151A and 151D to 151F to which data are transmitted.
  • Vehicle extension unit 150 may be connected to vehicle I/F 12 through only one of connectors 150A and 150B. Vehicle extension unit 150 may also include only one of connectors 150A and 150B.
  • the input line is for each protocol or data type, for example, one for JPEG, Two lines, one for GIF and the other for GIF, may be arranged.
  • the input lines may be divided for each type of data.
  • two USB connection lines, one for JPEG and one for GIF may be arranged.
  • the expansion unit 2B performs image recognition on JPEG and GIF image data and forms them in the standard format for target information, the output data is only target information, so the output line is 1. can be a book. That is, the number of output lines is smaller than the number of input lines for the same type of input data. Any communication protocol may be used for this single output line.
  • data input from one or more input lines using different communication protocols may be configured to be output from one output line.
  • the data received by the CAN FD input line may be converted into CAN format and output from the CAN output line.
  • CAN input data and CAN FD input data can be output from the same CAN output line, and the number of output lines is smaller than the number of input lines.
  • MPEG image data when MPEG image data is input to the expansion unit 2B, only one input line for MPEG can be arranged. In the expansion unit 2B, this input line can be branched into two. One of the output lines can be used to output the MPEG image data itself from the output line. The other one of the output lines can be used for image recognition by the expansion unit 2B and for outputting target information in a standard format. That is, there are more output lines than input lines for the same kind of input data.
  • data input from one communication protocol may be configured to be branched and output from two output lines.
  • one of the output lines can be used to output the CAN input data itself.
  • the other output line can be used to normalize the input data in the expansion unit 2B and output the normalized data.
  • the main unit 2A of the data collection device 2 includes a determination unit 20A, a filtering unit 20B, a standardization unit 20C, and a normalization unit as functions executed by the first unit 101 or the second unit 102. 20D, with a structured portion 20E. Either the first unit 101 or the second unit 102 may perform these functions.
  • the determination unit 156A, the filtering unit 156B, and the standardization unit 156C of the vehicle expansion unit 150 are configured to perform predetermined processing on the input data and output output data based on the input data from the output lines 151A to 151F. be done.
  • the output data may be data after processing by the filtering unit 156B or the like, or may be the input data itself.
  • the determination unit 20A, the filtering unit 20B, and the standardization unit 20C included in the main unit 2A have the same functions as the determination unit 156A, the filtering unit 156B, and the standardization unit 156C included in the vehicle expansion unit 150. explain.
  • determination units 20A and 156A Upon receiving data from vehicle I/F 12 or input I/F 155A, determination units 20A and 156A recognize the communication protocol of the data based on the communication ports that received the data, that is, connectors 150C to 150H. Specifically, for example, when data is received at a CAN communication port (eg, input line 152F), the determination units 20A and 156A recognize that the communication protocol of the received data is CAN. For example, when data is received at an Ethernet communication port (for example, input line 152D), the determination units 20A and 156A recognize that the communication protocol of the received data is Ethernet.
  • a CAN communication port eg, input line 152F
  • Ethernet communication port for example, input line 152D
  • the judging section 156A of the vehicle expansion unit 150 judges the capabilities of the main body section 2A, that is, the processing that the main body section 2A can execute, based on the communication protocol, the types of the connectors 150A to 190A, and the like. This is because whether the processing should be performed by the vehicle expansion unit 150 or the processing by the main body 2A is set depending on whether the main body 2A has sufficient capability.
  • the determination unit 156A of the vehicle expansion unit 150 determines that the main unit 2A has the preset capability
  • the determination unit 156A of the vehicle expansion unit 150 directly converts the received data to the main unit 2A without performing thinning, protocol conversion, or the like on the data. transfer to the output I/F 155B so as to transmit to .
  • the determination unit 156A of the vehicle expansion unit 150 determines what kind of processing is to be performed on the input data based on the filtering table 8 shown in FIG.
  • vehicle expansion unit 150 upon receiving data from connectors 150C-E and 150G-H having communication ports other than CAN, in other words, data is received from connectors 150C-E and 150G-H having communication ports other than CAN. implement.
  • vehicle expansion unit 150 when data is received from connector 150F having a CAN communication protocol, in other words, a CAN communication port, processing in later-described filtering section 156B and standardization section 156C is not performed.
  • the CAN frame consists of a start of frame, an arbitration field, a control field, a data field, a CRC field, an ACK field and an end of frame.
  • the arbitration field consists of an 11-bit or 29-bit identifier (that is, ID) and a 1-bit RTR bit.
  • CANID the 11-bit identifier used in CAN communication.
  • the CANID is set in advance based on the content of data included in the CAN frame, the source of the CAN frame, the destination of the CAN frame, and the like.
  • processing is performed as follows.
  • the sensor extension unit 160 receives data from a connector having a UART communication protocol, in other words, a UART communication port
  • the data is processed by a filtering unit 156B and a standardization unit 156C, which will be described later.
  • sensor extension unit 160 receives data from a connector having an Ethernet communication protocol, in other words, an Ethernet communication port
  • it does not perform processing in filtering section 156B and standardization section 156C, which will be described later.
  • the data input from the Ethernet input line is directly output from the output line.
  • the display expansion unit 170 and the USB expansion unit 180 do not perform processing in the later-described filtering section 156B and standardization section 156C, regardless of the type of data to be handled. That is, the data input from the input line is directly output from the output line.
  • the network expansion unit 190 performs processing in the later-described filtering section 156B and standardization section 156C regardless of the type of data to be handled.
  • the vehicle expansion unit 150 does not perform filtering when data is received using the CAN communication protocol. In this case, since CAN data has already been received, conversion into CAN data by standardization unit 156C is not performed either. However, the filtering unit 156B may perform a process of extracting only CAN data of a preset type from the input data.
  • the filtering section of the sensor expansion unit 160 receives data using the UART communication protocol, it performs processing set according to the data type.
  • the sensor extension unit 160 performs image recognition based on the input data and extracts target object information as a recognition result. Specifically, for example, from binary data consisting only of 0 and 1, edges that serve as boundaries of brightness on the image are extracted, and the shapes, sizes, etc. of the edges are used to determine whether objects in the image are people, things, vehicles, or signs. etc. It should be noted that the sensor extension unit 160 may only perform conversions that reduce the resolution of the image, such as conversions that reduce the number of pixels per frame.
  • the sensor extension unit 160 When receiving voice data, the sensor extension unit 160 performs voice recognition based on the input data and extracts text data as a recognition result. It should be noted that the sensor extension unit 160 may only perform conversions that reduce the resolution, eg, bitrate, of the audio.
  • the standardized data includes, for example, an ID indicating the data type, data length information, actual data (i.e., payload), and error correction code, and each data has a common data format, that is, a common data format.
  • the target information that is the recognition result is stored in the payload.
  • the normalization information includes setting items such as "CANID”, "ECU", “position”, “DLC”, "unique label”, “resolution”, “offset” and “unit”. Prepare. "Unique label” and "ECU” are as described above.
  • Data type "data size” and “data unit” indicate the type, size and unit of the numerical value indicated by the "data value”.
  • Energy which is an item in the first hierarchy, is a category name indicating energy information, and includes "battery state”, “battery configuration”, and "fuel” as items in the second hierarchy.
  • Vehicle identification information which is an item of the second hierarchy, has “vehicle identification number”, “vehicle number”, and “license plate” as items of the third hierarchy.
  • the first process can be omitted according to the types of the connectors 150A-190A.
  • the extension unit 2B can determine the capability of the main body 2A according to the types of the connectors 150A-190A.
  • the data after data structuring can be provided to the management center 3.
  • the obstacle data can be converted into the obstacle recognition result and then output to the main unit 2A. Therefore, processing by the main body 2A can be reduced as compared with the case where the processing is performed by the main body 2A.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Small-Scale Networks (AREA)

Abstract

通信機を介してクラウドサーバと通信可能な車載機(2A)と、前記車載機に対して着脱自在に構成された拡張ユニット(2B)とを備える車載機ユニット(2)が実行するデータ処理方法である。データ処理方法では、入力データの提供元となる提供元機器から前記入力データを取得し(L11,L15)、前記入力データに対して、よりデータ量が少なくなるような処理である第1処理を実施し(L13,L22)、前記第1処理後のデータを、予め設定された形式のデータに変換する第2処理を実施し(L14,L23)、前記第2処理後のデータを、正規化データに変換する第3処理を実施し(L16,L24)、前記第3処理後のデータに基づいて、車両データをクラウドサーバに提供する(L31)。

Description

データ処理方法、および通信システム 関連出願の相互参照
 本国際出願は、2021年7月2日に日本国特許庁に出願された日本国特許出願第2021-110910号に基づく優先権を主張するものであり、日本国特許出願第2021-110910号の全内容を本国際出願に参照により援用する。
 本開示は、車載機ユニットが実行するデータ処理方法、および通信システムに関する。
 下記特許文献1には、車両に搭載される車載機であって、車両内から車両に関するデータを収集し、所定のサーバにアップロードする技術が開示されている。
特開2018-060520号公報
 しかしながら、発明者の詳細な検討の結果、上記の車載機からサーバにアップロードされるデータは、データ自体からは意味が理解できない生データであると推定される。このため、サーバ側で生データの意味が理解できるように処理する必要があり、サーバでの処理負荷が大きいという課題が見出された。
 本開示の1つの局面は、車両のデータを収集する技術において、サーバ側での処理負荷を軽減できるようにすることにある。また、低開発負荷で車載機の機能或いは性能を拡張できるようにしてもよい。
 本開示の一態様は、車両に搭載される車載機と、車載機に対して着脱自在に構成された複数の拡張ユニットとを備える車載機ユニットが実行するデータ処理方法である。
 データ処理方法では、入力データの提供元となる提供元機器から入力データを取得する。そして、入力データに対して、よりデータ量が少なくなるような処理である第1処理を実施する。さらに、第1処理後のデータを、予め設定された形式のデータに変換する第2処理を実施する。
 さらに、第2処理後のデータを、他データと比較することなく意味が理解できるデータに変換する第3処理を実施する。さらに、第3処理後のデータをサーバに提供する。
 このような方法によれば、第1処理、第2処理、および第3処理を経て、意味が理解できるデータに変換されたデータをサーバに提供することができる。よって、サーバで第1処理から第3処理までを実施する場合と比較して、サーバでの処理負荷を軽減することができる。また、拡張ユニットを備えているので、拡張ユニットを車載機に接続するだけで、車載機に新たな機能を追加することができる。
モビリティIoTシステムの構成を示すブロック図である。 データ収集装置の構成を示すブロック図である。 拡張ユニットおよび車両側機器の構成を示すブロック図である。 管理センターの構成を示すブロック図である。 データ収集装置の機能的な構成を示す機能ブロック図である。 管理センターの機能的な構成を示す機能ブロック図である。 本体部および車両拡張ユニットの機能的な構成を示す機能ブロック図である。 フィルタリングテーブルの一例を示す説明図である。 CANフレームの構成を示す図である。 データ変換テーブルの構成を示す図である。 標準化車両データの第1階層と、データフォーマットとを示す図である。 標準化車両データの構成を示す図である。 標準化車両データの第1の作成手順を示すシーケンス図である。 標準化車両データの第2の作成手順を示すシーケンス図である。 車両に搭載されるECUの接続状態を示すブロック図である。 車両拡張ユニットが実行するデータ作成処理を示すフローチャートである。 本体部が実行するデータ作成処理を示すフローチャートである。
 以下、図面を参照しながら、本開示の実施形態を説明する。
 [1-1.実施形態の構成と本開示の構成との関係]
 実施形態におけるモビリティIoTシステム1は、本開示での通信システムに相当する。また、データ収集装置2は、本開示での車載機ユニットに相当し、実施形態における本体部2Aは、本開示での車載機に相当する。また、実施形態における他のECU、レーダ165、カメラ166,185、マイク167,187、加速度センサ168、ディスプレイ175、GPS186、タッチパネル188、スピーカ189、アンテナ195A~195Cは、本開示での提供元機器に相当する。
 また、実施形態における入力I/F155Aは、本開示での取得部に相当し、実施形態におけるフィルタリング部20B,156Bは、本開示での第1処理部に相当する。また、実施形態における標準化部20C,156Cは、本開示での第2処理部に相当し、実施形態における正規化部20Dは、本開示での第3処理部に相当する。また、実施形態における通信部13は、本開示での提供部に相当する。
 また、データ収集装置2が実現する機能のうち、フィルタリング部20B,156Bの機能は、本開示での第1処理に相当し、標準化部20C,156Cの機能は、本開示での第2処理に相当する。また、正規化部20Dの機能は、本開示での第3処理に相当し、構造化部20Eの機能は、本開示での第4処理に相当する。また、判定部20A,156Aの機能は、本開示での車載機の能力を判定する機能に相当する。また、通信部213は、本開示での中継部に相当する。
 [1-2.構成]
 以下に本開示の実施形態を図面とともに説明する。
 本実施形態のモビリティIoTシステム1は、図1に示すように、複数のデータ収集装置2と、管理センター3と、サービス提供サーバ4とを備える。IoTは、Internet of Thingsの略である。
 データ収集装置2は、車両に搭載され、広域無線通信網NWを介して、管理センター3とデータ通信を行う機能を有する。
 管理センター3は、モビリティIoTシステム1を管理する装置である。管理センター3は、広域無線通信網NWを介して、複数のデータ収集装置2およびサービス提供サーバ4との間でデータ通信を行う機能を有する。
 サービス提供サーバ4は、例えば、車両の運行を管理するサービスを提供するために設置されたサーバである。なお、モビリティIoTシステム1は、サービス内容が互いに異なる複数のサービス提供サーバを備えてもよい。
 データ収集装置2は、図2に示すように、車載機の本体部分である本体部2Aと、本体部2Aに対して着脱自在に構成された拡張ユニット2Bとを備える。図2では1つの拡張ユニット2Bを図示しているが、図3に示すように、複数個の拡張ユニット2Bが備えられていてもよい。拡張ユニット2Bは、車両に搭載される本体部2Aに対して、コネクタ150A~190Aを用いて電気的に接続および分離可能に構成される。
 本体部2Aは、図2に示すように、マイクロコンピュータ11と、車両インタフェース(以下、車両I/F)12と、通信部13と、記憶部14とを備える。
 マイクロコンピュータ11は、第1コア21と、第2コア22と、ROM23と、RAM24と、フラッシュメモリ25と、入出力部26と、バス27とを備える。
 マイクロコンピュータ11の各種機能は、第1コア21および第2コア22が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、ROM23が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、第1コア21および第2コア22が実行する機能の一部または全部を、1つあるいは複数のIC等によりハードウェア的に構成してもよい。
 フラッシュメモリ25は、データ書き換え可能な不揮発性メモリである。フラッシュメモリ25は、後述する標準化車両データを格納する標準化車両データ格納部25Aを備える。
 入出力部26は、マイクロコンピュータ11の外部と第1コア21および第2コア22との間でデータの入出力を行わせるための回路である。
 バス27は、第1コア21、第2コア22、ROM23、RAM24、フラッシュメモリ25および入出力部26を、互いにデータ入出力可能に接続する。
 通信部13は、広域無線通信網NWを介して、管理センター3とデータ通信を行う。
 記憶部14は、各種データを記憶するための記憶装置である。
 車両I/F12は、車両に搭載された電子制御装置およびセンサ等との間で信号の入出力を行わせるための入出力回路である。車両I/F12は、電源電圧入力ポート、汎用入出力ポート、CAN通信ポートおよびイーサネット通信ポートなどを備える。CAN通信ポートは、CAN通信プロトコルに従ってデータの送受信を行うためのポートである。イーサネット通信ポートは、イーサネット通信プロトコルに基づいてデータの送受信を行うためのポートである。CANは、Controller Area Networkの略である。CANは登録商標である。イーサネットは登録商標である。
 CAN通信ポートおよびイーサネット通信ポートには、後述するように拡張ユニット2Bが接続され、拡張ユニット2Bを介して、車両に搭載された他の電子制御装置が接続される。これにより、データ収集装置2の本体部2Aは、他の電子制御装置との間で通信フレームの送受信を行うことができる。
 車両I/F12が備える各ポートは、図3に示すように、拡張ユニット2Bと接続可能な複数のコネクタ125A~125Gを備える。複数のコネクタ125A~125Gには、それぞれ異なる拡張ユニット2Bを接続可能である。また、車両I/F12は、コネクタ125A~125G毎に予め設定された通信プロトコルで通信可能に構成される。
 拡張ユニット2Bは、本体部2Aの機能および性能を拡張または増強させるための機能を備える。例えば、拡張ユニット2Bは、本体部2Aが備えない機能、或いは本体部2Aにて実施される処理の一部を担うことで本体部2Aのリソースに余裕を持たせ高速化させる機能、等を備える。
 拡張ユニット2Bは、電気的に、車両I/F12と、車両側機器2Cとの間に配置される。車両I/F12は、拡張ユニット2Bを介して車両側機器2Cからデータを取得することができ、特に、拡張ユニット2Bを介して管理センター3に送信すべきデータを収集することができる。また、車両I/F12は、拡張ユニット2Bを介して車両側機器2Cに対してデータを送信することができる。
 詳細には、データ収集装置2は、図3に示すように、拡張ユニット2Bとして、車両拡張ユニット150、センサ拡張ユニット160、ディスプレイ拡張ユニット170、USB拡張ユニット180、ネットワーク拡張ユニット190、を備える。なお、図3に示す例では、多くの拡張ユニット150~190を備えるが、車両の種別やグレードに応じて、備えられる拡張ユニット150~190の数や種別は任意に設定できる。よって、本体部2Aは、拡張ユニット2Bを備えていなくても、データ収集装置2として機能することができる。
 車両拡張ユニット150は、車載機側コネクタ150A,150Bと、機器側コネクタ150C~150Hと、を備える。車載機側コネクタ150A,150Bは、本体部2Aと接続される側のコネクタであり、機器側コネクタ150C~150Hは、車両側機器2Cと接続される側のコネクタである。車両拡張ユニット150は、機器側コネクタ150C~150Hを介して、車両内に配置された他の電子制御装置と通信を行い、当該車両の内部に位置する車両側機器2Cから得られるデータを入力データとする。即ち、車両拡張ユニット150は、車両を制御するための車両データを入力データとする。
 また、車両拡張ユニット150は、車載機側コネクタ150A,150Bを介して本体部2Aとのデータの送受信を行う機能を備える。車載機側コネクタ150Aはイーサネットの通信プロトコルに対応するコネクタであり、車両I/F12側のコネクタ125Aと結合可能に構成される。車載機側コネクタ150BはCAN、GPIO、UARTの通信プロトコルに対応するコネクタであり、車両I/F12側のコネクタ125Bと結合可能に構成される。
 なお、GPIOは、汎用IOポートを意味し、General Purpose Input/Outputの略である。また、UARTは、Universal Asynchronous Receiver/Transmitterの略である。
 機器側コネクタ150CはUARTの通信プロトコルに対応するコネクタである。機器側コネクタ150Dはイーサネットの通信プロトコルに対応するコネクタである。機器側コネクタ150EはGPIOの通信プロトコルに対応するコネクタである。機器側コネクタ150FはCANの通信プロトコルに対応するコネクタである。機器側コネクタ150GはCAN FDの通信プロトコルに対応するコネクタである。機器側コネクタ150HはLINの通信プロトコルに対応するコネクタである。なお、これら機器側コネクタ150C~150Hを1つのコネクタケースに収容するよう構成してもよい。
 なお、CAN FDは、CAN with Flexible Data Rateの略である。また、LINは、Local Interconnect Networkの略である。
 センサ拡張ユニット160は、車載機側コネクタ160Aと、機器側コネクタ160B~160Eと、を備える。センサ拡張ユニット160は、車載機側コネクタ160Aを介して車両I/F12に接続される。センサ拡張ユニット160は、機器側コネクタ160B~160Eを介して、レーダ165、カメラ166、マイク167、および加速度センサ168と接続される。機器側コネクタ160Aは、UART、イーサネット、USBなどの通信プロトコルに対応するコネクタである。センサ拡張ユニット160は、物体または事象を検知するためのセンシングデータを入力データとする。
 センサ拡張ユニット160の車載機側コネクタ160Aは、UARTおよびイーサネットの通信プロトコルに対応するコネクタであり、車両I/F12側のコネクタ125Cと結合可能に構成される。
 センサ拡張ユニット160は、機器側コネクタ160B~160Eを介して、レーダ165、カメラ166、マイク167、および加速度センサ168から得られたデータを取得し、所定の処理を実施する。そして処理後のデータを、車載機側コネクタ150A,150Bを介して車両I/F12に送信する。
 ディスプレイ拡張ユニット170は、車載機側コネクタ170Aと、機器側コネクタ170Bと、を備える。ディスプレイ拡張ユニット170は、車載機側コネクタ170Aを介して車両I/F12に接続される。ディスプレイ拡張ユニット170は、機器側コネクタ170Bを介して、ディスプレイ175と接続される。ディスプレイ拡張ユニット170は、映像等の表示データを入力データとする。
 車載機側コネクタ170Aは、例えばLVDS形式の映像データに対応し、機器側コネクタ170Bは、例えばHDMI形式の映像データに対応する。HDMIは登録商標である。ディスプレイ拡張ユニット170は、車両I/F12から送られてくる映像データの形式を変換してディスプレイ175に出力する。つまり、拡張ユニット2Bは、ディスプレイ拡張ユニット170のように、データを変換する機能、或いは通信プロトコルを変換する機能を備えてもよい。
 USB拡張ユニット180は、車載機側コネクタ180Aと、機器側コネクタ180B~180Fと、を備える。USB拡張ユニット180は、車載機側コネクタ180Aを介して車両I/F12に接続される。USB拡張ユニット180は、機器側コネクタ180B~180Fを介して、カメラ185、GPSアンテナ186、マイク187、タッチパネル188、およびスピーカ189と接続される。USB拡張ユニット180は、USB規格のデータを入力データとする。
 USB拡張ユニット180の車載機側コネクタ180Aは、USB規格の通信プロトコルに対応するコネクタであり、車両I/F12側のコネクタ125Eまたは125Fと結合可能に構成される。図3の例では、車載機側コネクタ180Aはコネクタ125Fと結合し、コネクタ125Eは何れの拡張ユニット150~190にも接続されていない未接続の状態である。
 コネクタ125EにはUSB規格のコネクタを有する他の拡張ユニットを接続することができる。
 USB拡張ユニット180は、機器側コネクタ180B~180Fを介して、カメラ185、GPSアンテナ186、マイク187、タッチパネル188、およびスピーカ189から得られたデータを取得し、所定の処理を実施する。そして処理後のデータを、車両側機器車載機側コネクタ180Aを介して車両I/F12に送信する。
 ネットワーク拡張ユニット190は、車載機側コネクタ190Aと、ブルートゥースアンテナ195Aと、WiFiアンテナ195Bと、セルラーアンテナ195Cとを備える。なお、ブルートゥースおよびWiFiは登録商標である。車載機側コネクタ190Aは、PCIexpress(Peripheral Component Interconnect Express)、USB、およびUARTの通信プロトコルに対応するコネクタである。なお、車載機側コネクタ190Aに包含される出力線は、各アンテナ195A、195B、195Cから受信したデータに対応するよう複数設けてもよい。また、各アンテナ195A、195B、195Cから受信したデータを出力するための一つの出力線を設けてもよい。
 ネットワーク拡張ユニット190は、当該車両の外部に位置する所定のサーバ等と通信可能に構成され、車両の外部の通信機器からの得られるデータを入力データとする。ネットワーク拡張ユニット190は、入力データに対する所定の処理を実施し、処理後のデータを、車載機側コネクタ190Aを介して車両I/F12に送信する。
 管理センター3は、図4に示すように、制御部31と、通信部32と、記憶部33とを備える。
 制御部31は、CPU41、ROM42およびRAM43等を備えたマイクロコンピュータを中心に構成された電子制御装置である。マイクロコンピュータの各種機能は、CPU41が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、ROM42が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、CPU41が実行する機能の一部または全部を、1つあるいは複数のIC等によりハードウェア的に構成してもよい。また、制御部31を構成するマイクロコンピュータの数は1つでも複数でもよい。
 通信部32は、広域無線通信網NWを介して、複数のデータ収集装置2およびサービス提供サーバ4との間でデータ通信を行う。
 記憶部33は、各種データを記憶するための記憶装置である。
 データ収集装置2の本体部2Aは、ROM23に格納されたプログラムを第1コア21が実行することにより実現される機能ブロックとして、図5に示すように、第1ユニット101を備える。本体部2Aは、ROM23に格納されたプログラムを第2コア22が実行することにより実現される機能ブロックとして、第2ユニット102を備える。
 第1ユニット101は、リアルタイムオペレーティングシステム(以下、RTOS)103と、第1アプリケーション104とを備える。
 第1アプリケーション104は、車両を制御するための各種処理を実行する。第1アプリケーション104は、車両を制御するための各種処理を実行するために、フラッシュメモリ25の標準化車両データ格納部25Aにアクセスして標準化車両データを参照することが可能に構成されている。
 RTOS103は、第1アプリケーション104による処理のリアルタイム性を確保することができるように、第1アプリケーション104を管理する。第2ユニット102は、汎用オペレーティングシステム(以下、GPOS)105と、第2アプリケーション106とを備える。
 第2アプリケーション106は、サービス提供サーバ4により提供されるサービスに関連した処理を実行する。第2アプリケーション106は、サービスに関連した処理を実行するために、フラッシュメモリ25の標準化車両データ格納部25Aにアクセスして標準化車両データを参照することが可能に構成されている。
 GPOS105は、各種アプリケーションを動作させるためにデータ収集装置2に搭載された基本ソフトウェアであり、第2アプリケーション106を管理する。
 管理センター3は、ROM42に格納されたプログラムをCPU41が実行することにより実現される機能ブロックとして、図6に示すように、車両側ユニット110と、サービス側ユニット120とを備える。
 管理センター3を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部または全部の要素について、1つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、またはアナログ回路、あるいはこれらの組合せによって実現してもよい。
 車両側ユニット110は、車両へのアクセスおよび車両から受信したデータを管理する。車両側ユニット110は、モビリティゲートウェイ(以下、モビリティGW)111を備える。モビリティGW111は、車両へのアクセス要求を車両へ中継する機能の他、車両から受信したデータを管理する機能も有する。
 そしてモビリティGW111は、シャドウ記憶部112と、車両制御部113とを備える。シャドウ記憶部112は、データ収集装置2を搭載する車両毎にデータを収容するシャドウ114を記憶する。シャドウ114は、ある車両の車両データ群を示す。車両制御部113は、サービス提供サーバ4からの指示に基づいて、データ収集装置2を搭載している車両を制御する機能を備える。
 サービス側ユニット120は、サービス提供サーバからの要求を受付けるとともに、車両データの提供を行う。サービス側ユニット120は、データ管理部121と、アクセスAPI122とを備える。APIは、Application Programming Interfaceの略である。
 データ管理部121は、車両の接続状態の変化に依存しない車両アクセスを提供するための仮想空間であるデジタルツイン123を管理する機能を備える。データ管理部121は、車両側ユニット110で管理する車両データへのアクセスに必要なデータを管理する。アクセスAPI122は、サービス提供サーバ4がモビリティGW111およびデータ管理部121へアクセスするための標準インタフェースである。アクセスAPI122は、サービス提供サーバ4に対し、車両へのアクセスや車両データを取得するためのAPIを提供する。
 [1-3.本体部および拡張ユニットの機能]
 次に、本体部2Aと拡張ユニット2Bとが実行する処理について説明する。なお、拡張ユニット2Bについては、拡張ユニット2Bを代表して、車両拡張ユニット150を説明する。他の拡張ユニット160~190については、概ね同様の構成および機能を備えるため、相違点のみ説明する。
 車両拡張ユニット150は、図7に示すように、CPU153、ROMおよびRAM等のメモリ154を備えたマイクロコンピュータを中心に構成された電子制御装置である。マイクロコンピュータの各種機能は、CPU153が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ154が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、CPU153が実行する機能の一部または全部を、1つあるいは複数のIC等によりハードウェア的に構成してもよい。また、車両拡張ユニット150に備えられるマイクロコンピュータの数は1つでも複数でもよい。
 CPU153が実行する機能としては、入力I/F155A、出力I/F155B、判定部156A、フィルタリング部156B、標準化部156C、を備える。
 車両拡張ユニット150は、複数の入力線152C~152Hと、複数の出力線151A~151Fと、少なくとも1つのコネクタ150A~190Aと、を備える。
 入力線152C~152Hは、取り扱うデータの通信プロトコル毎に設けられ、データが入力される。なお、本実施形態では、1つの通信プロトコルに対して複数の配線が必要な場合であっても、複数の配線を1本の入力線と表記する。出力線についても同様である。
 ここで、入力線152C~152Hは、機器側コネクタ150C~150Hに繋がる配線である。特に、入力線152Cは、UARTに対応する配線である。また、入力線152Dは、イーサネットに対応する配線である。また、入力線152Eは、GPIOに対応する配線である。また、入力線152Fは、CANに対応する配線である。また、入力線152Gは、CAN FDに対応する配線である。また、入力線152Hは、LINに対応する配線である。
 出力線151A~151Fは、電源線または出力データの通信プロトコル毎に設けられる通信線として構成される。通信線からはデータが出力される。ここで、出力線151Aは、コネクタ150Aに繋げられる配線である。特に、入力線152Dは、イーサネットに対応する配線であり、コネクタ150Aにて車両I/F12と接続される。ここで、入力線152D上の入力データは、車両拡張ユニット150での処理を介すことなく、出力線151Aに出力される。
 出力線151B~151Fは、まとめて車載機側コネクタ150Bに繋げられる配線である。出力線151Bは、バッテリ電源のための配線である。出力線151Cは、イグニッション電源のための配線である。出力線151Dは、CANで通信するための通信線である。出力線151Eは、GPIOで通信するための通信線である。出力線151Fは、UARTで通信するための通信線である。なお、車載機側コネクタ150Bは、出力線151A~151F毎に設けられてもよい。また、出力線151B~151Fのうち、いずれかが未接続であってもよい。
 ここで、図7に示す例では、車両拡張ユニット150は、コネクタ150Aおよび150Bの両方で車両I/F12に接続される。この結果、データが伝送される入力線152C~152Hの数は、データが伝送される出力線151A,151D~151Fの数よりも少なく設定されている。なお、車両拡張ユニット150は、コネクタ150Aおよび150Bのうちの一方のみで車両I/F12に接続されてもよい。また、車両拡張ユニット150は、コネクタ150Aおよび150Bのうちの一方のみを備えてもよい。
 ここで例えば、車両拡張ユニット150等の拡張ユニット2BにJPEGとGIFとの異なる種別の画像データが入力される場合、入力線は、プロトコルやデータの種別毎、例えば、JPEG用に1本と、GIF用に1本と、の2本配置されるとよい。なお、同じ通信プロトコルのデータであっても、1本の通信線で伝送される必要はない。例えば、データの種別毎に入力線を分けてもよく、例えば、JPEG用のUSB接続線1本と、GIF用のUSB接続線1本と、の2本を配置してもよい。一方で、拡張ユニット2BがJPEGおよびGIFの画像データに対して画像認識をして、物標情報の標準フォーマットに形成する場合、出力されるデータは物標情報のみであるため、出力線は1本とすることができる。つまり、同種の入力データに関し入力線の数よりも出力線の数が少なくなる。ここで、この1本の出力線で利用される通信プロトコルは任意である。
 なお、異なる通信プロトコルを利用する1または複数の入力線から入力されたデータを、1本の出力線から出力するよう構成してもよい。例えば、CANの入力線とCAN FDの入力線とがある場合、CAN FDの入力線により受信したデータをCANフォーマットに変換し、CANの出力線から出力するようにしてもよい。この場合、CANの入力データとCAN FDの入力データとを、同じCANの出力線から出力することができ、入力線の数よりも出力線の数が少なくなる。
 一方で、拡張ユニット2BにMPEGの画像データが入力される場合、入力線はMPEG用の1本のみ配置することができる。拡張ユニット2Bでは、この入力線を、2本に分岐させることができる。出力線の1本は、MPEG画像データそのものを出力線から出力するために利用できる。出力線の他の1本は、拡張ユニット2Bにて画像認識をして物標情報の標準フォーマットを出力するために利用できる。つまり、同種の入力データに関し入力線よりも出力線が多くなる。
 なお、1つの通信プロトコルから入力されたデータを、2本の出力線から分岐して出力するよう構成してもよい。例えば、CANの入力線がある場合、出力線の1本は、CANの入力データそのものを出力するために利用できる。出力線の他の1本は、拡張ユニット2Bにて入力データの正規化を行い、正規化後のデータを出力するために利用できる。
 入力I/F155Aは、入力線152C~152Hから入力されるデータを取得し、メモリ154に格納する。出力I/F155Bは、出力するよう指示を受けたデータを車両I/F12に提供する。
 ここで、データ収集装置2の本体部2Aは、図7に示すように、第1ユニット101或いは第2ユニット102が実行する機能として、判定部20A、フィルタリング部20B、標準化部20C、正規化部20D、構造化部20Eを備える。これらの機能は、第1ユニット101および第2ユニット102のどちらが実行してもよい。
 車両拡張ユニット150の判定部156A、フィルタリング部156B、標準化部156Cは、入力されたデータに対する所定の処理を実施し、入力されたデータに基づく出力データを出力線151A~151Fから出力させるように構成される。なお、出力データは、フィルタリング部156B等の処理後のデータである場合と、入力されたデータそのもののである場合とがある。
 なお、本体部2Aが備える判定部20A、フィルタリング部20B、標準化部20Cは、車両拡張ユニット150が備える判定部156A、フィルタリング部156B、標準化部156C、と同様の機能を備えるため、以下でまとめて説明する。
 [1-3-1.判定部]
 判定部20A,156Aは、車両I/F12または入力I/F155Aからデータを受信すると、データを受信した通信ポート、つまりコネクタ150C~150Hに基づいて、データの通信プロトコルを認識する。具体的には、判定部20A,156Aは、例えば、CAN通信ポート(例えば入力線152F)でデータを受信した場合には、受信したデータの通信プロトコルはCANであると認識する。また判定部20A,156Aは、例えば、イーサネット通信ポート(例えば入力線152D)でデータを受信した場合には、受信したデータの通信プロトコルはイーサネットであると認識する。
 特に、車両拡張ユニット150の判定部156Aは、本体部2Aの能力、すなわち本体部2Aが実行可能な処理を、通信プロトコル、およびコネクタ150A~190Aの種別等によって判定する。本体部2Aに充分な能力があるか否かによって、車両拡張ユニット150で処理を実施すべきか、本体部2Aで処理を実施すべきかを設定するためである。
 車両拡張ユニット150の判定部156Aは、本体部2Aに予め設定された能力があると判定すると、データに対して、間引きおよびプロトコル変換等を実施することなく、受信したそのままのデータを本体部2Aに送信するように出力I/F155Bに転送する。
 より詳細には、車両拡張ユニット150の判定部156Aは、図8に示すようなフィルタリングテーブル8に基づいて、入力されたデータに対してどのような処理を実施するかを決定する。車両拡張ユニット150では、CAN以外の通信プロトコル、換言すれば、CAN以外の通信ポートを有するコネクタ150C~E、150G~Hからデータを受信すると、後述するフィルタリング部156Bおよび標準化部156Cでの処理を実施する。しかし、車両拡張ユニット150では、CANの通信プロトコル、換言すれば、CANの通信ポートを有するコネクタ150Fからデータを受信すると、後述するフィルタリング部156Bおよび標準化部156Cでの処理を実施しない。
 なお、CANフレームは、図9に示すように、スタートオブフレーム、アービトレーションフィールド、コントロールフィールド、データフィールド、CRCフィールド、ACKフィールドおよびエンドオブフレームにより構成されている。なお、アービトレーションフィールドは、11ビットまたは29ビットのアイデンティファイア(すなわち、ID)と1ビットのRTRビットで構成される。
 また、CAN通信で使用する11ビットのアイデンティファイアをCANIDという。CANIDは、CANフレームに含まれるデータの内容、CANフレームの送信元、およびCANフレームの送信先等に基づいて予め設定されている。
 データフィールドは、それぞれ8ビット(すなわち1バイト)の第1データ、第2データ、第3データ、第4データ、第5データ、第6データ、第7データおよび第8データで構成される。以下、データフィールドの第1~8データのそれぞれをCANデータともいう。
 車両拡張ユニット150以外の拡張ユニット2Bでは、例えば、以下のように処理される。センサ拡張ユニット160は、UARTの通信プロトコル、換言すれば、UARTの通信ポートを有するコネクタからデータを受信すると、後述するフィルタリング部156Bおよび標準化部156Cでの処理が実施される。しかし、センサ拡張ユニット160は、イーサネットの通信プロトコル、換言すれば、イーサネットの通信ポートを有するコネクタからデータを受信すると、後述するフィルタリング部156Bおよび標準化部156Cでの処理を実施しない。つまり、イーサネットの入力線から入力されたデータは、そのまま出力線から出力されることとなる。なお、センサ拡張ユニット160では、UARTの通信プロトコルでデータを受信した場合であっても、画像の種別が予め設定された種別である場合には、後述するフィルタリング部156Bおよび標準化部156Cでの処理を省略してもよい。つまり、UARTの入力線から入力された特定の種別の画像データは、そのまま出力線から出力されるよう構成してもよい。
 また、ディスプレイ拡張ユニット170、およびUSB拡張ユニット180は、取り扱うデータの種別によらず、後述するフィルタリング部156Bおよび標準化部156Cでの処理は実施しない。つまり、入力線から入力されたデータがそのまま出力線から出力されることとなる。
 また、ネットワーク拡張ユニット190は、取り扱うデータの種別によらず、後述するフィルタリング部156Bおよび標準化部156Cでの処理を実施する。
 フィルタリング部156Bおよび標準化部156Cでの処理が実施されない旨が決定されたデータは、出力I/F155Bに送られる。
 なお、任意の拡張ユニット2Bにおいて、入力されたデータがそのまま出力線から出力されるように構成される場合であっても、入力線と出力線とが直接結線されるわけではない。入力線と出力線とは、拡張ユニット2Bに備えられるマイコンを介して接続されており、入力されたデータがそのまま出力線から出力される場合、マイコンが入力線から得たデータを処理(変更)することなく、そのまま出力線に出力する。
 なお、本体部2Aの判定部20Aは、拡張ユニット2Bにて、データの種別に応じて、どのような処理を実施すべきかを認識する。例えば、判定部20Aは、拡張ユニット2Bのフィルタリング部156Bおよび標準化部156Cでの処理が実施されていないデータに対して、本体部2Aのフィルタリング部20Bおよび標準化部20Cでの処理を実施するよう設定する。つまり、本実施形態の構成では、本体部2Aまたは拡張ユニット2Bのどちらかで、フィルタリング部20B,156B、標準化部20C,156C、正規化部20D、構造化部20Eによる各処理が実施されるようにしている。
 [1-3-2.フィルタリング部]
 フィルタリング部20B,156Bは、入力されたデータに対して、フィルタリングを実施する。ここで、本実施形態でのフィルタリングとは、入力されたデータに対して、よりデータ量が少なくなるように処理することを示す。
 具体的には、車両拡張ユニット150のフィルタリング部156Bは、図8に示すように、CAN以外の通信プロトコルで受信したデータから、CANIDで特定される必要な種別が対応するデータのみを抽出する。つまり、CAN以外の通信プロトコルを用いている場合でも、CANフレーム相当の通信フレームが入力データとして入力されるため、CANIDで特定される必要な種別に対応するCANフレーム相当を抽出する。例えば、CAN FDやイーサネット等の通信プロトコルにて、車速、位置情報、エンジン回転数などCANIDで特定される車両データが送信される。フィルタリング部156Bは、これらCANIDで特定される車両データのうち、必要なCANIDに対応するデータ(CANフレーム相当)のみを抽出する。なお、車両拡張ユニット150は、CANの通信プロトコルでデータを受信すると、フィルタリングを実施しない。この場合、既にCANデータを受信しているため、標準化部156CによるCANデータへの変換も実施されない。ただし、フィルタリング部156Bは、入力データから予め設定された種別のCANデータのみを抽出する処理を実施してもよい。
 センサ拡張ユニット160のフィルタリング部(以下、センサ拡張ユニット160ともいう)は、UARTの通信プロトコルでデータを受信すると、データ種別に応じて設定された処理を実施する。画像データ、映像データを受信した場合、センサ拡張ユニット160は、入力されたデータに基づいて画像認識を実施し、認識結果として物標情報を抽出する。具体的には、例えば、0と1のみの二値データから、画像上の輝度の境界となるエッジを抽出し、エッジの形状、大きさ等から画像中の物体が人、物、車両、標識等であることを認識する。なお、センサ拡張ユニット160は、画像の解像度を低くする変換、例えば1フレーム当たりの画素数を少なくする変換のみを実施してもよい。
 センサ拡張ユニット160は、音声データを受信した場合、入力されたデータに基づいて音声認識を実施し、認識結果としてのテキストデータを抽出する。なお、センサ拡張ユニット160は、音声の解像度、例えばビットレートを低くする変換のみを実施してもよい。
 センサ拡張ユニット160は、当該車両の周囲の障害物を検知する障害物センサによるセンシングデータを取得した場合、障害物の認識結果を抽出する。センサ拡張ユニット160は、障害物データから少なくとも障害物の位置(例えば、他には障害物の形状、障害物の種別)を認識する。例えば、障害物センサがミリ波レーダ165の場合、センシングデータ(例えば反射波等の生データ)を取得し、物標認識(例えば、物体の座標を認識)することができる。
 ネットワーク拡張ユニット190のフィルタリング部156B(以下、ネットワーク拡張ユニット190ともいう)は、ブルートゥース、WiFi等の無線通信で接続されたスマートフォン等の近距離デバイスから得られるデバイスデータを取得する。ネットワーク拡張ユニット190は、得られたデバイスデータから予め設定されたデバイス(例えば、車両オーナーのスマートフォン)から得られたデバイスデータのみを抽出する。即ち、車両とペアリング可能なデバイスが複数存在した場合、ネットワーク拡張ユニット190は、予め設定されたデバイスから得られたデータのみを中継し、それ以外のデバイスから得られたデータは破棄する。
 ネットワーク拡張ユニット190は、近距離デバイスや、セルラー回線を介してクラウドサーバから得られるクラウドデータを取得し、得られたデータから予め設定されたクラウドサーバから得られたクラウドデータのみを抽出する。即ち、車両と通信可能なクラウドサーバが複数存在した場合、ネットワーク拡張ユニット190は、予め設定されたクラウドサーバから得られたデータのみを中継し、それ以外のクラウドサーバから得られたデータは破棄する。なお、クラウドサーバには、管理センター3が含まれていてもよい。つまり、クラウドサーバは管理センター3とは異なるサーバであってもよい。
 [1-3-3.標準化部]
 標準化部20C,156Cは、フィルタリング部20B,156Bによる処理後のデータを、予め設定された形式のデータに変換する処理である標準化を実施する。標準化はフォーマット化とも呼ばれる。
 標準化部20C,156Cは、本体部2Aで取り扱い可能な形式のデータに変換する。本実施形態では、フィルタリング部20B,156Bによる処理後のデータを、CANフレームに準じたデータ形式に変換する。CANフレームに準じたデータ形式とは、例えば、データ順序はCANフレームと同じ並び順であり、CANフレームからヘッダおよびフッタ等を除いたデータを表す。
 標準化後のデータには、例えば、データ種別を示すID、データ長の情報、実データ(すなわちペイロード)、誤り訂正符号が含まれ、各データは共通のデータ形式、すなわち共通データ形式とされる。例えば、認識した結果である物標情報は、ペイロードに格納される。車両拡張ユニット150等の拡張ユニット2Bの標準化部156Cが、標準化を終了すると、出力I/F155Bが標準化後のデータを車両I/F12に送る。
 なお、出力線151Dへの出力に対してCANフレームに準じたデータ形式への変換を行い、出力線151Eへの出力に対してはGPIOフォーマットへの変換を行い、出力線151Fへの出力に対してはUARTフォーマットへの変換を行ってもよい。
 [1-3-4.正規化部]
 以下で示す、正規化部20Dおよび構造化部20Eは、本体部2Aに備えられる機能である。正規化部20Dは、標準化後のデータを、正規化情報を用いて正規化することで、正規化データを生成する。そして、正規化部20Dは、正規化データを用いて、他データと比較することなく意味が理解できるデータに変換する処理である意味化を実施する。
 正規化部20Dは、正規化情報および意味化情報を用いて処理を行う。図2に示す車両データ変換テーブル23Aは、正規化情報と、意味化情報とを備える。正規化情報は、車種および車両製造企業に関わらず同一の物理量が同一の値になるように抽出データを正規化するための情報である。意味化情報とは、正規化されたデータを用いて、意味のあるデータに変換するための情報(例えば演算式、変換テーブル)である。正規化される前の車両データを用いてもよい。意味化とは、通信フレームのペイロードには無かった情報を、演算式等を用いて新たに生成することを含む。
 正規化情報は、例えば図10に示すように、設定項目として、例えば「CANID」、「ECU」、「ポジション」、「DLC」、「ユニークラベル」、「解像度」、「オフセット」および「単位」を備える。「ユニークラベル」および「ECU」は、上述の通りである。「データ型」、「データサイズ」および「データ単位」は、「データ値」で示される数値に関する型、サイズ、単位を示す。
 「ECU」は、CANフレームの送信元のECUを示す識別情報である。例えば、「ENG」は、エンジンECUであることを示す。
 「ポジション」は、データフィールド内におけるCANデータの位置(例えばビット位置)を示す情報である。「DLC」は、データ長を示す情報である。DLCは、Data Length Codeの略である。つまり、データフィールドの「ポジション」から「DLC」ビット分のデータを取り出すこととなる。
 「ユニークラベル」は、制御ラベルを示す情報である。例えば、「ETHA」は吸気温を示し、「NE1」はエンジン回転数を示す。「解像度」は、1ビット当たりの数値を示す情報である。「オフセット」は当該データの数値のオフセット量を示す。「単位」は当該データの単位を示す。
 したがって、「CANID」、「ECU」、「ポジション」、「DLC」および「ユニークラベル」によって、標準フォーマットデータから、「ユニークラベル」に対応するデータが抽出される。さらに抽出データは、「解像度」、および「オフセット」、「単位」で表されるデータに変換される。
 また、意味化情報は、例えば、図10に示すように、制御ラベルが「SSA」である「操舵移動角度」から、制御ラベルが「SSAZ」である「操舵ゼロ点」を減算することにより「操舵角」に変換する変換式である。これにより、「操舵移動角度」を表すデータと、「操舵ゼロ点」を表すデータとから、「基準位置からの操舵量」という意味を有する「操舵角」を表すデータに変換される。意味化により新たに生成された車両データに対し、「ユニークラベル」、「単位」等を付与する。つまり、意味化されたデータは、他データと比較することなく意味を理解することができる。
 [1-3-5.構造化部]
 構造化部20Eは、意味化されたデータを、予め階層化された各分類に対応付ける処理であるデータ構造化を実施する。この際、構造化部20Eは、意味化されたデータを階層化してフラッシュメモリ25に記憶する。具体的には、構造化部20Eは、変換されたデータを、フラッシュメモリ25に設けられた標準化車両データ格納部25Aの対応領域に格納する。この結果、標準化車両データ格納部25Aは、データを階層化して構成される標準化車両データを格納する。
 標準化車両データは、車両毎(すなわち、データ収集装置2毎)に作成され、複数の階層構造を有している。標準化車両データでは、複数の階層のそれぞれに対して、1または複数の項目が設定されている。例えば、図11に示すように、標準化車両データは、最上位の第1階層に設定される項目として、「属性情報」、「パワトレ」、「エネルギー」、「ADAS/AD」、「ボデー」、「マルチメディア」および「その他」を備える。ADASは、Advanced Driver Assistance Systemの略である。ADは、Autonomous Drivingの略である。これら「属性情報」、「パワトレ」および「エネルギー」等はカテゴリに相当する。
 また各データは、項目として、「ユニークラベル」、「ECU」、「データ型」、「データサイズ」、「データ値」および「データ単位」を備える。
 図12に示すように、標準化車両データは、第1階層に加えて、少なくとも第2階層および第3階層を備える。第2階層は第1階層の直下の階層であり、第3階層は第2階層の直下の階層である。標準化車両データは、階層化構造となるデータ構造を有する。
 例えば、第1階層の項目である「属性情報」は、第2階層の項目として、「車両識別情報」、「車両属性」、「トランスミッション構成」および「ファームウェアバージョン」等を備える。「車両識別情報」は、車両を一意に識別できる情報を示すカテゴリ名である。「車両属性」は、車両の種類を示すカテゴリ名である。「トランスミッション情報」は、トランスミッションに関する情報を示すカテゴリ名である。「ファームウェアバージョン」は、車両のファームウェアに関する情報を示すカテゴリ名である。
 また、第1階層の項目である「パワトレ」は、パワートレーン情報を示すカテゴリ名であり、第2階層の項目として、「アクセルペダル」、「エンジン」および「エンジンオイル」等を備える。
 また、第1階層の項目である「エネルギー」は、エネルギー情報を示すカテゴリ名であり、第2階層の項目として、「バッテリ状態」、「バッテリ構成」および「燃料」等を備える。
 また、第2階層の項目である「車両識別情報」は、第3階層の項目として、「車両識別番号」、「車体番号」および「ナンバープレート」を備える。
 また、第2階層の項目である「車両属性」は、第3階層の項目として、「ブランド名」、「モデル」および「製造年」等を備える。
 また、第2階層の項目である「トランスミッション構成」は、第3階層の項目として、「トランスミッション種別」を備える。
 例えば、第2コア22は、変換されたデータの制御ラベルが「車両識別情報」である場合には、所定の格納領域に、変換されたデータを格納する。所定の格納領域とは、例えば、標準化車両データ格納部25Aにおいて第1階層が「属性情報」であり且つ第2階層が「車両識別情報」であり且つ第3階層が「車両識別番号」である格納領域である。
 [1-4.データ作成手順]
 次に、図13に示すシーケンス図を用いて、データ収集装置2が標準化車両データを作成する手順を説明する。なお、この手順は、例えば所定の周期毎に実施され、この結果、データ収集装置2は、定期的に管理センター3に対してデータを送信することができる。
 矢印L11で示すように、拡張ユニット2Bが車両からデータを取得すると、拡張ユニット2Bは、矢印L12で示すように、判定部156Aは各種判定を行う。各種判定には、フィルタリングテーブル8に基づいてフィルタリングを実施するか否かを判定する処理を含む。CANフレームのように、何も処理を実施する必要がない場合の判定もここで行う。
 拡張ユニット2Bが、フィルタリングテーブル8を参照し、データに対してフィルタリングを実施すると判定した場合には、矢印L13で示すように、フィルタリング部156Bは、フィルタリングテーブル8にて設定された所定のフィルタリングを実施する。なお、拡張ユニット2Bは、データに対してフィルタリングを実施しないと判定した場合には、フィルタリングを省略する。
 続いて、拡張ユニット2Bの標準化部156Cは、矢印L14で示すように、データを標準フォーマットに変換し、矢印L15で示すように、出力I/F155Bが変換後のデータを本体部2Aへ出力する。
 本体部2Aの車両I/F12は、標準フォーマットに変換されたデータを拡張ユニット2Bから取得すると、矢印L21で示すように、判定部20Aが取得したデータに対する各種判定を行う。続いて本体部2Aの正規化部20Dは、矢印L24で示すように、正規化を行う。さらに本体部2Aの構造化部20Eは、矢印L25で示すように、変換したデータを構造化して構造化車両データを作成する。
 その後、本体部2Aは、矢印L31で示すように、構造化車両データを、管理センター3に送信する。
 ところで、矢印L12での判定の結果、拡張ユニット2Bがデータの処理を実施しないと決定されると、矢印L13でのフィルタリングおよび矢印L14での標準フォーマット変換が省略される。この場合、図14に示すように、拡張ユニット2Bの出力I/F155Bはデータをそのまま本体部2Aに送る。
 この場合、本体部2Aは、矢印L21で示す各種判定の後、フィルタリング部20Bは、矢印L22で示すフィルタリングを実施する。続いて、標準化部20Cは、矢印L23で示す標準フォーマット変換を実施する。続いて、正規化部20Dは、矢印L24で示す正規化を実施する。続いて、構造化部20Eは、矢印L25で示すデータ構造化を実施する。
 なお、本体部2Aが実施する矢印L22でのフィルタリングは、拡張ユニット2Bが矢印L13で実施するフィルタリングと同等の処理である。また、本体部2Aが実施する矢印L23での標準フォーマット変換は、拡張ユニット2Bが実施する矢印L13での示す標準フォーマット変換と同等の処理である。また、本体部2Aは、データに対して拡張ユニット2Bがフィルタリングを実施すると判定した場合には、フィルタリングを省略する。
 なお、図13の破線にて示すように、拡張ユニット2Bが矢印L16で示す正規化を実施してもよい。この場合、矢印L17に示すように、正規化後のデータが本体部2Aに送られる。また、拡張ユニット2Bが矢印L18で示すデータ構造化を実施してもよい。この場合、矢印L19に示すように、データ構造化後のデータが本体部2Aに送られる。
 [1-5.効果]
 以上詳述した第1実施形態によれば、以下の効果を奏する。
 (1a)本開示の一態様は、通信機を介してクラウドサーバと通信可能な本体部2Aに対して着脱自在に構成された拡張ユニット2Bである。拡張ユニット2Bは、少なくとも1つの入力線152C~152Hと、少なくとも1つの出力線151A~151Fと、少なくとも1つのコネクタ150A~190Aと、処理部としての、判定部156A、フィルタリング部156B、標準化部156Cと、を備える。
 入力線152C~152Hは、入力データの通信プロトコル毎に設けられ、入力データが入力される。出力線151A~151Fは、出力データの通信プロトコル毎に設けられ、出力データが出力される。コネクタ150A~190Aは、出力線151A~151Fを本体部2Aに接続するように構成される。処理部は、入力データに対する処理を実施し、入力データに基づく出力データを出力線151A~151Fから出力させるように構成される。
 このような構成によれば、拡張ユニット2Bが入力データに対して処理を実施し、コネクタ150A~190Aを介して出力データを本体部2Aに送ることができるので、拡張ユニット2Bを本体部2Aにコネクタ150A~190Aで接続するだけで、本体部2Aに新たな機能を追加することができる。
 また、このような構成によれば、車両毎にハードウェアが有する機能の差異を、拡張ユニットで吸収することできる。例えば、カメラのみを備える車両と、カメラとミリ波レーダとを備える車両等がある場合、本体部2Aは物標情報を受け付けるように構成しておくことができる。この場合、拡張ユニット2Bが、カメラ信号やミリ波信号を処理して、物標情報を出力するようにすれば、本体部2Aは、車両がミリ波レーダを備えるか否かに拘らず、物標情報のみを取得して処理を行うことができる。つまり、本体部2Aは、車両毎の装備の差異に影響を受けにくくすることができる。
 (1b)本開示の一態様では、車両に搭載される本体部2Aと、本体部2Aに対して着脱自在に構成された複数の拡張ユニット2Bとを備えるデータ収集装置2がデータ処理方法を実行する。データ処理方法では、入力データの提供元となる提供元機器から入力データを取得する。そして、入力データに対して、よりデータ量が少なくなるような処理である第1処理を実施する。さらに、第1処理後のデータを、予め設定された形式のデータに変換する第2処理を実施する。
 さらに、第2処理後のデータを、他データと比較することなく意味が理解できるデータに変換する第3処理を実施する。さらに、第3処理後のデータを管理センター3に提供する。
 このような方法によれば、第1処理、第2処理、および第3処理を経て、意味が理解できるデータに変換されたデータを管理センター3に提供することができる。よって、管理センター3で第1処理から第3処理までを実施する場合と比較して、管理センター3での処理負荷を軽減することができる。また、拡張ユニット2Bを備えているので、拡張ユニット2Bを本体部2Aに接続するだけで、本体部2Aに新たな機能を追加することができる。
 (1c)本開示の一態様では、拡張ユニット2Bは、提供元機器から入力データを取得し、第1処理および第2処理を実施する。本体部2Aは、第2処理後のデータを取得し、第3処理を実施し、第3処理後のデータを管理センター3に提供する。提供元機器は、例えば、他のECU、レーダ165、カメラ166,185、マイク167,187、加速度センサ168、ディスプレイ175、GPSアンテナ186、タッチパネル188、スピーカ189、アンテナ195A~195Cの何れかを示す。
 このような方法によれば、拡張ユニット2Bが第1処理および第2処理を実施し、データ量を削減した上で、本体部2Aにデータを提供するので、本体部2Aでの処理負荷を軽減することができる。
 (1d)本開示の一態様では、拡張ユニット2Bは、本体部2Aの能力を、通信プロトコル、コネクタ150A~190Aの種別等によって判定する。拡張ユニット2Bは、本体部2Aに予め設定された能力があると判定すると、入力データに対して第1処理および第2処理を実施しない未処理データを本体部2Aに送信する。拡張ユニット2Bは、本体部2Aに予め設定された能力がないと判定すると、入力データを第1処理および第2処理を実施し、第2処理後のデータを本体部2Aに送信する。
 本体部2Aは、未処理データを受けると、第1処理、第2処理、第3処理を実施し、第3処理後のデータを管理センター3に提供する。また、本体部2Aは、第2処理後のデータを受けると、第3処理を実施し、第3処理後のデータを管理センター3に提供する。
 このような方法によれば、本体部2Aの能力に応じて、拡張ユニット2Bが何れの処理を実施するかを選択することができる。
 (1e)本開示の一態様では、拡張ユニット2Bは、入力データの種別に応じて、第1処理を省略する場合がある。
 このような方法によれば、データ量を減ずる必要が無い場合、或いはデータ量を減じないほうが良い場合等に、第1処理を省略することができる。
 (1f)本開示の一態様では、拡張ユニット2Bは、本体部2Aとの間の通信に用いられる通信プロトコルが予め設定されたプロトコルである場合に、第1処理を省略する。
 このような方法によれば、通信プロトコルに応じて、第1処理を省略することができる。なお、拡張ユニット2Bは、所定の通信プロトコルを利用する場合、本体部2Aの能力が高いと判定できる。
 (1g)本開示の一態様では、拡張ユニット2Bは、本体部2Aとの接続に用いられるコネクタ150A~190Aの種別が予め設定された種別である場合に、第1処理を省略する。
 このような方法によれば、コネクタ150A~190Aの種別に応じて、第1処理を省略することができる。なお、拡張ユニット2Bは、コネクタ150A~190Aの種別に応じて、本体部2Aの能力を判定できる。
 (1h)本開示の一態様では、拡張ユニット2Bは、入力データに含まれる画像の種別が予め設定された種別である場合に、第1処理を省略する。
 このような方法によれば、画像の種別に応じて、第1処理を省略することができる画像の種別によってはデータ量を減じる必要が無い場合があるため、処理の省略が可能となる。
 (1i)本開示の一態様では、第3処理後のデータを、データ構造化する第4処理を実施する。そして、第4処理後のデータを管理センター3に提供する。
 このような方法によれば、データ構造化後のデータを管理センター3に提供することができる。
 (1j)本開示の一態様では、第4処理後のデータを管理センター3に定期的に提供する。
 このような方法によれば、データ構造化後のデータを管理センター3に繰り返し定期的に提供することができる。
 (1k)本開示の一態様では、フィルタリング部156Bは、入力データに対して、よりデータ量が少なくなるような処理である第1処理を実施する。
 このような構成によれば、フィルタリング部156Bが第1処理を実施するので、本体部2Aに送信されるデータ量を減少させることができ、本体部2Aでの処理負荷を軽減することができる。
 (1l)本開示の一態様では、フィルタリング部156Bは、入力データとして、カメラ166,185による撮像データを取得し、第1処理として、撮像データから物体を認識する処理を実施する。
 このような構成によれば、撮像データを物体の認識結果に変換してから本体部2Aに出力できる。よって、本体部2Aで処理を実施する場合と比較して本体部2Aによる処理を軽減することができる。
 (1m)本開示の一態様では、フィルタリング部156Bは、入力データとして音声データを取得し、第1処理として、音声データから音声の内容を認識する処理を実施する。
 このような構成によれば、音声データを音声の認識結果に変換してから本体部2Aに出力できる。よって、本体部2Aで処理を実施する場合と比較して本体部2Aによる処理を軽減することができる。
 (1n)本開示の一態様では、フィルタリング部156Bは、入力データとして、当該車両の周囲の障害物を検知する障害物センサによる障害物データを取得し、第1処理として、障害物データから少なくとも障害物の位置を認識する処理を実施する。
 このような構成によれば、障害物データを障害物の認識結果に変換してから本体部2Aに出力できる。よって、本体部2Aで処理を実施する場合と比較して本体部2Aによる処理を軽減することができる。
 (1o)本開示の一態様では、フィルタリング部156Bは、入力データとして、近距離デバイスから得られるデバイスデータを取得し、第1処理として、入力データから予め設定された近距離デバイスから得られたデバイスデータを抽出する処理を実施する。
 このような構成によれば、予め設定された近距離デバイスから得られたデバイスデータを抽出して本体部2Aに出力できる。よって、本体部2Aへ送信されるデータの通信量を抑制することができる。
 (1p)本開示の一態様では、フィルタリング部156Bは、入力データとして、クラウドサーバから得られるクラウドデータを取得し、第1処理として、入力データから予め設定されたクラウドサーバから得られたクラウドデータを抽出する処理を実施する。
 このような構成によれば、予め設定されたクラウドサーバから得られたクラウドデータを抽出して本体部2Aに出力できる。よって、本体部2Aへ送信されるデータの通信量を抑制することができる。
 (1q)本開示の一態様では、フィルタリング部156Bは、入力データとして、通信プロトコルCANによるCANデータを取得し、第1処理として、入力データから予め設定された種別のCANデータを抽出するCANデータ抽出処理を実施する。
 このような構成によれば、予め設定された種別のCANデータを抽出して本体部2Aに出力できる。よって、本体部2Aへ送信されるデータの通信量を抑制することができる。
 (1r)本開示の一態様では、標準化部156Cは、第1処理後のデータを、本体部2Aで取り扱い可能な予め設定された形式のデータに変換する第2処理を実施し、出力I/F155Bは、第2処理後のデータを出力データとして出力線151A~151Fに送る。
 このような構成によれば、第1処理後のデータの形式を整える第2処理を実施してから本体部2Aに送信するので、出力データの本体部2Aでの取り扱いを容易にすることができる。
 (1s)本開示の一態様では、標準化部156Cは、第2処理として、第1処理後のデータを、CANデータに準じたデータ形式に変換する処理を実施する。
 このような構成によれば、本体部2Aで広く取り扱い可能なCANデータに準じたデータ形式に変換するので、本体部2Aでのデータの取り扱いを容易にすることができる。
 (1t)本開示の一態様では、標準化部156Cは、第2処理として、第1処理後のデータを、データ種別を示すID、データ量の情報、実データ、誤り訂正符号を含むデータに変換する処理を実施する。
 このような構成によれば、本体部2Aで必要となる情報を事前に含むデータを送るので、本体部2Aでのデータの取り扱いを容易にすることができる。
 (1u)本開示の一態様では、入力線152C~152Hの数は、出力線151A~151Fの数よりも少なくなるように設定される。
 このような構成によれば、本体部2Aのインタフェースの数、つまり出力線151A~151Fの数が少ない場合であっても、多くの種類の入力データに基づく出力データを本体部2Aに送ることができる。
 (1v)本開示の一態様は、データ収集装置2である。データ収集装置2は、本体部2Aと、複数の拡張ユニット2Bと、を備える。本体部2Aは、車両に搭載される。複数の拡張ユニット2Bとして、少なくともネットワーク拡張ユニット190と、車両拡張ユニット150と、を備える。ネットワーク拡張ユニット190は、当該車両の外部に位置する通信機器からの得られるデータを入力データとする。車両拡張ユニット150は、当該車両の内部に位置する車両側機器2Cからの得られるデータを入力データとする。ネットワーク拡張ユニット190および車両拡張ユニット150は、入力データに対する処理を実施し、入力データに基づく出力データを本体部2Aに出力するように構成された処理部、を備える。
 このような構成によれば、車両外部からのデータと、車両内部からのデータをそれぞれ入力するための複数の拡張ユニット150,190等を本体部2Aに接続する構成とすることができる。
 [2.他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (2a)上記実施形態では、入力線152C~152Hの数は、出力線151A~151Fの数より多くなるように構成したが、これに限定されるものではない。例えば、入力線152C~152Hの数は、出力線151A~151Fの数よりも少なくなるように構成されてもよい。
 このような構成によれば、出力線151Aが多く準備されることで、より多くの通信プロトコルに対応できる。よって、本体部2Aのインタフェースにて対応できる通信プロトコルの種類が少ない場合であっても、拡張ユニット2Bで本体部2Aが通信可能なプロトコルを選択しやすくすることができる。
 (2b)上記実施形態では、本体部2Aおよび拡張ユニット2Bに一部重複する機能として、判定部20A,156A、フィルタリング部20B,156B、および標準化部20C,156Cを備えたが、この構成に限られない。例えば、判定部20A,156A、フィルタリング部20B,156B、および標準化部20C,156Cは、拡張ユニット2Bのみに備えられてもよい。
 例えば、本体部2Aが物体認識をするためのソフトウェアを備えない場合、物体認識のソフトウェアを搭載した拡張ユニット2Bを本体部2Aに装着し、拡張ユニット2Bを用いて、認識結果を本体部2Aに送信するように構成することができる。
 (2c)上記実施形態では、判定部20A,156Aが、拡張ユニット2Bで実施可能な処理を判定し、実施する処理を設定したが、この構成に限られない。例えば、判定部20A,156Aは、拡張ユニット2Bに搭載されたソフトウェアを加味して予め準備されたテーブル(例えば図8に示すようなテーブル)を参照し、このテーブル(すなわちコンフィグ)通りに処理を実施してもよい。
 換言すれば、拡張ユニット2Bは、予め設定されたテーブルを参照することで入力データの処理を実施するか否かを設定し、実施しないと設定された場合、入力データに対して第1処理および第2処理を実施しない未処理データを本体部2Aに送信してもよい。また、拡張ユニット2Bは、実施すると設定された場合、入力データを第1処理および第2処理を実施し、第2処理後のデータを本体部2Aに送信してもよい。
 (2d)図15に示すように、車両には、データ収集装置2に換えて、データ収集装置200を備えてもよい。データ収集装置200は、一つのECU210と、複数のECU220と、複数のECU230と、車外通信装置240と、車内通信網250とを備えてもよい。データ収集装置200は、上述した本体部2Aと同様の本体部200Aに対して、上述した拡張ユニット2Bと同様の車両拡張ユニット250Aを介して通信可能に接続されてもよい。
 ECU210は、複数のECU220を統括することにより、車両全体として連携がとれた制御を実現する。また、ECU210は、他の電子制御装置から受信したデータに対して処理を行い、或いはそのまま、車両拡張ユニット250Aへデータを出力する機能を実現する。
 ECU220は、車両における機能によって区分けしたドメイン毎に設けられ、主として、そのドメイン内に存在する複数のECU230の制御を実行する。各ECU220は、それぞれ個別に設けられた下層ネットワーク(例えば、CAN)を介して配下のECU230と接続される。ECU220は、配下のECU230に対するアクセス権限などを一元的に管理し利用者の認証等を行う機能を有する。ドメインは、例えば、パワートレーン、ボデー、シャシおよびコックピット等である。
 パワートレーンのドメインに属するECU220に接続されるECU230は、例えば、エンジンを制御するECU230、モータを制御するECU230、および、バッテリを制御するECU230等を含む。
 ボデーのドメインに属するECU220に接続されるECU230は、例えば、エアコンを制御するECU230、および、ドアを制御するECU230等を含む。
 シャシドメインに属するECU220に接続されるECU230は、例えば、ブレーキを制御するECU230、および、ステアリングを制御するECU230等を含む。
 コックピットのドメインに属するECU220に接続されるECU230は、例えば、メータおよびナビゲーションの表示を制御するECU230、および、車両の乗員によって操作される入力装置を制御するECU230等を含む。
 車外通信装置240は、広域無線通信網NWを介して、車両外の通信装置(例えば、クラウドサーバ)との間でデータ通信を行う。
 車内通信網250は、CAN FDとイーサネットとを備える。CAN FDは、ECU210と各ECU220および車外通信装置240とをバス接続する。イーサネットは、ECU210と各ECU220および車外通信装置240との間を個別に接続する。
 ECU210は、CPU210a、ROM210bおよびRAM210c等を備えたマイクロコンピュータを中心に構成された電子制御装置である。マイクロコンピュータの各種機能は、CPU210aが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、ROM210bが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、CPU210aが実行する機能の一部または全部を、一つあるいは複数のIC等によりハードウェア的に構成してもよい。また、ECU210を構成するマイクロコンピュータの数は1つでも複数でもよい。
 ECU210は、通信部213をさらに備える。通信部213は、他の電子制御装置(例えば、ECU220,230等)から受信したデータを車両拡張ユニット250Aへ中継するように構成される。
 ECU220、ECU230および車外通信装置240は、いずれも、ECU210と同様に、CPU、ROMおよびRAM等を備えたマイクロコンピュータを中心に構成された電子制御装置である。また、ECU220、ECU230および車外通信装置240を構成するマイクロコンピュータの数は1つでも複数でもよい。ECU220は、1以上のECU230を統括するECUであり、ECU210は、1以上のECU220を統括する、または車外通信装置240を含む車両全体のECU220,230を統括するECUである。
 データ収集装置2は、ECU210との間でデータ通信可能となるようにECU210に接続される。すなわち、データ収集装置2は、ECU210を介して、ECU210,220,230の情報を受信する。またデータ収集装置2は、車両制御に関する要求を、ECU210へ送信したり、ECU210を介してECU220,230へ送信したりする。
 このような構成によれば上記(1a)と同様の効果を享受できる。
 (2e)図13で説明したデータ収集装置2が標準化車両データを作成する手順は、図16および図17に示すフローチャートのように実現されてもよい。図16は、拡張ユニット2B(例えば車両拡張ユニット150等)が実行するデータ作成処理を示すフローチャート、図17は、本体部2Aが実行するデータ作成処理を示すフローチャートである。なお、図16および図17では、図13に示すL11からL15、L21からL25、およびL31の手順の全てを、本体部2Aおよび拡張ユニット2Bがそれぞれ実行できる場合について説明する。図16および図17で図示される処理のうち、本体部2Aおよび拡張ユニット2Bが備えない機能については、該当する処理を省略するか、或いは、判定処理(すなわち、S130,S150,S170,S190)にて否定判定されるように構成すればよい。
 また、正規化、データ構造化を、本体部2A或いは車両拡張ユニット150で行うべきか否かについては、予め図8と同等の設定値のテーブルを車両拡張ユニット150に備えておき、車両拡張ユニット150は、該テーブルを参照して処理を実施するか否かの判定を行ってもよい。この設定値のテーブルは、拡張ユニット2Bのメモリに予め格納されていてもよい。或いは、拡張ユニット2Bは、本体部2Aとの通信により本体部2Aの能力(機能)の有無を取得し、本体部2Aで能力を有さない処理が拡張ユニット2Bで実施されるようテーブルを作成してもよい。
 設定値のテーブルは、図8と同様に、通信プロトコル種別やデータ種別に応じて、各処理を拡張ユニットで行うか否かが定められているとよい。
 なお、図13において、標準フォーマット変換は、正規化およびデータ構造化の前に実行されたが、図16および図17において、標準フォーマット変換は、正規化およびデータ構造化の後に実行される。このように各種処理の処理順序は任意に設定できる。また、受信したデータに対して何も処理を実施せず、中継するだけの場合は、図16および図17の全ての判定において否定判定される。
 図16に示すデータ作成処理において、拡張ユニット2B(例えば車両拡張ユニット150のCPU153)は、S110で、フィルタリングテーブル8と同等のテーブル(以下、拡張テーブル)を参照し、S120で、車両データを受信する(L11)。続いて、車両拡張ユニット150は、S130で、拡張テーブルに基づいて、車両データについてフィルタリングが必要か否かを判定する(L12)。
 車両拡張ユニット150は、フィルタリングが必要な場合、S140に移行し、フィルタリング処理を実行し(L13)、その後、S150に移行する。車両拡張ユニット150は、フィルタリングが不要な場合、S150に移行する。車両拡張ユニット150は、S150で、拡張テーブルに基づいて、車両データについて正規化が必要か否かを判定する。正規化が必要であれば、S160に移行し、車両拡張ユニット150は、正規化処理を実行し(L16,L24)、S170に移行する。車両拡張ユニット150は、正規化が不要な場合、S170に移行する。
 続いて車両拡張ユニット150は、S170で、拡張テーブルに基づいて、車両データについてデータ構造化が必要か否かを判定する。データ構造化が必要であれば、S180に移行し、車両拡張ユニット150は、データ構造化処理を実行し(L18,L25)、S190に移行する。車両拡張ユニット150は、データ構造化が不要な場合、S190に移行する。
 続いて車両拡張ユニット150は、S190で、拡張テーブルに基づいて、車両データについて標準フォーマット変換が必要か否かを判定する。標準フォーマット変換が必要であれば、S200に移行し、車両拡張ユニット150は、標準フォーマット変換に関する処理を実行し(L14)、S210に移行する。車両拡張ユニット150は、標準フォーマット変換が不要な場合、S210に移行する。
 続いて車両拡張ユニット150は、S210で、本体部2Aにデータを送信し(L15)、本処理を終了する。
 図17に示す本体部2Aが実行するデータ作成処理では、図16に示す車両拡張ユニット150が実行するデータ作成処理と概ね同様の処理が実行される。ただし、判定の際には、拡張テーブルに換えて図8に示すフィルタリングテーブル8が参照される。また、S210の処理に換えて、後述するS260の処理が実施される。
 すなわち、本体部2Aは、S260で、サービス提供サーバ4にデータを送信する(L31)ように構成される。
 (2f)本開示に記載のデータ収集装置2(すなわち、本体部2Aおよび拡張ユニット2B)およびその手法は、コンピュータプログラムにより具体化された1つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載のデータ収集装置2およびその手法は、1つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載のデータ収集装置2およびその手法は、1つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと1つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された1つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。データ収集装置2に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、1つあるいは複数のハードウェアを用いて実現されてもよい。
 (2g)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。
 (2h)上述したデータ収集装置2の他、当該データ収集装置2を構成要素とするシステム、当該データ収集装置2としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、データ処理方法など、種々の形態で本開示を実現することもできる。

Claims (20)

  1.  通信機を介してクラウドサーバと通信可能な車載機(2A)と、前記車載機に対して着脱自在に構成された拡張ユニット(2B)とを備える車載機ユニット(2)が実行するデータ処理方法であって、
     入力データの提供元となる提供元機器から前記入力データを取得し(L11,L15)、
     前記入力データに対して、よりデータ量が少なくなるような処理である第1処理を実施し(L13,L22)、
     前記第1処理後のデータを、予め設定された形式のデータに変換する第2処理を実施し(L14,L23)、
     前記第2処理後のデータを、正規化データに変換する第3処理を実施し(L16,L24)、
     前記第3処理後のデータに基づいて、車両データをクラウドサーバに提供する(L31)
     データ処理方法。
  2.  請求項1に記載のデータ処理方法であって、
     前記拡張ユニットは、
     前記提供元機器から前記入力データを取得し、前記第1処理および前記第2処理を実施し、
     前記車載機は、
     前記第2処理後のデータを取得し、前記第3処理を実施し、前記第3処理後のデータをサーバに提供する
     データ処理方法。
  3.  請求項1または請求項2に記載のデータ処理方法であって、
     前記拡張ユニットは、
     前記車載機の能力を判定し、
     前記車載機に予め設定された能力があると判定すると、前記入力データに対して前記第1処理および第2処理を実施しない未処理データを前記車載機に送信し、
     前記車載機に予め設定された能力がないと判定すると、前記入力データを前記第1処理および前記第2処理を実施し、前記第2処理後のデータを前記車載機に送信し、
     前記車載機は、
     前記未処理データを受けると、前記第1処理、前記第2処理、前記第3処理を実施し、前記第3処理後のデータをサーバに提供し、
     前記第2処理後のデータを受けると、前記第3処理を実施し、前記第3処理後のデータをサーバに提供する
     データ処理方法。
  4.  請求項1または請求項2に記載のデータ処理方法であって、
     前記拡張ユニットは、
     予め設定されたテーブルを参照することで前記入力データの処理を実施するか否かを設定し、前記実施しないと設定された場合、前記入力データに対して前記第1処理および第2処理を実施しない未処理データを前記車載機に送信し、
     前記実施すると設定された場合、前記入力データを前記第1処理および前記第2処理を実施し、前記第2処理後のデータを前記車載機に送信し、
     前記車載機は、
     前記未処理データを受けると、前記第1処理、前記第2処理、前記第3処理を実施し、前記第3処理後のデータをサーバに提供し、
     前記第2処理後のデータを受けると、前記第3処理を実施し、前記第3処理後のデータをサーバに提供する
     データ処理方法。
  5.  請求項2から請求項4の何れか1項に記載のデータ処理方法であって、
     前記拡張ユニットは、
     前記入力データの種別に応じて、前記第1処理を省略する場合がある
     データ処理方法。
  6.  請求項5に記載のデータ処理方法であって、
     前記拡張ユニットは、
     前記車載機との間の通信に用いられる通信プロトコルが予め設定されたプロトコルである場合に、前記第1処理を省略する
     データ処理方法。
  7.  請求項5に記載のデータ処理方法であって、
     前記拡張ユニットは、
     前記車載機との接続に用いられるコネクタの種別が予め設定された種別である場合に、前記第1処理を省略する
     データ処理方法。
  8.  請求項5に記載のデータ処理方法であって、
     前記拡張ユニットは、
     前記入力データに含まれる画像の種別が予め設定された種別である場合に、前記第1処理を省略する
     データ処理方法。
  9.  請求項1から請求項8までのいずれか1項に記載のデータ処理方法であって、
     前記第3処理後のデータを、構造化する第4処理を実施し、
     前記第4処理後のデータをサーバに提供する
     データ処理方法。
  10.  請求項9に記載のデータ処理方法であって、
     前記第4処理後のデータをサーバに定期的に提供する
     データ処理方法。
  11.  請求項1から請求項10の何れか1項に記載のデータ処理方法であって、
     前記入力データとして、カメラによる撮像データを取得し、前記第1処理として、前記撮像データから物体を認識する処理を実施する
     データ処理方法。
  12.  請求項1から請求項11の何れか1項に記載のデータ処理方法であって、
     前記入力データとして音声データを取得し、前記第1処理として、前記音声データから音声の内容を認識する処理を実施する
     データ処理方法。
  13.  請求項1から請求項12の何れか1項に記載のデータ処理方法であって、
     前記入力データとして、車両の周囲の障害物を検知する障害物センサによる障害物データを取得し、前記第1処理として、前記障害物データから少なくとも障害物の位置を認識する処理を実施する
     データ処理方法。
  14.  請求項1から請求項13の何れか1項に記載のデータ処理方法であって、
     前記入力データとして、近距離デバイスから得られるデバイスデータを取得し、前記第1処理として、前記入力データから予め設定された近距離デバイスから得られたデバイスデータを抽出する処理を実施する
     データ処理方法。
  15.  請求項1から請求項14の何れか1項に記載のデータ処理方法であって、
     前記入力データとして、クラウドサーバから得られるクラウドデータを取得し、前記第1処理として、前記入力データから予め設定されたクラウドサーバから得られたクラウドデータを抽出する処理を実施する
     データ処理方法。
  16.  請求項1から請求項15の何れか1項に記載のデータ処理方法であって、
     前記入力データとして、通信プロトコルCAN(登録商標)によるCANデータを取得し、前記第1処理として、前記入力データから予め設定された種別のCANデータを抽出するCANデータ抽出処理を実施する
     データ処理方法。
  17.  請求項1から請求項16の何れか1項に記載のデータ処理方法であって、
     前記第2処理として、前記第1処理後のデータを、CANデータに準じたデータ形式に変換する処理を実施する
     データ処理方法。
  18.  請求項1から請求項17の何れか1項に記載のデータ処理方法であって、
     前記第2処理として、前記第1処理後のデータを、データ種別を示すID、データ量の情報、実データ、誤り訂正符号を含むデータに変換する処理を実施する
     データ処理方法。
  19.  通信機を介してクラウドサーバと通信可能な車載機(2A)と、前記車載機に対して着脱自在に構成された拡張ユニット(2B)とを備える通信システム(1)であって、
     入力データの提供元となる提供元機器から前記入力データを取得するように構成された取得部(155A)と、
     前記入力データに対して、よりデータ量が少なくなるような処理である第1処理を実施するように構成された第1処理部(20B,156B)と、
     前記第1処理後のデータを、予め設定された形式のデータに変換する第2処理を実施するように構成された第2処理部(20C,156C)と、
     前記第2処理後のデータを、正規化データに変換する第3処理を実施するように構成された第3処理部(20D)と、
     前記第3処理後のデータに基づいて、車両データをクラウドサーバに提供するように構成された提供部(13)と、
     を備える通信システム。
  20.  通信機を介してクラウドサーバと通信可能な車載機(2A)と、前記車載機に対して着脱自在に構成された拡張ユニット(2B)と、前記拡張ユニットへデータを出力する電子制御装置(210)と、を備える通信システム(1)であって、
     他の電子制御装置から送信されたデータを前記拡張ユニットへ中継するように構成された中継部(213)と、
     前記中継部から送信された入力データを取得するように構成された取得部(155A)と、
     前記入力データに対して、よりデータ量が少なくなるような処理である第1処理を実施するように構成された第1処理部(20B,156B)と、
     前記第1処理後のデータを、予め設定された形式のデータに変換する第2処理を実施するように構成された第2処理部(20C,156C)と、
     前記第2処理後のデータを、正規化データに変換する第3処理を実施するように構成された第3処理部(20D)と、
     前記第3処理後のデータに基づいて、車両データをクラウドサーバに提供するように構成された提供部(13)と、
     を備える通信システム。
PCT/JP2022/024888 2021-07-02 2022-06-22 データ処理方法、および通信システム WO2023276816A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280046981.6A CN117597904A (zh) 2021-07-02 2022-06-22 数据处理方法以及通信系统
JP2023531861A JPWO2023276816A1 (ja) 2021-07-02 2022-06-22
US18/397,364 US20240127637A1 (en) 2021-07-02 2023-12-27 Data processing method and communication system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021110910 2021-07-02
JP2021-110910 2021-07-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/397,364 Continuation US20240127637A1 (en) 2021-07-02 2023-12-27 Data processing method and communication system

Publications (1)

Publication Number Publication Date
WO2023276816A1 true WO2023276816A1 (ja) 2023-01-05

Family

ID=84691792

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/024888 WO2023276816A1 (ja) 2021-07-02 2022-06-22 データ処理方法、および通信システム

Country Status (4)

Country Link
US (1) US20240127637A1 (ja)
JP (1) JPWO2023276816A1 (ja)
CN (1) CN117597904A (ja)
WO (1) WO2023276816A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007062481A (ja) * 2005-08-30 2007-03-15 Denso Corp 車載用電子機器の接続システム
JP2017182418A (ja) * 2016-03-30 2017-10-05 マツダ株式会社 運転支援装置及び運転支援システム
JP2018005848A (ja) * 2016-07-08 2018-01-11 トヨタ自動車株式会社 車載通信装置
KR20180098062A (ko) * 2017-02-24 2018-09-03 주식회사 포키비언 차량데이터 계층화 및 적응형 데이터 전송 장치 및 방법
JP2020024685A (ja) * 2018-08-06 2020-02-13 デンソー インターナショナル アメリカ インコーポレーテッド モバイルネットワークデバイスおよびモバイルネットワークデバイスの操作方法
JP2020101980A (ja) * 2018-12-21 2020-07-02 トヨタ自動車株式会社 情報取得装置、情報取得方法、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007062481A (ja) * 2005-08-30 2007-03-15 Denso Corp 車載用電子機器の接続システム
JP2017182418A (ja) * 2016-03-30 2017-10-05 マツダ株式会社 運転支援装置及び運転支援システム
JP2018005848A (ja) * 2016-07-08 2018-01-11 トヨタ自動車株式会社 車載通信装置
KR20180098062A (ko) * 2017-02-24 2018-09-03 주식회사 포키비언 차량데이터 계층화 및 적응형 데이터 전송 장치 및 방법
JP2020024685A (ja) * 2018-08-06 2020-02-13 デンソー インターナショナル アメリカ インコーポレーテッド モバイルネットワークデバイスおよびモバイルネットワークデバイスの操作方法
JP2020101980A (ja) * 2018-12-21 2020-07-02 トヨタ自動車株式会社 情報取得装置、情報取得方法、プログラム

Also Published As

Publication number Publication date
US20240127637A1 (en) 2024-04-18
CN117597904A (zh) 2024-02-23
JPWO2023276816A1 (ja) 2023-01-05

Similar Documents

Publication Publication Date Title
CN106453465B (zh) 用于车辆控制器与外部资源之间交互工作的系统和方法
WO2023023975A1 (zh) 一种芯片、芯片制造方法、以及相关装置
CN109246126B (zh) 车载自动驾驶系统的数据通信方法及装置
US20170339056A1 (en) Remote vehicle data collection system
US10306689B2 (en) Systems and methods for shared mixed reality experiences using digital, physical, temporal or spatial discovery services
CN113156916A (zh) 控制器系统及控制方法
CN111124443A (zh) 车辆、车机设备及车载仪表升级方法
US20150025733A1 (en) Vehicle control device and method
CN115334110A (zh) 用于车辆控制的系统架构、通信方法、车辆、介质及芯片
CN114461070A (zh) 用于实现车载虚拟现实的系统、方法和车辆
JP5370341B2 (ja) 通信装置及びデータ通信システム
WO2023276816A1 (ja) データ処理方法、および通信システム
WO2023276815A1 (ja) 拡張ユニット、車載機ユニット、および車両システム
WO2021243602A1 (zh) 一种车辆控制系统和子控制单元
CN115297461B (zh) 数据交互方法、装置、车辆、可读存储介质及芯片
KR20150005209A (ko) 차량과 휴대용 단말 간의 연동 기능을 갖는 장치 및 그 동작 방법
CN111026475A (zh) 车辆、车机设备及其基于地图软件的车辆服务处理方法
CN207594873U (zh) 一种基于BroadR-Reach以太网的汽车车机原型系统
US10661732B2 (en) In-vehicle relay device
WO2018192585A1 (zh) 传输方法和传输装置
WO2024026593A1 (zh) 一种协同控车方法及相关装置
WO2021073501A1 (zh) 车内业务切片的资源配置方法及装置、系统
US20240134675A1 (en) Display apparatus for vehicle
JP2024511005A (ja) データ伝送方法、装置及びシステム
TW202240475A (zh) 資訊處理裝置、資訊處理系統、資訊處理方法及記錄媒體

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22832964

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023531861

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280046981.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22832964

Country of ref document: EP

Kind code of ref document: A1