WO2017150424A1 - 移動体管理装置、移動体管理方法、及び記憶媒体 - Google Patents

移動体管理装置、移動体管理方法、及び記憶媒体 Download PDF

Info

Publication number
WO2017150424A1
WO2017150424A1 PCT/JP2017/007392 JP2017007392W WO2017150424A1 WO 2017150424 A1 WO2017150424 A1 WO 2017150424A1 JP 2017007392 W JP2017007392 W JP 2017007392W WO 2017150424 A1 WO2017150424 A1 WO 2017150424A1
Authority
WO
WIPO (PCT)
Prior art keywords
traffic information
information
mobile
evaluation
traffic
Prior art date
Application number
PCT/JP2017/007392
Other languages
English (en)
French (fr)
Inventor
浅井 貴浩
Original Assignee
株式会社リコー
浅井 貴浩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社リコー, 浅井 貴浩 filed Critical 株式会社リコー
Priority to EP17759890.1A priority Critical patent/EP3425607A4/en
Priority to CN201780014448.0A priority patent/CN108701409A/zh
Priority to JP2018503278A priority patent/JP6631690B2/ja
Publication of WO2017150424A1 publication Critical patent/WO2017150424A1/ja
Priority to US16/111,370 priority patent/US20180362050A1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096783Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a roadside individual element

Definitions

  • One aspect of the present disclosure relates to a mobile management device, a mobile management method, and a storage medium.
  • an in-vehicle computer acquires vehicle movement status information from detection data of a plurality of sensors provided in the vehicle, evaluates driving characteristics based on the movement status information, and sets the evaluated driving characteristics. Develop appropriate vehicle insurance premiums.
  • the driving characteristics cannot be sufficiently evaluated only by the movement status information. For example, in the case of a road whose legal speed is limited to 30 km / h, even if the vehicle is traveling at 60 km / h, the in-vehicle computer cannot evaluate that the driving characteristic is dangerous driving.
  • image recognition is not 100% reliable, and it is difficult to say that the accuracy of image recognition is high because there are many similar traffic signs, especially when the camera subject is a traffic sign. . At night, the accuracy is even lower. Therefore, even if the image recognition technique is used, there is a problem that the accuracy of evaluation of driving characteristics cannot be sufficiently increased.
  • a moving body management apparatus that manages the moving state of a moving body.
  • the mobile body management apparatus acquires acquisition means for acquiring image data obtained by imaging an object by an imaging means, and first traffic information indicated by the object based on the image data acquired by the acquisition means.
  • Recognizing means for recognizing receiving means for receiving the second traffic information indicated by the subject transmitted from the transmitting device, and when the second traffic information is not received by the receiving means, Based on the movement status information indicating the movement status of the moving body when the image data is acquired and the first traffic information, the driving characteristics of the driver of the moving body are evaluated, and the second means is used by the receiving means.
  • the movement status information indicating the movement status of the moving body and the second traffic information when the second traffic information is received by the receiving means. Based on, having an evaluation unit for evaluating the driving characteristics of a driver of the movable body.
  • FIG. 1 is a diagram for explaining a use environment and a schematic operation of an operation characteristic evaluation system according to an embodiment.
  • the driving characteristic evaluation system 1 includes a moving body management device 3, an ECU 4, a camera 5, a transmission device 7, and an evaluation result management server 9.
  • the moving body management device 3, the ECU (Electronic Control Unit) 4, and the camera 5 are mounted on the moving body 2.
  • the moving body 2 is, for example, a vehicle such as an automobile or a motorcycle, an aircraft, a ship, or the like. In FIG. 1, an automobile is shown.
  • the mobile management device 3 and the camera 5 are communicably connected via short-range wireless communication such as Bluetooth (registered trademark).
  • the mobile management device 3 is communicably connected to an evaluation result management server 9 connected to a communication network 8 such as a mobile phone communication network and a public line.
  • the camera 5 and the mobile management device 3 may be connected by wireless LAN (Local Area Network) such as Wi-Fi or wired.
  • the moving body management device 3 receives data from the ECU 4 and the camera 5 and manages the moving state of the moving body.
  • the mobile body management device 3 is wired to an OBD port (on-board diagnostics port, OBD2 standard failure analysis connector) of the ECU 4.
  • OBD port on-board diagnostics port, OBD2 standard failure analysis connector
  • the mobile body management device 3 evaluates the driving characteristics of the driver of the mobile body 2 based on various data (information) sent from the ECU 4, the camera 5, and the transmission device 7, and evaluates the evaluation result as an evaluation result management server. 9 to send.
  • the ECU 4 is a control computer for electronically controlling the entire moving body 2. Further, the ECU 4 has a function as a failure diagnosis device. Specifically, as OBD data, moving speed, moving acceleration, engine speed, engine load factor, ignition timing, intake manifold pressure, intake air amount (MAF), injection opening time, engine cooling water temperature (cooling water) Temperature), temperature of the air taken into the engine (intake air temperature), outside air temperature (outside air temperature), fuel flow rate, instantaneous fuel consumption, accelerator opening (throttle opening), turn signal information (operation information of left and right turn signals), There are brake opening, steering wheel rotation steering angle information, etc.
  • OBD data is an example of movement status information.
  • the camera 5 captures at least the front of the moving body 2 to generate image data (image information), and transmits the image data to the moving body management apparatus 3.
  • the mobile body management device 3 cannot recognize the surrounding situation (lighting color of traffic lights, traffic signs, etc.) at the time when the operation is performed. On the other hand, since the image data is generated by photographing the surrounding situation, the mobile management device 3 can recognize the surrounding situation.
  • the transmission device 7 is installed in the traffic light 6 and transmits a radio wave beacon or an optical beacon.
  • the transmission device 7 installed in the traffic light 6 transmits a beacon including information indicating the lighting color of the traffic light 6 (an example of second traffic information).
  • the transmission device 7 is installed in the traffic light 6, but may be installed in an automatic speed control machine (orvis) or the like close to the traffic signal 6 instead of the traffic light 6.
  • a beacon including traffic information (an example of second traffic information) indicating the display content of the traffic sign is transmitted. For example, in the case of a traffic sign indicating “pause” (“stop”), the transmission device 7 transmits traffic information indicating the content of “pause” using a beacon.
  • the evaluation result management server 9 is a server computer installed in an information center for calculating the rate of damage insurance for vehicles and manages the evaluation result information sent from the mobile management device 3.
  • the managed evaluation result information and the like are used for calculating the rate of vehicle insurance. For example, when the total number of “safe driving” as the evaluation result is larger than the total number of “dangerous driving” as the evaluation result, the insurance premium is reduced, and in the opposite case, the insurance premium is high.
  • FIG. 2 is a hardware configuration diagram of the mobile management apparatus.
  • FIG. 3 is a hardware configuration diagram of the camera.
  • FIG. 4 is a hardware configuration diagram of the transmission device.
  • the mobile management device 3 includes a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, a RAM (Random Access Memory) 303, an EEPROM (Electrically Erasable Programmable Read-Only Memory). ) 304, short-range wireless communication module 305, OBD port I / F 306, beacon receiving module 307, mobile phone wireless communication module 308, and buses such as an address bus and a data bus for electrically connecting the above components A line 310 is provided.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • EEPROM Electrically Erasable Programmable Read-Only Memory
  • the CPU 301 is an arithmetic processing device that controls the operation of the entire mobile management device 3.
  • the ROM 302 stores a program used for driving the CPU 301 such as IPL (Initial Program Loader).
  • a RAM 303 is a work area for the CPU 301.
  • the EEPROM 304 reads or writes various data such as a program for mobile object management apparatus under the control of the CPU 301.
  • the short-range wireless communication module 305 is, for example, a Bluetooth (registered trademark) module, and performs modulation / demodulation of radio waves when performing wireless communication with a short-range wireless communication module 505 in the camera 5 described later.
  • the OBD port I / F 306 has an interface between a terminal connected to the OBD port of the ECU 4 and the bus line 310, conversion between a parallel signal on the bus line 310 and a serial signal of the OBD port, and a signal voltage for the OBD port. Perform level conversion.
  • the beacon receiving module 307 receives an optical beacon or a radio beacon.
  • the mobile phone wireless communication module 308 modulates and demodulates radio waves when performing communication conforming to mobile phone communication standards such as 3G (third generation) and LTE (Long Term Evolution).
  • mobile phone communication standards such as 3G (third generation) and LTE (Long Term Evolution).
  • radio waves are transmitted to and received from the mobile phone base station on the communication network 8.
  • the camera 5 includes a CPU 501, a ROM 502, a RAM 503, an imaging module 504, an image input I / F, a short-range wireless communication module 505, and the components for electrically connecting the components.
  • a bus line 510 such as an address bus or a data bus is provided.
  • the CPU 501 is an arithmetic processing unit that controls the operation of the entire camera 5.
  • the ROM 502 stores a program used for driving the CPU 501 such as IPL.
  • a RAM 503 is a work area for the CPU 501.
  • the imaging module 504 may be a lens having a general shooting angle of view or a lens capable of omnidirectional imaging. By capturing the omnidirectional image, it is possible to capture not only the subject in front of the moving body 2 but also the driver at the same time, so that information including the state of the driver in a situation that seems to be dangerous driving can be obtained. Can do.
  • the image input I / F 506 appropriately converts the image data output from the imaging module 504 into a format suitable for storage and analysis, and transfers the data to the RAM 503 via the bus line 510.
  • the short-range wireless communication module 505 is a Bluetooth module, for example, and performs modulation / demodulation of radio waves when performing wireless communication with the short-range wireless communication module 305 in the mobile management device 3.
  • the short-range wireless communication module 305 is a communication unit between the camera 5 and the mobile management device 3.
  • Wi-Fi or wired communication can also be used as this communication means.
  • communication means such as Bluetooth and Wi-Fi, those having a USB (Universal Serial Bus: I / F) I / F are widely used. Therefore, in order to use these, a bus line 310 is used between them.
  • a configuration via a USB (registered trademark) I / F may be employed.
  • the transmission device 7 includes a CPU 701, a ROM 702, a RAM 703, a beacon transmission module 707, and a bus line 710 such as an address bus and a data bus for electrically connecting the above components. I have.
  • the CPU 701 is an arithmetic processing device that controls the operation of the transmission device 7 as a whole.
  • the ROM 702 stores a program used for driving the CPU 701 such as IPL.
  • a RAM 703 is a work area of the CPU 701.
  • the beacon transmission module 707 transmits an optical beacon or a radio beacon.
  • the evaluation result management server 9 includes a CPU 901, a ROM 902, a RAM 903, an HD (Hard Disk) 904, an HDD (Hard Disk Drive) 905, a media I / F 907, a display 908, and a network I / F 909. , A keyboard 911, a mouse 912, a CD-ROM drive 914, and a bus line 910 such as an address bus and a data bus for electrically connecting the above components.
  • the CPU 901 controls the overall operation of the evaluation result management server 9.
  • the ROM 902 stores a program used for driving the CPU 901 such as IPL.
  • the RAM 903 is used as a work area for the CPU 901.
  • the HD 904 stores various data such as an evaluation result management program.
  • the HDD 905 controls reading or writing of various data with respect to the HD 904 according to the control of the CPU 901.
  • a media I / F 907 controls reading or writing (storage) of data with respect to a recording medium 906 such as a flash memory.
  • the display 908 displays various information such as a cursor, menu, window, character, or image.
  • the network I / F 909 performs data communication using the communication network 8.
  • the keyboard 911 includes a plurality of keys for inputting characters, numerical values, various instructions, and the like.
  • the mouse 912 accepts user operations to select and execute various instructions, select a processing target, move a cursor, and the like.
  • the CD-ROM drive 914 controls reading or writing of various data with respect to a CD-ROM (Compact, Disc, Read, Only, Memory) as an example of a removable recording medium.
  • the mobile management device 3 includes a wireless reception unit 31 (an example of a reception unit), an acquisition unit 32 (an example of an acquisition unit), a wired transmission / reception unit 33, and a recognition unit 34 (of the recognition unit).
  • An example a determination unit 35 (an example of determination means), an evaluation unit 36 (an example of evaluation means), a long-distance transmission / reception unit 38 (an example of transmission means), and a storage / reading unit 39.
  • Each of these units is realized by any one of the constituent elements shown in FIG. 2 operating according to a command from the CPU 301 according to a program expanded from the EEPROM 304 onto the RAM 303.
  • the mobile management device 3 has a storage unit 3000 (an example of a storage unit) constructed by the RAM 303 and the EEPROM 304 shown in FIG.
  • FIG. 7 is a conceptual diagram showing an evaluation information management table.
  • the storage unit 3000 stores an evaluation information management DB 3001 (an example of evaluation information management means) configured by an evaluation information management table as shown in FIG.
  • traffic information and a threshold are associated and managed.
  • traffic information “blue lighting” indicating a state where the traffic light is lighting a blue signal, “pause” indicated by a traffic sign, and the like are shown.
  • the threshold value an upper limit speed is shown, and 60 km / h is indicated in the case of blue lighting, and 0 km / h is indicated in the case of temporary stop. For example, in the case of blue lighting, when the moving body exceeds 60 km / h, the driving characteristic is evaluated as “dangerous driving”.
  • the wireless reception unit 31 of the mobile management device 3 shown in FIG. 6 is realized by the command from the CPU 301 shown in FIG. 2 and the beacon reception module 307 shown in FIG. Receive data (information) by beacon from.
  • the acquisition unit 32 is realized by the instruction from the CPU 301 shown in FIG. 2 and the short-range wireless communication module 305 shown in FIG. 2, and receives data (information) from the camera 5 by Bluetooth or the like.
  • the wired transmission / reception unit 33 is realized by a command from the CPU 301 shown in FIG. 2 and the OBD port I / F 306 shown in FIG. 2, and receives movement status information such as a movement speed from the ECU 4.
  • the recognition unit 34 is realized by a command from the CPU 301 shown in FIG. 2, and performs image recognition (analysis) of image data sent from the camera 5. For example, in the case of image data obtained by imaging the traffic light 6 that is lit in blue as a subject, the recognition unit 34 recognizes the presence of the traffic light and the fact that it is lit in blue.
  • the determination unit 35 is realized by a command from the CPU 301 shown in FIG. 2, and determines whether or not the wireless reception unit 31 has received traffic information from the transmission device 7.
  • the evaluation unit 36 is realized by an instruction from the CPU 301 illustrated in FIG. 2, and when the wireless reception unit 31 does not receive traffic information (an example of second traffic information) from the transmission device 7, the acquisition unit 32.
  • the driving characteristics of the driver of the moving body 2 based on the moving state information indicating the moving state of the moving body 2 and the traffic information from the recognition unit 34 (an example of first traffic information) when the image data is acquired by To evaluate.
  • the evaluation unit 36 receives the second traffic information by the wireless reception unit 31.
  • the driving characteristics of the driver of the moving body 2 are evaluated based on the moving state information indicating the moving state of the moving body and the second traffic information.
  • the evaluation unit 36 searches the evaluation information management table (see FIG. 7) using the traffic information (an example of the first traffic information), which is the result recognized by the recognition unit 34, as a search key.
  • the upper limit speed is read out, and when the movement status information (here, the latest movement speed) sent from the ECU 4 exceeds the upper limit speed, it is evaluated that the driving characteristic is “dangerous driving”. .
  • the evaluation unit 36 evaluates that the driving characteristic is “safe driving”.
  • the evaluation unit 36 receives traffic information (first information) recognized by the recognition unit 34.
  • traffic information first information
  • the evaluation information management table see FIG. 7
  • the driving characteristic is “dangerous driving”. Evaluate that there is.
  • the evaluation unit 36 evaluates that the driving characteristic is “safe driving”.
  • the long-distance transmission / reception unit 38 is realized by the command from the CPU 301 shown in FIG. 2 and the mobile phone wireless communication module 308 shown in FIG. 2 and via the communication network 8, the evaluation result management server 9. Communicate with.
  • the storage / reading unit 39 is executed by a command from the CPU 301 shown in FIG. 2, stores various data in the storage unit 3000, and reads out various data stored in the storage unit 3000.
  • the camera 5 includes an imaging unit 54 and a transmission unit 55. Each of these units is realized by any one of the constituent elements shown in FIG. 3 operating according to a command from the CPU 501 according to a program developed on the RAM 503.
  • each functional configuration of the camera 5 will be described in detail.
  • a relationship between main components for realizing each functional configuration of the camera 5 among the respective components illustrated in FIG. 3 will also be described. .
  • the imaging unit 54 of the camera 5 shown in FIG. 6 is realized by the command from the CPU 501 shown in FIG. 3 and the imaging module 504 and the image input I / F 506. Generate.
  • the transmitting unit 55 is realized by the instruction from the CPU 501 shown in FIG. 3 and the short-range wireless communication module 505, and the image data generated by the imaging unit 54 is managed using a Bluetooth or the like.
  • the data is transmitted to the acquisition unit 32 of the device 3.
  • the transmission device 7 has a wireless transmission unit 77.
  • the wireless transmission unit 77 is realized by any one of the components shown in FIG. 4 operating according to a command from the CPU 701 according to a program expanded on the RAM 703.
  • the wireless transmission unit 77 transmits traffic information (an example of second traffic information) indicating the traffic light and the current lighting color by using a beacon.
  • the evaluation result management server 9 includes a transmission / reception unit 98 and a storage / reading unit 99. Each of these units is realized by any one of the constituent elements shown in FIG. 5 operating according to a command from the CPU 901 according to a program expanded from the HD 904 to the RAM 903.
  • the evaluation result management server 9 includes a storage unit 9000 constructed by the RAM 903 and the HD 904 shown in FIG.
  • each functional configuration of the evaluation result management server 9 will be described in detail.
  • the transmission / reception unit 98 of the evaluation result management server 9 shown in FIG. 6 is realized by a command from the CPU 901 shown in FIG. 5 and the network I / F 909 shown in FIG. Via the long-distance transmitting / receiving unit 38 of the mobile management device 3.
  • the storage / reading unit 99 is executed by the instruction from the CPU 901 and the HDD 905 shown in FIG. 5, and stores various data in the storage unit 9000 or reads various data stored in the storage unit 9000.
  • FIG. 8 is a sequence diagram illustrating a method for managing operating characteristics.
  • the imaging unit 54 of the camera 5 images the traffic light (step S21).
  • the transmission part 55 of the camera 5 transmits the image data of a traffic signal with respect to the mobile body management apparatus 3 (step S22).
  • the acquisition part 32 of the mobile body management apparatus 3 acquires image data.
  • the wired transmission / reception unit 33 of the mobile management device 3 always receives movement status information such as a movement speed from the ECU 4 (step S23).
  • the mobile body management device 3 evaluates the driving characteristics of the driver of the mobile body 2 (step S24).
  • the evaluation process of driving characteristics will be described with reference to FIG.
  • FIG. 9 is a flowchart showing a driving characteristic evaluation process.
  • the recognition unit 34 of the mobile management device 3 performs image recognition based on image data (an example of first traffic information) sent from the camera 5.
  • image data an example of first traffic information
  • the subject and the color are recognized (step S101). For example, when the green light is lit on the traffic light, the recognition unit 34 recognizes that the traffic light exists and the green light is currently lit.
  • the determination unit 35 transmits traffic signal information (second traffic information of the second traffic information) transmitted from the transmission device 7 by the wireless reception unit 31 in a certain time (for example, 3 seconds) after the acquisition unit 32 acquires the image data. It is determined whether or not (example) is received (step S102).
  • the determination unit 35 determines that the traffic signal information has not been received by the wireless reception unit 31 (NO in step S102), and the evaluation unit 36 includes the latest movement status information received in step S23, and the step Driving characteristics are evaluated using the result of image recognition in S101 (an example of first traffic information) (step S103).
  • the evaluation unit 36 searches the evaluation information management table (see FIG.
  • the long-distance transmitting / receiving unit 38 of the mobile management device 3 transmits the evaluation result information to the evaluation result management server 9 (step S25).
  • This evaluation result information includes the mobile object ID for identifying the mobile object 2, the movement status information used in step S103, and the evaluation result information indicating the evaluation result output in step S103.
  • the transmission / reception unit 98 of the evaluation result management server 9 receives the evaluation result information, and the storage / reading unit 99 stores the evaluation result information in the storage unit 9000.
  • the mobile body ID is an example of mobile body identification information for identifying the mobile body 2.
  • the wireless receiver 31 of the mobile body 2 receives the traffic signal information (an example of second traffic information) that is constantly transmitted from the transmission device 7 (step S40). Also in this case, the same processes as those in steps S21, S22, and S23 are performed (steps S41, 42, and 43). Next, the mobile body management device 3 evaluates the driving characteristics of the driver of the mobile body 2 (step S44). Here, the evaluation process of driving characteristics will be described with reference to FIG.
  • the recognition unit 34 of the mobile management device 3 performs image recognition based on image data (an example of first traffic information) sent from the camera 5.
  • image data an example of first traffic information
  • the subject and the color are recognized (step S101).
  • the determination unit 35 transmits traffic signal information (second traffic information of the second traffic information) transmitted from the transmission device 7 by the wireless reception unit 31 in a certain time (for example, 3 seconds) after the acquisition unit 32 acquires the image data. It is determined whether or not (example) is received (step S102).
  • the determination unit 35 determines that the traffic signal information has been received by the wireless reception unit 31 (step S102, YES), and the evaluation unit 36 receives the latest movement status information received in step S23 and the step S40.
  • the driving characteristics are evaluated using the traffic signal information (an example of the second traffic information) received by (step S104). For example, the evaluation unit 36 searches the evaluation information management table (see FIG.
  • the evaluation unit 36 uses the second traffic information as the traffic signal information as a search key via the storage / reading unit 39, thereby obtaining a corresponding upper limit speed ( An example of a threshold value) is read out, and when the moving speed indicated by the latest moving state information exceeds the upper limit speed, an evaluation result indicating that the driving characteristic is “dangerous driving” is output. On the other hand, when the movement speed indicated by the latest movement state information is equal to or lower than the upper limit speed, the evaluation unit 36 outputs an evaluation result indicating that the driving characteristic is “safe driving”.
  • the long-distance transmitting / receiving unit 38 adds evaluation content information indicating that the driving characteristics have been evaluated using the traffic signal information to the evaluation result information to be transmitted (step S105).
  • the long-distance transmitting / receiving unit 38 of the mobile management device 3 transmits the evaluation result information and the evaluation content information to the evaluation result management server 9 (step S45).
  • This evaluation result information includes the mobile object ID for identifying the mobile object 2, the movement status information used in step S104, and the evaluation result information indicating the evaluation result issued in step S104.
  • the transmission / reception unit 98 of the evaluation result management server 9 receives the evaluation result information and the evaluation content information
  • the storage / reading unit 99 stores the evaluation result information and the evaluation content information in the storage unit 9000 in association with each other.
  • the evaluation content information is managed for the following reason. That is, the image recognition is not 100% reliable. In particular, when the subject is a traffic sign, it is difficult to say that the accuracy of the image recognition is high because there are similar traffic signs. On the other hand, since the traffic signal information sent from the transmission device 7 is very reliable, the evaluation result management server 9 can manage the evaluation result information including the evaluation content information when managing the evaluation result information. Later, when the evaluation result information is analyzed, the evaluation result information becomes a useful analytical material.
  • the evaluation result information and the evaluation content information are transmitted from the mobile management device 3 to the evaluation result management server 9 via the communication network 8, but the present invention is not limited to this.
  • evaluation result information and evaluation content information are recorded on a media such as an SD (Secure Digital) card, and the driver brings the information into the information center. You may memorize
  • SD Secure Digital
  • the mobile body management apparatus 3 transmitted evaluation result information to the evaluation result management server 9.
  • step S25 it is not restricted to this.
  • the mobile management device 3 may transmit the evaluation result information and the evaluation content information to the evaluation result management server 9 only when the driving characteristics are evaluated using the second traffic information (step S104).
  • Step S45 the mobile unit management apparatus 3 transmits the evaluation result information and the evaluation content information to the evaluation result management server 9 only when the driving characteristics are evaluated using the second reliable traffic information. become. In this case, the evaluation content information may not be transmitted to the evaluation result management server 9.
  • the mobile management device 3 does not have to transmit the evaluation content information to the evaluation result management server 9 in the process of step S45.
  • the evaluation unit 36 may perform the evaluation using a learning method using a neural network such as a hierarchical type without using the evaluation information management table (see FIG. 7).
  • input data of the learning method using the neural network includes movement status information from the ECU 4, image data from the camera 5, and / or traffic light information from the transmission device 7, and output data includes evaluation results. It is done.
  • the mobile management device may be not only a dedicated device but also a car navigation device, a personal computer, a smartphone, or the like.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Technology Law (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Atmospheric Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

移動体の移動状況を管理する移動体管理装置であって、撮像手段が被写体を撮像して得た画像データを取得する取得手段と、前記画像データに基づいて前記被写体が示す第1の交通情報を認識する認識手段と、発信装置から前記被写体が示す第2の交通情報を受信する受信手段と、前記第2の交通情報が受信されない場合には、前記画像データが取得された場合の前記移動体の移動状況を示す移動状況情報及び前記第1の交通情報に基づいて前記移動体の運転者の運転特性を評価し、前記第2の交通情報が受信された場合には、前記第2の交通情報が受信された場合の前記移動体の移動状況を示す移動状況情報及び前記第2の交通情報に基づいて、前記移動体の運転者の運転特性を評価する評価手段と、を含む。

Description

移動体管理装置、移動体管理方法、及び記憶媒体
 本開示の一側面は、移動体管理装置、移動体管理方法、及び記憶媒体に関する。
 自動車等の車両の移動状況情報(速度等の運転者の運転操作に応じて変化する車両の状態を表す情報)に基づいてその運転者の運転特性を評価し、運転特性が示す安全性のデータを車両用損害保険の料率算定に利用するシステムが知られている(特許文献1参照)。
 このシステムは、例えば、車載コンピュータが、車両に設けられた複数のセンサの検出データから車両の移動状況情報を取得し、この移動状況情報に基づいて運転特性を評価して、評価した運転特性に応じた車両保険料を策定する。
 ところが、移動状況情報だけでは、十分に運転特性を評価することができない。例えば、法定速度が30km/h制限の道路の場合、たとえ、車両が60km/hで走行中であっても、車載コンピュータは運転特性が危険運転であるという評価ができない。
 ところで、車載コンピュータが、カメラによって撮像された交通標識を画像認識することで、交通標識の表示内容を取得する技術が知られている(特許文献2参照)。運転特性の評価に、このような画像認識の技術を流用すれば、現場の法定速度と、実際の走行速度に基づいて、より正確な運転特性の評価を行なうことが可能である。
特開2006-39642号公報 特開2013-69278号公報
 しかしながら、画像認識は100%の信頼性がある訳ではなく、特に、カメラの被写体が交通標識の場合には、多くの類似する交通標識があるため、画像認識の精度が高いとは言いがたい。夜になれば、更に精度が低くなる。そのため、画像認識の技術を流用しても、運転特性の評価の精度を十分に上げることができないという課題が生じる。
 本開示の一側面によれば、移動体の移動状況を管理する移動体管理装置が提供される。前記移動体管理装置は、撮像手段が被写体を撮像して得た画像データを取得する取得手段と、前記取得手段によって取得された前記画像データに基づいて、前記被写体が示す第1の交通情報を認識する認識手段と、発信装置から送信された前記被写体が示す第2の交通情報を受信する受信手段と、前記受信手段によって前記第2の交通情報が受信されない場合には、前記取得手段によって前記画像データが取得された場合の前記移動体の移動状況を示す移動状況情報及び前記第1の交通情報に基づいて、前記移動体の運転者の運転特性を評価し、前記受信手段によって前記第2の交通情報が受信された場合には、前記受信手段によって前記第2の交通情報が受信された場合の前記移動体の移動状況を示す移動状況情報及び前記第2の交通情報に基づいて、前記移動体の運転者の運転特性を評価する評価手段と、を有する。
 本開示の一側面によれば、運転特性の評価の精度を向上することができる。
本実施形態に係る運転特性評価システムの利用環境よび概略動作について説明するための図である。 移動体管理装置のハードウェア構成図である。 カメラのハードウェア構成図である。 発信装置のハードウェア構成図である。 評価結果管理サーバのハードウェア構成図である。 運転特性評価システムの機能ブロック図である。 評価情報管理テーブルの一例である。 運転特性の管理方法を示すシーケンス図である。 運転特性の評価処理を示すフローチャートである。
 以下、本発明の実施形態について、図面を参照して詳細に説明する。
 図1は、一実施形態に係る運転特性評価システムの利用環境よび概略動作について説明するための図である。
 運転特性評価システム1は、移動体管理装置3、ECU4、カメラ5、発信装置7、及び評価結果管理サーバ9により構成されている。移動体管理装置3、ECU(Electronic Control Unit:電子制御ユニット)4、及びカメラ5は、移動体2に搭載されている。移動体2は、例えば、自動車やバイク等の車両、航空機、船舶等である。図1では、自動車が示されている。
 移動体管理装置3とカメラ5との間は、Bluetooth(登録商標)などの近距離無線通信で通信可能に接続されている。また、移動体管理装置3は、携帯電話の通信網及び公衆回線等の通信ネットワーク8に接続された評価結果管理サーバ9と通信可能に接続される。なお、カメラ5と移動体管理装置3との間は、Wi-Fiなどの無線LAN(Local Area Network)や有線で接続してもよい。
 移動体管理装置3は、ECU4やカメラ5からのデータを受け取り、移動体の移動状況の管理を行なう。移動体管理装置3は、ECU4のOBDポート(On-board diagnosticsポート、OBD2規格の故障解析用コネクタ)と有線接続されている。移動体管理装置3は、ECU4、カメラ5、及び発信装置7から送られてくる各種データ(情報)に基づいて、移動体2の運転者の運転特性を評価し、評価結果を評価結果管理サーバ9に送信する。
 ECU4は、移動体2全体を電子制御するための制御コンピュータである。また、ECU4は、故障診断装置としての機能を有する。具体的には、OBDデータとして、移動速度、移動加速度、エンジン回転数、エンジン負荷率、点火時期、インテークマニホールドの圧力、吸入空気量(MAF)、インジェクション開時間、エンジン冷却水の温度(冷却水温度)、エンジンに吸気される空気の温度(吸気温度)、車外の気温(外気温度)、燃料流量、瞬間燃費、アクセル開度(スロットル開度)、ウインカー情報(左右のウインカーの動作情報)、ブレーキ開度、ハンドルの回転操舵角情報等がある。なお、OBDデータは、移動状況情報の一例である。
 カメラ5は、少なくも移動体2の前方を撮像して画像データ(画像情報)を生成し、移動体管理装置3に画像データを送信する。
 なお、OBDデータは、ECU4が各種センサから直接に取得して生成したものであるため、情報自体は極めて正確であるが、専らブレーキペダルやアクセルペダルなど基本的な移動状況情報しか得ることができないため、移動体管理装置3は、操作の行われた時点での周囲の状況(信号機の点灯色、交通標識など)を認識することができない。一方で、画像データは、周囲の状況を撮影して生成されているため、移動体管理装置3は、周囲の状況を認識することができる。
 発信装置7は、図1では、信号機6に設置されており、電波ビーコン又は光ビーコンを発信する。信号機6に設置された発信装置7は、信号機6の点灯色を示す情報(第2の交通情報の一例)を含むビーコンを発信する。なお、図1では、発信装置7は、信号機6に設置されているが、信号機6ではなく、信号機6に近い自動速度取締機(オービス)等に設置されていてもよい。また、発信装置7が、信号機6ではなく交通標識に設置されている場合、この交通標識の表示内容を示す交通情報(第2の交通情報の一例)を含むビーコンを発信する。例えば、一時停止(「止まれ」)の交通標識の場合、発信装置7は、ビーコンにより「一時停止」の内容を示す交通情報を発信する。
 評価結果管理サーバ9は、車両用損害保険の料率算定等を行なうための情報センタに設置されたサーバコンピュータであり、移動体管理装置3から送られて来る評価結果情報等を管理する。この管理された評価結果情報等は、車両用損害保険の料率算定等に利用される。例えば、評価結果として「安全運転」の累計が、評価結果として「危険運転」の累計よりも多い場合には、保険料が安くなり、逆の場合には保険料が高くなる。
 <<運転特性評価システムの各ハードウェア構成図>>
 続いて、図2乃至図5を用いて、運転特性評価システム1の各ハードウェア構成を説明する。図2は、移動体管理装置のハードウェア構成図である。図3は、カメラのハードウェア構成図である。図4は、発信装置のハードウェア構成図である。
 <移動体管理装置のハードウェア構成>
 図2に示されているように、移動体管理装置3は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、EEPROM(Electrically Erasable Programmable Read-Only Memory)304、近距離無線通信モジュール305、OBDポートI/F306、ビーコン受信モジュール307、携帯電話用無線通信モジュール308、及び上記各構成要素を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
 これらのうち、CPU301は、移動体管理装置3全体の動作を制御する演算処理装置である。ROM302は、IPL(Initial Program Loader)等のCPU301の駆動に用いられるプログラムを記憶している。RAM303は、CPU301のワークエリアである。EEPROM304は、CPU301の制御にしたがって、移動体管理装置用プログラム等の各種データの読み出し又は書き込みを行う。
 また、近距離無線通信モジュール305は、例えば、Bluetooth(登録商標)モジュールであり、後述のカメラ5内の近距離無線通信モジュール505との間で無線通信を行うときに電波の変復調を行う。OBDポートI/F306は、ECU4のOBDポートに接続する端子とバスライン310とのインターフェースを有し、バスライン310上のパラレル信号とOBDポートのシリアル信号の間の変換及びOBDポート用の信号電圧レベル変換を行う。ビーコン受信モジュール307は、光ビーコン又は電波ビーコンを受信する。携帯電話用無線通信モジュール308は、例えば、3G(第3世代)やLTE(Long Term Evolution)などの携帯電話の通信規格に準拠した通信を行うときに電波を変復調する。本実施形態では、通信ネットワーク8を介して評価結果管理サーバ9と通信を行うときに、通信ネットワーク8上の携帯電話基地局との間で電波の送受信を行う。
 <カメラのハードウェア構成>
 図3に示されているように、カメラ5は、CPU501、ROM502、RAM503、撮像モジュール504、画像入力I/F、近距離無線通信モジュール505、及び上記各構成要素を電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
 これらのうち、CPU501は、カメラ5全体の動作を制御する演算処理装置である。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶している。RAM503は、CPU501のワークエリアである。
 また、撮像モジュール504は、一般的な撮影画角を持つレンズのほか、全天球撮像が可能なものを用いても良い。全天球画像を取り込むことによって、移動体2の前方の被写体だけではなく、運転者も同時に写し込むことが可能となるため、危険運転とみられる状況における運転者の様子を含めた情報を得ることができる。画像入力I/F506は、撮像モジュール504から出力された画像データを適宜保存及び解析に適した形式に変換した上で、バスライン510を介してRAM503に転送する。近距離無線通信モジュール505は、例えば、Bluetoothモジュールであり、移動体管理装置3内の近距離無線通信モジュール305との間で無線通信を行うときに電波の変復調を行う。即ち、近距離無線通信モジュール305は、カメラ5と移動体管理装置3との間の通信手段である。なお、この通信手段として、Wi-Fiや有線通信を用いることもできる。また、BluetoothやWi-Fiなどの通信手段としては、一般にUSB(Universal Serial Bus:登録商標)I/Fを持つものが普及しているため、これらを利用するためにバスライン310との間にUSB(登録商標)I/Fを介する構成としてもよい。
 <発信装置のハードウェア構成>
 図4に示されているように、発信装置7は、CPU701、ROM702、RAM703、ビーコン発信モジュール707、及び上記各構成要素を電気的に接続するためのアドレスバスやデータバス等のバスライン710を備えている。
 これらのうち、CPU701は、発信装置7全体の動作を制御する演算処理装置である。ROM702は、IPL等のCPU701の駆動に用いられるプログラムを記憶している。RAM703は、CPU701のワークエリアである。また、ビーコン発信モジュール707は、光ビーコン又は電波ビーコンを発信する。
 (評価結果管理サーバのハードウェア構成)
 図5に示されているように、評価結果管理サーバ9は、CPU901、ROM902、RAM903、HD(Hard Disk)904、HDD(Hard Disk Drive)905、メディアI/F907、ディスプレイ908、ネットワークI/F909、キーボード911、マウス912、CD-ROMドライブ914、及び上記各構成要素を電気的に接続するためのアドレスバスやデータバス等のバスライン910を備えている。
 これらのうち、CPU901は、評価結果管理サーバ9全体の動作を制御する。ROM902は、IPL等のCPU901の駆動に用いられるプログラムを記憶している。RAM903は、CPU901のワークエリアとして使用される。HD904は、評価結果管理プログラム等の各種データを記憶する。HDD905は、CPU901の制御にしたがってHD904に対する各種データの読み出し又は書き込みを制御する。メディアI/F907は、フラッシュメモリ等の記録メディア906に対するデータの読み出し又は書き込み(記憶)を制御する。ディスプレイ908は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F909は、通信ネットワーク8を利用してデータ通信する。キーボード911は、文字、数値、各種指示などの入力のための複数のキーを備えている。マウス912は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うために、利用者の操作を受け付ける。CD-ROMドライブ914は、着脱可能な記録媒体の一例としてのCD-ROM(Compact Disc Read Only Memory)に対する各種データの読み出し又は書き込みを制御する。
 <<運転特性評価システムの機能構成>>
 続いて、図6及び図7を用いて、本実施形態の運転特性評価システム1の機能構成について説明する。
 <移動体管理装置の機能構成>
 図6に示されているように、移動体管理装置3は、無線受信部31(受信手段の一例)、取得部32(取得手段の一例)、有線送受信部33、認識部34(認識手段の一例)、判断部35(判断手段の一例)、評価部36(評価手段の一例)、遠距離送受信部38(送信手段の一例)、及び記憶・読出部39を有している。これら各部は、図2に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開されたプログラムに従ったCPU301からの命令によって動作することで実現される。また、移動体管理装置3は、図2に示されているRAM303及びEEPROM304によって構築される記憶部3000(記憶手段の一例)を有している。
 (評価情報管理テーブル)
 図7は、評価情報管理テーブルを示す概念図である。記憶部3000には、図7に示されているような評価情報管理テーブルによって構成されている評価情報管理DB3001(評価情報管理手段の一例)が格納されている。この評価情報管理テーブルでは、交通情報及び閾値が関連付けられて管理されている。図7では、交通情報の例として、信号機が青色信号を点灯している状態を示す「青色点灯」や、交通標識が示す「一時停止」等が示されている。また、閾値の例として、上限速度が示され、青色点灯の場合には60km/h、一時停止の場合には0km/hが示されている。例えば、青色点灯の場合、移動体が60km/hを超えると、運転特性が「危険運転」として評価される。
 (移動体管理装置の各機能構成)
 次に、移動体管理装置3の各機能構成について詳細に説明する。なお、以下では、移動体管理装置3の各機能構成を説明するにあたって、図2に示されている各構成要素のうち、移動体管理装置3の各機能構成を実現させるための主な構成要素との関係も説明する。
 図6に示されている移動体管理装置3の無線受信部31は、図2に示されているCPU301からの命令、及び図2に示されているビーコン受信モジュール307によって実現され、発信装置7からのビーコンによるデータ(情報)を受信する。
 取得部32は、図2に示されているCPU301からの命令、及び図2に示されている近距離無線通信モジュール305によって実現され、カメラ5からBluetooth等によってデータ(情報)を受信する。
 有線送受信部33は、図2に示されているCPU301からの命令、及び図2に示されているOBDポートI/F306によって実現され、ECU4からの移動速度等の移動状況情報を受信する。
 認識部34は、図2に示されているCPU301からの命令によって実現され、カメラ5から送られてきた画像データの画像認識(解析)を行う。例えば、被写体として青色点灯している信号機6が撮像されることで得られた画像データの場合、認識部34は、信号機の存在と青色点灯している旨を認識する。
 判断部35は、図2に示されているCPU301からの命令によって実現され、無線受信部31が発信装置7から交通情報を受信したか否か等の判断を行なう。
 評価部36は、図2に示されているCPU301からの命令によって実現され、無線受信部31によって発信装置7から交通情報(第2の交通情報の一例)が受信されない場合には、取得部32によって画像データが取得された場合の移動体2の移動状況を示す移動状況情報及び認識部34からの交通情報(第1の交通情報の一例)に基づいて、移動体2の運転者の運転特性を評価する。また、評価部36は、無線受信部31によって発信装置7から交通情報(第2の交通情報の一例)が受信された場合には、無線受信部31によって第2の交通情報が受信された場合の移動体の移動状況を示す移動状況情報、及び第2の交通情報に基づいて、移動体2の運転者の運転特性を評価する。
 評価部36は、認識部34によって認識された結果である交通情報(第1の交通情報の一例)を検索キーとして、評価情報管理テーブル(図7参照)を検索することにより、対応する閾値(ここでは、上限速度)を読み出し、ECU4から送られて来る移動状況情報(ここでは、最新の移動速度)が上限速度を超えている場合には、運転特性が「危険運転」であると評価する。一方、ECU4から送られて来る最新の移動速度が上限速度以下の場合には、評価部36は、運転特性が「安全運転」であると評価する。
 無線受信部31が、発信装置7から発信された交通情報(第2の交通情報の一例)を受信した場合には、評価部36は、認識部34によって認識された結果である交通情報(第1の交通情報の一例)に代えて、無線受信部31によって受信された交通情報(第2の交通情報の一例)を検索キーとして、評価情報管理テーブル(図7参照)を検索することにより、対応する閾値(ここでは、上限速度)を読み出し、ECU4から送られて来る移動状況情報(ここでは、最新の移動速度)が上限速度を超えている場合には、運転特性が「危険運転」であると評価する。一方、ECU4から送られて来る最新の移動速度が上限速度以下の場合には、評価部36は、運転特性が「安全運転」であると評価する。
 遠距離送受信部38は、図2に示されているCPU301からの命令、及び図2に示されている携帯電話用無線通信モジュール308によって実現され、通信ネットワーク8を介して、評価結果管理サーバ9との通信を行なう。
 記憶・読出部39は、図2に示されているCPU301からの命令によって実行され、記憶部3000に各種データを記憶したり、記憶部3000に記憶された各種データを読み出したりする。
 <カメラの機能構成>
 図6に示されているように、カメラ5は、撮像部54、及び送信部55を有している。これら各部は、図3に示されている各構成要素のいずれかが、RAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される。
 (カメラの各機能構成)
 次に、カメラ5の各機能構成について詳細に説明する。なお、以下では、カメラ5の各機能構成を説明するにあたって、図3に示されている各構成要素のうち、カメラ5の各機能構成を実現させるための主な構成要素との関係も説明する。
 図6に示されているカメラ5の撮像部54は、図3に示されているCPU501からの命令、並びに、撮像モジュール504及び画像入力I/F506によって実現され、被写体を撮像して画像データを生成する。
 送信部55は、図3に示されているCPU501からの命令、及び、近距離無線通信モジュール505によって実現され、撮像部54によって生成された画像データを、Bluetooth等を利用して、移動体管理装置3の取得部32に送信する。
 <発信装置の機能構成>
 図6に示されているように、発信装置7は、無線発信部77を有している。無線発信部77は、図4に示されている各構成要素のいずれかが、RAM703上に展開されたプログラムに従ったCPU701からの命令によって動作することで実現される。
 図6に示されている発信装置7の無線発信部77は、図4に示されているCPU701からの命令、並びに、ビーコン発信モジュール707によって実現され、光ビーコン又は電波ビーコンを発信する。発信装置7が信号機6に設けられている場合には、無線発信部77は、ビーコンにより、信号機である旨及び現在の点灯色を示す交通情報(第2の交通情報の一例)を発信する。
 <評価結果管理サーバの機能構成>
 図6に示されているように、評価結果管理サーバ9は、送受信部98、及び記憶・読出部99を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD904からRAM903上に展開されたプログラムに従ったCPU901からの命令によって動作することで実現される。また、評価結果管理サーバ9は、図5に示されているRAM903及びHD904によって構築される記憶部9000を有している。
 (評価結果管理サーバの各機能構成)
 次に、評価結果管理サーバ9の各機能構成について詳細に説明する。なお、以下では、評価結果管理サーバ9の各機能構成を説明するにあたって、図5に示されている各構成要素のうち、評価結果管理サーバ9の各機能構成を実現させるための主な構成要素との関係も説明する。
 図6に示されている評価結果管理サーバ9の送受信部98は、図5に示されているCPU901からの命令、及び図5に示されているネットワークI/F909によって実現され、通信ネットワーク8を介して、移動体管理装置3の遠距離送受信部38と通信を行なう。
 記憶・読出部99は、図5に示されているCPU901からの命令及びHDD905によって実行され、記憶部9000に各種データを記憶したり、記憶部9000に記憶された各種データを読み出したりする。
 <本実施形態の処理又は動作>
  続いて、図8及び図9を用いて、本実施形態の運転特性の管理方法について説明する。図8は、運転特性の管理方法を示すシーケンス図である。
 先ずは、移動体2が発信装置7を備えていない信号機の下を通過する場合について説明する。カメラ5の撮像部54は、信号機を撮像する(ステップS21)。そして、カメラ5の送信部55は、移動体管理装置3に対して、信号機の画像データを送信する(ステップS22)。これにより、移動体管理装置3の取得部32は、画像データを取得する。また、移動体管理装置3の有線送受信部33は、常時、ECU4から移動速度等の移動状況情報を受信している(ステップS23)。
 次に、移動体管理装置3は、移動体2の運転者の運転特性を評価する(ステップS24)。ここで、図9を用いて、運転特性の評価処理を説明する。図9は、運転特性の評価処理を示すフローチャートである。
 図9に示されているように、移動体管理装置3の認識部34は、カメラ5から送られて来た画像データ(第1の交通情報の一例)に基づいて、画像認識を行なうことで、被写体及び色彩を認識する(ステップS101)。例えば、信号機で青信号が点灯している場合には、認識部34は、信号機が存在し、現在、青信号が点灯している旨を認識する。
 次に、判断部35は、取得部32が画像データを取得してから一定時間(例えば、3秒間)で、無線受信部31が発信装置7から発信される信号機情報(第2の交通情報の一例)を受信したか否かを判断する(ステップS102)。そして、ここでは、判断部35が、無線受信部31によって信号機情報が受信されなかったと判断し(ステップS102,NO)、評価部36は、ステップS23によって受信された最新の移動状況情報と、ステップS101の画像認識の結果(第1の交通情報の一例)を利用して運転特性の評価を行なう(ステップS103)。例えば、評価部36は、記憶・読出部39を介して、画像認識の結果としての第1の交通情報を検索キーとして、評価情報管理テーブル(図7参照)を検索することにより、対応する上限速度(閾値の一例)を読み出し、最新の移動状態情報で示される移動速度が上限速度を超えている場合には、運転特性が「危険運転」であることを示す評価結果を出す。一方、最新の移動状態情報で示される移動速度が上限速度以下の場合には、評価部36は、運転特性が「安全運転」であることを示す評価結果を出力する。
 図8に戻り、移動体管理装置3の遠距離送受信部38は、評価結果管理サーバ9に対して、評価結果情報を送信する(ステップS25)。この評価結果情報には、移動体2を識別するための移動体ID、ステップS103で利用された移動状況情報、及び、ステップS103で出された評価結果を示す評価結果情報が含まれている。これにより、評価結果管理サーバ9の送受信部98が、評価結果情報を受信して、記憶・読出部99が記憶部9000に評価結果情報を記憶する。なお、移動体IDは、移動体2を識別するための移動体識別情報の一例である。
 続いて、移動体2が発信装置7を備えている信号機6の下を通過する場合について説明する。移動体2が信号機6に接近すると、移動体2の無線受信部31は、発信装置7から常時発信されている信号機情報(第2の交通情報の一例)を受信する(ステップS40)。また、この場合も、上記各ステップS21,S22,S23と同様の処理が行なわれる(ステップS41,42,43)。次に、移動体管理装置3は、移動体2の運転者の運転特性を評価する(ステップS44)。ここで、図9を用いて、運転特性の評価処理を説明する。
 図9に示されているように、移動体管理装置3の認識部34は、カメラ5から送られて来た画像データ(第1の交通情報の一例)に基づいて、画像認識を行なうことで、被写体及び色彩を認識する(ステップS101)。
 次に、判断部35は、取得部32が画像データを取得してから一定時間(例えば、3秒間)で、無線受信部31が発信装置7から発信される信号機情報(第2の交通情報の一例)を受信したか否かを判断する(ステップS102)。そして、ここでは、判断部35が、無線受信部31によって信号機情報が受信されたと判断し(ステップS102,YES)、評価部36は、ステップS23によって受信された最新の移動状況情報と、ステップS40によって受信された信号機情報(第2の交通情報の一例)を利用して運転特性の評価を行なう(ステップS104)。例えば、評価部36は、記憶・読出部39を介して、信号機情報としての第2の交通情報を検索キーとして、評価情報管理テーブル(図7参照)を検索することにより、対応する上限速度(閾値の一例)を読み出し、最新の移動状態情報で示される移動速度が上限速度を超えている場合には、運転特性が「危険運転」であることを示す評価結果を出す。一方、最新の移動状態情報で示される移動速度が上限速度以下の場合には、評価部36は、運転特性が「安全運転」であることを示す評価結果を出力する。
 更に、遠距離送受信部38は、送信すべき評価結果情報に対して、信号機情報を利用して運転特性が評価された旨を示す評価内容情報を付加する(ステップS105)。
 図8に戻り、移動体管理装置3の遠距離送受信部38は、評価結果管理サーバ9に対して、評価結果情報及び評価内容情報を送信する(ステップS45)。この評価結果情報には、移動体2を識別するための移動体ID、ステップS104で利用された移動状況情報、及び、ステップS104で出された評価結果を示す評価結果情報が含まれている。これにより、評価結果管理サーバ9の送受信部98が、評価結果情報及び評価内容情報を受信して、記憶・読出部99が記憶部9000に評価結果情報と評価内容情報を関連付けて記憶する。
 このように、評価内容情報を管理するのは、以下の理由によるものである。即ち、画像認識は100%の信頼性がある訳ではなく、特に、被写体が交通標識の場合には、類似する交通標識があるため、画像認識の精度が高いとは言いがたい。これに対して、発信装置7から送られて来た信号機情報等は信頼性が非常に高いため、評価結果管理サーバ9が評価結果情報を管理する際に評価内容情報を含めて管理することで、後ほど、評価結果情報の分析が行なわれる際に、評価結果情報が有用な分析材料となる。
 <<本実施形態の主な効果>>
 以上説明したように本実施形態によれば、発信装置7がない又は発信装置7から交通情報(第2の交通情報の一例)が発信されない場合には、移動体管理装置3は、画像認識により被写体が示す交通情報(第1の交通情報の一例)を利用して運転特性の評価を行い、発信装置7から交通情報(第2の交通情報の一例)が発信された場合には、移動体管理装置3は、信頼性の高い第2の交通情報を利用して運転特性の評価を行なう。これにより、発信装置7の有無に臨機応変に対応することができるとともに、運転特性の評価の精度を向上することができるという効果を奏する。
 <<変形例>>
 上記実施形態では、移動体管理装置3から通信ネットワーク8を介して評価結果管理サーバ9に、評価結果情報や評価内容情報を送信したが、これに限るものではない。例えば、移動体管理装置3において、SD(Secure Digital)カード等のメディアに評価結果情報や評価内容情報を記録して、運転者が情報センタに持ち込み、情報センタの社員が各情報を評価結果管理サーバ9の記憶部9000に記憶してもよい。
 また、上記実施形態では、第1の交通情報を利用して運転特性が評価された場合(ステップS103)であっても、移動体管理装置3は評価結果管理サーバ9に評価結果情報を送信したが(ステップS25)、これに限るものではない。例えば、第2の交通情報を利用して運転特性が評価された場合(ステップS104)にのみ、移動体管理装置3は評価結果管理サーバ9に評価結果情報及び評価内容情報を送信してもよい(ステップS45)。これにより、移動体管理装置3は、信頼性の高い第2の交通情報を利用して運転特性の評価を行なった場合のみ、評価結果管理サーバ9に評価結果情報及び評価内容情報を送信することになる。なお、この場合、評価結果管理サーバ9に評価内容情報を送信しなくてもよい。
 また、上記ステップS25,S45の処理の両方が行なわれる場合であっても、ステップS45の処理で、移動体管理装置3は、評価結果管理サーバ9に評価内容情報を送信しなくてもよい。
 更に、評価部36は、評価情報管理テーブル(図7参照)を用いずに、例えば、階層型等のニューラルネットワークによる学習手法を用いて評価してもよい。この場合、ニューラルネットワークによる学習手法の入力データとして、ECU4からの移動状況情報、カメラ5からの画像データ、及び(又は)発信装置7からの信号機情報が挙げられ、出力データとして、評価結果が挙げられる。
 また、移動体管理装置は、専用装置だけでなく、カーナビゲーション装置、パーソナルコンピュータ、又はスマートフォン等であってもよい。
 以上、本発明の好ましい実施形態について詳述したが、本発明は上記した特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能なものである。
 本国際出願は、2016年3月1日に出願した日本国特許出願第2016-039255号に基づきその優先権を主張するものであり、同日本国出願の全内容を参照することにより本願に援用する。
1 運転特性評価システム
2 移動体
3 移動体管理装置
4 ECU
5 カメラ
6 信号機
7 発信装置
8 通信ネットワーク
9 評価結果管理サーバ
31 無線受信部
32 取得部
33 有線送受信部
34 認識部
35 判断部
36 評価部
38 遠距離送受信部
3000 記憶部
3001 評価情報管理DB

Claims (10)

  1.  移動体の移動状況を管理する移動体管理装置であって、
     撮像手段が被写体を撮像して得た画像データを取得する取得手段と、
     前記取得手段によって取得された前記画像データに基づいて、前記被写体が示す第1の交通情報を認識する認識手段と、
     発信装置から送信された前記被写体が示す第2の交通情報を受信する受信手段と、
     前記受信手段によって前記第2の交通情報が受信されない場合には、前記取得手段によって前記画像データが取得された場合の前記移動体の移動状況を示す移動状況情報及び前記第1の交通情報に基づいて、前記移動体の運転者の運転特性を評価し、前記受信手段によって前記第2の交通情報が受信された場合には、前記受信手段によって前記第2の交通情報が受信された場合の前記移動体の移動状況を示す移動状況情報及び前記第2の交通情報に基づいて、前記移動体の運転者の運転特性を評価する評価手段と、
     を有する移動体管理装置。
  2.  前記被写体は信号機であり、
     前記第1の交通情報及び前記第2の交通情報のそれぞれは前記信号機の点灯色を示す、
     請求項1に記載の移動体管理装置。
  3.  前記被写体は交通標識であり、
     前記第1の交通情報及び前記第2の交通情報のそれぞれは前記交通標識の表示内容を示す、
     請求項1に記載の移動体管理装置。
  4.  前記移動状況は、前記移動体の移動速度、又は移動加速度である請求項1乃至3のいずれか一項に記載の移動体管理装置。
  5.  前記評価手段による評価結果を示す評価結果情報を、通信ネットワークを介して、前記評価結果を管理する評価結果管理サーバに対して送信する送信手段を有する請求項1乃至4のいずれか一項に記載の移動体管理装置。
  6.  前記送信手段は、
     前記評価手段が、前記移動状況情報及び前記第1の交通情報に基づいて、前記移動体の運転者の運転特性を評価した場合には、前記評価結果管理サーバに対して、前記評価結果情報を送信せず、
     前記評価手段が、前記移動状況情報及び前記第2の交通情報に基づいて、前記移動体の運転者の運転特性を評価した場合には、前記評価結果管理サーバに対して、前記評価結果情報を送信する請求項5に記載の移動体管理装置。
  7.  前記評価手段が、前記移動状況情報及び前記第2の交通情報に基づいて、前記移動体の運転者の運転特性を評価した場合には、前記送信手段は、前記評価結果管理サーバに対して、前記評価結果情報と共に、前記第2の交通情報に基づいて運転特性が評価された旨を示す評価内容情報を送信する請求項5又は6に記載の移動体管理装置。
  8.  前記移動体管理装置は、カーナビゲーション装置、パーソナルコンピュータ、スマートフォン、又は専用装置である請求項1乃至7のいずれか一項に記載の移動体管理装置。
  9.  移動体の移動状況を管理する移動体管理装置が実行する移動体管理方法であって、
     撮像手段が被写体を撮像して得た画像データを取得し、
     取得された前記画像データに基づいて、前記被写体が示す第1の交通情報を認識し、
     発信装置から送信された前記被写体が示す第2の交通情報が受信されない場合には、前記画像データが取得された場合の前記移動体の移動状況を示す移動状況情報及び前記第1の交通情報に基づいて、前記移動体の運転者の運転特性を評価し、
     前記第2の交通情報が受信された場合には、前記第2の交通情報が受信された場合の前記移動体の移動状況を示す移動状況情報及び前記第2の交通情報に基づいて、前記移動体の運転者の運転特性を評価する、
     移動体管理方法。
  10.  移動体の移動状況を管理するコンピュータに、
     撮像手段が被写体を撮像して得た画像データを取得し、
     取得された前記画像データに基づいて、前記被写体が示す第1の交通情報を認識し、
     発信装置から送信された前記被写体が示す第2の交通情報が受信されない場合には、前記画像データが取得された場合の前記移動体の移動状況を示す移動状況情報及び前記第1の交通情報に基づいて、前記移動体の運転者の運転特性を評価し、
     前記第2の交通情報が受信された場合には、前記第2の交通情報が受信された場合の前記移動体の移動状況を示す移動状況情報及び前記第2の交通情報に基づいて、前記移動体の運転者の運転特性を評価する、
     処理を実行させるプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
PCT/JP2017/007392 2016-03-01 2017-02-27 移動体管理装置、移動体管理方法、及び記憶媒体 WO2017150424A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP17759890.1A EP3425607A4 (en) 2016-03-01 2017-02-27 MOBILE BODY MANAGEMENT DEVICE, MOBILE BODY MANAGEMENT METHOD, AND STORAGE MEDIUM
CN201780014448.0A CN108701409A (zh) 2016-03-01 2017-02-27 移动体管理装置、移动体管理方法以及存储介质
JP2018503278A JP6631690B2 (ja) 2016-03-01 2017-02-27 移動体管理装置、移動体管理方法、及び記憶媒体
US16/111,370 US20180362050A1 (en) 2016-03-01 2018-08-24 Mobile object management apparatus, mobile object management method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016039255 2016-03-01
JP2016-039255 2016-03-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/111,370 Continuation US20180362050A1 (en) 2016-03-01 2018-08-24 Mobile object management apparatus, mobile object management method, and storage medium

Publications (1)

Publication Number Publication Date
WO2017150424A1 true WO2017150424A1 (ja) 2017-09-08

Family

ID=59744037

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/007392 WO2017150424A1 (ja) 2016-03-01 2017-02-27 移動体管理装置、移動体管理方法、及び記憶媒体

Country Status (5)

Country Link
US (1) US20180362050A1 (ja)
EP (1) EP3425607A4 (ja)
JP (1) JP6631690B2 (ja)
CN (1) CN108701409A (ja)
WO (1) WO2017150424A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110915A1 (ja) * 2018-11-30 2020-06-04 ソニー株式会社 情報処理装置、および情報処理システム、並びに情報処理方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006039642A (ja) 2004-07-22 2006-02-09 Denso Corp 車両保険料策定および中古車価格策定のための方法およびシステム
JP2008186045A (ja) * 2007-01-26 2008-08-14 Denso Corp 運転評価装置
JP2009126503A (ja) * 2007-11-28 2009-06-11 Sumitomo Electric Ind Ltd 運転評価装置、運転評価システム、コンピュータプログラム及び運転評価方法
JP2010038187A (ja) * 2008-07-31 2010-02-18 Fujitsu Ten Ltd 省燃費運転診断装置、省燃費運転診断システム及び省燃費運転診断方法
JP2010107384A (ja) * 2008-10-30 2010-05-13 Aisin Aw Co Ltd 安全運転評価システム及び安全運転評価プログラム
JP2010205123A (ja) * 2009-03-05 2010-09-16 Nec System Technologies Ltd 運転支援方法、運転支援装置及び運転支援用プログラム
JP2013069278A (ja) 2011-09-23 2013-04-18 Ricoh Co Ltd 交通標識検知方法及び交通標識検知装置
JP2015075802A (ja) * 2013-10-07 2015-04-20 日産自動車株式会社 車両の運転支援制御装置または運転支援制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7804980B2 (en) * 2005-08-24 2010-09-28 Denso Corporation Environment recognition device
WO2010001865A1 (ja) * 2008-06-30 2010-01-07 ローム株式会社 車両の走行情報記録装置
DE102010021558A1 (de) * 2010-05-26 2011-12-01 Gm Global Technology Operations Llc (N.D.Ges.D. Staates Delaware) Fahrerassistenzsystem mit einer Einrichtung zur Erkennung von Verkehrszeichen
DE102010038454A1 (de) * 2010-07-27 2012-02-02 Bayerische Motoren Werke Aktiengesellschaft Ansteuerung einer Anzeigeeinheit eines Fahrzeugs
DE102012023867A1 (de) * 2012-12-06 2014-06-12 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verkehrsampelerkennung
CN103021182B (zh) * 2012-12-10 2015-07-08 成都林海电子有限责任公司 机动车闯红灯违章监测方法及装置
EP2750325A3 (en) * 2012-12-28 2016-05-11 Ricoh Company, Ltd. Communication apparatus, communication system, communication method, and recording medium storing communication control program
US9346400B2 (en) * 2013-12-20 2016-05-24 Ford Global Technologies, Llc Affective user interface in an autonomous vehicle
CN105206052B (zh) * 2015-09-21 2018-05-11 张力 一种驾驶行为分析方法及设备
CN105336203A (zh) * 2015-12-01 2016-02-17 电子科技大学 一种带无线发射功能的交通标志

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006039642A (ja) 2004-07-22 2006-02-09 Denso Corp 車両保険料策定および中古車価格策定のための方法およびシステム
JP2008186045A (ja) * 2007-01-26 2008-08-14 Denso Corp 運転評価装置
JP2009126503A (ja) * 2007-11-28 2009-06-11 Sumitomo Electric Ind Ltd 運転評価装置、運転評価システム、コンピュータプログラム及び運転評価方法
JP2010038187A (ja) * 2008-07-31 2010-02-18 Fujitsu Ten Ltd 省燃費運転診断装置、省燃費運転診断システム及び省燃費運転診断方法
JP2010107384A (ja) * 2008-10-30 2010-05-13 Aisin Aw Co Ltd 安全運転評価システム及び安全運転評価プログラム
JP2010205123A (ja) * 2009-03-05 2010-09-16 Nec System Technologies Ltd 運転支援方法、運転支援装置及び運転支援用プログラム
JP2013069278A (ja) 2011-09-23 2013-04-18 Ricoh Co Ltd 交通標識検知方法及び交通標識検知装置
JP2015075802A (ja) * 2013-10-07 2015-04-20 日産自動車株式会社 車両の運転支援制御装置または運転支援制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3425607A4

Also Published As

Publication number Publication date
JPWO2017150424A1 (ja) 2019-01-24
EP3425607A4 (en) 2019-04-10
JP6631690B2 (ja) 2020-01-15
CN108701409A (zh) 2018-10-23
US20180362050A1 (en) 2018-12-20
EP3425607A1 (en) 2019-01-09

Similar Documents

Publication Publication Date Title
CN110753934B (zh) 主动选择和标记图像以进行语义分割的系统和方法
US9852553B2 (en) Apparatus and method of requesting emergency call for vehicle accident by using travelling information about vehicle
US10591909B2 (en) Handheld mobile device for adaptive vehicular operations
US11720971B1 (en) Machine learning based accident assessment
CA3065731C (en) Systems and methods for system generated damage analysis
JP6939362B2 (ja) 車両捜索システム、車両捜索方法、ならびに、それに用いられる車両およびプログラム
JP2016197378A (ja) 運転特性評価用情報提供システムおよび提供方法
JP2015011683A (ja) 運転評価の指標生成方法、情報処理装置、車載器およびその制御方法と制御プログラム
CN112805724B (zh) 车辆驾驶场景识别方法及装置
WO2017150424A1 (ja) 移動体管理装置、移動体管理方法、及び記憶媒体
US20190073737A1 (en) Facilitating Cross-Platform Transportation Arrangements with Third Party Providers
CN106228639B (zh) Obd数据的处理方法和装置
CN115221151B (zh) 车辆数据的传输方法、装置、车辆、存储介质及芯片
US20170092121A1 (en) Method and System for Determining and Using Property Associations
CN114771539B (zh) 车辆变道决策方法、装置、存储介质及车辆
CN115056784B (zh) 车辆控制方法、装置、车辆、存储介质及芯片
US11693920B2 (en) AI-based input output expansion adapter for a telematics device and methods for updating an AI model thereon
CN115297461A (zh) 数据交互方法、装置、车辆、可读存储介质及芯片
CN115203457A (zh) 图像检索方法、装置、车辆、存储介质及芯片
US11590982B1 (en) Trip based characterization using micro prediction determinations
CN110901640B (zh) 车辆运动扭矩自动补偿方法、装置、设备及存储介质
KR20140147298A (ko) 디지털 운행기록 장치
CN115730340A (zh) 一种数据处理方法及相关装置
JP2012256138A (ja) 携帯端末装置およびこれを備えた運転評価システム
JP2022045521A (ja) 情報管理システムおよびこれに用いられる携帯端末、画像管理サーバ

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018503278

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017759890

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017759890

Country of ref document: EP

Effective date: 20181001

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17759890

Country of ref document: EP

Kind code of ref document: A1