WO2017022534A1 - 運転評価装置 - Google Patents

運転評価装置 Download PDF

Info

Publication number
WO2017022534A1
WO2017022534A1 PCT/JP2016/071671 JP2016071671W WO2017022534A1 WO 2017022534 A1 WO2017022534 A1 WO 2017022534A1 JP 2016071671 W JP2016071671 W JP 2016071671W WO 2017022534 A1 WO2017022534 A1 WO 2017022534A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
lane change
driving
evaluation
time
Prior art date
Application number
PCT/JP2016/071671
Other languages
English (en)
French (fr)
Inventor
啓之 大石
Original Assignee
矢崎エナジーシステム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 矢崎エナジーシステム株式会社 filed Critical 矢崎エナジーシステム株式会社
Publication of WO2017022534A1 publication Critical patent/WO2017022534A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles

Definitions

  • the present invention relates to a driving evaluation apparatus for evaluating a driving operation of a driver who drives a vehicle.
  • in-vehicle devices such as digital tachographs mounted on vehicles for business use, etc.
  • devices that analyze and evaluate operation record data recorded by these on-vehicle devices have an overspeed warning function (Patent Literature) 1).
  • Patent Literature There is also a function to evaluate driving based on information such as the number of times of excess.
  • the driving advice notification system of Patent Document 3 shows that advice relating to driving of the own vehicle is performed by utilizing the claim information corresponding to the horning sound of another vehicle.
  • the direction indicator signal is issued 3 seconds before the course is changed and continues until the course is changed.
  • the driver of the other vehicle can correctly predict the traveling direction of the host vehicle by visually checking the signal of the host vehicle, and is dangerous. It is possible to drive with care in advance so as not to cause a situation.
  • the lane change is started immediately after the own vehicle gives a signal from the direction indicator, the vehicles of other vehicles approach each other without being able to see the signal, and other vehicles are forced to decelerate suddenly, There is also a possibility to do.
  • the present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a driving evaluation apparatus capable of appropriately evaluating a driving operation for changing lanes.
  • the driving evaluation apparatus is characterized by the following (1) to (4).
  • a driving evaluation device that evaluates a driving operation of a driver based on driving record data in which a predetermined event detected on a vehicle is recorded, Based on the operation record data, a lane change start time in the vehicle and a direction indicator operation start time in the vicinity of the lane change start time are detected, respectively, and the direction indicator operation start time and the lane change start time are detected.
  • An evaluation result output unit that outputs an evaluation result based on the time difference between A driving evaluation device comprising:
  • the evaluation result output unit detects the lane change start time in the vehicle and the direction indicator operation start time in the vicinity of the lane change start time, and therefore correctly calculates the time difference between them. Therefore, appropriate evaluation can be performed based on this time difference. Further, for example, when a lane change is performed without the direction indicator operating, it can be recognized that the driving operation is abnormal.
  • the vehicle-mounted device recognizes the position of the traveling lane boundary line marked on the road and the position of the own vehicle based on the video taken by the in-vehicle camera, and the traveling lane boundary line in the vehicle width direction and the own vehicle
  • a lane change information generating unit that generates lane change information representing a positional relationship with the lane change information and records the lane change information as part of the operation record data.
  • the lane change start time can be correctly specified. Further, since the lane change information is recorded as a part of the operation record data, when the operation record data is read, the situation can be understood by going back in time. That is, after detecting the lane change, it is possible to detect the timing of the operation start of the direction indicator that is expected to occur at a timing earlier than that.
  • the evaluation result output unit calculates the time difference for each of a plurality of driving operations related to lane change, aggregates the plurality of time differences, performs predetermined statistical processing, and evaluates the result of the statistical processing as an evaluation result Output as The driving evaluation apparatus according to (1).
  • this driving evaluation device even if a large variation occurs depending on the situation in each driver's driving operation, for example, an average value obtained by statistical processing is output. , To understand overall trends such as driving habits. Therefore, an evaluation result suitable for use for the purpose of teaching safe driving can be obtained.
  • the evaluation result output unit displays the evaluation result in a state in which a difference between a predetermined evaluation reference value and the evaluation result can be distinguished.
  • running evaluation apparatus as described in said (3).
  • this driving evaluation apparatus it is possible to easily grasp the difference between the evaluation result indicating the individual tendency of the driver and the evaluation reference value from the displayed content.
  • the driving evaluation apparatus may be as shown in the following (5) to (9).
  • the lane change information generation unit generates a distance in the vehicle width direction between the vehicle width direction end of the host vehicle and the travel lane boundary line as the lane change information.
  • running evaluation apparatus as described in said (2).
  • This driving evaluation device makes it easy to specify the timing when the lane change is actually started based on the generated lane change information.
  • the on-vehicle device monitors an operation state of the direction indicator on the vehicle or an operation on the direction indicator, detects at least a time when the direction indicator starts an operation, and determines the time A direction indicator operation start time recording unit for recording as part of the operation record data,
  • the driving evaluation apparatus according to (2) or (5).
  • this driving evaluation apparatus it is possible to detect the lane change start time in the vehicle and the direction indicator operation start time in the vicinity of the lane change start time based on the operation record data.
  • the evaluation result output unit individually processes the operation record data associated with each of a plurality of drivers, and displays the list in a state where the evaluation results of each of the plurality of drivers can be compared.
  • the driving evaluation apparatus according to (3) or (4).
  • this driving evaluation device it is possible to easily grasp the tendency of each driver's driving operation and the like by comparing a plurality of drivers. Therefore, for example, it is possible to easily identify a driver who needs guidance for safe driving among a large number of drivers.
  • a first in-vehicle camera capable of photographing a scenery outside the passenger compartment including the road surface
  • a second in-vehicle camera capable of photographing the driver in the passenger compartment
  • the vehicle-mounted device records a video captured by the first vehicle-mounted camera and a video captured by the second vehicle-mounted camera, respectively, as a part of the operation record data.
  • running evaluation apparatus as described in said (2).
  • the evaluation result output unit is mounted on the vehicle-mounted device.
  • the vehicle-mounted device when the driver makes a lane change before a sufficient time has elapsed since the driver started the operation of the direction indicator, the vehicle-mounted device immediately responds to the driver. It is possible to urge you to do safe warnings and encourage safe driving.
  • the driving evaluation device of the present invention it is possible to appropriately evaluate the driving operation for changing lanes. That is, since the evaluation result output unit detects the lane change start time in the vehicle and the direction indicator operation start time in the vicinity of the lane change start time, it is possible to correctly calculate these time differences. Appropriate evaluation can be performed based on Further, for example, when a lane change is performed without the direction indicator operating, it can be recognized that the driving operation is abnormal.
  • FIG. 1 is a block diagram illustrating a configuration example of a driving evaluation apparatus according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing main operations of the driving evaluation apparatus in the embodiment of the present invention.
  • FIG. 3 is a plan view illustrating an example of a state of a road on which the vehicle travels.
  • FIG. 4 is a front view showing a display example of evaluation results.
  • FIG. 1 A configuration example of the driving evaluation apparatus in the embodiment of the present invention is shown in FIG.
  • running evaluation apparatus shown in FIG. 1 is provided with the onboard equipment 10 and office PC40.
  • the in-vehicle device 10 has a function of a digital tachograph, that is, an operation recorder, and is used in a state where it is mounted on a business vehicle to be managed such as a taxi, a truck, or a bus.
  • the vehicle-mounted device 10 can automatically acquire various information indicating the operation state of the host vehicle, and record and save the data in the recording medium 25.
  • the office PC 40 is a management device installed in a company office or the like that owns a large number of vehicles and manages these operation tasks, and incorporates dedicated software for management into a general personal computer (PC). It is configured as a device. That is, this office PC 40 acquires and analyzes information on the operation state recorded by the vehicle-mounted device 10 mounted on each of a large number of vehicles, thereby managing the operation of each vehicle and the labor of each crew member driving each vehicle. It can be used for management and safe driving management.
  • PC personal computer
  • Data transfer between each vehicle-mounted device 10 and the office PC 40 can be performed by moving a recording medium 25 that is detachable from the vehicle-mounted device 10, or when the vehicle-mounted device 10 has a wireless communication function. Data can also be transferred by wireless communication.
  • the vehicle-mounted device 10 recognizes the positions of lane markings that are marked on the road surface of the road on which the host vehicle travels and that represents the boundaries of the travel lanes, The distance from each partition line is calculated and recorded on the recording medium 25. In addition to the distance, information indicating the date and time, the current position (latitude / longitude) of the host vehicle, and the operating state of the direction indicator (turn signal) is also recorded.
  • the information recorded on the recording medium 25 by each vehicle-mounted device 10 is accumulated on the rear analysis database 26 accessible by the office PC 40.
  • the office PC 40 reads and analyzes the information recorded by each vehicle from the rear analysis database 26, and acquires necessary information.
  • the lane behavior determination function identifies the time when the vehicle has changed lanes, and identifies whether the lane has been changed to the left or right.
  • the office PC 40 searches for information in the past, that is, in a direction going back in time from the time (t00) at which the start of the lane change is detected, and specifies the time (t01) at which the direction indicator starts to operate. To do. Then, the time difference (t00 ⁇ t01) between the two times is calculated. That is, in the lane change event, the time difference (t00 ⁇ t01) from the time when the signal from the direction indicator is started to the time when the lane change is actually started is specified. Further, the time difference is totaled for a number of lane change events recorded as data on the rear analysis database 26, and statistical processing is performed.
  • And office PC40 displays the result of statistical processing on the screen.
  • a difference between a predetermined evaluation reference value and an actual time difference is output in a state where it can be easily recognized visually.
  • the office PC 40 can access the recorded data of a large number of crew members, the statistical processing is performed for each crew member, the results are displayed in a list, and the results are output in a state in which differences in behavior among a plurality of crew members can be compared. .
  • the vehicle-mounted device 10 can also warn the crew when the calculated time difference is compared with a predetermined threshold value and it is evaluated that the driving is not safe.
  • 1 includes a video decoder 11, an image processing CPU 12, a read-only memory 13, a temporary storage memory 14, an NTSC signal processing unit 15, a monitor output unit 16, a control system processing CPU 17, and a read-only memory 18.
  • Temporary storage memory 19 Vehicle signal interface 20, GPS position information acquisition unit 21, CAN interface 22, audio output unit 23, vibrator output unit 24, recording medium 25, PC setting unit 27, handy terminal connection unit 28, and nonvolatile memory
  • a memory 29 (EEPROM) is provided.
  • a main vehicle camera 31 and an optional vehicle camera 32 are connected to the two video input terminals of the video decoder (Decoder) 11, respectively.
  • the main in-vehicle camera 31 is installed in the passenger compartment so as to be able to capture the scenery in front of the traveling direction of the host vehicle including the road surface of the road, and outputs the captured image as an NTSC (National Television System Committee) standard video signal.
  • the optional in-vehicle camera 32 is installed in the passenger compartment so that a crew member driving the host vehicle can be photographed as a subject, and outputs the photographed video as an NTSC video signal.
  • the video decoder 11 takes in video signals output from the main vehicle-mounted camera 31 and the optional vehicle-mounted camera 32, and generates digital image data that can be processed by a computer or the like for each frame. Digital image data corresponding to the video captured by the main vehicle-mounted camera 31 and digital image data corresponding to the video captured by the optional vehicle-mounted camera 32 are respectively input to the image processing CPU 12 and the control system processing CPU 17.
  • the image processing CPU 12 is a microcomputer, and can execute predetermined image processing at high speed by executing a program incorporated in advance. Specifically, from the digital image data corresponding to the video of the main vehicle-mounted camera 31, the contour shape of the own vehicle and the position of each part are recognized, or each of the travel lane boundaries marked on the road surface included in the landscape A partition line (white line) can be recognized. The image processing CPU 12 can output the result of the image processing to the control system processing CPU 17.
  • a read-only memory (ROM) 13 is a memory from which data can be read by accessing the image processing CPU 12, and stores various programs and various constants necessary for the operation of the image processing CPU 12 in advance. ing.
  • the temporary storage memory (SDRAM) 14 is a memory in which data can be written and read by accessing the image processing CPU 12, and is used to temporarily store various data as necessary.
  • the NTSC signal processing unit 15 generates an NTSC standard video signal based on an image such as a recognition result in the image processing CPU 12. This video signal is output to the monitor output unit 16. By connecting a predetermined monitor device (display) to the monitor output unit 16, the recognition result in the image processing CPU 12 can be monitored.
  • the control system processing CPU 17 is a microcomputer, and can execute control for realizing various functions required for the vehicle-mounted device 10 by executing various programs incorporated in advance. Since the vehicle-mounted device 10 is a digital tachograph, the main operation of the control system processing CPU 17 is to automatically acquire various information related to the operation of the host vehicle and record it in the recording medium 25.
  • Information recorded on the recording medium 25 by the control system processing CPU 17 includes data D1 to D9 as shown below.
  • D1 Distance in the vehicle width direction from the left and right ends of the host vehicle to each lane marking at the boundary of the driving lane
  • D2 Current time (date and time)
  • D3 Current position of the vehicle (latitude / longitude)
  • D4 Presence / absence of operation of left and right direction indicators
  • D5 Ignition (IGN) on / off state
  • D6 Brake operation on / off
  • D7 Vehicle speed [km / h]
  • D8 Image data of crew members who are driving
  • D9 Data representing the occurrence of various events such as alarms
  • a read-only memory (ROM) 18 is a memory from which data can be read by accessing the control system processing CPU 17, and holds various programs and various constants necessary for the operation of the control system processing CPU 17 in advance. ing.
  • the temporary storage memory (SDRAM) 19 is a memory in which data can be written and read by accessing the control system processing CPU 17, and is used for temporarily storing various data as required.
  • the non-volatile memory (EEPROM) 29 is a memory in which data can be written and read by accessing the control system processing CPU 17, and holds various parameters, various threshold values, tables, etc. for determining the operation mode of the vehicle-mounted device 10. be able to.
  • the data held in the nonvolatile memory 29 can be rewritten as necessary.
  • the vehicle signal interface (I / F) 20 performs signal processing necessary for exchanging signals between the vehicle-mounted device 10 and various other electrical components on the vehicle. For example, the following signal input / output is performed via the vehicle signal interface 20.
  • SG1 Trigger signal (output)
  • SG2 Signal (input) indicating on / off of ignition (IGN)
  • SG3 Signal indicating the state of the manual switch that can be operated by the crew
  • IGN Input
  • SG4 Signal indicating on / off of brake operation (input)
  • SG5 Signal indicating on / off of the left direction indicator (input)
  • SG6 Signal indicating on / off of the right direction indicator (input)
  • the GPS position information acquisition unit 21 can acquire the latitude and longitude of the current position of the vehicle by calculation using a receiver that receives radio waves from a GPS (Global Positioning System) satellite.
  • the GPS receiver may be built in the vehicle-mounted device 10 or connected to the outside of the vehicle-mounted device 10.
  • the CAN interface (I / F) 22 has a built-in transceiver for performing data communication of CAN (Controller Area Network) standard on the vehicle.
  • the CAN interface 22 is connected to other devices such as a meter unit of an instrument panel and various electronic control units (ECUs) via a communication network on the vehicle. Therefore, the vehicle-mounted device 10 can acquire various information from other devices, for example, vehicle speed information, engine rotation speed information, and the like.
  • the voice output unit 23 can generate a synthesized voice signal for outputting a message such as a warning or guidance as a pseudo voice heard by the driver from a predetermined speaker. That is, the voice output unit 23 outputs a necessary voice message in accordance with an instruction from the control system processing CPU 17.
  • the vibrator output unit 24 can drive a predetermined vibrator according to an instruction from the control system processing CPU 17.
  • the vibration generated by driving the vibrator can make the driver perceive a certain situation.
  • the recording medium 25 is configured as a card-like device with a built-in nonvolatile memory, for example.
  • the recording medium 25 is detachably attached to a predetermined card slot provided in the vehicle-mounted device 10.
  • information such as a crew ID representing a specific crew member (driver) using the storage medium 25 is registered in advance.
  • the control system processing CPU 17 can access the recording medium 25 mounted on the vehicle-mounted device 10 and write / read data to / from the recording medium 25.
  • the operation information including the data D1 to D9 is sequentially written in the memory on the recording medium 25 under the control of the control system processing CPU 17. Note that special access control is performed so that the operation information written in the recording medium 25 is not falsified or deleted due to unauthorized access.
  • the crew member removes the recording medium 25 from the vehicle-mounted device 10 and takes it back to the office, and transfers various operation information recorded on the recording medium 25 to the server on the office PC 40. And can be registered in the backward analysis database 26.
  • the operation information on the recording medium 25 may be automatically transferred to the server while the recording medium 25 is attached to the onboard equipment 10. Is possible.
  • the PC setting unit 27 includes a terminal for connecting a personal computer (PC) to the vehicle-mounted device 10.
  • PC personal computer
  • the handy terminal (H / T) connection unit 28 includes a connection terminal for connecting a predetermined handy terminal (H / T).
  • this handy terminal includes a plurality of buttons and a display that can be operated by a user (administrator). For example, when a predetermined administrator performs maintenance on the vehicle-mounted device 10, various parameters stored in the nonvolatile memory 29 can be read or updated by connecting a handy terminal to the vehicle-mounted device 10.
  • FIG. 3 A specific example of a state in which the road on which the vehicle travels is viewed from above is shown in FIG.
  • two traveling lanes L ⁇ b> 1 and L ⁇ b> 2 exist on the road 50 on which the host vehicle 54 is traveling, with the lane marking 52 as a boundary. Therefore, the host vehicle 54 can travel on the traveling lane L1 as shown in FIG. 3, or can travel on the adjacent traveling lane L2. Therefore, the host vehicle 54 may change the lane from the travel lane L1 to the travel lane L2, and conversely, the lane may be changed from the travel lane L2 to the travel lane L1.
  • the lane change of the own vehicle 54 shown in FIG. 3 indicates that the distance A1 in the vehicle width direction, that is, the state in which the distance between the right end of the own vehicle 54 and the lane marking 52 has approached zero is “start lane change”. Can be determined.
  • the image processing CPU 12 is based on the image, and the positions of the left and right ends of the host vehicle 54 and the positions of the lane markings 51, 52, and 53. Recognize each. Further, the control system processing CPU 17 uses the recognition result of the image processing CPU 12, the distance A1 in the vehicle width direction between the right end of the host vehicle 54 and the lane marking 52, and the left end of the host vehicle 54 and the lane marking 51. And a distance A2 in the vehicle width direction are detected. These distances A1 and A2 are recorded on the recording medium 25 together with the time (D2) as the operation information of the data D1.
  • the office PC 40 that analyzes such operation information, for example, a state in which the distance between the right end of the own vehicle 54 and the lane marking 52 is close to 0, for example, “lane” from the situation in which the recorded distance A1 changes. "Start of change” can be recognized, and the time (t00) at that time can also be acquired from the data D2.
  • the office PC 40 analyzes the operation information on the rear analysis database 26, the timing at which the operation of the direction indicator starts can be specified based on the data D4, and the time (t01) can also be specified by the data D2.
  • the office PC 40 can also calculate the time difference (t00-t01) between the two times.
  • the length of this time difference is related to whether there is a margin of time necessary for the driver of the other vehicle to predict the course change accompanying the lane change of the own vehicle 54 and reflect it in the driving operation of the other vehicle. It is very important for proper driving. For example, as stipulated in the Road Traffic Law, a dangerous situation can be prevented from occurring by starting the direction indicator 3 seconds before the lane change start time (t00). It is highly possible.
  • steps S11 and S12 indicate the operation in the vehicle-mounted device 10
  • steps S21 to S27 indicate the operation of the office PC 40.
  • the operation shown in FIG. 2 will be described below.
  • the image processing CPU 12 performs image processing on digital image data corresponding to a landscape image captured by the main vehicle-mounted camera 31, so that a white line on the road, that is, each partition line 51 shown in FIG. 52 and 53 are recognized (S11).
  • the above-mentioned data D1 to D9 that is, the distance in the vehicle width direction from the left and right ends of the own vehicle to the lane markings on the lane boundary, the current time (date and time), the current position (latitude / longitude) of the own vehicle, The presence or absence of each operation of the direction indicator is automatically acquired by the control system processing CPU 17 and recorded on the recording medium 25 (S12).
  • the operation information recorded on the recording medium 25 is a rear analysis database managed by the server of the office PC 40 by physical movement of the recording medium 25 or by wireless communication after the operation operation of the vehicle on that day is completed. 26.
  • the office PC 40 accesses the rear analysis database 26, and the operation information for each crew that is sequentially recorded as time series data. Is read from the position of the operation start time (S21).
  • step S22 the office PC 40 identifies whether or not the lane change is started by referring to the data D1 included in the read operation information. Also, a distinction is made between a lane change to the right side and a lane change to the left side.
  • the host vehicle 54 moves from the travel lane L1 to the travel lane L2 shown in FIG. 3 (changes the lane)
  • the data of the location where the value of the data D1 representing the distance A1 in the vehicle width direction approaches zero.
  • the office PC 40 recognizes the position as the location where the lane change is started in S22.
  • the process proceeds from S22 to S23.
  • the office PC 40 first acquires the lane change start time (t00) by referring to the data D2 included in the operation information of the location where the lane change is started. Further, the office PC 40 sequentially searches the time series data of the operation information for a predetermined time (for example, 5 seconds) before and after the position of the lane change start time, and the location where the operation of the direction indicator starts is the content of the data D4.
  • the direction indicator operation start time (t01) is obtained in S23 by referring to the data D2 at that location.
  • the lane change is started after the operation of the direction indicator starts. Therefore, when searching for the location where the operation of the direction indicator has started in S23, the time-series data is usually referred to in the order of going back in time from the location where the lane change is started.
  • the search is performed both before and after the location where the lane change is started.
  • the lane change may be performed without giving a signal by the direction indicator. In this case, the office PC 40 fails to search for the location where the operation of the direction indicator has started, and abnormal driving is performed. Can be detected.
  • the office PC 40 calculates the time difference (t00-t01) from the direction indicator operation start time (t01) detected in S23 to the lane change start time (t00), and evaluates this time difference as one evaluation. Record as target value.
  • the office PC 40 If the reading of all the time series data or all the time series data within the range designated by the administrator has not been completed, the office PC 40 returns from S25 to S22 and repeats the above processing. Therefore, the time difference (t00 ⁇ t01) is recorded as the evaluation target value in S24 for each of all the lane change events recorded as the operation information.
  • the office PC 40 proceeds to S26 and performs predetermined statistical processing. Specifically, the office PC 40 evaluates all the lane change events for each of the lane change in the right direction and the lane change in the left direction separately and a combination of both. Aggregate target values (time difference) to calculate statistical values. For example, the office PC 40 creates a histogram indicating the distribution status of the occurrence frequency for each length of time, and obtains an average value, a mode value, a standard deviation, a maximum value, a minimum value, and the like.
  • the office PC 40 After the processing up to step S26 is completed, the office PC 40 creates a daily report 35 including information reflecting the result of the statistical processing of S26 as an evaluation result, and prints the daily report 35 on paper. Further, the driving evaluation screen is displayed on the display of the office PC 40 (S27).
  • FIG. 4 An example of the evaluation result display is shown in FIG.
  • the display content shown in FIG. 4 represents a specific example of the driving evaluation screen displayed on the display of the office PC 40 in step S27 shown in FIG.
  • the driving evaluation screen of FIG. 4 is obtained by outputting the evaluation results regarding the driving operation of each lane change of five crew members (driver A, driver B, driver C, driver D, driver E) as a histogram. Are displayed in a list so that the evaluation results of the crew members can be compared. This histogram represents a difference in frequency due to a difference in display density or coloring. Further, as evaluation reference values, vertical lines representing the positions of the values “1 second ago”, “2 seconds ago”, and “3 seconds ago” are displayed on the histogram as reference lines.
  • time t0 corresponds to the time (t00) when the lane change is actually started.
  • Times t1, t2, and t3 represent reference times of “1 second ago”, “2 seconds ago”, and “3 seconds ago”, respectively, as relative times based on the position of time t0.
  • the most frequently evaluated value (t00-t01) is about 2.7 seconds, so “3” defined by the Road Traffic Law. It is equivalent to “second”, and it can be considered that the vehicle is almost safely operated.
  • the histogram of “Driver E” since the most frequently evaluated value is about 0.2 seconds, the lane change is started almost simultaneously with the start of the direction indicator signal. Therefore, it can be regarded as driving very dangerously.
  • the vehicle-mounted device 10 shown in FIG. 1 also automatically records image data corresponding to the driver's image captured by the optional vehicle-mounted camera 32 on the recording medium 25 as data D8. Therefore, when the manager evaluates the driving situation of each crew member, it is possible to reproduce the image data and grasp the driving situation of the driver. For example, you can easily search and display images showing the driver's behavior when changing lanes from the time, so you can check whether the left and right safety checks are being performed when changing lanes. It can also be reflected.
  • condition considered to be the start of lane change is not limited to when the distance A1 or A2 in the vehicle width direction approaches 0, but the condition can be corrected as necessary.
  • highly accurate detection is possible regardless of the road conditions.
  • a driving evaluation device (the vehicle-mounted device 10 and / or the office PC 40) that evaluates a driving operation of a driver based on driving record data that records a predetermined event detected on a vehicle, Based on the operation record data, a lane change start time (t00) in the vehicle and a direction indicator operation start time (t01) in the vicinity of the lane change start time are detected, respectively, and the direction indicator operation start time And an evaluation result output unit that outputs an evaluation result based on a time difference (t00-t01) between the lane change start time and the lane change start time,
  • a driving evaluation device comprising: [2] The driving evaluation apparatus according to [1] above, An on-vehicle device (10) mounted on the vehicle for recording the operation record data; The vehicle-mounted device recognizes the position of the travel lane boundary line (partition lines 51 to 53) marked on the
  • Lane change information (distances A1 and A2 in the vehicle width direction) representing the positional relationship between the travel lane boundary line in the vehicle width direction and the host vehicle is generated, and the lane change information is used as part of the operation record data (D1).
  • a lane change information generation unit (control system processing CPU 17) that records as Driving evaluation device.
  • the evaluation result output unit calculates the time difference for each of a plurality of driving operations related to a lane change, aggregates the plurality of time differences, performs predetermined statistical processing, and evaluates the result of the statistical processing as an evaluation result (daily report 35). And output as a display screen 36).
  • Driving evaluation device The evaluation result output unit calculates the time difference for each of a plurality of driving operations related to a lane change, aggregates the plurality of time differences, performs predetermined statistical processing, and evaluates the result of the statistical processing as an evaluation result (daily report 35). And output as a display screen 36).
  • the evaluation result output unit displays the evaluation result in a state where the difference between the evaluation reference value determined in advance and the evaluation result can be distinguished.
  • Driving evaluation device [5] The driving evaluation apparatus according to [2] above, The lane change information generation unit generates distances (A1, A2) in the vehicle width direction between the vehicle width direction end of the host vehicle and the travel lane boundary line as the lane change information.
  • Driving evaluation device generates distances (A1, A2) in the vehicle width direction between the vehicle width direction end of the host vehicle and the travel lane boundary line as the lane change information.
  • the driving evaluation apparatus monitors an operation state of the direction indicator on the vehicle or an operation on the direction indicator, detects at least a time (t01) when the direction indicator starts operation, and determines the time A direction indicator operation start time recording unit (control system processing CPU 17) for recording as a part (D2) of the operation record data, Driving evaluation device.
  • the evaluation result output unit individually processes the operation record data associated with each of a plurality of drivers, and displays the list in a state where the evaluation results of each of the plurality of drivers can be compared.
  • a first in-vehicle camera (main in-vehicle camera 31) capable of photographing the scenery outside the passenger compartment including the road surface;
  • a second in-vehicle camera (optional in-vehicle camera 32) capable of photographing a driver in the vehicle interior;
  • the vehicle-mounted device (10) records a video captured by the first vehicle-mounted camera and a video captured by the second vehicle-mounted camera, respectively, as a part of the operation record data.
  • Driving evaluation device [9] The driving evaluation apparatus according to [2] above, The evaluation result output unit is mounted on the in-vehicle device, Driving evaluation device.
  • the present invention there is an effect that it becomes possible to appropriately evaluate the driving operation for changing the lane.
  • the present invention that exhibits this effect is useful for a driving evaluation device for evaluating a driving operation of a driver who drives a vehicle.
  • On-vehicle equipment Video decoder 12 Image processing CPU 13, 18 Read-only memory (ROM) 14, 19 Temporary memory (SDRAM) 15 NTSC signal processor 16 Monitor output unit 17 Control system processing CPU DESCRIPTION OF SYMBOLS 20 Vehicle signal interface 21 GPS position information acquisition part 22 CAN interface 23 Audio

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

メイン車載カメラ31で撮影した映像を処理して道路上に標示された走行レーンの各区画線の位置を認識し、車両の左右端部から各区間線までの距離(A1、A2)を検出して時刻と共に記録する。更に、方向指示器の動作有無を表す情報も時刻と共に記録する。記録したデータを解析する際に、車線変更イベント毎に、距離(A1、A2)に基づき車線変更開始時刻(t00)を検出した後、この箇所から時間をさかのぼる方向にデータを検索して、方向指示器の動作開始時刻(t01)を特定する。2つの時刻の時間差(t00-t01)を評価対象とし、更に統計処理を施した結果を評価結果として出力する。評価基準値との対比や、複数乗務員の傾向や個人差の対比ができるように一覧表示する。

Description

運転評価装置
 本発明は、車両を運転する運転者の運転操作を評価するための運転評価装置に関する。
 従来より業務用等の車両に搭載されるデジタルタコグラフなどの車載器や、この車載器が記録した運行記録データを解析して評価する装置においては、速度超過の警報機能を持っている(特許文献1)。また、超過回数などの情報をもとに運転を評価する機能もある。
 また、特許文献2の車両の安全運転度記録装置においては、運転状況を記録した情報に基づき、安全運転行為を判定し、その結果を評価して記録することを示している。また、特許文献2の図2において、「安全運転行為項目」の1つである「急激な車線変更」について、「ウインカー操作から操舵操作までの時間が指定値以上」とすることを示している。
 また、特許文献3の運転アドバイス報知システムにおいては、他車両によるクラクションの鳴動などに相当するクレーム情報を活用して、自車両の運転に関するアドバイスを行うことを示している。
日本国特開2013-206420号公報 日本国特開2002-225586号公報 日本国特開2013-114353号公報
 しかしながら、特許文献1のように速度超過を評価したり、急加速/急減速などを評価するだけでは、運転者が安全運転を行っているかどうかを適切に評価することはできない。例えば、他車両が接近しているにもかかわらず無理な車線変更(レーンチェンジ)を行ったり、方向指示器による合図が不十分な状態で車線変更を行うと、他車両の運転者に迷惑を掛けたり衝突の危険が発生するが、速度や加速度の評価だけではこのような状況を評価の結果に反映することができない。
 例えば、道路交通法においては、方向指示器の合図は、進路変更する3秒前に出し、進路変更が終わるまで継続することが定められている。自車両の変更先の車線(レーン)を他車両が走行している場合には、他車両の運転者は自車両の合図を視認することにより、自車両の進行方向を正しく予想し、危険な状況が生じないように予め注意して運転することができる。しかし、自車両が方向指示器の合図を出した直後に車線変更を開始すると、他車両の運転者が合図を視認できないまま互いの車両が接近し、他車両が急減速を余儀なくされたり、衝突する可能性もある。
 また、特許文献2のように、ウインカー操作から操舵操作までの時間を検出する場合には、運転者がウインカー操作を行うことなく車線変更した場合に、この危険行為を検知できない。また、操舵操作開始と実際の車線変更開始との間に、時間のずれが生じるのは避けられない。特に、カーブしている道路で車線変更を行う場合には、操舵操作を検知できなかったり、操舵操作の開始時刻と実際の車線変更開始時刻とが大きくずれる可能性があるので、運転行為を適切に評価できない。
 本発明は、上述した事情に鑑みてなされたものであり、その目的は、車線変更の運転操作を適切に評価することが可能な運転評価装置を提供することにある。
 前述した目的を達成するために、本発明に係る運転評価装置は、下記(1)~(4)を特徴としている。
(1) 車両上で検出された所定の事象を記録した運行記録データに基づいて、運転者の運転操作を評価する運転評価装置であって、
 前記運行記録データに基づいて、前記車両における車線変更開始時刻と、前記車線変更開始時刻の近傍における方向指示器動作開始時刻とをそれぞれ検出し、前記方向指示器動作開始時刻と前記車線変更開始時刻との時間差に基づいて評価結果を出力する評価結果出力部、
 を備えた運転評価装置。
 この運転評価装置によれば、評価結果出力部が前記車両における車線変更開始時刻と、車線変更開始時刻の近傍における方向指示器動作開始時刻とをそれぞれ検出するので、これらの時間差を正しく算出することが可能であり、この時間差に基づいて適切な評価を行うことができる。また、例えば方向指示器が動作することなく車線変更が行われた場合には異常な運転操作であることを認識できる。
(2) 前記車両上に搭載され前記運行記録データを記録する車載器を備え、
 前記車載器は、車載カメラで撮影された映像に基づき、道路上に標示された走行レーン境界ラインの位置と、自車両の位置とを認識し、車幅方向の前記走行レーン境界ラインと自車両との位置関係を表す車線変更情報を生成し、前記車線変更情報を前記運行記録データの一部として記録する車線変更情報生成部、を有する、
 前記(1)に記載の運転評価装置。
 この運転評価装置によれば、車載カメラで撮影された映像に基づいて車幅方向の走行レーン境界ラインと自車両との位置関係を把握するので、車線変更開始時刻を正しく特定できる。また、車線変更情報を運行記録データの一部分として記録するので、運行記録データを読み出す際に、時間をさかのぼって状況を把握することができる。すなわち、車線変更を検知した後で、それよりも前のタイミングで発生したことが予想される方向指示器の動作開始のタイミングを検出することが可能になる。
(3) 前記評価結果出力部は、車線変更に関する複数回の運転操作のそれぞれについて前記時間差を算出し、複数の前記時間差を集計して所定の統計処理を施し、前記統計処理の結果を評価結果として出力する、
 前記(1)に記載の運転評価装置。
 この運転評価装置によれば、各々の運転者の運転操作に状況に応じて大きなばらつきが生じる場合であっても、例えば統計処理により得られる平均値が出力されるので、この出力結果を用いて、運転の癖などの全体的な傾向を把握できる。したがって、安全運転の指導などの目的で利用するのに適した評価結果が得られる。
(4) 前記評価結果出力部は、事前に定めた評価基準値と、前記評価結果との差異が区別できる状態で前記評価結果を表示する、
 前記(3)に記載の運転評価装置。
 この運転評価装置によれば、運転者個人の傾向を表す前記評価結果と、評価基準値とのずれを、表示される内容から容易に把握できる。
 また、本発明に係る運転評価装置は、下記(5)~(9)のようになっていてもよい。
(5) 前記車線変更情報生成部は、自車両の車幅方向端部と、前記走行レーン境界ラインとの車幅方向の距離を前記車線変更情報として生成する、
 前記(2)に記載の運転評価装置。
 この運転評価装置によれば、生成された車線変更情報に基づいて、実際に車線変更が開始されたタイミングを特定することが容易になる。
(6) 前記車載器は、前記車両上の方向指示器の作動状態、もしくは前記方向指示器に対する操作を監視して、少なくとも前記方向指示器が動作を開始した時刻を検出し、前記時刻を前記運行記録データの一部分として記録する方向指示器動作開始時刻記録部、を備える、
 前記(2)または(5)に記載の運転評価装置。
 この運転評価装置によれば、運行記録データに基づいて、車両における車線変更開始時刻と、車線変更開始時刻の近傍における方向指示器動作開始時刻とをそれぞれ検出することができる。
(7) 前記評価結果出力部は、複数の運転者のそれぞれに対応付けられた前記運行記録データを個別に処理して、複数の運転者のそれぞれの前記評価結果を対比できる状態で一覧表示する、
 前記(3)または(4)に記載の運転評価装置。
 この運転評価装置によれば、各々の運転者の運転操作の癖などの傾向を、複数の運転者の対比により容易に把握できる。したがって、例えば多数の運転者の中で安全運転の指導が必要な運転者を容易に特定できる。
(8) 道路の路面を含む車室外の風景を撮影可能な第1の車載カメラと、
 車室内の運転者を撮影可能な第2の車載カメラと、
 を備え、
 前記車載器は、前記第1の車載カメラが撮影した映像と、前記第2の車載カメラが撮影した映像とをそれぞれ前記運行記録データの一部分として記録する、
 前記(2)に記載の運転評価装置。
 この運転評価装置によれば、運行記録データを読み出して第2の車載カメラが撮影した映像を再生することにより、車線変更の運転操作を行う前に、運転者が安全確認の動作を行ったか否かを確認することができる。
(9) 前記評価結果出力部を前記車載器に搭載した、
 前記(2)に記載の運転評価装置。
 この運転評価装置によれば、運転者が方向指示器の動作を開始してから十分な時間を経過する前に車線変更を行ったような場合には、その直後に車載器が運転者に対して警告なとを行い、安全運転を励行するように促すことが可能になる。
 本発明の運転評価装置によれば、車線変更の運転操作を適切に評価することが可能になる。すなわち、評価結果出力部が車両における車線変更開始時刻と、車線変更開始時刻の近傍における方向指示器動作開始時刻とをそれぞれ検出するので、これらの時間差を正しく算出することが可能であり、この時間差に基づいて適切な評価を行うことができる。また、例えば方向指示器が動作することなく車線変更が行われた場合には異常な運転操作であることを認識できる。
 以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。
図1は、本発明の実施形態における運転評価装置の構成例を示すブロック図である。 図2は、本発明の実施形態における運転評価装置の主要な動作を示すフローチャートである。 図3は、車両が走行する道路の状態の例を示す平面図である。 図4は、評価結果の表示例を示す正面図である。
 本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。
 まず、運転評価装置の概要について説明する。
 本発明の実施形態における運転評価装置の構成例を図1に示す。図1に示した運転評価装置は、車載器10と事務所PC40とを備えている。
 車載器10は、デジタルタコグラフ、すなわち運行記録計の機能を有し、例えばタクシー、トラック、バスなどの管理対象の業務用車両に搭載した状態で使用される。車載器10は、自車両の運行状態を表す様々な情報を自動的に取得して、そのデータを記録メディア25に記録し保存することができる。
 事務所PC40は、多数の車両を保有しこれらの運行業務を管理する企業の事務所等に設置される管理装置であって、一般的なパーソナルコンピュータ(PC)に管理用の専用のソフトウェアを組み込んだ装置として構成されている。すなわち、この事務所PC40は多数の車両の各々に搭載した車載器10が記録した運行状態の情報を取得して解析することにより、各車両の運行管理や、各車両を運転する各乗務員の労務管理や安全運転管理などに役立てることができる。
 各車載器10と事務所PC40との間のデータ転送については、車載器10に対して着脱自在な記録メディア25の移動により行うこともできるし、車載器10が無線通信機能を有する場合には無線通信でデータを転送することもできる。
 本実施形態における特徴的な事項として、車載器10は、自車両が走行する道路の路面に標示され各走行レーンの境界を表す区画線の位置を認識し、自車両の幅方向左右端部と前記各区画線との距離を算出して記録メディア25に記録する。また、前記距離の他に、日時、自車両の現在位置(緯度/経度)、方向指示器(ウインカー)の動作状態を示す情報も記録する。
 また、各車載器10が記録メディア25に記録した情報は、事務所PC40がアクセス可能な後方解析データベース26上に蓄積される。事務所PC40は、後方解析データベース26から各車両の記録した情報を読み出して解析し、必要な情報を取得する。具体的には、レーン挙動判定機能により、当該車両が車線変更を行った時刻を特定すると共に、左右のどちらに車線変更したのかを識別する。
 また、事務所PC40は、車線変更の開始を検出した時刻(t00)から過去に、すなわち時間をさかのぼる方向に向かって情報の検索を行い、方向指示器が動作を開始した時刻(t01)を特定する。そして、2つの時刻の時間差(t00-t01)を算出する。つまり、車線変更イベントの際に、方向指示器による合図を出し始めた時点から、実際に車線変更を開始した時点までの時間差(t00-t01)を特定する。更に、後方解析データベース26上のデータとして記録されている多数の車線変更イベントについて、前記時間差を集計し、統計処理を行う。
 前記時間差を集計する際には、左方向への車線変更と右方向への車線変更とをそれぞれ区別して集計した結果と、左右を区別せずに集計した結果とをそれぞれ記録する。統計処理の具体例としては、ヒストグラムの作成、最頻値、標準偏差、最大値、最小値等の算出を行う。
 そして、事務所PC40は統計処理の結果を画面に表示する。この表示を行う際には、事前に定めた評価基準値と、実際の時間差との差異が視覚的に容易に認識できる状態で出力する。また、事務所PC40は多数の乗務員のそれぞれの記録データにアクセスできるので、乗務員毎にそれぞれ統計処理を行い、その結果を一覧表示して、複数の乗務員の行動の違いを対比できる状態で出力する。
 なお、事務所PC40が行う動作の一部分の機能を車載器10上に搭載することもできる。その場合は、車載器10上で記録メディア25に記録した情報に基づき、ほぼリアルタイムで分析を行うことにより、車線変更の開始時刻(t00)を検出し、方向指示器が動作を開始した時刻(t01)を特定し、2つの時刻の時間差(t00-t01)を算出することができる。更に、車載器10は、算出した前記時間差を所定の閾値と比較して、安全運転でないと評価した場合に、乗務員に警告を行うこともできる。
 次に、車載器10の構成例について説明する。
 図1に示した車載器10は、映像デコーダ11、画像処理用CPU12、読み出し専用メモリ13、一時記憶用メモリ14、NTSC信号処理部15、モニタ出力部16、制御系処理CPU17、読み出し専用メモリ18、一時記憶用メモリ19、車両信号インタフェース20、GPS位置情報取得部21、CANインタフェース22、音声出力部23、バイブレータ出力部24、記録メディア25、PC設定部27、ハンディ端末接続部28、および不揮発性メモリ(EEPROM)29を備えている。
 映像デコーダ(Decoder)11の2つの映像入力端子には、それぞれメイン車載カメラ31およびオプション車載カメラ32が接続されている。メイン車載カメラ31は、道路の路面を含む自車両の進行方向前方の風景を撮影できる状態で車室内に設置されており、撮影した映像をNTSC(National Television System Committee)規格の映像信号として出力する。オプション車載カメラ32は、自車両を運転する乗務員を被写体として撮影できるように車室内に設置されており、撮影した映像をNTSC規格の映像信号として出力する。
 映像デコーダ11は、メイン車載カメラ31およびオプション車載カメラ32のそれぞれが出力する映像信号を取り込んで、コンピュータ等が処理可能なデジタル画像データをフレーム毎に生成する。メイン車載カメラ31が撮影した映像に相当するデジタル画像データ、およびオプション車載カメラ32が撮影した映像に相当するデジタル画像データのそれぞれが、画像処理用CPU12および制御系処理CPU17に入力される。
 画像処理用CPU12は、マイクロコンピュータであり、事前に組み込まれているプログラムを実行することにより、所定の画像処理を高速で実行することができる。具体的には、メイン車載カメラ31の映像に相当するデジタル画像データの中から、自車両の輪郭形状や各部の位置を認識したり、風景に含まれる路面に標示されている走行レーン境界の各区画線(白線)を認識することができる。画像処理用CPU12は、画像処理の結果を制御系処理CPU17に出力することができる。
 読み出し専用メモリ(ROM)13は、画像処理用CPU12のアクセスによりデータの読み出しが可能なメモリであり、画像処理用CPU12が動作するために必要な各種プログラムや各種定数などのデータを事前に保持している。
 一時記憶用メモリ(SDRAM)14は、画像処理用CPU12のアクセスによりデータの書き込みおよび読み出しが可能なメモリであり、様々なデータを必要に応じて一時的に格納するために利用される。
 NTSC信号処理部15は、画像処理用CPU12における認識結果などの画像に基づいて、NTSC規格の映像信号を生成する。この映像信号はモニタ出力部16に出力される。モニタ出力部16に所定のモニタ装置(ディスプレイ)を接続することにより、画像処理用CPU12における認識結果などをモニタすることができる。
 制御系処理CPU17は、マイクロコンピュータであり、予め組み込まれている様々なプログラムを実行することにより、車載器10に必要とされる様々な機能を実現するための制御を行うことができる。車載器10はデジタルタコグラフであるので、制御系処理CPU17の主要な動作は、自車両の運行に関連する様々な情報を自動的に取得して記録メディア25に記録することである。
 制御系処理CPU17が記録メディア25に記録する情報には、以下に示すようなデータD1~D9が含まれている。
D1:自車両左右端部から走行レーン境界の各区画線までの車幅方向の距離
D2:現在時刻(日時)
D3:自車両の現在位置(緯度/経度)
D4:左右の方向指示器の各々の動作の有無
D5:イグニッション(IGN)のオンオフ状態
D6:ブレーキ動作のオンオフ
D7:車速[km/h]
D8:運転中の乗務員を撮影した画像データ
D9:警報などの各種イベントの発生状況を表すデータ
 読み出し専用メモリ(ROM)18は、制御系処理CPU17のアクセスによりデータの読み出しが可能なメモリであり、制御系処理CPU17が動作するために必要な各種プログラムや各種定数などのデータを事前に保持している。
 一時記憶用メモリ(SDRAM)19は、制御系処理CPU17のアクセスによりデータの書き込みおよび読み出しが可能なメモリであり、様々なデータを必要に応じて一時的に格納するために利用される。
 不揮発性メモリ(EEPROM)29は、制御系処理CPU17のアクセスによりデータの書き込みおよび読み出しが可能なメモリであり、車載器10の動作モードを決定するための各種パラメータ、各種閾値、テーブルなどを保持することができる。不揮発性メモリ29が保持するデータは、必要に応じて書き換えることができる。
 車両信号インタフェース(I/F)20は、車載器10と車両上の他の様々な電装品との間で信号のやり取りを行うために必要な信号処理を行う。例えば、次に示すような信号の入出力が車両信号インタフェース20を経由して行われる。SG1:トリガ信号(出力)
SG2:イグニッション(IGN)のオンオフを示す信号(入力)
SG3:乗務員が操作可能な手動スイッチの状態を示す信号(入力)
SG4:ブレーキ動作のオンオフを示す信号(入力)
SG5:左側の方向指示器のオンオフを示す信号(入力)
SG6:右側の方向指示器のオンオフを示す信号(入力)
 GPS位置情報取得部21は、GPS(Global Positioning System)衛星からの電波を受信する受信機を用いて、自車両の現在位置の緯度および経度を計算により取得することができる。なお、GPS受信機は車載器10に内蔵してもよいし、車載器10の外側に接続してもよい。
 CANインタフェース(I/F)22は、車両上でCAN (Controller Area Network)規格のデータ通信を行うためのトランシーバを内蔵している。このCANインタフェース22は、車両上の通信網を経由して他の機器、例えば計器板のメータユニットや様々な電子制御ユニット(ECU)と接続されている。したがって、車載器10は他の機器から様々な情報、例えば車速の情報、エンジン回転速度の情報などを取得することが可能である。
 音声出力部23は、例えば警告や案内などのメッセージを運転者に聞こえる疑似音声として所定のスピーカから出力するための合成音声信号を生成することができる。すなわち、音声出力部23は、制御系処理CPU17の指示に従い、必要な音声のメッセージを出力する。
 バイブレータ出力部24は、制御系処理CPU17の指示に従い、所定のバイブレータを駆動することができる。このバイブレータの駆動により発生する振動で、運転者に何らかの状況を知覚させることができる。
 記録メディア25は、例えば不揮発性メモリを内蔵したカード状のデバイスとして構成される。この記録メディア25は、車載器10に設けられた所定のカードスロットに着脱自在な状態で装着される。この記録メディア25内の記憶領域には、これを使用する特定の乗務員(ドライバ)を表す乗務員IDなどの情報が予め登録されている。
 制御系処理CPU17は、車載器10に装着された記録メディア25にアクセスし、記録メディア25に対してデータの書き込みおよび読み出しを行うことができる。実際には、上記のデータD1~D9を含む運行情報が、制御系処理CPU17の制御により記録メディア25上のメモリに逐次書き込まれる。なお、記録メディア25に書き込まれた運行情報が不正アクセスにより改竄や消去されることがないように、特別なアクセス制御が実施される。
 例えば、車両の運行業務が終了した時に、乗務員が記録メディア25を車載器10から取り外して事務所に持ち帰り、記録メディア25上に記録されている様々な運行情報を事務所PC40上のサーバに転送し、後方解析データベース26に登録することができる。なお、車載器10が無線通信機能を搭載している場合には、記録メディア25を車載器10に装着したままの状態で、記録メディア25上の運行情報をサーバに自動的に転送することも可能である。
 PC設定部27は、車載器10にパーソナルコンピュータ(PC)を接続するための端子を備えている。PC設定部27に所定のパーソナルコンピュータを接続することにより、例えば車載器10の状態を当該パーソナルコンピュータの画面上に表示することができる。
 ハンディ端末(H/T)接続部28は、所定のハンディ端末(H/T)を接続するための接続端子を備えている。このハンディ端末は、図示しないが、ユーザ(管理者)が操作可能な複数のボタンや表示器を備えている。例えば、所定の管理者が車載器10をメンテナンスする時に、ハンディ端末を車載器10に接続することにより、不揮発性メモリ29上に記憶されている各種パラメータを読み出したり更新することができる。
 次に、車線変更の認識に関し説明する。車両が走行する道路を上方から視た状態の具体例を図3に示す。
 図3に示した状態においては、自車両54が走行している道路50に2つの走行レーンL1およびL2が区画線52を境界として区切られた状態で存在している。したがって、自車両54は図3のように走行レーンL1を走行することもできるし、隣接する走行レーンL2を走行することもできる。そのため、自車両54が走行レーンL1から走行レーンL2に車線変更する可能性があり、反対に走行レーンL2から走行レーンL1に車線変更する場合もある。
 ところで、どのような状況を車線変更の開始とみなすかについては必ずしも定かではない。しかし、他車両の運転者から視た場合は、自車両54が走行レーンL1からはみ出した状態であれば、通常とは異なる危険な状態であるとみなすことができる。
 そこで、例えば図3に示した自車両54の車線変更により、車幅方向の距離A1、つまり自車両54の右端と区画線52との距離が0に近づいた状態、を「車線変更の開始」と定めることが可能である。
 一方、図1に示した車載器10においては、前述のように画像処理用CPU12が画像に基づき、自車両54の左右各端部の位置と、区画線51、52、および53の各々の位置をそれぞれ認識する。また、制御系処理CPU17は、画像処理用CPU12の認識結果を利用して、自車両54の右端と区画線52との間の車幅方向の距離A1と、自車両54の左端と区画線51との車幅方向の距離A2とをそれぞれ検出する。そして、これらの距離A1、A2が前述のデータD1の運行情報として、時刻(D2)と共に記録メディア25に記録される。
 したがって、このような運行情報を分析する事務所PC40においては、記録された距離A1の変化する状況から、例えば自車両54の右端と区画線52との距離が0に近づいた状態、つまり「車線変更の開始」を認識することが可能であり、そのときの時刻(t00)もデータD2から取得できる。
 一方、車線変更を行う場合には、それに先だって方向指示器による合図を行う必要がある。図1に示した車載器10においては、左右の方向指示器の各々の動作の有無が、運行情報の一部分であるデータD4として記録メディア25に記録される。したがって、事務所PC40が後方解析データベース26上の運行情報を分析する際には、データD4に基づき方向指示器の動作が開始したタイミングを特定でき、その時刻(t01)もデータD2により特定できる。
 そして、事務所PC40は2つの時刻の時間差(t00-t01)も算出できる。この時間差の長さは、他車の運転者が自車両54の車線変更に伴う進路変更を予想して他車両の運転操作に反映するために必要な時間の余裕の有無と関係するので、安全な運転を行う上で非常に重要である。例えば、道路交通法で規定されているように、車線変更を開始する時点(t00)の3秒前に、方向指示器の合図を開始することで、危険な状況が発生するのを未然に防止できる可能性が高い。
 図1に示した運転評価装置の主要な動作を図2に示す。図2に示す処理において、ステップS11、S12は車載器10における動作を示し、他のステップS21~S27は事務所PC40の動作を示す。図2に示した動作について以下に説明する。
 車載器10においては、メイン車載カメラ31で撮影した風景の映像に相当するデジタル画像データを画像処理用CPU12が画像処理することにより、道路上の白線、すなわち図3に示した各区画線51、52、53を認識する(S11)。
 また、前述のデータD1~D9、すなわち自車両左右端部から走行レーン境界の各区画線までの車幅方向の距離、現在時刻(日時)、自車両の現在位置(緯度/経度)、左右の方向指示器の各々の動作の有無などを、制御系処理CPU17が自動的に取得して記録メディア25上に記録する(S12)。
 記録メディア25に記録した運行情報は、当日の車両の運行業務が終了した後で、記録メディア25の物理的な移動により、もしくは無線通信により、事務所PC40のサーバが管理している後方解析データベース26に転送される。
 一方、所定の管理者が事務所PC40上で運行情報の評価を実施する際には、事務所PC40は後方解析データベース26にアクセスし、時系列データとして順次に記録されている乗務員毎の運行情報を、運行開始時刻の位置から読み込み開始する(S21)。
 ステップS22では、読み込んだ運行情報に含まれているデータD1を参照することにより、車線変更を開始した箇所か否かを事務所PC40が識別する。また、右側への車線変更と左側への車線変更とを区別する。
 例えば、図3に示した走行レーンL1から走行レーンL2に自車両54が移動する(車線変更する)場合には、車幅方向の距離A1を表すデータD1の値が0に近づいた箇所のデータ位置を、S22で車線変更を開始した箇所として事務所PC40が認識する。
 事務所PC40は、車線変更を開始した箇所を検出すると、S22からS23に進む。S23では、事務所PC40は、まず車線変更を開始した箇所の運行情報に含まれているデータD2を参照することにより、車線変更開始時刻(t00)を取得する。更に、事務所PC40は、車線変更開始時刻の位置からその前後所定時間(例えば5秒間)の運行情報の時系列データを順番に検索し、方向指示器の動作が開始した箇所をデータD4の内容に基づき特定し、その箇所のデータD2を参照して方向指示器動作開始時刻(t01)をS23で取得する。
 なお、通常の運転操作においては、方向指示器の動作が開始した後で車線変更を開始することになる。したがって、方向指示器の動作が開始した箇所をS23で検索する際には、通常は車線変更を開始した箇所から過去に向かって時間をさかのぼる方向に順番に時系列データを参照する。但し、乗務員が異常な運転操作を行う可能性もあるので、車線変更を開始した箇所の前後両方について検索を実施する。また、方向指示器による合図を出さずに車線変更を行う可能性もあるが、その場合は、事務所PC40は方向指示器の動作が開始した箇所の検索に失敗することになり、異常な運転であることを検出できる。
 次のステップS24では、事務所PC40は、S23で検出した方向指示器動作開始時刻(t01)から車線変更開始時刻(t00)までの時間差(t00-t01)を算出し、この時間差を1つの評価対象値として記録する。
 全ての時系列データ、もしくは管理者が指定した範囲内の全ての時系列データの読み込みが終了してなければ、事務所PC40は、S25からS22に戻って上記の処理を繰り返す。したがって、運行情報として記録されている全ての車線変更イベントの各々について、S24で時間差(t00-t01)が評価対象値として記録される。
 全ての時系列データ、もしくは管理者が指定した範囲内の全ての時系列データの読み込みが終了すると、事務所PC40は、S26に進み所定の統計処理を行う。具体的には、事務所PC40は、右方向への車線変更と左方向への車線変更とを別々に分けたものと、両方を統合したものとのそれぞれについて、全ての車線変更イベントの前記評価対象値(時間差)を集計して統計値を算出する。例えば、事務所PC40は、時間の長さ毎の発生頻度の分布状況を表すヒストグラムを作成したり、平均値、最頻値、標準偏差、最大値、最小値などを求める。
 ステップS26までの処理が終了した後、事務所PC40はS26の統計処理の結果を評価結果として反映した情報を含む日報35を作成し、日報35を紙に印刷する。また、運転評価画面を事務所PC40のディスプレイに表示する(S27)。
 評価結果の表示例を図4に示す。図4に示す表示内容は、図2に示したステップS27で事務所PC40のディスプレイに表示される運転評価画面の具体例を表している。
 図4の運転評価画面は、5名の乗務員(ドライバA、ドライバB、ドライバC、ドライバD、ドライバE)の各々の車線変更の運転操作に関する評価結果をヒストグラムとして出力したものであり、5名の乗務員の評価結果を対比できるように並べて一覧表示している。このヒストグラムは、表示の濃度または着色の違いにより頻度の違いを表している。また、評価基準値として、「1秒前」、「2秒前」、「3秒前」のそれぞれの値の位置を表す縦線を基準線としてヒストグラム上に表示してある。
 図4において、時間t0は、実際に車線変更を開始した時刻(t00)に相当する。また、時間t1、t2、t3は、それぞれ時間t0の位置を基準とする相対時間として「1秒前」、「2秒前」、「3秒前」の基準時間を表している。
 例えば図4に示す画面中の「ドライバA」のヒストグラムを参照すると、最も頻度の高い評価対象値(t00-t01)が2.7秒程度であるので、道路交通法で規定されている「3秒」と同等であり、ほぼ安全な運転を行っているとみなすことができる。また、「ドライバE」のヒストグラムを参照すると、最も頻度の高い評価対象値が0.2秒程度であるので、方向指示器の合図を開始するのとほぼ同時に車線変更を開始していることになり、非常に危険な運転を行っているとみなすことができる。
 図4の画面のように、複数の乗務員の評価結果を並べて一覧表示することにより、管理者は乗務員全体の評価結果の傾向を容易に把握することができる。また、評価基準値の位置を表示することにより、この評価基準値との差異を容易に把握することができる。したがって、図4中の「ドライバE」の乗務員のように運転の指導が必要な人物を容易に特定できる。
 一方、図1に示した車載器10は、オプション車載カメラ32で撮影した運転者の映像に相当する画像データも、データD8として記録メディア25上に自動的に記録している。したがって、管理者が各乗務員の運転状況について評価を行う際には、前記画像データを再生して運転者の運転の状況を把握することもできる。例えば、車線変更時の運転者の挙動を示す画像を時刻から簡単に検索して表示できるので、車線変更時に左右の安全確認を行っているかどうかを画像により確かめることができ、その結果を評価に反映することもできる。
 なお、車線変更開始とみなす条件については、車幅方向の距離A1またはA2が0に近づいた時に限らず、必要に応じて条件を修正することができる。いずれにしても、車幅方向の距離A1、A2に基づいて車線変更を検出することにより、道路の状況とは無関係に高精度の検出が可能になる。
 ここで、上述した本発明に係る運転評価装置の実施形態の特徴をそれぞれ以下[1]~[9]に簡潔に纏めて列記する。
[1] 車両上で検出された所定の事象を記録した運行記録データに基づいて、運転者の運転操作を評価する運転評価装置(車載器10および/または事務所PC40)であって、
 前記運行記録データに基づいて、前記車両における車線変更開始時刻(t00)と、前記車線変更開始時刻の近傍における方向指示器動作開始時刻(t01)とをそれぞれ検出し、前記方向指示器動作開始時刻と前記車線変更開始時刻との時間差(t00-t01)に基づいて評価結果を出力する評価結果出力部、
 を備えた運転評価装置。
[2] 上記[1]に記載の運転評価装置であって、
 前記車両上に搭載され前記運行記録データを記録する車載器(10)を備え、
 前記車載器は、車載カメラ(メイン車載カメラ31)で撮影された映像に基づき、道路上に標示された走行レーン境界ライン(区画線51~53)の位置と、自車両の位置とを認識し、車幅方向の前記走行レーン境界ラインと自車両との位置関係を表す車線変更情報(車幅方向の距離A1、A2)を生成し、前記車線変更情報を前記運行記録データの一部(D1)として記録する車線変更情報生成部(制御系処理CPU17)、を有する、
 運転評価装置。
[3] 上記[1]に記載の運転評価装置であって、
 前記評価結果出力部は、車線変更に関する複数回の運転操作のそれぞれについて前記時間差を算出し、複数の前記時間差を集計して所定の統計処理を施し、前記統計処理の結果を評価結果(日報35、表示画面36)として出力する、
 運転評価装置。
[4] 上記[3]に記載の運転評価装置であって、
 前記評価結果出力部は、事前に定めた評価基準値と、前記評価結果との差異が区別できる状態で前記評価結果を表示する、
 運転評価装置。
[5] 上記[2]に記載の運転評価装置であって、
 前記車線変更情報生成部は、自車両の車幅方向端部と、前記走行レーン境界ラインとの車幅方向の距離(A1、A2)を前記車線変更情報として生成する、
 運転評価装置。
[6] 上記[2]または[5]に記載の運転評価装置であって、
 前記車載器は、前記車両上の方向指示器の作動状態、もしくは前記方向指示器に対する操作を監視して、少なくとも前記方向指示器が動作を開始した時刻(t01)を検出し、前記時刻を前記運行記録データの一部分(D2)として記録する方向指示器動作開始時刻記録部(制御系処理CPU17)、を備える、
 運転評価装置。
[7] 上記[3]または[4]に記載の運転評価装置であって、
 前記評価結果出力部は、複数の運転者のそれぞれに対応付けられた前記運行記録データを個別に処理して、複数の運転者のそれぞれの前記評価結果を対比できる状態で一覧表示する、
 運転評価装置。
[8] 上記[2]に記載の運転評価装置であって、
 道路の路面を含む車室外の風景を撮影可能な第1の車載カメラ(メイン車載カメラ31)と、
 車室内の運転者を撮影可能な第2の車載カメラ(オプション車載カメラ32)と、
 を備え、
 前記車載器(10)は、前記第1の車載カメラが撮影した映像と、前記第2の車載カメラが撮影した映像とをそれぞれ前記運行記録データの一部分として記録する、
 運転評価装置。
[9] 上記[2]に記載の運転評価装置であって、
 前記評価結果出力部を前記車載器に搭載した、
 運転評価装置。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2015年7月31日出願の日本特許出願(特願2015-152273)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明によれば、車線変更の運転操作を適切に評価することが可能になるという効果を奏する。この効果を奏する本発明は、車両を運転する運転者の運転操作を評価するための運転評価装置に関して有用である。
 10 車載器
 11 映像デコーダ
 12 画像処理用CPU
 13,18 読み出し専用メモリ(ROM)
 14,19 一時記憶用メモリ(SDRAM)
 15 NTSC信号処理部
 16 モニタ出力部
 17 制御系処理CPU
 20 車両信号インタフェース
 21 GPS位置情報取得部
 22 CANインタフェース
 23 音声出力部
 24 バイブレータ出力部
 25 記録メディア
 26 後方解析データベース
 27 PC設定部
 28 ハンディ端末接続部
 29 不揮発性メモリ(EEPROM)
 31 メイン車載カメラ
 32 オプション車載カメラ
 35 日報
 36 表示画面
 40 事務所PC
 50 道路
 51,52,53 区画線
 54 自車両
 A1,A2 車幅方向の距離
 L1,L2 走行レーン

Claims (4)

  1.  車両上で検出された所定の事象を記録した運行記録データに基づいて、運転者の運転操作を評価する運転評価装置であって、
     前記運行記録データに基づいて、前記車両における車線変更開始時刻と、前記車線変更開始時刻の近傍における方向指示器動作開始時刻とをそれぞれ検出し、前記方向指示器動作開始時刻と前記車線変更開始時刻との時間差に基づいて評価結果を出力する評価結果出力部、
     を備えた運転評価装置。
  2.  前記車両上に搭載され前記運行記録データを記録する車載器を備え、
     前記車載器は、車載カメラで撮影された映像に基づき、道路上に標示された走行レーン境界ラインの位置と、自車両の位置とを認識し、車幅方向の前記走行レーン境界ラインと自車両との位置関係を表す車線変更情報を生成し、前記車線変更情報を前記運行記録データの一部として記録する車線変更情報生成部、を有する、
     請求項1に記載の運転評価装置。
  3.  前記評価結果出力部は、車線変更に関する複数回の運転操作のそれぞれについて前記時間差を算出し、複数の前記時間差を集計して所定の統計処理を施し、前記統計処理の結果を評価結果として出力する、
     請求項1に記載の運転評価装置。
  4.  前記評価結果出力部は、事前に定めた評価基準値と、前記評価結果との差異が区別できる状態で前記評価結果を表示する、
     請求項3に記載の運転評価装置。
PCT/JP2016/071671 2015-07-31 2016-07-25 運転評価装置 WO2017022534A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015152273A JP6339537B2 (ja) 2015-07-31 2015-07-31 運転評価装置
JP2015-152273 2015-07-31

Publications (1)

Publication Number Publication Date
WO2017022534A1 true WO2017022534A1 (ja) 2017-02-09

Family

ID=57942918

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/071671 WO2017022534A1 (ja) 2015-07-31 2016-07-25 運転評価装置

Country Status (2)

Country Link
JP (1) JP6339537B2 (ja)
WO (1) WO2017022534A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028483A (ja) * 2017-07-25 2019-02-21 矢崎エナジーシステム株式会社 車載器および運転支援装置
CN109615190A (zh) * 2018-11-26 2019-04-12 浙江海洋大学 一种非机动车道使用情况评价方法
CN110053627A (zh) * 2018-01-18 2019-07-26 本田技研工业株式会社 驾驶评价系统和存储介质
CN113658424A (zh) * 2021-07-23 2021-11-16 南昌工程学院 基于稀疏卫星定位数据的车辆频繁变道识别方法及装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6648166B2 (ja) 2018-01-29 2020-02-14 本田技研工業株式会社 運転評価システム、およびプログラム
JP2020117043A (ja) * 2019-01-23 2020-08-06 株式会社デンソー ドライバ状況判定装置、ドライバ状況判定方法、ドライバ状況判定プログラム
JP7388971B2 (ja) 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP7359735B2 (ja) 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193604A (ja) * 2006-01-19 2007-08-02 Toyota Motor Corp 運転者心理判定装置
JP2015022499A (ja) * 2013-07-18 2015-02-02 株式会社オートネットワーク技術研究所 運転特徴判定システム
US20150161893A1 (en) * 2013-12-05 2015-06-11 Elwha Llc Systems and methods for reporting real-time handling characteristics

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3593502B2 (ja) * 2001-01-16 2004-11-24 株式会社データ・テック 車両の運転技術診断システム及びその構成用品、運転技術診断方法
JP5045637B2 (ja) * 2008-10-14 2012-10-10 トヨタ自動車株式会社 車両走行制御装置
JP5359665B2 (ja) * 2009-08-04 2013-12-04 株式会社デンソー 運転支援装置
JP5834826B2 (ja) * 2011-11-25 2015-12-24 株式会社デンソー 運転評価システム、及び運転評価装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193604A (ja) * 2006-01-19 2007-08-02 Toyota Motor Corp 運転者心理判定装置
JP2015022499A (ja) * 2013-07-18 2015-02-02 株式会社オートネットワーク技術研究所 運転特徴判定システム
US20150161893A1 (en) * 2013-12-05 2015-06-11 Elwha Llc Systems and methods for reporting real-time handling characteristics

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028483A (ja) * 2017-07-25 2019-02-21 矢崎エナジーシステム株式会社 車載器および運転支援装置
CN110053627A (zh) * 2018-01-18 2019-07-26 本田技研工业株式会社 驾驶评价系统和存储介质
US11335134B2 (en) 2018-01-18 2022-05-17 Honda Motor Co., Ltd. Driving evaluation system and storage medium
CN109615190A (zh) * 2018-11-26 2019-04-12 浙江海洋大学 一种非机动车道使用情况评价方法
CN113658424A (zh) * 2021-07-23 2021-11-16 南昌工程学院 基于稀疏卫星定位数据的车辆频繁变道识别方法及装置
CN113658424B (zh) * 2021-07-23 2022-07-12 南昌工程学院 基于稀疏卫星定位数据的车辆频繁变道识别方法及装置

Also Published As

Publication number Publication date
JP2017033270A (ja) 2017-02-09
JP6339537B2 (ja) 2018-06-06

Similar Documents

Publication Publication Date Title
JP6342858B2 (ja) 運転評価装置
JP6339537B2 (ja) 運転評価装置
EP3786018B1 (en) Electronic device for vehicle and operating method thereof
CN108860162B (zh) 电子装置、基于用户驾驶行为的安全预警方法及存储介质
EP2943884B1 (en) Server determined bandwidth saving in transmission of events
JP5820190B2 (ja) イベント監視用車載器
JP7146516B2 (ja) 運転評価装置および車載器
JP6613623B2 (ja) 車載装置、運転モード制御システム、及び運転モード制御方法
JP2011197947A (ja) 車両間隔管理装置、車両間隔管理方法および車両間隔管理プログラム
JP7413503B2 (ja) 車両の安全性能を評価すること
JP5585194B2 (ja) 事故状況記録システム
JP6063189B2 (ja) ドライブレコーダ
KR20190090942A (ko) 운전 패턴 기반 자동차 보험료 산출 시스템 및 그 방법
KR102319383B1 (ko) 블랙박스 영상을 이용하여 교통 법규 위반 차량을 자동으로 신고하는 장치 및 방법
JP2005266914A (ja) 運転状態記録解析システム、車載システム、及び解析装置
JP6235810B2 (ja) 車載器
JP6475428B2 (ja) 車載装置及び安全運転システム
JP6431261B2 (ja) 運行情報管理システム
JP4866061B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP7207912B2 (ja) 運転評価システム
JP7267760B2 (ja) 運転評価システム及び車載器
JP7195715B2 (ja) 出力制御装置、出力制御方法、出力制御システム
WO2007049520A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2024025513A (ja) 運転教育システム、サーバ及び管理端末用のプログラム
JP6568406B2 (ja) ドライブレコーダ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16832813

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16832813

Country of ref document: EP

Kind code of ref document: A1