WO2022185736A1 - 検知機能制御装置、検知機能制御方法、及びプログラム - Google Patents

検知機能制御装置、検知機能制御方法、及びプログラム Download PDF

Info

Publication number
WO2022185736A1
WO2022185736A1 PCT/JP2022/001149 JP2022001149W WO2022185736A1 WO 2022185736 A1 WO2022185736 A1 WO 2022185736A1 JP 2022001149 W JP2022001149 W JP 2022001149W WO 2022185736 A1 WO2022185736 A1 WO 2022185736A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
unit
function control
detection
detection function
Prior art date
Application number
PCT/JP2022/001149
Other languages
English (en)
French (fr)
Inventor
吉春 孝治
毅 小野寺
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to CN202280008295.XA priority Critical patent/CN116670738A/zh
Publication of WO2022185736A1 publication Critical patent/WO2022185736A1/ja
Priority to US18/366,279 priority patent/US20230382397A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Definitions

  • the present invention relates to a detection function control device, a detection function control method, and a program.
  • a known technology is to equip small terminals with AI (Artificial Intelligence) functions to perform face authentication of users and detection of dozing off.
  • AI Artificial Intelligence
  • Patent Document 1 a device that detects dozing without installing a camera.
  • AI functions need to execute different inference models depending on their purpose. Execution of an inference model requires a large amount of computational resources (CPU resources or dedicated circuit resources). Therefore, there is a limit to the number of inference models that can be run simultaneously on a small device.
  • Some recent high-performance drive recorders are equipped with a DMS (Driver Monitoring System). This DMS is equipped with a function to detect a driver's face authentication, inattentiveness, doze off, call behavior, etc., and warn of dangerous driving, for example.
  • small terminals often do not have the computing power to perform all these functions. Therefore, it has been difficult to implement a function like DMS in a small terminal. There is a demand to be able to operate more sensing functions for the available computing power.
  • This embodiment has been made in view of the above points, and provides a detection function control device, a detection function control method, and a program that can operate more detection functions with respect to the available computing power.
  • the present embodiment has been made to solve the above problems, and one aspect of the present embodiment is the state of the ignition, whether or not the person is seated in the seat, the acceleration of the vehicle, the position of the vehicle, and the position of the vehicle. and a vehicle condition determination unit that determines the vehicle condition based on the result of detection of one or more of the speed of the sound and the sound that is collected, and a dangerous situation based on the condition determined by the vehicle condition determination unit
  • a sensing function control unit that determines which of one or more sensing functions for sensing driving is to be activated.
  • the detection function control unit determines that the vehicle condition determination unit determines that the amount of change in all of the acceleration, the position, and the speed is less than a predetermined amount. and when the vehicle condition determination unit determines that it is within a predetermined period of time after the ignition is turned on, or when the vehicle condition determination unit determines that the seating state has changed, the face authentication function is activated. activate.
  • the detection function control unit determines whether the vehicle condition determination unit determines that the amount of change in one or more of the acceleration, the position, and the speed is equal to or greater than a predetermined amount. When it is determined that the driver is inattentive driving, the function of determining inattentive driving is operated.
  • the detection function control unit determines a call operation when the vehicle condition determination unit determines that the driver is speaking. Activate the image recognition function.
  • the detection function control unit determines that the driver is dozing off when the vehicle condition determination unit determines that the driver is silent. Activate the image recognition function.
  • one aspect of the present embodiment is detection of any one or more of the state of the ignition, whether or not the user is seated on the seat, the acceleration of the vehicle, the position of the vehicle, the speed of the vehicle, and the collected voice. and one or more detection functions for detecting dangerous driving based on the situation determined by the vehicle status determination step. and a detection function control step of determining whether to enable the detection function control method.
  • the computer stores any one of the ignition state, whether or not the person is seated, the acceleration of the vehicle, the position of the vehicle, the speed of the vehicle, and the voice to be collected.
  • a vehicle condition determination step for determining the condition of the vehicle based on the above detection results; and one or more detection functions for detecting dangerous driving based on the condition determined by the vehicle condition determination step. and a detection function control step for determining which one to operate.
  • more detection functions can be activated with respect to the available computing power.
  • FIG. 1 is a diagram showing an example of a hardware configuration of a drive recorder according to this embodiment;
  • FIG. It is a figure which shows an example of the functional structure of the drive recorder which concerns on this embodiment. It is a figure which shows an example of the relationship between the vehicle condition which concerns on this embodiment, and whether several detection functions are operated. It is a figure which shows an example of the detection function control process which concerns on this embodiment. It is a figure which shows an example of the detection function control process which concerns on this embodiment.
  • FIG. 1 is a diagram showing an example of the hardware configuration of a drive recorder 1 according to this embodiment.
  • the drive recorder 1 includes an acceleration sensor 10, a gyro sensor 11, a GPS receiver 12, a vehicle signal cable 13, a camera 14, a speaker 15, a display 16, operation buttons 17, a microphone 18, and a timer 19. , a CPU 110 , a ROM 111 , a RAM 112 and a communication module 113 .
  • Acceleration sensor 10, gyro sensor 11, GPS receiver 12, vehicle signal cable 13, camera 14, speaker 15, display 16, operation button 17, microphone 18, timer 19, CPU 110, ROM 111, RAM 112, and communication module 113 are connected to each other. Connected by a signal line.
  • the acceleration sensor 10 measures acceleration of the vehicle 3 .
  • a gyro sensor 11 measures the angular velocity of the vehicle 3 .
  • the GPS receiver 12 acquires information indicating the current position of the vehicle 3 using GPS (Global Positioning System).
  • the vehicle signal cable 13 acquires vehicle signals from the vehicle 3.
  • a vehicle signal is a signal that indicates the state of the vehicle 3 .
  • the vehicle signal cable 13 acquires various vehicle signals from an ECU (Electronic Control Unit) of the vehicle 3 .
  • Various vehicle signals include, for example, an ignition switch signal, a vehicle speed signal, a signal indicating the steering angle of the vehicle 3, a signal indicating the pressure applied to the seat of the vehicle 3, and the like.
  • Camera 14 includes a first camera and a second camera.
  • the first camera captures part or all of the body of driver 2 .
  • the second camera captures and records moving images while the vehicle 3 is running.
  • the speaker 15 outputs an audio warning sound.
  • the display 16 displays various screens.
  • the display 16 is, for example, a liquid crystal display or an organic electroluminescence (EL) display.
  • the operation button 17 is a button for the user to operate the drive recorder 1 .
  • the display 16 may be a touch panel, and in that case, the operation buttons 17 may be integrated with the display 16 . Alternatively, part of the operation buttons 17 may be integrated with the display 16 .
  • a microphone 18 picks up sound.
  • the voice includes voice uttered by the driver 2 .
  • the timer 19 keeps time.
  • the CPU 110 reads programs from the ROM 111 and executes various controls according to the read programs.
  • the CPU 110 incorporates a plurality of internal storage media such as registers.
  • the CPU 110 temporarily stores data from the ROM 111 in an internal storage medium and performs arithmetic processing on the data.
  • the CPU 110 outputs the calculation result to the register, and further outputs it from the register to the RAM 112 or an external storage medium.
  • the ROM 111 is a main storage device that stores various programs, data, parameters, etc. for the CPU 110 to perform various calculations and controls.
  • the ROM 111 can retain the stored contents even when the power supplied to the ROM 111 is zero.
  • the RAM 112 is a main memory device used by the CPU 110 as a working memory.
  • the CPU 110 writes and erases programs and data into the RAM 112 .
  • the RAM 112 is configured using a storage device such as a semiconductor storage device, for example.
  • the communication module 113 transmits and receives various types of information via the wireless network NW.
  • the communication module 113 has a communication interface (I/F).
  • FIG. 2 is a diagram showing an example of the functional configuration of the drive recorder 1 according to this embodiment.
  • the drive recorder 1 includes a control unit 20, an acceleration acquisition unit 21, an angular velocity acquisition unit 22, a position acquisition unit 23, a vehicle signal acquisition unit 24, a sound pickup unit 25, an imaging unit 26, and a timer unit 27. , an operation unit 28 , an audio output unit 29 , a display unit 210 , a communication unit 211 , and a storage unit 212 .
  • the control unit 20 performs various controls for the drive recorder 1.
  • the control unit 20 includes, for example, a CPU, and performs various calculations and exchanges of information.
  • Each functional unit included in the control unit 20 is implemented by the CPU reading a program from the ROM and executing processing.
  • Each functional unit included in the control unit 20 will be described later.
  • the control unit 20 includes the CPU 110, ROM 111, and RAM 112 shown in FIG.
  • the acceleration acquisition unit 21 acquires the acceleration of the vehicle 3.
  • the acceleration acquisition unit 21 generates acceleration data A1 based on the acquired acceleration.
  • Acceleration data A1 indicates the acceleration of the vehicle 3 .
  • the acceleration acquisition unit 21 includes the acceleration sensor 10 shown in FIG.
  • the angular velocity acquisition unit 22 acquires the angular velocity of the vehicle 3.
  • the angular velocity acquisition unit 22 generates angular velocity data B1 based on the acquired angular velocity.
  • Angular velocity data B1 indicates the angular velocity of the vehicle 3 .
  • Angular velocity acquisition unit 22 includes gyro sensor 11 shown in FIG.
  • the position acquisition unit 23 acquires the position of the vehicle 3.
  • the position acquisition unit 23 generates position data C1 based on the acquired position.
  • the position data C ⁇ b>1 indicates the position of the vehicle 3 .
  • the position acquisition unit 23 includes the GPS reception unit 12 shown in FIG.
  • the vehicle signal acquisition unit 24 acquires the vehicle signal of the vehicle 3.
  • the vehicle signal acquisition unit 24 generates vehicle signal data D1 based on the acquired vehicle signal.
  • the vehicle signal data D1 includes data indicating ON or OFF of the ignition, data indicating the vehicle speed of the vehicle 3, steering angle data, and seating data.
  • the steering angle data indicates the steering angle of the vehicle 3 .
  • the seating data indicates the pressure value applied to the seat of the vehicle 3 .
  • Vehicle signal acquisition unit 24 includes vehicle signal cable 13 shown in FIG.
  • the sound pickup unit 25 picks up the voice uttered by the driver 2 .
  • the sound pickup unit 25 generates sound data E1 as a result of sound pickup.
  • the voice data E1 indicates the voice uttered by the driver 2.
  • FIG. The sound pickup unit 25 includes the microphone 18 shown in FIG.
  • the photographing unit 26 photographs one or more of the face of the driver 2 and the motion of the driver 2 .
  • the imaging unit 26 generates image data F1 as a result of imaging.
  • the image data F1 indicates one or more of the face of the driver 2 and the motion of the driver 2 .
  • the photographing unit 26 includes the camera 14 shown in FIG.
  • the clock unit 27 performs various clocks.
  • the timekeeping unit 27 starts and stops timekeeping in response to a signal from the control unit 20 .
  • the clock unit 27 generates clock data G1 as a result of clocking.
  • the timekeeping data G1 includes, for example, the time that has elapsed from when a signal to start timekeeping is obtained from the control unit 20 to when a signal to stop timekeeping is obtained.
  • the timer 27 may perform a plurality of timers in parallel. When a plurality of timings are performed in parallel, the timing data G1 includes the results of the plurality of timings. Also, the clock data G1 may include the current time.
  • the timer 27 includes the timer 19 shown in FIG.
  • the operation unit 28 accepts various operations by the user of the drive recorder 1.
  • the operation unit 28 includes the operation button 17 shown in FIG. Note that when the operation buttons 17 and the display 16 are integrally provided as a touch panel, the operation unit 28 includes the touch panel.
  • the voice output unit 29 outputs various voices.
  • the sound output by the sound output unit 29 includes, for example, sound output as a warning sound when an abnormality is detected as a result of detection of the driver 2 .
  • the display unit 210 displays various screens.
  • the screens displayed by the display unit 210 include, for example, a warning screen that is displayed as a warning when an abnormality is detected as a result of detection of the driver 2 .
  • Display unit 210 includes display 16 and RAM 112 shown in FIG.
  • the RAM 112 contains image data of the warning screen.
  • a communication unit 211 communicates with an external device.
  • the external device with which the communication unit 211 communicates includes a server (not shown).
  • Communication unit 211 includes communication module 113 shown in FIG.
  • the storage unit 212 stores various information.
  • Storage unit 212 includes RAM 112 shown in FIG.
  • the control unit 20 includes an acquisition unit 200 , an operation reception unit 2010 , a display control unit 2011 , a warning unit 2012 , a detection execution unit 30 and a detection function management unit 31 .
  • the acquisition unit 200 acquires various types of information.
  • the acquisition unit 200 includes an acceleration data acquisition unit 201, an angular velocity data acquisition unit 202, a steering angle data acquisition unit 203, a position information acquisition unit 204, a vehicle signal data acquisition unit 205, a seating data acquisition unit 206, a voice A data acquisition unit 207 , a captured image acquisition unit 208 , and a clock data acquisition unit 209 are provided.
  • Acceleration data acquisition unit 201 acquires acceleration data A1 from acceleration acquisition unit 21 .
  • Angular velocity data acquisition unit 202 acquires angular velocity data B ⁇ b>1 from angular velocity acquisition unit 22 .
  • the steering angle data acquisition unit 203 acquires steering angle data included in the vehicle signal data D1 from the vehicle signal acquisition unit 24 .
  • the position information acquisition section 204 acquires the position data C1 from the position acquisition section 23 .
  • the vehicle signal data acquisition section 205 acquires the vehicle signal data D1 from the vehicle signal acquisition section 24 .
  • the seating data acquisition unit 206 acquires the wearing pressure data included in the vehicle signal data D1 from the vehicle signal acquisition unit 24 .
  • the audio data acquisition unit 207 acquires audio data E1 from the sound pickup unit 25 .
  • the captured image acquisition unit 208 acquires the image data F1 from the image capturing unit 26 .
  • the clock data acquisition unit 209 acquires the clock data G1 from the clock unit 27 .
  • An operation reception unit 2010 receives various operations performed on the operation unit 28 .
  • the display control unit 2011 controls the display unit 210 to display various screens on the display unit 210 .
  • a warning unit 2012 issues a warning.
  • the warning unit 2012 controls the audio output unit 29 to output a warning sound.
  • the detection execution unit 30 has an AI function and detects a plurality of detection items such as call operation. In other words, the detection execution unit 30 executes a plurality of detection functions according to each of the plurality of detection items. A learned model for the detection execution unit 30 to make various determinations is stored in the storage unit 212 .
  • the detection execution unit 30 corresponds to a driver monitoring system (DMS).
  • the detection execution unit 30 includes a face authentication unit 300 , an inattentive driving determination unit 301 , a drowsy driving determination unit 302 , and a call operation determination unit 303 .
  • the face authentication unit 300 authenticates the face of the driver 2.
  • the face authentication unit 300 compares the face of the driver 2 indicated by the image data F1 acquired by the captured image acquisition unit 208 with the face image (not shown) of the owner of the vehicle 3 stored in the storage unit 212. Authentication is performed based on AI functions.
  • Face authentication unit 300 collects the results of face authentication as driver information. Face recognition is for preventing unauthorized or unrelated persons from driving when the vehicle 3 is, for example, a business vehicle. For example, when face recognition unit 300 determines that driver 2 is an unauthorized person as a result of face recognition, face recognition unit 300 causes warning unit 2012 to issue a warning. Alternatively, facial recognition may be used to verify whether the driver 2 is the owner of the vehicle 3 for the purpose of anti-theft.
  • the inattentive driving determination unit 301 determines inattentive driving.
  • the inattentive driving determination unit 301 determines whether the driver 2 is not distracted based on the behavior of the driver 2 (for example, the direction of the face, the direction of the line of sight, etc.) indicated by the image data F1 acquired by the captured image acquisition unit 208. Determine whether or not When the inattentive driving determination unit 301 determines that the driver 2 is inattentive, the warning unit 2012 issues a warning.
  • the drowsy driving determination unit 302 determines drowsy driving.
  • the drowsy driving determination unit 302 determines whether the driver 2 is dozing off based on the motion of the driver 2 indicated by the image data F1 acquired by the captured image acquisition unit 208 (for example, whether the head shakes, whether the eyelids are open, etc.). determine whether or not When the dozing-driving determination unit 302 determines that the driver 2 is dozing off, it causes the warning unit 2012 to issue a warning.
  • the call operation determination unit 303 determines the call operation.
  • the call operation determination unit 303 determines a call operation based on the voice of the driver 2 indicated by the voice data E1 acquired by the voice data acquisition unit 207 .
  • the call operation determination unit 303 may determine the call operation based on the operation of the driver 2 indicated by the image data F1 acquired by the captured image acquisition unit 208 (for example, holding the mobile phone against the ear). .
  • the call operation determining unit 303 determines that the driver 2 is talking, it causes the warning unit 2012 to issue a warning.
  • the detection function management unit 31 determines which of the plurality of detection functions executed by the detection execution unit 30 should be activated. In other words, the detection function management unit 31 selects a detection function to be activated from among the plurality of detection functions. As a result of the determination (or selection), the detection function management unit 31 may operate one detection function, or may operate a plurality of detection functions. In the following description, the processing executed by the detection function management unit 31 is also referred to as detection function control processing.
  • the detection function management section 31 includes a vehicle condition determination section 310 and a detection function control section 311 .
  • the vehicle status determination unit 310 determines the vehicle status based on the detection results of predetermined detection items.
  • the predetermined detection items are, for example, any one or more of the state of the ignition, whether or not the person is seated on the seat, the acceleration of the vehicle, the position of the vehicle 3, the speed of the vehicle 3, and the collected voice. be.
  • the vehicle status is the status of the vehicle 3 .
  • the vehicle status includes, for example, the status of movement of the vehicle 3, the status of the start of driving or the change of driver, the status of the driver 2 speaking, and the like.
  • the movement status of the vehicle 3 includes, for example, that the vehicle 3 is moving and that the vehicle 3 is going straight ahead.
  • the predetermined detection items may be any one or more of the ignition state, whether or not the user is seated on the seat, acceleration of the vehicle, position of the vehicle 3, speed of the vehicle 3, and collected voice. good.
  • the detection function control unit 311 determines which of one or more detection functions for detecting dangerous driving should be activated based on the vehicle condition determined by the vehicle condition determination unit 310 .
  • the detection function control unit 311 outputs the determination result to the detection execution unit 30, and causes the detection execution unit 30 to operate the detection function indicated by the determination result among the plurality of detection functions.
  • FIG. 3 is a diagram showing an example of the relationship between vehicle conditions and whether or not to operate a plurality of detection functions according to the present embodiment.
  • the vehicle states are that the vehicle 3 is stopped, that the vehicle 3 is moving, that the vehicle 3 is turning, that the driver 2 is silent, and that the driver 2 is speaking. It is shown that In FIG. 3, whether or not the detection mechanism should be activated for each of these vehicle conditions is shown for each of the detection items of face authentication, looking aside, dozing off, and calling operation.
  • Face authentication is executed only when it is detected that the vehicle 3 is not moving (stopped) from an acceleration sensor, GPS data, vehicle speed pulse data, etc., and face authentication is stopped during the remaining time when they are not detected.
  • a dangerous driving warning based on the detection of inattentive driving is required when the vehicle 3 is traveling straight ahead. Inattentiveness when it is detected that the vehicle 3 is moving from the acceleration sensor, GPS data, vehicle speed pulse data, etc., and that the vehicle 3 is not turning (going straight) from the gyro sensor, steering angle data, etc. Activating the driving detection function and disabling the distracted driving detection function for the remaining time when they are not detected. It should be noted that it is not necessary to detect the driver's silence or the driver's speech in order to determine whether or not to execute the inattentive driving detection function.
  • a dangerous driving warning by doze detection is necessary when the vehicle 3 is moving and the driver 2 is silent. From the acceleration sensor, GPS data, vehicle speed pulse data, etc., the vehicle 3 is moving; from the gyro sensor, steering angle data, etc., the vehicle 3 is turning; and from the voice data collected from the microphone, the driver is silent.
  • the doze detection function is executed only when it is detected that they are sleeping, and the doze detection function is stopped during the remaining time when they are not detected.
  • FIG. 4 For example, while the drive recorder 1 is powered on, the control unit 20 repeatedly executes the detection function control processes shown in FIGS. 4 and 5 in parallel. Note that only one of the detection function control processes shown in FIGS. 4 and 5 may be executed.
  • the control unit 20 does not operate the detection functions that are not determined to be activated in the detection function control processing shown in FIGS. 4 and 5 among the plurality of detection functions.
  • the detection function control process shown in FIGS. 4 and 5 is repeatedly executed, even if the detection function is determined not to be activated at a certain time point, it may be determined to be activated in the next detection function control process. There is Similarly, even a sensing function determined to be activated at a certain point in time may be determined not to be activated in the next sensing function control process.
  • FIG. 4 is a diagram showing an example of detection function control processing according to the present embodiment.
  • Step S10 The vehicle condition determination unit 310 acquires various detection results.
  • vehicle condition determination section 310 acquires acceleration data A1 from acceleration data acquisition section 201 .
  • Vehicle status determination unit 310 acquires position data C ⁇ b>1 from position information acquisition unit 204 .
  • Vehicle condition determination unit 310 acquires vehicle signal data D ⁇ b>1 from vehicle signal data acquisition unit 205 .
  • Vehicle condition determination unit 310 acquires time data G ⁇ b>1 from time data acquisition unit 209 .
  • the vehicle condition determination unit 310 acquires the seating pressure data from the seating data acquisition unit 206 .
  • Step S20 The vehicle condition determination section 310 determines whether or not the amount of change in the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3 is less than a predetermined amount. For example, the vehicle condition determination unit 310 calculates the amount of change in acceleration by dividing the acceleration indicated by the acceleration data A1 by the predetermined time indicated by the clock data G1. For example, the vehicle condition determination unit 310 calculates the amount of change in position by dividing the distance between the positions indicated by the position data C1 by the predetermined time indicated by the clock data G1. Vehicle condition determination unit 310 calculates the amount of change in vehicle speed, for example, based on the vehicle speed signal indicated by vehicle signal data D1 and the predetermined time indicated by clock data G1.
  • the predetermined amount of change in the acceleration of the vehicle 3 is, for example, the amount of change that exceeds continuous vibration caused by the engine or the like.
  • the predetermined amount of change in acceleration may be determined in advance, or may be obtained as needed from a representative value such as an average value or median value of the amount of change in acceleration within a predetermined time period in the past.
  • the predetermined amount of change in the position of the vehicle 3 is, for example, a change in the GPS position after a unit time of 1 second is a predetermined distance of 1 meter.
  • the unit time is not limited to one second later, and may be an appropriate time of 10 milliseconds or more and 10 seconds or less.
  • the predetermined distance is not limited to 1 meter, and may be an appropriate distance of 0 to 10 meters.
  • the predetermined amount of change in the speed of the vehicle 3 is, for example, 3 kilometers per hour.
  • the speed is not limited to 3 km/h, and may be a suitable speed of 0 km/h or more and 5 km/h or less
  • step S30 When the vehicle status determination unit 310 determines that the amount of change in all of the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3 is less than the predetermined amount (step S20; YES), the process of step S30 is executed. On the other hand, when the vehicle condition determination unit 310 determines that the amount of change in any one of the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3 is greater than or equal to the predetermined amount (step S20; NO), detection function management The unit 31 executes the process of step S50.
  • Step S30 The vehicle condition determination unit 310 determines whether it has been within a predetermined time since the ignition was turned on, or whether there has been a change in the seating sensor of the seat.
  • a change in the seat occupancy sensor indicates a change in the position or number of occupants on the seat.
  • the vehicle condition determination unit 310 causes the timing unit 27 to start timing in order to determine whether it is within a predetermined period of time since the ignition was turned on.
  • the vehicle condition determination unit 310 makes a determination by comparing the time that has elapsed since the ignition was turned on with a predetermined time based on the clock data G1.
  • the determination may be made based on a vehicle signal other than the vehicle signal data D1.
  • the vehicle condition determination unit 310 makes a determination based on the value of the pressure applied to the seat of the vehicle 3 indicated by the pressure data.
  • step S30 When the vehicle status determination unit 310 determines that it is within a predetermined time period after the ignition is turned on, or that there is a change in the seating sensor of the seat (step S30; YES), the detection function management unit 31 performs step S40. Execute the process. On the other hand, when the vehicle status determination unit 310 determines that it has not been within the predetermined time since the ignition was turned on and that the seating sensor of the seat has not changed (step S30; NO), the detection function management unit 31 performs the detection function. End the control process.
  • Step S40 The detection function control section 311 determines to activate the face authentication function.
  • the detection function control unit 311 causes the face authentication unit 300 to perform the face authentication function.
  • Step S50 The detection function control unit 311 determines to activate the function of determining inattentive driving.
  • the detection function control unit 311 causes the inattentive driving determination unit 301 to perform a function of determining inattentive driving. That is, when the vehicle condition determination unit 310 determines that the amount of change in any one of the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3 is greater than or equal to a predetermined amount, the detection function control unit 311 Activates a function that determines driving. With this, the detection function management unit 31 ends the detection function control process.
  • the detection function control process shown in FIG. 4 is based on the assumption that the driver 2 changes when the vehicle 3 is not moving.
  • the condition that the vehicle 3 is not moving the condition that it has been within a predetermined time since the ignition was turned on is used.
  • the detection function control process shown in FIG. 4 it is determined whether or not to activate the face authentication function and whether or not to activate the function for determining inattentive driving. Illustrated, but not limited to. In the detection function control process shown in FIG. 4, determination of either whether to activate the face authentication function or whether to activate the function to determine inattentive driving may be omitted.
  • step S30 and S40 When the determination of whether or not to activate the face authentication function is omitted, the processes of steps S30 and S40 are omitted in the detection function control process shown in FIG. In that case, when the vehicle condition determination unit 310 determines in step S20 that all the changes in the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3 are less than the predetermined amount (step S20; YES), the detection function The management unit 31 terminates the detection function control process. On the other hand, when the vehicle condition determination unit 310 determines that the amount of change in any one of the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3 is greater than or equal to the predetermined amount (step S20; NO), detection function management The unit 31 executes the process of step S50.
  • step S30 when the vehicle condition determination unit 310 determines that it is within a predetermined time period after the ignition is turned on, or that there is a change in the seating sensor of the seat (step S30; YES), the detection function management unit 31 , the process of step S40 is executed.
  • step S30 when the vehicle status determination unit 310 determines that it has not been within the predetermined time since the ignition was turned on and that the seating sensor of the seat has not changed (step S30; NO), the detection function management unit 31 performs the detection function. End the control process.
  • a change in the seating sensor of the seat is an example of a change in the seating state.
  • Another example of a change in seating state is that the door of the vehicle 3 is opened or closed.
  • the vehicle condition determination unit 310 may determine whether the door of the vehicle 3 has been opened or closed in order to determine whether the seating state has changed.
  • the vehicle signal data D1 includes a signal indicating whether the door is opened or closed.
  • the vehicle condition determination unit 310 determines whether or not the door of the vehicle 3 is opened or closed based on the signal. Further, in order to determine whether the seating state has changed, the vehicle condition determination unit 310 determines both whether there has been a change in the seating sensor of the seat and whether the door of the vehicle 3 has been opened or closed. may
  • the vehicle condition determination unit 310 may determine whether a predetermined time has passed since the ignition was turned on, or whether the seating state has changed. Therefore, the detection function control unit 311 determines that the vehicle condition determination unit 310 determines that the amount of change in all of the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3 is less than the predetermined amount, and the vehicle condition determination unit 310 is within a predetermined period of time since the ignition was turned on, or when the vehicle condition determination unit 310 determines that the seating state has changed, the face authentication function is activated.
  • FIG. 5 is a diagram showing an example of detection function control processing according to the present embodiment.
  • Step S110 The vehicle condition determination unit 310 acquires various detection results.
  • vehicle condition determination unit 310 acquires voice data E1 from voice data acquisition unit 207 .
  • Step S120 The vehicle condition determination unit 310 determines whether or not the driver 2 is speaking. 310 determines whether the driver 2 is speaking or is silent based on the voice of the driver 2 indicated by the voice data E1.
  • step S120 When the vehicle condition determination unit 310 determines that the driver 2 is speaking (step S120; YES), the detection function management unit 31 executes the process of step S130. On the other hand, when the vehicle condition determination unit 310 determines that the driver 2 is not speaking (silent) (step S120; NO), the detection function management unit 31 executes the process of step S140.
  • Step S130 The detection function control section 311 determines to activate the image recognition function for determining the call operation.
  • the detection function control unit 311 causes the call operation determination unit 303 to execute an image recognition function for determining a call operation. Therefore, when the vehicle condition determination unit 310 determines that the driver 2 is speaking, the detection function control unit 311 activates the image recognition function for determining the call operation.
  • Step S140 The detection function control unit 311 determines to activate the image recognition function for determining dozing off while driving.
  • the detection function control unit 311 causes the doze-driving determination unit 302 to perform an image recognition function for determining doze-driving. Therefore, when the vehicle condition determination unit 310 determines that the driver 2 is silent, the detection function control unit 311 activates the image recognition function for determining doze driving. With this, the detection function management unit 31 ends the detection function control process.
  • the detection function control process shown in FIG. 5 an example will be described in which it is determined whether or not to operate the image recognition function for determining dozing off, depending on whether the driver 2 is speaking. However, it is not limited to this. For example, it may be determined whether or not to activate an image recognition function for determining doze driving based on the speech of the driver 2 and the steering angle. In this case, when the driver 2 is silent and the steering angle is equal to or greater than a predetermined value, the detection function control unit 311 activates the function on the assumption that there is a possibility of dozing off.
  • the detection function control device includes the vehicle condition determination section 310 and the detection function control section 311 .
  • the vehicle status determination unit 310 detects any one or more of the ignition state, whether or not the user is seated on the seat, the acceleration of the vehicle 3, the position of the vehicle 3, the speed of the vehicle 3, and the collected sound.
  • the situation of the vehicle 3 is determined based on.
  • the detection function control unit 311 includes one or more detection functions (in this embodiment, face authentication 300, inattentive driving determination unit 301, drowsy driving determination unit 302, and call operation determination unit 303).
  • the detection function control device (the drive recorder 1 in this embodiment) according to this embodiment, only one or more detection functions for detecting dangerous driving are required according to the situation of the vehicle 3. , so more sensing capabilities can be activated for the computing power you have.
  • the sensing function is based on AI.
  • more dangerous driving warning functions can be implemented and executed even in a DMS provided in a small terminal that does not have high computing power.
  • the detection function control unit 311 detects the acceleration of the vehicle 3, the position of the vehicle 3, the speed of the vehicle 3, and the vehicle condition determination unit 310. is less than a predetermined amount, and the vehicle condition determination unit 310 determines that it is within a predetermined period of time after the ignition is turned on, or the detection function control unit 311 determines that there is no change in the seating state.
  • the face authentication function face authentication unit 300 in this embodiment
  • the vehicle condition determination unit 310 detects any one or more of the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3.
  • the function of determining inattentive driving is operated.
  • the detection function control device (the drive recorder 1 in this embodiment) according to this embodiment can determine whether or not the driver 2 has changed based on the fact that the vehicle 3 is not moving. Therefore, when the driver 2 changes, the face authentication function can be activated. Further, since the detection function control device according to the present embodiment can determine whether the vehicle 3 is running, the function for determining inattentive driving can be activated when the vehicle 3 is running.
  • the condition for the detection function control device to activate the face authentication function or the function for determining inattentive driving is not limited to the conditions described above.
  • the detection function control unit 311 determines that the vehicle condition determination unit 310 determines that any one or more of the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3 is less than a predetermined amount of change, and the vehicle condition The face authentication unit 300 may be operated when the determination unit 310 determines that it is within a predetermined time since the ignition was turned on.
  • the detection function control unit 311 controls the inattentive driving determination unit 301 when the vehicle condition determination unit 310 determines that the amount of change in all of the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3 is greater than or equal to a predetermined amount. may be activated. Further, when the vehicle status determination unit 310 determines that the amount of change in any one or more of the acceleration of the vehicle 3, the position of the vehicle 3, and the speed of the vehicle 3 is less than a predetermined amount, the detection function control unit 311 performs face authentication. Part 300 may be activated. The detection function control unit 311 may activate the face authentication unit 300 when the vehicle condition determination unit 310 determines that it is within a predetermined time period after the ignition is turned on.
  • the detection function control unit 311 when the vehicle condition determination unit 310 determines that the driver 2 is speaking, activates an image recognition function (in this embodiment, the call operation determination unit 303) that determines the call operation, and if the vehicle condition determination unit 310 determines that the driver 2 is silent, determines that the driver is drowsy driving.
  • the image recognition function (drowsy driving determination unit 302 in this embodiment) is activated.
  • the detection function control device (the drive recorder 1 in the present embodiment) can determine whether or not the driver 2 is speaking.
  • an image recognition function for determining drowsy driving can be activated.
  • one or more of the face authentication unit 300, the inattentive driving determination unit 301, the drowsy driving determination unit 302, and the call operation determination unit 303 may be omitted from the configuration of the detection execution unit 30.
  • the face authentication unit 300, the inattentive driving determination unit 301, the drowsy driving determination unit 302, and the call operation determination unit 303, or in place of any of them other detection A functional unit with a function may be provided.
  • the vehicle status determination unit 310 may handle discrimination between day and night as the vehicle status. It is considered unnecessary to detect drowsy driving during the daytime.
  • the drive recorder 1 may include an illuminance sensor.
  • the detection function control unit 311 does not cause the doze-driving determination unit 302 to operate the image recognition function for determining doze-driving.
  • the drive recorder 1 has, in addition to the functions described with reference to FIG. In addition, the drive recorder 1 may perform processing at the time of impact detection.
  • the impact detection processing includes processing for outputting a warning sound from the audio output unit 29 and processing for displaying a warning screen on the display unit 210 when an impact of a predetermined magnitude or more is detected.
  • the impact detection processing includes processing for generating event information and storing the event information in the storage unit 212 .
  • control unit 20 may be provided as a function of a device mounted on the vehicle 3 of a type other than the drive recorder.
  • the configuration of the control unit 20 is preferably used when the device is a small terminal.
  • small terminal refers to a terminal that does not have a very high computing power, and thus it is difficult to operate multiple AI functions at the same time.
  • the control unit 20 may be implemented by a computer.
  • a program for realizing this control function may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read into a computer system and executed.
  • the "computer system” referred to here is a computer system built into the drive recorder 1, and includes hardware such as an OS and peripheral devices.
  • the term "computer-readable recording medium” refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems.
  • “computer-readable recording medium” means a medium that dynamically stores a program for a short period of time, such as a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line. It may also include a volatile memory inside a computer system that serves as a server or client in that case, which holds the program for a certain period of time. Further, the program may be for realizing part of the functions described above, or may be capable of realizing the functions described above in combination with a program already recorded in the computer system. Also, part or all of the drive recorder 1 in the above-described embodiment may be implemented as an integrated circuit such as an LSI (Large Scale Integration).
  • LSI Large Scale Integration
  • Each functional block of the drive recorder 1 may be individually processorized, or part or all may be integrated and processorized. Also, the method of circuit integration is not limited to LSI, but may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integration circuit technology that replaces LSI appears due to advances in semiconductor technology, an integrated circuit based on this technology may be used.
  • the detection function control device can be used by being mounted on a vehicle as a drive recorder.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

検知機能制御装置は、イグニッションの状態、座席に着座しているか否か、車両の加速度、車両の位置、車両の速度、及び収音される音声のいずれか1以上の検出の結果に基づいて車両の状況を判定する車両状況判定部と、車両状況判定部によって判定された状況に基づいて危険な運転を検知するための1以上の検知機能のうちいずれを作動させるかを判定する検知機能制御部と、を備える。

Description

検知機能制御装置、検知機能制御方法、及びプログラム
 本発明は、検知機能制御装置、検知機能制御方法、及びプログラムに関する。
 小型の端末にAI(Artificial Intelligence)機能を搭載し、利用者の顔認証や居眠りの検知などを行う技術が知られている。例えば、カメラを設置することなく、居眠りを検知する装置が知られている(特許文献1)。
特開2010-250577号公報
 AI機能はその目的に応じて、異なる推論モデルを実行する必要がある。推論モデルの実行には大量の計算資源(CPUリソースまたは専用回路リソース)が必要とされる。そのため、小型の端末で同時に実行できる推論モデルの数には限界がある。
 近年の高性能ドライブレコーダには、DMS(Driver Monitoring System)が搭載されるものがある。このDMSでは、例えば、運転者の顔認証、わき見、居眠り、通話動作などを検知し、危険な運転を警告する機能が搭載されている。しかしながら、小型の端末ではこれらすべての機能を実行するための計算力がないことが多い。そのため、小型の端末に、DMSのような機能を実装することが困難であった。
 保有する計算能力に対してより多くの検知機能を作動できることが求められている。
 本実施形態は上記の点に鑑みてなされたものであり、保有する計算能力に対してより多くの検知機能を作動できる検知機能制御装置、検知機能制御方法、及びプログラムを提供する。
 本実施形態は上記の課題を解決するためになされたものであり、本実施形態の一態様は、イグニッションの状態、座席に着座しているか否か、車両の加速度、前記車両の位置、前記車両の速度、及び収音される音声のいずれか1以上の検出の結果に基づいて前記車両の状況を判定する車両状況判定部と、前記車両状況判定部によって判定された前記状況に基づいて危険な運転を検知するための1以上の検知機能のうちいずれを作動させるかを判定する検知機能制御部と、を備える検知機能制御装置である。
 また、本実施形態の一態様は、上記の検知機能制御装置において、前記検知機能制御部は、前記車両状況判定部が前記加速度、前記位置、前記速度のすべての変化量が所定未満であると判定し、かつ、前記車両状況判定部がイグニッションオンになって以降所定時間以内であると判定した場合、または前記車両状況判定部が着座状態に変化が生じたと判定した場合に、顔認証機能を作動させる。
 また、本実施形態の一態様は、上記の検知機能制御装置において、前記検知機能制御部は、前記車両状況判定部が前記加速度、前記位置、前記速度のいずれか1以上の変化量が所定以上であると判定した場合には、わき見運転を判定する機能を作動させる。
 また、本実施形態の一態様は、上記の検知機能制御装置において、前記検知機能制御部は、前記車両状況判定部が運転者が発話していると判定した場合には、通話動作を判定する画像認識機能を作動させる。
 また、本実施形態の一態様は、上記の検知機能制御装置において、前記検知機能制御部は、前記車両状況判定部が運転者が沈黙していると判定した場合には、居眠り運転を判定する画像認識機能を作動させる。
 また、本実施形態の一態様は、イグニッションの状態、座席に着座しているか否か、車両の加速度、前記車両の位置、前記車両の速度、及び収音される音声のいずれか1以上の検出の結果に基づいて前記車両の状況を判定する車両状況判定ステップと、前記車両状況判定ステップによって判定された前記状況に基づいて危険な運転を検知するための1以上の検知機能のうちいずれを作動させるかを判定する検知機能制御ステップと、を有する検知機能制御方法である。
 また、本実施形態の一態様は、コンピュータに、イグニッションの状態、座席に着座しているか否か、車両の加速度、前記車両の位置、前記車両の速度、及び収音される音声のいずれか1以上の検出の結果に基づいて前記車両の状況を判定する車両状況判定ステップと、前記車両状況判定ステップによって判定された前記状況に基づいて危険な運転を検知するための1以上の検知機能のうちいずれを作動させるかを判定する検知機能制御ステップと、を実行させるためのプログラムである。
 本実施形態によれば、保有する計算能力に対してより多くの検知機能を作動できる。
本実施形態に係るドライブレコーダのハードウェア構成の一例を示す図である。 本実施形態に係るドライブレコーダの機能構成の一例を示す図である。 本実施形態に係る車両状況と複数の検知機能を作動させるか否かとの関係の一例を示す図である。 本実施形態に係る検知機能制御処理の一例を示す図である。 本実施形態に係る検知機能制御処理の一例を示す図である。
(実施形態)
 以下、図面を参照しながら本実施形態について詳しく説明する。本実施形態では、一例として、ドライブレコーダ1に、運転者の顔認証、わき見、居眠り、通話動作などの複数の検知項目を検知するAIが搭載されている場合について説明する。ドライブレコーダ1は、運転者2(不図示)によって運転される車両3(不図示)に搭載される。ドライブレコーダ1は、例えば、主に車両3(不図示)のダッシュボードまたはフロントガラスに設置される。
[ドライブレコーダの構成]
 図1は、本実施形態に係るドライブレコーダ1のハードウェア構成の一例を示す図である。ドライブレコーダ1は、加速度センサ10と、ジャイロセンサ11と、GPS受信部12と、車両信号ケーブル13と、カメラ14と、スピーカ15と、ディスプレイ16と、操作ボタン17と、マイク18と、タイマー19と、CPU110と、ROM111と、RAM112と、通信モジュール113とを備える。加速度センサ10、ジャイロセンサ11、GPS受信部12、車両信号ケーブル13、カメラ14、スピーカ15、ディスプレイ16、操作ボタン17、マイク18、タイマー19、CPU110、ROM111、RAM112、及び通信モジュール113は、互いに信号線によって接続される。
 加速度センサ10は、車両3の加速度を測定する。
 ジャイロセンサ11は、車両3の角速度を測定する。
 GPS受信部12は、GPS(Global Positioning System)を利用して車両3の現在位置を示す情報を取得する。
 車両信号ケーブル13は、車両3から車両信号を取得する。車両信号は、車両3の状態を示す信号である。車両信号ケーブル13は、車両3のECU(Electronic Control Unit)から各種の車両信号を取得する。各種の車両信号には、例えば、イグニッションスイッチ信号、車速信号、車両3の操舵角を示す信号、車両3のシートに加わる圧力の値を示す信号などが含まれる。
 カメラ14は、第1のカメラと、第2のカメラとを含む。第1のカメラは、運転者2の身体の一部または全部を撮影する。第2のカメラは、車両3の走行中の動画像を撮影、及び録画する。
 スピーカ15は、音声による警告音を出力する。
 ディスプレイ16は、各種の画面を表示する。ディスプレイ16は、例えば、液晶ディスプレイ、または有機エレクトロルミネッセンス(EL:Electroluminescence)ディスプレイなどである。
 操作ボタン17は、ユーザがドライブレコーダ1を操作するためのボタンである。
 なお、ディスプレイ16は、タッチパネルであってもよく、その場合、操作ボタン17はディスプレイ16と一体となって構成されてもよい。または、操作ボタン17の一部がディスプレイ16と一体となって構成されてもよい。
 マイク18は、音声を収音する。当該音声には、運転者2の発話による音声が含まれる。
 タイマー19は、計時を行う。
 CPU110は、ROM111からプログラムを読み込み、読み込んだプログラムに従って各種の制御を実行する。CPU110は、レジスターなどの内部記憶媒体を複数内蔵している。CPU110は、ROM111から内部記憶媒体にデータを一時的に記憶し、これを演算処理する。CPU110は、演算結果をレジスターに出力し、さらにレジスターからRAM112や外部の記憶媒体に出力させる。
 ROM111は、CPU110が各種演算や制御を行うための各種プログラム、データ及びパラメーターなどを格納した主記憶装置である。ROM111は、ROM111に供給される電力がゼロの状態でも記憶内容を保持できる。
 RAM112は、CPU110にワーキングメモリーとして使用される主記憶装置である。RAM112は、CPU110により、プログラムやデータなどの書き込み及び消去が行われる。RAM112は、例えば、半導体記憶装置等の記憶装置を用いて構成される。
 通信モジュール113は、無線ネットワークNWを介して、各種の情報の送信及び受信を行う。通信モジュール113は、通信インターフェース(I/F)を備える。
 図2は、本実施形態に係るドライブレコーダ1の機能構成の一例を示す図である。ドライブレコーダ1は、制御部20と、加速度取得部21と、角速度取得部22と、位置取得部23と、車両信号取得部24と、収音部25と、撮影部26と、計時部27と、操作部28と、音声出力部29と、表示部210と、通信部211と、記憶部212とを備える。
 制御部20は、ドライブレコーダ1についての各種の制御を行う。制御部20は、例えばCPUを備えており、種々の演算や情報の授受を行う。制御部20が備える各機能部は、CPUがROMからプログラムを読み込んで処理を実行することにより実現される。制御部20が備える各機能部については後述する。制御部20は、図1に示したCPU110、ROM111、及びRAM112を含む。
 加速度取得部21は、車両3の加速度を取得する。加速度取得部21は、取得した加速度に基づいて、加速度データA1を生成する。加速度データA1は、車両3の加速度を示す。加速度取得部21は、図1に示した加速度センサ10を含む。
 角速度取得部22は、車両3の角速度を取得する。角速度取得部22は、取得した角速度に基づいて、角速度データB1を生成する。角速度データB1は、車両3の角速度を示す。角速度取得部22は、図1に示したジャイロセンサ11を含む。
 位置取得部23は、車両3の位置を取得する。位置取得部23は、取得した位置に基づいて、位置データC1を生成する。位置データC1は、車両3の位置を示す。位置取得部23は、図1に示したGPS受信部12を含む。
 車両信号取得部24は、車両3の車両信号を取得する。車両信号取得部24は、取得した車両信号に基づいて、車両信号データD1を生成する。車両信号データD1は、イグニッションのオンまたはオフを示すデータ、車両3の車速を示すデータ、操舵角データ、着座データを含む。操舵角データは、車両3の操舵角を示す。着座データは、車両3のシートに加わる圧力の値を示す。車両信号取得部24は、図1に示した車両信号ケーブル13を含む。
 収音部25は、運転者2の発話による音声を収音する。収音部25は、収音した結果、音声データE1を生成する。音声データE1は、運転者2の発話による音声を示す。収音部25は、図1に示したマイク18を含む。
 撮影部26は、運転者2の顔、運転者2の動作のいずれか1以上を撮影する。撮影部26は、撮影の結果、画像データF1を生成する。画像データF1は、運転者2の顔、運転者2の動作のいずれか1以上を示す。撮影部26は、図1に示したカメラ14を含む。
 計時部27は、各種の計時を行う。計時部27は、制御部20からの信号に応じて計時の開始し及び停止を行う。計時部27は、計時の結果、計時データG1を生成する。計時データG1には、例えば、制御部20から計時開始の信号を取得してから計時停止の信号を取得するまでに経過した時間が含まれる。計時部27は、複数の計時を並行して行う場合がある。複数の計時が並行して行われる場合には、計時データG1には、それら複数の計時の結果が含まれる。また、計時データG1には、現在時刻が含まれてもよい。
 計時部27は、図1に示したタイマー19を含む。
 操作部28は、ドライブレコーダ1のユーザによる各種の操作を受け付ける。操作部28は、図1に示した操作ボタン17を含む。なお、操作ボタン17とディスプレイ16とが一体となってタッチパネルとして備えられる場合、操作部28は、当該タッチパネルを含む。
 音声出力部29は、各種の音声を出力する。音声出力部29が出力する音声には、例えば、運転者2についての検知の結果、異常が検知された場合に警告音として出力する音声が含まれる。
 表示部210は、各種の画面を表示する。表示部210が表示する画面には、例えば、運転者2についての検知の結果、異常が検知された場合に警告として表示される警告画面が含まれる。表示部210は、図1に示したディスプレイ16、及びRAM112を含む。RAM112には、警告画面の画像データが含まれる。
 通信部211は、外部装置と通信を行う。通信部211が通信を行う外部装置には、サーバ(不図示)が含まれる。通信部211は、図1に示した通信モジュール113を含む。
 記憶部212は、各種の情報を記憶する。記憶部212は、図1に示したRAM112を含む。
 ここで制御部20が備える各機能部について説明する。制御部20は、取得部200と、操作受付部2010と、表示制御部2011と、警告部2012と、検知実行部30と、検知機能管理部31とを備える。
 取得部200は、各種の情報を取得する。取得部200は、加速度データ取得部201と、角速度データ取得部202と、操舵角データ取得部203と、位置情報取得部204と、車両信号データ取得部205と、着座データ取得部206と、音声データ取得部207と、撮影画像取得部208と、計時データ取得部209とを備える。
 加速度データ取得部201は、加速度取得部21から加速度データA1を取得する。
 角速度データ取得部202は、角速度取得部22から角速度データB1を取得する。
 操舵角データ取得部203は、車両信号取得部24から車両信号データD1に含まれる操舵角データを取得する。
 位置情報取得部204は、位置取得部23から位置データC1を取得する。
 車両信号データ取得部205は、車両信号取得部24から車両信号データD1を取得する。
 着座データ取得部206は、車両信号取得部24から車両信号データD1に含まれる着圧データを取得する。
 音声データ取得部207は、収音部25から音声データE1を取得する。
 撮影画像取得部208は、撮影部26から画像データF1を取得する。
 計時データ取得部209は、計時部27から計時データG1を取得する。
 操作受付部2010は、操作部28に行われた各種の操作を受け付ける。
 表示制御部2011は、表示部210を制御して、表示部210に各種の画面を表示させる。
 警告部2012は、警告を実行する。例えば、警告部2012は、音声出力部29を制御して、音声出力部29に警告音を出力させる。
 検知実行部30は、AI機能を備え、通話動作などの複数の検知項目を検知する。換言すれば、検知実行部30は、複数の検知項目それぞれに応じて複数の検知機能を実行する。なお、検知実行部30が各種の判定を行うための学習済みのモデルは記憶部212に記憶されている。検知実行部30は、ドライバーモニタシステム(DMS:Driver Monitoring System)に相当する。
 検知実行部30は、顔認証部300と、わき見運転判定部301と、居眠り運転判定部302と、通話動作判定部303とを備える。
 顔認証部300は、運転者2の顔を認証する。顔認証部300は、撮影画像取得部208が取得する画像データF1が示す運転者2の顔と、記憶部212に記憶される車両3の持ち主の顔画像(不図示)とを比較することによってAI機能に基づいて認証を行う。顔認証部300は、顔認証の結果を、運転者の情報として収集する。顔認証は、例えば、車両3が業務用車両などの場合に、許可のない、もしくは無関係な人間が運転することを防ぐためのものである。例えば、顔認証部300は、顔認証の結果、運転者2が許可のない人間と判定した場合、警告部2012に警告を実行させる。または、顔認証は、盗難防止を目的として運転者2が車両3の持ち主であるかの検証に用いられてもよい。
 わき見運転判定部301は、わき見運転を判定する。わき見運転判定部301は、撮影画像取得部208が取得する画像データF1が示す運転者2の動作(例えば、顔の向き、視線の向きなど)に基づいて、運転者2がわき見をしていないか否かを判定する。わき見運転判定部301は、運転者2がわき見をしていると判定した場合、警告部2012に警告を実行させる。
 居眠り運転判定部302は、居眠り運転を判定する。居眠り運転判定部302は、撮影画像取得部208が取得する画像データF1が示す運転者2の動作(例えば、頭部の揺れ、瞼が開いているかなど)に基づいて、居眠りをしていないか否かを判定する。居眠り運転判定部302は、運転者2が居眠りをしていると判定した場合、警告部2012に警告を実行させる。
 通話動作判定部303は、通話動作を判定する。通話動作判定部303は、音声データ取得部207が取得する音声データE1が示す運転者2の音声に基づいて、通話動作を判定する。通話動作判定部303は、撮影画像取得部208が取得する画像データF1が示す運転者2の動作(例えば、携帯電話を耳元に当てているなど)に基づいて、通話動作を判定してもよい。通話動作判定部303は、運転者2が通話をしていると判定した場合、警告部2012に警告を実行させる。
 検知機能管理部31は、検知実行部30によって実行される複数の検知機能のうち、いずれを作動させるかを判定する。換言すれば、検知機能管理部31は、当該複数の検知機能のうち作動させる検知機能を選択する。検知機能管理部31は、判定(または選択)の結果、1つの検知機能を作動させてもよいし、複数の検知機能を作動させてもよい。
 以下の説明では、検知機能管理部31が実行する処理を、検知機能制御処理ともいう。
 検知機能管理部31は、車両状況判定部310と、検知機能制御部311とを備える。
 車両状況判定部310は、所定の検出項目の検出結果に基づいて車両状況を判定する。ここで所定の検出項目とは、例えば、イグニッションの状態、座席に着座しているか否か、車両の加速度、車両3の位置、車両3の速度、及び収音される音声のいずれか1以上である。車両状況とは、車両3の状況である。車両状況には、例えば、車両3の移動の状況、運転の開始または運転者の交代が行われた状況、運転者2が発話している状況などが含まれる。車両3の移動の状況には、例えば、車両3が移動していること、車両3が前方に直進していることなどが含まれる。
 なお、所定の検出項目は、イグニッションの状態、座席に着座しているか否か、車両の加速度、車両3の位置、車両3の速度、及び収音される音声のいずれか1以上であってもよい。
 検知機能制御部311は、車両状況判定部310によって判定された車両状況に基づいて危険な運転を検知するための1以上の検知機能のうちいずれを作動させるかを判定する。検知機能制御部311は、判定結果を検知実行部30に出力し、複数の検知機能のうち当該判定結果が示す検知機能を検知実行部30に作動させる。
 ここで図3を参照し、車両状況と複数の検知機能を作動させるか否かとの関係について説明する。図3は、本実施形態に係る車両状況と複数の検知機能を作動させるか否かとの関係の一例を示す図である。
 図3では、車両状況として、車両3が停止していること、車両3が移動していること、車両3が転回していること、運転者2が沈黙していること、運転者2が発話を行っていることが示されている。図3では、それらの車両状況それぞれの場合に、検知機構を作動させるか否かが顔認証、わき見、居眠り、及び通話動作の検知項目それぞれについて示されている。
 顔認証による運転者情報の収集が必要になるのは、運転の開始時および運転者の交代時である。加速度センサ、GPSデータ、車速パルスデータなどから、車両3が移動していないこと(停止していること)を検出したときのみ顔認証を実行させ、それらが検出されない残りの時間は顔認証を停止させる。
 わき見運転の検知による危険運転警告が必要になるのは、車両3が前方直進しているときである。加速度センサ、GPSデータ、車速パルスデータなどから、車両3が移動していること、ジャイロセンサ、操舵角データなどから車両3が転回していないこと(直進していること)を検出したときのみわき見運転の検知機能を実行させ、それらが検出されない残りの時間はわき見運転の検知機能を停止させる。なお、わき見運転の検知機能を実行させるか否かの判定には、運転者の沈黙の検出、または運転者の発話の検出は不要である。
 居眠り検知による危険運転警告が必要になるのは、車両3が移動中でありかつ運転者2が沈黙しているときである。加速度センサ、GPSデータ、車速パルスデータなどから、車両3が移動していること、ジャイロセンサ、操舵角データなどから車両3が転回していること、マイクから収集される音声データから運転者が沈黙していることを検出したときのみ居眠り検知機能を実行させ、それらが検出されない残りの時間は居眠り検知機能停止させる。
 通話検知による危険運転警告が必要になるのは、車両3が移動中でありかつ運転者2が発話しているときである。加速度センサ、GPSデータ、車速パルスデータなどから、車両3が移動していること、ジャイロセンサ、操舵角データなどから車両3が転回していること、マイクから収集される音声データから運転者が発話していることを検出したときのみ通話検知機能を実行させ、それらが検出されない残りの時間は通話検知機能を停止させる。
[検知機能制御処理]
 次に図4及び図5を参照し、検知機能制御処理の具体例について説明する。制御部20は、例えば、ドライブレコーダ1の電源がオンになっている間、図4及び図5に示す検知機能制御処理をそれぞれ並行して繰り返し実行する。なお、図4及び図5に示す検知機能制御処理のうちいずれか一方のみが実行されてもよい。
 図4及び図5に示す検知機能制御処理が開始される前においては、複数の検知機能は、作動させないと判定されている。つまり、複数の検知機能のうち、図4及び図5に示す検知機能制御処理において作動させると判定されなかった検知機能は、制御部20は作動させない。ただし、図4及び図5に示す検知機能制御処理は繰り返し実行されるため、ある時点において作動させないと判定された検知機能であっても、次回の検知機能制御処理において作動させると判定される場合がある。同様に、ある時点において作動させると判定された検知機能であっても、次回の検知機能制御処理において作動させないと判定される場合がある。
 図4は、本実施形態に係る検知機能制御処理の一例を示す図である。
ステップS10:車両状況判定部310は、各種の検出結果を取得する。ここで車両状況判定部310は、加速度データ取得部201から加速度データA1を取得する。車両状況判定部310は、位置情報取得部204から位置データC1を取得する。車両状況判定部310は、車両信号データ取得部205から車両信号データD1を取得する。車両状況判定部310は、計時データ取得部209から計時データG1を取得する。車両状況判定部310は、着座データ取得部206から着圧データを取得する。
ステップS20:車両状況判定部310は、車両3の加速度、車両3の位置、車両3の速度のすべての変化量が所定未満であるか否かを判定する。車両状況判定部310は、例えば、加速度の変化量について、加速度データA1が示す加速度を、計時データG1が示す所定時間によって除算することによって当該変化量を算出する。車両状況判定部310は、例えば、位置の変化量について、位置データC1が示す複数の位置の間の距離を、計時データG1が示す所定時間によって除算することによって当該変化量を算出する。車両状況判定部310は、例えば、車速の変化量について、車両信号データD1が示す車速信号と、計時データG1が示す所定時間とに基づいて、当該変化量を算出する。
 車両3の加速度の所定の変化量とは、例えば、エンジン等による継続的な振動を超える変化量のことである。当該加速度の所定の変化量は、予め定めておいてもよいし、過去所定時間内の加速度の変化量の平均値または中央値などの代表値から随時求めてもよい。
 車両3の位置の所定の変化量とは、例えば、単位時間1秒後のGPSの位置の変化が所定距離1メートルのことである。単位時間は1秒後に限らず、10ミリ秒以上10秒以下の適切な時間としてもよい。また、所定距離は1メートルに限らず、0メートル以上10メートル以下の適切な距離としてもよい。
 車両3の速度の所定の変化量とは、例えば、時速3キロメートルのことである。時速3キロメートルに限らず、時速0キロメートル以上5キロメートル以下の適切な速度としてもよい。
 車両状況判定部310は、車両3の加速度、車両3の位置、車両3の速度のすべての変化量が所定未満であると判定した場合(ステップS20;YES)、ステップS30の処理を実行する。一方、車両状況判定部310が、車両3の加速度、車両3の位置、車両3の速度のいずれか1以上の変化量が所定以上であると判定した場合(ステップS20;NO)、検知機能管理部31は、ステップS50の処理を実行する。
ステップS30:車両状況判定部310は、イグニッションオンになって以降所定時間以内であるか、または座席の着座センサに変化があったか否かを判定する。座席の着座センサに変化があることは、座席に着座する乗員の位置または人数に変化があることを示す。
 イグニッションオンになって以降所定時間以内であるかを判定するために、車両状況判定部310は、車両信号データD1がイグニッションオンとなったことを示す場合、計時部27に計時を開始させる。車両状況判定部310は、計時データG1に基づいて、イグニッションオンになってから経過した時間と、所定時間とを比較して判定を行う。
 なお、イグニッションオンになって以降所定時間以内であるか否かを判定するために、車両信号データD1以外の車両信号に基づいて判定が行われてもよい。
 座席の着座センサに変化があったか否かを判定するために、車両状況判定部310は、着圧データが示す車両3のシートに加わる圧力の値に基づいて判定を行う。
 車両状況判定部310は、イグニッションオンになって以降所定時間以内であるか、または座席の着座センサに変化があったと判定した場合(ステップS30;YES)、検知機能管理部31は、ステップS40の処理を実行する。一方、車両状況判定部310が、イグニッションオンになって以降所定時間以内でなく、かつ座席の着座センサに変化がなかったと判定した場合(ステップS30;NO)、検知機能管理部31は、検知機能制御処理を終了する。
ステップS40:検知機能制御部311は、顔認証機能を作動させると判定する。検知機能制御部311は、顔認証部300に顔認証機能を実行させる。
ステップS50:検知機能制御部311は、わき見運転を判定する機能を作動させると判定する。検知機能制御部311は、わき見運転判定部301にわき見運転を判定する機能を実行させる。つまり、検知機能制御部311は、車両状況判定部310が車両3の加速度、車両3の位置、車両3の速度のいずれか1以上の変化量が所定以上であると判定した場合には、わき見運転を判定する機能を作動させる。
 以上で、検知機能管理部31は、検知機能制御処理を終了する。
 なお、顔認証が必要とされるのは、運転者2が入れ替わるときである。図4に示す検知機能制御処理は、運転者2が入れ替わるのは車両3が移動していない場合であるとの想定に基づいている。図4に示す検知機能制御処理では、車両3が移動していないことの条件の一例として、イグニッションオンになって以降所定時間以内であるという条件が用いられている。
 なお、わき見運転の判定が必要とされるのは、車両3が走行中のときである。図4に示す検知機能制御処理では、車両3が走行中の条件の一例として、車両3の加速度、車両3の位置、車両3の速度それぞれの変化量が所定以上であるという条件が用いられている。
 なお上述したように、図4に示した検知機能制御処理においては、顔認証機能を作動させるか否か、わき見運転を判定する機能を作動させるか否かの両方が判定される場合の一例について説明したが、これに限られない。図4に示した検知機能制御処理において、顔認証機能を作動させるか否か、わき見運転を判定する機能を作動させるか否かのいずれか一方の判定が省略されてもよい。
 顔認証機能を作動させるか否かの判定が省略される場合、図4に示した検知機能制御処理においてステップS30及びステップS40の各処理が省略される。その場合、ステップS20において車両状況判定部310が、車両3の加速度、車両3の位置、車両3の速度のすべての変化量が所定未満であると判定した場合(ステップS20;YES)、検知機能管理部31は、検知機能制御処理を終了する。一方、車両状況判定部310が、車両3の加速度、車両3の位置、車両3の速度のいずれか1以上の変化量が所定以上であると判定した場合(ステップS20;NO)、検知機能管理部31は、ステップS50の処理を実行する。
 わき見運転を判定する機能を作動させるか否かの判定が省略される場合、図4に示した検知機能制御処理においてステップS20及びステップS50の各処理が省略される。その場合、ステップS30の処理は、ステップS10の処理の後に実行される。ステップS30において、車両状況判定部310は、イグニッションオンになって以降所定時間以内であるか、または座席の着座センサに変化があったと判定した場合(ステップS30;YES)、検知機能管理部31は、ステップS40の処理を実行する。一方、車両状況判定部310が、イグニッションオンになって以降所定時間以内でなく、かつ座席の着座センサに変化がなかったと判定した場合(ステップS30;NO)、検知機能管理部31は、検知機能制御処理を終了する。
 なお、座席の着座センサに変化があることは、着座状態に変化が生じることの一例である。着座状態に変化が生じることの他の一例は、車両3のドアが開閉されることである。車両状況判定部310は、着座状態に変化が生じたか否かを判定するために、車両3のドアが開閉されたか否かを判定してもよい。その場合、車両信号データD1にはドアが開閉を示す信号が含まれる。車両状況判定部310は、当該信号に基づいて車両3のドアが開閉されたか否かを判定する。
 また、車両状況判定部310は、着座状態に変化が生じたか否かを判定するために、座席の着座センサに変化があったか否かと、車両3のドアが開閉されたか否かとの両方を判定してもよい。
 上述したように、ステップS30において、車両状況判定部310は、イグニッションオンになって以降所定時間以内であるか、または着座状態に変化が生じたか否かを判定すればよい。したがって、検知機能制御部311は、車両状況判定部310が車両3の加速度、車両3の位置、車両3の速度のすべての変化量が所定未満であると判定し、かつ、車両状況判定部310がイグニッションオンになって以降所定時間以内であると判定した場合、または車両状況判定部310が着座状態に変化が生じたと判定した場合に顔認証機能を作動させる。
 図5は、本実施形態に係る検知機能制御処理の一例を示す図である。
ステップS110:車両状況判定部310は、各種の検出結果を取得する。ここで車両状況判定部310は、音声データ取得部207から音声データE1を取得する。
ステップS120:車両状況判定部310は、運転者2が発話しているか否かを判定する。310は、音声データE1が示す運転者2の音声に基づいて、運転者2が発話しているか、または沈黙しているかを判定する。
 車両状況判定部310が、運転者2が発話していると判定した場合(ステップS120;YES)、検知機能管理部31は、ステップS130の処理を実行する。一方、車両状況判定部310が、運転者2が発話していない(沈黙している)と判定した場合(ステップS120;NO)、検知機能管理部31は、ステップS140の処理を実行する。
ステップS130:検知機能制御部311は、通話動作を判定する画像認識機能を作動させると判定する。検知機能制御部311は、通話動作判定部303に通話動作を判定する画像認識機能を実行させる。したがって、検知機能制御部311は、車両状況判定部310が、運転者2が発話していると判定した場合、通話動作を判定する画像認識機能を作動させる。
ステップS140:検知機能制御部311は、居眠り運転を判定する画像認識機能を作動させると判定する。検知機能制御部311は、居眠り運転判定部302に居眠り運転を判定する画像認識機能を実行させる。したがって、検知機能制御部311は、車両状況判定部310が、運転者2が沈黙していると判定した場合、居眠り運転を判定する画像認識機能を作動させる。
 以上で、検知機能管理部31は、検知機能制御処理を終了する。
 なお、図5に示した検知機能制御処理では、運転者2が発話しているか否かに応じて、居眠り運転を判定する画像認識機能を作動させるか否かが判定される場合の一例について説明したが、これに限られない。例えば、運転者2の発話と、操舵角とに基づいて居眠り運転を判定する画像認識機能を作動させるか否かが判定されてもよい。その場合、運転者2が沈黙しており、かつ操舵角が所定以上の場合に、居眠りの可能性があるとして、検知機能制御部311は当該機能を作動させる。
 以上に説明したように、本実施形態に係る検知機能制御装置(本実施形態において、ドライブレコーダ1)は、車両状況判定部310と、検知機能制御部311とを備える。
 車両状況判定部310は、イグニッションの状態、座席に着座しているか否か、車両3の加速度、車両3の位置、車両3の速度、及び収音される音声のいずれか1以上の検出の結果に基づいて車両3の状況(本実施形態において、車両状況)を判定する。
 検知機能制御部311は、車両状況判定部310によって判定された状況(本実施形態において、車両状況)に基づいて危険な運転を検知するための1以上の検知機能(本実施形態において、顔認証部300、わき見運転判定部301、居眠り運転判定部302、通話動作判定部303)のうちいずれを作動させるかを判定する。
 この構成により、本実施形態に係る検知機能制御装置(本実施形態において、ドライブレコーダ1)では、危険な運転を検知するための1以上の検知機能について車両3の状況に応じて必要な機能のみを作動できるため、保有する計算能力に対してより多くの検知機能を作動できる。上述したように、検知機能とは、AIに基づいている。本実施形態に係る検知機能制御装置では、計算能力が高くない小型の端末に備えられるDMSにおいても、より多くの危険運転警告機能が実装、実行できる。
 また、本実施形態に係る検知機能制御装置(本実施形態において、ドライブレコーダ1)では、検知機能制御部311は、車両状況判定部310が車両3の加速度、車両3の位置、車両3の速度のすべての変化量が所定未満であると判定し、かつ、車両状況判定部310がイグニッションオンになって以降所定時間以内であると判定した場合、または検知機能制御部311が着座状態に変化が生じたと判定した場合に顔認証機能(本実施形態において、顔認証部300)を作動させ、車両状況判定部310が車両3の加速度、車両3の位置、車両3の速度のいずれか1以上の変化量が所定以上であると判定した場合には、わき見運転を判定する機能(本実施形態において、わき見運転判定部301)を作動させる。
 この構成により、本実施形態に係る検知機能制御装置(本実施形態において、ドライブレコーダ1)では、車両3が移動していないことに基づいて運転者2の入れ替わりが起きているか否かを判定できるため、運転者2の入れ替わりが起きている場合に、顔認証機能を作動させることができる。また、本実施形態に係る検知機能制御装置では、車両3が走行中であるか否かを判定できるため、車両3が走行中である場合、わき見運転を判定する機能を作動させることができる。
 なお、検知機能制御装置が、顔認証機能、またはわき見運転を判定する機能を作動させるための条件は、上述した条件に限らない。例えば、検知機能制御部311は、車両状況判定部310が車両3の加速度、車両3の位置、車両3の速度のいずれか1以上の変化量が所定未満であると判定し、かつ、車両状況判定部310がイグニッションオンになって以降所定時間以内であると判定した場合に、顔認証部300を作動させてもよい。また、検知機能制御部311は、車両状況判定部310が車両3の加速度、車両3の位置、車両3の速度のすべての変化量が所定以上であると判定した場合に、わき見運転判定部301を作動させてもよい。
 また、検知機能制御部311は、車両状況判定部310が車両3の加速度、車両3の位置、車両3の速度のいずれか1以上の変化量が所定未満であると判定した場合に、顔認証部300を作動させてもよい。検知機能制御部311は、車両状況判定部310がイグニッションオンになって以降所定時間以内であると判定した場合に、顔認証部300を作動させてもよい。
 また、本実施形態に係る検知機能制御装置(本実施形態において、ドライブレコーダ1)では、検知機能制御部311は、車両状況判定部310が運転者2が発話していると判定した場合には、通話動作を判定する画像認識機能(本実施形態において、通話動作判定部303)を作動させ、車両状況判定部310が運転者2が沈黙していると判定した場合には、居眠り運転を判定する画像認識機能(本実施形態において、居眠り運転判定部302)を作動させる。
 この構成により、本実施形態に係る検知機能制御装置(本実施形態において、ドライブレコーダ1)では、運転者2が発話しているか否かを判定できるため、運転者2が沈黙している場合に、居眠り運転を判定する画像認識機能を作動させることができる。
 なお、検知実行部30の構成から、顔認証部300、わき見運転判定部301、居眠り運転判定部302、または通話動作判定部303のうちいずれか1以上が省略されてもよい。また、検知実行部30の構成に、顔認証部300、わき見運転判定部301、居眠り運転判定部302、及び通話動作判定部303に加えて、またはそれらのうちいずれかに代えて、他の検知機能を備える機能部が備えられてもよい。
 なお、車両状況判定部310は、車両状況として、昼夜の識別を扱ってもよい。昼間は居眠り運転の検知は不要と考えられる。その場合、ドライブレコーダ1は、照度センサを備えてもよい。車両状況判定部310が、照度センサの測定する明るさが所定以上であると判定した場合、検知機能制御部311は、居眠り運転判定部302に居眠り運転を判定する画像認識機能を作動させない。
 なお、ドライブレコーダ1は、図2において説明した機能の他に、カメラ14によって常時録画される映像を記憶部212に記憶させる記録機能を備える。
 また、ドライブレコーダ1は、衝撃検知時処理を行ってもよい。衝撃検知時処理では、所定の大きさ以上の衝撃が検知された場合に、音声出力部29に警告音を出力させる処理、表示部210に警告画面を表示させる処理が含まれる。また、衝撃検知時処理には、イベント情報を生成して、記憶部212にイベント情報を記憶させる処理が含まれる。
 なお、制御部20は、ドライブレコーダ以外の種類の車両3に搭載される機器の機能として備えられてもよい。当該機器が小型の端末である場合に、制御部20の構成は好適に用いられる。ここで小型の端末とは、計算能力があまり高くないために、複数のAI機能を同時に機能させることが難しい端末をいう。
 なお、上述した実施形態におけるドライブレコーダ1の一部、例えば、制御部20をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、ドライブレコーダ1に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
 また、上述した実施形態におけるドライブレコーダ1の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。ドライブレコーダ1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
 以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 本実施形態に係る検知機能制御装置は、ドライブレコーダとして車両に搭載されて利用することができる。
1…ドライブレコーダ、2…運転者、3…車両、310…車両状況判定部、311…検知機能制御部、300…顔認証部、301…わき見運転判定部、302…居眠り運転判定部、303…通話動作判定部

Claims (7)

  1.  イグニッションの状態、座席に着座しているか否か、車両の加速度、前記車両の位置、前記車両の速度、及び収音される音声のいずれか1以上の検出の結果に基づいて前記車両の状況を判定する車両状況判定部と、
     前記車両状況判定部によって判定された前記状況に基づいて危険な運転を検知するための1以上の検知機能のうちいずれを作動させるかを判定する検知機能制御部と、
     を備える検知機能制御装置。
  2.  前記検知機能制御部は、前記車両状況判定部が前記加速度、前記位置、前記速度のすべての変化量が所定未満であると判定し、かつ、前記車両状況判定部がイグニッションオンになって以降所定時間以内であると判定した場合、または前記車両状況判定部が着座状態に変化が生じたと判定した場合に、顔認証機能を作動させる
     請求項1に記載の検知機能制御装置。
  3.  前記検知機能制御部は、前記車両状況判定部が前記加速度、前記位置、前記速度のいずれか1以上の変化量が所定以上であると判定した場合には、わき見運転を判定する機能を作動させる
     請求項1または請求項2に記載の検知機能制御装置。
  4.  前記検知機能制御部は、前記車両状況判定部が運転者が発話していると判定した場合には、通話動作を判定する画像認識機能を作動させる
     請求項1から請求項3の少なくともいずれか1項に記載の検知機能制御装置。
  5.  前記検知機能制御部は、前記車両状況判定部が運転者が沈黙していると判定した場合には、居眠り運転を判定する画像認識機能を作動させる
     請求項1から請求項4の少なくともいずれか1項に記載の検知機能制御装置。
  6.  イグニッションの状態、座席に着座しているか否か、車両の加速度、前記車両の位置、前記車両の速度、及び収音される音声のいずれか1以上の検出の結果に基づいて前記車両の状況を判定する車両状況判定ステップと、
     前記車両状況判定ステップによって判定された前記状況に基づいて危険な運転を検知するための1以上の検知機能のうちいずれを作動させるかを判定する検知機能制御ステップと、
    を有する検知機能制御方法。
  7.  コンピュータに、
     イグニッションの状態、座席に着座しているか否か、車両の加速度、前記車両の位置、前記車両の速度、及び収音される音声のいずれか1以上の検出の結果に基づいて前記車両の状況を判定する車両状況判定ステップと、
     前記車両状況判定ステップによって判定された前記状況に基づいて危険な運転を検知するための1以上の検知機能のうちいずれを作動させるかを判定する検知機能制御ステップと、
     を実行させるためのプログラム。
PCT/JP2022/001149 2021-03-04 2022-01-14 検知機能制御装置、検知機能制御方法、及びプログラム WO2022185736A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280008295.XA CN116670738A (zh) 2021-03-04 2022-01-14 检测功能控制装置、检测功能控制方法以及程序
US18/366,279 US20230382397A1 (en) 2021-03-04 2023-08-07 Detection function control device, detection function control method, and non-transitory computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-034404 2021-03-04
JP2021034404A JP2022134915A (ja) 2021-03-04 2021-03-04 検知機能制御装置、検知機能制御方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/366,279 Continuation US20230382397A1 (en) 2021-03-04 2023-08-07 Detection function control device, detection function control method, and non-transitory computer readable medium

Publications (1)

Publication Number Publication Date
WO2022185736A1 true WO2022185736A1 (ja) 2022-09-09

Family

ID=83153977

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/001149 WO2022185736A1 (ja) 2021-03-04 2022-01-14 検知機能制御装置、検知機能制御方法、及びプログラム

Country Status (4)

Country Link
US (1) US20230382397A1 (ja)
JP (1) JP2022134915A (ja)
CN (1) CN116670738A (ja)
WO (1) WO2022185736A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003226227A (ja) * 2002-02-06 2003-08-12 Denso Corp 車室内モニタ装置、車室内モニタ制御装置、車両泥棒特定システム
JP2014016702A (ja) * 2012-07-06 2014-01-30 Yazaki Corp ドライバ状態検出装置及びドライバ状態報知装置
JP2014032119A (ja) * 2012-08-03 2014-02-20 Denso Corp 操作制御装置、及び、操作制御プログラム
JP2014232421A (ja) * 2013-05-29 2014-12-11 株式会社デンソー 人物探索システム
JP3207515U (ja) * 2016-08-12 2016-11-17 田中 久生 車両における居眠り検出装置
JP2020183226A (ja) * 2014-09-30 2020-11-12 エイディシーテクノロジー株式会社 自動運転制御装置及び車両

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003226227A (ja) * 2002-02-06 2003-08-12 Denso Corp 車室内モニタ装置、車室内モニタ制御装置、車両泥棒特定システム
JP2014016702A (ja) * 2012-07-06 2014-01-30 Yazaki Corp ドライバ状態検出装置及びドライバ状態報知装置
JP2014032119A (ja) * 2012-08-03 2014-02-20 Denso Corp 操作制御装置、及び、操作制御プログラム
JP2014232421A (ja) * 2013-05-29 2014-12-11 株式会社デンソー 人物探索システム
JP2020183226A (ja) * 2014-09-30 2020-11-12 エイディシーテクノロジー株式会社 自動運転制御装置及び車両
JP3207515U (ja) * 2016-08-12 2016-11-17 田中 久生 車両における居眠り検出装置

Also Published As

Publication number Publication date
CN116670738A (zh) 2023-08-29
JP2022134915A (ja) 2022-09-15
US20230382397A1 (en) 2023-11-30

Similar Documents

Publication Publication Date Title
US11210873B2 (en) Safety for vehicle users
JP4058455B1 (ja) 携帯端末
US20090167516A1 (en) Look-away detecting device, method and program
US20100171829A1 (en) Drive recorder
EP3745361B1 (en) Vehicle recording control device, vehicle recording device, vehicle recording control method, and program
CN110001566B (zh) 车内生命体保护方法、装置及计算机可读存储介质
US20130194099A1 (en) Driving assistance apparatus
JP2010052635A (ja) 飲酒運転防止装置
JP2019091292A (ja) 異常検知装置、異常検知方法および異常検知プログラム、並びに車両用記録装置
US20120286957A1 (en) Mobile Sleep Detection Method and System
JP2018046343A (ja) 画像記録装置、画像記録方法およびプログラム
WO2022185736A1 (ja) 検知機能制御装置、検知機能制御方法、及びプログラム
JP4173083B2 (ja) 覚醒状態判定装置及び覚醒状態判定方法
JP6959025B2 (ja) 運転評価システム
US20200391754A1 (en) Driver assistance device that can be mounted on a vehicle
JP4487633B2 (ja) 車両内コミュニケーション装置
JP2023182752A (ja) システムおよびプログラム等
CN107933461A (zh) 基于单摄像头的车内识别融合装置及方法
JP2008225537A (ja) 自動車の安全装置
JP2021073571A (ja) 記録再生装置、記録再生方法、およびプログラム
CN111292493A (zh) 一种振动提醒方法、装置、电子设备及系统
JP4512112B2 (ja) 運転情報記録装置
WO2022239481A1 (ja) 撮影装置、及びプログラム
CN216119022U (zh) 一种疲劳驾驶状态检测装置
JP2022159703A (ja) 車両用緊急通報装置、車両用緊急通報方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22762795

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280008295.X

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22762795

Country of ref document: EP

Kind code of ref document: A1