WO2020095904A1 - 運行管理装置及び運行管理システム - Google Patents

運行管理装置及び運行管理システム Download PDF

Info

Publication number
WO2020095904A1
WO2020095904A1 PCT/JP2019/043314 JP2019043314W WO2020095904A1 WO 2020095904 A1 WO2020095904 A1 WO 2020095904A1 JP 2019043314 W JP2019043314 W JP 2019043314W WO 2020095904 A1 WO2020095904 A1 WO 2020095904A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vehicle
driver
operation management
unit
Prior art date
Application number
PCT/JP2019/043314
Other languages
English (en)
French (fr)
Inventor
博臣 舩越
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2020095904A1 publication Critical patent/WO2020095904A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to an operation management device and an operation management system.
  • Patent Document 1 predicts driver drowsiness based on the driver's brain wave data, driving route, and the like.
  • Hazard maps can be used for vehicle operation management. As a result of detailed study by the inventor, the following problems were found.
  • One aspect of the present disclosure is to provide first information indicating a driver state including two or more selected from the group consisting of a drowsiness level, a fear level, a concentration level, and a physical condition of a vehicle driver, and the first information.
  • An information acquisition unit configured to acquire the first information and the second information from an in-vehicle device having a function of transmitting the second information indicating the position of the vehicle when the information is acquired;
  • An operation management device comprising: a hazard map generation unit configured to generate a hazard map by associating the position of the vehicle represented by the second information with the driver state represented by the first information.
  • the operation management device which is one aspect of the present disclosure, can generate a hazard map.
  • Hazard maps can be used for vehicle operation management.
  • FIG. 1 the operation management system 1 includes an in-vehicle device 3 and a server 5.
  • the vehicle-mounted device 3 is mounted on the vehicle.
  • the vehicle-mounted device 3 includes a control unit 7, an infrared camera 9, a GPS 11, a communication unit 13, an internal storage device 15, and an LED lamp 17.
  • the control unit 7 includes a microcomputer having a CPU 19 and, for example, a semiconductor memory such as a RAM or a ROM (hereinafter referred to as a memory 21). Each function of the control unit 7 is realized by the CPU 19 executing a program stored in the non-transitional substantive recording medium.
  • the memory 21 corresponds to a non-transitional substantive recording medium storing a program. By executing this program, the method corresponding to the program is executed.
  • the control unit 7 may include one microcomputer or a plurality of microcomputers.
  • the control unit 7 includes a first information generation unit 23, a second information generation unit 25, an information transmission unit 27, an information storage unit 29, a notification unit 31, and a traveling determination unit 33. , Is provided.
  • the first information generation unit 23 corresponds to the image acquisition unit and the driver state estimation unit.
  • the method of realizing the function of each unit included in the control unit 7 is not limited to software, and a part or all of the function thereof may be realized by using one or more hardware.
  • the electronic circuit may be realized by a digital circuit, an analog circuit, or a combination thereof.
  • the infrared camera 9 includes a light emitting unit 35 and a light receiving unit 37.
  • the light emitting unit 35 irradiates the driver's face with infrared light.
  • the light emitting unit 35 can change the intensity of infrared light to be emitted.
  • the light receiving unit 37 captures a range including the driver's face and generates an infrared image.
  • the infrared image represents a range including the driver's face. Further, the light receiving unit 37 detects the exposure status on the driver's face.
  • the GPS11 acquires the position information of the vehicle.
  • the communication unit 13 communicates with the server 5.
  • the internal storage device 15 can hold the storage medium 39. Examples of the storage medium 39 include an SD card (registered trademark) and the like.
  • the internal storage device 15 can store information in the stored storage medium 39.
  • the storage medium 39 can be removed from the internal storage device 15.
  • the LED lamp 17 is installed in the passenger compartment of the vehicle. The LED lamp 17 can emit light.
  • the server 5 is fixedly installed outside the vehicle.
  • the server 5 includes a control unit 41, a communication unit 43, a medium reading unit 45, a database 47, a map information storage unit 49, and a display unit 51.
  • the server 5 corresponds to an operation management device.
  • the control unit 41 includes a microcomputer including a CPU 53 and a semiconductor memory such as a RAM or a ROM (hereinafter referred to as a memory 55). Each function of the control unit 41 is realized by the CPU 53 executing a program stored in the non-transitional physical recording medium.
  • the memory 55 corresponds to a non-transitional substantive recording medium storing a program. By executing this program, the method corresponding to the program is executed.
  • the control unit 41 may include one microcomputer or a plurality of microcomputers.
  • control unit 41 includes an information acquisition unit 57, a hazard map generation unit 59, an information storage unit 61, and a travel determination unit 63.
  • the method of realizing the function of each unit included in the control unit 41 is not limited to software, and a part or all of the function thereof may be realized by using one or more hardware.
  • the electronic circuit may be realized by a digital circuit, an analog circuit, or a combination thereof.
  • the communication unit 43 communicates with the vehicle-mounted device 3.
  • the medium reading unit 45 can hold the storage medium 39.
  • the medium reading unit 45 can read information from the held storage medium 39.
  • the storage medium 39 can be removed from the medium reading unit 45.
  • the database 47 can store information.
  • the map information storage unit 49 stores map information.
  • the display unit 51 is a display capable of displaying an image.
  • processing executed by the in-vehicle device 3 The processing executed by the in-vehicle device 3 will be described with reference to FIGS. 4 to 6. This process is executed when the vehicle is started. Examples of starting the vehicle include turning on an ignition of the vehicle.
  • step 1 of FIG. 4 the second information generation unit 25 performs the second information generation process.
  • the second information generation process will be described based on FIG.
  • Each step of the processing shown in FIG. 5 is executed by the second information generation unit 25.
  • step 21 of FIG. 5 the current time is acquired.
  • the current time is the time when step 21 is executed.
  • GPS 11 is used to acquire vehicle position information.
  • vehicle position information is information indicating the position of the vehicle.
  • vehicle position information is, for example, position information defined by latitude and longitude.
  • step 23 the second information is generated.
  • the second information is information including the time information indicating the current time acquired in step 21 and the vehicle position information acquired in step 22.
  • the time information and the vehicle position information are associated with each other.
  • step 2 the first information generation unit 23 performs the first information generation process. This process will be described with reference to FIG. Each step of the process shown in FIG. 6 is executed by the first information generation unit 23.
  • step 31 of FIG. 6 the light receiving unit 37 is used to acquire the exposure state of the driver's face.
  • step 32 the intensity of infrared light radiated on the driver's face is set based on the exposure state acquired in step 31.
  • the intensity of the infrared light is such that the exposure state of the driver's face becomes appropriate when an infrared image is generated in step 34 described later.
  • step 33 the light emitting section 35 is used to start irradiation of infrared light with the intensity set in step 32. Irradiation with infrared light continues until generation of an infrared image is completed in step 34, which will be described later.
  • step 34 the light receiving unit 37 is used to photograph an area including the driver's face and generate an infrared image.
  • step 35 the driver's eyelids and pupils are recognized in the infrared image generated at step 34.
  • step 36 the degree of drowsiness of the driver and the degree of concentration of the driver are estimated based on the eyelids and eyes recognized at step 35. Specifically, the following processing is performed.
  • the degree of eye opening is the degree to which the eyes are open. The larger the eyes are open, the greater the degree of eye opening. It is estimated that the degree of drowsiness of the driver is higher as the calculated degree of eye opening is smaller than the reference degree of eye opening.
  • the reference eye opening degree is an average value of eye opening degrees measured a plurality of times in the past for the same driver.
  • the degree of white eye is calculated from the degree of exposure of the pupil.
  • the degree of white eye is the ratio of the area of the part other than the pupil to the total area of the eye. It is estimated that the driver's drowsiness level is higher as the calculated white eye level is higher than the reference white eye level.
  • the reference white-eye degree is an average value of white-eye degrees measured multiple times in the past for the same driver.
  • step 37 it is determined whether or not the process using the three-dimensional information of the face (hereinafter referred to as three-dimensional information processing) is executed.
  • the user can set in the vehicle-mounted device 3 in advance whether or not to execute the three-dimensional information processing. Based on this setting, it is determined whether or not three-dimensional information processing is executed.
  • the process proceeds to step 38.
  • the process goes to step 40.
  • facial parts such as eyes, nose, and mouth are recognized in the infrared image generated at step 34. Further, the contour of the face is recognized in the infrared image generated in step 34.
  • step 39 the degree of driver's inattentiveness and the driver's concentration are estimated based on the recognition result in step 38. Specifically, the following processing is performed.
  • the face direction of the driver is calculated based on the recognition result in step 38.
  • the orientation of the face includes upward, downward, leftward, rightward, and a state in which the head is squeezed.
  • the reference face orientation is a face orientation obtained by averaging face orientations calculated multiple times in the past for the same driver.
  • step 40 it is judged whether or not the physical condition of the driver is judged.
  • the user can set in the vehicle-mounted device 3 in advance whether or not to judge the physical condition of the driver. Based on this setting, it is determined whether or not to judge the physical condition of the driver.
  • the process proceeds to step 41. If the physical condition of the driver is not determined, the process proceeds to step 43.
  • the driver's face position and the driver's upper body inclination are read in the infrared image generated at step 34.
  • Examples of the inclination of the upper body include a leftward / rightward inclination, a forward / backward inclination, a topping, and a warp warp.
  • step 42 the physical condition and concentration of the driver are estimated based on the position of the driver's face and the inclination of the driver's upper body read in step 41. Specifically, the following processing is performed.
  • the reference face position is a face position obtained by averaging the face positions read multiple times in the past for the same driver. Further, the driver's body inclination that has been read is compared with a reference body inclination. The reference body inclination is the body inclination obtained by averaging the body inclinations read a plurality of times in the past for the same driver.
  • the driver's physical condition is poor and the degree of concentration is low as the position of the driver's face read changes significantly compared to the reference face position. Further, it is estimated that the driver's physical condition is poor and the degree of concentration is low as the inclination of the read driver's body changes more greatly than the reference inclination of the body.
  • the current time is acquired.
  • the current time is the time when the process of step 43 is executed.
  • the first information is generated.
  • the first information is information including the time information indicating the current time acquired in step 43 and the driver's drowsiness level, inattentiveness level, concentration level, and physical condition estimated in steps 36, 39, and 42. is there.
  • the driver's drowsiness level, inattentiveness level, concentration level, and physical condition may be collectively referred to as a driver state.
  • the first information is information indicating the driver state. In the first information, the time information and the driver state are associated with each other.
  • step 39 the driver state does not include the degree of inattentiveness and the degree of concentration estimated in step 39.
  • the driver state does not include the physical condition and concentration degree estimated in step 42.
  • step 3 the information transmission unit 27 determines whether or not it is possible to communicate with the server 5 using the communication unit 13. If it is possible to communicate with the server 5, the process proceeds to step 4. When it is impossible to communicate with the server 5, the process proceeds to step 5. As a case where communication with the server 5 is impossible, for example, there is a mountain between the vehicle-mounted device 3 and the server 5.
  • step 4 the information transmitting unit 27 transmits the second information generated in step 1 and the first information generated in step 2 to the server 5 using the communication unit 13.
  • step 5 the information storage unit 29 stores the second information generated in step 1 and the first information generated in step 2 in the storage medium 39 using the internal storage device 15.
  • step 6 the traveling determination unit 63 determines whether or not the vehicle continues traveling.
  • the traveling determination unit 63 can determine whether or not the vehicle is traveling, for example, based on a change in vehicle position information, a detection result of a vehicle speed sensor (not shown), or the like. If the vehicle is still traveling, the process goes to step 1. If the vehicle has finished traveling, the process proceeds to step 7.
  • step 7 the information transmission unit 27 determines whether or not there is untransmitted information.
  • the untransmitted information is the first information and the second information stored in the storage medium 39 in step 5 and not yet transmitted to the server 5. If there is untransmitted information, the process proceeds to step 8. If there is no untransmitted information, this process ends.
  • step 8 the information transmission unit 27 determines whether or not it is possible to communicate with the server 5 using the communication unit 13. If it is possible to communicate with the server 5, the process proceeds to step 9. When it is impossible to communicate with the server 5, the process proceeds to step 10.
  • step 9 the information transmission unit 27 uses the communication unit 13 to transmit the untransmitted information to the server 5.
  • step 10 the notification unit 31 turns on the LED lamp 17.
  • the user can know that the untransmitted information is stored in the storage medium 39 by turning on the LED lamp 17. Then, the user can remove the storage medium 39 from the internal storage device 15 and attach it to the medium reading unit 45.
  • step 51 of FIG. 7 the information acquisition unit 57 determines whether or not there is information transmission from the vehicle. If there is information transmission from the vehicle, the process proceeds to step 52. If there is no information transmitted from the vehicle, the process returns to step 51.
  • step 52 the information acquisition unit 57 acquires information using the communication unit 43.
  • the information to be acquired is the first information and the second information transmitted by the vehicle-mounted device 3 in step 4.
  • the hazard map generation unit 59 determines whether to execute real-time processing.
  • the user can set in the server 5 in advance whether or not to execute the real-time processing. Based on this setting, it is determined whether to execute the real-time processing.
  • the processing proceeds to step 54.
  • the processing goes to step 55.
  • the hazard map generation unit 59 executes real-time processing. This process will be described with reference to FIG. Each step of the processing shown in FIG. 8 is executed by the hazard map generation unit 59.
  • step 71 of FIG. 8 a combination of the first information and the second information having similar time information is extracted from the information acquired in step 52.
  • the position of the vehicle represented by the extracted second information is the position of the vehicle when the vehicle-mounted device 3 acquires the simultaneously extracted first information.
  • map information is acquired from the map information storage unit 49.
  • step 73 in the map information acquired in step 72, the position of the vehicle represented by the second information extracted in step 71 is associated with the driver state represented by the first information extracted in step 71.
  • step 74 it is determined whether or not there is the information acquired in step 52 that has not been extracted in step 71. If there is information that has not been extracted yet, the process proceeds to step 71. If all the information acquired in step 52 has been extracted, the process proceeds to step 75.
  • the map information is color-coded according to the associated driver status. For example, in the map information, a region associated with a specific driver state is colored with a color representing the specific driver state.
  • a hazard map is generated by the above processing.
  • the hazard map is a map in which each of the plurality of positions in the map information is associated with the driver state when the vehicle is present at the corresponding position.
  • the server 5 can display the hazard map on the display unit 51.
  • step 55 the information storage unit 61 stores the information acquired in step 52 in the database 47.
  • the traveling determination unit 63 determines whether or not the vehicle that transmitted the information has stopped.
  • the traveling determination unit 63 can determine whether or not the vehicle that has transmitted the information has stopped, for example, based on the transition of the position information included in the second information. If the vehicle that transmitted the information has stopped, the process proceeds to step 57. If the vehicle that has transmitted the information has not stopped, the process proceeds to step 51.
  • step 57 the information acquisition unit 57 determines whether or not there is additional information transmission from the vehicle.
  • the additional information transmission from the vehicle is the information transmission performed by the vehicle-mounted device 3 in step 9 described above. If there is additional information transmission from the vehicle, the process proceeds to step 58. If there is no additional information transmitted from the vehicle, the process proceeds to step 59.
  • the information storage unit 61 stores the information transmitted by the additional information transmission in the database 47.
  • the hazard map generation unit 59 determines whether or not there is unprocessed information.
  • the unprocessed information includes the information stored in the database 47 in the step 55 or the step 58.
  • the unprocessed information includes information stored in the storage medium 39.
  • the information stored in the storage medium 39 is the untransmitted information stored in the storage medium 39 in step 5.
  • the unprocessed information may consist of information acquired from only one vehicle-mounted device 3, or may include information acquired from a plurality of vehicle-mounted devices 3. If there is unprocessed information, the process proceeds to step 60. If there is no unprocessed information, this process ends.
  • the hazard map generation unit 59 executes unprocessed information processing.
  • the unprocessed information processing is basically the same as the real-time processing in step 53. However, in the unprocessed information processing, the combination of the first information and the second information is extracted from the unprocessed information instead of the information acquired in step 52 to generate the hazard map.
  • the hazard map generated by the real-time processing is further processed.
  • the position of the vehicle represented by the second information acquired in step 52 is set to the first information acquired in step 52. Is associated with the driver state, and the vehicle position represented by the second information included in the unprocessed information is associated with the driver state represented by the first information included in the unprocessed information.
  • the operation management system 1 can generate a hazard map. By viewing the hazard map, the user can easily understand what kind of driver state is likely to occur at each position on the map. Therefore, the user can use the hazard map for vehicle operation management.
  • the server 5 can acquire the first information and the second information by communicating with the vehicle-mounted device 3 or from the storage medium 39. Therefore, the server 5 can easily and reliably acquire the first information and the second information.
  • the in-vehicle device 3 acquires an infrared image representing a range including the driver's face. Then, the vehicle-mounted device 3 estimates the driver state based on the infrared image. Therefore, the vehicle-mounted device 3 can easily and accurately estimate the driver state.
  • the vehicle-mounted device 3 acquires the position of the vehicle represented by the second information using the GPS 11. Therefore, the vehicle-mounted device 3 can easily and accurately acquire the position of the vehicle.
  • the in-vehicle device 3 may acquire the position of the vehicle represented by the second information by using an in-vehicle communication device or a mobile terminal mounted on the vehicle. Also in this case, the same effect as that when the GPS 11 is used is obtained. Examples of mobile terminals include smartphones.
  • the in-vehicle communication device is a device mounted on a vehicle and having a communication function.
  • the in-vehicle communication device may be the communication unit 13 or another in-vehicle communication device.
  • At least one of the first information and the second information may include driver identification information.
  • the server 5 may associate the driver state with the driver identification information as well as the vehicle position. In this case, the user can understand how the driver state of the specific driver is changing on the map by looking at the hazard map.
  • the driver state represented by the first state may be 1 to 3 of the driver's drowsiness level, inattentiveness level, concentration level, and physical condition.
  • a plurality of functions of one constituent element in the above-described embodiment may be realized by a plurality of constituent elements, or one function of one constituent element may be realized by a plurality of constituent elements. .. Further, a plurality of functions of a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may omit a part of structure of the said embodiment. Further, at least a part of the configuration of the above-described embodiment may be added or replaced with respect to the configuration of the other above-described embodiment.
  • a system having the operation management device as a component, a program for causing a computer to function as a control unit of the operation management device or a control unit of a server, and a semiconductor memory recording the program can also be realized in various forms such as a non-transitional actual recording medium, an operation management method, and the like.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

運行管理装置(5)は、情報取得ユニットと、ハザードマップ生成ユニットとを備える。情報取得ユニットは、車両のドライバの眠気の程度、脇見の程度、集中度、及び体調から成る群から選択される2以上を含むドライバ状態を表す第1情報と、前記第1情報を取得したときの前記車両の位置を表す第2情報とを送信する機能を有する車載機(3)から、前記第1情報及び前記第2情報を取得する。ハザードマップ生成ユニットは、地図における、前記第2情報が表す前記車両の位置に、前記第1情報が表す前記ドライバ状態を対応付けてハザードマップを生成する。

Description

運行管理装置及び運行管理システム 関連出願の相互参照
 本国際出願は、2018年11月5日に日本国特許庁に出願された日本国特許出願第2018-208167号に基づく優先権を主張するものであり、日本国特許出願第2018-208167号の全内容を本国際出願に参照により援用する。
 本開示は運行管理装置及び運行管理システムに関する。
 特許文献1に記載の運行管理システムは、ドライバの脳波データ、走行ルート等に基づいてドライバの眠気を予測する。
特開2018-45262号公報
 運行管理装置を用いてハザードマップを生成することが考えられる。ハザードマップは車両の運行管理に利用することができる。発明者の詳細な検討の結果、以下の課題が見出された。本開示の1つの局面では、ハザードマップを生成することができる運行管理装置及び運行管理システムを提供することが好ましい。
 本開示の1つの局面は、車両のドライバの眠気の程度、脇見の程度、集中度、及び体調から成る群から選択される2以上を含むドライバ状態を表す第1情報と、前記第1情報を取得したときの前記車両の位置を表す第2情報とを送信する機能を有する車載機から、前記第1情報及び前記第2情報を取得するように構成された情報取得ユニットと、地図における、前記第2情報が表す前記車両の位置に、前記第1情報が表す前記ドライバ状態を対応付けてハザードマップを生成するように構成されたハザードマップ生成ユニットと、を備える運行管理装置である。
 本開示の1つの局面である運行管理装置は、ハザードマップを生成することができる。ハザードマップは車両の運行管理に利用することができる。
運行管理システムの構成を表すブロック図である。 車載機が備える制御部の機能的構成を表すブロック図である。 サーバが備える制御部の機能的構成を表すブロック図である。 車載機が実行する処理を表すフローチャートである。 第2情報生成処理を表すフローチャートである。 第1情報生成処理を表すフローチャートである。 サーバが実行する処理を表すフローチャートである。 リアルタイム処理を表すフローチャートである。
 本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
 1.運行管理システム1の構成
 運行管理システム1の構成を、図1~図3に基づき説明する。図1に示すように、運行管理システム1は、車載機3と、サーバ5とを備える。車載機3は車両に搭載されている。
 車載機3は、制御部7と、赤外カメラ9と、GPS11と、通信部13と、内部記憶装置15と、LED灯17と、を備える。
 制御部7は、CPU19と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ21とする)と、を有するマイクロコンピュータを備える。制御部7の各機能は、CPU19が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ21が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、制御部7は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
 制御部7は、図2に示すように、第1情報生成ユニット23と、第2情報生成ユニット25と、情報送信ユニット27と、情報記憶ユニット29と、報知ユニット31と、走行判断ユニット33と、を備える。第1情報生成ユニット23は、画像取得ユニット及びドライバ状態推定ユニットに対応する。
 制御部7に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
 図1に示すように、赤外カメラ9は、発光部35と受光部37とを備える。発光部35は、ドライバの顔に赤外光を照射する。発光部35は、照射する赤外光の強度を変更可能である。受光部37は、ドライバの顔を含む範囲を撮影し、赤外画像を生成する。赤外画像は、ドライバの顔を含む範囲を表す。また、受光部37は、ドライバの顔における露光状況を検出する。
 GPS11は、車両の位置情報を取得する。通信部13は、サーバ5との間で通信を行う。内部記憶装置15は、記憶媒体39を保持することができる。記憶媒体39として、例えば、SDカード(登録商標)等が挙げられる。内部記憶装置15は、保持した記憶媒体39に情報を記憶することができる。記憶媒体39は、内部記憶装置15から取り外すことができる。LED灯17は車両の車室内に設置されている。LED灯17は光を照射することができる。
 サーバ5は車両の外部に固定設置されている。サーバ5は、制御部41と、通信部43と、媒体読取部45と、データベース47と、地図情報記憶部49と、表示部51と、を備える。サーバ5は運行管理装置に対応する。
 制御部41は、CPU53と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ55とする)と、を有するマイクロコンピュータを備える。制御部41の各機能は、CPU53が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ55が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、制御部41は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
 制御部41は、図3に示すように、情報取得ユニット57と、ハザードマップ生成ユニット59と、情報記憶ユニット61と、走行判断ユニット63と、を備える。
 制御部41に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
 通信部43は、車載機3との間で通信を行う。媒体読取部45は、記憶媒体39を保持することができる。媒体読取部45は、保持された記憶媒体39から情報を読み取ることができる。記憶媒体39は、媒体読取部45から取り外すことができる。
 データベース47は情報を記憶することができる。地図情報記憶部49は地図情報を記憶している。表示部51は画像を表示可能なディスプレイである。
 2.車載機3が実行する処理
 車載機3が実行する処理を、図4~図6に基づき説明する。この処理は、車両が始動したときに実行される。車両の始動として、例えば、車両のイグニッションがオンになることが挙げられる。
 図4のステップ1では、第2情報生成ユニット25が第2情報生成処理を行う。第2情報生成処理を、図5に基づき説明する。図5に示す処理の各ステップは、第2情報生成ユニット25により実行される。
 図5のステップ21では、現在時刻を取得する。現在時刻とは、ステップ21を実行するときの時刻である。
 ステップ22では、GPS11を用いて、車両の位置情報を取得する。車両の位置情報とは、車両の位置を表す情報である。車両の位置情報とは、例えば、緯度及び経度により規定される位置情報である。
 ステップ23では、第2情報を生成する。第2情報は、前記ステップ21で取得した現在時刻を表す時刻情報と、前記ステップ22で取得した車両の位置情報とを含む情報である。第2情報において、時刻情報と、車両の位置情報とは対応付けられている。
 図4に戻り、ステップ2では、第1情報生成ユニット23が第1情報生成処理を行う。この処理を図6に基づき説明する。図6に示す処理の各ステップは、第1情報生成ユニット23により実行される。
 図6のステップ31では、受光部37を用いて、ドライバの顔の露光状態を取得する。
 ステップ32では、前記ステップ31で取得した露光状態に基づき、ドライバの顔に照射する赤外光の強度を設定する。赤外光の強度は、後述するステップ34において赤外画像を生成するとき、ドライバの顔の露光状態が適切な状態となる強度である。
 ステップ33では、発光部35を用い、前記ステップ32で設定した強度で赤外光の照射を開始する。赤外光の照射は、後述するステップ34において赤外画像の生成が完了するまで継続する。
 ステップ34では、受光部37を用い、ドライバの顔を含む範囲を撮影し、赤外画像を生成する。
 ステップ35では、前記ステップ34で生成した赤外画像において、ドライバのまぶた及び瞳を認識する。
 ステップ36では、前記ステップ35で認識したまぶた及び瞳に基づき、ドライバの眠気の程度、ドライバの集中度を推定する。具体的には、以下の処理を行う。
 まず、まぶたの開度、並びに、まぶたと瞳との重なり度合い等から、開眼度を算出する。開眼度とは、目が開いている程度である。目が大きく開いている程、開眼度は大きい。算出した開眼度が、基準開眼度に比べて小さいほど、ドライバの眠気の程度が高いと推定する。基準開眼度とは、同じドライバについて過去に複数回測定した開眼度の平均値である。
 また、瞳の露出度から、白眼度合いを算出する。白眼度合いとは、目の全面積に対する、瞳以外の部分の面積の比率である。算出した白眼度合いが、基準白眼度合いに比べて大きいほど、ドライバの眠気の程度が高いと推定する。基準白眼度合いとは、同じドライバについて過去に複数回測定した白眼度合いの平均値である。
 また、左右の瞳の位置から、視線方向を算出する。算出した視線方向が正面方向ではない時間が長いほど、ドライバの集中度が低いと推定する。また、算出した視線方向が正面方向ではない頻度が高いほど、ドライバの集中度が低いと推定する。
 ステップ37では、顔の3次元情報を使用した処理(以下では3次元情報処理とする)を実行するか否かを判断する。なお、ユーザは、3次元情報処理を実行するか否かを予め車載機3に設定しておくことができる。この設定に基づき、3次元情報処理を実行するか否かを判断する。3次元情報処理を実行する場合、本処理はステップ38に進む。3次元情報処理を実行しない場合、本処理はステップ40に進む。
 ステップ38では、前記ステップ34で生成した赤外画像において、目、鼻、口等の顔のパーツを認識する。また、前記ステップ34で生成した赤外画像において、顔の輪郭を認識する。
 ステップ39では、前記ステップ38での認識結果に基づき、ドライバの脇見の程度、ドライバの集中度を推定する。具体的には、以下の処理を行う。
 まず、前記ステップ38での認識結果に基づき、ドライバの顔の向きを算出する。顔の向きとして、上向き、下向き、左向き、右向き、首をかしげた状態等がある。
 次に、算出した顔の向きを、基準の顔の向きと比較する。基準の顔の向きとは、同じドライバについて過去に複数回算出した顔の向きを平均した顔の向きである。
 算出した顔の向きが、基準の顔の向きに比べて大きく変化しているほど、ドライバの脇見の程度が高く、ドライバの集中度が低いと推定する。また、算出した顔の向きが、基準の顔の向きに比べて変化している頻度が高いほど、ドライバの脇見の程度が高く、ドライバの集中度が低いと推定する。
 ステップ40では、ドライバの体調を判断するか否かを判断する。なお、ユーザは、ドライバの体調を判断するか否かを予め車載機3に設定しておくことができる。この設定に基づき、ドライバの体調を判断するか否かを判断する。ドライバの体調を判断する場合、本処理はステップ41に進む。ドライバの体調を判断しない場合、本処理はステップ43に進む。
 ステップ41では、前記ステップ34で生成した赤外画像において、ドライバの顔の位置、及びドライバの上体の傾きを読み取る。上体の傾きとして、例えば、左右への傾き、前後への傾き、つっぷし、えび反り等が挙げられる。
 ステップ42では、前記ステップ41で読み取ったドライバの顔の位置、及びドライバの上体の傾きに基づき、ドライバの体調、及び集中度を推定する。具体的には、以下の処理を行う。
 読み取ったドライバの顔の位置を、基準の顔の位置と比較する。基準の顔の位置とは、同じドライバについて過去に複数回読み取った顔の位置を平均した顔の位置である。また、読み取ったドライバの上体の傾きを、基準の上体の傾きと比較する。基準の上体の傾きとは、同じドライバについて過去に複数回読み取った上体の傾きを平均した上体の傾きである。
 読み取ったドライバの顔の位置が基準の顔の位置に比べて大きく変化しているほど、ドライバの体調が悪く、集中度が低いと推定する。また、読み取ったドライバの上体の傾きが基準の上体の傾きに比べて大きく変化しているほど、ドライバの体調が悪く、集中度が低いと推定する。
 ステップ43では、現在時刻を取得する。現在時刻とは、ステップ43の処理を実行するときの時刻である。
 ステップ44では、第1情報を生成する。第1情報は、前記ステップ43で取得した現在時刻を表す時刻情報と、前記ステップ36、39、42で推定した、ドライバの眠気の程度、脇見の程度、集中度、及び体調とを含む情報である。なお、以下では、ドライバの眠気の程度、脇見の程度、集中度、及び体調をまとめてドライバ状態と呼ぶことがある。第1情報はドライバ状態を表す情報である。第1情報において、時刻情報と、ドライバ状態とは対応付けられている。
 ただし、前記ステップ39の処理を実行しなかった場合、ドライバ状態は、前記ステップ39で推定する脇見の程度及び集中度は含まない。また、前記ステップ42の処理を実行しなかった場合、ドライバ状態は、前記ステップ42で推定する体調及び集中度を含まない。
 図4に戻り、ステップ3では、通信部13を用いてサーバ5と通信を行うことが可能であるか否かを情報送信ユニット27が判断する。サーバ5と通信を行うことが可能である場合、本処理はステップ4に進む。サーバ5と通信を行うことが不可能である場合、本処理はステップ5に進む。サーバ5と通信を行うことが不可能である場合として、例えば、車載機3とサーバ5との間に山が存在する場合等がある。
 ステップ4では、情報送信ユニット27が、前記ステップ1で生成した第2情報と、前記ステップ2で生成した第1情報とを、通信部13を用いてサーバ5に送信する。
 ステップ5では、情報記憶ユニット29が、前記ステップ1で生成した第2情報と、前記ステップ2で生成した第1情報とを、内部記憶装置15を用いて記憶媒体39に記憶する。
 ステップ6では、車両が走行を継続しているか否かを走行判断ユニット63が判断する。走行判断ユニット63は、例えば、車両の位置情報の変化、又は、図示しない車速センサの検出結果等に基づき、車両が走行を継続しているか否かを判断することができる。車両が走行を継続している場合、本処理はステップ1に進む。車両の走行が終了している場合、本処理はステップ7に進む。
 ステップ7では、未送信情報が存在するか否かを情報送信ユニット27が判断する。未送信情報とは、前記ステップ5において記憶媒体39に記憶され、未だサーバ5へ送信されていない第1情報及び第2情報である。未送信情報が存在する場合、本処理はステップ8に進む。未送信情報が存在しない場合、本処理は終了する。
 ステップ8では、通信部13を用いてサーバ5と通信を行うことが可能であるか否かを情報送信ユニット27が判断する。サーバ5と通信を行うことが可能である場合、本処理はステップ9に進む。サーバ5と通信を行うことが不可能である場合、本処理はステップ10に進む。
 ステップ9では、情報送信ユニット27が、通信部13を用いて未送信情報をサーバ5に送信する。
 ステップ10では、報知ユニット31がLED灯17を点灯させる。ユーザは、LED灯17が点灯していることにより、記憶媒体39に未送信情報が記憶されていることを知ることができる。そして、ユーザは、記憶媒体39を内部記憶装置15から取り外し、媒体読取部45に取り付けることができる。
 3.サーバ5が実行する処理
 サーバ5が所定時間ごとに繰り返し実行する処理を図7、図8に基づき説明する。図7のステップ51では、車両からの情報送信があるか否かを情報取得ユニット57が判断する。車両からの情報送信がある場合、本処理はステップ52に進む。車両からの情報送信がない場合、本処理はステップ51の前に戻る。
 ステップ52では、情報取得ユニット57が、通信部43を用いて情報を取得する。取得する情報は、前記ステップ4において車載機3が送信した第1情報及び第2情報である。
 ステップ53では、リアルタイム処理を実行するか否かをハザードマップ生成ユニット59が判断する。なお、ユーザは、リアルタイム処理を実行するか否かを予めサーバ5に設定しておくことができる。この設定に基づき、リアルタイム処理を実行するか否かを判断する。リアルタイム処理を実行する場合、本処理はステップ54に進む。リアルタイム処理を実行しない場合、本処理はステップ55に進む。
 ステップ54では、ハザードマップ生成ユニット59がリアルタイム処理を実行する。この処理を図8に基づき説明する。図8に示す処理の各ステップは、ハザードマップ生成ユニット59により実行される。
 図8のステップ71では、前記ステップ52で取得した情報から、時刻情報が近似する第1情報と第2情報との組み合わせを抽出する。抽出された第2情報が表す車両の位置は、同時に抽出された第1情報を車載機3が取得したときの車両の位置である。
 ステップ72では、地図情報記憶部49から地図情報を取得する。
 ステップ73では、前記ステップ72で取得した地図情報において、前記ステップ71で抽出した第2情報が表す車両の位置に、前記ステップ71で抽出した第1情報が表すドライバ状態を対応付ける。
 ステップ74では、前記ステップ52で取得した情報であって、前記ステップ71において未だ抽出されていない情報が存在するか否かを判断する。未だ抽出されていない情報が存在する場合、本処理はステップ71に進む。前記ステップ52で取得した全ての情報が抽出済みである場合、本処理はステップ75に進む。
 ステップ75では、地図情報を、対応付けられたドライバ状態に応じて色分けする。例えば、地図情報のうち、特定のドライバ状態が対応付けられた領域に、その特定のドライバ状態を表す色を付する。
 以上の処理により、ハザードマップが生成する。ハザードマップとは、地図情報における複数の位置のそれぞれに、該当する位置に車両が存在したときのドライバ状態を対応付けたマップである。サーバ5は、ハザードマップを表示部51に表示することができる。
 図7に戻り、ステップ55では、情報記憶ユニット61が、前記ステップ52で取得した情報をデータベース47に記憶する。
 ステップ56では、情報を送信した車両が停止したか否かを走行判断ユニット63が判断する。走行判断ユニット63は、例えば、第2情報に含まれる位置情報の推移に基づき、情報を送信した車両が停止したか否かを判断することができる。情報を送信した車両が停止した場合、本処理はステップ57に進む。情報を送信した車両が未だ停止していない場合、本処理はステップ51に進む。
 ステップ57では、車両からの追加の情報送信があるか否かを情報取得ユニット57が判断する。車両からの追加の情報送信とは、前記ステップ9において車載機3が行う情報送信である。車両からの追加の情報送信がある場合、本処理はステップ58に進む。車両からの追加の情報送信がない場合、本処理はステップ59に進む。
 ステップ58では、追加の情報送信により送信された情報を情報記憶ユニット61がデータベース47に記憶する。
 ステップ59では、未処理情報があるか否かをハザードマップ生成ユニット59が判断する。未処理情報として、前記ステップ55又は前記ステップ58でデータベース47に記憶された情報がある。また、未処理情報として、記憶媒体39に記憶された情報がある。記憶媒体39に記憶された情報とは、前記ステップ5で記憶媒体39に記憶された未送信情報である。未処理情報は、1のみの車載機3から取得した情報から成っていてもよいし、複数の車載機3から取得した情報を含んでいてもよい。未処理情報がある場合、本処理はステップ60に進む。未処理情報がない場合、本処理は終了する。
 ステップ60では、ハザードマップ生成ユニット59が未処理情報処理を実行する。未処理情報処理は、基本的には前記ステップ53のリアルタイム処理と同様である。ただし、未処理情報処理では、前記ステップ52で取得した情報ではなく、未処理情報から第1情報及び第2情報の組み合わせを抽出してハザードマップを生成する。また、既にリアルタイム処理を実行している場合、未処理情報処理では、リアルタイム処理で生成したハザードマップに対し、さらに処理を行う。
 よって、リアルタイム処理と、未処理情報処理との両方を実行した場合、生成したハザードマップには、前記ステップ52で取得した第2情報が表す車両の位置に、前記ステップ52で取得した第1情報が表すドライバ状態が対応付けられているとともに、未処理情報に含まれる第2情報が表す車両の位置に、未処理情報に含まれる第1情報が表すドライバ状態が対応付けられている。
 4.運行管理システム1が奏する効果
 (1A)運行管理システム1はハザードマップを生成することができる。ユーザは、ハザードマップを見ることで、地図上の各位置でどのようなドライバ状態が生じ易いかを容易に理解することができる。よって、ユーザは、ハザードマップを車両の運行管理に利用することができる。
 (1B)サーバ5は、車載機3との通信により、又は、記憶媒体39から、第1情報及び第2情報を取得することができる。そのため、サーバ5は、容易且つ確実に第1情報及び第2情報を取得することができる。
 (1C)車載機3は、ドライバの顔を含む範囲を表す赤外画像を取得する。そして、車載機3は、赤外画像に基づき、ドライバ状態を推定する。そのため、車載機3は、ドライバ状態を容易且つ正確に推定することができる。
 (1D)車載機3は、GPS11を用いて、第2情報が表す車両の位置を取得する。そのため、車載機3は、車両の位置を容易且つ正確に取得することができる。
 5.他の実施形態
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (1)車載機3は、車載通信機、又は、車両に搭載された携帯端末等を用いて、第2情報が表す車両の位置を取得してもよい。この場合も、GPS11を用いる場合と同様の効果を奏する。携帯端末として、例えば、スマートフォン等が挙げられる。車載通信機とは、車両に搭載された、通信機能を有する機器である。車載通信機は、通信部13であってもよいし、他の車載通信機であってもよい。
 (2)第1情報及び第2情報の少なくとも一方は、ドライバの識別情報を含んでいてもよい。サーバ5は、ハザードマップを生成するとき、ドライバ状態とともに、ドライバの識別情報も、車両の位置に対応付けてもよい。この場合、ユーザは、ハザードマップを見ることで、特定のドライバのドライバ状態が地図上でどのように変化しているのかを理解することができる。
 (3)第1状態が表すドライバ状態は、ドライバの眠気の程度、脇見の程度、集中度、及び体調のうち、1~3種であってもよい。
 (4)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
 (5)上述した運行管理装置の他、当該運行管理装置を構成要素とするシステム、当該運行管理装置の制御部又はサーバの制御部としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、運行管理方法等、種々の形態で本開示を実現することもできる。

Claims (5)

  1.  車両のドライバの眠気の程度、脇見の程度、集中度、及び体調から成る群から選択される2以上を含むドライバ状態を表す第1情報と、前記第1情報を取得したときの前記車両の位置を表す第2情報とを送信する機能を有する車載機(3)から、前記第1情報及び前記第2情報を取得するように構成された情報取得ユニット(57)と、
     地図における、前記第2情報が表す前記車両の位置に、前記第1情報が表す前記ドライバ状態を対応付けてハザードマップを生成するように構成されたハザードマップ生成ユニット(59)と、
     を備える運行管理装置(5)。
  2.  請求項1に記載の運行管理装置であって、
     前記情報取得ユニットは、前記車載機との通信により、又は、前記第1情報及び前記第2情報を記憶した記憶媒体から、前記第1情報及び前記第2情報を取得するように構成された運行管理装置。
  3.  請求項1又は2に記載の運行管理装置と、
     前記車載機と、
     を備える運行管理システム(1)。
  4.  請求項3に記載の運行管理システムであって、
     前記車載機は、
      前記ドライバの顔を含む範囲を表す赤外画像を取得するように構成された画像取得ユニット(23)と、
      前記赤外画像に基づき、前記ドライバ状態を推定するように構成されたドライバ状態推定ユニット(23)と、
     を備える運行管理システム。
  5.  請求項3又は4に記載の運行管理システムであって、
     前記車載機は、GPS、車載通信機、又は、前記車両に搭載された携帯端末を用いて、前記第2情報が表す前記車両の位置を取得するように構成された運行管理システム。
PCT/JP2019/043314 2018-11-05 2019-11-05 運行管理装置及び運行管理システム WO2020095904A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018208167A JP2020077037A (ja) 2018-11-05 2018-11-05 運行管理装置及び運行管理システム
JP2018-208167 2018-11-05

Publications (1)

Publication Number Publication Date
WO2020095904A1 true WO2020095904A1 (ja) 2020-05-14

Family

ID=70611907

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/043314 WO2020095904A1 (ja) 2018-11-05 2019-11-05 運行管理装置及び運行管理システム

Country Status (2)

Country Link
JP (1) JP2020077037A (ja)
WO (1) WO2020095904A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065527A (ja) * 2009-09-18 2011-03-31 Toyota Motor Corp 運転評価システム、車載機及び情報処理センター
JP2014095987A (ja) * 2012-11-08 2014-05-22 Denso Corp 車載機および車両安全制御システム
JP2015194884A (ja) * 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 運転者監視システム
JP2016057944A (ja) * 2014-09-11 2016-04-21 株式会社デンソー ドライバ状態判定装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065527A (ja) * 2009-09-18 2011-03-31 Toyota Motor Corp 運転評価システム、車載機及び情報処理センター
JP2014095987A (ja) * 2012-11-08 2014-05-22 Denso Corp 車載機および車両安全制御システム
JP2015194884A (ja) * 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 運転者監視システム
JP2016057944A (ja) * 2014-09-11 2016-04-21 株式会社デンソー ドライバ状態判定装置

Also Published As

Publication number Publication date
JP2020077037A (ja) 2020-05-21

Similar Documents

Publication Publication Date Title
US10317900B2 (en) Controlling autonomous-vehicle functions and output based on occupant position and attention
JP6591085B2 (ja) 乗り物酔い推定装置、乗り物酔い防止装置および乗り物酔い推定方法
CN104656503B (zh) 自主车辆中的可穿戴计算机
US10636301B2 (en) Method for assisting operation of an ego-vehicle, method for assisting other traffic participants and corresponding assistance systems and vehicles
CN108068698A (zh) 车辆系统以及车辆
US20170143253A1 (en) Device, method and computer program for detecting momentary sleep
US20080186382A1 (en) Field watch apparatus
US20180173974A1 (en) Method for detecting driving behavior and system using the same
WO2023060049A1 (en) Vehicle and mobile device interface for vehicle occupant assistance
JP2017220094A (ja) 車載装置
WO2023060048A1 (en) Vehicle and mobile device interface for vehicle occupant assistance
CN109421733A (zh) 驾驶者状态掌握装置、驾驶者状态掌握系统及方法
JP5077128B2 (ja) 覚醒度判定装置
JP2015048007A (ja) 情報表示装置
JP6319506B1 (ja) 評価装置、評価システム、車両、およびプログラム
JP2014096632A (ja) 撮像システム
WO2023272453A1 (zh) 视线校准方法及装置、设备、计算机可读存储介质、系统、车辆
JP2017222271A (ja) 車両用表示制御装置
JP2017045194A (ja) 標識認識表示装置
JP2016115117A (ja) 判定装置および判定方法
CN110949272A (zh) 车载显示设备调节方法、装置、车辆、介质及设备
WO2020095904A1 (ja) 運行管理装置及び運行管理システム
JP2020086907A (ja) 漫然運転判定装置
US11807264B2 (en) Driving assistance apparatus, driving assistance method, and medium
US11990066B2 (en) System and method to adjust inclined heads-up display perspective

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19881062

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19881062

Country of ref document: EP

Kind code of ref document: A1