JP2020077037A - Operation management device and operation management system - Google Patents

Operation management device and operation management system Download PDF

Info

Publication number
JP2020077037A
JP2020077037A JP2018208167A JP2018208167A JP2020077037A JP 2020077037 A JP2020077037 A JP 2020077037A JP 2018208167 A JP2018208167 A JP 2018208167A JP 2018208167 A JP2018208167 A JP 2018208167A JP 2020077037 A JP2020077037 A JP 2020077037A
Authority
JP
Japan
Prior art keywords
information
vehicle
driver
operation management
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018208167A
Other languages
Japanese (ja)
Inventor
博臣 舩越
Hiroomi Funakoshi
博臣 舩越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018208167A priority Critical patent/JP2020077037A/en
Priority to PCT/JP2019/043314 priority patent/WO2020095904A1/en
Publication of JP2020077037A publication Critical patent/JP2020077037A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

To provide an operation management device and operation management system capable of generating a hazard map.SOLUTION: An operation management device 5 includes an information acquisition unit and a hazard map generation unit. An on-vehicle unit 3 has a function of transmitting first information that indicates a driver's state including two or more elements to be selected from a group consisting of a degree of drowsiness, a degree of inattentive driving, a degree of concentration, and a body condition concerning a driver of a vehicle, and transmitting second information that indicates a position of the vehicle when the first information is acquired. The information acquisition unit acquires the first information and the second information from the on-vehicle unit. The hazard map generation unit generates a hazard map by associating positions of the vehicle indicated by the second information on the map with the driver's states indicated by the first information.SELECTED DRAWING: Figure 1

Description

本開示は運行管理装置及び運行管理システムに関する。   The present disclosure relates to an operation management device and an operation management system.

特許文献1に記載の運行管理システムは、ドライバの脳波データ、走行ルート等に基づいてドライバの眠気を予測する。   The operation management system described in Patent Document 1 predicts the drowsiness of the driver based on the brain wave data of the driver, the traveling route, and the like.

特開2018−45262号公報JP, 2018-45262, A

運行管理装置を用いてハザードマップを生成することが考えられる。ハザードマップは車両の運行管理に利用することができる。本開示の一局面は、ハザードマップを生成することができる運行管理装置及び運行管理システムを提供することを目的とする。   It is conceivable to generate a hazard map using the operation management device. Hazard maps can be used for vehicle operation management. An aspect of the present disclosure is to provide an operation management device and an operation management system that can generate a hazard map.

本開示の一局面は、車両のドライバの眠気の程度、脇見の程度、集中度、及び体調から成る群から選択される2以上を含むドライバ状態を表す第1情報と、前記第1情報を取得したときの前記車両の位置を表す第2情報とを送信する機能を有する車載機(3)から、前記第1情報及び前記第2情報を取得するように構成された情報取得ユニット(57)と、地図における、前記第2情報が表す前記車両の位置に、前記第1情報が表す前記ドライバ状態を対応付けてハザードマップを生成するように構成されたハザードマップ生成ユニット(59)と、を備える運行管理装置(5)である。   One aspect of the present disclosure obtains first information indicating a driver state including two or more selected from the group consisting of a drowsiness level of a vehicle driver, an inattentiveness level, a concentration level, and a physical condition, and the first information. An information acquisition unit (57) configured to acquire the first information and the second information from the vehicle-mounted device (3) having a function of transmitting the second information indicating the position of the vehicle at the time of A hazard map generating unit (59) configured to generate a hazard map by associating the driver state represented by the first information with the position of the vehicle represented by the second information on the map. It is an operation management device (5).

本開示の一局面である運行管理装置は、ハザードマップを生成することができる。ハザードマップは車両の運行管理に利用することができる。   The operation management device according to one aspect of the present disclosure can generate a hazard map. Hazard maps can be used for vehicle operation management.

運行管理システムの構成の構成を表すブロック図である。It is a block diagram showing the composition of composition of an operation management system. 車載機が備える制御部の機能的構成を表すブロック図である。It is a block diagram showing the functional composition of the control part with which an in-vehicle device is provided. サーバが備える制御部の機能的構成を表すブロック図である。It is a block diagram showing the functional composition of the control part with which a server is provided. 車載機が実行する処理を表すフローチャートである。It is a flow chart showing processing which an in-vehicle device performs. 第2情報生成処理を表すフローチャートである。It is a flow chart showing the 2nd information generation processing. 第1情報生成処理を表すフローチャートである。It is a flow chart showing the 1st information generation processing. サーバが実行する処理を表すフローチャートである。It is a flowchart showing the process which a server performs. リアルタイム処理を表すフローチャートである。It is a flow chart showing real-time processing.

本開示の例示的な実施形態を、図面を参照しながら説明する。
<第1実施形態>
1.運行管理システム1の構成
運行管理システム1の構成を、図1〜図3に基づき説明する。図1に示すように、運行管理システム1は、車載機3と、サーバ5とを備える。車載機3は車両に搭載されている。
Exemplary embodiments of the present disclosure will be described with reference to the drawings.
<First Embodiment>
1. Configuration of Operation Management System 1 The configuration of the operation management system 1 will be described based on FIGS. 1 to 3. As shown in FIG. 1, the operation management system 1 includes an in-vehicle device 3 and a server 5. The vehicle-mounted device 3 is mounted on the vehicle.

車載機3は、制御部7と、赤外カメラ9と、GPS11と、通信部13と、内部記憶装置15と、LED灯17と、を備える。
制御部7は、CPU19と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ21とする)と、を有するマイクロコンピュータを備える。制御部7の各機能は、CPU19が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ21が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、制御部7は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
The vehicle-mounted device 3 includes a control unit 7, an infrared camera 9, a GPS 11, a communication unit 13, an internal storage device 15, and an LED lamp 17.
The control unit 7 includes a microcomputer having a CPU 19 and a semiconductor memory (hereinafter, referred to as a memory 21) such as a RAM or a ROM. Each function of the control unit 7 is realized by the CPU 19 executing a program stored in the non-transitional physical recording medium. In this example, the memory 21 corresponds to a non-transitional substantive recording medium storing a program. By executing this program, the method corresponding to the program is executed. The control unit 7 may include one microcomputer or a plurality of microcomputers.

制御部7は、図2に示すように、第1情報生成ユニット23と、第2情報生成ユニット25と、情報送信ユニット27と、情報記憶ユニット29と、報知ユニット31と、走行判断ユニット33と、を備える。第1情報生成ユニット23は、画像取得ユニット及びドライバ状態推定ユニットに対応する。   As shown in FIG. 2, the control unit 7 includes a first information generation unit 23, a second information generation unit 25, an information transmission unit 27, an information storage unit 29, a notification unit 31, and a traveling determination unit 33. , Is provided. The first information generation unit 23 corresponds to the image acquisition unit and the driver state estimation unit.

制御部7に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。   The method for realizing the function of each unit included in the control unit 7 is not limited to software, and a part or all of the function thereof may be realized by using one or a plurality of hardware. For example, when the above functions are realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit, an analog circuit, or a combination thereof.

図1に示すように、赤外カメラ9は、発光部35と受光部37とを備える。発光部35は、ドライバの顔に赤外光を照射する。発光部35は、照射する赤外光の強度を変更可能である。受光部37は、ドライバの顔を含む範囲を撮影し、赤外画像を生成する。赤外画像は、ドライバの顔を含む範囲を表す。また、受光部37は、ドライバの顔における露光状況を検出する。   As shown in FIG. 1, the infrared camera 9 includes a light emitting unit 35 and a light receiving unit 37. The light emitting unit 35 irradiates the driver's face with infrared light. The light emitting unit 35 can change the intensity of infrared light to be emitted. The light receiving unit 37 captures a range including the driver's face and generates an infrared image. The infrared image represents a range including the driver's face. Further, the light receiving unit 37 detects the exposure status on the driver's face.

GPS11は、車両の位置情報を取得する。通信部13は、サーバ5との間で通信を行う。内部記憶装置15は、記憶媒体39を保持することができる。記憶媒体39として、例えば、SDカード(登録商標)等が挙げられる。内部記憶装置15は、保持した記憶媒体39に情報を記憶することができる。記憶媒体39は、内部記憶装置15から取り外すことができる。LED灯17は車両の車室内に設置されている。LED灯17は光を照射することができる。
サーバ5は車両の外部に固定設置されている。サーバ5は、制御部41と、通信部43と、媒体読取部45と、データベース47と、地図情報記憶部49と、表示部51と、を備える。サーバ5は運行管理装置に対応する。
The GPS 11 acquires the position information of the vehicle. The communication unit 13 communicates with the server 5. The internal storage device 15 can hold the storage medium 39. Examples of the storage medium 39 include an SD card (registered trademark) and the like. The internal storage device 15 can store information in the stored storage medium 39. The storage medium 39 can be removed from the internal storage device 15. The LED lamp 17 is installed in the passenger compartment of the vehicle. The LED lamp 17 can emit light.
The server 5 is fixedly installed outside the vehicle. The server 5 includes a control unit 41, a communication unit 43, a medium reading unit 45, a database 47, a map information storage unit 49, and a display unit 51. The server 5 corresponds to an operation management device.

制御部41は、CPU53と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ55とする)と、を有するマイクロコンピュータを備える。制御部41の各機能は、CPU53が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ55が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、制御部41は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。   The control unit 41 includes a microcomputer including a CPU 53 and a semiconductor memory such as a RAM or a ROM (hereinafter referred to as a memory 55). Each function of the control unit 41 is realized by the CPU 53 executing a program stored in the non-transitional physical recording medium. In this example, the memory 55 corresponds to a non-transitional substantive recording medium storing a program. By executing this program, the method corresponding to the program is executed. The control unit 41 may include one microcomputer or a plurality of microcomputers.

制御部41は、図3に示すように、情報取得ユニット57と、ハザードマップ生成ユニット59と、情報記憶ユニット61と、走行判断ユニット63と、を備える。
制御部41に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
As shown in FIG. 3, the control unit 41 includes an information acquisition unit 57, a hazard map generation unit 59, an information storage unit 61, and a travel determination unit 63.
The method of realizing the function of each unit included in the control unit 41 is not limited to software, and a part or all of the function thereof may be realized by using one or a plurality of hardware. For example, when the above functions are realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit, an analog circuit, or a combination thereof.

通信部43は、車載機3との間で通信を行う。媒体読取部45は、記憶媒体39を保持することができる。媒体読取部45は、保持された記憶媒体39から情報を読み取ることができる。記憶媒体39は、媒体読取部45から取り外すことができる。   The communication unit 43 communicates with the vehicle-mounted device 3. The medium reading unit 45 can hold the storage medium 39. The medium reading unit 45 can read information from the held storage medium 39. The storage medium 39 can be removed from the medium reading unit 45.

データベース47は情報を記憶することができる。地図情報記憶部49は地図情報を記憶している。表示部51は画像を表示可能なディスプレイである。
2.車載機3が実行する処理
車載機3が実行する処理を、図4〜図6に基づき説明する。この処理は、車両が始動したときに実行される。車両の始動として、例えば、車両のイグニッションがオンになることが挙げられる。
The database 47 can store information. The map information storage unit 49 stores map information. The display unit 51 is a display capable of displaying an image.
2. Processing executed by vehicle-mounted device 3 The processing executed by vehicle-mounted device 3 will be described with reference to FIGS. 4 to 6. This process is executed when the vehicle is started. Examples of starting the vehicle include turning on an ignition of the vehicle.

図4のステップ1では、第2情報生成ユニット25が第2情報生成処理を行う。第2情報生成処理を、図5に基づき説明する。図5に示す処理の各ステップは、第2情報生成ユニット25により実行される。   In step 1 of FIG. 4, the second information generation unit 25 performs the second information generation process. The second information generation process will be described based on FIG. Each step of the processing shown in FIG. 5 is executed by the second information generation unit 25.

図5のステップ21では、現在時刻を取得する。現在時刻とは、ステップ21を実行するときの時刻である。
ステップ22では、GPS11を用いて、車両の位置情報を取得する。車両の位置情報とは、車両の位置を表す情報である。車両の位置情報とは、例えば、緯度及び経度により規定される位置情報である。
In step 21 of FIG. 5, the current time is acquired. The current time is the time when step 21 is executed.
In step 22, the GPS 11 is used to acquire the position information of the vehicle. The vehicle position information is information indicating the position of the vehicle. The vehicle position information is, for example, position information defined by latitude and longitude.

ステップ23では、第2情報を生成する。第2情報は、前記ステップ21で取得した現在時刻を表す時刻情報と、前記ステップ22で取得した車両の位置情報とを含む情報である。第2情報において、時刻情報と、車両の位置情報とは対応付けられている。   In step 23, the second information is generated. The second information is information including the time information indicating the current time acquired in step 21 and the vehicle position information acquired in step 22. In the second information, the time information and the vehicle position information are associated with each other.

図4に戻り、ステップ2では、第1情報生成ユニット23が第1情報生成処理を行う。この処理を図6に基づき説明する。図6に示す処理の各ステップは、第1情報生成ユニット23により実行される。   Returning to FIG. 4, in step 2, the first information generation unit 23 performs the first information generation process. This process will be described with reference to FIG. Each step of the process shown in FIG. 6 is executed by the first information generation unit 23.

図6のステップ31では、受光部37を用いて、ドライバの顔の露光状態を取得する。
ステップ32では、前記ステップ31で取得した露光状態に基づき、ドライバの顔に照射する赤外光の強度を設定する。赤外光の強度は、後述するステップ34において赤外画像を生成するとき、ドライバの顔の露光状態が適切な状態となる強度である。
In step 31 of FIG. 6, the light receiving unit 37 is used to acquire the exposure state of the driver's face.
In step 32, the intensity of infrared light with which the driver's face is irradiated is set based on the exposure state acquired in step 31. The intensity of the infrared light is such that the exposure state of the driver's face becomes appropriate when an infrared image is generated in step 34 described later.

ステップ33では、発光部35を用い、前記ステップ32で設定した強度で赤外光の照射を開始する。赤外光の照射は、後述するステップ34において赤外画像の生成が完了するまで継続する。   In step 33, the light emitting section 35 is used to start irradiation of infrared light with the intensity set in step 32. Irradiation with infrared light continues until generation of an infrared image is completed in step 34, which will be described later.

ステップ34では、受光部37を用い、ドライバの顔を含む範囲を撮影し、赤外画像を生成する。
ステップ35では、前記ステップ34で生成した赤外画像において、ドライバのまぶた及び瞳を認識する。
In step 34, the light receiving unit 37 is used to photograph a range including the driver's face and generate an infrared image.
In step 35, the driver's eyelids and pupils are recognized in the infrared image generated in step 34.

ステップ36では、前記ステップ35で認識したまぶた及び瞳に基づき、ドライバの眠気の程度、ドライバの集中度を推定する。具体的には、以下の処理を行う。
まず、まぶたの開度、並びに、まぶたと瞳との重なり度合い等から、開眼度を算出する。開眼度とは、目が開いている程度である。目が大きく開いている程、開眼度は大きい。算出した開眼度が、基準開眼度に比べて小さいほど、ドライバの眠気の程度が高いと推定する。基準開眼度とは、同じドライバについて過去に複数回測定した開眼度の平均値である。
In step 36, the degree of drowsiness of the driver and the degree of concentration of the driver are estimated based on the eyelids and pupils recognized in step 35. Specifically, the following processing is performed.
First, the degree of eye opening is calculated from the opening degree of the eyelid, the degree of overlap between the eyelid and the pupil, and the like. The degree of eye opening is the degree to which the eyes are open. The larger the eyes are open, the greater the degree of eye opening. It is estimated that the degree of drowsiness of the driver is higher as the calculated degree of eye opening is smaller than the reference degree of eye opening. The reference eye opening degree is an average value of eye opening degrees measured a plurality of times in the past for the same driver.

また、瞳の露出度から、白眼度合いを算出する。白眼度合いとは、目の全面積に対する、瞳以外の部分の面積の比率である。算出した白眼度合いが、基準白眼度合いに比べて大きいほど、ドライバの眠気の程度が高いと推定する。基準白眼度合いとは、同じドライバについて過去に複数回測定した白眼度合いの平均値である。   Also, the degree of white eye is calculated from the degree of exposure of the pupil. The degree of white eye is the ratio of the area of the part other than the pupil to the total area of the eye. It is estimated that the driver's drowsiness level is higher as the calculated white eye level is higher than the reference white eye level. The reference white-eye degree is an average value of white-eye degrees measured multiple times in the past for the same driver.

また、左右の瞳の位置から、視線方向を算出する。算出した視線方向が正面方向ではない時間が長いほど、ドライバの集中度が低いと推定する。また、算出した視線方向が正面方向ではない頻度が高いほど、ドライバの集中度が低いと推定する。   Further, the line-of-sight direction is calculated from the positions of the left and right pupils. It is estimated that the longer the calculated line-of-sight direction is not in the front direction, the lower the degree of driver concentration. Further, it is estimated that the driver's degree of concentration is lower as the calculated line-of-sight direction is not frequently in the front direction.

ステップ37では、顔の3次元情報を使用した処理(以下では3次元情報処理とする)を実行するか否かを判断する。なお、ユーザは、3次元情報処理を実行するか否かを予め車載機3に設定しておくことができる。この設定に基づき、3次元情報処理を実行するか否かを判断する。3次元情報処理を実行する場合、本処理はステップ38に進む。3次元情報処理を実行しない場合、本処理はステップ40に進む。   In step 37, it is determined whether or not the process using the three-dimensional information of the face (hereinafter referred to as three-dimensional information processing) is executed. Note that the user can set in the vehicle-mounted device 3 in advance whether or not to execute the three-dimensional information processing. Based on this setting, it is determined whether or not three-dimensional information processing is executed. When executing the three-dimensional information processing, the process proceeds to step 38. When the three-dimensional information processing is not executed, the process goes to step 40.

ステップ38では、前記ステップ34で生成した赤外画像において、目、鼻、口等の顔のパーツを認識する。また、前記ステップ34で生成した赤外画像において、顔の輪郭を認識する。   In step 38, facial parts such as eyes, nose and mouth are recognized in the infrared image generated in step 34. Further, the contour of the face is recognized in the infrared image generated in step 34.

ステップ39では、前記ステップ38での認識結果に基づき、ドライバの脇見の程度、ドライバの集中度を推定する。具体的には、以下の処理を行う。
まず、前記ステップ38での認識結果に基づき、ドライバの顔の向きを算出する。顔の向きとして、上向き、下向き、左向き、右向き、首をかしげた状態等がある。
In step 39, based on the recognition result in step 38, the degree of looking aside of the driver and the degree of concentration of the driver are estimated. Specifically, the following processing is performed.
First, the face orientation of the driver is calculated based on the recognition result in step 38. The orientation of the face includes upward, downward, leftward, rightward, and a state in which the head is bent.

次に、算出した顔の向きを、基準の顔の向きと比較する。基準の顔の向きとは、同じドライバについて過去に複数回算出した顔の向きを平均した顔の向きである。
算出した顔の向きが、基準の顔の向きに比べて大きく変化しているほど、ドライバの脇見の程度が高く、ドライバの集中度が低いと推定する。また、算出した顔の向きが、基準の顔の向きに比べて変化している頻度が高いほど、ドライバの脇見の程度が高く、ドライバの集中度が低いと推定する。
Next, the calculated face orientation is compared with the reference face orientation. The reference face orientation is a face orientation obtained by averaging face orientations calculated multiple times in the past for the same driver.
It is estimated that as the calculated face orientation changes more greatly than the reference face orientation, the driver's inattentiveness is high and the driver's concentration is low. Further, it is estimated that the higher the frequency with which the calculated face orientation changes compared to the reference face orientation, the higher the degree of inattentiveness of the driver and the lower the degree of concentration of the driver.

ステップ40では、ドライバの体調を判断するか否かを判断する。なお、ユーザは、ドライバの体調を判断するか否かを予め車載機3に設定しておくことができる。この設定に基づき、ドライバの体調を判断するか否かを判断する。ドライバの体調を判断する場合、本処理はステップ41に進む。ドライバの体調を判断しない場合、本処理はステップ43に進む。   In step 40, it is judged whether or not the physical condition of the driver is judged. The user can set in the vehicle-mounted device 3 in advance whether or not to judge the physical condition of the driver. Based on this setting, it is determined whether or not to judge the physical condition of the driver. When determining the physical condition of the driver, the process proceeds to step 41. If the physical condition of the driver is not determined, the process proceeds to step 43.

ステップ41では、前記ステップ34で生成した赤外画像において、ドライバの顔の位置、及びドライバの上体の傾きを読み取る。上体の傾きとして、例えば、左右への傾き、前後への傾き、つっぷし、えび反り等が挙げられる。
ステップ42では、前記ステップ41で読み取ったドライバの顔の位置、及びドライバの上体の傾きに基づき、ドライバの体調、及び集中度を推定する。具体的には、以下の処理を行う。
In step 41, the driver's face position and the driver's upper body inclination are read from the infrared image generated in step 34. Examples of the inclination of the upper body include a leftward / rightward inclination, a forward / backward inclination, a topping, and a warp warp.
In step 42, the physical condition and concentration of the driver are estimated based on the position of the driver's face and the inclination of the driver's upper body read in step 41. Specifically, the following processing is performed.

読み取ったドライバの顔の位置を、基準の顔の位置と比較する。基準の顔の位置とは、同じドライバについて過去に複数回読み取った顔の位置を平均した顔の位置である。また、読み取ったドライバの上体の傾きを、基準の上体の傾きと比較する。基準の上体の傾きとは、同じドライバについて過去に複数回読み取った上体の傾きを平均した上体の傾きである。   The read driver's face position is compared with the reference face position. The reference face position is a face position obtained by averaging the face positions read multiple times in the past for the same driver. Further, the driver's body inclination that has been read is compared with a reference body inclination. The reference body inclination is the body inclination obtained by averaging the body inclinations read a plurality of times in the past for the same driver.

読み取ったドライバの顔の位置が基準の顔の位置に比べて大きく変化しているほど、ドライバの体調が悪く、集中度が低いと推定する。また、読み取ったドライバの上体の傾きが基準の上体の傾きに比べて大きく変化しているほど、ドライバの体調が悪く、集中度が低いと推定する。   It is estimated that the driver's physical condition is poor and the degree of concentration is low as the position of the read driver's face changes more greatly than the reference face position. Further, it is estimated that the driver's physical condition is poor and the degree of concentration is low as the inclination of the read driver's body changes more greatly than the reference inclination of the body.

ステップ43では、現在時刻を取得する。現在時刻とは、ステップ43の処理を実行するときの時刻である。
ステップ44では、第1情報を生成する。第1情報は、前記ステップ43で取得した現在時刻を表す時刻情報と、前記ステップ36、39、42で推定した、ドライバの眠気の程度、脇見の程度、集中度、及び体調とを含む情報である。なお、以下では、ドライバの眠気の程度、脇見の程度、集中度、及び体調をまとめてドライバ状態と呼ぶことがある。第1情報はドライバ状態を表す情報である。第1情報において、時刻情報と、ドライバ状態とは対応付けられている。
At step 43, the current time is acquired. The current time is the time when the process of step 43 is executed.
In step 44, the first information is generated. The first information is information including the time information indicating the current time acquired in step 43 and the driver's drowsiness level, inattentiveness level, concentration level, and physical condition estimated in steps 36, 39, and 42. is there. In the following, the driver's drowsiness level, inattentiveness level, concentration level, and physical condition may be collectively referred to as a driver state. The first information is information indicating the driver state. In the first information, the time information and the driver state are associated with each other.

ただし、前記ステップ39の処理を実行しなかった場合、ドライバ状態は、前記ステップ39で推定する脇見の程度及び集中度は含まない。また、前記ステップ42の処理を実行しなかった場合、ドライバ状態は、前記ステップ42で推定する体調及び集中度を含まない。   However, if the process of step 39 is not executed, the driver state does not include the degree of inattentiveness and the degree of concentration estimated in step 39. When the process of step 42 is not executed, the driver state does not include the physical condition and concentration degree estimated in step 42.

図4に戻り、ステップ3では、通信部13を用いてサーバ5と通信を行うことが可能であるか否かを情報送信ユニット27が判断する。サーバ5と通信を行うことが可能である場合、本処理はステップ4に進む。サーバ5と通信を行うことが不可能である場合、本処理はステップ5に進む。サーバ5と通信を行うことが不可能である場合として、例えば、車載機3とサーバ5との間に山が存在する場合等がある。   Returning to FIG. 4, in step 3, the information transmitting unit 27 determines whether or not it is possible to communicate with the server 5 using the communication unit 13. If it is possible to communicate with the server 5, the process proceeds to step 4. When it is impossible to communicate with the server 5, the process proceeds to step 5. As a case where it is impossible to communicate with the server 5, for example, there may be a mountain between the vehicle-mounted device 3 and the server 5.

ステップ4では、情報送信ユニット27が、前記ステップ1で生成した第2情報と、前記ステップ2で生成した第1情報とを、通信部13を用いてサーバ5に送信する。
ステップ5では、情報記憶ユニット29が、前記ステップ1で生成した第2情報と、前記ステップ2で生成した第1情報とを、内部記憶装置15を用いて記憶媒体39に記憶する。
In step 4, the information transmission unit 27 transmits the second information generated in step 1 and the first information generated in step 2 to the server 5 using the communication unit 13.
In step 5, the information storage unit 29 stores the second information generated in step 1 and the first information generated in step 2 in the storage medium 39 using the internal storage device 15.

ステップ6では、車両が走行を継続しているか否かを走行判断ユニット63が判断する。走行判断ユニット63は、例えば、車両の位置情報の変化、又は、図示しない車速センサの検出結果等に基づき、車両が走行を継続しているか否かを判断することができる。車両が走行を継続している場合、本処理はステップ1に進む。車両の走行が終了している場合、本処理はステップ7に進む。   In step 6, the traveling determination unit 63 determines whether the vehicle continues traveling. The traveling determination unit 63 can determine whether the vehicle is traveling, for example, based on a change in vehicle position information, a detection result of a vehicle speed sensor (not shown), or the like. If the vehicle is still traveling, the process goes to step 1. If the vehicle has finished traveling, the process proceeds to step 7.

ステップ7では、未送信情報が存在するか否かを情報送信ユニット27が判断する。未送信情報とは、前記ステップ5において記憶媒体39に記憶され、未だサーバ5へ送信されていない第1情報及び第2情報である。未送信情報が存在する場合、本処理はステップ8に進む。未送信情報が存在しない場合、本処理は終了する。   In step 7, the information transmitting unit 27 determines whether or not there is untransmitted information. The untransmitted information is the first information and the second information stored in the storage medium 39 in step 5 and not yet transmitted to the server 5. If there is untransmitted information, the process proceeds to step 8. If there is no untransmitted information, this process ends.

ステップ8では、通信部13を用いてサーバ5と通信を行うことが可能であるか否かを情報送信ユニット27が判断する。サーバ5と通信を行うことが可能である場合、本処理はステップ9に進む。サーバ5と通信を行うことが不可能である場合、本処理はステップ10に進む。   In step 8, the information transmission unit 27 determines whether it is possible to communicate with the server 5 using the communication unit 13. If it is possible to communicate with the server 5, the process proceeds to step 9. When it is impossible to communicate with the server 5, the process proceeds to step 10.

ステップ9では、情報送信ユニット27が、通信部13を用いて未送信情報をサーバ5に送信する。
ステップ10では、報知ユニット31がLED灯17を点灯させる。ユーザは、LED灯17が点灯していることにより、記憶媒体39に未送信情報が記憶されていることを知ることができる。そして、ユーザは、記憶媒体39を内部記憶装置15から取り外し、媒体読取部45に取り付けることができる。
In step 9, the information transmission unit 27 uses the communication unit 13 to transmit the untransmitted information to the server 5.
In step 10, the notification unit 31 turns on the LED lamp 17. The user can know that the untransmitted information is stored in the storage medium 39 by turning on the LED lamp 17. Then, the user can remove the storage medium 39 from the internal storage device 15 and attach it to the medium reading unit 45.

3.サーバ5が実行する処理
サーバ5が所定時間ごとに繰り返し実行する処理を図7、図8に基づき説明する。図7のステップ51では、車両からの情報送信があるか否かを情報取得ユニット57が判断する。車両からの情報送信がある場合、本処理はステップ52に進む。車両からの情報送信がない場合、本処理はステップ51の前に戻る。
3. Processing executed by the server 5 Processing executed by the server 5 repeatedly at predetermined time intervals will be described with reference to FIGS. 7 and 8. In step 51 of FIG. 7, the information acquisition unit 57 determines whether or not there is information transmission from the vehicle. If there is information transmission from the vehicle, the process proceeds to step 52. If there is no information transmitted from the vehicle, the process returns to step 51.

ステップ52では、情報取得ユニット57が、通信部43を用いて情報を取得する。取得する情報は、前記ステップ4において車載機3が送信した第1情報及び第2情報である。
ステップ53では、リアルタイム処理を実行するか否かをハザードマップ生成ユニット59が判断する。なお、ユーザは、リアルタイム処理を実行するか否かを予めサーバ5に設定しておくことができる。この設定に基づき、リアルタイム処理を実行するか否かを判断する。リアルタイム処理を実行する場合、本処理はステップ54に進む。リアルタイム処理を実行しない場合、本処理はステップ55に進む。
In step 52, the information acquisition unit 57 acquires information using the communication section 43. The information to be acquired is the first information and the second information transmitted by the vehicle-mounted device 3 in step 4.
In step 53, the hazard map generation unit 59 determines whether to execute the real-time processing. The user can set in the server 5 in advance whether or not to execute the real-time processing. Based on this setting, it is determined whether to execute the real-time processing. When executing the real-time processing, the processing proceeds to step 54. When the real-time processing is not executed, the processing goes to step 55.

ステップ54では、ハザードマップ生成ユニット59がリアルタイム処理を実行する。この処理を図8に基づき説明する。図8に示す処理の各ステップは、ハザードマップ生成ユニット59により実行される。   In step 54, the hazard map generation unit 59 executes real-time processing. This process will be described with reference to FIG. Each step of the processing shown in FIG. 8 is executed by the hazard map generation unit 59.

図8のステップ71では、前記ステップ52で取得した情報から、時刻情報が近似する第1情報と第2情報との組み合わせを抽出する。抽出された第2情報が表す車両の位置は、同時に抽出された第1情報を車載機3が取得したときの車両の位置である。   In step 71 of FIG. 8, a combination of the first information and the second information having similar time information is extracted from the information acquired in step 52. The position of the vehicle represented by the extracted second information is the position of the vehicle when the vehicle-mounted device 3 acquires the simultaneously extracted first information.

ステップ72では、地図情報記憶部49から地図情報を取得する。
ステップ73では、前記ステップ72で取得した地図情報において、前記ステップ71で抽出した第2情報が表す車両の位置に、前記ステップ71で抽出した第1情報が表すドライバ状態を対応付ける。
In step 72, the map information is acquired from the map information storage unit 49.
In step 73, in the map information acquired in step 72, the position of the vehicle represented by the second information extracted in step 71 is associated with the driver state represented by the first information extracted in step 71.

ステップ74では、前記ステップ52で取得した情報であって、前記ステップ71において未だ抽出されていない情報が存在するか否かを判断する。未だ抽出されていない情報が存在する場合、本処理はステップ71に進む。前記ステップ52で取得した全ての情報が抽出済みである場合、本処理はステップ75に進む。   In step 74, it is determined whether or not there is the information acquired in step 52 that has not been extracted in step 71. If there is information that has not been extracted yet, the process proceeds to step 71. If all the information acquired in step 52 has been extracted, the process proceeds to step 75.

ステップ75では、地図情報を、対応付けられたドライバ状態に応じて色分けする。例えば、地図情報のうち、特定のドライバ状態が対応付けられた領域に、その特定のドライバ状態を表す色を付する。   In step 75, the map information is color-coded according to the associated driver status. For example, in the map information, a region associated with a specific driver state is colored with a color representing the specific driver state.

以上の処理により、ハザードマップが生成する。ハザードマップとは、地図情報における複数の位置のそれぞれに、該当する位置に車両が存在したときのドライバ状態を対応付けたマップである。サーバ5は、ハザードマップを表示部51に表示することができる。   A hazard map is generated by the above processing. The hazard map is a map in which each of the plurality of positions in the map information is associated with the driver state when the vehicle is present at the corresponding position. The server 5 can display the hazard map on the display unit 51.

図7に戻り、ステップ55では、情報記憶ユニット61が、前記ステップ52で取得した情報をデータベース47に記憶する。
ステップ56では、情報を送信した車両が停止したか否かを走行判断ユニット63が判断する。走行判断ユニット63は、例えば、第2情報に含まれる位置情報の推移に基づき、情報を送信した車両が停止したか否かを判断することができる。情報を送信した車両が停止した場合、本処理はステップ57に進む。情報を送信した車両が未だ停止していない場合、本処理はステップ51に進む。
Returning to FIG. 7, in step 55, the information storage unit 61 stores the information acquired in step 52 in the database 47.
In step 56, the traveling determination unit 63 determines whether or not the vehicle that transmitted the information has stopped. The traveling determination unit 63 can determine whether the vehicle that has transmitted the information has stopped, for example, based on the transition of the position information included in the second information. If the vehicle that transmitted the information has stopped, the process proceeds to step 57. If the vehicle that has transmitted the information has not stopped, the process proceeds to step 51.

ステップ57では、車両からの追加の情報送信があるか否かを情報取得ユニット57が判断する。車両からの追加の情報送信とは、前記ステップ9において車載機3が行う情報送信である。車両からの追加の情報送信がある場合、本処理はステップ58に進む。車両からの追加の情報送信がない場合、本処理はステップ59に進む。   In step 57, the information acquisition unit 57 determines whether or not there is additional information transmission from the vehicle. The additional information transmission from the vehicle is the information transmission performed by the vehicle-mounted device 3 in step 9 described above. If there is additional information transmission from the vehicle, the process proceeds to step 58. If there is no additional information transmitted from the vehicle, the process proceeds to step 59.

ステップ58では、追加の情報送信により送信された情報を情報記憶ユニット61がデータベース47に記憶する。
ステップ59では、未処理情報があるか否かをハザードマップ生成ユニット59が判断する。未処理情報として、前記ステップ55又は前記ステップ58でデータベース47に記憶された情報がある。また、未処理情報として、記憶媒体39に記憶された情報がある。記憶媒体39に記憶された情報とは、前記ステップ5で記憶媒体39に記憶された未送信情報である。未処理情報は、1のみの車載機3から取得した情報から成っていてもよいし、複数の車載機3から取得した情報を含んでいてもよい。未処理情報がある場合、本処理はステップ60に進む。未処理情報がない場合、本処理は終了する。
In step 58, the information storage unit 61 stores the information transmitted by the additional information transmission in the database 47.
In step 59, the hazard map generation unit 59 determines whether or not there is unprocessed information. The unprocessed information includes the information stored in the database 47 in step 55 or step 58. The unprocessed information includes information stored in the storage medium 39. The information stored in the storage medium 39 is the untransmitted information stored in the storage medium 39 in step 5 above. The unprocessed information may consist of information acquired from only one vehicle-mounted device 3, or may include information acquired from a plurality of vehicle-mounted devices 3. If there is unprocessed information, the process proceeds to step 60. If there is no unprocessed information, this process ends.

ステップ60では、ハザードマップ生成ユニット59が未処理情報処理を実行する。未処理情報処理は、基本的には前記ステップ53のリアルタイム処理と同様である。ただし、未処理情報処理では、前記ステップ52で取得した情報ではなく、未処理情報から第1情報及び第2情報の組み合わせを抽出してハザードマップを生成する。また、既にリアルタイム処理を実行している場合、未処理情報処理では、リアルタイム処理で生成したハザードマップに対し、さらに処理を行う。   In step 60, the hazard map generation unit 59 executes unprocessed information processing. The unprocessed information processing is basically the same as the real-time processing in step 53. However, in the unprocessed information processing, the combination of the first information and the second information is extracted from the unprocessed information instead of the information acquired in step 52 to generate the hazard map. When the real-time processing has already been executed, in the unprocessed information processing, the hazard map generated by the real-time processing is further processed.

よって、リアルタイム処理と、未処理情報処理との両方を実行した場合、生成したハザードマップには、前記ステップ52で取得した第2情報が表す車両の位置に、前記ステップ52で取得した第1情報が表すドライバ状態が対応付けられているとともに、未処理情報に含まれる第2情報が表す車両の位置に、未処理情報に含まれる第1情報が表すドライバ状態が対応付けられている。   Therefore, when both the real-time processing and the unprocessed information processing are executed, in the generated hazard map, the position of the vehicle represented by the second information acquired in step 52 is set to the first information acquired in step 52. Is associated with the driver state, and the vehicle position represented by the second information included in the unprocessed information is associated with the driver state represented by the first information included in the unprocessed information.

4.運行管理システム1が奏する効果
(1A)運行管理システム1はハザードマップを生成することができる。ユーザは、ハザードマップを見ることで、地図上の各位置でどのようなドライバ状態が生じ易いかを容易に理解することができる。よって、ユーザは、ハザードマップを車両の運行管理に利用することができる。
4. Effects of Operation Management System 1 (1A) The operation management system 1 can generate a hazard map. By viewing the hazard map, the user can easily understand what kind of driver state is likely to occur at each position on the map. Therefore, the user can use the hazard map for vehicle operation management.

(1B)サーバ5は、車載機3との通信により、又は、記憶媒体39から、第1情報及び第2情報を取得することができる。そのため、サーバ5は、容易且つ確実に第1情報及び第2情報を取得することができる。   (1B) The server 5 can obtain the first information and the second information by communicating with the vehicle-mounted device 3 or from the storage medium 39. Therefore, the server 5 can easily and reliably acquire the first information and the second information.

(1C)車載機3は、ドライバの顔を含む範囲を表す赤外画像を取得する。そして、車載機3は、赤外画像に基づき、ドライバ状態を推定する。そのため、車載機3は、ドライバ状態を容易且つ正確に推定することができる。   (1C) The vehicle-mounted device 3 acquires an infrared image representing a range including the driver's face. Then, the vehicle-mounted device 3 estimates the driver state based on the infrared image. Therefore, the vehicle-mounted device 3 can easily and accurately estimate the driver state.

(1D)車載機3は、GPS11を用いて、第2情報が表す車両の位置を取得する。そのため、車載機3は、車両の位置を容易且つ正確に取得することができる。
5.他の実施形態
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1D) The vehicle unit 3 uses the GPS 11 to acquire the position of the vehicle represented by the second information. Therefore, the vehicle-mounted device 3 can easily and accurately acquire the position of the vehicle.
5. Other Embodiments The embodiments of the present disclosure have been described above, but the present disclosure is not limited to the above-described embodiments, and various modifications can be implemented.

(1)車載機3は、車載通信機、又は、車両に搭載された携帯端末等を用いて、第2情報が表す車両の位置を取得してもよい。この場合も、GPS11を用いる場合と同様の効果を奏する。携帯端末として、例えば、スマートフォン等が挙げられる。車載通信機とは、車両に搭載された、通信機能を有する機器である。車載通信機は、通信部13であってもよいし、他の車載通信機であってもよい。   (1) The in-vehicle device 3 may acquire the position of the vehicle represented by the second information by using an in-vehicle communication device or a mobile terminal mounted on the vehicle. Also in this case, the same effect as that when the GPS 11 is used is obtained. Examples of mobile terminals include smartphones. The in-vehicle communication device is a device mounted on a vehicle and having a communication function. The vehicle-mounted communication device may be the communication unit 13 or another vehicle-mounted communication device.

(2)第1情報及び第2情報の少なくとも一方は、ドライバの識別情報を含んでいてもよい。サーバ5は、ハザードマップを生成するとき、ドライバ状態とともに、ドライバの識別情報も、車両の位置に対応付けてもよい。この場合、ユーザは、ハザードマップを見ることで、特定のドライバのドライバ状態が地図上でどのように変化しているのかを理解することができる。   (2) At least one of the first information and the second information may include identification information of the driver. When generating the hazard map, the server 5 may associate the driver state with the driver identification information as well as the vehicle position. In this case, the user can understand how the driver state of the specific driver is changing on the map by looking at the hazard map.

(3)第1状態が表すドライバ状態は、ドライバの眠気の程度、脇見の程度、集中度、及び体調のうち、1〜3種であってもよい。
(4)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(3) The driver state represented by the first state may be one to three of the driver's drowsiness level, inattentiveness level, concentration level, and physical condition.
(4) A plurality of functions of one constituent element in the above-described embodiment may be realized by a plurality of constituent elements, or one function of one constituent element may be realized by a plurality of constituent elements. .. Further, a plurality of functions of a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above-described embodiment may be added or replaced with respect to the configuration of the other above-described embodiment.

(5)上述した運行管理装置の他、当該運行管理装置を構成要素とするシステム、当該運行管理装置の制御部又はサーバの制御部としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、運行管理方法等、種々の形態で本開示を実現することもできる。   (5) In addition to the operation management device described above, a system having the operation management device as a component, a program for causing a computer to function as a control unit of the operation management device or a control unit of a server, and a semiconductor memory recording the program The present disclosure can also be realized in various forms such as a non-transitional actual recording medium, an operation management method, and the like.

1…運行管理システム、3…車載機、5…サーバ、23…第1情報生成ユニット、25…第2情報生成ユニット、27…情報送信ユニット、29…情報記憶ユニット、31…報知ユニット、33…走行判断ユニット、39…記憶媒体、57…情報取得ユニット、59…ハザードマップ生成ユニット、61…情報記憶ユニット、63…走行判断ユニット DESCRIPTION OF SYMBOLS 1 ... Operation management system, 3 ... In-vehicle device, 5 ... Server, 23 ... 1st information generation unit, 25 ... 2nd information generation unit, 27 ... Information transmission unit, 29 ... Information storage unit, 31 ... Notification unit, 33 ... Travel determination unit, 39 ... Storage medium, 57 ... Information acquisition unit, 59 ... Hazard map generation unit, 61 ... Information storage unit, 63 ... Travel determination unit

Claims (5)

車両のドライバの眠気の程度、脇見の程度、集中度、及び体調から成る群から選択される2以上を含むドライバ状態を表す第1情報と、前記第1情報を取得したときの前記車両の位置を表す第2情報とを送信する機能を有する車載機(3)から、前記第1情報及び前記第2情報を取得するように構成された情報取得ユニット(57)と、
地図における、前記第2情報が表す前記車両の位置に、前記第1情報が表す前記ドライバ状態を対応付けてハザードマップを生成するように構成されたハザードマップ生成ユニット(59)と、
を備える運行管理装置(5)。
First information indicating a driver state including two or more selected from the group consisting of a drowsiness level of a vehicle driver, an inattentiveness level, a concentration level, and a physical condition, and a position of the vehicle when the first information is acquired An information acquisition unit (57) configured to acquire the first information and the second information from an in-vehicle device (3) having a function of transmitting second information indicating
A hazard map generation unit (59) configured to generate a hazard map by associating the position of the vehicle represented by the second information on the map with the driver state represented by the first information;
An operation management device (5) provided with.
請求項1に記載の運行管理装置であって、
前記情報取得ユニットは、前記車載機との通信により、又は、前記第1情報及び前記第2情報を記憶した記憶媒体から、前記第1情報及び前記第2情報を取得するように構成された運行管理装置。
The operation management device according to claim 1,
The information acquisition unit is configured to acquire the first information and the second information by communication with the vehicle-mounted device or from a storage medium that stores the first information and the second information. Management device.
請求項1又は2に記載の運行管理装置と、
前記車載機と、
を備える運行管理システム(1)。
The operation management device according to claim 1 or 2,
The in-vehicle device,
An operation management system (1) equipped with.
請求項3に記載の運行管理システムであって、
前記車載機は、
前記ドライバの顔を含む範囲を表す赤外画像を取得するように構成された画像取得ユニット(23)と、
前記赤外画像に基づき、前記ドライバ状態を推定するように構成されたドライバ状態推定ユニット(23)と、
を備える運行管理システム。
The operation management system according to claim 3,
The in-vehicle device is
An image acquisition unit (23) configured to acquire an infrared image representing a range including the driver's face;
A driver state estimation unit (23) configured to estimate the driver state based on the infrared image;
An operation management system equipped with.
請求項3又は4に記載の運行管理システムであって、
前記車載機は、GPS、車載通信機、又は、前記車両に搭載された携帯端末を用いて、前記第2情報が表す前記車両の位置を取得するように構成された運行管理システム。
The operation management system according to claim 3 or 4,
The operation management system configured to acquire the position of the vehicle represented by the second information by using the GPS, the in-vehicle communication device, or the mobile terminal mounted on the vehicle, in the in-vehicle apparatus.
JP2018208167A 2018-11-05 2018-11-05 Operation management device and operation management system Pending JP2020077037A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018208167A JP2020077037A (en) 2018-11-05 2018-11-05 Operation management device and operation management system
PCT/JP2019/043314 WO2020095904A1 (en) 2018-11-05 2019-11-05 Operation management apparatus and operation management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018208167A JP2020077037A (en) 2018-11-05 2018-11-05 Operation management device and operation management system

Publications (1)

Publication Number Publication Date
JP2020077037A true JP2020077037A (en) 2020-05-21

Family

ID=70611907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018208167A Pending JP2020077037A (en) 2018-11-05 2018-11-05 Operation management device and operation management system

Country Status (2)

Country Link
JP (1) JP2020077037A (en)
WO (1) WO2020095904A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065527A (en) * 2009-09-18 2011-03-31 Toyota Motor Corp Driving evaluation system, vehicle-mounted machine, and information processing center
JP2014095987A (en) * 2012-11-08 2014-05-22 Denso Corp In-vehicle unit and vehicle safety control system
JP2015194884A (en) * 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 driver monitoring system
JP2016057944A (en) * 2014-09-11 2016-04-21 株式会社デンソー Driver state determination device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065527A (en) * 2009-09-18 2011-03-31 Toyota Motor Corp Driving evaluation system, vehicle-mounted machine, and information processing center
JP2014095987A (en) * 2012-11-08 2014-05-22 Denso Corp In-vehicle unit and vehicle safety control system
JP2015194884A (en) * 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 driver monitoring system
JP2016057944A (en) * 2014-09-11 2016-04-21 株式会社デンソー Driver state determination device

Also Published As

Publication number Publication date
WO2020095904A1 (en) 2020-05-14

Similar Documents

Publication Publication Date Title
RU2756256C1 (en) System and methods for monitoring the behaviour of the driver for controlling a car fleet in a fleet of vehicles using an imaging apparatus facing the driver
RU2764646C2 (en) System and methods for monitoring the behaviour of the driver for controlling a car fleet in a fleet of vehicles using an imaging apparatus facing the driver
US10317900B2 (en) Controlling autonomous-vehicle functions and output based on occupant position and attention
JP6497915B2 (en) Driving support system
US10636301B2 (en) Method for assisting operation of an ego-vehicle, method for assisting other traffic participants and corresponding assistance systems and vehicles
US10152642B2 (en) Method for detecting driving behavior and system using the same
CN108068698A (en) Vehicular system and vehicle
US20170143253A1 (en) Device, method and computer program for detecting momentary sleep
CN109791739A (en) Carsick estimation device, carsick anti-locking apparatus and carsick estimation method
CN109383525A (en) Driver status grasps device, driver status grasps system and method
US20180229654A1 (en) Sensing application use while driving
JP2017220094A (en) Vehicle-mounted device
JP6319506B1 (en) Evaluation device, evaluation system, vehicle, and program
CN109421733A (en) Driver condition grasps device, driver condition grasps system and method
CN110448316A (en) Data processing equipment and method, wake up system and recording medium at monitoring system
CN109177922A (en) Vehicle starting method, device, equipment and storage medium
JP2017222271A (en) Display controller for vehicle
CN109272764B (en) Dangerous driving reminding method and system
JP2015048007A (en) Information display device
JP2010029537A (en) Wakefulness level determining apparatus
JP2016115117A (en) Determination device and determination method
JP2020086907A (en) Careless driving determination device
WO2020095904A1 (en) Operation management apparatus and operation management system
US11807264B2 (en) Driving assistance apparatus, driving assistance method, and medium
JP6449504B1 (en) Information processing apparatus, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220111