JP2020077037A - Operation management device and operation management system - Google Patents
Operation management device and operation management system Download PDFInfo
- Publication number
- JP2020077037A JP2020077037A JP2018208167A JP2018208167A JP2020077037A JP 2020077037 A JP2020077037 A JP 2020077037A JP 2018208167 A JP2018208167 A JP 2018208167A JP 2018208167 A JP2018208167 A JP 2018208167A JP 2020077037 A JP2020077037 A JP 2020077037A
- Authority
- JP
- Japan
- Prior art keywords
- information
- vehicle
- driver
- operation management
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
Abstract
Description
本開示は運行管理装置及び運行管理システムに関する。 The present disclosure relates to an operation management device and an operation management system.
特許文献1に記載の運行管理システムは、ドライバの脳波データ、走行ルート等に基づいてドライバの眠気を予測する。
The operation management system described in
運行管理装置を用いてハザードマップを生成することが考えられる。ハザードマップは車両の運行管理に利用することができる。本開示の一局面は、ハザードマップを生成することができる運行管理装置及び運行管理システムを提供することを目的とする。 It is conceivable to generate a hazard map using the operation management device. Hazard maps can be used for vehicle operation management. An aspect of the present disclosure is to provide an operation management device and an operation management system that can generate a hazard map.
本開示の一局面は、車両のドライバの眠気の程度、脇見の程度、集中度、及び体調から成る群から選択される2以上を含むドライバ状態を表す第1情報と、前記第1情報を取得したときの前記車両の位置を表す第2情報とを送信する機能を有する車載機(3)から、前記第1情報及び前記第2情報を取得するように構成された情報取得ユニット(57)と、地図における、前記第2情報が表す前記車両の位置に、前記第1情報が表す前記ドライバ状態を対応付けてハザードマップを生成するように構成されたハザードマップ生成ユニット(59)と、を備える運行管理装置(5)である。 One aspect of the present disclosure obtains first information indicating a driver state including two or more selected from the group consisting of a drowsiness level of a vehicle driver, an inattentiveness level, a concentration level, and a physical condition, and the first information. An information acquisition unit (57) configured to acquire the first information and the second information from the vehicle-mounted device (3) having a function of transmitting the second information indicating the position of the vehicle at the time of A hazard map generating unit (59) configured to generate a hazard map by associating the driver state represented by the first information with the position of the vehicle represented by the second information on the map. It is an operation management device (5).
本開示の一局面である運行管理装置は、ハザードマップを生成することができる。ハザードマップは車両の運行管理に利用することができる。 The operation management device according to one aspect of the present disclosure can generate a hazard map. Hazard maps can be used for vehicle operation management.
本開示の例示的な実施形態を、図面を参照しながら説明する。
<第1実施形態>
1.運行管理システム1の構成
運行管理システム1の構成を、図1〜図3に基づき説明する。図1に示すように、運行管理システム1は、車載機3と、サーバ5とを備える。車載機3は車両に搭載されている。
Exemplary embodiments of the present disclosure will be described with reference to the drawings.
<First Embodiment>
1. Configuration of Operation
車載機3は、制御部7と、赤外カメラ9と、GPS11と、通信部13と、内部記憶装置15と、LED灯17と、を備える。
制御部7は、CPU19と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ21とする)と、を有するマイクロコンピュータを備える。制御部7の各機能は、CPU19が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ21が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、制御部7は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
The vehicle-mounted
The
制御部7は、図2に示すように、第1情報生成ユニット23と、第2情報生成ユニット25と、情報送信ユニット27と、情報記憶ユニット29と、報知ユニット31と、走行判断ユニット33と、を備える。第1情報生成ユニット23は、画像取得ユニット及びドライバ状態推定ユニットに対応する。
As shown in FIG. 2, the
制御部7に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
The method for realizing the function of each unit included in the
図1に示すように、赤外カメラ9は、発光部35と受光部37とを備える。発光部35は、ドライバの顔に赤外光を照射する。発光部35は、照射する赤外光の強度を変更可能である。受光部37は、ドライバの顔を含む範囲を撮影し、赤外画像を生成する。赤外画像は、ドライバの顔を含む範囲を表す。また、受光部37は、ドライバの顔における露光状況を検出する。
As shown in FIG. 1, the
GPS11は、車両の位置情報を取得する。通信部13は、サーバ5との間で通信を行う。内部記憶装置15は、記憶媒体39を保持することができる。記憶媒体39として、例えば、SDカード(登録商標)等が挙げられる。内部記憶装置15は、保持した記憶媒体39に情報を記憶することができる。記憶媒体39は、内部記憶装置15から取り外すことができる。LED灯17は車両の車室内に設置されている。LED灯17は光を照射することができる。
サーバ5は車両の外部に固定設置されている。サーバ5は、制御部41と、通信部43と、媒体読取部45と、データベース47と、地図情報記憶部49と、表示部51と、を備える。サーバ5は運行管理装置に対応する。
The
The
制御部41は、CPU53と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ55とする)と、を有するマイクロコンピュータを備える。制御部41の各機能は、CPU53が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ55が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、制御部41は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
The
制御部41は、図3に示すように、情報取得ユニット57と、ハザードマップ生成ユニット59と、情報記憶ユニット61と、走行判断ユニット63と、を備える。
制御部41に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
As shown in FIG. 3, the
The method of realizing the function of each unit included in the
通信部43は、車載機3との間で通信を行う。媒体読取部45は、記憶媒体39を保持することができる。媒体読取部45は、保持された記憶媒体39から情報を読み取ることができる。記憶媒体39は、媒体読取部45から取り外すことができる。
The
データベース47は情報を記憶することができる。地図情報記憶部49は地図情報を記憶している。表示部51は画像を表示可能なディスプレイである。
2.車載機3が実行する処理
車載機3が実行する処理を、図4〜図6に基づき説明する。この処理は、車両が始動したときに実行される。車両の始動として、例えば、車両のイグニッションがオンになることが挙げられる。
The
2. Processing executed by vehicle-mounted
図4のステップ1では、第2情報生成ユニット25が第2情報生成処理を行う。第2情報生成処理を、図5に基づき説明する。図5に示す処理の各ステップは、第2情報生成ユニット25により実行される。
In
図5のステップ21では、現在時刻を取得する。現在時刻とは、ステップ21を実行するときの時刻である。
ステップ22では、GPS11を用いて、車両の位置情報を取得する。車両の位置情報とは、車両の位置を表す情報である。車両の位置情報とは、例えば、緯度及び経度により規定される位置情報である。
In
In step 22, the
ステップ23では、第2情報を生成する。第2情報は、前記ステップ21で取得した現在時刻を表す時刻情報と、前記ステップ22で取得した車両の位置情報とを含む情報である。第2情報において、時刻情報と、車両の位置情報とは対応付けられている。
In
図4に戻り、ステップ2では、第1情報生成ユニット23が第1情報生成処理を行う。この処理を図6に基づき説明する。図6に示す処理の各ステップは、第1情報生成ユニット23により実行される。
Returning to FIG. 4, in
図6のステップ31では、受光部37を用いて、ドライバの顔の露光状態を取得する。
ステップ32では、前記ステップ31で取得した露光状態に基づき、ドライバの顔に照射する赤外光の強度を設定する。赤外光の強度は、後述するステップ34において赤外画像を生成するとき、ドライバの顔の露光状態が適切な状態となる強度である。
In
In step 32, the intensity of infrared light with which the driver's face is irradiated is set based on the exposure state acquired in
ステップ33では、発光部35を用い、前記ステップ32で設定した強度で赤外光の照射を開始する。赤外光の照射は、後述するステップ34において赤外画像の生成が完了するまで継続する。
In
ステップ34では、受光部37を用い、ドライバの顔を含む範囲を撮影し、赤外画像を生成する。
ステップ35では、前記ステップ34で生成した赤外画像において、ドライバのまぶた及び瞳を認識する。
In step 34, the
In
ステップ36では、前記ステップ35で認識したまぶた及び瞳に基づき、ドライバの眠気の程度、ドライバの集中度を推定する。具体的には、以下の処理を行う。
まず、まぶたの開度、並びに、まぶたと瞳との重なり度合い等から、開眼度を算出する。開眼度とは、目が開いている程度である。目が大きく開いている程、開眼度は大きい。算出した開眼度が、基準開眼度に比べて小さいほど、ドライバの眠気の程度が高いと推定する。基準開眼度とは、同じドライバについて過去に複数回測定した開眼度の平均値である。
In step 36, the degree of drowsiness of the driver and the degree of concentration of the driver are estimated based on the eyelids and pupils recognized in
First, the degree of eye opening is calculated from the opening degree of the eyelid, the degree of overlap between the eyelid and the pupil, and the like. The degree of eye opening is the degree to which the eyes are open. The larger the eyes are open, the greater the degree of eye opening. It is estimated that the degree of drowsiness of the driver is higher as the calculated degree of eye opening is smaller than the reference degree of eye opening. The reference eye opening degree is an average value of eye opening degrees measured a plurality of times in the past for the same driver.
また、瞳の露出度から、白眼度合いを算出する。白眼度合いとは、目の全面積に対する、瞳以外の部分の面積の比率である。算出した白眼度合いが、基準白眼度合いに比べて大きいほど、ドライバの眠気の程度が高いと推定する。基準白眼度合いとは、同じドライバについて過去に複数回測定した白眼度合いの平均値である。 Also, the degree of white eye is calculated from the degree of exposure of the pupil. The degree of white eye is the ratio of the area of the part other than the pupil to the total area of the eye. It is estimated that the driver's drowsiness level is higher as the calculated white eye level is higher than the reference white eye level. The reference white-eye degree is an average value of white-eye degrees measured multiple times in the past for the same driver.
また、左右の瞳の位置から、視線方向を算出する。算出した視線方向が正面方向ではない時間が長いほど、ドライバの集中度が低いと推定する。また、算出した視線方向が正面方向ではない頻度が高いほど、ドライバの集中度が低いと推定する。 Further, the line-of-sight direction is calculated from the positions of the left and right pupils. It is estimated that the longer the calculated line-of-sight direction is not in the front direction, the lower the degree of driver concentration. Further, it is estimated that the driver's degree of concentration is lower as the calculated line-of-sight direction is not frequently in the front direction.
ステップ37では、顔の3次元情報を使用した処理(以下では3次元情報処理とする)を実行するか否かを判断する。なお、ユーザは、3次元情報処理を実行するか否かを予め車載機3に設定しておくことができる。この設定に基づき、3次元情報処理を実行するか否かを判断する。3次元情報処理を実行する場合、本処理はステップ38に進む。3次元情報処理を実行しない場合、本処理はステップ40に進む。
In
ステップ38では、前記ステップ34で生成した赤外画像において、目、鼻、口等の顔のパーツを認識する。また、前記ステップ34で生成した赤外画像において、顔の輪郭を認識する。 In step 38, facial parts such as eyes, nose and mouth are recognized in the infrared image generated in step 34. Further, the contour of the face is recognized in the infrared image generated in step 34.
ステップ39では、前記ステップ38での認識結果に基づき、ドライバの脇見の程度、ドライバの集中度を推定する。具体的には、以下の処理を行う。
まず、前記ステップ38での認識結果に基づき、ドライバの顔の向きを算出する。顔の向きとして、上向き、下向き、左向き、右向き、首をかしげた状態等がある。
In
First, the face orientation of the driver is calculated based on the recognition result in step 38. The orientation of the face includes upward, downward, leftward, rightward, and a state in which the head is bent.
次に、算出した顔の向きを、基準の顔の向きと比較する。基準の顔の向きとは、同じドライバについて過去に複数回算出した顔の向きを平均した顔の向きである。
算出した顔の向きが、基準の顔の向きに比べて大きく変化しているほど、ドライバの脇見の程度が高く、ドライバの集中度が低いと推定する。また、算出した顔の向きが、基準の顔の向きに比べて変化している頻度が高いほど、ドライバの脇見の程度が高く、ドライバの集中度が低いと推定する。
Next, the calculated face orientation is compared with the reference face orientation. The reference face orientation is a face orientation obtained by averaging face orientations calculated multiple times in the past for the same driver.
It is estimated that as the calculated face orientation changes more greatly than the reference face orientation, the driver's inattentiveness is high and the driver's concentration is low. Further, it is estimated that the higher the frequency with which the calculated face orientation changes compared to the reference face orientation, the higher the degree of inattentiveness of the driver and the lower the degree of concentration of the driver.
ステップ40では、ドライバの体調を判断するか否かを判断する。なお、ユーザは、ドライバの体調を判断するか否かを予め車載機3に設定しておくことができる。この設定に基づき、ドライバの体調を判断するか否かを判断する。ドライバの体調を判断する場合、本処理はステップ41に進む。ドライバの体調を判断しない場合、本処理はステップ43に進む。
In step 40, it is judged whether or not the physical condition of the driver is judged. The user can set in the vehicle-mounted
ステップ41では、前記ステップ34で生成した赤外画像において、ドライバの顔の位置、及びドライバの上体の傾きを読み取る。上体の傾きとして、例えば、左右への傾き、前後への傾き、つっぷし、えび反り等が挙げられる。
ステップ42では、前記ステップ41で読み取ったドライバの顔の位置、及びドライバの上体の傾きに基づき、ドライバの体調、及び集中度を推定する。具体的には、以下の処理を行う。
In
In step 42, the physical condition and concentration of the driver are estimated based on the position of the driver's face and the inclination of the driver's upper body read in
読み取ったドライバの顔の位置を、基準の顔の位置と比較する。基準の顔の位置とは、同じドライバについて過去に複数回読み取った顔の位置を平均した顔の位置である。また、読み取ったドライバの上体の傾きを、基準の上体の傾きと比較する。基準の上体の傾きとは、同じドライバについて過去に複数回読み取った上体の傾きを平均した上体の傾きである。 The read driver's face position is compared with the reference face position. The reference face position is a face position obtained by averaging the face positions read multiple times in the past for the same driver. Further, the driver's body inclination that has been read is compared with a reference body inclination. The reference body inclination is the body inclination obtained by averaging the body inclinations read a plurality of times in the past for the same driver.
読み取ったドライバの顔の位置が基準の顔の位置に比べて大きく変化しているほど、ドライバの体調が悪く、集中度が低いと推定する。また、読み取ったドライバの上体の傾きが基準の上体の傾きに比べて大きく変化しているほど、ドライバの体調が悪く、集中度が低いと推定する。 It is estimated that the driver's physical condition is poor and the degree of concentration is low as the position of the read driver's face changes more greatly than the reference face position. Further, it is estimated that the driver's physical condition is poor and the degree of concentration is low as the inclination of the read driver's body changes more greatly than the reference inclination of the body.
ステップ43では、現在時刻を取得する。現在時刻とは、ステップ43の処理を実行するときの時刻である。
ステップ44では、第1情報を生成する。第1情報は、前記ステップ43で取得した現在時刻を表す時刻情報と、前記ステップ36、39、42で推定した、ドライバの眠気の程度、脇見の程度、集中度、及び体調とを含む情報である。なお、以下では、ドライバの眠気の程度、脇見の程度、集中度、及び体調をまとめてドライバ状態と呼ぶことがある。第1情報はドライバ状態を表す情報である。第1情報において、時刻情報と、ドライバ状態とは対応付けられている。
At
In step 44, the first information is generated. The first information is information including the time information indicating the current time acquired in
ただし、前記ステップ39の処理を実行しなかった場合、ドライバ状態は、前記ステップ39で推定する脇見の程度及び集中度は含まない。また、前記ステップ42の処理を実行しなかった場合、ドライバ状態は、前記ステップ42で推定する体調及び集中度を含まない。
However, if the process of
図4に戻り、ステップ3では、通信部13を用いてサーバ5と通信を行うことが可能であるか否かを情報送信ユニット27が判断する。サーバ5と通信を行うことが可能である場合、本処理はステップ4に進む。サーバ5と通信を行うことが不可能である場合、本処理はステップ5に進む。サーバ5と通信を行うことが不可能である場合として、例えば、車載機3とサーバ5との間に山が存在する場合等がある。
Returning to FIG. 4, in
ステップ4では、情報送信ユニット27が、前記ステップ1で生成した第2情報と、前記ステップ2で生成した第1情報とを、通信部13を用いてサーバ5に送信する。
ステップ5では、情報記憶ユニット29が、前記ステップ1で生成した第2情報と、前記ステップ2で生成した第1情報とを、内部記憶装置15を用いて記憶媒体39に記憶する。
In step 4, the
In
ステップ6では、車両が走行を継続しているか否かを走行判断ユニット63が判断する。走行判断ユニット63は、例えば、車両の位置情報の変化、又は、図示しない車速センサの検出結果等に基づき、車両が走行を継続しているか否かを判断することができる。車両が走行を継続している場合、本処理はステップ1に進む。車両の走行が終了している場合、本処理はステップ7に進む。
In step 6, the traveling
ステップ7では、未送信情報が存在するか否かを情報送信ユニット27が判断する。未送信情報とは、前記ステップ5において記憶媒体39に記憶され、未だサーバ5へ送信されていない第1情報及び第2情報である。未送信情報が存在する場合、本処理はステップ8に進む。未送信情報が存在しない場合、本処理は終了する。
In
ステップ8では、通信部13を用いてサーバ5と通信を行うことが可能であるか否かを情報送信ユニット27が判断する。サーバ5と通信を行うことが可能である場合、本処理はステップ9に進む。サーバ5と通信を行うことが不可能である場合、本処理はステップ10に進む。
In step 8, the
ステップ9では、情報送信ユニット27が、通信部13を用いて未送信情報をサーバ5に送信する。
ステップ10では、報知ユニット31がLED灯17を点灯させる。ユーザは、LED灯17が点灯していることにより、記憶媒体39に未送信情報が記憶されていることを知ることができる。そして、ユーザは、記憶媒体39を内部記憶装置15から取り外し、媒体読取部45に取り付けることができる。
In
In step 10, the
3.サーバ5が実行する処理
サーバ5が所定時間ごとに繰り返し実行する処理を図7、図8に基づき説明する。図7のステップ51では、車両からの情報送信があるか否かを情報取得ユニット57が判断する。車両からの情報送信がある場合、本処理はステップ52に進む。車両からの情報送信がない場合、本処理はステップ51の前に戻る。
3. Processing executed by the
ステップ52では、情報取得ユニット57が、通信部43を用いて情報を取得する。取得する情報は、前記ステップ4において車載機3が送信した第1情報及び第2情報である。
ステップ53では、リアルタイム処理を実行するか否かをハザードマップ生成ユニット59が判断する。なお、ユーザは、リアルタイム処理を実行するか否かを予めサーバ5に設定しておくことができる。この設定に基づき、リアルタイム処理を実行するか否かを判断する。リアルタイム処理を実行する場合、本処理はステップ54に進む。リアルタイム処理を実行しない場合、本処理はステップ55に進む。
In step 52, the
In
ステップ54では、ハザードマップ生成ユニット59がリアルタイム処理を実行する。この処理を図8に基づき説明する。図8に示す処理の各ステップは、ハザードマップ生成ユニット59により実行される。
In step 54, the hazard
図8のステップ71では、前記ステップ52で取得した情報から、時刻情報が近似する第1情報と第2情報との組み合わせを抽出する。抽出された第2情報が表す車両の位置は、同時に抽出された第1情報を車載機3が取得したときの車両の位置である。
In step 71 of FIG. 8, a combination of the first information and the second information having similar time information is extracted from the information acquired in step 52. The position of the vehicle represented by the extracted second information is the position of the vehicle when the vehicle-mounted
ステップ72では、地図情報記憶部49から地図情報を取得する。
ステップ73では、前記ステップ72で取得した地図情報において、前記ステップ71で抽出した第2情報が表す車両の位置に、前記ステップ71で抽出した第1情報が表すドライバ状態を対応付ける。
In step 72, the map information is acquired from the map
In step 73, in the map information acquired in step 72, the position of the vehicle represented by the second information extracted in step 71 is associated with the driver state represented by the first information extracted in step 71.
ステップ74では、前記ステップ52で取得した情報であって、前記ステップ71において未だ抽出されていない情報が存在するか否かを判断する。未だ抽出されていない情報が存在する場合、本処理はステップ71に進む。前記ステップ52で取得した全ての情報が抽出済みである場合、本処理はステップ75に進む。 In step 74, it is determined whether or not there is the information acquired in step 52 that has not been extracted in step 71. If there is information that has not been extracted yet, the process proceeds to step 71. If all the information acquired in step 52 has been extracted, the process proceeds to step 75.
ステップ75では、地図情報を、対応付けられたドライバ状態に応じて色分けする。例えば、地図情報のうち、特定のドライバ状態が対応付けられた領域に、その特定のドライバ状態を表す色を付する。 In step 75, the map information is color-coded according to the associated driver status. For example, in the map information, a region associated with a specific driver state is colored with a color representing the specific driver state.
以上の処理により、ハザードマップが生成する。ハザードマップとは、地図情報における複数の位置のそれぞれに、該当する位置に車両が存在したときのドライバ状態を対応付けたマップである。サーバ5は、ハザードマップを表示部51に表示することができる。
A hazard map is generated by the above processing. The hazard map is a map in which each of the plurality of positions in the map information is associated with the driver state when the vehicle is present at the corresponding position. The
図7に戻り、ステップ55では、情報記憶ユニット61が、前記ステップ52で取得した情報をデータベース47に記憶する。
ステップ56では、情報を送信した車両が停止したか否かを走行判断ユニット63が判断する。走行判断ユニット63は、例えば、第2情報に含まれる位置情報の推移に基づき、情報を送信した車両が停止したか否かを判断することができる。情報を送信した車両が停止した場合、本処理はステップ57に進む。情報を送信した車両が未だ停止していない場合、本処理はステップ51に進む。
Returning to FIG. 7, in
In step 56, the traveling
ステップ57では、車両からの追加の情報送信があるか否かを情報取得ユニット57が判断する。車両からの追加の情報送信とは、前記ステップ9において車載機3が行う情報送信である。車両からの追加の情報送信がある場合、本処理はステップ58に進む。車両からの追加の情報送信がない場合、本処理はステップ59に進む。
In
ステップ58では、追加の情報送信により送信された情報を情報記憶ユニット61がデータベース47に記憶する。
ステップ59では、未処理情報があるか否かをハザードマップ生成ユニット59が判断する。未処理情報として、前記ステップ55又は前記ステップ58でデータベース47に記憶された情報がある。また、未処理情報として、記憶媒体39に記憶された情報がある。記憶媒体39に記憶された情報とは、前記ステップ5で記憶媒体39に記憶された未送信情報である。未処理情報は、1のみの車載機3から取得した情報から成っていてもよいし、複数の車載機3から取得した情報を含んでいてもよい。未処理情報がある場合、本処理はステップ60に進む。未処理情報がない場合、本処理は終了する。
In step 58, the
In
ステップ60では、ハザードマップ生成ユニット59が未処理情報処理を実行する。未処理情報処理は、基本的には前記ステップ53のリアルタイム処理と同様である。ただし、未処理情報処理では、前記ステップ52で取得した情報ではなく、未処理情報から第1情報及び第2情報の組み合わせを抽出してハザードマップを生成する。また、既にリアルタイム処理を実行している場合、未処理情報処理では、リアルタイム処理で生成したハザードマップに対し、さらに処理を行う。
In step 60, the hazard
よって、リアルタイム処理と、未処理情報処理との両方を実行した場合、生成したハザードマップには、前記ステップ52で取得した第2情報が表す車両の位置に、前記ステップ52で取得した第1情報が表すドライバ状態が対応付けられているとともに、未処理情報に含まれる第2情報が表す車両の位置に、未処理情報に含まれる第1情報が表すドライバ状態が対応付けられている。 Therefore, when both the real-time processing and the unprocessed information processing are executed, in the generated hazard map, the position of the vehicle represented by the second information acquired in step 52 is set to the first information acquired in step 52. Is associated with the driver state, and the vehicle position represented by the second information included in the unprocessed information is associated with the driver state represented by the first information included in the unprocessed information.
4.運行管理システム1が奏する効果
(1A)運行管理システム1はハザードマップを生成することができる。ユーザは、ハザードマップを見ることで、地図上の各位置でどのようなドライバ状態が生じ易いかを容易に理解することができる。よって、ユーザは、ハザードマップを車両の運行管理に利用することができる。
4. Effects of Operation Management System 1 (1A) The
(1B)サーバ5は、車載機3との通信により、又は、記憶媒体39から、第1情報及び第2情報を取得することができる。そのため、サーバ5は、容易且つ確実に第1情報及び第2情報を取得することができる。
(1B) The
(1C)車載機3は、ドライバの顔を含む範囲を表す赤外画像を取得する。そして、車載機3は、赤外画像に基づき、ドライバ状態を推定する。そのため、車載機3は、ドライバ状態を容易且つ正確に推定することができる。
(1C) The vehicle-mounted
(1D)車載機3は、GPS11を用いて、第2情報が表す車両の位置を取得する。そのため、車載機3は、車両の位置を容易且つ正確に取得することができる。
5.他の実施形態
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1D) The
5. Other Embodiments The embodiments of the present disclosure have been described above, but the present disclosure is not limited to the above-described embodiments, and various modifications can be implemented.
(1)車載機3は、車載通信機、又は、車両に搭載された携帯端末等を用いて、第2情報が表す車両の位置を取得してもよい。この場合も、GPS11を用いる場合と同様の効果を奏する。携帯端末として、例えば、スマートフォン等が挙げられる。車載通信機とは、車両に搭載された、通信機能を有する機器である。車載通信機は、通信部13であってもよいし、他の車載通信機であってもよい。
(1) The in-
(2)第1情報及び第2情報の少なくとも一方は、ドライバの識別情報を含んでいてもよい。サーバ5は、ハザードマップを生成するとき、ドライバ状態とともに、ドライバの識別情報も、車両の位置に対応付けてもよい。この場合、ユーザは、ハザードマップを見ることで、特定のドライバのドライバ状態が地図上でどのように変化しているのかを理解することができる。
(2) At least one of the first information and the second information may include identification information of the driver. When generating the hazard map, the
(3)第1状態が表すドライバ状態は、ドライバの眠気の程度、脇見の程度、集中度、及び体調のうち、1〜3種であってもよい。
(4)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(3) The driver state represented by the first state may be one to three of the driver's drowsiness level, inattentiveness level, concentration level, and physical condition.
(4) A plurality of functions of one constituent element in the above-described embodiment may be realized by a plurality of constituent elements, or one function of one constituent element may be realized by a plurality of constituent elements. .. Further, a plurality of functions of a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above-described embodiment may be added or replaced with respect to the configuration of the other above-described embodiment.
(5)上述した運行管理装置の他、当該運行管理装置を構成要素とするシステム、当該運行管理装置の制御部又はサーバの制御部としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、運行管理方法等、種々の形態で本開示を実現することもできる。 (5) In addition to the operation management device described above, a system having the operation management device as a component, a program for causing a computer to function as a control unit of the operation management device or a control unit of a server, and a semiconductor memory recording the program The present disclosure can also be realized in various forms such as a non-transitional actual recording medium, an operation management method, and the like.
1…運行管理システム、3…車載機、5…サーバ、23…第1情報生成ユニット、25…第2情報生成ユニット、27…情報送信ユニット、29…情報記憶ユニット、31…報知ユニット、33…走行判断ユニット、39…記憶媒体、57…情報取得ユニット、59…ハザードマップ生成ユニット、61…情報記憶ユニット、63…走行判断ユニット
DESCRIPTION OF
Claims (5)
地図における、前記第2情報が表す前記車両の位置に、前記第1情報が表す前記ドライバ状態を対応付けてハザードマップを生成するように構成されたハザードマップ生成ユニット(59)と、
を備える運行管理装置(5)。 First information indicating a driver state including two or more selected from the group consisting of a drowsiness level of a vehicle driver, an inattentiveness level, a concentration level, and a physical condition, and a position of the vehicle when the first information is acquired An information acquisition unit (57) configured to acquire the first information and the second information from an in-vehicle device (3) having a function of transmitting second information indicating
A hazard map generation unit (59) configured to generate a hazard map by associating the position of the vehicle represented by the second information on the map with the driver state represented by the first information;
An operation management device (5) provided with.
前記情報取得ユニットは、前記車載機との通信により、又は、前記第1情報及び前記第2情報を記憶した記憶媒体から、前記第1情報及び前記第2情報を取得するように構成された運行管理装置。 The operation management device according to claim 1,
The information acquisition unit is configured to acquire the first information and the second information by communication with the vehicle-mounted device or from a storage medium that stores the first information and the second information. Management device.
前記車載機と、
を備える運行管理システム(1)。 The operation management device according to claim 1 or 2,
The in-vehicle device,
An operation management system (1) equipped with.
前記車載機は、
前記ドライバの顔を含む範囲を表す赤外画像を取得するように構成された画像取得ユニット(23)と、
前記赤外画像に基づき、前記ドライバ状態を推定するように構成されたドライバ状態推定ユニット(23)と、
を備える運行管理システム。 The operation management system according to claim 3,
The in-vehicle device is
An image acquisition unit (23) configured to acquire an infrared image representing a range including the driver's face;
A driver state estimation unit (23) configured to estimate the driver state based on the infrared image;
An operation management system equipped with.
前記車載機は、GPS、車載通信機、又は、前記車両に搭載された携帯端末を用いて、前記第2情報が表す前記車両の位置を取得するように構成された運行管理システム。 The operation management system according to claim 3 or 4,
The operation management system configured to acquire the position of the vehicle represented by the second information by using the GPS, the in-vehicle communication device, or the mobile terminal mounted on the vehicle, in the in-vehicle apparatus.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018208167A JP2020077037A (en) | 2018-11-05 | 2018-11-05 | Operation management device and operation management system |
PCT/JP2019/043314 WO2020095904A1 (en) | 2018-11-05 | 2019-11-05 | Operation management apparatus and operation management system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018208167A JP2020077037A (en) | 2018-11-05 | 2018-11-05 | Operation management device and operation management system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020077037A true JP2020077037A (en) | 2020-05-21 |
Family
ID=70611907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018208167A Pending JP2020077037A (en) | 2018-11-05 | 2018-11-05 | Operation management device and operation management system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020077037A (en) |
WO (1) | WO2020095904A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065527A (en) * | 2009-09-18 | 2011-03-31 | Toyota Motor Corp | Driving evaluation system, vehicle-mounted machine, and information processing center |
JP2014095987A (en) * | 2012-11-08 | 2014-05-22 | Denso Corp | In-vehicle unit and vehicle safety control system |
JP2015194884A (en) * | 2014-03-31 | 2015-11-05 | パナソニックIpマネジメント株式会社 | driver monitoring system |
JP2016057944A (en) * | 2014-09-11 | 2016-04-21 | 株式会社デンソー | Driver state determination device |
-
2018
- 2018-11-05 JP JP2018208167A patent/JP2020077037A/en active Pending
-
2019
- 2019-11-05 WO PCT/JP2019/043314 patent/WO2020095904A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065527A (en) * | 2009-09-18 | 2011-03-31 | Toyota Motor Corp | Driving evaluation system, vehicle-mounted machine, and information processing center |
JP2014095987A (en) * | 2012-11-08 | 2014-05-22 | Denso Corp | In-vehicle unit and vehicle safety control system |
JP2015194884A (en) * | 2014-03-31 | 2015-11-05 | パナソニックIpマネジメント株式会社 | driver monitoring system |
JP2016057944A (en) * | 2014-09-11 | 2016-04-21 | 株式会社デンソー | Driver state determination device |
Also Published As
Publication number | Publication date |
---|---|
WO2020095904A1 (en) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2756256C1 (en) | System and methods for monitoring the behaviour of the driver for controlling a car fleet in a fleet of vehicles using an imaging apparatus facing the driver | |
RU2764646C2 (en) | System and methods for monitoring the behaviour of the driver for controlling a car fleet in a fleet of vehicles using an imaging apparatus facing the driver | |
US10317900B2 (en) | Controlling autonomous-vehicle functions and output based on occupant position and attention | |
JP6497915B2 (en) | Driving support system | |
US10636301B2 (en) | Method for assisting operation of an ego-vehicle, method for assisting other traffic participants and corresponding assistance systems and vehicles | |
US10152642B2 (en) | Method for detecting driving behavior and system using the same | |
CN108068698A (en) | Vehicular system and vehicle | |
US20170143253A1 (en) | Device, method and computer program for detecting momentary sleep | |
CN109791739A (en) | Carsick estimation device, carsick anti-locking apparatus and carsick estimation method | |
CN109383525A (en) | Driver status grasps device, driver status grasps system and method | |
US20180229654A1 (en) | Sensing application use while driving | |
JP2017220094A (en) | Vehicle-mounted device | |
JP6319506B1 (en) | Evaluation device, evaluation system, vehicle, and program | |
CN109421733A (en) | Driver condition grasps device, driver condition grasps system and method | |
CN110448316A (en) | Data processing equipment and method, wake up system and recording medium at monitoring system | |
CN109177922A (en) | Vehicle starting method, device, equipment and storage medium | |
JP2017222271A (en) | Display controller for vehicle | |
CN109272764B (en) | Dangerous driving reminding method and system | |
JP2015048007A (en) | Information display device | |
JP2010029537A (en) | Wakefulness level determining apparatus | |
JP2016115117A (en) | Determination device and determination method | |
JP2020086907A (en) | Careless driving determination device | |
WO2020095904A1 (en) | Operation management apparatus and operation management system | |
US11807264B2 (en) | Driving assistance apparatus, driving assistance method, and medium | |
JP6449504B1 (en) | Information processing apparatus, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220111 |