WO2019146435A1 - 運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体 - Google Patents
運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体 Download PDFInfo
- Publication number
- WO2019146435A1 WO2019146435A1 PCT/JP2019/000782 JP2019000782W WO2019146435A1 WO 2019146435 A1 WO2019146435 A1 WO 2019146435A1 JP 2019000782 W JP2019000782 W JP 2019000782W WO 2019146435 A1 WO2019146435 A1 WO 2019146435A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- line
- driver
- range
- sight
- driving
- Prior art date
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract description 32
- 238000012544 monitoring process Methods 0.000 title claims description 29
- 238000000034 method Methods 0.000 title claims description 23
- 238000004364 calculation method Methods 0.000 claims abstract description 32
- 230000010365 information processing Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 5
- 230000001133 acceleration Effects 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 3
- 210000003128 head Anatomy 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/302—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/70—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
Definitions
- Patent Document 1 discloses a technique for obtaining a region where the driver's ideal line-of-sight distribution and the actual line-of-sight distribution do not overlap in driving a vehicle, and displaying information specifying this region as safe driving support information.
- FIG. 1 shows a driving situation monitoring system according to an embodiment of the present invention. It is a hardware block diagram of the driving
- the predetermined situation time determination unit 14 detects that the vehicle is in the predetermined situation based on the acceleration, it detects the time when the vehicle is in the predetermined situation. For example, when the acceleration included in the driving situation data is linked to the time information, the predetermined situation time determination unit 14 reads the time information linked to the acceleration used to determine that the predetermined situation is, and the time Is detected as the time when the vehicle is in a predetermined situation.
- the predetermined situation time determination unit 14 generates predetermined situation occurrence information including a situation ID indicating a predetermined driving situation of the vehicle, a time when the situation occurs, and a driver ID (step S304).
- the predetermined situation time determination unit 14 records the generated predetermined situation occurrence information in the database 104.
- the predetermined situation time determination unit 14 determines whether predetermined situation occurrence information has been generated for all driver IDs (step S305). The predetermined situation time determination unit 14 repeats the process until generation of the predetermined situation occurrence information is completed for all driver IDs.
- the line-of-sight range calculation unit 15 acquires a plurality of frame images of the period from the start time to the end time of the situation occurrence time among the frame images in the photographed image.
- the line-of-sight range calculation unit 15 calculates the direction vector of the face of the driver appearing in the frame images with respect to the front direction and the direction vector of the pupil of the eyeball with respect to the front direction.
- the direction vector of the face and the direction vector of the pupil are, for example, in the range of 360 degrees in the horizontal direction centering on the head position of the driver (for example, in the range of -180 to 180 degrees with the front direction as 0 degree). Indicates one of the angles (directions).
- FIG. 10A and 10B are diagrams showing an outline of a report image.
- FIG. 10A is a diagram showing the entire sight range.
- the vehicle is positioned at the position of the driver's head, and an image showing the 360-degree line-of-sight range around the vehicle and the line-of-sight range when the driver changes the line of sight to the door mirror or rearview mirror Represent.
- the range of the sight line direction of the driver includes the direction in which the door mirror and the rear view mirror are located
- the mirror ID indicating the mirror may be included in the sight line range information.
- the report information generation unit 16 may include the gaze range corresponding to the mirror ID in the driver gaze range.
- FIG. 10B shows an example of a report image. As shown in FIG.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
Abstract
運転状況監視装置は、運転者の視線を示す視線情報と、前記運転者による運転の状況を示す運転状況情報とを取得する取得部と、前記視線情報と前記運転状況情報とに基づいて、所定の運転状況における前記運転者の視線範囲を算出する算出部と、前記所定の運転状況において推奨されている視線の範囲である推奨視線範囲と前記運転者の視線範囲とに基づいて、前記運転者による視認が不足している範囲である視認不足範囲を判定する判定部と、を備える。
Description
本発明は、運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体に関する。
車両の運転において運転者の理想の視線分布と実際の視線分布が重なっていない領域を求め、この領域を明示する情報を安全運転支援情報として表示する技術が特許文献1に開示されている。
車両、船舶、航空機などの移動体の運転においてはフロントガラス等の前面の視認空間以外にも後方等のより広い範囲の視認を運転状況に応じて行う必要がある。そして、運転状況に応じた視線範囲の不足をより適切に運転者自身が認識することのできる技術が求められている。
この発明の目的の一例は、上述の課題を解決する運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体を提供することである。
本発明の第1の態様によれば、運転状況監視装置は、運転者の視線を示す視線情報と、前記運転者による運転の状況を示す運転状況情報とを取得する取得部と、前記視線情報と前記運転状況情報とに基づいて、所定の運転状況における前記運転者の視線範囲を算出する算出部と、前記所定の運転状況において推奨されている視線の範囲である推奨視線範囲と前記運転者の視線範囲とに基づいて、前記運転者による視認が不足している範囲である視認不足範囲を判定する判定部と、を備える。
本発明の第2の態様によれば、運転状況監視システムは、運転状況監視装置と運転状況センシング装置とを備える。運転状況センシング装置は、運転者の視線を示す視線情報と、前記運転者による運転の状況を示す運転状況情報とを取得する。前記運転状況監視装置は、前記視線情報と前記運転状況情報とを前記運転状況センシング装置から取得する取得部と、前記視線情報と前記運転状況に基づいて、所定の運転状況における前記運転者の視線範囲を算出する算出部と、前記所定の運転状況において推奨されている視線の範囲である推奨視線範囲と前記運転者の視線範囲とに基づいて、前記運転者による視認が不足している範囲である視認不足視線範囲を判定する判定部と、を備える。
本発明の第3の態様によれば、運転状況監視方法は、運転者の視線を示す視線情報と、前記運転者による運転の状況を示す運転状況情報とを取得し、前記視線情報と前記運転状況情報とに基づいて、所定の運転状況における前記運転者の視線範囲を算出し、前記所定の運転状況において推奨されている視線の範囲である推奨視線範囲と前記運転者の視線範囲とに基づいて、前記運転者による視認が不足している範囲である視認不足範囲を判定する、ことを含む。
本発明の第4の態様によれば、記憶媒体は、運転者の視線を示す視線情報と、前記運転者による運転の状況を示す運転状況情報とを取得し、前記視線情報と前記運転状況情報とに基づいて、所定の運転状況における前記運転者の視線範囲を算出し、前記所定の運転状況において推奨されている視線の範囲である推奨視線範囲と前記運転者の視線範囲とに基づいて、前記運転者による視認が不足している範囲である視認不足範囲を判定する、ことをコンピュータに実行させるためのプログラムを記憶している。
本発明の実施形態によれば、運転状況に応じた視線範囲の不足をより適切に運転者自身が認識することができる。
以下、本発明の実施形態による運転状況監視装置を図面を参照して説明する。
図1は本発明の実施形態による運転状況監視システムを示す図である。
図1で示すように運転状況監視システム100は運転状況監視装置1と、運転状況センシング装置の一態様であるドライブレコーダ2と含む。運転状況監視装置1とドライブレコーダ2とは無線通信ネットワークや有線通信ネットワークを介して接続される。運転状況監視装置1は車、船舶、航空機などの移動体に設けられた装置であってもよい。運転状況監視装置1は、移動体とは離れた遠隔地に設置されたサーバ装置として構成されていてもよい。ドライブレコーダ2は移動体内に設けられている。以下、移動体が車両である場合について説明を行う。
図1は本発明の実施形態による運転状況監視システムを示す図である。
図1で示すように運転状況監視システム100は運転状況監視装置1と、運転状況センシング装置の一態様であるドライブレコーダ2と含む。運転状況監視装置1とドライブレコーダ2とは無線通信ネットワークや有線通信ネットワークを介して接続される。運転状況監視装置1は車、船舶、航空機などの移動体に設けられた装置であってもよい。運転状況監視装置1は、移動体とは離れた遠隔地に設置されたサーバ装置として構成されていてもよい。ドライブレコーダ2は移動体内に設けられている。以下、移動体が車両である場合について説明を行う。
図2は運転状況監視装置のハードウェア構成図である。
この図が示すように運転状況監視装置1はCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、データベース104、通信モジュール105等の各ハードウェアを備えたコンピュータである。
この図が示すように運転状況監視装置1はCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、データベース104、通信モジュール105等の各ハードウェアを備えたコンピュータである。
図3は運転状況監視装置の機能ブロック図である。
運転状況監視装置1は電源が投入されると起動し、予め記憶する運転状況監視プログラムを実行する。これにより運転状況監視装置1には、制御部11、センシングデータ取得部12、画像取得部13、所定状況時刻判定部(特定部)14、視線範囲算出部15、報告情報生成部16、出力部17としての機能が実行可能になる。
運転状況監視装置1は電源が投入されると起動し、予め記憶する運転状況監視プログラムを実行する。これにより運転状況監視装置1には、制御部11、センシングデータ取得部12、画像取得部13、所定状況時刻判定部(特定部)14、視線範囲算出部15、報告情報生成部16、出力部17としての機能が実行可能になる。
制御部11は運転状況監視装置1の各機能部を制御する。
センシングデータ取得部12は、複数項目の運転状況を含む運転状況データを取得する。
画像取得部13は、ドライブレコーダ2が撮影した撮影画像を取得する。
所定状況時刻判定部14は、運転状況情報に基づいて所定の運転状況の時刻を判定する。実施形態において所定の運転状況の時刻とは、右折時の時刻、左折時の時刻、バック運転時の時刻、などである。
視線範囲算出部15は、所定の運転状況を示す運転状況情報に応じた運転者視線範囲を運転時視線情報に基づいて算出する。
報告情報生成部16は、所定の運転状況について予め記憶する推奨視線範囲と運転者視線範囲とに基づいて視認不足範囲(視認不足視線範囲)を判定する。報告情報生成部16は、複数回の所定の運転状況それぞれについて視認不足視線範囲を算出し、算出された複数の視認不足視線範囲の統計情報に基づいて視認不足範囲を判定してよい。報告情報生成部16は、一例として、その統計情報に基づいて得られた視認不足範囲と、推奨視線範囲とを少なくとも視認できる画像情報を含む報告情報を生成する。
出力部17は報告情報を出力する。
センシングデータ取得部12は、複数項目の運転状況を含む運転状況データを取得する。
画像取得部13は、ドライブレコーダ2が撮影した撮影画像を取得する。
所定状況時刻判定部14は、運転状況情報に基づいて所定の運転状況の時刻を判定する。実施形態において所定の運転状況の時刻とは、右折時の時刻、左折時の時刻、バック運転時の時刻、などである。
視線範囲算出部15は、所定の運転状況を示す運転状況情報に応じた運転者視線範囲を運転時視線情報に基づいて算出する。
報告情報生成部16は、所定の運転状況について予め記憶する推奨視線範囲と運転者視線範囲とに基づいて視認不足範囲(視認不足視線範囲)を判定する。報告情報生成部16は、複数回の所定の運転状況それぞれについて視認不足視線範囲を算出し、算出された複数の視認不足視線範囲の統計情報に基づいて視認不足範囲を判定してよい。報告情報生成部16は、一例として、その統計情報に基づいて得られた視認不足範囲と、推奨視線範囲とを少なくとも視認できる画像情報を含む報告情報を生成する。
出力部17は報告情報を出力する。
図4はドライブレコーダのハードウェア構成を示す図である。
ドライブレコーダ2は、センサ21、通信装置22、カメラ23、制御装置24、記憶装置25などを含んで構成される。センサ21は加速度センサ211、GPSセンサ213などであってよい。これらのセンサ21がドライブレコーダ2の外部の車両に設置されて、ドライブレコーダ2がそれらセンサ21によってセンシングされた情報を取得してもよい。
通信装置22は運転状況監視装置1と通信可能に接続する。カメラ23は車両の外部や内部を撮影した撮影画像を生成する。制御装置24はドライブレコーダ2の各機能を制御する。記憶装置25は撮影画像、センサ21でセンシングされた各種情報を記憶する。ドライブレコーダ2の制御装置24は、CPU、ROM、RAM等を備えたコンピュータである。
ドライブレコーダ2は、センサ21、通信装置22、カメラ23、制御装置24、記憶装置25などを含んで構成される。センサ21は加速度センサ211、GPSセンサ213などであってよい。これらのセンサ21がドライブレコーダ2の外部の車両に設置されて、ドライブレコーダ2がそれらセンサ21によってセンシングされた情報を取得してもよい。
通信装置22は運転状況監視装置1と通信可能に接続する。カメラ23は車両の外部や内部を撮影した撮影画像を生成する。制御装置24はドライブレコーダ2の各機能を制御する。記憶装置25は撮影画像、センサ21でセンシングされた各種情報を記憶する。ドライブレコーダ2の制御装置24は、CPU、ROM、RAM等を備えたコンピュータである。
図5はドライブレコーダに備わる制御装置の機能ブロック図である。
制御装置24はドライブレコーダが起動すると制御プログラムを実行する。これにより制御装置24には、車両情報取得部241、位置情報取得部242、加速度情報取得部243、画像生成部245、運転状況データ送信部246、画像送信部248としての機能が実行可能になる。
制御装置24はドライブレコーダが起動すると制御プログラムを実行する。これにより制御装置24には、車両情報取得部241、位置情報取得部242、加速度情報取得部243、画像生成部245、運転状況データ送信部246、画像送信部248としての機能が実行可能になる。
車両情報取得部241は、ドライブレコーダに挿入されたメモリに記録されている情報(運転者ID、車両種別、車両ID)や、その他の情報、例えば、車両の加速度を取得する。さらに、車両情報取得部241は、位置情報とは異なる情報である、車両に設けられたセンサより取得されたセンシング情報を含む車両情報を取得する。車両情報取得部241の取得できる情報としては、例えば、運転始動時刻、運転停止時刻、時刻に応じた車両速度、車内温度などの情報が含まれてよい。
位置情報取得部242は車両の時刻に応じた位置(緯度、経度)の情報をGPSセンサ213などから取得する。
加速度情報取得部243は車両の時刻に応じた加速度の情報を加速度センサ211から取得する。
画像生成部245はカメラ23の撮影によりカメラ23から撮影データ画像を取得し撮影画像を生成する。
運転状況データ送信部246は、車両情報、位置情報、加速度情報を少なくとも含む運転状況データを運転状況監視装置1へ送信する。
画像送信部248は画像生成部245の生成した撮影画像を運転状況監視装置1へ送信する。
位置情報取得部242は車両の時刻に応じた位置(緯度、経度)の情報をGPSセンサ213などから取得する。
加速度情報取得部243は車両の時刻に応じた加速度の情報を加速度センサ211から取得する。
画像生成部245はカメラ23の撮影によりカメラ23から撮影データ画像を取得し撮影画像を生成する。
運転状況データ送信部246は、車両情報、位置情報、加速度情報を少なくとも含む運転状況データを運転状況監視装置1へ送信する。
画像送信部248は画像生成部245の生成した撮影画像を運転状況監視装置1へ送信する。
図6はドライブレコーダの処理フローを示す第一の図である。
次に運転状況監視システムの処理フローについて順を追って説明する。
まずドライブレコーダ2における運転状況データの送信処理について説明する。
車両の電気系統が起動するとドライブレコーダ2が動作を始動する(ステップS101)。ドライブレコーダ2のセンサ21それぞれは、ドライブレコーダ2の始動後に各種センシングを開始する(ステップS102)。またカメラ23は撮影を開始する(ステップS103)。そしてドライブレコーダ2の動作中、制御装置24の車両情報取得部241は車両情報を取得する(ステップS104)。車両情報取得部241は車両情報に含まれるセンシング情報を所定の時間間隔で繰り替えし取得してよい。位置情報取得部242はGPSセンサ213から緯度経度を所定の時間間隔毎に取得する(ステップS105)。加速度情報取得部243は、加速度センサ211から加速度を所定の時間間隔毎に取得する(ステップS106)。所定の時間間隔毎にとは、例えば0.1秒毎などであってよい。運転状況データ送信部246は、車両情報、位置情報(緯度、経度)、加速度を取得する。運転状況データ送信部246は、それらの取得された情報と運転状況データの生成時刻とドライブレコーダ2のIDと運転者IDとを含む運転状況データを生成する(ステップS107)。運転状況データ送信部246はその運転状況データの運転状況監視装置1への送信を通信装置22へ要求する。通信装置22は運転状況データを運転状況監視装置1へ送信する(ステップS108)。制御装置24は処理終了かを判定し(ステップS109)、処理終了までステップS102からの処理を繰り返す。
次に運転状況監視システムの処理フローについて順を追って説明する。
まずドライブレコーダ2における運転状況データの送信処理について説明する。
車両の電気系統が起動するとドライブレコーダ2が動作を始動する(ステップS101)。ドライブレコーダ2のセンサ21それぞれは、ドライブレコーダ2の始動後に各種センシングを開始する(ステップS102)。またカメラ23は撮影を開始する(ステップS103)。そしてドライブレコーダ2の動作中、制御装置24の車両情報取得部241は車両情報を取得する(ステップS104)。車両情報取得部241は車両情報に含まれるセンシング情報を所定の時間間隔で繰り替えし取得してよい。位置情報取得部242はGPSセンサ213から緯度経度を所定の時間間隔毎に取得する(ステップS105)。加速度情報取得部243は、加速度センサ211から加速度を所定の時間間隔毎に取得する(ステップS106)。所定の時間間隔毎にとは、例えば0.1秒毎などであってよい。運転状況データ送信部246は、車両情報、位置情報(緯度、経度)、加速度を取得する。運転状況データ送信部246は、それらの取得された情報と運転状況データの生成時刻とドライブレコーダ2のIDと運転者IDとを含む運転状況データを生成する(ステップS107)。運転状況データ送信部246はその運転状況データの運転状況監視装置1への送信を通信装置22へ要求する。通信装置22は運転状況データを運転状況監視装置1へ送信する(ステップS108)。制御装置24は処理終了かを判定し(ステップS109)、処理終了までステップS102からの処理を繰り返す。
図7はドライブレコーダの処理フローを示す第二の図である。
ドライブレコーダ2は運転状況データの送信処理と並行して撮影画像送信処理を行う。まずドライブレコーダ2が始動すると、制御装置24の画像生成部245はカメラ23から撮影データを取得しドライブレコーダ2のIDと運転者IDとを含む撮影画像を生成する(ステップS201)。画像生成部245は画像送信部248に撮影画像を出力する。画像送信部248は一時的に撮影画像を記憶する(ステップS202)。画像送信部248は運転状況監視装置1からの撮影画像要求を受信する(ステップS203)。画像送信部248は撮影画像要求の受信に応答して、撮影画像要求の受信後に、再起動時に一時的に記憶した撮影画像を運転状況監視装置1に送信する(ステップS204)。画像送信部248は得られた撮影画像を定期的に運転状況監視装置1に送信してもよい。別法として、画像送信部248は撮影画像をストリーミング処理によって運転状況監視装置1に送信してもよい。制御装置24は処理を終了するかを判定する(ステップS205)。制御装置24はドライブレコーダ2の動作中、ステップS201~ステップS205の処理を繰り返す。
ドライブレコーダ2は運転状況データの送信処理と並行して撮影画像送信処理を行う。まずドライブレコーダ2が始動すると、制御装置24の画像生成部245はカメラ23から撮影データを取得しドライブレコーダ2のIDと運転者IDとを含む撮影画像を生成する(ステップS201)。画像生成部245は画像送信部248に撮影画像を出力する。画像送信部248は一時的に撮影画像を記憶する(ステップS202)。画像送信部248は運転状況監視装置1からの撮影画像要求を受信する(ステップS203)。画像送信部248は撮影画像要求の受信に応答して、撮影画像要求の受信後に、再起動時に一時的に記憶した撮影画像を運転状況監視装置1に送信する(ステップS204)。画像送信部248は得られた撮影画像を定期的に運転状況監視装置1に送信してもよい。別法として、画像送信部248は撮影画像をストリーミング処理によって運転状況監視装置1に送信してもよい。制御装置24は処理を終了するかを判定する(ステップS205)。制御装置24はドライブレコーダ2の動作中、ステップS201~ステップS205の処理を繰り返す。
図8は運転状況監視装置の処理フローを示す図である。
運転状況監視装置1において、センシングデータ取得部12はドライブレコーダ2の通信装置22が送信した運転状況データを、通信モジュール105を介して取得する(ステップS301)。センシングデータ取得部12は運転状況データに含まれるドライブレコーダ2のIDや運転者IDを読み取る。センシングデータ取得部12はドライブレコーダ2のIDや運転者IDに紐づけて運転状況データをデータベース104に格納する。センシングデータ取得部12はこの処理を繰り返す。
また画像取得部13はドライブレコーダ2の通信装置22が送信した撮影画像を、通信モジュール105を介して取得する(ステップS302)。画像取得部13は撮影画像に含まれるドライブレコーダ2のIDや運転者IDを読み取る。画像取得部13はドライブレコーダ2のIDや運転者IDに紐づけて撮影画像をデータベース104に格納する。画像取得部13はこの処理を繰り返す。
運転状況監視装置1において、センシングデータ取得部12はドライブレコーダ2の通信装置22が送信した運転状況データを、通信モジュール105を介して取得する(ステップS301)。センシングデータ取得部12は運転状況データに含まれるドライブレコーダ2のIDや運転者IDを読み取る。センシングデータ取得部12はドライブレコーダ2のIDや運転者IDに紐づけて運転状況データをデータベース104に格納する。センシングデータ取得部12はこの処理を繰り返す。
また画像取得部13はドライブレコーダ2の通信装置22が送信した撮影画像を、通信モジュール105を介して取得する(ステップS302)。画像取得部13は撮影画像に含まれるドライブレコーダ2のIDや運転者IDを読み取る。画像取得部13はドライブレコーダ2のIDや運転者IDに紐づけて撮影画像をデータベース104に格納する。画像取得部13はこの処理を繰り返す。
所定状況時刻判定部14はある運転者の運転者IDに紐づいてデータベース104に記録される運転状況データを所定間隔毎に取得する。所定状況時刻判定部14は運転状況データから得られるセンシング情報に基づいて所定間隔毎に所定の運転状況が発生したかを判定する(ステップS303)。例えば、所定状況時刻判定部14は、3次元座標空間における各軸方向の各加速度に基づいて、車両が左折、右折、バックなどの所定の運転状況が発生したかを判定する。所定状況時刻判定部14は、加速度の情報と、加速度以外の情報、例えば、ハンドル角度、レバー等の操作子の現在設定位置、ブレーキ圧力、方向指示器の状態などの情報との組み合に基づいて、車両の状況が所定の運転状況であるかを判定してもよい。
所定状況時刻判定部14は加速度に基づいて車両が所定の状況であることを検知すると、車両が所定の状況であるの時刻を検出する。例えば所定状況時刻判定部14は運転状況データに含まれる加速度が時刻情報に紐づいている場合には、所定の状況であることの判定に利用した加速度に紐づく時刻情報を読み取って、その時刻を車両が所定の状況である時刻として検出する。所定状況時刻判定部14は車両の所定の運転状況を示す状況IDと、その状況が発生した時刻と、運転者IDとを含む所定状況発生情報を生成する(ステップS304)。所定状況時刻判定部14は生成した所定状況発生情報をデータベース104に記録する。所定状況時刻判定部14は全ての運転者IDについて所定状況発生情報を生成したかを判定する(ステップS305)。所定状況時刻判定部14は全ての運転者IDについて所定状況発生情報の生成が完了するまで処理を繰り返す。
視線範囲算出部15は一か月などの所定の期間毎に運転者IDごとの視線範囲情報を生成する(ステップS306)。具体的には視線範囲算出部15はある運転者IDに紐づく所定状況発生情報をデータベース104から読み取る。視線範囲算出部15は所定状況発生情報に含まれる状況IDとその状況IDが示す状況の発生時刻を読み取る。視線範囲算出部15は状況IDが示す状況の発生時刻を含む撮影画像であって、運転者IDに紐づいてデータベース104に記録されている撮影画像を取得する。視線範囲算出部15はその撮影画像の各フレーム画像のうち発生時刻を基準とする所定の状況発生時間の開始時刻と終了時刻を算出する。例えば視線範囲算出部15は発生時刻を所定の状況発生時間の開始時刻、発生時刻に10秒を加えた時刻を終了時刻と算出する。この所定の状況発生時間の開始時刻と終了時刻の算出は一例であって、状況IDが示す状況毎に異なる算出手法によって開始および終了時刻を算出してよい。
視線範囲算出部15は撮影画像中のフレーム画像のうち、状況発生時間の開始時刻と終了時刻まで期間の複数のフレーム画像を取得する。視線範囲算出部15はそれらフレーム画像に映る運転者の、正面方向を基準とする顔の向きベクトルと、正面方向を基準とする眼球の瞳孔の向きベクトルとを算出する。顔の向きベクトルと瞳孔の向きベクトルは、一例としては運転者の頭部位置を中心とする水平方向360度の範囲(例えば、正面方向を0度として、-180度から180度の範囲)の角度(方向)の何れかを示す。視線範囲算出部15は顔の向きベクトルと瞳孔の向きベクトルの合成ベクトルを示す視線方向ベクトルを算出する。視線範囲算出部15は状況発生時間の開始時刻と終了時刻まで期間の各フレーム画像の視線方向ベクトルを繰り返し算出する。視線範囲算出部15は各フレーム画像の視線方向ベクトルを範囲に含む運転者視線範囲を算出する。視線範囲算出部15は状況IDと運転者IDと運転者視線範囲とを含む視線範囲情報をデータベース104に記録する。視線範囲算出部15は全ての運転者IDと状況IDの組み合わせについて視線範囲情報を生成したかを判定する(ステップS307)。視線範囲算出部15は全ての運転者IDと状況IDの組み合わせについて視線範囲情報の生成が完了するまでその処理を繰り返す。視線範囲算出部15は処理を終了すると報告情報生成部16に報告情報の生成を指示する。
報告情報生成部16は報告情報の生成指示に基づいて報告情報を生成する(ステップS308)。具体的には、報告情報生成部16はある運転者IDの視線範囲情報をデータベース104から読み取る。報告情報生成部16は読み取った視線範囲情報のうち、1つの選択した状況IDを含む視線範囲情報を特定する。報告情報生成部16は1つの選択した状況IDを含む視線範囲情報それぞれから、運転者視線範囲を抽出し、状況IDが示す所定の運転状況における運転者視線範囲の統計値を算出する。例えば報告情報生成部16は複数の運転者視線範囲のうち50%以上などの所定割合以上の確率で運転者視線範囲に含まれる範囲を統計値と算出する。報告情報生成部16は運転者IDと状況IDと運転者視線範囲の統計値とを含む報告情報を、運転者IDと状況IDの組み合わせごとに生成する。報告情報生成部16は、報告情報に基づいて報告画像を生成する。報告画像は、状況IDが示す運転状況において推奨される推奨視線範囲と、その状況IDにおける運転者視線範囲(統計値)と、推奨視線範囲において運転者視線範囲と重ならない範囲を示す視認不足範囲とを表す画像情報である。報告情報生成部16は報告画像を含む報告情報を生成して、運転者IDにより特定されるメールドレスや端末装置などの出力先に報告情報を送信する(ステップS309)。報告情報生成部16は全ての運転者IDについて報告情報を生成、送信したかを判定する(ステップS310)。報告情報生成部16は全ての運転者IDについて報告情報の生成、送信が完了するまで処理を繰り返す。
図9は運転者視線範囲の統計値の算出概要を示す図である。
報告情報生成部16は例えば状況IDが左折を示す3つの視線範囲情報を特定する。図9の部分(a)に示す例では、3回の左折を示す3つの視線範囲情報を示している。具体的には、1回目の左折を示す視線範囲情報の運転者視線範囲が-45度~120度の範囲を示している。2回目の左折を示す視線範囲情報の運転者視線範囲が-50度~90度の範囲を示している。3回目の左折の運転者視線範囲が-45度~150度の範囲を示すとする。運転者視線範囲は、正面方向を0度とした場合の範囲を示している。
報告情報生成部16は例えば状況IDが左折を示す3つの視線範囲情報を特定する。図9の部分(a)に示す例では、3回の左折を示す3つの視線範囲情報を示している。具体的には、1回目の左折を示す視線範囲情報の運転者視線範囲が-45度~120度の範囲を示している。2回目の左折を示す視線範囲情報の運転者視線範囲が-50度~90度の範囲を示している。3回目の左折の運転者視線範囲が-45度~150度の範囲を示すとする。運転者視線範囲は、正面方向を0度とした場合の範囲を示している。
この例の場合、図9の部分(b)で示すように、計3回の左折の運転状況うち、運転者が視線範囲-50度~-45度の範囲(全範囲)に視線方向を移した回数は2回であるから、その確率は33.3%となる。
同様に計3回の左折の運転状況のうち、運転者が視線範囲-45度~40度の範囲に視線方向を移した回数は2回であるから、その確率は66.6%となる。
同様に計3回の左折の運転状況のうち、運転者が視線範囲40度~90度(正面方向)の範囲に視線方向を移した回数は3回であるから、その確率は確率100.0%となる。
同様に計3回の左折の運転状況のうち、運転者が視線範囲90度~120度の範囲に視線方向を移した回数は2回であるから、その確率は確率66.6%となる。
同様に計3回の左折の運転状況のうち、運転者が視線範囲120度~150度の範囲に視線方向を移した回数は1回であるから、その確率は確率33.3%となる。なお、確率の計算値は、少数点第一位まで表している。
同様に計3回の左折の運転状況のうち、運転者が視線範囲-45度~40度の範囲に視線方向を移した回数は2回であるから、その確率は66.6%となる。
同様に計3回の左折の運転状況のうち、運転者が視線範囲40度~90度(正面方向)の範囲に視線方向を移した回数は3回であるから、その確率は確率100.0%となる。
同様に計3回の左折の運転状況のうち、運転者が視線範囲90度~120度の範囲に視線方向を移した回数は2回であるから、その確率は確率66.6%となる。
同様に計3回の左折の運転状況のうち、運転者が視線範囲120度~150度の範囲に視線方向を移した回数は1回であるから、その確率は確率33.3%となる。なお、確率の計算値は、少数点第一位まで表している。
そして報告情報生成部16は、図9の部分(c)で示すように、図9の部分(b)の各視線範囲に視線方向を移した確率に基づいて、所定の閾値(50%)以上の確率となる範囲(-45度~120度)を、運転者視線範囲の統計値と決定する。
図10Aおよび図10Bは報告画像の概要を示す図である。
図10Aは視線範囲の全体を示す図である。図10Aでは運転者の頭部の位置に車両を配置し、車両を中心とした周囲360度の視線範囲と、運転者がドアミラーやバックミラーに視線を移した場合の視線範囲とを示す画像を表す。運転者の視線方向の範囲がドアミラーやバックミラーが位置する方向を含んでいる場合には、そのミラーを示すミラーIDが視線範囲情報に含まれてもよい。この場合、報告情報生成部16はミラーIDに対応する視線範囲を、運転者視線範囲に含めるようにしてもよい。図10Bは報告画像の例を示している。図10Bに示すように、報告情報生成部16は、運転者視線範囲の統計値と、視認不足範囲を算出して、それらの範囲を異なる態様で表す報告画像を生成してよい。報告情報生成部16はこのような報告画像を所定の運転状況毎に生成して運転者やその管理者等が認識できるように出力する。
図10Aは視線範囲の全体を示す図である。図10Aでは運転者の頭部の位置に車両を配置し、車両を中心とした周囲360度の視線範囲と、運転者がドアミラーやバックミラーに視線を移した場合の視線範囲とを示す画像を表す。運転者の視線方向の範囲がドアミラーやバックミラーが位置する方向を含んでいる場合には、そのミラーを示すミラーIDが視線範囲情報に含まれてもよい。この場合、報告情報生成部16はミラーIDに対応する視線範囲を、運転者視線範囲に含めるようにしてもよい。図10Bは報告画像の例を示している。図10Bに示すように、報告情報生成部16は、運転者視線範囲の統計値と、視認不足範囲を算出して、それらの範囲を異なる態様で表す報告画像を生成してよい。報告情報生成部16はこのような報告画像を所定の運転状況毎に生成して運転者やその管理者等が認識できるように出力する。
以上、本発明の実施形態について説明した。上述の運転状況監視装置の処理によれば、運転状況に応じた視線範囲と視認不足範囲を表す画像を含む報告情報を生成する。これにより運転状況に応じた視線範囲の不足をより適切に運転者自身が認識する情報を運転者やその管理者に提供することが出来る。
図11は本発明の別の実施形態に係る運転状況監視装置を示す図である。
この図が示すように運転状況監視装置1は少なくとも、センシングデータ取得部12、視線範囲算出部(算出部)15、報告情報生成部(判定部)16を備える。
センシングデータ取得部12は運転者の運転時視線情報(視線情報)と運転状況データとを取得する。
視線範囲算出部15は所定の運転状況を示す運転状況IDに応じた運転者視線範囲を運転時視線情報に基づいて算出する。
報告情報生成部16は、所定の運転状況について予め記憶する推奨視線範囲と運転者視線範囲とに基づいて視認不足範囲を判定する。
この図が示すように運転状況監視装置1は少なくとも、センシングデータ取得部12、視線範囲算出部(算出部)15、報告情報生成部(判定部)16を備える。
センシングデータ取得部12は運転者の運転時視線情報(視線情報)と運転状況データとを取得する。
視線範囲算出部15は所定の運転状況を示す運転状況IDに応じた運転者視線範囲を運転時視線情報に基づいて算出する。
報告情報生成部16は、所定の運転状況について予め記憶する推奨視線範囲と運転者視線範囲とに基づいて視認不足範囲を判定する。
上述の運転状況監視装置1やドライブレコーダ2の制御装置24は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。
上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
この出願は、2018年1月25日に出願された日本国特願2018-010902を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明の実施形態は、運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体に関する。
1・・・運転状況監視装置
2・・・ドライブレコーダ
11・・・制御部
12・・・センシングデータ取得部
13・・・画像取得部
14・・・所定状況時刻判定部
15・・・視線範囲算出部
16・・・報告情報生成部
17・・・出力部
21・・・センサ
22・・・通信装置
23・・・カメラ
24・・・制御装置
25・・・記憶装置
211・・・加速度センサ
213・・・GPSセンサ
241・・・車両情報取得部
242・・・位置情報取得部
243・・・加速度情報取得部
245・・・画像生成部
246・・・運転状況データ送信部
248・・・画像送信部
2・・・ドライブレコーダ
11・・・制御部
12・・・センシングデータ取得部
13・・・画像取得部
14・・・所定状況時刻判定部
15・・・視線範囲算出部
16・・・報告情報生成部
17・・・出力部
21・・・センサ
22・・・通信装置
23・・・カメラ
24・・・制御装置
25・・・記憶装置
211・・・加速度センサ
213・・・GPSセンサ
241・・・車両情報取得部
242・・・位置情報取得部
243・・・加速度情報取得部
245・・・画像生成部
246・・・運転状況データ送信部
248・・・画像送信部
Claims (7)
- 運転者の視線を示す視線情報と、前記運転者による運転の状況を示す運転状況情報とを取得する取得部と、
前記視線情報と前記運転状況情報とに基づいて、所定の運転状況における前記運転者の視線範囲を算出する算出部と、
前記所定の運転状況において推奨されている視線の範囲である推奨視線範囲と前記運転者の視線範囲とに基づいて、前記運転者による視認が不足している範囲である視認不足範囲を判定する判定部と、
を備える運転状況監視装置。 - 前記運転状況情報に基づいて前記所定の運転状況が生じた時刻を特定する特定部、をさらに備え、
前記視線情報は、前記運転者が撮像された複数の撮影画像を含み、
前記算出部は、前記複数の撮影画像の中から前記特定された時刻を基準とする所定期間の間に撮影された複数の撮影画像を取得し、前記取得された複数の撮影画像に基づいて前記運転者の視線範囲を算出する
請求項1に記載の運転状況監視装置。 - 前記算出部は、前記所定の運転状況毎に、前記運転者の視線範囲を算出し、
前記報告情報生成部は、前記所定の運転状況毎の前記運転者の視線範囲に基づいて、前記所定の運転状況における前記運転者の視線範囲の統計値を算出し、前記算出された統計値に基づいて前記視認不足範囲を判定する
請求項1または請求項2に記載の運転状況監視装置。 - 前記判定部は、前記視認不足範囲と、前記推奨視線範囲とを少なくとも視認できる画像情報を含む報告情報を生成する
請求項3に記載の運転状況監視装置。 - 運転状況監視装置と運転状況センシング装置とを備え、
運転状況センシング装置は、
運転者の視線を示す視線情報と、前記運転者による運転の状況を示す運転状況情報とを取得し、
前記運転状況監視装置は、
前記視線情報と前記運転状況情報とを前記運転状況センシング装置から取得する取得部と、
前記視線情報と前記運転状況に基づいて、所定の運転状況における前記運転者の視線範囲を算出する算出部と、
前記所定の運転状況において推奨されている視線の範囲である推奨視線範囲と前記運転者の視線範囲とに基づいて、前記運転者による視認が不足している範囲である視認不足視線範囲を判定する判定部と、
を備える運転状況監視システム。 - 運転者の視線を示す視線情報と、前記運転者による運転の状況を示す運転状況情報とを取得し、
前記視線情報と前記運転状況情報とに基づいて、所定の運転状況における前記運転者の視線範囲を算出し、
前記所定の運転状況において推奨されている視線の範囲である推奨視線範囲と前記運転者の視線範囲とに基づいて、前記運転者による視認が不足している範囲である視認不足範囲を判定する、
ことを含む運転状況監視方法。 - 運転者の視線を示す視線情報と、前記運転者による運転の状況を示す運転状況情報とを取得し、
前記視線情報と前記運転状況情報とに基づいて、所定の運転状況における前記運転者の視線範囲を算出し、
前記所定の運転状況において推奨されている視線の範囲である推奨視線範囲と前記運転者の視線範囲とに基づいて、前記運転者による視認が不足している範囲である視認不足範囲を判定する、
ことをコンピュータに実行させるためのプログラムを記憶した記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/964,814 US11417123B2 (en) | 2018-01-25 | 2019-01-11 | Driving state monitoring device, driving state monitoring system, driving state monitoring method, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-010902 | 2018-01-25 | ||
JP2018010902A JP6834997B2 (ja) | 2018-01-25 | 2018-01-25 | 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019146435A1 true WO2019146435A1 (ja) | 2019-08-01 |
Family
ID=67394931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/000782 WO2019146435A1 (ja) | 2018-01-25 | 2019-01-11 | 運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11417123B2 (ja) |
JP (1) | JP6834997B2 (ja) |
WO (1) | WO2019146435A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005267108A (ja) * | 2004-03-17 | 2005-09-29 | Denso Corp | 運転支援装置 |
JP2008250775A (ja) * | 2007-03-30 | 2008-10-16 | Denso Corp | データベース装置、注意喚起装置及び運転支援装置 |
JP2013242763A (ja) * | 2012-05-22 | 2013-12-05 | Clarion Co Ltd | 対話装置、対話システム、および対話制御方法 |
WO2015064080A1 (ja) * | 2013-11-01 | 2015-05-07 | パナソニックIpマネジメント株式会社 | 視線方向検出装置および視線方向検出方法 |
WO2016166791A1 (ja) * | 2015-04-13 | 2016-10-20 | 三菱電機株式会社 | 運転支援装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10019634B2 (en) * | 2010-06-04 | 2018-07-10 | Masoud Vaziri | Method and apparatus for an eye tracking wearable computer |
US20140070934A1 (en) * | 2012-09-07 | 2014-03-13 | GM Global Technology Operations LLC | Methods and systems for monitoring driver object detection |
CN103770733B (zh) * | 2014-01-15 | 2017-01-11 | 中国人民解放军国防科学技术大学 | 一种驾驶员安全驾驶状态检测方法及装置 |
US10486599B2 (en) * | 2015-07-17 | 2019-11-26 | Magna Mirrors Of America, Inc. | Rearview vision system for vehicle |
JP2017182776A (ja) * | 2016-03-29 | 2017-10-05 | 株式会社デンソー | 車両周辺監視装置及びコンピュータプログラム |
KR102429490B1 (ko) * | 2017-09-05 | 2022-08-05 | 현대자동차주식회사 | Bvm 영상 제공 기능을 가지는 svm 시스템 및 그 동작 방법 |
-
2018
- 2018-01-25 JP JP2018010902A patent/JP6834997B2/ja active Active
-
2019
- 2019-01-11 US US16/964,814 patent/US11417123B2/en active Active
- 2019-01-11 WO PCT/JP2019/000782 patent/WO2019146435A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005267108A (ja) * | 2004-03-17 | 2005-09-29 | Denso Corp | 運転支援装置 |
JP2008250775A (ja) * | 2007-03-30 | 2008-10-16 | Denso Corp | データベース装置、注意喚起装置及び運転支援装置 |
JP2013242763A (ja) * | 2012-05-22 | 2013-12-05 | Clarion Co Ltd | 対話装置、対話システム、および対話制御方法 |
WO2015064080A1 (ja) * | 2013-11-01 | 2015-05-07 | パナソニックIpマネジメント株式会社 | 視線方向検出装置および視線方向検出方法 |
WO2016166791A1 (ja) * | 2015-04-13 | 2016-10-20 | 三菱電機株式会社 | 運転支援装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2019128848A (ja) | 2019-08-01 |
US11417123B2 (en) | 2022-08-16 |
JP6834997B2 (ja) | 2021-02-24 |
US20210056330A1 (en) | 2021-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10755498B2 (en) | Drive recorder | |
JP5804508B2 (ja) | ドライブレコーダ | |
CN105966311B (zh) | 用于校准摄像机的方法、车辆用的设备和计算机程序产品 | |
CN108574811B (zh) | 图像记录系统、图像记录方法和图像记录程序 | |
CN108028008B (zh) | 用于运行机动车的发出紧急呼叫的方法和机动车 | |
WO2019188926A1 (ja) | 余所見判定装置、余所見判定システム、余所見判定方法、記憶媒体 | |
US20180270444A1 (en) | Image recording system, image recording method and storage medium recording image recording program | |
CN103167276A (zh) | 车辆监控系统和车辆监控方法 | |
WO2019049709A1 (ja) | 画像処理装置、画像処理方法、および画像表示システム | |
JP2021157831A (ja) | 余所見判定装置、余所見判定システム、余所見判定方法、プログラム | |
WO2019146435A1 (ja) | 運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体 | |
WO2021186853A1 (ja) | 画像生成装置、画像生成方法、およびプログラム | |
JP2003087778A (ja) | ドライブレコーダ | |
JP2020004223A (ja) | 車載映像記録装置及びその制御方法 | |
CN114906135A (zh) | 不可预见的车辆驾驶场景 | |
JP7259957B2 (ja) | 判定システム、処理方法、プログラム | |
JP2022139593A (ja) | 運転者視認状況確認装置 | |
US20220067411A1 (en) | Inattentiveness determination device, inattentiveness determination system, inattentiveness determination method, and storage medium for storing program | |
US10868975B2 (en) | Image processing system for acquiring an image picked up by a camera provided in a vehicle an image processing method executed by a computer and a non-transitory storage medium storing an image processing program executed by a computer | |
JP2019169042A (ja) | 視点切替装置及び視点切替方法 | |
WO2021186854A1 (ja) | データ処理装置、送信装置、データ処理方法、およびプログラム | |
US20230306707A1 (en) | Around view monitoring system and the method thereof | |
JP7558101B2 (ja) | 画像記録装置および損傷検出方法 | |
JP7427895B2 (ja) | 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム | |
WO2023223427A1 (ja) | 道路異状推定システム、道路異状推定方法、およびプローブ車両 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19744322 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19744322 Country of ref document: EP Kind code of ref document: A1 |