JP7186749B2 - Management system, management method, management device, program and communication terminal - Google Patents

Management system, management method, management device, program and communication terminal Download PDF

Info

Publication number
JP7186749B2
JP7186749B2 JP2020136380A JP2020136380A JP7186749B2 JP 7186749 B2 JP7186749 B2 JP 7186749B2 JP 2020136380 A JP2020136380 A JP 2020136380A JP 2020136380 A JP2020136380 A JP 2020136380A JP 7186749 B2 JP7186749 B2 JP 7186749B2
Authority
JP
Japan
Prior art keywords
vehicle
driver
information
moving image
risk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020136380A
Other languages
Japanese (ja)
Other versions
JP2022032520A (en
Inventor
陽介 須田
友佳子 中村
洸 牧志
和彦 佐山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020136380A priority Critical patent/JP7186749B2/en
Publication of JP2022032520A publication Critical patent/JP2022032520A/en
Application granted granted Critical
Publication of JP7186749B2 publication Critical patent/JP7186749B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、管理システム、管理方法、管理装置、プログラム及び通信端末に関する。 The present invention relates to a management system, management method, management device, program, and communication terminal.

近年、自動車の運転に関して、車間距離を急激に狭めて運転する等のあおり運転や、携帯電話の画面を注視しながら運転する等のながら運転に代表される危険運転が問題となっている。このような危険運転への対策として、ドライブレコーダ等の撮像装置を車両に設け、車両の周辺及び車内を撮像することがなされている。また、撮像により生成された画像を送信することにより、車両の管理者が車両の周辺及び車内の様子を確認することを可能とする技術が検討されている。例えば、特許文献1には、事故又は犯罪等のイベントが発生した場合に、イベント発生時の画像データをあらかじめ設定された送信先に送信するドライブレコーダが記載されている。 2. Description of the Related Art In recent years, regarding the driving of automobiles, there have been problems of dangerous driving represented by tailgating driving such as driving with a sharply narrowed inter-vehicle distance and driving while watching the screen of a mobile phone. As a countermeasure against such dangerous driving, an imaging device such as a drive recorder is installed in a vehicle to capture images of the surroundings and interior of the vehicle. Also, a technology is being studied that enables a vehicle manager to check the surroundings and interior of the vehicle by transmitting an image generated by imaging. For example, Patent Literature 1 describes a drive recorder that transmits image data at the time of event occurrence to a preset transmission destination when an event such as an accident or crime occurs.

特開2009-93255号公報JP 2009-93255 A

特許文献1に記載のドライブレコーダは、事故が発生した後に管理者が車両の周辺及び車内の様子を確認することを可能とするものである。他方、事故を未然に防止するために、事故に至らない危険運転を管理者が確認できるようにすることが求められていた。 The drive recorder described in Patent Literature 1 enables a manager to check the surroundings and interior of a vehicle after an accident has occurred. On the other hand, in order to prevent accidents, it has been desired to enable managers to confirm dangerous driving that does not lead to accidents.

本発明は上述の課題を解決するためになされたものであり、車両の管理者が危険運転を適切に確認することを可能とする管理システム、管理方法、管理装置、プログラム及び通信端末を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and provides a management system, management method, management device, program, and communication terminal that enable a vehicle manager to appropriately confirm dangerous driving. for the purpose.

本発明に係る管理システムは、車両に設けられる撮像装置と、管理装置と、を有する管理システムであって、撮像装置は、車両とは異なる他の車両を撮像して第1の動画像を生成する第1生成部と、第1の動画像を管理装置に送信する第1送信部と、を有し、管理装置は、ナンバープレートに関する情報と、ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した学習済みモデルを記憶する記憶部と、第1の動画像を取得する動画像取得部と、第1の動画像に基づいて生成される、他の車両のナンバープレートに関する情報を取得する情報取得部と、取得した他の車両のナンバープレートに関する情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定する推定部と、推定した車間距離に基づいて他の車両の危険度を算出する算出部と、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成する第2生成部と、第2の動画像を送信する第2送信部と、を有する、ことを特徴とする。 A management system according to the present invention is a management system having an imaging device provided in a vehicle and a management device, wherein the imaging device images another vehicle different from the vehicle and generates a first moving image. and a first transmission unit that transmits the first moving image to the management device, and the management device has a relationship between the information on the license plate and the inter-vehicle distance to the vehicle equipped with the license plate a storage unit that stores a learned model that has been learned in advance; a moving image acquiring unit that acquires a first moving image; and acquires information about license plates of other vehicles generated based on the first moving image an estimating unit for estimating the inter-vehicle distance between the vehicle and the other vehicle by inputting the acquired information on the license plate of the other vehicle into the learned model; a calculating unit that calculates the degree of risk of the vehicle, a second generating unit that generates a second moving image by extracting a part of the first moving image based on the degree of risk, and a second moving image; and a second transmitting unit for transmitting.

本発明に係る管理システムは、車両に設けられる撮像装置と、管理装置と、を有する管理システムであって、撮像装置は、車両の運転者を撮像して第1の動画像を生成する第1生成部と、第1の動画像を管理装置に送信する第1送信部と、を有し、管理装置は、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報と、運転者が対象物を注視しているか否かを示す情報との関係をあらかじめ学習した学習済みモデルを記憶する記憶部と、第1の動画像を取得する動画像取得部と、第1の動画像に基づいて生成される、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を取得する情報取得部と、取得した運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、車両の運転者が対象物を注視しているか否かを推定する推定部と、推定の結果に基づいて車両の運転者の危険度を算出する算出部と、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成する第2生成部と、第2の動画像を送信する第2送信部と、を有する、ことを特徴とする。 A management system according to the present invention includes an imaging device provided in a vehicle and a management device, wherein the imaging device captures a driver of the vehicle to generate a first moving image. a generation unit; and a first transmission unit that transmits the first moving image to the management device. A storage unit that stores a trained model that has previously learned a relationship with information indicating whether or not a person is gazing at an object, a moving image acquisition unit that acquires a first moving image, and a first moving image. An information acquisition unit that acquires information related to the posture of the driver of the vehicle and information related to the object held by the driver, and the acquired information related to the posture of the driver and the object held by the driver. An estimation unit that estimates whether or not the vehicle driver is gazing at the target by inputting information into the learned model, and a calculation unit that calculates the risk level of the vehicle driver based on the estimation results. a second generating unit for generating a second moving image by extracting a portion of the first moving image based on the degree of risk; and a second transmitting unit for transmitting the second moving image. , characterized in that

また、本発明に係る管理システムにおいて、算出部は、あらかじめ設定されたルールに基づいて危険度を算出する、ことが好ましい。 Moreover, in the management system according to the present invention, it is preferable that the calculation unit calculates the degree of risk based on a preset rule.

また、本発明に係る管理システムにおいて、算出部は、危険度を、第1の動画像の再生時刻と関連付けられた時系列データとして算出し、第2生成部は、危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように第1の動画像の一部を抽出する、ことが好ましい。 Further, in the management system according to the present invention, the calculation unit calculates the degree of risk as time-series data associated with the playback time of the first moving image, and the second generation unit determines that the degree of risk satisfies a predetermined condition. It is preferable to extract a portion of the first moving image so as to include a predetermined time range from the time when the condition is satisfied.

また、本発明に係る管理システムにおいて、算出部は、危険度を、第1の動画像の再生時刻と関連付けられた時系列データとして算出し、第2生成部は、危険度が所定の条件を満たしている時間が含まれるように第1の動画像の一部を抽出する、ことが好ましい。 Further, in the management system according to the present invention, the calculation unit calculates the degree of risk as time-series data associated with the playback time of the first moving image, and the second generation unit determines that the degree of risk satisfies a predetermined condition. It is preferable to extract a portion of the first moving image so as to include the filling time.

本発明に係る管理方法は、車両に設けられる撮像装置と、管理装置と、を有するシステムによって実行される管理方法であって、撮像装置が、車両とは異なる他の車両を撮像して第1の動画像を生成し、第1の動画像を管理装置に送信し、管理装置が、ナンバープレートに関する情報と、ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した学習済みモデルを記憶し、第1の動画像を取得し、他の車両のナンバープレートに関する情報を取得し、取得した他の車両のナンバープレートに関する情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定し、推定した車間距離に基づいて他の車両の危険度を算出し、運転危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成し、第2の動画像を送信する、ことを含むことを特徴とする。 A management method according to the present invention is a management method executed by a system having an imaging device provided in a vehicle, and a management device, wherein the imaging device images another vehicle different from the vehicle to obtain a first image. and transmits the first moving image to the management device, and the management device stores a learned model that has learned in advance the relationship between the information on the license plate and the inter-vehicle distance to the vehicle with the license plate. Then, by acquiring the first moving image, acquiring information about the license plate of the other vehicle, and inputting the acquired information about the license plate of the other vehicle to the trained model, the vehicle and the other vehicle A second moving image is generated by estimating the inter-vehicle distance, calculating the degree of danger of other vehicles based on the estimated inter-vehicle distance, and extracting a portion of the first moving image based on the driving danger. , and transmitting the second moving image.

本発明に係る管理方法は、車両に設けられる撮像装置と、管理装置と、を有するシステムによって実行される管理方法であって、撮像装置が、車両の運転者を撮像して第1の動画像を生成し、第1の動画像を管理装置に送信し、管理装置が、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報と、運転者が対象物を注視しているか否かを示す情報との関係をあらかじめ学習した学習済みモデルを記憶し、第1の動画像を取得し、第1の動画像に基づいて生成される、運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を取得し、取得した運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、運転者が対象物を注視しているか否かを推定し、推定の結果に基づいて車両の運転者の危険度を算出し、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成し、第2の動画像を送信する、ことを含むことを特徴とする。 A management method according to the present invention is a management method executed by a system having an imaging device provided in a vehicle and a management device, wherein the imaging device images a driver of the vehicle to produce a first moving image. and transmits the first moving image to the management device, and the management device sends information about the posture of the driver of the vehicle, information about the object held by the driver, and whether or not the driver is gazing at the object. A trained model that has learned in advance the relationship with information indicating whether or not the Obtaining information about the object to be grasped, and inputting the obtained information about the posture of the driver and the information about the object grasped by the driver into the trained model to determine whether the driver is gazing at the object. is estimated, the degree of danger of the vehicle driver is calculated based on the result of the estimation, a second moving image is generated by extracting a portion of the first moving image based on the degree of danger, and the second and transmitting the moving image.

本発明に係る管理装置は、ナンバープレートに関する情報と、ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した学習済みモデルを記憶する記憶部と、車両に設けられた撮像装置が車両とは異なる他の車両を撮像して生成した第1の動画像を取得する動画像取得部と、第1の動画像に基づいて生成される、他の車両のナンバープレートに関する情報を取得する情報取得部と、取得した他の車両のナンバープレートに関する情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定する推定部と、推定した車間距離に基づいて他の車両の危険度を算出する算出部と、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成する第2生成部と、第2の動画像を送信する第2送信部と、を有することを特徴とする。 A management device according to the present invention includes a storage unit that stores a learned model in which a relationship between information on a license plate and an inter-vehicle distance to a vehicle with a license plate is learned in advance, and an imaging device provided in the vehicle. a moving image acquiring unit that acquires a first moving image generated by imaging another vehicle different from the above; and an estimating unit that estimates the inter-vehicle distance between the vehicle and the other vehicle by inputting the obtained information about the license plate of the other vehicle into the trained model, a calculation unit that calculates the degree of risk; a second generation unit that generates a second moving image by extracting a part of the first moving image based on the degree of risk; 2 transmission units.

本発明に係る管理装置は、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報と、運転者が対象物を注視しているか否かを示す情報との関係をあらかじめ学習した学習済みモデルを記憶する記憶部と、車両に設けられた撮像装置が車両の運転者を撮像して生成した第1の動画像を取得する動画像取得部と、第1の動画像に基づいて生成される、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を取得する情報取得部と、取得した運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、車両の運転者が対象物を注視しているか否かを推定する推定部と、推定の結果に基づいて車両の運転者の危険度を算出する算出部と、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成する第2生成部と、第2の動画像を送信する第2送信部と、を有することを特徴とする。 The management device according to the present invention learns in advance the relationship between information about the posture of the driver of the vehicle, information about the object held by the driver, and information indicating whether the driver is gazing at the object. a storage unit that stores a learned model; a moving image acquisition unit that acquires a first moving image generated by an imaging device provided in a vehicle capturing an image of a driver of the vehicle; and based on the first moving image, An information acquisition unit that acquires generated information on the posture of the driver of the vehicle and information on the object held by the driver, and learns the acquired information on the posture of the driver and the information on the object held by the driver. An estimating unit for estimating whether or not the vehicle driver is gazing at an object, a calculating unit for calculating the risk level of the vehicle driver based on the result of the estimation, and a risk a second generating unit that generates a second moving image by extracting a part of the first moving image based on the degree of motion; and a second transmitting unit that transmits the second moving image. and

本発明に係るプログラムは、ナンバープレートに関する情報と、前記ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した学習済みモデルを記憶する記憶部を有するコンピュータのプログラムであって、車両に設けられた撮像装置が車両とは異なる他の車両を撮像して生成した第1の動画像を取得し、第1の動画像に基づいて生成される、他の車両のナンバープレートに関する情報を取得し、取得した他の車両のナンバープレートに関する情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定し、推定した車間距離に基づいて他の車両の危険度を算出し、運転危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成し、第2の動画像を送信する、ことをコンピュータに実行させることを特徴とする。 A program according to the present invention is a program for a computer having a storage unit that stores a learned model in which a relationship between information related to a license plate and a distance to a vehicle having the license plate is learned in advance, and is provided in the vehicle. acquires a first moving image generated by imaging another vehicle different from the vehicle by the imaging device, and acquires information about the license plate of the other vehicle generated based on the first moving image; , by inputting the obtained information about the license plates of other vehicles into the trained model, the distance between the vehicle and other vehicles is estimated, and the degree of danger of the other vehicle is calculated based on the estimated distance between the vehicles. , generating a second moving image by extracting a part of the first moving image based on the degree of driving risk, and transmitting the second moving image.

本発明に係るプログラムは、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報と、運転者が対象物を注視しているか否かを示す情報との関係をあらかじめ学習した学習済みモデルを記憶する記憶部を有するコンピュータのプログラムであって、車両に設けられた撮像装置が車両の運転者を撮像して生成した第1の動画像を取得し、第1の動画像に基づいて生成される、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を取得し、取得した運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、車両の運転者が対象物を注視しているか否かを推定し、推定の結果に基づいて車両の運転者の危険度を算出し、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成し、第2の動画像を送信する、ことをコンピュータに実行させることを特徴とする。 The program according to the present invention learns in advance the relationship between information about the posture of the driver of the vehicle, information about the object held by the driver, and information indicating whether the driver is gazing at the object. A program for a computer having a storage unit for storing a model, wherein an imaging device provided in a vehicle acquires a first moving image generated by capturing an image of a driver of the vehicle, and acquires a first moving image generated by imaging a driver of the vehicle, and acquires the first moving image based on the first moving image. information about the posture of the driver of the vehicle and information about the object grasped by the driver, which are generated by By inputting, it is estimated whether or not the driver of the vehicle is gazing at the object, the degree of risk of the driver of the vehicle is calculated based on the result of the estimation, and the first moving image is generated based on the degree of risk. A second moving image is generated by extracting a part of the image, and the second moving image is transmitted.

本発明に係る通信端末は、車両に設けられる撮像装置と、管理装置と、を有するシステムの撮像装置及び管理装置と通信可能に接続された通信端末であって、撮像装置が車両とは異なる他の車両を撮像して生成した第1の動画像を撮像装置から受信する受信部と、ナンバープレートに関する情報と、ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した学習済みモデルを記憶し、第1の動画像を受信した場合に、第1の動画像に基づいて生成される、他の車両のナンバープレートに関する情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定し、推定した車間距離に基づいて他の車両の危険度を算出し、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成して送信する管理装置に、第1の動画像を送信する送信部と、を有することを特徴とする。 A communication terminal according to the present invention is a communication terminal communicably connected to an imaging device and a management device of a system having an imaging device and a management device provided in a vehicle, and the imaging device is different from the vehicle. a receiving unit that receives from the imaging device a first moving image generated by imaging the vehicle, and a learned model that has learned in advance the relationship between information on the license plate and the inter-vehicle distance to the vehicle equipped with the license plate. Then, when the first moving image is received, information about the license plate of the other vehicle, which is generated based on the first moving image, is input to the learned model, thereby determining the relationship between the vehicle and the other vehicle. A second moving image is generated by estimating the inter-vehicle distance, calculating the degree of danger of other vehicles based on the estimated inter-vehicle distance, and extracting a portion of the first moving image based on the degree of danger. and a transmitting unit that transmits the first moving image to the transmitting management device.

本発明に係る通信端末は、車両に設けられる撮像装置と、管理装置と、を有するシステムの撮像装置及び管理装置と通信可能に接続された通信端末であって、撮像装置が車両の運転者を撮像して生成した第1の動画像を撮像装置から受信する受信部と、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報と、運転者が対象物を注視しているか否かを示す情報との関係をあらかじめ学習した学習済みモデルを記憶し、第1の動画像を受信した場合に、第1の動画像に基づいて生成される、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、車両の運転者が対象物を注視しているか否かを推定し、推定の結果に基づいて車両の運転者の危険度を算出し、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成して送信する管理装置に、第1の動画像を送信する送信部と、を有することを特徴とする。 A communication terminal according to the present invention is a communication terminal communicably connected to an imaging device and a management device of a system having an imaging device provided in a vehicle and a management device, wherein the imaging device detects a driver of the vehicle. A receiving unit that receives a first moving image captured and generated from an imaging device, information about the posture of the driver of the vehicle, information about the object held by the driver, and whether the driver is gazing at the object Information about the attitude of the driver of the vehicle, generated based on the first moving image when a trained model that has learned in advance the relationship with information indicating whether or not and by inputting information about the object grasped by the driver into the trained model, it is possible to estimate whether the vehicle driver is gazing at the object or not, and based on the result of the estimation, determine the danger of the vehicle driver. a transmitter for transmitting the first moving image to a management device that calculates the degree of risk and extracts a portion of the first moving image based on the degree of risk to generate and transmit a second moving image; characterized by having

本発明に係る管理システム、管理方法、管理装置、プログラム及び通信端末は、車両の管理者が危険運転を適切に確認することを可能とする。 A management system, a management method, a management device, a program, and a communication terminal according to the present invention enable a vehicle manager to appropriately check dangerous driving.

管理システム1の概要を説明するための模式図である。1 is a schematic diagram for explaining an overview of a management system 1; FIG. 管理システム1の概略構成の一例を示す図である。1 is a diagram showing an example of a schematic configuration of a management system 1; FIG. 撮像装置2の概略構成の一例を示す図である。1 is a diagram showing an example of a schematic configuration of an imaging device 2; FIG. 通信端末3の概略構成の一例を示す図である。3 is a diagram showing an example of a schematic configuration of a communication terminal 3; FIG. 管理装置4の概略構成の一例を示す図である。3 is a diagram showing an example of a schematic configuration of a management device 4; FIG. 第1危険度テーブルT1のデータ構造の一例を示す図である。FIG. 4 is a diagram showing an example of the data structure of a first risk table T1; FIG. 第2危険度テーブルT2のデータ構造の一例を示す図である。FIG. 11 is a diagram showing an example of the data structure of a second risk table T2; FIG. 車外動画像送信処理の流れの一例を示すシーケンス図である。FIG. 10 is a sequence diagram showing an example of the flow of an out-of-vehicle moving image transmission process; 車外動画像抽出処理の流れの一例を示すフロー図である。FIG. 10 is a flow chart showing an example of the flow of an outside-vehicle moving image extraction process; 車内動画像送信処理の流れの一例を示すシーケンス図である。FIG. 10 is a sequence diagram showing an example of the flow of in-vehicle moving image transmission processing; 車内動画像抽出処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of an in-vehicle moving image extraction process.

以下、図面を参照して本発明の様々な実施形態について説明する。本発明の技術的範囲はこれらの実施形態に限定されず、特許請求の範囲に記載された発明及びその均等物に及ぶ点に留意されたい。 Various embodiments of the present invention will now be described with reference to the drawings. It should be noted that the technical scope of the present invention is not limited to these embodiments, but extends to the invention described in the claims and equivalents thereof.

図1は、本発明に係る管理システム1の概要を説明するための模式図である。管理システム1は、撮像装置2、管理装置4及び表示端末5を有する。撮像装置2、管理装置4及び表示端末5は、相互に通信可能に接続される。管理システム1は、例えば、多数の車両を運行させて旅客や貨物を運送する運送業者等が車両を管理するために用いられる。 FIG. 1 is a schematic diagram for explaining an overview of a management system 1 according to the present invention. The management system 1 has an imaging device 2 , a management device 4 and a display terminal 5 . The imaging device 2, the management device 4, and the display terminal 5 are connected so as to be able to communicate with each other. The management system 1 is used, for example, by a carrier or the like that operates a large number of vehicles and transports passengers and freight to manage the vehicles.

撮像装置2は、撮像機能及び通信機能を有する装置であり、例えば、ドライブレコーダである。撮像装置2は、車両11の前方を撮像可能となるように、車両11のフロントガラス付近の上方等に設けられる。撮像装置2は、車両11の前方を走行する他の車両を撮像し、第1の動画像12を生成する。撮像装置2は、第1の動画像12を管理装置4に送信する。 The imaging device 2 is a device having an imaging function and a communication function, such as a drive recorder. The imaging device 2 is provided above the windshield of the vehicle 11 or the like so as to be able to image the front of the vehicle 11 . The imaging device 2 images another vehicle running in front of the vehicle 11 and generates a first moving image 12 . The imaging device 2 transmits the first moving image 12 to the management device 4 .

管理装置4は、サーバ又はPC(Personal Computer)等の情報処理装置である。管理装置4は、撮像装置2から第1の動画像12を取得する。管理装置4は、第1の動画像12に基づいて車両11と他の車両との車間距離を推定し、推定した車間距離に基づいて他の車両の危険度を算出する。管理装置4は、他の車両の危険度に基づいて第1の動画像12の一部を抽出することにより第2の動画像13を生成する。他の車両の危険度は、他の車両が危険運転をしている蓋然性を示す値である。危険運転は、例えば車間距離を急激に狭めるあおり運転である。第2の動画像13は、他の車両が危険運転をしている時間が含まれるように第1の動画像12の一部を抽出することにより生成される。管理装置4は、第2の動画像13を表示端末5に送信する。 The management device 4 is an information processing device such as a server or a PC (Personal Computer). The management device 4 acquires the first moving image 12 from the imaging device 2 . The management device 4 estimates the inter-vehicle distance between the vehicle 11 and the other vehicle based on the first moving image 12, and calculates the risk of the other vehicle based on the estimated inter-vehicle distance. Management device 4 generates second moving image 13 by extracting a portion of first moving image 12 based on the degree of risk of other vehicles. The risk of other vehicles is a value indicating the probability that other vehicles are driving dangerously. Dangerous driving is, for example, tailgate driving that sharply narrows the inter-vehicle distance. The second moving image 13 is generated by extracting a portion of the first moving image 12 so as to include the time during which other vehicles are driving dangerously. Management device 4 transmits second moving image 13 to display terminal 5 .

表示端末5は、PC、携帯電話、タブレット端末又はスマートフォン等の、通信機能及び表示機能を有する情報処理端末である。表示端末5は、車両11の管理者により使用される。表示端末5は、受信した第2の動画像13を表示する。これにより、管理者は危険運転を適切に確認することができる。なお、管理者は、車両11を保有する一個人や複数の車両11を運用する法人(法人の担当者)などの車両11を管理し得る者であれば特に限定されない。 The display terminal 5 is an information processing terminal having a communication function and a display function, such as a PC, a mobile phone, a tablet terminal, or a smart phone. The display terminal 5 is used by an administrator of the vehicle 11 . The display terminal 5 displays the received second moving image 13 . This allows the administrator to appropriately confirm dangerous driving. Note that the manager is not particularly limited as long as it can manage the vehicle 11 , such as an individual who owns the vehicle 11 or a corporation (person in charge of the corporation) who operates a plurality of vehicles 11 .

図2は、管理システム1の概略構成の一例を示す図である。管理システム1は、撮像装置2、通信端末3、管理装置4、表示端末5を有する。撮像装置2は、車両11に設けられ、車両11の運転者又は同乗者が携帯するスマートフォン、タブレット端末等の携帯型の通信端末3と相互に通信可能に接続される。通信端末3、管理装置4、表示端末5は、第4世代移動通信システム(4G)又は第5世代移動通信システム(5G)等の移動通信ネットワークを含むネットワーク6を介して相互に通信可能に接続される。 FIG. 2 is a diagram showing an example of a schematic configuration of the management system 1. As shown in FIG. The management system 1 has an imaging device 2 , a communication terminal 3 , a management device 4 and a display terminal 5 . The imaging device 2 is provided in the vehicle 11 and is connected to a portable communication terminal 3 such as a smart phone or a tablet terminal carried by the driver or passenger of the vehicle 11 so as to be able to communicate with each other. The communication terminal 3, the management device 4, and the display terminal 5 are connected so as to be able to communicate with each other via a network 6 including a mobile communication network such as a 4th generation mobile communication system (4G) or a 5th generation mobile communication system (5G). be done.

図3は、撮像装置2の概略構成の一例を示す図である。撮像装置2は、前方撮像部21、後方撮像部22、車内撮像部23、車速取得部24、第1記憶部25、第1通信部26及び第1処理部27を有する。 FIG. 3 is a diagram showing an example of a schematic configuration of the imaging device 2. As shown in FIG. The imaging device 2 has a front imaging section 21 , a rear imaging section 22 , an in-vehicle imaging section 23 , a vehicle speed acquisition section 24 , a first storage section 25 , a first communication section 26 and a first processing section 27 .

前方撮像部21は、車両の前方を撮像するための構成であり、後方撮像部22は、車両の後方を撮像するための構成であり、車内撮像部23は、車両の運転席を撮像するための構成である。前方撮像部21、後方撮像部22及び車内撮像部23は、例えば、カメラを備える。前方撮像部21及び車内撮像部23は、車両の前方及び運転席を撮像可能となるように、車両のフロントガラス付近に設けられる。後方撮像部22は、車両の後方を撮像可能となるように、車両のリアガラス付近に設けられる。 The front imaging unit 21 is configured to capture an image of the front of the vehicle, the rear imaging unit 22 is configured to capture an image of the rear of the vehicle, and the in-vehicle imaging unit 23 is configured to capture an image of the driver's seat of the vehicle. is the configuration. The front imaging section 21, the rear imaging section 22, and the in-vehicle imaging section 23 are provided with cameras, for example. The front imaging section 21 and the in-vehicle imaging section 23 are provided near the windshield of the vehicle so as to be able to image the front of the vehicle and the driver's seat. The rear imaging unit 22 is provided near the rear glass of the vehicle so as to be able to image the rear of the vehicle.

前方撮像部21、後方撮像部22及び車内撮像部23は、光学レンズ等を用いて被写体からの光線を集束することにより結像した被写体像に対応する画像信号を生成し、所定の形式の画像データに変換して第1処理部27に供給する。 The front imaging unit 21, the rear imaging unit 22, and the in-vehicle imaging unit 23 generate an image signal corresponding to the image of the subject formed by converging light rays from the subject using an optical lens or the like, and generate an image in a predetermined format. It is converted into data and supplied to the first processing unit 27 .

車速取得部24は、車両の走行速度を取得するための構成であり、例えば、車速パルスを伝送する、車両の内部に設けられた信号線と接続可能なインタフェースを備える。車速取得部24は、信号線から車速パルスを受信し、車速パルスのパルス間隔に応じて車両の走行速度を算出し、算出した走行速度を示すデータを第1処理部27に供給する。 The vehicle speed acquisition unit 24 is configured to acquire the running speed of the vehicle, and includes, for example, an interface connectable to a signal line provided inside the vehicle for transmitting vehicle speed pulses. The vehicle speed acquisition unit 24 receives a vehicle speed pulse from the signal line, calculates the running speed of the vehicle according to the pulse interval of the vehicle speed pulse, and supplies data indicating the calculated running speed to the first processing unit 27 .

第1記憶部25は、データ及びプログラムを記憶するための構成であり、例えば、半導体メモリを備える。第1記憶部25は、第1処理部27による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、CD(Compact Disc)-ROM(Read Only Memory)又はDVD(Digital Versatile Disc)-ROM等のコンピュータ読取可能且つ非一時的な可搬型記憶媒体から公知のセットアッププログラム等を用いてインストールされる。 The first storage unit 25 is configured to store data and programs, and includes, for example, a semiconductor memory. The first storage unit 25 stores an operating system program, a driver program, an application program, data, and the like used for processing by the first processing unit 27 . The program is installed using a known setup program or the like from a computer-readable and non-temporary portable storage medium such as CD (Compact Disc)-ROM (Read Only Memory) or DVD (Digital Versatile Disc)-ROM. .

第1通信部26は、撮像装置2を通信端末3と通信可能にするための構成であり、通信インタフェース回路を備える。第1通信部26が備える通信インタフェース回路は、Wi-Fi等の無線LAN(Local Area Network)の通信インタフェース回路である。第1通信部26は、第1処理部27から供給されたデータを通信端末3に送信するとともに、通信端末3から受信したデータを第1処理部27に供給する。 The first communication unit 26 is configured to allow the imaging device 2 to communicate with the communication terminal 3, and includes a communication interface circuit. The communication interface circuit provided in the first communication unit 26 is a communication interface circuit for a wireless LAN (Local Area Network) such as Wi-Fi. The first communication unit 26 transmits data supplied from the first processing unit 27 to the communication terminal 3 and supplies data received from the communication terminal 3 to the first processing unit 27 .

第1処理部27は、撮像装置2の動作を統括的に制御する構成であり、一又は複数個のプロセッサ及びその周辺回路を備える。第1処理部27は、例えば、CPU(Central Processing Unit)、LSI(Large Scale Integration)又はASIC(Application Specific Integrated Circuit)等を備える。第1処理部27は、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等を備えてもよい。第1処理部27は、第1記憶部25に記憶されているプログラムに基づいて、撮像装置2の各種処理が適切に実行されるように撮像装置2の各構成の動作を制御するとともに、各種処理を実行する。 The first processing unit 27 is configured to collectively control the operation of the imaging device 2, and includes one or more processors and their peripheral circuits. The first processing unit 27 includes, for example, a CPU (Central Processing Unit), LSI (Large Scale Integration), or ASIC (Application Specific Integrated Circuit). The first processing unit 27 may include a GPU (Graphics Processing Unit), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array), and the like. Based on the programs stored in the first storage unit 25, the first processing unit 27 controls the operation of each component of the imaging device 2 so that various processes of the imaging device 2 are appropriately executed, Execute the process.

第1処理部27は、動画像生成部271、車速生成部272及び動画像送信部273を有する。これらの各部は、第1処理部27が実行するプログラムによって実現される機能モジュールである。これらの各部は、ファームウェアとして撮像装置2に実装されてもよい。なお、動画像生成部271及び動画像送信部273は、それぞれ第1生成部及び第1送信部の一例である。 The first processing unit 27 has a moving image generation unit 271 , a vehicle speed generation unit 272 and a moving image transmission unit 273 . Each of these units is a functional module implemented by a program executed by the first processing unit 27 . Each of these units may be implemented in the imaging device 2 as firmware. Note that the moving image generation unit 271 and the moving image transmission unit 273 are examples of a first generation unit and a first transmission unit, respectively.

図4は、通信端末3の概略構成の一例を示す図である。通信端末3は、第2記憶部31、第2通信部32、第3通信部33及び第2処理部34を有する。 FIG. 4 is a diagram showing an example of a schematic configuration of the communication terminal 3. As shown in FIG. The communication terminal 3 has a second storage section 31 , a second communication section 32 , a third communication section 33 and a second processing section 34 .

第2記憶部31は、データ及びプログラムを記憶するための構成であり、例えば、半導体メモリを備える。第2記憶部31は、第2処理部34による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、コンピュータ読取可能且つ非一時的な可搬型記憶媒体から公知のセットアッププログラム等を用いてインストールされる。 The second storage unit 31 is configured to store data and programs, and includes a semiconductor memory, for example. The second storage unit 31 stores an operating system program, a driver program, an application program, data, etc. used for processing by the second processing unit 34 . The program is installed from a computer-readable and non-temporary portable storage medium using a known setup program or the like.

第2通信部32は、通信端末3を撮像装置2と通信可能にするための構成であり、通信インタフェース回路を備える。第2通信部32が備える通信インタフェース回路は、無線LANの通信インタフェース回路である。第2通信部32は、第2処理部34から供給されたデータを撮像装置2に送信するとともに、撮像装置2から受信したデータを第2処理部34に供給する。 The second communication unit 32 is configured to allow the communication terminal 3 to communicate with the imaging device 2, and includes a communication interface circuit. The communication interface circuit included in the second communication unit 32 is a wireless LAN communication interface circuit. The second communication unit 32 transmits data supplied from the second processing unit 34 to the imaging device 2 and supplies data received from the imaging device 2 to the second processing unit 34 .

第3通信部33は、ネットワーク6を介して通信端末3を他の装置と通信可能にするための構成であり、通信インタフェース回路を備える。第3通信部33が備える通信インタフェース回路は、LTE(Long Term Evolution)又はNR(New Radio)等の移動通信方式の通信インタフェース回路である。第3通信部33は、第2処理部34から供給されたデータを他の装置に送信するとともに、他の装置から受信したデータを第2処理部34に供給する。 The third communication unit 33 is configured to enable the communication terminal 3 to communicate with other devices via the network 6, and includes a communication interface circuit. The communication interface circuit provided in the third communication unit 33 is a communication interface circuit of a mobile communication system such as LTE (Long Term Evolution) or NR (New Radio). The third communication unit 33 transmits data supplied from the second processing unit 34 to other devices, and supplies data received from other devices to the second processing unit 34 .

第2処理部34は、通信端末3の動作を統括的に制御する構成であり、一又は複数個のプロセッサ及びその周辺回路を備える。第2処理部34は、例えば、CPU、LSI、ASIC、GPU、DSP、FPGA等を備える。第2処理部34は、第2記憶部31に記憶されているプログラムに基づいて、通信端末3の各種処理が適切に実行されるように通信端末3の各構成の動作を制御するとともに、各種処理を実行する。 The second processing unit 34 is configured to centrally control the operation of the communication terminal 3, and includes one or more processors and their peripheral circuits. The second processing unit 34 includes, for example, a CPU, LSI, ASIC, GPU, DSP, FPGA, and the like. Based on the programs stored in the second storage unit 31, the second processing unit 34 controls the operation of each component of the communication terminal 3 so that various processes of the communication terminal 3 are appropriately executed, and various Execute the process.

第2処理部34は、受信部341及び送信部342を有する。これらの各部は、第2処理部34が実行するプログラムによって実現される機能モジュールである。これらの各部は、ファームウェアとして通信端末3に実装されてもよい。 The second processing section 34 has a receiving section 341 and a transmitting section 342 . Each of these units is a functional module implemented by a program executed by the second processing unit 34 . Each of these units may be implemented in the communication terminal 3 as firmware.

図5は、管理装置4の概略構成の一例を示す図である。管理装置4は、第3記憶部41、第4通信部42、第3処理部43を有する。 FIG. 5 is a diagram showing an example of a schematic configuration of the management device 4. As shown in FIG. The management device 4 has a third storage section 41 , a fourth communication section 42 and a third processing section 43 .

第3記憶部41は、データ及びプログラムを記憶するための構成であり、例えば、半導体メモリを備える。第3記憶部41は、第3処理部43による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、コンピュータ読取可能且つ非一時的な可搬型記憶媒体から公知のセットアッププログラム等を用いてインストールされる。 The third storage unit 41 is configured to store data and programs, and includes a semiconductor memory, for example. The third storage unit 41 stores an operating system program, a driver program, an application program, data, etc. used for processing by the third processing unit 43 . The program is installed from a computer-readable and non-temporary portable storage medium using a known setup program or the like.

第4通信部42は、ネットワーク6を介して管理装置4を他の装置と通信可能にするための構成であり、通信インタフェース回路を備える。第4通信部42が備える通信インタフェース回路は、LTE又はNR等の移動通信方式の通信インタフェース回路である。第4通信部42が備える通信インタフェース回路は、無線LAN又は有線LANの通信インタフェース回路等でもよい。第4通信部42は、第3処理部43から供給されたデータを他の装置に送信するとともに、他の装置から受信したデータを第3処理部43に供給する。 The fourth communication unit 42 is configured to enable the management device 4 to communicate with other devices via the network 6, and includes a communication interface circuit. A communication interface circuit provided in the fourth communication unit 42 is a communication interface circuit of a mobile communication system such as LTE or NR. The communication interface circuit provided in the fourth communication unit 42 may be a communication interface circuit for wireless LAN or wired LAN. The fourth communication unit 42 transmits data supplied from the third processing unit 43 to other devices, and supplies data received from other devices to the third processing unit 43 .

第3処理部43は、管理装置4の動作を統括的に制御する構成であり、一又は複数個のプロセッサ及びその周辺回路を備える。第3処理部43は、例えば、CPU、LSI、ASIC、GPU、DSP、FPGA等を備える。第3処理部43は、第3記憶部41に記憶されているプログラムに基づいて、管理装置4の各種処理が適切に実行されるように管理装置4の各構成の動作を制御するとともに、各種処理を実行する。 The third processing unit 43 is configured to collectively control the operation of the management device 4, and includes one or more processors and their peripheral circuits. The third processing unit 43 includes, for example, CPU, LSI, ASIC, GPU, DSP, FPGA, and the like. Based on the programs stored in the third storage unit 41, the third processing unit 43 controls the operation of each component of the management device 4 so that various processes of the management device 4 are appropriately executed, Execute the process.

第3処理部43は、動画像取得部431、情報取得部432、推定部433、算出部434、動画像抽出部435及び抽出動画像送信部436を有する。これらの各部は、第3処理部43によって実行されるプログラムによって実現される機能モジュールである。これらの各部は、ファームウェアとして管理装置4に実装されてもよい。なお、動画像抽出部435及び抽出動画像送信部436は、それぞれ第2生成部及び第2送信部の一例である。 The third processing unit 43 has a moving image acquiring unit 431 , an information acquiring unit 432 , an estimating unit 433 , a calculating unit 434 , a moving image extracting unit 435 and an extracted moving image transmitting unit 436 . Each of these units is a functional module implemented by a program executed by the third processing unit 43 . Each of these units may be implemented in the management device 4 as firmware. Note that the moving image extraction unit 435 and the extracted moving image transmission unit 436 are examples of a second generation unit and a second transmission unit, respectively.

図6は、管理装置4の第3記憶部41に記憶される、車外動画像(前方動画像又は後方動画像をいう。)に関する情報を管理する第1危険度テーブルT1のデータ構造の一例を示す図である。第1危険度テーブルT1は、フレーム識別子、走行速度、ナンバープレート、車間距離及び危険度を相互に関連付けて記憶する。 FIG. 6 shows an example of the data structure of the first risk level table T1 for managing information related to vehicle exterior moving images (front moving images or rear moving images) stored in the third storage unit 41 of the management device 4. FIG. 4 is a diagram showing; The first risk level table T1 stores frame identifiers, running speeds, license plates, vehicle-to-vehicle distances, and risk levels in association with each other.

フレーム識別子は、撮像装置2によって撮像された動画像を構成するフレームを特定するための情報の一例である。フレーム識別子に代えて、動画像において対応するフレームが表示される再生時刻等が記憶されてもよい。走行速度は、対応するフレームが撮像されたときの車両の走行速度を示す情報である。 A frame identifier is an example of information for specifying a frame that constitutes a moving image captured by the imaging device 2 . Instead of the frame identifier, the playback time or the like at which the corresponding frame in the moving image is displayed may be stored. The travel speed is information indicating the travel speed of the vehicle when the corresponding frame was captured.

ナンバープレートは、対応するフレームにおけるナンバープレートの大きさを示す情報である。図6に示す例では、ナンバープレートの大きさは、ナンバープレートを包含するバウンディングボックスの縦方向と横方向の画素数によって示されている。車間距離は、ナンバープレートの大きさに基づいて算出される、他の車両との車間距離である。危険度は、対応するフレームについて算出された運転の危険度を示す情報であり、他の車両があおり運転をしている蓋然性を示す情報である。なお、対応するフレームにおいてナンバープレートが検出されなかった場合、ナンバープレート及び車間距離は記憶されない。 A license plate is information indicating the size of the license plate in the corresponding frame. In the example shown in FIG. 6, the size of the license plate is indicated by the number of pixels in the vertical and horizontal directions of the bounding box containing the license plate. The inter-vehicle distance is the inter-vehicle distance to another vehicle calculated based on the size of the license plate. The degree of risk is information indicating the degree of risk of driving calculated for the corresponding frame, and is information indicating the probability that another vehicle is driving at the tail end. If the license plate is not detected in the corresponding frame, the license plate and inter-vehicle distance are not stored.

第1危険度テーブルT1の各データは、後述する車外動画像送信処理において管理装置4によって設定される。 Each piece of data in the first risk level table T1 is set by the management device 4 in the vehicle-exterior moving image transmission process, which will be described later.

図7は、管理装置4の第3記憶部41に記憶される、車内動画像に関する情報を管理する第2危険度テーブルT2のデータ構造の一例を示す図である。第2危険度テーブルT2は、フレーム識別子、走行速度、姿勢、対象物及び危険度を相互に関連付けて記憶する。なお、フレーム識別子及び走行速度は、第1危険度テーブルT1のフレーム識別子及び走行速度と同様のデータである。 FIG. 7 is a diagram showing an example of the data structure of a second risk level table T2 that manages information about in-vehicle moving images and is stored in the third storage unit 41 of the management device 4. As shown in FIG. The second risk level table T2 stores frame identifiers, running speeds, postures, objects, and risk levels in association with each other. The frame identifier and running speed are the same data as the frame identifier and running speed of the first risk level table T1.

姿勢は、対応するフレームにおける運転者の姿勢に関する情報であり、関節位置に関する情報と顔の向きに関する情報とを含む。関節位置に関する情報は、対応するフレームにおける、運転者の複数の関節位置を示す情報である。図7に示す例では、関節位置は、例えば、関節位置に対応する画素のX座標及びY座標によって示されている。顔の向きに関する情報は、運転者の顔の向きの、所定方向(例えば、運転者の顔の中心位置から撮像装置2に向かう方向)に対する傾きを示す情報である。図7に示す例では、顔の向きは、運転者の顔の向きの、所定方向に対するピッチ角、ロール角及びヨー角によって示されている。 Posture is information about the posture of the driver in the corresponding frame, and includes information about joint positions and information about face orientation. The joint position information is information indicating a plurality of joint positions of the driver in the corresponding frame. In the example shown in FIG. 7, the joint positions are indicated by, for example, the X and Y coordinates of the pixels corresponding to the joint positions. The information about the orientation of the face is information indicating the inclination of the orientation of the driver's face with respect to a predetermined direction (for example, the direction from the center position of the driver's face toward the imaging device 2). In the example shown in FIG. 7, the face orientation is indicated by the pitch angle, roll angle and yaw angle of the driver's face orientation with respect to a predetermined direction.

対象物は、ながら運転における注視の対象となるスマートフォン、携帯電話等の対象物の、対応するフレームにおける位置を示す情報であり、例えば、対象物のバウンディングボックスの中心位置により示される。なお、対応するフレームにおいて対象物が検出されなかった場合、対象物は記憶されない。危険度は、対応するフレームにおける運転の危険度を示す情報であり、運転者がながら運転をしている蓋然性を示す情報である。 The target object is information indicating the position in the corresponding frame of the target object such as a smartphone, mobile phone, etc. to be gazed at while driving, and is indicated by, for example, the center position of the bounding box of the target object. Note that if no object is detected in the corresponding frame, the object is not stored. The degree of risk is information indicating the degree of risk of driving in the corresponding frame, and is information indicating the probability that the driver is driving while distracted.

第2危険度テーブルT2の各データは、後述する車内動画像送信処理において管理装置4によって設定される。 Each piece of data in the second risk level table T2 is set by the management device 4 in an in-vehicle moving image transmission process, which will be described later.

管理システム1は、車外動画像送信処理及び車内動画像送信処理を実行する。これらの処理は、定期又は不定期に、それぞれが並行して実行される。また、これらの処理は、管理システム1の各装置の処理部がプログラムを実行し、各装置の構成と協働することにより実現される。 The management system 1 executes an in-vehicle moving image transmission process and an in-vehicle moving image transmission process. These processes are executed in parallel on a regular or irregular basis. Further, these processes are realized by executing a program by the processing unit of each device of the management system 1 and cooperating with the configuration of each device.

図8は、管理システム1によって実行される車外動画像送信処理の流れの一例を示すシーケンス図である。以下では、図8を参照し、車外動画像として前方撮像部21によって撮像された前方動画像が送信される場合の車外動画像送信処理の流れについて説明する。なお、車外動画像として後方撮像部22によって撮像された後方動画像が送信される場合も同様である。 FIG. 8 is a sequence diagram showing an example of the flow of vehicle-exterior moving image transmission processing executed by the management system 1. As shown in FIG. Below, the flow of the vehicle-exterior moving image transmission process when the forward moving image captured by the forward imaging unit 21 is transmitted as the vehicle-exterior moving image will be described with reference to FIG. 8 . The same applies to the case where the rearward moving image captured by the rearward imaging unit 22 is transmitted as the vehicle-outside moving image.

まず、撮像装置2の動画像生成部271は、車両の前方を走行する前方車両を撮像して前方動画像を生成する(S101)。動画像生成部271は、前方撮像部21を制御して車両の前方を撮像し、所定の長さ(例えば、5分)の前方動画像を生成する。なお、前方車両は車両とは異なる他の車両の一例であり、前方動画像は第1の動画像の一例である。 First, the moving image generation unit 271 of the imaging device 2 images a forward vehicle traveling in front of the vehicle to generate a forward moving image (S101). The moving image generation unit 271 controls the front imaging unit 21 to image the front of the vehicle, and generates a forward moving image of a predetermined length (for example, 5 minutes). Note that the forward vehicle is an example of another vehicle different from the vehicle, and the forward moving image is an example of the first moving image.

続いて、車速生成部272は、車両の前方を撮像している時間における車両の走行速度を示す車速データを生成する(S102)。車速生成部272は、車速取得部24を制御して、車両の前方を撮像している時間における車両の走行速度を取得する。車速生成部272は、走行速度と時間とを関連付けて、時系列データである車速データを生成する。 Subsequently, the vehicle speed generator 272 generates vehicle speed data indicating the running speed of the vehicle during the time when the image in front of the vehicle is captured (S102). The vehicle speed generation unit 272 controls the vehicle speed acquisition unit 24 to acquire the running speed of the vehicle during the time when the front of the vehicle is imaged. The vehicle speed generation unit 272 generates vehicle speed data, which is time-series data, by associating the travel speed with time.

続いて、動画像送信部273は、第1通信部26を介して、前方動画像及び車速データを通信端末3に送信する(S103)。通信端末3の受信部341は、第2通信部32を介して、前方動画像及び車速データを受信する。 Subsequently, the moving image transmission unit 273 transmits the front moving image and the vehicle speed data to the communication terminal 3 via the first communication unit 26 (S103). The reception unit 341 of the communication terminal 3 receives the front moving image and vehicle speed data via the second communication unit 32 .

続いて、送信部342は、第3通信部33を介して、前方動画像及び車速データを管理装置4に送信する(S104)。管理装置4の動画像取得部431は、第4通信部42を介して、前方動画像及び車速データを受信することにより取得する(S105)。動画像取得部431は、前方動画像を構成する各フレームのフレーム識別子と、各フレームが撮像された時間における車両の走行速度とを関連付けて第1危険度テーブルT1に記憶する。 Subsequently, the transmission unit 342 transmits the front moving image and the vehicle speed data to the management device 4 via the third communication unit 33 (S104). The moving image acquisition unit 431 of the management device 4 acquires the front moving image and the vehicle speed data by receiving them via the fourth communication unit 42 (S105). The moving image acquisition unit 431 associates the frame identifier of each frame forming the front moving image with the traveling speed of the vehicle at the time when each frame was captured, and stores them in the first risk level table T1.

続いて、管理装置4は、前方動画像抽出処理を実行する(S106)。前方動画像抽出処理は、前方動画像の一部を抽出することにより抽出前方動画像を生成する処理である。なお、抽出前方動画像は第2の動画像の一例である。 Subsequently, the management device 4 executes forward moving image extraction processing (S106). The forward moving image extraction process is a process of generating an extracted forward moving image by extracting a portion of the forward moving image. Note that the extracted front moving image is an example of the second moving image.

続いて、管理装置4の抽出動画像送信部436は、第4通信部42を介して、抽出前方動画像を表示端末5に送信する(S107)。表示端末5は、抽出前方動画像を受信して表示し(S108)、前方動画像送信処理を終了する。 Subsequently, the extracted moving image transmission unit 436 of the management device 4 transmits the extracted forward moving image to the display terminal 5 via the fourth communication unit 42 (S107). The display terminal 5 receives and displays the extracted front moving image (S108), and ends the forward moving image transmission process.

図9は、前方動画像抽出処理の流れの一例を示すフロー図である。 FIG. 9 is a flow diagram showing an example of the flow of forward moving image extraction processing.

まず、管理装置4の情報取得部432は、前方動画像に基づいて生成される、前方車両のナンバープレートに関する情報を取得する(S201)。情報取得部432は、あらかじめ第3記憶部41に記憶されたナンバープレート検出用の学習済みモデルを用いてナンバープレートに関する情報を取得する。ナンバープレートに関する情報は、前方動画像を構成する各フレームにおける、ナンバープレートに対応する領域の大きさを示す情報である。 First, the information acquisition unit 432 of the management device 4 acquires information related to the license plate of the forward vehicle, which is generated based on the forward moving image (S201). The information acquisition unit 432 acquires information about the license plate using a learned model for license plate detection stored in the third storage unit 41 in advance. The information on the license plate is information indicating the size of the area corresponding to the license plate in each frame forming the front moving image.

ナンバープレート検出用の学習済みモデルは、画像が入力された場合に、その画像においてナンバープレートを包含するバウンディングボックスの大きさを出力するように学習された学習モデルである。学習モデルとしては、例えばSSD(Single Shot Detector)、YOLO(You Only Look once)又はR-CNN(Region with Convolutional Neural Network)等の、物体検出モデルが用いられる。学習モデルは、学習モデルが出力したバウンディングボックスの位置及び形状と、あらかじめ正解データとして設定されたバウンディングボックスの位置及び形状との誤差が小さくなるようにパラメータが更新されることにより学習される。 A trained model for license plate detection is a trained model that, when an image is input, has been trained to output the size of the bounding box containing the license plate in that image. Object detection models such as SSD (Single Shot Detector), YOLO (You Only Look once), and R-CNN (Region with Convolutional Neural Network) are used as learning models. The learning model is learned by updating the parameters so that the error between the position and shape of the bounding box output by the learning model and the position and shape of the bounding box set in advance as correct data is reduced.

情報取得部432は、前方動画像を構成する各フレームを学習済みモデルに入力し、各フレームについて出力されたバウンディングボックスの位置及び形状を取得する。情報取得部432は、取得したバウンディングボックスの位置及び形状に基づいて、ナンバープレートに関する情報を生成して取得する。ナンバープレートに関する情報は、例えば、ナンバープレートを包含するバウンディングボックスの縦方向と横方向の画素数である。ナンバープレートに関する情報は、バウンディングボックスの各頂点の位置関係やバウンディングボックスの面積等、ナンバープレートの大きさを示す他の情報でもよい。情報取得部432は、各フレームについて取得したナンバープレートに関する情報を第1危険度テーブルT1に記憶する。 The information acquisition unit 432 inputs each frame constituting the forward moving image to the trained model, and acquires the position and shape of the bounding box output for each frame. The information acquisition unit 432 generates and acquires information about the license plate based on the acquired position and shape of the bounding box. The information about the license plate is, for example, the number of pixels in the vertical and horizontal directions of the bounding box containing the license plate. The information about the license plate may be other information indicating the size of the license plate, such as the positional relationship between the vertices of the bounding box and the area of the bounding box. The information acquisition unit 432 stores the license plate information acquired for each frame in the first risk level table T1.

続いて、推定部433は、前方車両のナンバープレートに関する情報を車間距離推定用の学習済みモデルに入力することにより、車両と前方車両との車間距離を推定する(S202)。車間距離推定用の学習済みモデルは、ナンバープレートに関する情報が入力された場合に、車間距離を出力するように学習された学習モデルである。学習モデルとしては、勾配ブースティング決定木等の回帰モデルが用いられる。 Subsequently, the estimating unit 433 estimates the inter-vehicle distance between the vehicle and the preceding vehicle by inputting information about the license plate of the preceding vehicle into the learned model for estimating the inter-vehicle distance (S202). The learned model for estimating the inter-vehicle distance is a learned model trained to output the inter-vehicle distance when information on the license plate is input. A regression model such as a gradient boosting decision tree is used as a learning model.

学習モデルは、学習用入力画像が入力された場合に学習モデルが出力した車間距離と、あらかじめ学習用入力画像に関連付けて設定された学習用車間距離との誤差が小さくなるようにパラメータが更新されることにより学習される。学習用車間距離は、学習用入力画像が撮像されたときの実際の車間距離を測距センサ等を用いて測定することにより設定される。学習用入力画像及び学習用車間距離は、自動運転シミュレータを用いて生成されてもよい。 The parameters of the learning model are updated so that the error between the inter-vehicle distance output by the learning model when an input image for learning is input and the inter-vehicle distance for learning set in advance in association with the input image for learning is reduced. It is learned by The learning inter-vehicle distance is set by measuring the actual inter-vehicle distance using a distance measuring sensor or the like when the learning input image is captured. The input image for learning and the inter-vehicle distance for learning may be generated using an automatic driving simulator.

推定部433は、学習済みモデルから出力された車間距離を、ナンバープレートに関する情報に関連付けて第1危険度テーブルT1に記憶する。 The estimating unit 433 stores the inter-vehicle distance output from the learned model in the first risk level table T1 in association with the information on the license plate.

続いて、算出部434は、推定した車間距離に基づいて前方車両の危険度を算出する(S203)。危険度は、前方動画像のフレームと関連付けられた時系列データとして算出される。 Subsequently, the calculation unit 434 calculates the degree of danger of the preceding vehicle based on the estimated inter-vehicle distance (S203). The degree of risk is calculated as time-series data associated with the frame of the forward moving image.

算出部434は、あらかじめ設定されたルールに基づいて前方車両の危険度を算出する。例えば、算出部434は、前方動画像を構成するフレームのうち一のフレームを特定する。算出部434は、特定したフレームを含む直前の所定数のフレーム(例えば、20フレーム)を抽出する。算出部434は、抽出された各フレームについて推定された車間距離が何れも所定値(例えば、3m)以下であり且つ各フレームに対応する走行速度が所定値(例えば、時速10km)以上である場合に、特定したフレームについての危険度が高いと算出し、他の場合に、特定したフレームについての危険度が低いと算出する。 The calculation unit 434 calculates the degree of danger of the preceding vehicle based on preset rules. For example, the calculator 434 identifies one of the frames that form the front moving image. The calculation unit 434 extracts a predetermined number of frames (for example, 20 frames) immediately preceding the identified frame. When the inter-vehicle distance estimated for each extracted frame is equal to or less than a predetermined value (eg, 3 m) and the running speed corresponding to each frame is equal to or greater than a predetermined value (eg, 10 km/h) In other cases, the identified frame is calculated to be of high risk, and in other cases, the identified frame is calculated to be of low risk.

なお、あらかじめ設定されたルールは上述の例に限られない。例えば、算出部434は、抽出された各フレームのうち、推定された車間距離が所定値以下であるフレームが所定割合以上ある場合に、特定したフレームについての危険度が高いと算出してもよい。 Note that the preset rule is not limited to the above example. For example, the calculation unit 434 may calculate that the identified frame has a high degree of risk when the number of extracted frames in which the estimated inter-vehicle distance is equal to or less than a predetermined value is equal to or greater than a predetermined ratio. .

算出部434は、各フレームについて算出した危険度を各フレームのフレーム識別子に関連付けて第1危険度テーブルT1に記憶する。 The calculator 434 stores the risk calculated for each frame in the first risk table T1 in association with the frame identifier of each frame.

続いて、動画像抽出部435は、危険度に基づいて前方動画像の一部を抽出することにより抽出動画像を生成し(S204)、前方動画像抽出処理を終了する。例えば、動画像抽出部435は、危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように前方動画像の一部を抽出する。 Subsequently, the moving image extraction unit 435 generates an extracted moving image by extracting a portion of the forward moving image based on the degree of risk (S204), and ends the forward moving image extraction process. For example, the moving image extraction unit 435 extracts a portion of the forward moving image so as to include a range of a predetermined time from when the degree of risk satisfies a predetermined condition.

図6に示す例では、フレーム識別子「101」のフレームまでは、危険度が「低」と算出され、フレーム識別子「102」のフレームからは危険度が「高」と算出されている。したがって、所定の条件が、危険度が「高」であることであるとすると、動画像抽出部435は、フレーム識別子が「102」のフレーム以後の所定数のフレームを抽出し、抽出したフレームから構成される抽出動画像を生成する。 In the example shown in FIG. 6, the risk level is calculated as "low" up to the frame with the frame identifier "101", and the risk level is calculated as "high" from the frame with the frame identifier "102". Therefore, assuming that the predetermined condition is that the degree of risk is "high", the moving image extraction unit 435 extracts a predetermined number of frames after the frame with the frame identifier "102", Generating a composed extracted video image.

図10は、車内動画像送信処理の流れの一例を示す図である。 FIG. 10 is a diagram illustrating an example of the flow of in-vehicle moving image transmission processing.

まず、撮像装置2の動画像生成部271は、車両の運転者を撮像して車内動画像を生成する(S301)。動画像生成部271は、車内撮像部23を制御して車両の運転者を撮像し、所定の長さの車内動画像を生成する。なお、車内動画像は第1の動画像の一例である。 First, the moving image generator 271 of the imaging device 2 images the driver of the vehicle and generates an in-vehicle moving image (S301). The moving image generation unit 271 controls the in-vehicle imaging unit 23 to image the driver of the vehicle and generates an in-vehicle moving image of a predetermined length. Note that the in-vehicle moving image is an example of the first moving image.

続いて、車速生成部272は、運転者を撮像している時間における車両の走行速度を示す車速データを生成する(S302)。車速生成部272は、車速取得部24を制御して、車両の前方を撮像している時間における車両の走行速度を取得する。車両生成部272は、走行速度と時間とを関連付けて、時系列データである車速データを生成する。 Subsequently, the vehicle speed generator 272 generates vehicle speed data indicating the running speed of the vehicle during the time when the driver is imaged (S302). The vehicle speed generation unit 272 controls the vehicle speed acquisition unit 24 to acquire the running speed of the vehicle during the time when the front of the vehicle is imaged. The vehicle generation unit 272 generates vehicle speed data, which is time-series data, by associating the traveling speed with time.

続いて、動画像送信部273は、第1通信部26を介して、車内動画像及び車速データを通信端末3に送信する(S303)。通信端末3の受信部341は、第2通信部32を介して、車内動画像及び車速データを受信する。 Subsequently, the moving image transmission unit 273 transmits the in-vehicle moving image and the vehicle speed data to the communication terminal 3 via the first communication unit 26 (S303). The receiving unit 341 of the communication terminal 3 receives the in-vehicle moving image and the vehicle speed data via the second communication unit 32 .

続いて、送信部342は、第3通信部33を介して、車内動画像及び車速データを管理装置4に送信する(S304)。管理装置4の動画像取得部431は、第4通信部42を介して、車内動画像及び車速データを受信することにより取得する(S305)。動画像取得部431は、車内動画像を構成する各フレームのフレーム識別子と、各フレームが撮像された時間における車両の走行速度とを関連付けて第2危険度テーブルT2に記憶する。 Subsequently, the transmission unit 342 transmits the in-vehicle moving image and the vehicle speed data to the management device 4 via the third communication unit 33 (S304). The moving image acquisition unit 431 of the management device 4 acquires the in-vehicle moving image and the vehicle speed data by receiving them via the fourth communication unit 42 (S305). The moving image acquiring unit 431 associates the frame identifier of each frame constituting the in-vehicle moving image with the running speed of the vehicle at the time when each frame was captured, and stores them in the second risk level table T2.

続いて、管理装置4は、車内動画像抽出処理を実行する(S306)。車内動画像抽出処理は、車内動画像の一部を抽出することにより抽出車内動画像を生成する処理である。なお、抽出車内動画像は第2の動画像の一例である。 Subsequently, the management device 4 executes an in-vehicle moving image extraction process (S306). The in-vehicle moving image extraction process is a process of generating an extracted in-vehicle moving image by extracting a part of the in-vehicle moving image. Note that the extracted in-vehicle moving image is an example of the second moving image.

続いて、管理装置4の抽出動画像送信部436は、第4通信部42を介して、抽出車内動画像を表示端末5に送信する(S307)。表示端末5は、抽出車内動画像を受信して表示し(S308)、車内動画像送信処理を終了する。 Subsequently, the extracted moving image transmission unit 436 of the management device 4 transmits the extracted in-vehicle moving image to the display terminal 5 via the fourth communication unit 42 (S307). The display terminal 5 receives and displays the extracted in-vehicle moving image (S308), and ends the in-vehicle moving image transmission process.

図10は、車内動画像抽出処理の流れの一例を示すフロー図である。 FIG. 10 is a flow diagram showing an example of the flow of in-vehicle moving image extraction processing.

まず、情報取得部432は、車内動画像に基づいて生成される、運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を取得する(S401)。情報取得部432は、あらかじめ第3記憶部41に記憶された姿勢推定用の学習済みモデル及び対象物検出用の学習済みモデルを用いて、姿勢に関する情報及び対象物に関する情報を取得する。姿勢に関する情報は、車内動画像を構成する各フレームにおける、運転者の関節位置及び顔の向きに関する情報を含む。対象物に関する情報は、車内動画像を構成する各フレームにおける、所謂ながら運転の対象となる物に関する情報である。例えば、対象物に関する情報は、携帯電話、スマートフォン、カーナビ等の無線通話装置又は画像表示装置の位置及び種別に関する情報であってよい。なお、対象物に関する情報は、ながら運転等の危険な運転を検知するために必要な情報であればよく、上記の例に限定されない。また、対象物は、運転中に操作等することにより、ながら運転等の危険な運転と判断され得る物であれば、特に限定されない。 First, the information acquisition unit 432 acquires information about the posture of the driver and information about the object held by the driver, which are generated based on the in-vehicle moving image (S401). The information acquisition unit 432 acquires information about the orientation and information about the object using the trained model for orientation estimation and the trained model for object detection that are stored in advance in the third storage unit 41 . The posture information includes information on the joint positions and face orientation of the driver in each frame that constitutes the in-vehicle moving image. The information about the object is information about an object that is a so-called driving target in each frame that constitutes the in-vehicle moving image. For example, the information about the object may be information about the position and type of a radio communication device or an image display device such as a mobile phone, a smart phone, or a car navigation system. In addition, the information about the target object is not limited to the above examples as long as it is information necessary for detecting dangerous driving such as driving while distracted. In addition, the object is not particularly limited as long as it can be judged as dangerous driving such as distracted driving by being operated during driving.

姿勢推定用の学習済みモデルは、関節位置推定用の学習済みモデル及び顔の向き推定用の学習済みモデルを含む。関節位置推定用の学習済みモデルは、画像が入力された場合に、その画像における人物の関節位置を出力するように学習された学習モデルである。学習モデルとしては、例えばPoseNet又はPersonLab等が用いられる。学習モデルは、例えば、学習モデルが出力した関節位置と、あらかじめ正解データとして設定された関節位置との距離の二乗和である誤差が小さくなるようにパラメータが更新されることにより学習される。 The trained models for posture estimation include a trained model for joint position estimation and a trained model for face direction estimation. A learned model for estimating joint positions is a learning model that has been trained to output joint positions of a person in an image when the image is input. As a learning model, for example, PoseNet or PersonLab is used. The learning model is learned by, for example, updating the parameters so that the error, which is the sum of the squares of the distances between the joint positions output by the learning model and the joint positions set in advance as correct data, is reduced.

顔の向き推定用の学習済みモデルは、画像が入力された場合に、その画像における人物の顔の向き(例えば、ロール角、ピッチ角及びヨー角)を出力するように学習された学習モデルである。学習モデルとしては、例えばFSA-Net等が用いられる。学習モデルは、学習モデルが出力した顔の向きと、あらかじめ正解データとして設定された顔の向きとの誤差が小さくなるようにパラメータが更新されることにより学習される。 A trained model for estimating face orientation is a learning model trained to output the orientation of a person's face (e.g., roll angle, pitch angle, and yaw angle) in an image when an image is input. be. For example, FSA-Net or the like is used as the learning model. The learning model is learned by updating the parameters so that the error between the face direction output by the learning model and the face direction set in advance as correct data is reduced.

対象物検出用の学習済みモデルは、画像が入力された場合に、その画像において対象物に対応する領域を包含するバウンディングボックスの位置、形状及び対象物の種類を出力するように学習された学習モデルである。学習モデルとしては、例えばSSD、YOLO又はR-CNN等の、物体検出モデルが用いられる。学習モデルは、学習モデルが出力したバウンディングボックスの位置、形状及び対象物の種類と、あらかじめ正解データとして設定されたバウンディングボックスの位置、形状及び対象物の種類との誤差が小さくなるようにパラメータが更新されることにより学習される。 A trained model for object detection is trained to output the position and shape of a bounding box containing the area corresponding to the object in the image and the type of the object when an image is input. is a model. An object detection model such as SSD, YOLO or R-CNN is used as the learning model. The learning model has parameters that reduce the error between the position, shape, and type of object of the bounding box output by the learning model and the position, shape, and type of object of the bounding box set in advance as correct data. Learned by being updated.

情報取得部432は、前方動画像を構成する各フレームを関節位置推定用の学習済みモデル、顔の向き推定用の学習済みモデル及び対象物検出用の学習済みモデルにそれぞれ入力する。情報取得部432は、関節位置推定用の学習済みモデルの出力に基づいて、運転者の関節位置に関する情報を生成する。また、情報取得部432は、顔の向き推定用の学習済みモデルの出力に基づいて、運転者の顔の向きに関する情報を生成する。情報取得部432は、運転者の関節位置に関する情報と顔の向きに関する情報とを関連付けて、運転者の姿勢に関する情報として取得する。また、情報取得部432は、対象物検出用の学習済みモデルの出力に基づいて運転者が把持する対象物に関する情報を生成して取得する。情報取得部432は、取得した姿勢に関する情報及び対象物に関する情報を第2危険度テーブルT2に記憶する。 The information acquisition unit 432 inputs each frame constituting the forward moving image to a trained model for joint position estimation, a trained model for face orientation estimation, and a trained model for object detection. The information acquisition unit 432 generates information about the joint positions of the driver based on the output of the learned model for joint position estimation. In addition, the information acquisition unit 432 generates information regarding the orientation of the driver's face based on the output of the trained model for estimating the orientation of the face. The information acquisition unit 432 associates the information on the joint positions of the driver with the information on the orientation of the face and acquires them as information on the posture of the driver. In addition, the information acquisition unit 432 generates and acquires information about the object gripped by the driver based on the output of the learned model for object detection. The information acquisition unit 432 stores the acquired information about the posture and the information about the object in the second risk level table T2.

続いて、推定部433は、運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を注視状態推定用の学習済みモデルに入力することにより、車両の運転者が対象物を注視しているか否かを推定する(S402)。注視状態推定用の学習済みモデルは、運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報が入力された場合に、運転者が対象物を注視しているか蓋然性を示す確信度を出力するように学習された学習モデルである。学習モデルとしては、勾配ブースティング決定木等の分類モデルが用いられる。 Next, the estimating unit 433 inputs the information about the posture of the driver and the information about the object held by the driver to the trained model for estimating the state of gaze, thereby allowing the driver of the vehicle to gaze at the object. It is estimated whether or not there is (S402). The trained model for estimating the state of gaze outputs a degree of certainty that indicates the probability that the driver is gazing at an object when information on the driver's posture and information on the object held by the driver are input. It is a learning model that has been trained to As a learning model, a classification model such as a gradient boosting decision tree is used.

学習モデルは、学習用の姿勢及び対象物に関する情報が入力された場合に学習モデルが出力した確信度と、あらかじめ学習用の姿勢及び対象物に関する情報に関連付けて設定された学習用確信度との交差エントロピー誤差が小さくなるようにパラメータが更新されることにより学習される。学習用の姿勢及び対象物に関する情報は、例えば、学習用に撮像した運転者の画像に基づいて生成される。また、学習用確信度は、学習用に撮像した運転者の画像において、運転者が対象物を注視しているか否かに応じて異なる要素が1となり、他の要素が0となるように設定されたOne-Hotベクトルである。 The learning model is a combination of the confidence level output by the learning model when the information on the posture and object for learning is input, and the confidence level for learning set in advance in association with the information on the posture and target for learning. Learning is performed by updating the parameters so that the cross-entropy error becomes small. Information about the posture and the object for learning is generated based on, for example, an image of the driver captured for learning. In addition, the certainty factor for learning is set so that in the image of the driver captured for learning, a different element is 1 depending on whether the driver is gazing at the target object, and the other elements are 0. is a one-hot vector with

続いて、算出部434は、推定の結果に基づいて運転者の危険度を算出する(S403)。危険度は、車内動画像のフレームと関連付けられた時系列データとして算出される。 Subsequently, the calculation unit 434 calculates the risk of the driver based on the estimation result (S403). The degree of risk is calculated as time-series data associated with frames of the in-vehicle moving image.

算出部434は、あらかじめ設定されたルールに基づいて運転者の危険度を算出する。例えば、算出部434は、車内動画像を構成するフレームのうちの一のフレームを特定する。算出部434は、特定したフレーム及び特定したフレームの直前の所定数のフレーム(例えば、2秒間に相当する数のフレーム)を抽出する。算出部434は、抽出された各フレームについての推定の結果が何れも運転者が対象物を注視していることを示し且つ各フレームに対応する走行速度が時速0km(すなわち、停車中)でない場合に、特定したフレームについての危険度が高いと算出し、他の場合に、特定したフレームについての危険度が低いと算出する。 The calculation unit 434 calculates the degree of risk of the driver based on preset rules. For example, the calculation unit 434 identifies one of the frames forming the in-vehicle moving image. The calculation unit 434 extracts the identified frame and a predetermined number of frames immediately preceding the identified frame (for example, the number of frames corresponding to two seconds). The calculation unit 434 determines that the estimation result for each extracted frame indicates that the driver is gazing at the target object and the running speed corresponding to each frame is not 0 km/h (that is, the vehicle is stopped). In other cases, the identified frame is calculated to be of high risk, and in other cases, the identified frame is calculated to be of low risk.

続いて、動画像抽出部435は、危険度に基づいて車内動画像の一部を抽出することにより抽出動画像を生成し(S404)、前方動画像抽出処理を終了する。例えば、動画像抽出部435は、危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように前方動画像の一部を抽出する。 Subsequently, the moving image extraction unit 435 generates an extracted moving image by extracting a portion of the in-vehicle moving image based on the degree of risk (S404), and ends the forward moving image extraction process. For example, the moving image extraction unit 435 extracts a portion of the forward moving image so as to include a range of a predetermined time from when the degree of risk satisfies a predetermined condition.

以上説明したように、管理装置4は、前方動画像に基づいて生成される他の車両のナンバープレートの情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定する。また、管理装置4は、推定した車間距離に基づいて算出される他の車両の危険度に基づいて前方動画像の一部を抽出することにより抽出前方動画像を生成する。これにより、管理装置4は、車両の管理者が危険運転を適切に確認することを可能とする。 As described above, the management device 4 estimates the inter-vehicle distance between the vehicle and the other vehicle by inputting the license plate information of the other vehicle generated based on the front moving image into the learned model. . In addition, the management device 4 generates an extracted front moving image by extracting a part of the front moving image based on the degree of danger of other vehicles calculated based on the estimated inter-vehicle distance. As a result, the management device 4 enables the vehicle manager to appropriately confirm dangerous driving.

すなわち、管理装置4は、車間距離に基づいて他の車両の危険度を算出するため、車間距離を急激に狭めて運転する等の事故に至らないあおり運転を適切に検知することができる。そして、管理装置4は、危険度に基づいて前方動画像の一部を抽出することにより、あおり運転の態様を管理者が効率的に確認することを可能とする。また、管理装置4は、測距センサ等を備えない撮像装置2を用いて車間距離を算出するため、多数の車両を所有する運送業者等が比較的安価に管理システム1を導入することを可能とする。 That is, since the management device 4 calculates the degree of risk of other vehicles based on the inter-vehicle distance, it is possible to appropriately detect tailgate driving that does not lead to an accident, such as driving with the inter-vehicle distance sharply narrowed. Then, the management device 4 extracts a portion of the front moving image based on the degree of risk, thereby enabling the manager to efficiently check the mode of tailgate driving. In addition, since the management device 4 calculates the inter-vehicle distance using the imaging device 2 that does not include a distance measuring sensor or the like, it is possible for a carrier or the like owning a large number of vehicles to introduce the management system 1 at a relatively low cost. and

また、管理装置4は、車内動画像に基づいて生成される車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、運転者が対象物を注視しているか否かを推定する。また、管理装置4は、推定の結果に基づいて算出される運転者の危険度に基づいて車内動画像の一部を抽出することにより抽出車内動画像を生成する。これにより、管理装置4は、車両の管理者が危険運転を適切に確認することを可能とする。 In addition, the management device 4 inputs information about the posture of the driver of the vehicle generated based on the in-vehicle moving image and information about the object held by the driver into the learned model so that the driver can grasp the object. Predict whether or not you are watching. In addition, the management device 4 generates an extracted in-vehicle moving image by extracting a part of the in-vehicle moving image based on the degree of risk of the driver calculated based on the result of the estimation. As a result, the management device 4 enables the vehicle manager to appropriately confirm dangerous driving.

すなわち、管理装置4は、運転者の姿勢に関する情報と対象物に関する情報との両方を用いて運転者が対象物を注視しているか否かを推定することにより、運転者の視線の追跡が困難な場合でも適切にながら運転を検知することができる。また、そして、管理装置4は、推定結果に基づく危険度を用いて車内動画像の一部を抽出することにより、ながら運転の態様を管理者が効率的に確認することを可能とする。 That is, the management device 4 estimates whether or not the driver is gazing at the target using both the information regarding the driver's posture and the information regarding the target, thereby making it difficult to track the line of sight of the driver. Even in such cases, it is possible to appropriately detect driving. Moreover, the management device 4 extracts a portion of the in-vehicle moving image using the degree of risk based on the estimation result, thereby enabling the manager to efficiently check the mode of driving.

また、管理装置4は、あらかじめ設定されたルールに基づいて危険度を算出する。これにより、管理装置4は、危険運転をより適切に検知することを可能とする。すなわち、ながら運転にあたるか否かの基準は運転者が約2秒以上画面を見続けることとされているから、管理装置4がこのようなルールに基づいて危険度を判定することにより、危険運転をより適切に検知することが可能となる。また、これにより、管理装置4は危険運転の基準の変更に容易に対応することができる。 In addition, the management device 4 calculates the degree of risk based on preset rules. This allows the management device 4 to more appropriately detect dangerous driving. That is, since the standard for determining whether or not to drive while driving is that the driver continues to look at the screen for about two seconds or more, the management device 4 determines the degree of danger based on such rules, thereby reducing dangerous driving. can be detected more appropriately. In addition, this allows the management device 4 to easily respond to changes in the criteria for dangerous driving.

また、管理装置4は、危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように前方動画像、後方動画像又は車内動画像の一部を抽出する。これにより、管理装置4は、管理者が危険運転の状況及びその前後の状況を適切に確認することを可能とする。 Moreover, the management device 4 extracts a part of the front moving image, the rear moving image, or the in-vehicle moving image so that the range for a predetermined time period from the time when the degree of risk satisfies the predetermined condition is included. As a result, the management device 4 enables the manager to appropriately check the situation of dangerous driving and the situation before and after that.

なお、管理装置4は、S204において、危険度が所定の条件を満たしている時間が含まれるように前方動画像の一部を抽出してもよい。図6に示す例では、フレーム識別子「102」のフレームからフレーム識別子「151」のフレームまで、危険度が「高」と算出されている。したがって、所定の条件が、危険度が「高」であることであるとすると、動画像抽出部435は、フレーム識別子が「102」のフレームからフレーム識別子が「151」のフレームまでを抽出し、抽出したフレームから構成される抽出動画像を生成する。同様に、管理装置4は、S404において、危険度が所定の条件を満たしている時間が含まれるように車内動画像の一部を抽出してもよい。 Note that, in S204, the management device 4 may extract a portion of the forward moving image so as to include a time period during which the degree of risk satisfies a predetermined condition. In the example shown in FIG. 6, the degree of risk is calculated as "high" from the frame with the frame identifier "102" to the frame with the frame identifier "151". Therefore, assuming that the predetermined condition is that the degree of risk is "high", the moving image extraction unit 435 extracts frames from the frame with the frame identifier "102" to the frame with the frame identifier "151", An extracted moving image composed of the extracted frames is generated. Similarly, in S404, the management device 4 may extract a portion of the in-vehicle moving image so as to include the time period during which the degree of risk satisfies a predetermined condition.

また、この場合において、管理装置4は、危険度が所定の条件を満たしている時間の前後に所定時間(例えば、前後それぞれ5秒ずつ)を付加した時間が含まれるように前方動画像の一部を抽出してもよい。これにより、管理装置4は、管理者が危険運転の前後の状況をより適切に確認することを可能とする。 Also, in this case, the management device 4 may add a predetermined time (for example, five seconds each before and after) to the time when the degree of risk satisfies the predetermined condition. part may be extracted. As a result, the management device 4 enables the manager to more appropriately confirm the situation before and after dangerous driving.

上述した説明では、車内動画送信処理のS302において、撮像装置2は車速データを生成するものとしたが、撮像装置2は車速データを生成しなくてもよい。この場合、管理装置4は、車両の走行速度にかかわらず、運転者の姿勢及び対象物に関する情報に基づいて危険度を算出する。信号待ち等の、停車中であっても運転者が画像表示装置を注視することは好ましくない場合がある。管理装置4は、このような場合に車両の走行速度に関わらず運転者が画像表示装置を注視したことを検知することができる。 In the above description, the imaging device 2 generates vehicle speed data in S302 of the in-vehicle video transmission process, but the imaging device 2 does not have to generate vehicle speed data. In this case, the management device 4 calculates the degree of danger based on the driver's posture and the information on the object, regardless of the traveling speed of the vehicle. It may not be desirable for the driver to gaze at the image display device even while the vehicle is stopped, such as when waiting for a signal. In such a case, the management device 4 can detect that the driver has gazed at the image display device regardless of the traveling speed of the vehicle.

上述した説明では、管理装置4は、取得した動画像の各フレームについて危険度を算出するものとしたが、このような例に限られない。例えば、管理装置4は、動画像を構成するフレームのうちから、所定時間(例えば、1秒)ごとに1つのフレームを抽出し、抽出したフレームに対して危険度を算出するようにしてもよい。これにより、管理装置4の処理負荷を低減することができる。 In the above description, the management device 4 calculates the degree of risk for each frame of the acquired moving image, but the invention is not limited to this example. For example, the management device 4 may extract one frame at predetermined time intervals (for example, one second) from among the frames that make up the moving image, and calculate the degree of risk for the extracted frame. . Thereby, the processing load on the management device 4 can be reduced.

上述した説明では、管理装置4は、S203において、あらかじめ設定されたルールに基づいて危険度を算出するものとしたが、このような例に限られない。管理装置4は、第3記憶部41に記憶された危険度算出用の学習済みモデルを用いて危険度を算出してもよい。学習済みモデルは、連続する所定数のフレームについて推定された車間距離が入力された場合に、危険度を算出するように学習された、勾配ブースティング決定木等の学習モデルである。 In the above description, in S203, the management device 4 calculates the degree of risk based on a preset rule, but the present invention is not limited to this example. The management device 4 may calculate the degree of risk using a learned model for calculating the degree of risk stored in the third storage unit 41 . A trained model is a learned model, such as a gradient boosted decision tree, that has been trained to calculate the degree of risk when an inter-vehicle distance estimated for a predetermined number of consecutive frames is input.

学習モデルは、学習用の車間距離が入力された場合に学習モデルが出力した危険度と、あらかじめ学習用の車間距離に関連付けて設定された学習用危険度との交差エントロピー誤差が小さくなるようにパラメータが更新されることにより学習される。学習用の車間距離は、例えば、学習用に撮像した前方車両の動画像に基づいて生成される。また、学習用危険度は、例えば、学習用に撮像した前方車両の動画像を見た者がどの程度危険に感じたかに基づいて設定される。これにより、管理装置4は、あおり運転をより適切に検知することができる。すなわち、他の車両の運転があおり運転にあたるか否かは運転者の主観的な要素にも基づくと考えられるため、学習済みモデルを用いることで、運転者の主観的な要素を踏まえた適切なあおり運転の検知が可能となる。 The learning model is designed to reduce the cross-entropy error between the risk level output by the learning model when the inter-vehicle distance for learning is input and the risk level for learning that is set in advance in association with the inter-vehicle distance for learning. It is learned by updating the parameters. The inter-vehicle distance for learning is generated, for example, based on the moving image of the preceding vehicle captured for learning. Also, the learning risk level is set based on, for example, how dangerous a person who viewed the moving image of the vehicle ahead captured for learning felt to be in danger. Thereby, the management device 4 can more appropriately detect tailgate driving. In other words, it can be considered that whether or not driving another vehicle constitutes aggressive driving is also based on the subjective factors of the driver. Cage driving can be detected.

上述した説明における管理装置4の機能の一部又は全部は、撮像装置2又は通信端末3によって実現されてもよい。例えば、車外動画像送信処理において、通信端末3が危険度を算出して抽出前方動画像を生成し、通信端末3に送信するようにしてもよい。これにより、ネットワーク6を経由する通信量を低減することができる。 Some or all of the functions of the management device 4 described above may be implemented by the imaging device 2 or the communication terminal 3 . For example, in the vehicle-exterior moving image transmission process, the communication terminal 3 may calculate the degree of risk, generate an extracted front moving image, and transmit the extracted forward moving image to the communication terminal 3 . Thereby, the amount of communication via the network 6 can be reduced.

上述した説明では、通信端末3は車両の運転者が携帯するスマートフォン等であるものとしたが、このような例に限られない。例えば、通信端末3は車両に設けられた通信モジュールでもよい。また、撮像装置2の第1通信部25が、管理装置4と直接に通信可能となるように構成されてもよい。 In the above description, the communication terminal 3 is assumed to be a smart phone or the like carried by the driver of the vehicle, but the communication terminal 3 is not limited to such an example. For example, the communication terminal 3 may be a communication module provided in the vehicle. Also, the first communication unit 25 of the imaging device 2 may be configured to be directly communicable with the management device 4 .

当業者は、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。例えば、上述した各部の処理は、本発明の範囲において、適宜に異なる順序で実行されてもよい。また、上述した実施形態及び変形例は、本発明の範囲において、適宜に組み合わせて実施されてもよい。 It should be understood by those skilled in the art that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention. For example, the processing of each unit described above may be performed in a different order as appropriate within the scope of the present invention. Also, the above-described embodiments and modifications may be implemented in appropriate combinations within the scope of the present invention.

1 管理システム
2 撮像装置
271 動画像生成部
272 車速生成部
273 動画像送信部
3 通信端末
341 受信部
342 送信部
4 管理装置
431 動画像取得部
432 情報取得部
433 推定部
434 算出部
435 動画像抽出部
436 抽出動画像送信部
1 Management System 2 Imaging Device 271 Moving Image Generation Part 272 Vehicle Speed Generation Part 273 Moving Image Transmission Part 3 Communication Terminal 341 Receiving Part 342 Transmission Part 4 Management Device 431 Moving Image Acquisition Part 432 Information Acquisition Part 433 Estimation Part 434 Calculation Part 435 Moving Image Extraction unit 436 Extraction moving image transmission unit

Claims (10)

車両に設けられる撮像装置と、管理装置と、を有する管理システムであって、
前記撮像装置は、
前記車両とは異なる他の車両を撮像して車外動画像を生成するとともに、前記車両の運転者を撮像して車内動画像を生成する第1生成部と、
前記車外動画像と前記車内動画像とを前記管理装置に送信する第1送信部と、を有し、
前記管理装置は、
ナンバープレートに関する情報と前記ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した第1の学習済みモデル、並びに、車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と前記運転者が前記対象物を注視しているか否かを示す情報との関係をあらかじめ学習した第2の学習済みモデルを記憶する記憶部と、
前記車外動画像と前記車内動画像とを取得する動画像取得部と、
前記車外動画像に基づいて生成される、前記他の車両のナンバープレートに関する情報と、前記車内動画像に基づいて生成される、前記車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と、を取得する情報取得部と、
前記取得した他の車両のナンバープレートに関する情報を前記第1の学習済みモデルに入力することにより、前記車両と前記他の車両との車間距離を推定するとともに、前記取得した運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報を前記第2の学習済みモデルに入力することにより、前記車両の運転者が前記対象物を注視しているか否かを推定する推定部と、
前記推定した車間距離に基づいて前記他の車両の危険度を算出するとともに、前記車両の運転者が前記対象物を注視しているか否かに基づいて前記車両の運転者の危険度を算出する算出部と、
前記他の車両の危険度に基づいて前記車外動画像の一部を抽出することにより抽出車外動画像を生成するとともに、前記運転者の危険度に基づいて前記車内動画像の一部を抽出することにより抽出車内動画像を生成する第2生成部と、
前記抽出車外動画像と前記抽出車内動画像とを送信する第2送信部と、を有する、
ことを特徴とする管理システム。
A management system having an imaging device provided in a vehicle and a management device,
The imaging device is
a first generation unit that captures another vehicle different from the vehicle to generate an exterior moving image , and captures a driver of the vehicle to generate an in-vehicle moving image ;
a first transmission unit that transmits the vehicle exterior video image and the vehicle interior video image to the management device;
The management device
A first trained model that has learned in advance the relationship between information about the license plate and the inter -vehicle distance to the vehicle with the license plate, information about the joint positions of the driver of the vehicle, and information about the face orientation of the driver. a storage unit that stores a second learned model that has previously learned a relationship between information and information about an object gripped by the driver and information indicating whether the driver is gazing at the object;
a video image acquisition unit that acquires the vehicle exterior video image and the vehicle interior video image ;
information about the license plate of the other vehicle generated based on the moving image outside the vehicle ; information about joint positions of the driver of the vehicle generated based on the moving image inside the vehicle; an information acquisition unit that acquires information on orientation and information on an object held by the driver ;
By inputting the obtained information about the license plate of the other vehicle into the first learned model, the inter-vehicle distance between the vehicle and the other vehicle is estimated , and the obtained joint position of the driver is estimated. By inputting information, information about the orientation of the driver's face, and information about the object held by the driver into the second trained model, it is possible to determine whether the driver of the vehicle is gazing at the object. an estimation unit that estimates whether or not
calculating the risk of the other vehicle based on the estimated inter-vehicle distance, and calculating the risk of the driver of the vehicle based on whether or not the driver of the vehicle is gazing at the object; a calculation unit;
An extracted vehicle exterior video image is generated by extracting a portion of the vehicle exterior video image based on the degree of risk of the other vehicle , and a portion of the vehicle interior video image is extracted based on the driver's degree of risk. a second generation unit that generates an extracted in-vehicle moving image by
a second transmission unit that transmits the extracted vehicle exterior moving image and the extracted vehicle interior moving image ;
A management system characterized by:
前記算出部は、あらかじめ設定されたルールに基づいて前記他の車両の危険度及び前記運転者の危険度を算出する、
請求項に記載の管理システム。
The calculation unit calculates the risk level of the other vehicle and the risk level of the driver based on preset rules.
The management system of Claim 1 .
前記算出部は、前記他の車両の危険度を、前記車外動画像の再生時刻と関連付けられた時系列データとして算出するとともに、前記運転者の危険度を、前記車内動画像の再生時刻と関連付けられた時系列データとして算出し、
前記第2生成部は、前記他の車両の危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように前記車外動画像の一部を抽出するとともに、前記運転者の危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように前記車内動画像の一部を抽出する
請求項1又は2に記載の管理システム。
The calculation unit calculates the degree of risk of the other vehicle as time-series data associated with the reproduction time of the video image outside the vehicle , and associates the degree of risk of the driver with the reproduction time of the video image inside the vehicle. calculated as time-series data ,
The second generation unit extracts a portion of the vehicle exterior video image so as to include a range of a predetermined time from a point in time when the degree of risk of the other vehicle satisfies a predetermined condition, extracting a portion of the in-vehicle moving image so as to include a range of a predetermined time from the time when satisfies a predetermined condition;
3. Management system according to claim 1 or 2 .
前記算出部は、前記他の車両の危険度を、前記車外動画像の再生時刻と関連付けられた時系列データとして算出するとともに、前記運転者の危険度を、前記車内動画像の再生時刻と関連付けられた時系列データとして算出し、
前記第2生成部は、前記他の車両の危険度が所定の条件を満たしている時間が含まれるように前記車外動画像の一部を抽出するとともに、前記運転者の危険度が所定の条件を満たしている時間が含まれるように前記車内動画像の一部を抽出する
請求項1-の何れか一項に記載の管理システム。
The calculation unit calculates the degree of risk of the other vehicle as time-series data associated with the reproduction time of the video image outside the vehicle , and associates the degree of risk of the driver with the reproduction time of the video image inside the vehicle. calculated as time-series data ,
The second generation unit extracts a portion of the vehicle exterior video image so as to include a time period during which the degree of risk of the other vehicle satisfies a predetermined condition, and extracts a portion of the vehicle exterior video image so that the degree of risk of the driver satisfies a predetermined condition. extracting a portion of the in-vehicle video so as to include the time that satisfies
Management system according to any one of claims 1-3 .
前記第1送信部は、さらに前記車両の走行速度を示す車速データを前記管理装置に送信し、The first transmission unit further transmits vehicle speed data indicating the running speed of the vehicle to the management device,
前記動画像取得部は、さらに前記車速データを取得し、The moving image acquisition unit further acquires the vehicle speed data,
前記算出部は、The calculation unit
前記車外動画像を構成する各フレームについて、当該フレームを含む直前の所定数のフレームについて推定された車間距離が何れも所定値以下であり且つ各フレームに対応する走行速度が所定値以上である場合に、当該フレームについての危険度が高いと算出することにより、前記他の車両の危険度を、前記車外動画像のフレームと関連付けられた時系列データとして算出し、For each frame that constitutes the vehicle exterior video, the vehicle-to-vehicle distances estimated for a predetermined number of frames immediately preceding the frame are all equal to or less than a predetermined value, and the travel speed corresponding to each frame is equal to or greater than a predetermined value. and calculating the risk of the other vehicle as time-series data associated with the frame of the vehicle exterior video by calculating that the frame has a high risk,
前記車内動画像を構成する各フレームについて、当該フレームを含む直前の所定数のフレームについての前記推定の結果が何れも前記運転者が前記対象物を注視していることを示し且つ各フレームに対応する車速データが停車中でないことを示す場合に、当該フレームについての危険度が高いと算出することにより、前記運転者の危険度を、前記車内動画像のフレームと関連付けられた時系列データとして算出する、For each frame constituting the in-vehicle moving image, the results of the estimation for a predetermined number of frames immediately before including the frame indicate that the driver is gazing at the object and correspond to each frame. When the vehicle speed data indicates that the vehicle is not stopped, the driver's risk is calculated as time-series data associated with the frame of the in-vehicle moving image by calculating that the risk of the frame is high. do,
請求項1-4の何れか一項に記載の管理システム。Management system according to any one of claims 1-4.
前記車両の運転者又は同乗者が携帯する通信端末をさらに有し、further comprising a communication terminal carried by the driver or passenger of the vehicle;
前記第1送信部は、前記車外動画像と前記車内動画像とを前記通信端末に送信し、The first transmission unit transmits the vehicle exterior video and the vehicle interior video to the communication terminal,
前記動画像取得部は、前記車外動画像と前記車内動画像とを前記通信端末から取得する、The video image acquisition unit acquires the vehicle exterior video image and the vehicle interior video image from the communication terminal.
請求項1-5の何れか一項に記載の管理システム。Management system according to any one of claims 1-5.
車両に設けられる撮像装置と、管理装置と、を有するシステムによって実行される管理方法であって、
前記撮像装置が、
前記車両とは異なる他の車両を撮像して車外動画像を生成するとともに、前記車両の運転者を撮像して車内動画像を生成し、
前記車外動画像と前記車内動画像とを前記管理装置に送信し、
前記管理装置が、
ナンバープレートに関する情報と前記ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した第1の学習済みモデル、並びに、車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と前記運転者が前記対象物を注視しているか否かを示す情報との関係をあらかじめ学習した第2の学習済みモデルを記憶し、
前記車外動画像と前記車内動画像とを取得し、
前記車外動画像に基づいて生成される、前記他の車両のナンバープレートに関する情報と、前記車内動画像に基づいて生成される、前記車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と、を取得し、
前記取得した他の車両のナンバープレートに関する情報を前記第1の学習済みモデルに入力することにより、前記車両と前記他の車両との車間距離を推定するとともに、前記取得した運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報を前記第2の学習済みモデルに入力することにより、前記車両の運転者が前記対象物を注視しているか否かを推定し、
前記推定した車間距離に基づいて前記他の車両の危険度を算出するとともに、前記車両の運転者が前記対象物を注視しているか否かに基づいて前記車両の運転者の危険度を算出し、
前記他の車両の危険度に基づいて前記車外動画像の一部を抽出することにより抽出車外動画像を生成するとともに、前記運転者の危険度に基づいて前記車内動画像の一部を抽出することにより抽出車内動画像を生成し、
前記抽出車外動画像と前記抽出車内動画像とを送信する、
ことを含むことを特徴とする管理方法。
A management method executed by a system having an imaging device provided in a vehicle and a management device,
The imaging device
imaging another vehicle different from the vehicle to generate an exterior moving image , and imaging a driver of the vehicle to generate an in-vehicle moving image ;
transmitting the vehicle exterior video image and the vehicle interior video image to the management device;
The management device
A first trained model that has learned in advance the relationship between information about the license plate and the inter -vehicle distance to the vehicle with the license plate, information about the joint positions of the driver of the vehicle, and information about the face orientation of the driver. storing a second trained model that has previously learned a relationship between information and information about an object held by the driver and information indicating whether the driver is gazing at the object;
Acquiring the vehicle exterior video image and the vehicle interior video image ,
information about the license plate of the other vehicle generated based on the moving image outside the vehicle ; information about joint positions of the driver of the vehicle generated based on the moving image inside the vehicle; Acquiring information about the orientation and information about the object grasped by the driver ;
By inputting the obtained information about the license plate of the other vehicle into the first learned model, the inter-vehicle distance between the vehicle and the other vehicle is estimated, and the obtained joint position of the driver is estimated. By inputting information, information about the orientation of the driver's face, and information about the object held by the driver into the second trained model, it is possible to determine whether the driver of the vehicle is gazing at the object. infer whether or not
calculating the degree of danger of the other vehicle based on the estimated inter-vehicle distance, and calculating the degree of danger of the driver of the vehicle based on whether or not the driver of the vehicle is gazing at the object; ,
An extracted vehicle exterior video image is generated by extracting a portion of the vehicle exterior video image based on the degree of risk of the other vehicle , and a portion of the vehicle interior video image is extracted based on the driver's degree of risk. Generates an extracted in-vehicle moving image by
transmitting the extracted vehicle exterior video image and the extracted vehicle interior video image ;
A management method characterized by comprising:
ナンバープレートに関する情報と前記ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した第1の学習済みモデル、並びに、車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と前記運転者が前記対象物を注視しているか否かを示す情報との関係をあらかじめ学習した第2の学習済みモデルを記憶する記憶部と、
車両に設けられた撮像装置が前記車両とは異なる他の車両を撮像して生成した車外動画像と前記撮像装置が前記車両の運転者を撮像して生成した車内動画像とを取得する動画像取得部と、
前記車外動画像に基づいて生成される、前記他の車両のナンバープレートに関する情報と、前記車内動画像に基づいて生成される、前記車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と、を取得する情報取得部と、
前記取得した他の車両のナンバープレートに関する情報を前記第1の学習済みモデルに入力することにより、前記車両と前記他の車両との車間距離を推定するとともに、前記取得した運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報を前記第2の学習済みモデルに入力することにより、前記車両の運転者が前記対象物を注視しているか否かを推定する推定部と、
前記推定した車間距離に基づいて前記他の車両の危険度を算出するとともに、前記車両の運転者が前記対象物を注視しているか否かに基づいて前記車両の運転者の危険度を算出する算出部と、
前記他の車両の危険度に基づいて前記車外動画像の一部を抽出することにより抽出車外動画像を生成するとともに、前記運転者の危険度に基づいて前記車内動画像の一部を抽出することにより抽出車内動画像を生成する第2生成部と、
前記抽出車外動画像と前記抽出車内動画像とを送信する第2送信部と、
を有することを特徴とする管理装置。
A first trained model that has learned in advance the relationship between information about the license plate and the inter -vehicle distance to the vehicle with the license plate, information about the joint positions of the driver of the vehicle, and information about the face orientation of the driver. a storage unit that stores a second learned model that has previously learned a relationship between information and information about an object gripped by the driver and information indicating whether the driver is gazing at the object;
A moving image obtained by acquiring an outside moving image generated by an imaging device provided in a vehicle imaging another vehicle different from the vehicle and an in-vehicle moving image generated by imaging a driver of the vehicle by the imaging device. an acquisition unit;
information about the license plate of the other vehicle generated based on the moving image outside the vehicle ; information about joint positions of the driver of the vehicle generated based on the moving image inside the vehicle; an information acquisition unit that acquires information on orientation and information on an object held by the driver ;
By inputting the obtained information about the license plate of the other vehicle into the first learned model, the inter-vehicle distance between the vehicle and the other vehicle is estimated , and the obtained joint position of the driver is estimated. By inputting information, information about the orientation of the driver's face, and information about the object held by the driver into the second trained model, it is possible to determine whether the driver of the vehicle is gazing at the object. an estimation unit that estimates whether or not
calculating the risk of the other vehicle based on the estimated inter-vehicle distance, and calculating the risk of the driver of the vehicle based on whether or not the driver of the vehicle is gazing at the object; a calculation unit;
An extracted vehicle exterior video image is generated by extracting a portion of the vehicle exterior video image based on the degree of risk of the other vehicle , and a portion of the vehicle interior video image is extracted based on the driver's degree of risk. a second generation unit that generates an extracted in-vehicle moving image by
a second transmission unit that transmits the extracted vehicle exterior moving image and the extracted vehicle interior moving image ;
A management device characterized by having:
ナンバープレートに関する情報と前記ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した第1の学習済みモデル、並びに、車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と前記運転者が前記対象物を注視しているか否かを示す情報との関係をあらかじめ学習した第2の学習済みモデルを記憶する記憶部を有するコンピュータのプログラムであって、
車両に設けられた撮像装置が前記車両とは異なる他の車両を撮像して生成した車外動画像と前記撮像装置が前記車両の運転者を撮像して生成した車内動画像とを取得し、
前記車外動画像に基づいて生成される、前記他の車両のナンバープレートに関する情報と、前記車内動画像に基づいて生成される、前記車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と、を取得し、
前記取得した他の車両のナンバープレートに関する情報を前記第1の学習済みモデルに入力することにより、前記車両と前記他の車両との車間距離を推定するとともに、前記取得した運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報を前記第2の学習済みモデルに入力することにより、前記車両の運転者が前記対象物を注視しているか否かを推定し、
前記推定した車間距離に基づいて前記他の車両の危険度を算出するとともに、前記車両の運転者が前記対象物を注視しているか否かに基づいて前記車両の運転者の危険度を算出し、
前記他の車両の危険度に基づいて前記車外動画像の一部を抽出することにより抽出車外動画像を生成するとともに、前記運転者の危険度に基づいて前記車内動画像の一部を抽出することにより抽出車内動画像を生成し、
前記抽出車外動画像と前記抽出車内動画像とを送信する、
ことを前記コンピュータに実行させることを特徴とするプログラム。
A first trained model that has learned in advance the relationship between information about the license plate and the inter -vehicle distance to the vehicle with the license plate, information about the joint positions of the driver of the vehicle, and information about the face orientation of the driver. A storage unit that stores a second learned model that has previously learned a relationship between information and information about an object grasped by the driver and information indicating whether the driver is gazing at the object. a computer program,
Acquiring an external video image generated by an imaging device provided in a vehicle imaging another vehicle different from the vehicle and an in -vehicle video image generated by imaging a driver of the vehicle by the imaging device ,
information about the license plate of the other vehicle generated based on the moving image outside the vehicle ; information about joint positions of the driver of the vehicle generated based on the moving image inside the vehicle; Acquiring information about the orientation and information about the object grasped by the driver ;
By inputting the obtained information about the license plate of the other vehicle into the first learned model, the inter-vehicle distance between the vehicle and the other vehicle is estimated, and the obtained joint position of the driver is estimated. By inputting information, information about the orientation of the driver's face, and information about the object held by the driver into the second trained model, it is possible to determine whether the driver of the vehicle is gazing at the object. infer whether or not
calculating the degree of danger of the other vehicle based on the estimated inter-vehicle distance, and calculating the degree of danger of the driver of the vehicle based on whether or not the driver of the vehicle is gazing at the object; ,
An extracted vehicle exterior video image is generated by extracting a portion of the vehicle exterior video image based on the degree of risk of the other vehicle , and a portion of the vehicle interior video image is extracted based on the driver's degree of risk. Generate an extracted in-vehicle moving image by
transmitting the extracted vehicle exterior moving image and the extracted vehicle interior moving image ;
A program characterized by causing the computer to execute:
車両に設けられる撮像装置と、管理装置と、を有するシステムの前記撮像装置及び前記管理装置と通信可能に接続された通信端末であって、
前記撮像装置が前記車両とは異なる他の車両を撮像して生成した車外動画像と前記撮像装置が前記車両の運転者を撮像して生成した車内動画像とを前記撮像装置から受信する受信部と、
ナンバープレートに関する情報と、前記ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した第1の学習済みモデル、並びに、車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と前記運転者が前記対象物を注視しているか否かを示す情報との関係をあらかじめ学習した第2の学習済みモデルを記憶し、前記車外動画像を受信した場合に、前記車外動画像に基づいて生成される、前記他の車両のナンバープレートに関する情報を前記第1の学習済みモデルに入力することにより、前記車両と前記他の車両との車間距離を推定し、前記車内動画像を受信した場合に、前記車内動画像に基づいて生成される、前記車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報を前記第1の学習済みモデルに入力することにより、前記車両の運転者が前記対象物を注視しているか否かを推定し、前記推定した車間距離に基づいて前記他の車両の危険度を算出するとともに、前記車両の運転者が前記対象物を注視しているか否かに基づいて前記車両の運転者の危険度を算出し、前記他の車両の危険度に基づいて前記車外動画像の一部を抽出することにより抽出車外動画像を生成して送信するとともに、前記運転者の危険度に基づいて前記車内動画像の一部を抽出することにより抽出車内動画像を生成して送信する管理装置に、前記車外動画像と前記車内動画像とを送信する送信部と、
を有することを特徴とする通信端末。
A communication terminal communicably connected to the imaging device and the management device of a system having an imaging device provided in a vehicle and the management device,
A receiving unit that receives, from the imaging device, an exterior video image generated by imaging another vehicle different from the vehicle and an in-vehicle video image generated by the imaging device imaging a driver of the vehicle, from the imaging device. When,
A first trained model that has learned in advance the relationship between information about a license plate and the inter-vehicle distance to the vehicle with the license plate , information about joint positions of the driver of the vehicle, and information about the face orientation of the driver. storing a second trained model that has previously learned a relationship between information and information about an object grasped by the driver and information indicating whether the driver is gazing at the object ; by inputting, into the first trained model, information relating to the license plate of the other vehicle, which is generated based on the outside-vehicle moving image when the image is received, thereby determining the relationship between the vehicle and the other vehicle. information about the joint positions of the driver of the vehicle, information about the direction of the driver's face, and the driving, which are generated based on the in-vehicle moving image when an inter-vehicle distance is estimated and the in-vehicle moving image is received; By inputting information about an object held by a person into the first trained model, it is estimated whether or not the driver of the vehicle is gazing at the object, and based on the estimated inter-vehicle distance calculating the degree of risk of the other vehicle, calculating the degree of risk of the driver of the vehicle based on whether or not the driver of the vehicle is gazing at the object, and calculating the degree of risk of the other vehicle ; generating and transmitting an extracted vehicle-exterior video image by extracting a portion of the vehicle-exterior video image based on the degree of risk of the driver, and extracting a portion of the vehicle-interior video image based on the degree of risk of the driver; a transmission unit configured to transmit the vehicle exterior video and the vehicle interior video to a management device that generates and transmits video images ;
A communication terminal characterized by having:
JP2020136380A 2020-08-12 2020-08-12 Management system, management method, management device, program and communication terminal Active JP7186749B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020136380A JP7186749B2 (en) 2020-08-12 2020-08-12 Management system, management method, management device, program and communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020136380A JP7186749B2 (en) 2020-08-12 2020-08-12 Management system, management method, management device, program and communication terminal

Publications (2)

Publication Number Publication Date
JP2022032520A JP2022032520A (en) 2022-02-25
JP7186749B2 true JP7186749B2 (en) 2022-12-09

Family

ID=80350128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020136380A Active JP7186749B2 (en) 2020-08-12 2020-08-12 Management system, management method, management device, program and communication terminal

Country Status (1)

Country Link
JP (1) JP7186749B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102505353B1 (en) * 2022-03-11 2023-02-28 김익균 Smart illegal monitoring prevention system using smartphone interlocking function
KR102480011B1 (en) * 2022-03-11 2022-12-20 김익균 Smart illegal surveillance prevention system using vehicle black box and GPS

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227663A (en) 2010-04-19 2011-11-10 Denso Corp Drive aiding device and program
JP2016081086A (en) 2014-10-09 2016-05-16 株式会社日立製作所 Driving characteristics diagnosis device, driving characteristics diagnosis system, driving characteristics diagnosis method, information output device, and information output method
JP2016126756A (en) 2014-12-26 2016-07-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Risk determination method, risk determination device, risk output device, and risk determination system
JP2016130966A (en) 2015-01-14 2016-07-21 株式会社デンソーアイティーラボラトリ Risk estimation device, risk estimation method and computer program for risk estimation
CN107221196A (en) 2017-05-26 2017-09-29 广东中星电子有限公司 Vehicle drive methods of risk assessment, device, system and readable storage medium storing program for executing
JP2018152034A (en) 2017-03-14 2018-09-27 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
JP2019032725A (en) 2017-08-09 2019-02-28 株式会社ユピテル Vehicle-mounted electronic device, server, and client terminal
JP2019205078A (en) 2018-05-24 2019-11-28 株式会社ユピテル System and program
JP2020046728A (en) 2018-09-14 2020-03-26 矢崎エナジーシステム株式会社 On-vehicle unit
CN111301280A (en) 2018-12-11 2020-06-19 北京嘀嘀无限科技发展有限公司 Dangerous state identification method and device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227663A (en) 2010-04-19 2011-11-10 Denso Corp Drive aiding device and program
JP2016081086A (en) 2014-10-09 2016-05-16 株式会社日立製作所 Driving characteristics diagnosis device, driving characteristics diagnosis system, driving characteristics diagnosis method, information output device, and information output method
JP2016126756A (en) 2014-12-26 2016-07-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Risk determination method, risk determination device, risk output device, and risk determination system
JP2016130966A (en) 2015-01-14 2016-07-21 株式会社デンソーアイティーラボラトリ Risk estimation device, risk estimation method and computer program for risk estimation
JP2018152034A (en) 2017-03-14 2018-09-27 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
JP2018152038A (en) 2017-03-14 2018-09-27 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
CN107221196A (en) 2017-05-26 2017-09-29 广东中星电子有限公司 Vehicle drive methods of risk assessment, device, system and readable storage medium storing program for executing
JP2019032725A (en) 2017-08-09 2019-02-28 株式会社ユピテル Vehicle-mounted electronic device, server, and client terminal
JP2019205078A (en) 2018-05-24 2019-11-28 株式会社ユピテル System and program
JP2020046728A (en) 2018-09-14 2020-03-26 矢崎エナジーシステム株式会社 On-vehicle unit
CN111301280A (en) 2018-12-11 2020-06-19 北京嘀嘀无限科技发展有限公司 Dangerous state identification method and device

Also Published As

Publication number Publication date
JP2022032520A (en) 2022-02-25

Similar Documents

Publication Publication Date Title
CN110235152B (en) Vehicle service system
US10769459B2 (en) Method and system for monitoring driving behaviors
US10764536B2 (en) System and method for a dynamic human machine interface for video conferencing in a vehicle
KR20190115040A (en) Methods, devices, equipment and storage media for determining driving behavior
EP3583478B1 (en) Performing fallback operation based on instantaneous autonomous operating context
US20220180483A1 (en) Image processing device, image processing method, and program
JP7186749B2 (en) Management system, management method, management device, program and communication terminal
US10674003B1 (en) Apparatus and system for identifying occupants in a vehicle
JP2014199546A (en) Driving support device and driving support method
WO2019088033A1 (en) Evaluation device, evaluation system, vehicle, and program
CN112689587A (en) Method for classifying non-driving task activities in consideration of interruptability of non-driving task activities of driver when taking over driving task is required and method for releasing non-driving task activities again after non-driving task activities are interrupted due to taking over driving task is required
US20210312238A1 (en) System and method for detecting abnormal passenger behavior in autonomous vehicles
CN114677848B (en) Perception early warning system, method, device and computer program product
US11903647B2 (en) Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium
JP2021034739A (en) Learning data generation method and program, for estimating event generation, learning model, and event generation estimation device
US20220281485A1 (en) Control apparatus, system, vehicle, and control method
US20220130024A1 (en) Image processing device, image processing method, and image processing system
WO2020090320A1 (en) Information processing device, information processing method, and information processing program
CN111415434A (en) Vehicle communication using external vehicle display
US20240227837A9 (en) Device and method for notification
US20240132092A1 (en) Device and method for notification
US20240196462A1 (en) Electronic device and method for providing cloud-based vehicle information
US20230308612A1 (en) Image processing system, communication apparatus, and image processing method
WO2020170835A1 (en) Information processing device, information processing method, and information processing program
CN117456512A (en) Dangerous driving behavior detection method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221129

R150 Certificate of patent or registration of utility model

Ref document number: 7186749

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150