JP7186749B2 - Management system, management method, management device, program and communication terminal - Google Patents
Management system, management method, management device, program and communication terminal Download PDFInfo
- Publication number
- JP7186749B2 JP7186749B2 JP2020136380A JP2020136380A JP7186749B2 JP 7186749 B2 JP7186749 B2 JP 7186749B2 JP 2020136380 A JP2020136380 A JP 2020136380A JP 2020136380 A JP2020136380 A JP 2020136380A JP 7186749 B2 JP7186749 B2 JP 7186749B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- driver
- information
- moving image
- risk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Time Recorders, Dirve Recorders, Access Control (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、管理システム、管理方法、管理装置、プログラム及び通信端末に関する。 The present invention relates to a management system, management method, management device, program, and communication terminal.
近年、自動車の運転に関して、車間距離を急激に狭めて運転する等のあおり運転や、携帯電話の画面を注視しながら運転する等のながら運転に代表される危険運転が問題となっている。このような危険運転への対策として、ドライブレコーダ等の撮像装置を車両に設け、車両の周辺及び車内を撮像することがなされている。また、撮像により生成された画像を送信することにより、車両の管理者が車両の周辺及び車内の様子を確認することを可能とする技術が検討されている。例えば、特許文献1には、事故又は犯罪等のイベントが発生した場合に、イベント発生時の画像データをあらかじめ設定された送信先に送信するドライブレコーダが記載されている。
2. Description of the Related Art In recent years, regarding the driving of automobiles, there have been problems of dangerous driving represented by tailgating driving such as driving with a sharply narrowed inter-vehicle distance and driving while watching the screen of a mobile phone. As a countermeasure against such dangerous driving, an imaging device such as a drive recorder is installed in a vehicle to capture images of the surroundings and interior of the vehicle. Also, a technology is being studied that enables a vehicle manager to check the surroundings and interior of the vehicle by transmitting an image generated by imaging. For example,
特許文献1に記載のドライブレコーダは、事故が発生した後に管理者が車両の周辺及び車内の様子を確認することを可能とするものである。他方、事故を未然に防止するために、事故に至らない危険運転を管理者が確認できるようにすることが求められていた。
The drive recorder described in
本発明は上述の課題を解決するためになされたものであり、車両の管理者が危険運転を適切に確認することを可能とする管理システム、管理方法、管理装置、プログラム及び通信端末を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and provides a management system, management method, management device, program, and communication terminal that enable a vehicle manager to appropriately confirm dangerous driving. for the purpose.
本発明に係る管理システムは、車両に設けられる撮像装置と、管理装置と、を有する管理システムであって、撮像装置は、車両とは異なる他の車両を撮像して第1の動画像を生成する第1生成部と、第1の動画像を管理装置に送信する第1送信部と、を有し、管理装置は、ナンバープレートに関する情報と、ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した学習済みモデルを記憶する記憶部と、第1の動画像を取得する動画像取得部と、第1の動画像に基づいて生成される、他の車両のナンバープレートに関する情報を取得する情報取得部と、取得した他の車両のナンバープレートに関する情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定する推定部と、推定した車間距離に基づいて他の車両の危険度を算出する算出部と、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成する第2生成部と、第2の動画像を送信する第2送信部と、を有する、ことを特徴とする。 A management system according to the present invention is a management system having an imaging device provided in a vehicle and a management device, wherein the imaging device images another vehicle different from the vehicle and generates a first moving image. and a first transmission unit that transmits the first moving image to the management device, and the management device has a relationship between the information on the license plate and the inter-vehicle distance to the vehicle equipped with the license plate a storage unit that stores a learned model that has been learned in advance; a moving image acquiring unit that acquires a first moving image; and acquires information about license plates of other vehicles generated based on the first moving image an estimating unit for estimating the inter-vehicle distance between the vehicle and the other vehicle by inputting the acquired information on the license plate of the other vehicle into the learned model; a calculating unit that calculates the degree of risk of the vehicle, a second generating unit that generates a second moving image by extracting a part of the first moving image based on the degree of risk, and a second moving image; and a second transmitting unit for transmitting.
本発明に係る管理システムは、車両に設けられる撮像装置と、管理装置と、を有する管理システムであって、撮像装置は、車両の運転者を撮像して第1の動画像を生成する第1生成部と、第1の動画像を管理装置に送信する第1送信部と、を有し、管理装置は、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報と、運転者が対象物を注視しているか否かを示す情報との関係をあらかじめ学習した学習済みモデルを記憶する記憶部と、第1の動画像を取得する動画像取得部と、第1の動画像に基づいて生成される、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を取得する情報取得部と、取得した運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、車両の運転者が対象物を注視しているか否かを推定する推定部と、推定の結果に基づいて車両の運転者の危険度を算出する算出部と、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成する第2生成部と、第2の動画像を送信する第2送信部と、を有する、ことを特徴とする。 A management system according to the present invention includes an imaging device provided in a vehicle and a management device, wherein the imaging device captures a driver of the vehicle to generate a first moving image. a generation unit; and a first transmission unit that transmits the first moving image to the management device. A storage unit that stores a trained model that has previously learned a relationship with information indicating whether or not a person is gazing at an object, a moving image acquisition unit that acquires a first moving image, and a first moving image. An information acquisition unit that acquires information related to the posture of the driver of the vehicle and information related to the object held by the driver, and the acquired information related to the posture of the driver and the object held by the driver. An estimation unit that estimates whether or not the vehicle driver is gazing at the target by inputting information into the learned model, and a calculation unit that calculates the risk level of the vehicle driver based on the estimation results. a second generating unit for generating a second moving image by extracting a portion of the first moving image based on the degree of risk; and a second transmitting unit for transmitting the second moving image. , characterized in that
また、本発明に係る管理システムにおいて、算出部は、あらかじめ設定されたルールに基づいて危険度を算出する、ことが好ましい。 Moreover, in the management system according to the present invention, it is preferable that the calculation unit calculates the degree of risk based on a preset rule.
また、本発明に係る管理システムにおいて、算出部は、危険度を、第1の動画像の再生時刻と関連付けられた時系列データとして算出し、第2生成部は、危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように第1の動画像の一部を抽出する、ことが好ましい。 Further, in the management system according to the present invention, the calculation unit calculates the degree of risk as time-series data associated with the playback time of the first moving image, and the second generation unit determines that the degree of risk satisfies a predetermined condition. It is preferable to extract a portion of the first moving image so as to include a predetermined time range from the time when the condition is satisfied.
また、本発明に係る管理システムにおいて、算出部は、危険度を、第1の動画像の再生時刻と関連付けられた時系列データとして算出し、第2生成部は、危険度が所定の条件を満たしている時間が含まれるように第1の動画像の一部を抽出する、ことが好ましい。 Further, in the management system according to the present invention, the calculation unit calculates the degree of risk as time-series data associated with the playback time of the first moving image, and the second generation unit determines that the degree of risk satisfies a predetermined condition. It is preferable to extract a portion of the first moving image so as to include the filling time.
本発明に係る管理方法は、車両に設けられる撮像装置と、管理装置と、を有するシステムによって実行される管理方法であって、撮像装置が、車両とは異なる他の車両を撮像して第1の動画像を生成し、第1の動画像を管理装置に送信し、管理装置が、ナンバープレートに関する情報と、ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した学習済みモデルを記憶し、第1の動画像を取得し、他の車両のナンバープレートに関する情報を取得し、取得した他の車両のナンバープレートに関する情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定し、推定した車間距離に基づいて他の車両の危険度を算出し、運転危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成し、第2の動画像を送信する、ことを含むことを特徴とする。 A management method according to the present invention is a management method executed by a system having an imaging device provided in a vehicle, and a management device, wherein the imaging device images another vehicle different from the vehicle to obtain a first image. and transmits the first moving image to the management device, and the management device stores a learned model that has learned in advance the relationship between the information on the license plate and the inter-vehicle distance to the vehicle with the license plate. Then, by acquiring the first moving image, acquiring information about the license plate of the other vehicle, and inputting the acquired information about the license plate of the other vehicle to the trained model, the vehicle and the other vehicle A second moving image is generated by estimating the inter-vehicle distance, calculating the degree of danger of other vehicles based on the estimated inter-vehicle distance, and extracting a portion of the first moving image based on the driving danger. , and transmitting the second moving image.
本発明に係る管理方法は、車両に設けられる撮像装置と、管理装置と、を有するシステムによって実行される管理方法であって、撮像装置が、車両の運転者を撮像して第1の動画像を生成し、第1の動画像を管理装置に送信し、管理装置が、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報と、運転者が対象物を注視しているか否かを示す情報との関係をあらかじめ学習した学習済みモデルを記憶し、第1の動画像を取得し、第1の動画像に基づいて生成される、運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を取得し、取得した運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、運転者が対象物を注視しているか否かを推定し、推定の結果に基づいて車両の運転者の危険度を算出し、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成し、第2の動画像を送信する、ことを含むことを特徴とする。 A management method according to the present invention is a management method executed by a system having an imaging device provided in a vehicle and a management device, wherein the imaging device images a driver of the vehicle to produce a first moving image. and transmits the first moving image to the management device, and the management device sends information about the posture of the driver of the vehicle, information about the object held by the driver, and whether or not the driver is gazing at the object. A trained model that has learned in advance the relationship with information indicating whether or not the Obtaining information about the object to be grasped, and inputting the obtained information about the posture of the driver and the information about the object grasped by the driver into the trained model to determine whether the driver is gazing at the object. is estimated, the degree of danger of the vehicle driver is calculated based on the result of the estimation, a second moving image is generated by extracting a portion of the first moving image based on the degree of danger, and the second and transmitting the moving image.
本発明に係る管理装置は、ナンバープレートに関する情報と、ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した学習済みモデルを記憶する記憶部と、車両に設けられた撮像装置が車両とは異なる他の車両を撮像して生成した第1の動画像を取得する動画像取得部と、第1の動画像に基づいて生成される、他の車両のナンバープレートに関する情報を取得する情報取得部と、取得した他の車両のナンバープレートに関する情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定する推定部と、推定した車間距離に基づいて他の車両の危険度を算出する算出部と、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成する第2生成部と、第2の動画像を送信する第2送信部と、を有することを特徴とする。 A management device according to the present invention includes a storage unit that stores a learned model in which a relationship between information on a license plate and an inter-vehicle distance to a vehicle with a license plate is learned in advance, and an imaging device provided in the vehicle. a moving image acquiring unit that acquires a first moving image generated by imaging another vehicle different from the above; and an estimating unit that estimates the inter-vehicle distance between the vehicle and the other vehicle by inputting the obtained information about the license plate of the other vehicle into the trained model, a calculation unit that calculates the degree of risk; a second generation unit that generates a second moving image by extracting a part of the first moving image based on the degree of risk; 2 transmission units.
本発明に係る管理装置は、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報と、運転者が対象物を注視しているか否かを示す情報との関係をあらかじめ学習した学習済みモデルを記憶する記憶部と、車両に設けられた撮像装置が車両の運転者を撮像して生成した第1の動画像を取得する動画像取得部と、第1の動画像に基づいて生成される、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を取得する情報取得部と、取得した運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、車両の運転者が対象物を注視しているか否かを推定する推定部と、推定の結果に基づいて車両の運転者の危険度を算出する算出部と、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成する第2生成部と、第2の動画像を送信する第2送信部と、を有することを特徴とする。 The management device according to the present invention learns in advance the relationship between information about the posture of the driver of the vehicle, information about the object held by the driver, and information indicating whether the driver is gazing at the object. a storage unit that stores a learned model; a moving image acquisition unit that acquires a first moving image generated by an imaging device provided in a vehicle capturing an image of a driver of the vehicle; and based on the first moving image, An information acquisition unit that acquires generated information on the posture of the driver of the vehicle and information on the object held by the driver, and learns the acquired information on the posture of the driver and the information on the object held by the driver. An estimating unit for estimating whether or not the vehicle driver is gazing at an object, a calculating unit for calculating the risk level of the vehicle driver based on the result of the estimation, and a risk a second generating unit that generates a second moving image by extracting a part of the first moving image based on the degree of motion; and a second transmitting unit that transmits the second moving image. and
本発明に係るプログラムは、ナンバープレートに関する情報と、前記ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した学習済みモデルを記憶する記憶部を有するコンピュータのプログラムであって、車両に設けられた撮像装置が車両とは異なる他の車両を撮像して生成した第1の動画像を取得し、第1の動画像に基づいて生成される、他の車両のナンバープレートに関する情報を取得し、取得した他の車両のナンバープレートに関する情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定し、推定した車間距離に基づいて他の車両の危険度を算出し、運転危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成し、第2の動画像を送信する、ことをコンピュータに実行させることを特徴とする。 A program according to the present invention is a program for a computer having a storage unit that stores a learned model in which a relationship between information related to a license plate and a distance to a vehicle having the license plate is learned in advance, and is provided in the vehicle. acquires a first moving image generated by imaging another vehicle different from the vehicle by the imaging device, and acquires information about the license plate of the other vehicle generated based on the first moving image; , by inputting the obtained information about the license plates of other vehicles into the trained model, the distance between the vehicle and other vehicles is estimated, and the degree of danger of the other vehicle is calculated based on the estimated distance between the vehicles. , generating a second moving image by extracting a part of the first moving image based on the degree of driving risk, and transmitting the second moving image.
本発明に係るプログラムは、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報と、運転者が対象物を注視しているか否かを示す情報との関係をあらかじめ学習した学習済みモデルを記憶する記憶部を有するコンピュータのプログラムであって、車両に設けられた撮像装置が車両の運転者を撮像して生成した第1の動画像を取得し、第1の動画像に基づいて生成される、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を取得し、取得した運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、車両の運転者が対象物を注視しているか否かを推定し、推定の結果に基づいて車両の運転者の危険度を算出し、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成し、第2の動画像を送信する、ことをコンピュータに実行させることを特徴とする。 The program according to the present invention learns in advance the relationship between information about the posture of the driver of the vehicle, information about the object held by the driver, and information indicating whether the driver is gazing at the object. A program for a computer having a storage unit for storing a model, wherein an imaging device provided in a vehicle acquires a first moving image generated by capturing an image of a driver of the vehicle, and acquires a first moving image generated by imaging a driver of the vehicle, and acquires the first moving image based on the first moving image. information about the posture of the driver of the vehicle and information about the object grasped by the driver, which are generated by By inputting, it is estimated whether or not the driver of the vehicle is gazing at the object, the degree of risk of the driver of the vehicle is calculated based on the result of the estimation, and the first moving image is generated based on the degree of risk. A second moving image is generated by extracting a part of the image, and the second moving image is transmitted.
本発明に係る通信端末は、車両に設けられる撮像装置と、管理装置と、を有するシステムの撮像装置及び管理装置と通信可能に接続された通信端末であって、撮像装置が車両とは異なる他の車両を撮像して生成した第1の動画像を撮像装置から受信する受信部と、ナンバープレートに関する情報と、ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した学習済みモデルを記憶し、第1の動画像を受信した場合に、第1の動画像に基づいて生成される、他の車両のナンバープレートに関する情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定し、推定した車間距離に基づいて他の車両の危険度を算出し、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成して送信する管理装置に、第1の動画像を送信する送信部と、を有することを特徴とする。 A communication terminal according to the present invention is a communication terminal communicably connected to an imaging device and a management device of a system having an imaging device and a management device provided in a vehicle, and the imaging device is different from the vehicle. a receiving unit that receives from the imaging device a first moving image generated by imaging the vehicle, and a learned model that has learned in advance the relationship between information on the license plate and the inter-vehicle distance to the vehicle equipped with the license plate. Then, when the first moving image is received, information about the license plate of the other vehicle, which is generated based on the first moving image, is input to the learned model, thereby determining the relationship between the vehicle and the other vehicle. A second moving image is generated by estimating the inter-vehicle distance, calculating the degree of danger of other vehicles based on the estimated inter-vehicle distance, and extracting a portion of the first moving image based on the degree of danger. and a transmitting unit that transmits the first moving image to the transmitting management device.
本発明に係る通信端末は、車両に設けられる撮像装置と、管理装置と、を有するシステムの撮像装置及び管理装置と通信可能に接続された通信端末であって、撮像装置が車両の運転者を撮像して生成した第1の動画像を撮像装置から受信する受信部と、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報と、運転者が対象物を注視しているか否かを示す情報との関係をあらかじめ学習した学習済みモデルを記憶し、第1の動画像を受信した場合に、第1の動画像に基づいて生成される、車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、車両の運転者が対象物を注視しているか否かを推定し、推定の結果に基づいて車両の運転者の危険度を算出し、危険度に基づいて第1の動画像の一部を抽出することにより第2の動画像を生成して送信する管理装置に、第1の動画像を送信する送信部と、を有することを特徴とする。 A communication terminal according to the present invention is a communication terminal communicably connected to an imaging device and a management device of a system having an imaging device provided in a vehicle and a management device, wherein the imaging device detects a driver of the vehicle. A receiving unit that receives a first moving image captured and generated from an imaging device, information about the posture of the driver of the vehicle, information about the object held by the driver, and whether the driver is gazing at the object Information about the attitude of the driver of the vehicle, generated based on the first moving image when a trained model that has learned in advance the relationship with information indicating whether or not and by inputting information about the object grasped by the driver into the trained model, it is possible to estimate whether the vehicle driver is gazing at the object or not, and based on the result of the estimation, determine the danger of the vehicle driver. a transmitter for transmitting the first moving image to a management device that calculates the degree of risk and extracts a portion of the first moving image based on the degree of risk to generate and transmit a second moving image; characterized by having
本発明に係る管理システム、管理方法、管理装置、プログラム及び通信端末は、車両の管理者が危険運転を適切に確認することを可能とする。 A management system, a management method, a management device, a program, and a communication terminal according to the present invention enable a vehicle manager to appropriately check dangerous driving.
以下、図面を参照して本発明の様々な実施形態について説明する。本発明の技術的範囲はこれらの実施形態に限定されず、特許請求の範囲に記載された発明及びその均等物に及ぶ点に留意されたい。 Various embodiments of the present invention will now be described with reference to the drawings. It should be noted that the technical scope of the present invention is not limited to these embodiments, but extends to the invention described in the claims and equivalents thereof.
図1は、本発明に係る管理システム1の概要を説明するための模式図である。管理システム1は、撮像装置2、管理装置4及び表示端末5を有する。撮像装置2、管理装置4及び表示端末5は、相互に通信可能に接続される。管理システム1は、例えば、多数の車両を運行させて旅客や貨物を運送する運送業者等が車両を管理するために用いられる。
FIG. 1 is a schematic diagram for explaining an overview of a
撮像装置2は、撮像機能及び通信機能を有する装置であり、例えば、ドライブレコーダである。撮像装置2は、車両11の前方を撮像可能となるように、車両11のフロントガラス付近の上方等に設けられる。撮像装置2は、車両11の前方を走行する他の車両を撮像し、第1の動画像12を生成する。撮像装置2は、第1の動画像12を管理装置4に送信する。
The
管理装置4は、サーバ又はPC(Personal Computer)等の情報処理装置である。管理装置4は、撮像装置2から第1の動画像12を取得する。管理装置4は、第1の動画像12に基づいて車両11と他の車両との車間距離を推定し、推定した車間距離に基づいて他の車両の危険度を算出する。管理装置4は、他の車両の危険度に基づいて第1の動画像12の一部を抽出することにより第2の動画像13を生成する。他の車両の危険度は、他の車両が危険運転をしている蓋然性を示す値である。危険運転は、例えば車間距離を急激に狭めるあおり運転である。第2の動画像13は、他の車両が危険運転をしている時間が含まれるように第1の動画像12の一部を抽出することにより生成される。管理装置4は、第2の動画像13を表示端末5に送信する。
The
表示端末5は、PC、携帯電話、タブレット端末又はスマートフォン等の、通信機能及び表示機能を有する情報処理端末である。表示端末5は、車両11の管理者により使用される。表示端末5は、受信した第2の動画像13を表示する。これにより、管理者は危険運転を適切に確認することができる。なお、管理者は、車両11を保有する一個人や複数の車両11を運用する法人(法人の担当者)などの車両11を管理し得る者であれば特に限定されない。
The
図2は、管理システム1の概略構成の一例を示す図である。管理システム1は、撮像装置2、通信端末3、管理装置4、表示端末5を有する。撮像装置2は、車両11に設けられ、車両11の運転者又は同乗者が携帯するスマートフォン、タブレット端末等の携帯型の通信端末3と相互に通信可能に接続される。通信端末3、管理装置4、表示端末5は、第4世代移動通信システム(4G)又は第5世代移動通信システム(5G)等の移動通信ネットワークを含むネットワーク6を介して相互に通信可能に接続される。
FIG. 2 is a diagram showing an example of a schematic configuration of the
図3は、撮像装置2の概略構成の一例を示す図である。撮像装置2は、前方撮像部21、後方撮像部22、車内撮像部23、車速取得部24、第1記憶部25、第1通信部26及び第1処理部27を有する。
FIG. 3 is a diagram showing an example of a schematic configuration of the
前方撮像部21は、車両の前方を撮像するための構成であり、後方撮像部22は、車両の後方を撮像するための構成であり、車内撮像部23は、車両の運転席を撮像するための構成である。前方撮像部21、後方撮像部22及び車内撮像部23は、例えば、カメラを備える。前方撮像部21及び車内撮像部23は、車両の前方及び運転席を撮像可能となるように、車両のフロントガラス付近に設けられる。後方撮像部22は、車両の後方を撮像可能となるように、車両のリアガラス付近に設けられる。
The
前方撮像部21、後方撮像部22及び車内撮像部23は、光学レンズ等を用いて被写体からの光線を集束することにより結像した被写体像に対応する画像信号を生成し、所定の形式の画像データに変換して第1処理部27に供給する。
The
車速取得部24は、車両の走行速度を取得するための構成であり、例えば、車速パルスを伝送する、車両の内部に設けられた信号線と接続可能なインタフェースを備える。車速取得部24は、信号線から車速パルスを受信し、車速パルスのパルス間隔に応じて車両の走行速度を算出し、算出した走行速度を示すデータを第1処理部27に供給する。
The vehicle
第1記憶部25は、データ及びプログラムを記憶するための構成であり、例えば、半導体メモリを備える。第1記憶部25は、第1処理部27による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、CD(Compact Disc)-ROM(Read Only Memory)又はDVD(Digital Versatile Disc)-ROM等のコンピュータ読取可能且つ非一時的な可搬型記憶媒体から公知のセットアッププログラム等を用いてインストールされる。
The
第1通信部26は、撮像装置2を通信端末3と通信可能にするための構成であり、通信インタフェース回路を備える。第1通信部26が備える通信インタフェース回路は、Wi-Fi等の無線LAN(Local Area Network)の通信インタフェース回路である。第1通信部26は、第1処理部27から供給されたデータを通信端末3に送信するとともに、通信端末3から受信したデータを第1処理部27に供給する。
The
第1処理部27は、撮像装置2の動作を統括的に制御する構成であり、一又は複数個のプロセッサ及びその周辺回路を備える。第1処理部27は、例えば、CPU(Central Processing Unit)、LSI(Large Scale Integration)又はASIC(Application Specific Integrated Circuit)等を備える。第1処理部27は、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等を備えてもよい。第1処理部27は、第1記憶部25に記憶されているプログラムに基づいて、撮像装置2の各種処理が適切に実行されるように撮像装置2の各構成の動作を制御するとともに、各種処理を実行する。
The
第1処理部27は、動画像生成部271、車速生成部272及び動画像送信部273を有する。これらの各部は、第1処理部27が実行するプログラムによって実現される機能モジュールである。これらの各部は、ファームウェアとして撮像装置2に実装されてもよい。なお、動画像生成部271及び動画像送信部273は、それぞれ第1生成部及び第1送信部の一例である。
The
図4は、通信端末3の概略構成の一例を示す図である。通信端末3は、第2記憶部31、第2通信部32、第3通信部33及び第2処理部34を有する。
FIG. 4 is a diagram showing an example of a schematic configuration of the
第2記憶部31は、データ及びプログラムを記憶するための構成であり、例えば、半導体メモリを備える。第2記憶部31は、第2処理部34による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、コンピュータ読取可能且つ非一時的な可搬型記憶媒体から公知のセットアッププログラム等を用いてインストールされる。
The second storage unit 31 is configured to store data and programs, and includes a semiconductor memory, for example. The second storage unit 31 stores an operating system program, a driver program, an application program, data, etc. used for processing by the
第2通信部32は、通信端末3を撮像装置2と通信可能にするための構成であり、通信インタフェース回路を備える。第2通信部32が備える通信インタフェース回路は、無線LANの通信インタフェース回路である。第2通信部32は、第2処理部34から供給されたデータを撮像装置2に送信するとともに、撮像装置2から受信したデータを第2処理部34に供給する。
The
第3通信部33は、ネットワーク6を介して通信端末3を他の装置と通信可能にするための構成であり、通信インタフェース回路を備える。第3通信部33が備える通信インタフェース回路は、LTE(Long Term Evolution)又はNR(New Radio)等の移動通信方式の通信インタフェース回路である。第3通信部33は、第2処理部34から供給されたデータを他の装置に送信するとともに、他の装置から受信したデータを第2処理部34に供給する。
The third communication unit 33 is configured to enable the
第2処理部34は、通信端末3の動作を統括的に制御する構成であり、一又は複数個のプロセッサ及びその周辺回路を備える。第2処理部34は、例えば、CPU、LSI、ASIC、GPU、DSP、FPGA等を備える。第2処理部34は、第2記憶部31に記憶されているプログラムに基づいて、通信端末3の各種処理が適切に実行されるように通信端末3の各構成の動作を制御するとともに、各種処理を実行する。
The
第2処理部34は、受信部341及び送信部342を有する。これらの各部は、第2処理部34が実行するプログラムによって実現される機能モジュールである。これらの各部は、ファームウェアとして通信端末3に実装されてもよい。
The
図5は、管理装置4の概略構成の一例を示す図である。管理装置4は、第3記憶部41、第4通信部42、第3処理部43を有する。
FIG. 5 is a diagram showing an example of a schematic configuration of the
第3記憶部41は、データ及びプログラムを記憶するための構成であり、例えば、半導体メモリを備える。第3記憶部41は、第3処理部43による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム、データ等を記憶する。プログラムは、コンピュータ読取可能且つ非一時的な可搬型記憶媒体から公知のセットアッププログラム等を用いてインストールされる。
The
第4通信部42は、ネットワーク6を介して管理装置4を他の装置と通信可能にするための構成であり、通信インタフェース回路を備える。第4通信部42が備える通信インタフェース回路は、LTE又はNR等の移動通信方式の通信インタフェース回路である。第4通信部42が備える通信インタフェース回路は、無線LAN又は有線LANの通信インタフェース回路等でもよい。第4通信部42は、第3処理部43から供給されたデータを他の装置に送信するとともに、他の装置から受信したデータを第3処理部43に供給する。
The fourth communication unit 42 is configured to enable the
第3処理部43は、管理装置4の動作を統括的に制御する構成であり、一又は複数個のプロセッサ及びその周辺回路を備える。第3処理部43は、例えば、CPU、LSI、ASIC、GPU、DSP、FPGA等を備える。第3処理部43は、第3記憶部41に記憶されているプログラムに基づいて、管理装置4の各種処理が適切に実行されるように管理装置4の各構成の動作を制御するとともに、各種処理を実行する。
The
第3処理部43は、動画像取得部431、情報取得部432、推定部433、算出部434、動画像抽出部435及び抽出動画像送信部436を有する。これらの各部は、第3処理部43によって実行されるプログラムによって実現される機能モジュールである。これらの各部は、ファームウェアとして管理装置4に実装されてもよい。なお、動画像抽出部435及び抽出動画像送信部436は、それぞれ第2生成部及び第2送信部の一例である。
The
図6は、管理装置4の第3記憶部41に記憶される、車外動画像(前方動画像又は後方動画像をいう。)に関する情報を管理する第1危険度テーブルT1のデータ構造の一例を示す図である。第1危険度テーブルT1は、フレーム識別子、走行速度、ナンバープレート、車間距離及び危険度を相互に関連付けて記憶する。
FIG. 6 shows an example of the data structure of the first risk level table T1 for managing information related to vehicle exterior moving images (front moving images or rear moving images) stored in the
フレーム識別子は、撮像装置2によって撮像された動画像を構成するフレームを特定するための情報の一例である。フレーム識別子に代えて、動画像において対応するフレームが表示される再生時刻等が記憶されてもよい。走行速度は、対応するフレームが撮像されたときの車両の走行速度を示す情報である。
A frame identifier is an example of information for specifying a frame that constitutes a moving image captured by the
ナンバープレートは、対応するフレームにおけるナンバープレートの大きさを示す情報である。図6に示す例では、ナンバープレートの大きさは、ナンバープレートを包含するバウンディングボックスの縦方向と横方向の画素数によって示されている。車間距離は、ナンバープレートの大きさに基づいて算出される、他の車両との車間距離である。危険度は、対応するフレームについて算出された運転の危険度を示す情報であり、他の車両があおり運転をしている蓋然性を示す情報である。なお、対応するフレームにおいてナンバープレートが検出されなかった場合、ナンバープレート及び車間距離は記憶されない。 A license plate is information indicating the size of the license plate in the corresponding frame. In the example shown in FIG. 6, the size of the license plate is indicated by the number of pixels in the vertical and horizontal directions of the bounding box containing the license plate. The inter-vehicle distance is the inter-vehicle distance to another vehicle calculated based on the size of the license plate. The degree of risk is information indicating the degree of risk of driving calculated for the corresponding frame, and is information indicating the probability that another vehicle is driving at the tail end. If the license plate is not detected in the corresponding frame, the license plate and inter-vehicle distance are not stored.
第1危険度テーブルT1の各データは、後述する車外動画像送信処理において管理装置4によって設定される。
Each piece of data in the first risk level table T1 is set by the
図7は、管理装置4の第3記憶部41に記憶される、車内動画像に関する情報を管理する第2危険度テーブルT2のデータ構造の一例を示す図である。第2危険度テーブルT2は、フレーム識別子、走行速度、姿勢、対象物及び危険度を相互に関連付けて記憶する。なお、フレーム識別子及び走行速度は、第1危険度テーブルT1のフレーム識別子及び走行速度と同様のデータである。
FIG. 7 is a diagram showing an example of the data structure of a second risk level table T2 that manages information about in-vehicle moving images and is stored in the
姿勢は、対応するフレームにおける運転者の姿勢に関する情報であり、関節位置に関する情報と顔の向きに関する情報とを含む。関節位置に関する情報は、対応するフレームにおける、運転者の複数の関節位置を示す情報である。図7に示す例では、関節位置は、例えば、関節位置に対応する画素のX座標及びY座標によって示されている。顔の向きに関する情報は、運転者の顔の向きの、所定方向(例えば、運転者の顔の中心位置から撮像装置2に向かう方向)に対する傾きを示す情報である。図7に示す例では、顔の向きは、運転者の顔の向きの、所定方向に対するピッチ角、ロール角及びヨー角によって示されている。 Posture is information about the posture of the driver in the corresponding frame, and includes information about joint positions and information about face orientation. The joint position information is information indicating a plurality of joint positions of the driver in the corresponding frame. In the example shown in FIG. 7, the joint positions are indicated by, for example, the X and Y coordinates of the pixels corresponding to the joint positions. The information about the orientation of the face is information indicating the inclination of the orientation of the driver's face with respect to a predetermined direction (for example, the direction from the center position of the driver's face toward the imaging device 2). In the example shown in FIG. 7, the face orientation is indicated by the pitch angle, roll angle and yaw angle of the driver's face orientation with respect to a predetermined direction.
対象物は、ながら運転における注視の対象となるスマートフォン、携帯電話等の対象物の、対応するフレームにおける位置を示す情報であり、例えば、対象物のバウンディングボックスの中心位置により示される。なお、対応するフレームにおいて対象物が検出されなかった場合、対象物は記憶されない。危険度は、対応するフレームにおける運転の危険度を示す情報であり、運転者がながら運転をしている蓋然性を示す情報である。 The target object is information indicating the position in the corresponding frame of the target object such as a smartphone, mobile phone, etc. to be gazed at while driving, and is indicated by, for example, the center position of the bounding box of the target object. Note that if no object is detected in the corresponding frame, the object is not stored. The degree of risk is information indicating the degree of risk of driving in the corresponding frame, and is information indicating the probability that the driver is driving while distracted.
第2危険度テーブルT2の各データは、後述する車内動画像送信処理において管理装置4によって設定される。
Each piece of data in the second risk level table T2 is set by the
管理システム1は、車外動画像送信処理及び車内動画像送信処理を実行する。これらの処理は、定期又は不定期に、それぞれが並行して実行される。また、これらの処理は、管理システム1の各装置の処理部がプログラムを実行し、各装置の構成と協働することにより実現される。
The
図8は、管理システム1によって実行される車外動画像送信処理の流れの一例を示すシーケンス図である。以下では、図8を参照し、車外動画像として前方撮像部21によって撮像された前方動画像が送信される場合の車外動画像送信処理の流れについて説明する。なお、車外動画像として後方撮像部22によって撮像された後方動画像が送信される場合も同様である。
FIG. 8 is a sequence diagram showing an example of the flow of vehicle-exterior moving image transmission processing executed by the
まず、撮像装置2の動画像生成部271は、車両の前方を走行する前方車両を撮像して前方動画像を生成する(S101)。動画像生成部271は、前方撮像部21を制御して車両の前方を撮像し、所定の長さ(例えば、5分)の前方動画像を生成する。なお、前方車両は車両とは異なる他の車両の一例であり、前方動画像は第1の動画像の一例である。
First, the moving
続いて、車速生成部272は、車両の前方を撮像している時間における車両の走行速度を示す車速データを生成する(S102)。車速生成部272は、車速取得部24を制御して、車両の前方を撮像している時間における車両の走行速度を取得する。車速生成部272は、走行速度と時間とを関連付けて、時系列データである車速データを生成する。
Subsequently, the
続いて、動画像送信部273は、第1通信部26を介して、前方動画像及び車速データを通信端末3に送信する(S103)。通信端末3の受信部341は、第2通信部32を介して、前方動画像及び車速データを受信する。
Subsequently, the moving image transmission unit 273 transmits the front moving image and the vehicle speed data to the
続いて、送信部342は、第3通信部33を介して、前方動画像及び車速データを管理装置4に送信する(S104)。管理装置4の動画像取得部431は、第4通信部42を介して、前方動画像及び車速データを受信することにより取得する(S105)。動画像取得部431は、前方動画像を構成する各フレームのフレーム識別子と、各フレームが撮像された時間における車両の走行速度とを関連付けて第1危険度テーブルT1に記憶する。
Subsequently, the
続いて、管理装置4は、前方動画像抽出処理を実行する(S106)。前方動画像抽出処理は、前方動画像の一部を抽出することにより抽出前方動画像を生成する処理である。なお、抽出前方動画像は第2の動画像の一例である。
Subsequently, the
続いて、管理装置4の抽出動画像送信部436は、第4通信部42を介して、抽出前方動画像を表示端末5に送信する(S107)。表示端末5は、抽出前方動画像を受信して表示し(S108)、前方動画像送信処理を終了する。
Subsequently, the extracted moving image transmission unit 436 of the
図9は、前方動画像抽出処理の流れの一例を示すフロー図である。 FIG. 9 is a flow diagram showing an example of the flow of forward moving image extraction processing.
まず、管理装置4の情報取得部432は、前方動画像に基づいて生成される、前方車両のナンバープレートに関する情報を取得する(S201)。情報取得部432は、あらかじめ第3記憶部41に記憶されたナンバープレート検出用の学習済みモデルを用いてナンバープレートに関する情報を取得する。ナンバープレートに関する情報は、前方動画像を構成する各フレームにおける、ナンバープレートに対応する領域の大きさを示す情報である。
First, the
ナンバープレート検出用の学習済みモデルは、画像が入力された場合に、その画像においてナンバープレートを包含するバウンディングボックスの大きさを出力するように学習された学習モデルである。学習モデルとしては、例えばSSD(Single Shot Detector)、YOLO(You Only Look once)又はR-CNN(Region with Convolutional Neural Network)等の、物体検出モデルが用いられる。学習モデルは、学習モデルが出力したバウンディングボックスの位置及び形状と、あらかじめ正解データとして設定されたバウンディングボックスの位置及び形状との誤差が小さくなるようにパラメータが更新されることにより学習される。 A trained model for license plate detection is a trained model that, when an image is input, has been trained to output the size of the bounding box containing the license plate in that image. Object detection models such as SSD (Single Shot Detector), YOLO (You Only Look once), and R-CNN (Region with Convolutional Neural Network) are used as learning models. The learning model is learned by updating the parameters so that the error between the position and shape of the bounding box output by the learning model and the position and shape of the bounding box set in advance as correct data is reduced.
情報取得部432は、前方動画像を構成する各フレームを学習済みモデルに入力し、各フレームについて出力されたバウンディングボックスの位置及び形状を取得する。情報取得部432は、取得したバウンディングボックスの位置及び形状に基づいて、ナンバープレートに関する情報を生成して取得する。ナンバープレートに関する情報は、例えば、ナンバープレートを包含するバウンディングボックスの縦方向と横方向の画素数である。ナンバープレートに関する情報は、バウンディングボックスの各頂点の位置関係やバウンディングボックスの面積等、ナンバープレートの大きさを示す他の情報でもよい。情報取得部432は、各フレームについて取得したナンバープレートに関する情報を第1危険度テーブルT1に記憶する。
The
続いて、推定部433は、前方車両のナンバープレートに関する情報を車間距離推定用の学習済みモデルに入力することにより、車両と前方車両との車間距離を推定する(S202)。車間距離推定用の学習済みモデルは、ナンバープレートに関する情報が入力された場合に、車間距離を出力するように学習された学習モデルである。学習モデルとしては、勾配ブースティング決定木等の回帰モデルが用いられる。
Subsequently, the estimating
学習モデルは、学習用入力画像が入力された場合に学習モデルが出力した車間距離と、あらかじめ学習用入力画像に関連付けて設定された学習用車間距離との誤差が小さくなるようにパラメータが更新されることにより学習される。学習用車間距離は、学習用入力画像が撮像されたときの実際の車間距離を測距センサ等を用いて測定することにより設定される。学習用入力画像及び学習用車間距離は、自動運転シミュレータを用いて生成されてもよい。 The parameters of the learning model are updated so that the error between the inter-vehicle distance output by the learning model when an input image for learning is input and the inter-vehicle distance for learning set in advance in association with the input image for learning is reduced. It is learned by The learning inter-vehicle distance is set by measuring the actual inter-vehicle distance using a distance measuring sensor or the like when the learning input image is captured. The input image for learning and the inter-vehicle distance for learning may be generated using an automatic driving simulator.
推定部433は、学習済みモデルから出力された車間距離を、ナンバープレートに関する情報に関連付けて第1危険度テーブルT1に記憶する。
The estimating
続いて、算出部434は、推定した車間距離に基づいて前方車両の危険度を算出する(S203)。危険度は、前方動画像のフレームと関連付けられた時系列データとして算出される。
Subsequently, the
算出部434は、あらかじめ設定されたルールに基づいて前方車両の危険度を算出する。例えば、算出部434は、前方動画像を構成するフレームのうち一のフレームを特定する。算出部434は、特定したフレームを含む直前の所定数のフレーム(例えば、20フレーム)を抽出する。算出部434は、抽出された各フレームについて推定された車間距離が何れも所定値(例えば、3m)以下であり且つ各フレームに対応する走行速度が所定値(例えば、時速10km)以上である場合に、特定したフレームについての危険度が高いと算出し、他の場合に、特定したフレームについての危険度が低いと算出する。
The
なお、あらかじめ設定されたルールは上述の例に限られない。例えば、算出部434は、抽出された各フレームのうち、推定された車間距離が所定値以下であるフレームが所定割合以上ある場合に、特定したフレームについての危険度が高いと算出してもよい。
Note that the preset rule is not limited to the above example. For example, the
算出部434は、各フレームについて算出した危険度を各フレームのフレーム識別子に関連付けて第1危険度テーブルT1に記憶する。
The
続いて、動画像抽出部435は、危険度に基づいて前方動画像の一部を抽出することにより抽出動画像を生成し(S204)、前方動画像抽出処理を終了する。例えば、動画像抽出部435は、危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように前方動画像の一部を抽出する。
Subsequently, the moving
図6に示す例では、フレーム識別子「101」のフレームまでは、危険度が「低」と算出され、フレーム識別子「102」のフレームからは危険度が「高」と算出されている。したがって、所定の条件が、危険度が「高」であることであるとすると、動画像抽出部435は、フレーム識別子が「102」のフレーム以後の所定数のフレームを抽出し、抽出したフレームから構成される抽出動画像を生成する。
In the example shown in FIG. 6, the risk level is calculated as "low" up to the frame with the frame identifier "101", and the risk level is calculated as "high" from the frame with the frame identifier "102". Therefore, assuming that the predetermined condition is that the degree of risk is "high", the moving
図10は、車内動画像送信処理の流れの一例を示す図である。 FIG. 10 is a diagram illustrating an example of the flow of in-vehicle moving image transmission processing.
まず、撮像装置2の動画像生成部271は、車両の運転者を撮像して車内動画像を生成する(S301)。動画像生成部271は、車内撮像部23を制御して車両の運転者を撮像し、所定の長さの車内動画像を生成する。なお、車内動画像は第1の動画像の一例である。
First, the moving
続いて、車速生成部272は、運転者を撮像している時間における車両の走行速度を示す車速データを生成する(S302)。車速生成部272は、車速取得部24を制御して、車両の前方を撮像している時間における車両の走行速度を取得する。車両生成部272は、走行速度と時間とを関連付けて、時系列データである車速データを生成する。
Subsequently, the
続いて、動画像送信部273は、第1通信部26を介して、車内動画像及び車速データを通信端末3に送信する(S303)。通信端末3の受信部341は、第2通信部32を介して、車内動画像及び車速データを受信する。
Subsequently, the moving image transmission unit 273 transmits the in-vehicle moving image and the vehicle speed data to the
続いて、送信部342は、第3通信部33を介して、車内動画像及び車速データを管理装置4に送信する(S304)。管理装置4の動画像取得部431は、第4通信部42を介して、車内動画像及び車速データを受信することにより取得する(S305)。動画像取得部431は、車内動画像を構成する各フレームのフレーム識別子と、各フレームが撮像された時間における車両の走行速度とを関連付けて第2危険度テーブルT2に記憶する。
Subsequently, the
続いて、管理装置4は、車内動画像抽出処理を実行する(S306)。車内動画像抽出処理は、車内動画像の一部を抽出することにより抽出車内動画像を生成する処理である。なお、抽出車内動画像は第2の動画像の一例である。
Subsequently, the
続いて、管理装置4の抽出動画像送信部436は、第4通信部42を介して、抽出車内動画像を表示端末5に送信する(S307)。表示端末5は、抽出車内動画像を受信して表示し(S308)、車内動画像送信処理を終了する。
Subsequently, the extracted moving image transmission unit 436 of the
図10は、車内動画像抽出処理の流れの一例を示すフロー図である。 FIG. 10 is a flow diagram showing an example of the flow of in-vehicle moving image extraction processing.
まず、情報取得部432は、車内動画像に基づいて生成される、運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を取得する(S401)。情報取得部432は、あらかじめ第3記憶部41に記憶された姿勢推定用の学習済みモデル及び対象物検出用の学習済みモデルを用いて、姿勢に関する情報及び対象物に関する情報を取得する。姿勢に関する情報は、車内動画像を構成する各フレームにおける、運転者の関節位置及び顔の向きに関する情報を含む。対象物に関する情報は、車内動画像を構成する各フレームにおける、所謂ながら運転の対象となる物に関する情報である。例えば、対象物に関する情報は、携帯電話、スマートフォン、カーナビ等の無線通話装置又は画像表示装置の位置及び種別に関する情報であってよい。なお、対象物に関する情報は、ながら運転等の危険な運転を検知するために必要な情報であればよく、上記の例に限定されない。また、対象物は、運転中に操作等することにより、ながら運転等の危険な運転と判断され得る物であれば、特に限定されない。
First, the
姿勢推定用の学習済みモデルは、関節位置推定用の学習済みモデル及び顔の向き推定用の学習済みモデルを含む。関節位置推定用の学習済みモデルは、画像が入力された場合に、その画像における人物の関節位置を出力するように学習された学習モデルである。学習モデルとしては、例えばPoseNet又はPersonLab等が用いられる。学習モデルは、例えば、学習モデルが出力した関節位置と、あらかじめ正解データとして設定された関節位置との距離の二乗和である誤差が小さくなるようにパラメータが更新されることにより学習される。 The trained models for posture estimation include a trained model for joint position estimation and a trained model for face direction estimation. A learned model for estimating joint positions is a learning model that has been trained to output joint positions of a person in an image when the image is input. As a learning model, for example, PoseNet or PersonLab is used. The learning model is learned by, for example, updating the parameters so that the error, which is the sum of the squares of the distances between the joint positions output by the learning model and the joint positions set in advance as correct data, is reduced.
顔の向き推定用の学習済みモデルは、画像が入力された場合に、その画像における人物の顔の向き(例えば、ロール角、ピッチ角及びヨー角)を出力するように学習された学習モデルである。学習モデルとしては、例えばFSA-Net等が用いられる。学習モデルは、学習モデルが出力した顔の向きと、あらかじめ正解データとして設定された顔の向きとの誤差が小さくなるようにパラメータが更新されることにより学習される。 A trained model for estimating face orientation is a learning model trained to output the orientation of a person's face (e.g., roll angle, pitch angle, and yaw angle) in an image when an image is input. be. For example, FSA-Net or the like is used as the learning model. The learning model is learned by updating the parameters so that the error between the face direction output by the learning model and the face direction set in advance as correct data is reduced.
対象物検出用の学習済みモデルは、画像が入力された場合に、その画像において対象物に対応する領域を包含するバウンディングボックスの位置、形状及び対象物の種類を出力するように学習された学習モデルである。学習モデルとしては、例えばSSD、YOLO又はR-CNN等の、物体検出モデルが用いられる。学習モデルは、学習モデルが出力したバウンディングボックスの位置、形状及び対象物の種類と、あらかじめ正解データとして設定されたバウンディングボックスの位置、形状及び対象物の種類との誤差が小さくなるようにパラメータが更新されることにより学習される。 A trained model for object detection is trained to output the position and shape of a bounding box containing the area corresponding to the object in the image and the type of the object when an image is input. is a model. An object detection model such as SSD, YOLO or R-CNN is used as the learning model. The learning model has parameters that reduce the error between the position, shape, and type of object of the bounding box output by the learning model and the position, shape, and type of object of the bounding box set in advance as correct data. Learned by being updated.
情報取得部432は、前方動画像を構成する各フレームを関節位置推定用の学習済みモデル、顔の向き推定用の学習済みモデル及び対象物検出用の学習済みモデルにそれぞれ入力する。情報取得部432は、関節位置推定用の学習済みモデルの出力に基づいて、運転者の関節位置に関する情報を生成する。また、情報取得部432は、顔の向き推定用の学習済みモデルの出力に基づいて、運転者の顔の向きに関する情報を生成する。情報取得部432は、運転者の関節位置に関する情報と顔の向きに関する情報とを関連付けて、運転者の姿勢に関する情報として取得する。また、情報取得部432は、対象物検出用の学習済みモデルの出力に基づいて運転者が把持する対象物に関する情報を生成して取得する。情報取得部432は、取得した姿勢に関する情報及び対象物に関する情報を第2危険度テーブルT2に記憶する。
The
続いて、推定部433は、運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を注視状態推定用の学習済みモデルに入力することにより、車両の運転者が対象物を注視しているか否かを推定する(S402)。注視状態推定用の学習済みモデルは、運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報が入力された場合に、運転者が対象物を注視しているか蓋然性を示す確信度を出力するように学習された学習モデルである。学習モデルとしては、勾配ブースティング決定木等の分類モデルが用いられる。
Next, the estimating
学習モデルは、学習用の姿勢及び対象物に関する情報が入力された場合に学習モデルが出力した確信度と、あらかじめ学習用の姿勢及び対象物に関する情報に関連付けて設定された学習用確信度との交差エントロピー誤差が小さくなるようにパラメータが更新されることにより学習される。学習用の姿勢及び対象物に関する情報は、例えば、学習用に撮像した運転者の画像に基づいて生成される。また、学習用確信度は、学習用に撮像した運転者の画像において、運転者が対象物を注視しているか否かに応じて異なる要素が1となり、他の要素が0となるように設定されたOne-Hotベクトルである。 The learning model is a combination of the confidence level output by the learning model when the information on the posture and object for learning is input, and the confidence level for learning set in advance in association with the information on the posture and target for learning. Learning is performed by updating the parameters so that the cross-entropy error becomes small. Information about the posture and the object for learning is generated based on, for example, an image of the driver captured for learning. In addition, the certainty factor for learning is set so that in the image of the driver captured for learning, a different element is 1 depending on whether the driver is gazing at the target object, and the other elements are 0. is a one-hot vector with
続いて、算出部434は、推定の結果に基づいて運転者の危険度を算出する(S403)。危険度は、車内動画像のフレームと関連付けられた時系列データとして算出される。
Subsequently, the
算出部434は、あらかじめ設定されたルールに基づいて運転者の危険度を算出する。例えば、算出部434は、車内動画像を構成するフレームのうちの一のフレームを特定する。算出部434は、特定したフレーム及び特定したフレームの直前の所定数のフレーム(例えば、2秒間に相当する数のフレーム)を抽出する。算出部434は、抽出された各フレームについての推定の結果が何れも運転者が対象物を注視していることを示し且つ各フレームに対応する走行速度が時速0km(すなわち、停車中)でない場合に、特定したフレームについての危険度が高いと算出し、他の場合に、特定したフレームについての危険度が低いと算出する。
The
続いて、動画像抽出部435は、危険度に基づいて車内動画像の一部を抽出することにより抽出動画像を生成し(S404)、前方動画像抽出処理を終了する。例えば、動画像抽出部435は、危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように前方動画像の一部を抽出する。
Subsequently, the moving
以上説明したように、管理装置4は、前方動画像に基づいて生成される他の車両のナンバープレートの情報を学習済みモデルに入力することにより、車両と他の車両との車間距離を推定する。また、管理装置4は、推定した車間距離に基づいて算出される他の車両の危険度に基づいて前方動画像の一部を抽出することにより抽出前方動画像を生成する。これにより、管理装置4は、車両の管理者が危険運転を適切に確認することを可能とする。
As described above, the
すなわち、管理装置4は、車間距離に基づいて他の車両の危険度を算出するため、車間距離を急激に狭めて運転する等の事故に至らないあおり運転を適切に検知することができる。そして、管理装置4は、危険度に基づいて前方動画像の一部を抽出することにより、あおり運転の態様を管理者が効率的に確認することを可能とする。また、管理装置4は、測距センサ等を備えない撮像装置2を用いて車間距離を算出するため、多数の車両を所有する運送業者等が比較的安価に管理システム1を導入することを可能とする。
That is, since the
また、管理装置4は、車内動画像に基づいて生成される車両の運転者の姿勢に関する情報及び運転者が把持する対象物に関する情報を学習済みモデルに入力することにより、運転者が対象物を注視しているか否かを推定する。また、管理装置4は、推定の結果に基づいて算出される運転者の危険度に基づいて車内動画像の一部を抽出することにより抽出車内動画像を生成する。これにより、管理装置4は、車両の管理者が危険運転を適切に確認することを可能とする。
In addition, the
すなわち、管理装置4は、運転者の姿勢に関する情報と対象物に関する情報との両方を用いて運転者が対象物を注視しているか否かを推定することにより、運転者の視線の追跡が困難な場合でも適切にながら運転を検知することができる。また、そして、管理装置4は、推定結果に基づく危険度を用いて車内動画像の一部を抽出することにより、ながら運転の態様を管理者が効率的に確認することを可能とする。
That is, the
また、管理装置4は、あらかじめ設定されたルールに基づいて危険度を算出する。これにより、管理装置4は、危険運転をより適切に検知することを可能とする。すなわち、ながら運転にあたるか否かの基準は運転者が約2秒以上画面を見続けることとされているから、管理装置4がこのようなルールに基づいて危険度を判定することにより、危険運転をより適切に検知することが可能となる。また、これにより、管理装置4は危険運転の基準の変更に容易に対応することができる。
In addition, the
また、管理装置4は、危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように前方動画像、後方動画像又は車内動画像の一部を抽出する。これにより、管理装置4は、管理者が危険運転の状況及びその前後の状況を適切に確認することを可能とする。
Moreover, the
なお、管理装置4は、S204において、危険度が所定の条件を満たしている時間が含まれるように前方動画像の一部を抽出してもよい。図6に示す例では、フレーム識別子「102」のフレームからフレーム識別子「151」のフレームまで、危険度が「高」と算出されている。したがって、所定の条件が、危険度が「高」であることであるとすると、動画像抽出部435は、フレーム識別子が「102」のフレームからフレーム識別子が「151」のフレームまでを抽出し、抽出したフレームから構成される抽出動画像を生成する。同様に、管理装置4は、S404において、危険度が所定の条件を満たしている時間が含まれるように車内動画像の一部を抽出してもよい。
Note that, in S204, the
また、この場合において、管理装置4は、危険度が所定の条件を満たしている時間の前後に所定時間(例えば、前後それぞれ5秒ずつ)を付加した時間が含まれるように前方動画像の一部を抽出してもよい。これにより、管理装置4は、管理者が危険運転の前後の状況をより適切に確認することを可能とする。
Also, in this case, the
上述した説明では、車内動画送信処理のS302において、撮像装置2は車速データを生成するものとしたが、撮像装置2は車速データを生成しなくてもよい。この場合、管理装置4は、車両の走行速度にかかわらず、運転者の姿勢及び対象物に関する情報に基づいて危険度を算出する。信号待ち等の、停車中であっても運転者が画像表示装置を注視することは好ましくない場合がある。管理装置4は、このような場合に車両の走行速度に関わらず運転者が画像表示装置を注視したことを検知することができる。
In the above description, the
上述した説明では、管理装置4は、取得した動画像の各フレームについて危険度を算出するものとしたが、このような例に限られない。例えば、管理装置4は、動画像を構成するフレームのうちから、所定時間(例えば、1秒)ごとに1つのフレームを抽出し、抽出したフレームに対して危険度を算出するようにしてもよい。これにより、管理装置4の処理負荷を低減することができる。
In the above description, the
上述した説明では、管理装置4は、S203において、あらかじめ設定されたルールに基づいて危険度を算出するものとしたが、このような例に限られない。管理装置4は、第3記憶部41に記憶された危険度算出用の学習済みモデルを用いて危険度を算出してもよい。学習済みモデルは、連続する所定数のフレームについて推定された車間距離が入力された場合に、危険度を算出するように学習された、勾配ブースティング決定木等の学習モデルである。
In the above description, in S203, the
学習モデルは、学習用の車間距離が入力された場合に学習モデルが出力した危険度と、あらかじめ学習用の車間距離に関連付けて設定された学習用危険度との交差エントロピー誤差が小さくなるようにパラメータが更新されることにより学習される。学習用の車間距離は、例えば、学習用に撮像した前方車両の動画像に基づいて生成される。また、学習用危険度は、例えば、学習用に撮像した前方車両の動画像を見た者がどの程度危険に感じたかに基づいて設定される。これにより、管理装置4は、あおり運転をより適切に検知することができる。すなわち、他の車両の運転があおり運転にあたるか否かは運転者の主観的な要素にも基づくと考えられるため、学習済みモデルを用いることで、運転者の主観的な要素を踏まえた適切なあおり運転の検知が可能となる。
The learning model is designed to reduce the cross-entropy error between the risk level output by the learning model when the inter-vehicle distance for learning is input and the risk level for learning that is set in advance in association with the inter-vehicle distance for learning. It is learned by updating the parameters. The inter-vehicle distance for learning is generated, for example, based on the moving image of the preceding vehicle captured for learning. Also, the learning risk level is set based on, for example, how dangerous a person who viewed the moving image of the vehicle ahead captured for learning felt to be in danger. Thereby, the
上述した説明における管理装置4の機能の一部又は全部は、撮像装置2又は通信端末3によって実現されてもよい。例えば、車外動画像送信処理において、通信端末3が危険度を算出して抽出前方動画像を生成し、通信端末3に送信するようにしてもよい。これにより、ネットワーク6を経由する通信量を低減することができる。
Some or all of the functions of the
上述した説明では、通信端末3は車両の運転者が携帯するスマートフォン等であるものとしたが、このような例に限られない。例えば、通信端末3は車両に設けられた通信モジュールでもよい。また、撮像装置2の第1通信部25が、管理装置4と直接に通信可能となるように構成されてもよい。
In the above description, the
当業者は、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。例えば、上述した各部の処理は、本発明の範囲において、適宜に異なる順序で実行されてもよい。また、上述した実施形態及び変形例は、本発明の範囲において、適宜に組み合わせて実施されてもよい。 It should be understood by those skilled in the art that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention. For example, the processing of each unit described above may be performed in a different order as appropriate within the scope of the present invention. Also, the above-described embodiments and modifications may be implemented in appropriate combinations within the scope of the present invention.
1 管理システム
2 撮像装置
271 動画像生成部
272 車速生成部
273 動画像送信部
3 通信端末
341 受信部
342 送信部
4 管理装置
431 動画像取得部
432 情報取得部
433 推定部
434 算出部
435 動画像抽出部
436 抽出動画像送信部
1
Claims (10)
前記撮像装置は、
前記車両とは異なる他の車両を撮像して車外動画像を生成するとともに、前記車両の運転者を撮像して車内動画像を生成する第1生成部と、
前記車外動画像と前記車内動画像とを前記管理装置に送信する第1送信部と、を有し、
前記管理装置は、
ナンバープレートに関する情報と前記ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した第1の学習済みモデル、並びに、車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と前記運転者が前記対象物を注視しているか否かを示す情報との関係をあらかじめ学習した第2の学習済みモデルを記憶する記憶部と、
前記車外動画像と前記車内動画像とを取得する動画像取得部と、
前記車外動画像に基づいて生成される、前記他の車両のナンバープレートに関する情報と、前記車内動画像に基づいて生成される、前記車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と、を取得する情報取得部と、
前記取得した他の車両のナンバープレートに関する情報を前記第1の学習済みモデルに入力することにより、前記車両と前記他の車両との車間距離を推定するとともに、前記取得した運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報を前記第2の学習済みモデルに入力することにより、前記車両の運転者が前記対象物を注視しているか否かを推定する推定部と、
前記推定した車間距離に基づいて前記他の車両の危険度を算出するとともに、前記車両の運転者が前記対象物を注視しているか否かに基づいて前記車両の運転者の危険度を算出する算出部と、
前記他の車両の危険度に基づいて前記車外動画像の一部を抽出することにより抽出車外動画像を生成するとともに、前記運転者の危険度に基づいて前記車内動画像の一部を抽出することにより抽出車内動画像を生成する第2生成部と、
前記抽出車外動画像と前記抽出車内動画像とを送信する第2送信部と、を有する、
ことを特徴とする管理システム。 A management system having an imaging device provided in a vehicle and a management device,
The imaging device is
a first generation unit that captures another vehicle different from the vehicle to generate an exterior moving image , and captures a driver of the vehicle to generate an in-vehicle moving image ;
a first transmission unit that transmits the vehicle exterior video image and the vehicle interior video image to the management device;
The management device
A first trained model that has learned in advance the relationship between information about the license plate and the inter -vehicle distance to the vehicle with the license plate, information about the joint positions of the driver of the vehicle, and information about the face orientation of the driver. a storage unit that stores a second learned model that has previously learned a relationship between information and information about an object gripped by the driver and information indicating whether the driver is gazing at the object;
a video image acquisition unit that acquires the vehicle exterior video image and the vehicle interior video image ;
information about the license plate of the other vehicle generated based on the moving image outside the vehicle ; information about joint positions of the driver of the vehicle generated based on the moving image inside the vehicle; an information acquisition unit that acquires information on orientation and information on an object held by the driver ;
By inputting the obtained information about the license plate of the other vehicle into the first learned model, the inter-vehicle distance between the vehicle and the other vehicle is estimated , and the obtained joint position of the driver is estimated. By inputting information, information about the orientation of the driver's face, and information about the object held by the driver into the second trained model, it is possible to determine whether the driver of the vehicle is gazing at the object. an estimation unit that estimates whether or not
calculating the risk of the other vehicle based on the estimated inter-vehicle distance, and calculating the risk of the driver of the vehicle based on whether or not the driver of the vehicle is gazing at the object; a calculation unit;
An extracted vehicle exterior video image is generated by extracting a portion of the vehicle exterior video image based on the degree of risk of the other vehicle , and a portion of the vehicle interior video image is extracted based on the driver's degree of risk. a second generation unit that generates an extracted in-vehicle moving image by
a second transmission unit that transmits the extracted vehicle exterior moving image and the extracted vehicle interior moving image ;
A management system characterized by:
請求項1に記載の管理システム。 The calculation unit calculates the risk level of the other vehicle and the risk level of the driver based on preset rules.
The management system of Claim 1 .
前記第2生成部は、前記他の車両の危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように前記車外動画像の一部を抽出するとともに、前記運転者の危険度が所定の条件を満たした時点から所定時間の範囲が含まれるように前記車内動画像の一部を抽出する、
請求項1又は2に記載の管理システム。 The calculation unit calculates the degree of risk of the other vehicle as time-series data associated with the reproduction time of the video image outside the vehicle , and associates the degree of risk of the driver with the reproduction time of the video image inside the vehicle. calculated as time-series data ,
The second generation unit extracts a portion of the vehicle exterior video image so as to include a range of a predetermined time from a point in time when the degree of risk of the other vehicle satisfies a predetermined condition, extracting a portion of the in-vehicle moving image so as to include a range of a predetermined time from the time when satisfies a predetermined condition;
3. Management system according to claim 1 or 2 .
前記第2生成部は、前記他の車両の危険度が所定の条件を満たしている時間が含まれるように前記車外動画像の一部を抽出するとともに、前記運転者の危険度が所定の条件を満たしている時間が含まれるように前記車内動画像の一部を抽出する、
請求項1-3の何れか一項に記載の管理システム。 The calculation unit calculates the degree of risk of the other vehicle as time-series data associated with the reproduction time of the video image outside the vehicle , and associates the degree of risk of the driver with the reproduction time of the video image inside the vehicle. calculated as time-series data ,
The second generation unit extracts a portion of the vehicle exterior video image so as to include a time period during which the degree of risk of the other vehicle satisfies a predetermined condition, and extracts a portion of the vehicle exterior video image so that the degree of risk of the driver satisfies a predetermined condition. extracting a portion of the in-vehicle video so as to include the time that satisfies
Management system according to any one of claims 1-3 .
前記動画像取得部は、さらに前記車速データを取得し、The moving image acquisition unit further acquires the vehicle speed data,
前記算出部は、The calculation unit
前記車外動画像を構成する各フレームについて、当該フレームを含む直前の所定数のフレームについて推定された車間距離が何れも所定値以下であり且つ各フレームに対応する走行速度が所定値以上である場合に、当該フレームについての危険度が高いと算出することにより、前記他の車両の危険度を、前記車外動画像のフレームと関連付けられた時系列データとして算出し、For each frame that constitutes the vehicle exterior video, the vehicle-to-vehicle distances estimated for a predetermined number of frames immediately preceding the frame are all equal to or less than a predetermined value, and the travel speed corresponding to each frame is equal to or greater than a predetermined value. and calculating the risk of the other vehicle as time-series data associated with the frame of the vehicle exterior video by calculating that the frame has a high risk,
前記車内動画像を構成する各フレームについて、当該フレームを含む直前の所定数のフレームについての前記推定の結果が何れも前記運転者が前記対象物を注視していることを示し且つ各フレームに対応する車速データが停車中でないことを示す場合に、当該フレームについての危険度が高いと算出することにより、前記運転者の危険度を、前記車内動画像のフレームと関連付けられた時系列データとして算出する、For each frame constituting the in-vehicle moving image, the results of the estimation for a predetermined number of frames immediately before including the frame indicate that the driver is gazing at the object and correspond to each frame. When the vehicle speed data indicates that the vehicle is not stopped, the driver's risk is calculated as time-series data associated with the frame of the in-vehicle moving image by calculating that the risk of the frame is high. do,
請求項1-4の何れか一項に記載の管理システム。Management system according to any one of claims 1-4.
前記第1送信部は、前記車外動画像と前記車内動画像とを前記通信端末に送信し、The first transmission unit transmits the vehicle exterior video and the vehicle interior video to the communication terminal,
前記動画像取得部は、前記車外動画像と前記車内動画像とを前記通信端末から取得する、The video image acquisition unit acquires the vehicle exterior video image and the vehicle interior video image from the communication terminal.
請求項1-5の何れか一項に記載の管理システム。Management system according to any one of claims 1-5.
前記撮像装置が、
前記車両とは異なる他の車両を撮像して車外動画像を生成するとともに、前記車両の運転者を撮像して車内動画像を生成し、
前記車外動画像と前記車内動画像とを前記管理装置に送信し、
前記管理装置が、
ナンバープレートに関する情報と前記ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した第1の学習済みモデル、並びに、車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と前記運転者が前記対象物を注視しているか否かを示す情報との関係をあらかじめ学習した第2の学習済みモデルを記憶し、
前記車外動画像と前記車内動画像とを取得し、
前記車外動画像に基づいて生成される、前記他の車両のナンバープレートに関する情報と、前記車内動画像に基づいて生成される、前記車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と、を取得し、
前記取得した他の車両のナンバープレートに関する情報を前記第1の学習済みモデルに入力することにより、前記車両と前記他の車両との車間距離を推定するとともに、前記取得した運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報を前記第2の学習済みモデルに入力することにより、前記車両の運転者が前記対象物を注視しているか否かを推定し、
前記推定した車間距離に基づいて前記他の車両の危険度を算出するとともに、前記車両の運転者が前記対象物を注視しているか否かに基づいて前記車両の運転者の危険度を算出し、
前記他の車両の危険度に基づいて前記車外動画像の一部を抽出することにより抽出車外動画像を生成するとともに、前記運転者の危険度に基づいて前記車内動画像の一部を抽出することにより抽出車内動画像を生成し、
前記抽出車外動画像と前記抽出車内動画像とを送信する、
ことを含むことを特徴とする管理方法。 A management method executed by a system having an imaging device provided in a vehicle and a management device,
The imaging device
imaging another vehicle different from the vehicle to generate an exterior moving image , and imaging a driver of the vehicle to generate an in-vehicle moving image ;
transmitting the vehicle exterior video image and the vehicle interior video image to the management device;
The management device
A first trained model that has learned in advance the relationship between information about the license plate and the inter -vehicle distance to the vehicle with the license plate, information about the joint positions of the driver of the vehicle, and information about the face orientation of the driver. storing a second trained model that has previously learned a relationship between information and information about an object held by the driver and information indicating whether the driver is gazing at the object;
Acquiring the vehicle exterior video image and the vehicle interior video image ,
information about the license plate of the other vehicle generated based on the moving image outside the vehicle ; information about joint positions of the driver of the vehicle generated based on the moving image inside the vehicle; Acquiring information about the orientation and information about the object grasped by the driver ;
By inputting the obtained information about the license plate of the other vehicle into the first learned model, the inter-vehicle distance between the vehicle and the other vehicle is estimated, and the obtained joint position of the driver is estimated. By inputting information, information about the orientation of the driver's face, and information about the object held by the driver into the second trained model, it is possible to determine whether the driver of the vehicle is gazing at the object. infer whether or not
calculating the degree of danger of the other vehicle based on the estimated inter-vehicle distance, and calculating the degree of danger of the driver of the vehicle based on whether or not the driver of the vehicle is gazing at the object; ,
An extracted vehicle exterior video image is generated by extracting a portion of the vehicle exterior video image based on the degree of risk of the other vehicle , and a portion of the vehicle interior video image is extracted based on the driver's degree of risk. Generates an extracted in-vehicle moving image by
transmitting the extracted vehicle exterior video image and the extracted vehicle interior video image ;
A management method characterized by comprising:
車両に設けられた撮像装置が前記車両とは異なる他の車両を撮像して生成した車外動画像と前記撮像装置が前記車両の運転者を撮像して生成した車内動画像とを取得する動画像取得部と、
前記車外動画像に基づいて生成される、前記他の車両のナンバープレートに関する情報と、前記車内動画像に基づいて生成される、前記車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と、を取得する情報取得部と、
前記取得した他の車両のナンバープレートに関する情報を前記第1の学習済みモデルに入力することにより、前記車両と前記他の車両との車間距離を推定するとともに、前記取得した運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報を前記第2の学習済みモデルに入力することにより、前記車両の運転者が前記対象物を注視しているか否かを推定する推定部と、
前記推定した車間距離に基づいて前記他の車両の危険度を算出するとともに、前記車両の運転者が前記対象物を注視しているか否かに基づいて前記車両の運転者の危険度を算出する算出部と、
前記他の車両の危険度に基づいて前記車外動画像の一部を抽出することにより抽出車外動画像を生成するとともに、前記運転者の危険度に基づいて前記車内動画像の一部を抽出することにより抽出車内動画像を生成する第2生成部と、
前記抽出車外動画像と前記抽出車内動画像とを送信する第2送信部と、
を有することを特徴とする管理装置。 A first trained model that has learned in advance the relationship between information about the license plate and the inter -vehicle distance to the vehicle with the license plate, information about the joint positions of the driver of the vehicle, and information about the face orientation of the driver. a storage unit that stores a second learned model that has previously learned a relationship between information and information about an object gripped by the driver and information indicating whether the driver is gazing at the object;
A moving image obtained by acquiring an outside moving image generated by an imaging device provided in a vehicle imaging another vehicle different from the vehicle and an in-vehicle moving image generated by imaging a driver of the vehicle by the imaging device. an acquisition unit;
information about the license plate of the other vehicle generated based on the moving image outside the vehicle ; information about joint positions of the driver of the vehicle generated based on the moving image inside the vehicle; an information acquisition unit that acquires information on orientation and information on an object held by the driver ;
By inputting the obtained information about the license plate of the other vehicle into the first learned model, the inter-vehicle distance between the vehicle and the other vehicle is estimated , and the obtained joint position of the driver is estimated. By inputting information, information about the orientation of the driver's face, and information about the object held by the driver into the second trained model, it is possible to determine whether the driver of the vehicle is gazing at the object. an estimation unit that estimates whether or not
calculating the risk of the other vehicle based on the estimated inter-vehicle distance, and calculating the risk of the driver of the vehicle based on whether or not the driver of the vehicle is gazing at the object; a calculation unit;
An extracted vehicle exterior video image is generated by extracting a portion of the vehicle exterior video image based on the degree of risk of the other vehicle , and a portion of the vehicle interior video image is extracted based on the driver's degree of risk. a second generation unit that generates an extracted in-vehicle moving image by
a second transmission unit that transmits the extracted vehicle exterior moving image and the extracted vehicle interior moving image ;
A management device characterized by having:
車両に設けられた撮像装置が前記車両とは異なる他の車両を撮像して生成した車外動画像と前記撮像装置が前記車両の運転者を撮像して生成した車内動画像とを取得し、
前記車外動画像に基づいて生成される、前記他の車両のナンバープレートに関する情報と、前記車内動画像に基づいて生成される、前記車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と、を取得し、
前記取得した他の車両のナンバープレートに関する情報を前記第1の学習済みモデルに入力することにより、前記車両と前記他の車両との車間距離を推定するとともに、前記取得した運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報を前記第2の学習済みモデルに入力することにより、前記車両の運転者が前記対象物を注視しているか否かを推定し、
前記推定した車間距離に基づいて前記他の車両の危険度を算出するとともに、前記車両の運転者が前記対象物を注視しているか否かに基づいて前記車両の運転者の危険度を算出し、
前記他の車両の危険度に基づいて前記車外動画像の一部を抽出することにより抽出車外動画像を生成するとともに、前記運転者の危険度に基づいて前記車内動画像の一部を抽出することにより抽出車内動画像を生成し、
前記抽出車外動画像と前記抽出車内動画像とを送信する、
ことを前記コンピュータに実行させることを特徴とするプログラム。 A first trained model that has learned in advance the relationship between information about the license plate and the inter -vehicle distance to the vehicle with the license plate, information about the joint positions of the driver of the vehicle, and information about the face orientation of the driver. A storage unit that stores a second learned model that has previously learned a relationship between information and information about an object grasped by the driver and information indicating whether the driver is gazing at the object. a computer program,
Acquiring an external video image generated by an imaging device provided in a vehicle imaging another vehicle different from the vehicle and an in -vehicle video image generated by imaging a driver of the vehicle by the imaging device ,
information about the license plate of the other vehicle generated based on the moving image outside the vehicle ; information about joint positions of the driver of the vehicle generated based on the moving image inside the vehicle; Acquiring information about the orientation and information about the object grasped by the driver ;
By inputting the obtained information about the license plate of the other vehicle into the first learned model, the inter-vehicle distance between the vehicle and the other vehicle is estimated, and the obtained joint position of the driver is estimated. By inputting information, information about the orientation of the driver's face, and information about the object held by the driver into the second trained model, it is possible to determine whether the driver of the vehicle is gazing at the object. infer whether or not
calculating the degree of danger of the other vehicle based on the estimated inter-vehicle distance, and calculating the degree of danger of the driver of the vehicle based on whether or not the driver of the vehicle is gazing at the object; ,
An extracted vehicle exterior video image is generated by extracting a portion of the vehicle exterior video image based on the degree of risk of the other vehicle , and a portion of the vehicle interior video image is extracted based on the driver's degree of risk. Generate an extracted in-vehicle moving image by
transmitting the extracted vehicle exterior moving image and the extracted vehicle interior moving image ;
A program characterized by causing the computer to execute:
前記撮像装置が前記車両とは異なる他の車両を撮像して生成した車外動画像と前記撮像装置が前記車両の運転者を撮像して生成した車内動画像とを前記撮像装置から受信する受信部と、
ナンバープレートに関する情報と、前記ナンバープレートを備える車両までの車間距離との関係をあらかじめ学習した第1の学習済みモデル、並びに、車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報と前記運転者が前記対象物を注視しているか否かを示す情報との関係をあらかじめ学習した第2の学習済みモデルを記憶し、前記車外動画像を受信した場合に、前記車外動画像に基づいて生成される、前記他の車両のナンバープレートに関する情報を前記第1の学習済みモデルに入力することにより、前記車両と前記他の車両との車間距離を推定し、前記車内動画像を受信した場合に、前記車内動画像に基づいて生成される、前記車両の運転者の関節位置に関する情報、前記運転者の顔の向きに関する情報及び前記運転者が把持する対象物に関する情報を前記第1の学習済みモデルに入力することにより、前記車両の運転者が前記対象物を注視しているか否かを推定し、前記推定した車間距離に基づいて前記他の車両の危険度を算出するとともに、前記車両の運転者が前記対象物を注視しているか否かに基づいて前記車両の運転者の危険度を算出し、前記他の車両の危険度に基づいて前記車外動画像の一部を抽出することにより抽出車外動画像を生成して送信するとともに、前記運転者の危険度に基づいて前記車内動画像の一部を抽出することにより抽出車内動画像を生成して送信する管理装置に、前記車外動画像と前記車内動画像とを送信する送信部と、
を有することを特徴とする通信端末。 A communication terminal communicably connected to the imaging device and the management device of a system having an imaging device provided in a vehicle and the management device,
A receiving unit that receives, from the imaging device, an exterior video image generated by imaging another vehicle different from the vehicle and an in-vehicle video image generated by the imaging device imaging a driver of the vehicle, from the imaging device. When,
A first trained model that has learned in advance the relationship between information about a license plate and the inter-vehicle distance to the vehicle with the license plate , information about joint positions of the driver of the vehicle, and information about the face orientation of the driver. storing a second trained model that has previously learned a relationship between information and information about an object grasped by the driver and information indicating whether the driver is gazing at the object ; by inputting, into the first trained model, information relating to the license plate of the other vehicle, which is generated based on the outside-vehicle moving image when the image is received, thereby determining the relationship between the vehicle and the other vehicle. information about the joint positions of the driver of the vehicle, information about the direction of the driver's face, and the driving, which are generated based on the in-vehicle moving image when an inter-vehicle distance is estimated and the in-vehicle moving image is received; By inputting information about an object held by a person into the first trained model, it is estimated whether or not the driver of the vehicle is gazing at the object, and based on the estimated inter-vehicle distance calculating the degree of risk of the other vehicle, calculating the degree of risk of the driver of the vehicle based on whether or not the driver of the vehicle is gazing at the object, and calculating the degree of risk of the other vehicle ; generating and transmitting an extracted vehicle-exterior video image by extracting a portion of the vehicle-exterior video image based on the degree of risk of the driver, and extracting a portion of the vehicle-interior video image based on the degree of risk of the driver; a transmission unit configured to transmit the vehicle exterior video and the vehicle interior video to a management device that generates and transmits video images ;
A communication terminal characterized by having:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020136380A JP7186749B2 (en) | 2020-08-12 | 2020-08-12 | Management system, management method, management device, program and communication terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020136380A JP7186749B2 (en) | 2020-08-12 | 2020-08-12 | Management system, management method, management device, program and communication terminal |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022032520A JP2022032520A (en) | 2022-02-25 |
JP7186749B2 true JP7186749B2 (en) | 2022-12-09 |
Family
ID=80350128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020136380A Active JP7186749B2 (en) | 2020-08-12 | 2020-08-12 | Management system, management method, management device, program and communication terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7186749B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102505353B1 (en) * | 2022-03-11 | 2023-02-28 | 김익균 | Smart illegal monitoring prevention system using smartphone interlocking function |
KR102480011B1 (en) * | 2022-03-11 | 2022-12-20 | 김익균 | Smart illegal surveillance prevention system using vehicle black box and GPS |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011227663A (en) | 2010-04-19 | 2011-11-10 | Denso Corp | Drive aiding device and program |
JP2016081086A (en) | 2014-10-09 | 2016-05-16 | 株式会社日立製作所 | Driving characteristics diagnosis device, driving characteristics diagnosis system, driving characteristics diagnosis method, information output device, and information output method |
JP2016126756A (en) | 2014-12-26 | 2016-07-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Risk determination method, risk determination device, risk output device, and risk determination system |
JP2016130966A (en) | 2015-01-14 | 2016-07-21 | 株式会社デンソーアイティーラボラトリ | Risk estimation device, risk estimation method and computer program for risk estimation |
CN107221196A (en) | 2017-05-26 | 2017-09-29 | 广东中星电子有限公司 | Vehicle drive methods of risk assessment, device, system and readable storage medium storing program for executing |
JP2018152034A (en) | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP2019032725A (en) | 2017-08-09 | 2019-02-28 | 株式会社ユピテル | Vehicle-mounted electronic device, server, and client terminal |
JP2019205078A (en) | 2018-05-24 | 2019-11-28 | 株式会社ユピテル | System and program |
JP2020046728A (en) | 2018-09-14 | 2020-03-26 | 矢崎エナジーシステム株式会社 | On-vehicle unit |
CN111301280A (en) | 2018-12-11 | 2020-06-19 | 北京嘀嘀无限科技发展有限公司 | Dangerous state identification method and device |
-
2020
- 2020-08-12 JP JP2020136380A patent/JP7186749B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011227663A (en) | 2010-04-19 | 2011-11-10 | Denso Corp | Drive aiding device and program |
JP2016081086A (en) | 2014-10-09 | 2016-05-16 | 株式会社日立製作所 | Driving characteristics diagnosis device, driving characteristics diagnosis system, driving characteristics diagnosis method, information output device, and information output method |
JP2016126756A (en) | 2014-12-26 | 2016-07-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Risk determination method, risk determination device, risk output device, and risk determination system |
JP2016130966A (en) | 2015-01-14 | 2016-07-21 | 株式会社デンソーアイティーラボラトリ | Risk estimation device, risk estimation method and computer program for risk estimation |
JP2018152034A (en) | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP2018152038A (en) | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
CN107221196A (en) | 2017-05-26 | 2017-09-29 | 广东中星电子有限公司 | Vehicle drive methods of risk assessment, device, system and readable storage medium storing program for executing |
JP2019032725A (en) | 2017-08-09 | 2019-02-28 | 株式会社ユピテル | Vehicle-mounted electronic device, server, and client terminal |
JP2019205078A (en) | 2018-05-24 | 2019-11-28 | 株式会社ユピテル | System and program |
JP2020046728A (en) | 2018-09-14 | 2020-03-26 | 矢崎エナジーシステム株式会社 | On-vehicle unit |
CN111301280A (en) | 2018-12-11 | 2020-06-19 | 北京嘀嘀无限科技发展有限公司 | Dangerous state identification method and device |
Also Published As
Publication number | Publication date |
---|---|
JP2022032520A (en) | 2022-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110235152B (en) | Vehicle service system | |
US10769459B2 (en) | Method and system for monitoring driving behaviors | |
US10764536B2 (en) | System and method for a dynamic human machine interface for video conferencing in a vehicle | |
KR20190115040A (en) | Methods, devices, equipment and storage media for determining driving behavior | |
EP3583478B1 (en) | Performing fallback operation based on instantaneous autonomous operating context | |
US20220180483A1 (en) | Image processing device, image processing method, and program | |
JP7186749B2 (en) | Management system, management method, management device, program and communication terminal | |
US10674003B1 (en) | Apparatus and system for identifying occupants in a vehicle | |
JP2014199546A (en) | Driving support device and driving support method | |
WO2019088033A1 (en) | Evaluation device, evaluation system, vehicle, and program | |
CN112689587A (en) | Method for classifying non-driving task activities in consideration of interruptability of non-driving task activities of driver when taking over driving task is required and method for releasing non-driving task activities again after non-driving task activities are interrupted due to taking over driving task is required | |
US20210312238A1 (en) | System and method for detecting abnormal passenger behavior in autonomous vehicles | |
CN114677848B (en) | Perception early warning system, method, device and computer program product | |
US11903647B2 (en) | Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium | |
JP2021034739A (en) | Learning data generation method and program, for estimating event generation, learning model, and event generation estimation device | |
US20220281485A1 (en) | Control apparatus, system, vehicle, and control method | |
US20220130024A1 (en) | Image processing device, image processing method, and image processing system | |
WO2020090320A1 (en) | Information processing device, information processing method, and information processing program | |
CN111415434A (en) | Vehicle communication using external vehicle display | |
US20240227837A9 (en) | Device and method for notification | |
US20240132092A1 (en) | Device and method for notification | |
US20240196462A1 (en) | Electronic device and method for providing cloud-based vehicle information | |
US20230308612A1 (en) | Image processing system, communication apparatus, and image processing method | |
WO2020170835A1 (en) | Information processing device, information processing method, and information processing program | |
CN117456512A (en) | Dangerous driving behavior detection method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7186749 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |