JP2021157699A - System, program, machine learning method, machine learning model, and others - Google Patents

System, program, machine learning method, machine learning model, and others Download PDF

Info

Publication number
JP2021157699A
JP2021157699A JP2020059737A JP2020059737A JP2021157699A JP 2021157699 A JP2021157699 A JP 2021157699A JP 2020059737 A JP2020059737 A JP 2020059737A JP 2020059737 A JP2020059737 A JP 2020059737A JP 2021157699 A JP2021157699 A JP 2021157699A
Authority
JP
Japan
Prior art keywords
vehicle
unit
image
detection
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020059737A
Other languages
Japanese (ja)
Other versions
JP7470967B2 (en
Inventor
和範 阿部
Kazunori Abe
和範 阿部
直紀 松田
Naoki Matsuda
直紀 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yupiteru Corp
Original Assignee
Yupiteru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yupiteru Corp filed Critical Yupiteru Corp
Priority to JP2020059737A priority Critical patent/JP7470967B2/en
Publication of JP2021157699A publication Critical patent/JP2021157699A/en
Application granted granted Critical
Publication of JP7470967B2 publication Critical patent/JP7470967B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a technique which allows for detecting a target object without relying solely on electromagnetic waves within a given wavelength band, such as those of lasers, radars, etc.SOLUTION: A system 100 provided herein comprises a camera 21 mounted in a vehicle and configured to generate a captured image of the outside of the vehicle, detection units 22, 33 configured to detect speed violation control devices from the captured image using a machine learning model, and control units 24, 32 configured to provide control based on detection results of the detection units 22, 33.SELECTED DRAWING: Figure 1

Description

本発明は、システム、プログラム、機械学習方法、及び機械学習モデル等に関する。 The present invention relates to systems, programs, machine learning methods, machine learning models, and the like.

車両の速度超過違反を取り締まるための速度取締装置は、車両が走行する道路の速度取締地点に設置されることがある。速度取締装置は、走行している車両に所定の波長帯のレーザないしレーダ(以下これらをまとめて「電磁波」ということがある。)を照射して、その反射電波ないし反射光を受信ないし受光することで、車両の速度を推定する。そして、速度取締装置は、車両が当該道路に設定された法定速度を超える速度で走行している場合には、その車両を速度超過違反の車両として検出し、カメラで撮影する。 Speed control devices for cracking down on vehicle overspeed violations may be installed at speed control points on the road on which the vehicle travels. The speed control device irradiates a moving vehicle with a laser or radar in a predetermined wavelength band (hereinafter, these may be collectively referred to as "electromagnetic waves"), and receives or receives the reflected radio waves or reflected light. By doing so, the speed of the vehicle is estimated. Then, when the vehicle is traveling at a speed exceeding the legal speed set on the road, the speed control device detects the vehicle as a vehicle in violation of overspeed and takes a picture with a camera.

一般的に、速度取締装置は、高速道路や見通しのよい一般道など、ドライバが無意識に車両の速度を上げてしまいがちな個所に設置されることがある。したがって、車両において速度取締器を検出してドライバに注意喚起することができれば、ドライバの安全運転の支援をすることができる。 In general, speed cameras may be installed in places where the driver tends to unknowingly increase the speed of the vehicle, such as highways and general roads with good visibility. Therefore, if the speed control device can be detected in the vehicle and the driver can be alerted, it is possible to support the safe driving of the driver.

従来より、車両に搭載され、速度取締装置から照射されるレーザやレーダを探知して速度路取締装置の存在を報知する探知機が提供されている。この探知機によれば、ドライバに速度取締装置の存在を報知して、安全運転を促すことができる。 Conventionally, a detector mounted on a vehicle and detecting a laser or radar emitted from a speed control device to notify the existence of the speed path control device has been provided. According to this detector, it is possible to notify the driver of the existence of the speed control device and promote safe driving.

特開2018−196066号公報JP-A-2018-196066

しかしながら、電磁波を探知するだけでは、自動販売機や自動ドアから発せられる電磁波を受信して、これを速度取締装置と誤って認識してしまうことがある。 However, simply detecting an electromagnetic wave may receive an electromagnetic wave emitted from a vending machine or an automatic door and mistakenly recognize it as a speed control device.

本発明は上記背景に鑑み、レーザやレーダ等の所定の波長帯の電磁波のみに依らないで速度取締地点であることを示す目標物を検出することに関する技術を提供することを目的の一つとする。 In view of the above background, one of an object of the present invention is to provide a technique for detecting a target indicating a speed control point without relying only on electromagnetic waves in a predetermined wavelength band such as a laser or radar. ..

また、本発明は、車両から撮影される所定の目標物の撮影画像をサーバに集約させることを目的の一つとする。 Another object of the present invention is to collect captured images of a predetermined target image captured from a vehicle on a server.

さらに、本発明は、速度取締地点であることを示す目標物を検出する学習モデルを生成することに関する技術を提供することを目的の一つとする。 Furthermore, one of the objects of the present invention is to provide a technique for generating a learning model for detecting a target indicating that it is a speed control point.

また、本願の発明の目的はこれらに限定されず、本明細書及び図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「〜できる」と記載した箇所を「〜が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、各々の課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙示的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正又は分割出願にて特許請求の範囲とする意思を有する。またこれら独立の課題を組み合わせた課題を解決する構成についても開示しているものであり、権利取得する意思を有する。 Further, the object of the invention of the present application is not limited to these, and the intention to acquire the right by divisional application, amendment, etc. for the configuration for the purpose of obtaining the effect produced from the portion of the configuration disclosed in the present specification, drawings, etc. Have. For example, the present specification discloses a problem in which the part described as "can be" is replaced with "is a problem" in the present specification. The issues are described as independent, and the intention is to acquire the rights to solve each issue independently by divisional application, amendment, etc. Even if the subject matter is implicitly grasped from the description in the specification, the applicant intends to make a part of the structure described in the specification amended or to be claimed in the divisional application. It also discloses a structure that solves problems that combine these independent problems, and has the intention to acquire rights.

(1)一態様のシステムは、車両の外を撮影した画像から、機械学習モデルを用いて車両の速度取締地点であることを示す目標物を検出する検出部と、前記検出部における検出結果に基づいて制御を行う制御部と、を備えた構成を有している。このようにすれば、撮影画像から速度取締地点であることを示す目標物を検出することができる。例えば自動販売機や自動ドアなどの速度取締装置以外の電磁波発生源を速度取締装置として誤認する可能性を軽減できる。 (1) The system of one aspect is based on a detection unit that detects a target indicating that it is a speed control point of the vehicle by using a machine learning model from an image taken outside the vehicle, and a detection result in the detection unit. It has a configuration including a control unit that performs control based on the control. In this way, it is possible to detect a target indicating that it is a speed control point from the captured image. For example, it is possible to reduce the possibility of misidentifying an electromagnetic wave source other than a speed control device such as a vending machine or an automatic door as a speed control device.

(2)一態様のシステムは、(1)のシステムにおいて、前記検出部は、第一機械学習モデルを用いて前記目標物を検出する一次検出部と、前記一次検出部により前記目標物が検出された場合に、第二機械学習モデルを用いて前記目標物を検出する二次検出部と、を有し、前記制御部は、前記一次検出部及び前記二次検出部における検出結果に基づいて制御を行うとよい。このようにすれば、第一機械学習モデル及び第二機械学習モデルを用いた2段階の方法で目標物を検出するから、目標物をより精度良く検出することができる。 (2) In the system of one aspect, in the system of (1), the detection unit detects the target object by the primary detection unit that detects the target object by using the first machine learning model, and the primary detection unit. When this is done, it has a secondary detection unit that detects the target object using a second machine learning model, and the control unit is based on the detection results of the primary detection unit and the secondary detection unit. It is good to control. In this way, since the target object is detected by a two-step method using the first machine learning model and the second machine learning model, the target object can be detected more accurately.

(3)一態様のシステムは、(2)のシステムにおいて、前記一次検出部は、車両に搭載された車載機器に設けられ、前記二次検出部は、前記車載機器と通信ネットワークを介して通信するサーバに設けられるとよい。このようにすれば、車載機器が第二機械学習モデルを備える必要がなく、例えば第二機械学習モデルを複数の車載機器で共用することができる。また、車載機器の一次検出で目標物が検出された撮影画像をサーバに送信するようにすると、全ての撮影画像を送信する場合に比べて、サーバの処理負荷及び通信負荷を軽減できる。 (3) In the system of (2), the primary detection unit is provided in an in-vehicle device mounted on a vehicle, and the secondary detection unit communicates with the in-vehicle device via a communication network. It is recommended that it be installed on the server. In this way, the in-vehicle device does not need to include the second machine learning model, and for example, the second machine learning model can be shared by a plurality of in-vehicle devices. Further, if the captured image in which the target is detected by the primary detection of the in-vehicle device is transmitted to the server, the processing load and the communication load of the server can be reduced as compared with the case where all the captured images are transmitted.

(4)一態様のシステムは、(2)又は(3)のシステムにおいて、前記一次検出部は、前記第一機械学習モデルとしてのバイナリデータとのパターンマッチングを行うことで、前記画像から前記目標物を検出し、前記二次検出部は、前記第二機械学習モデルとして深層学習モデルを用いて前記画像から前記目標物を検出するとよい。このようにすれば、一次検出を二次検出と比較して高速に行うことが期待できる。 (4) The system of one aspect is the system of (2) or (3), in which the primary detection unit performs pattern matching with binary data as the first machine learning model, thereby performing the target from the image. It is preferable that the secondary detection unit detects an object and detects the target object from the image by using a deep learning model as the second machine learning model. In this way, it can be expected that the primary detection will be performed at a higher speed than the secondary detection.

(5)一態様のシステムは、(2)〜(4)のシステムにおいて、所定の波長帯の電磁波を探知する探知機を前記車両にさらに備え、前記一次検出部は、前記第一機械学習モデルと前記探知機の探知結果とに基づいて、前記目標物を検出するとよい。このようにすれば、従来の速度取締装置の探知方法を併用して一次検出を行うことができる。 (5) In the system of (2) to (4), the system of one aspect further includes a detector for detecting electromagnetic waves in a predetermined wavelength band in the vehicle, and the primary detection unit is the first machine learning model. It is preferable to detect the target based on the detection result of the detector and the detection result of the detector. In this way, the primary detection can be performed in combination with the detection method of the conventional speed control device.

(6)一態様のシステムは、(5)のシステムにおいて、前記制御部は、前記探知機により前記電磁波が受信されている期間に、前記第一機械学習モデルに基づいて前記画像から前記目標物が検出された場合、前記制御を行うとよい。このようにすれば、速度取締装置が使用する所定の波長帯の電磁波を受信した場合に、速度取締装置が検出されたときの制御を行うので、本当に速度取締装置が存在する場合に当該制御を行える可能性を高くすることができる。 (6) In the system of (5), the control unit is the target object from the image based on the first machine learning model during the period when the electromagnetic wave is received by the detector. When is detected, the above control may be performed. In this way, when an electromagnetic wave in a predetermined wavelength band used by the speed control device is received, control is performed when the speed control device is detected. Therefore, when the speed control device really exists, the control is performed. The possibility of being able to do it can be increased.

(7)一態様のシステムは、(1)〜(6)のいずれかのシステムにおいて、前前記制御部は、前記一次検出部における検出結果に基づいて、車両に設けられた警報部から警報を出力する制御を行う第一制御部を有するとよい。このようにすれば、一次検出の検出結果に基づいて車両内の人(例えばドライバ)に警報をすることができる。 (7) In one aspect of the system, in any of the systems (1) to (6), the front control unit issues an alarm from an alarm unit provided on the vehicle based on the detection result in the primary detection unit. It is preferable to have a first control unit that controls output. In this way, it is possible to give an alarm to a person (for example, a driver) in the vehicle based on the detection result of the primary detection.

(8)一態様のシステムは、(2)〜(6)のいずれかシステムにおいて、前記制御部は、前記二次検出部における検出結果に基づいて、車両に設けられた警報部から警報を出力する制御を行う第一制御部を有するとよい。このようにすれば、二次検出の検出結果に基づいて車両内の人(例えばドライバ)に警報をすることができる。 (8) In one aspect of the system, in any of the systems (2) to (6), the control unit outputs an alarm from an alarm unit provided on the vehicle based on the detection result in the secondary detection unit. It is preferable to have a first control unit that controls the operation. In this way, it is possible to give an alarm to a person (for example, a driver) in the vehicle based on the detection result of the secondary detection.

(9)一態様のシステムは、(2)〜(6)のシステムにおいて、前記制御部は、前記一次検出部における検出結果に基づいて、車両に設けられた警報部から第一警報を出力する制御を行い、前記二次検出部における検出結果に基づいて、前記第一警報と異なる第二警報を出力する制御を行う第一制御部を有するとよい。このようにすれば、車両内の人(例えばドライバ)は、一次検出の結果と二次検出の結果とを区別して警報を認識することができる。 (9) In the system of one aspect, in the systems of (2) to (6), the control unit outputs a first alarm from an alarm unit provided in the vehicle based on the detection result of the primary detection unit. It is preferable to have a first control unit that controls and outputs a second alarm different from the first alarm based on the detection result in the secondary detection unit. In this way, a person (for example, a driver) in the vehicle can recognize the alarm by distinguishing between the result of the primary detection and the result of the secondary detection.

(10)一態様のシステムは、(7)〜(9)のいずれかのシステムにおいて、前記第一制御部は、前記目標物の検出結果の確からしさに応じて異なる警報を出力する制御を行うとよい。このようにすれば、速度取締装置の検出結果の確からしさに応じて異なる警報をするので、車両内の人(例えばドライバ)は速度取締装置が実際に存在する可能性を把握ことができる。 (10) In one aspect of the system, in any of the systems (7) to (9), the first control unit controls to output different alarms depending on the certainty of the detection result of the target object. It is good. In this way, different alarms are issued depending on the certainty of the detection result of the speed control device, so that a person (for example, a driver) in the vehicle can grasp the possibility that the speed control device actually exists.

(11)一態様のシステムは、(1)〜(10)のシステムにおいて、前記目標物の位置情報を記憶する記憶部を備え、前記制御部は、それぞれ異なる車両に搭載された複数の前記検出部における検出結果に基づいて、前記記憶部における前記目標物の位置情報を更新する制御を行う第二制御部を有するとよい。このようにすれば、目標物が検出された位置の位置情報を記憶し、これを目標物の検出結果に応じて更新することができる。 (11) The system of one aspect includes a storage unit for storing the position information of the target object in the systems (1) to (10), and the control unit is a plurality of the detection units mounted on different vehicles. It is preferable to have a second control unit that controls updating the position information of the target object in the storage unit based on the detection result in the unit. In this way, the position information of the position where the target object is detected can be stored and updated according to the detection result of the target object.

(12)一態様のシステムは、(7)〜(10)のシステムにおいて、前記目標物の位置情報を記憶する記憶部を備え、前記制御部は、それぞれ異なる車両に搭載された複数の前記検出部における検出結果に基づいて、前記記憶部における前記目標物の位置情報を更新する制御を行う第二制御部を有し、前記第一制御部は、前記記憶部に記憶された前記目標物の位置情報と、前記車両の位置とに基づいて、前記警報を出力する制御を行うとよい。このようにすれば、目標物が検出された位置の位置情報を記憶し、これを目標物の検出結果に応じて更新するとともに、目標物に対する車両の位置に応じて車両内の人(例えばドライバ)に警報をすることができる。 (12) In the system of (7) to (10), the system of one aspect includes a storage unit for storing the position information of the target object, and the control unit is a plurality of the detection units mounted on different vehicles. It has a second control unit that controls updating the position information of the target object in the storage unit based on the detection result in the unit, and the first control unit has the target object stored in the storage unit. It is preferable to control to output the alarm based on the position information and the position of the vehicle. In this way, the position information of the position where the target is detected is stored, updated according to the detection result of the target, and the person in the vehicle (for example, the driver) according to the position of the vehicle with respect to the target. ) Can be alerted.

(13)一態様のシステムは、(11)又は(12)のシステムにおいて、前記第一制御部は、車両に搭載された車載機器に設けられ、前記第二制御部は、前記車載機器と通信ネットワークを介して通信するサーバに設けられるとよい。このようにすれば、車載機器で目標物を検出した結果をサーバが取得するので、複数の車載機器で目標物の検出結果を共用できる。 (13) In the system of (11) or (12), the first control unit is provided in an in-vehicle device mounted on a vehicle, and the second control unit communicates with the in-vehicle device. It may be installed in a server that communicates via a network. In this way, since the server acquires the result of detecting the target object by the in-vehicle device, the detection result of the target object can be shared by a plurality of in-vehicle devices.

(14)一態様のシステムは、車両に搭載される車載機器と通信ネットワーク上に設けられたサーバとを備えたシステムであって、前記車載機器は、前記車両の外を撮影して撮影画像を生成するカメラと、前記通信ネットワークを介して前記撮影画像を前記サーバに送信する車両側送信部と、を備え、前記サーバは、前記車載機器から前記通信ネットワークを介して前記撮影画像を受信するサーバ側受信部と、機械学習モデルを用いて前記撮影画像から目標物を検出する検出部と、前記検出部における検出結果を記憶する記憶部と、を備えているとよい。このようにすれば、サーバは、車載機器から撮影画像を取得して目標物を検出し、検出結果を記憶することができる。特に、サーバは、複数の車両から撮影画像を取得することで、多数の目標物の検出結果を得ることができる。 (14) One aspect of the system is a system including an in-vehicle device mounted on a vehicle and a server provided on a communication network, and the in-vehicle device photographs the outside of the vehicle and captures an image. A server including a generated camera and a vehicle-side transmission unit that transmits the captured image to the server via the communication network, the server receiving the captured image from the in-vehicle device via the communication network. It is preferable to include a side receiving unit, a detection unit that detects a target object from the captured image using a machine learning model, and a storage unit that stores the detection result in the detection unit. In this way, the server can acquire the captured image from the in-vehicle device, detect the target object, and store the detection result. In particular, the server can obtain detection results of a large number of targets by acquiring captured images from a plurality of vehicles.

(15)一態様のシステムは、(14)のシステムにおいて、前記車載機器は、前記機械学習モデルより検出基準の低い機械学習モデルを用いて前記撮影画像から前記目標物を検出する一次検出部を備え、前記車両側送信部は、前記一次検出部にて前記目標物が検出された前記撮影画像を前記サーバに送信し、前記検出部は、二次検出部として、前記サーバ側受信部にて受信した前記撮影画像から前記目標物を検出するとよい。このようにすれば、車載機器の一次検出で目標物が検出された撮影画像をサーバに送信するので、通信負荷及び二次検出の負荷を軽減できる。 (15) In the system of (14), the in-vehicle device has a primary detection unit that detects the target object from the captured image by using a machine learning model having a lower detection standard than the machine learning model. The vehicle-side transmission unit transmits the captured image in which the target object is detected by the primary detection unit to the server, and the detection unit serves as a secondary detection unit at the server-side reception unit. It is preferable to detect the target object from the received captured image. By doing so, since the captured image in which the target object is detected by the primary detection of the in-vehicle device is transmitted to the server, the communication load and the secondary detection load can be reduced.

(16)一態様のシステムは、(14)のシステムにおいて、前記車載機器は、前記車両の位置情報を取得する位置情報取得部を備え、前記車両側送信部は、前記撮影画像とともに、当該撮影画像を撮影したときの前記車両の位置情報を前記サーバに送信し、前記記憶部は、前記検出結果を前記位置情報に関連付けて記憶する。このようにすれば、目標物が検出された位置の位置情報をサーバに記憶しておくことができる。 (16) In the system of (14), the in-vehicle device includes a position information acquisition unit for acquiring the position information of the vehicle, and the vehicle-side transmission unit includes the photographed image together with the photographed image. The position information of the vehicle when the image is taken is transmitted to the server, and the storage unit stores the detection result in association with the position information. In this way, the position information of the position where the target is detected can be stored in the server.

(17)一態様のシステムは、(16)のシステムにおいて、前記車載機器は、前記記憶部に記憶された情報に基づく通知を受ける車両側受信部と、前記通知に基づく情報出力を行う出力部と、を備えているとよい。このようにすれば、車両は目標物の存在に関する通知を受けることができる。 (17) In the system of (16), the in-vehicle device has a vehicle-side receiving unit that receives a notification based on the information stored in the storage unit and an output unit that outputs information based on the notification. And, it is good to have. In this way, the vehicle can be notified of the presence of the target.

(18)一態様のシステムは、車載機器を備えたシステムであって、前記車載機器が、車両の外を撮影した画像から、第一機械学習モデルを用いて目標物を検出する検出部と、前記検出部により前記目標物が検出された場合に、前記画像をサーバに送信する送信部と、前記サーバから、前記画像から第二機械学習モデルを用いて目標物を検出する処理の結果を受信する受信部と、前記検出部における検出結果及び受信した前記処理の結果に基づいて制御を行う制御部と、を有するシステムである。このようにすれば、車載機器が第二機械学習モデルを備えなくとも、第二機械学習モデルを用いた目標物の検出結果を得ることができる。 (18) One aspect of the system is a system including an in-vehicle device, which includes a detection unit that detects a target object by using a first machine learning model from an image taken by the in-vehicle device outside the vehicle. When the target object is detected by the detection unit, the transmission unit that transmits the image to the server and the server receives the result of the process of detecting the target object from the image using the second machine learning model. It is a system including a receiving unit that performs control, and a control unit that controls based on the detection result in the detection unit and the result of the received processing. In this way, even if the in-vehicle device does not have the second machine learning model, the detection result of the target object using the second machine learning model can be obtained.

(19)一態様のシステムは、車両の速度取締地点であることを示す目標物を撮影した複数の画像の各画像を取得し、取得した当該各画像に前記目標物が含まれていることに関連付けた教師データを用いて学習を行う。このようにすれば、画像から車両の速度取締地点であることを示す目標物を検出するための学習モデルを生成することができる。 (19) The system of one aspect acquires each image of a plurality of images of a target object indicating that it is a speed control point of the vehicle, and the acquired object is included in each of the acquired images. Learning is performed using the associated teacher data. In this way, it is possible to generate a learning model for detecting a target indicating that the vehicle is a speed control point from the image.

(20)一態様のシステムは、車両に設けられたカメラで前記車両の外を撮影した画像であって、前記車両に設けられた所定の波長帯の電磁波を探知する探知機で前記電磁波が探知されたときに撮影した画像を正例として教師あり学習を行う。このようにすれば、電磁波を受信したときの撮影画像を正例とするので、目標物を検出するための教師あり学習に用いる正例を精度良く得ることができる。 (20) One aspect of the system is an image taken of the outside of the vehicle by a camera provided in the vehicle, and the electromagnetic wave is detected by a detector provided in the vehicle to detect an electromagnetic wave in a predetermined wavelength band. Supervised learning is performed using the image taken at the time as a regular example. In this way, since the captured image when the electromagnetic wave is received is used as a correct example, it is possible to accurately obtain a correct example used for supervised learning for detecting the target object.

(21)一態様のシステムは、(20)のシステムにおいて、前記画像から車両の速度取締地点であることを示す目標物を検出する検出部をさらに備え、前記目標物を検出し、かつ、前記探知機が前記所定の波長帯の電磁波を探知したときの前記画像を正例として教師あり学習を行うとよい。このようにすれば、目標物が検出されていないが探知機では所定の波長帯の電磁波が探知されたときの撮影画像、即ち、自動販売機等の他の電磁波発生源によって探知機が所定の波長帯の電磁波を探知したときの撮影画像を正例として学習してしまう可能性を軽減できる。 (21) In the system of (20), the system of one aspect further includes a detection unit that detects a target indicating that it is a speed control point of the vehicle from the image, detects the target, and said. Supervised learning may be performed using the image when the detector detects an electromagnetic wave in a predetermined wavelength band as a positive example. In this way, the image taken when the target is not detected but the electromagnetic wave in the predetermined wavelength band is detected by the detector, that is, the detector is determined by another electromagnetic wave source such as a vending machine. It is possible to reduce the possibility of learning the captured image as a positive example when the electromagnetic wave in the wavelength band is detected.

(22)一態様のシステムは、(20)又は(21)のシステムにおいて、前記画像から前記目標物を検出する検出部を備え、前記探知機で前記所定の波長帯の電磁波を探知していないが前記目標物が検出されたときの前記画像を負例として前記教師あり学習を行うとよい。このようにすると、所定の波長体の電磁波を検出していないが速度取締装置が検出されている場合は、撮影画像に目標物と紛らわしい物体が映り込んでいると考えられるので、このようにすれば、良質な負例を得ることができる。 (22) In the system of (20) or (21), the system of one aspect includes a detection unit that detects the target from the image, and the detector does not detect electromagnetic waves in the predetermined wavelength band. However, it is advisable to perform supervised learning using the image when the target is detected as a negative example. In this way, if the electromagnetic wave of a predetermined wavelength is not detected but the speed control device is detected, it is considered that an object that is confusing with the target is reflected in the captured image. For example, a good negative example can be obtained.

(23)一態様のシステムは、(19)〜(22)のシステムにおいて、前記車両内の人が目視にて前記目標物を確認したときに撮影された前記画像の投稿を受け付け、投稿された前記画像を正例として前記教師あり学習を行うとよい。このようにすると、ユーザが目視にて目標物が含まれていることを確認した撮影画像を用いて教師あり学習を行うことにより、より良質な機械学習モデルを生成することができる。 (23) In the system of (19) to (22), the system of one aspect accepts and posts the image taken when the person in the vehicle visually confirms the target. It is advisable to perform the supervised learning using the image as a positive example. By doing so, it is possible to generate a higher quality machine learning model by performing supervised learning using a photographed image in which the user visually confirms that the target object is included.

(24)一態様のシステムは、(23)のシステムにおいて、前記車両内の人が目視にて前記目標物を確認したときに撮影された前記画像に加え、前記探知機における前記所定の波長帯の電磁波の探知結果の投稿を受け付け、投稿された前記画像を、投稿を受け付けた前記探知結果に応じて正例又は負例として前記教師あり学習を行うとよい。このようにすると、ユーザが目視にて目標物が含まれていることを確認した撮影画像に加え、所定の波長体の電磁波の探知結果を用いることで、より良質な機械学習モデルを生成することができる。 (24) In the system of (23), in addition to the image taken when a person in the vehicle visually confirms the target, the system of one aspect includes the predetermined wavelength band in the detector. It is advisable to accept the posting of the detection result of the electromagnetic wave of the above, and perform the supervised learning as a positive example or a negative example of the posted image according to the detection result for which the posting is accepted. In this way, a better machine learning model can be generated by using the detection result of the electromagnetic wave of a predetermined wavelength body in addition to the photographed image in which the user visually confirms that the target object is included. Can be done.

(25)一態様のシステムは、(19)〜(24)のシステムにおいて、前記画像から前記目標物を検出して警報したときの前記車両内の人からの応答の入力を受け付け、入力を受け付けた前記応答の結果に応じて前記画像を正例又は負例として前記教師あり学習を行うとよい。このようにすると、警報したときに車両内の人が、これが正しい警報か誤報かの応答を入力し、この応答の結果が機械学習モデルに反映されるので、より良質な機械学習モデルを生成することができる。 (25) In the system of (19) to (24), the system of one aspect accepts an input of a response from a person in the vehicle when the target is detected from the image and gives an alarm, and accepts the input. Depending on the result of the response, the supervised learning may be performed using the image as a positive example or a negative example. In this way, when an alarm is given, a person in the vehicle inputs a response as to whether this is a correct alarm or a false alarm, and the result of this response is reflected in the machine learning model, so that a better machine learning model is generated. be able to.

(26)一態様のシステムは、(1)〜(25)のシステムにおいて、前記目標物は、車両取締装置であるとよい。このようにすれば、目標物として車両取締装置を検出することに関する技術を提供することができる。 (26) In the system of one aspect (1) to (25), the target may be a vehicle control device. In this way, it is possible to provide a technique for detecting a vehicle control device as a target.

(27)一態様のプログラムは、(1)〜(26)のいずれかのシステムの機能の少なくとも一部が車載機器で実現され、当該車載機器で実現される機能をコンピュータに実現させるためのプログラムである。このようにすれば、画像から目標物を検出することに関するプログラムを提供することができる。 (27) The program of one aspect is a program for realizing at least a part of the functions of the system according to any one of (1) to (26) in an in-vehicle device and realizing the functions realized in the in-vehicle device in a computer. Is. In this way, it is possible to provide a program for detecting a target object from an image.

(28)一態様の機械学習方法は、車両の速度取締地点であることを示す目標物を撮影した複数の画像の各画像を取得し、取得した当該各画像に前記目標物が含まれていることに関連付けた教師データを用いて学習を行う。このようにすれば、画像から車両の速度取締地点であることを示す目標物を検出するための学習モデルを生成することができる。 (28) In one aspect of the machine learning method, each image of a plurality of images obtained by photographing a target object indicating that it is a speed control point of a vehicle is acquired, and the acquired object is included in each of the acquired images. Learning is performed using the teacher data associated with the above. In this way, it is possible to generate a learning model for detecting a target indicating that the vehicle is a speed control point from the image.

(29)一態様の機械学習モデルは、画像が入力される入力層と、前記画像に車両の速度取締地点であることを示す目標物が含まれている確度に応じたデータを出力する出力層と、複数の画像の各画像を入力とし、当該画像に前記目標物が含まれている確度に応じたデータを出力とする教師データを用いてパラメータが学習された少なくとも1つの中間層と、を有する。このようにすれば、画像から車両の速度取締地点であることを示す目標物を検出するための機械学習モデルを提供することができる。 (29) One aspect of the machine learning model is an input layer into which an image is input and an output layer that outputs data according to the certainty that the image includes a target indicating that it is a speed control point of a vehicle. And at least one intermediate layer in which parameters are learned using teacher data that inputs each image of a plurality of images and outputs data according to the probability that the target is included in the image. Have. In this way, it is possible to provide a machine learning model for detecting a target indicating that the vehicle is a speed control point from the image.

上述した(1)から(29)に示した発明は、任意に組み合わせることができる。例えば、(1)に示した発明の全て又は一部の構成に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加える構成とするとよい。特に、(1)に示した発明に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加えた発明とするとよい。また、(1)から(29)に示した発明から任意の構成を抽出し、抽出された構成を組み合わせてもよい。本願の出願人は、これらの構成を含む発明について権利を取得する意思を有する。また「〜の場合」「〜のとき」という記載があったとしても、その場合やそのときに限られる構成として記載はしているものではない。これらはよりよい構成の例を示しているものであって、これらの場合やときでない構成についても権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えたりした構成についても開示しているものであり、権利取得する意思を有する。 The inventions shown in (1) to (29) above can be arbitrarily combined. For example, it is preferable to add at least a part of the structure of at least one invention after (2) to all or part of the structure of the invention shown in (1). In particular, the invention shown in (1) may be an invention in which at least a part of at least one of the inventions after (2) is added. Further, an arbitrary configuration may be extracted from the inventions shown in (1) to (29), and the extracted configurations may be combined. The applicant of the present application intends to acquire rights to an invention including these configurations. Further, even if there is a description of "in the case of" or "in the case of", it is not described as a configuration limited to that case or at that time. These show examples of better configurations and are willing to acquire rights in these cases and in occasional configurations. In addition, the places where the description is accompanied by an order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and has the intention of acquiring rights.

一態様によれば、所定の波長帯の電磁波のみに依らないで速度取締装置を検出することに関する技術を提供することができる。また、本発明の他の態様によれば、車両から撮影される所定の目標物の撮影画像をサーバに集約させることができる。さらに、本発明のさらに他の態様によれば、速度取締地点であることを示す目標物を検出する学習モデルを生成することに関する技術を提供することができる。 According to one aspect, it is possible to provide a technique for detecting a speed control device without relying only on electromagnetic waves in a predetermined wavelength band. Further, according to another aspect of the present invention, the captured images of a predetermined target image captured from the vehicle can be aggregated in the server. Furthermore, according to still another aspect of the present invention, it is possible to provide a technique for generating a learning model for detecting a target indicating that it is a speed control point.

また、本願の発明の効果はこれに限定されず、本明細書及び図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「〜できる」と記載した箇所などは奏する効果を明示する記載であり、また「〜できる」と記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。 Further, the effect of the invention of the present application is not limited to this, and the effect produced from the portion of the configuration disclosed in the present specification, drawings, etc. is also disclosed, and the configuration exhibiting the effect is also disclosed by divisional application, amendment, etc. Have the intention to acquire the right. For example, in the present specification, the part described as "can be" is a description that clearly indicates the effect to be exerted, and there is a part that shows the effect even if there is no description of "can be". Moreover, even if there is no such description, there is an effect that can be grasped by the configuration.

本発明の実施の形態の検出システムの構成を示す図である。It is a figure which shows the structure of the detection system of embodiment of this invention. 本発明の実施の形態の物体検出処理の例を示す図である。It is a figure which shows the example of the object detection processing of embodiment of this invention. 本発明の実施の形態の物体検出処理の例を示す図である。It is a figure which shows the example of the object detection processing of embodiment of this invention. 本発明の実施の形態の物体検出処理の例を示す図である。It is a figure which shows the example of the object detection processing of embodiment of this invention. 本発明の実施の形態の物体検出処理の例を示す図である。It is a figure which shows the example of the object detection processing of embodiment of this invention. 本発明の実施の形態の検出方法のフローチャートである。It is a flowchart of the detection method of embodiment of this invention. 本発明の実施の形態の機械学習方法のフローチャートである。It is a flowchart of the machine learning method of embodiment of this invention.

以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてもよい。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the embodiments described below show an example of the case where the present invention is carried out, and the present invention is not limited to the specific configuration described below. In carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted.

図1は、本発明の実施の形態のシステム100の構成を示す図である。システム100は、探知機10と、車載機器(車両側装置ともいう。)としてのドライブレコーダ20と、サーバ30とを備えている。探知機10及びドライブレコーダ20は、車両に搭載される。車両は、例えば自家用の自動車や事業用の自動車があり、車種も乗用車、バス、トラック、フォークリフト等の特殊自動車である。サーバ30は、車両とは別場所に設置される。ドライブレコーダ20とサーバ30とは、通信ネットワークを介した通信によって互いに情報を送受信することができる。通信ネットワークは、例えばLTE、4G、5G又はその他の方式の公衆の通信回線である。ドライブレコーダ20は、無線通信によって携帯電話網等の通信ネットワークに直接又は間接に接続することができる。なお、図1の例では、サーバ30に対して1つの車両に搭載される探知機10及びドライブレコーダ20を示しているが、1つのサーバ30には多数の車両のドライブレコーダ20が接続される。この場合、複数のドライブレコーダ20が、それぞれ異なる車両に搭載されていることになる。 FIG. 1 is a diagram showing a configuration of a system 100 according to an embodiment of the present invention. The system 100 includes a detector 10, a drive recorder 20 as an in-vehicle device (also referred to as a vehicle-side device), and a server 30. The detector 10 and the drive recorder 20 are mounted on the vehicle. Vehicles include, for example, private cars and commercial cars, and the types of vehicles are special cars such as passenger cars, buses, trucks, and forklifts. The server 30 is installed at a place different from the vehicle. The drive recorder 20 and the server 30 can send and receive information to and from each other by communication via a communication network. The communication network is, for example, LTE, 4G, 5G or other type of public communication line. The drive recorder 20 can be directly or indirectly connected to a communication network such as a mobile phone network by wireless communication. In the example of FIG. 1, the detector 10 and the drive recorder 20 mounted on one vehicle are shown with respect to the server 30, but the drive recorders 20 of many vehicles are connected to one server 30. .. In this case, a plurality of drive recorders 20 are mounted on different vehicles.

探知機10は、速度取締装置から発信される所定の波長帯の電磁波を探知する。速度取締装置は、車両の速度取締地点に設置される装置である。車両の速度取締地点は、車両の速度と取締りが行われる地点である。速度取締地点は、あらかじめ速度取締装置が固定的に設置されてその地点が固定されている場合もあれば、比較的軽量かつ小型の速度取締装置が設置されてその地点が固定されていないような場合もある。速度取締装置は、車両の速度取締地点であることを示す目標物に相当する。電磁波は、例えば、マイクロ波で例示される所定の波長帯の電波(レーダ方式の電波)、又は赤外光で例示される所定の波長帯(例えば、905nm、850nm、950nm、1900nm)の光(レーザ方式の光。例えば、パルス光)である。速度取締装置には、レーダ方式のものとレーザ方式のものとがあるが、本実施の形態の探知機10は、このいずれにも対応している。このために、探知機10は、レーダ探知部11と、レーザ探知部12とを備えている。レーダ探知部11は、レーダ方式の速度取締装置から発せられるレーダ波長帯の電波を受信する受信部を備えている。レーダ探知部11は、例えば、レーダ波長帯の電波の強度が閾値を超えている場合に、当該電波を探知したと判断するとよい。レーザ探知部12は、レーザ方式の速度取締装置から発せられるレーザ波長帯の光を受光する受光部を備えている。レーザ探知部12は、例えば、レーザ波長帯の光の強度が閾値を超えている場合に、当該光を探知したと判断するとよい。さらに探知機10は、警報部13を有してもよい。警報部13は、所定の条件を満たすと、警報を発する。警報部13は、例えば、ドライブレコーダ20からの信号に応じて、警報を発してもよい。警報は、(例えば、音や表示、発光等の人が知覚可能な方法を用いて行われるとよい。探知機10は、これら以外にも、操作入力を受け付ける操作部等を備えていてもよい。 The detector 10 detects electromagnetic waves in a predetermined wavelength band transmitted from the speed control device. The speed control device is a device installed at a speed control point of a vehicle. The vehicle speed control point is the point where the vehicle speed and control are performed. At the speed control point, the speed control device may be fixedly installed in advance and the point may be fixed, or a relatively lightweight and small speed control device may be installed and the point may not be fixed. In some cases. The speed control device corresponds to a target indicating that it is a speed control point of the vehicle. The electromagnetic wave is, for example, a radio wave in a predetermined wavelength band exemplified by microwaves (radio wave of a radar method) or light in a predetermined wavelength band exemplified by infrared light (for example, 905 nm, 850 nm, 950 nm, 1900 nm). Laser-type light, for example, pulsed light). There are two types of speed control devices, one is a radar type and the other is a laser type. The detector 10 of the present embodiment corresponds to both of them. For this purpose, the detector 10 includes a radar detector 11 and a laser detector 12. The radar detection unit 11 includes a reception unit that receives radio waves in the radar wavelength band emitted from a radar-type speed control device. For example, when the intensity of the radio wave in the radar wavelength band exceeds the threshold value, the radar detection unit 11 may determine that the radio wave has been detected. The laser detection unit 12 includes a light receiving unit that receives light in the laser wavelength band emitted from a laser-type speed control device. For example, when the intensity of light in the laser wavelength band exceeds the threshold value, the laser detection unit 12 may determine that the light has been detected. Further, the detector 10 may have an alarm unit 13. The alarm unit 13 issues an alarm when a predetermined condition is satisfied. The alarm unit 13 may issue an alarm in response to a signal from the drive recorder 20, for example. The alarm may be given (for example, by using a method that can be perceived by a person such as sound, display, or light emission. In addition to these, the detector 10 may include an operation unit or the like that receives an operation input. ..

探知機10は、例えば、車両のダッシュボード上又はフロントガラスにおける上部付近等の、速度取締装置からの電磁波を受信可能な位置に設置される。探知機10は、レーダ探知部11にてレーダを探知したときは、警報部13からその旨を示す警報を発する。また、探知機10は、レーダを探知したときはその旨を示す信号をドライブレコーダ20の制御部24に出力する。探知機10は、レーザ探知部12にてレーザを探知したときは、警報部13からその旨を示す警報を発する。また、探知機10は、レーザを探知したときは、その旨を示す信号をドライブレコーダ20の制御部24に出力する。すなわち、ドライブレコーダ20は、レーダ方式の速度取締装置を探知した場合と、レーザ方式の速度取締装置を探知した場合とに、車両内の人に警報する。車両内の人は典型的にはドライバである。以下、車両内の人をドライバとした場合について説明する。また、ドライブレコーダ20は、レーダ方式の速度取締装置を探知した場合とレーザ方式の速度取締装置を探知した場合とを区別してドライブレコーダ20に報告(通知)する。 The detector 10 is installed at a position where electromagnetic waves from the speed control device can be received, for example, on the dashboard of the vehicle or near the upper part of the windshield. When the radar detection unit 11 detects the radar, the detector 10 issues an alarm indicating that from the alarm unit 13. Further, when the detector 10 detects the radar, it outputs a signal to that effect to the control unit 24 of the drive recorder 20. When the laser detection unit 12 detects the laser, the detector 10 issues an alarm indicating that from the alarm unit 13. When the detector 10 detects the laser, it outputs a signal to that effect to the control unit 24 of the drive recorder 20. That is, the drive recorder 20 warns a person in the vehicle when it detects a radar-type speed control device and when it detects a laser-type speed control device. The person in the vehicle is typically the driver. Hereinafter, a case where a person in the vehicle is used as a driver will be described. Further, the drive recorder 20 reports (notifies) to the drive recorder 20 separately from the case where the radar type speed control device is detected and the case where the laser type speed control device is detected.

ドライブレコーダ20は、カメラ21と、一次検出部22と、位置情報取得部23と、制御部24と、出力部としての警報部25と、通信部26と、操作入力部27とを備えている。ドライブレコーダ20は撮影装置に相当する。カメラ21は、車両の前方に向けて設置される。カメラ21は、車両の前方の外を連続的に撮影し、時系列の撮影画像を生成する。撮影画像は、特に断りのない限り、静止画である。複数の撮影画像が時系列順に並べられることにより、動画形式のファイルが生成されてもよい。道路の上方や側方(路肩、道路脇)に設置されている速度取締装置は、カメラ21によって撮影される。なお、カメラ21は、例えば、全天球カメラ又は半天球カメラと呼ばれるものでもよい。 The drive recorder 20 includes a camera 21, a primary detection unit 22, a position information acquisition unit 23, a control unit 24, an alarm unit 25 as an output unit, a communication unit 26, and an operation input unit 27. .. The drive recorder 20 corresponds to a photographing device. The camera 21 is installed toward the front of the vehicle. The camera 21 continuously photographs the outside of the front of the vehicle and generates time-series captured images. The captured image is a still image unless otherwise specified. A moving image format file may be generated by arranging a plurality of captured images in chronological order. The speed control device installed above or to the side of the road (shoulder, side of the road) is photographed by the camera 21. The camera 21 may be called, for example, a spherical camera or a hemispherical camera.

一次検出部22は、カメラ21で生成された撮影画像に対して、物体検出処理を行うことで、撮影画像から速度取締装置を検出する。一次検出部22における速度取締装置の検出基準は、本実施形態では、後述する二次検出部33における速度取締装置の検出基準よりも低い。換言すれば、一次検出部22における誤検出の許容程度(即ち、目標物である速度取締装置以外の物を誤って速度取締装置として検出することを許容する程度)は、二次検出部33におけるそれよりも大きい。これにより、二次検出で速度取締装置が検出される撮影画像については一次検出部22にて極力漏れなく速度取締装置を検出することができる。 The primary detection unit 22 detects the speed control device from the captured image by performing object detection processing on the captured image generated by the camera 21. In the present embodiment, the detection standard of the speed control device in the primary detection unit 22 is lower than the detection standard of the speed control device in the secondary detection unit 33, which will be described later. In other words, the permissible degree of erroneous detection in the primary detection unit 22 (that is, the degree to which an object other than the target speed control device is allowed to be erroneously detected as the speed control device) is determined by the secondary detection unit 33. Greater than that. As a result, the speed control device can be detected by the primary detection unit 22 as little as possible for the captured image in which the speed control device is detected by the secondary detection.

具体的には、一次検出部22は、各種の速度取締装置について、あらかじめ用意された画像(特に、車載カメラから撮影して得られた画像)のパターンをバイナリデータとして記憶している。この速度取締装置の画像のパターンを示すバイナリデータは、第一機械学習モデルに相当する。そして、一次検出部22は、撮影画像中の矩形の部分画像とバイナリデータとの一致度を求める。この一致度は、部分画像の物体が速度取締装置である確率、すなわち確からしさとして表現される。この確率が所定の閾値を超えている場合には、一次検出部22は、当該撮影画像中に速度取締装置が含まれている(つまり、映っている)と判断する。一次検出部22は、このようなパターンマッチングによって撮影画像中の速度取締装置を検出する。一次検出部22は、撮影画像中から速度取締装置を検出した場合には、その撮影画像と検出結果を制御部24に出力する。なお、パターンマッチング以外の方法で、一次検出部22は機械学習モデルを用いた物体検出処理を行ってもよい。一次検出部22は、撮影画像から画像特徴量を抽出し、この画像特徴量と、をあらかじめ規定された機械学習モデルとに基づいて、物体検出処理を行ってもよい。画像の特徴量としては、例えば、SIFT特徴量、SURF特徴量又はその他の特徴量を用いることができる。このように、本実施形態では、一次検出部22は、撮影画像の内容に基づいて目標物を検出する物体検出処理を行う。 Specifically, the primary detection unit 22 stores patterns of images (particularly, images obtained by taking a picture from an in-vehicle camera) prepared in advance for various speed control devices as binary data. The binary data showing the image pattern of this speed control device corresponds to the first machine learning model. Then, the primary detection unit 22 obtains the degree of coincidence between the rectangular partial image in the captured image and the binary data. This degree of coincidence is expressed as the probability that the object in the partial image is a speed control device, that is, the certainty. When this probability exceeds a predetermined threshold value, the primary detection unit 22 determines that the captured image includes (that is, is reflected) the speed control device. The primary detection unit 22 detects the speed control device in the captured image by such pattern matching. When the speed control device is detected in the captured image, the primary detection unit 22 outputs the captured image and the detection result to the control unit 24. Note that the primary detection unit 22 may perform object detection processing using a machine learning model by a method other than pattern matching. The primary detection unit 22 may extract an image feature amount from the captured image and perform object detection processing based on the image feature amount and a machine learning model defined in advance. As the feature amount of the image, for example, SIFT feature amount, SURF feature amount or other feature amount can be used. As described above, in the present embodiment, the primary detection unit 22 performs the object detection process for detecting the target object based on the content of the captured image.

位置情報取得部23は、車両の位置情報を取得する。本実施の形態の位置情報取得部23は、計算によって位置情報を取得する。具体的には、位置情報取得部23は、複数のGPS衛星からのGPS信号を受信するGPS受信機を備え、受信した複数のGPS信号から所定の計算式によって計算をすることで、位置情報を得る。位置情報取得部23は、取得した位置情報を制御部24に出力する。なお、この位置情報は、高度情報を含んでいてもよい。 The position information acquisition unit 23 acquires the position information of the vehicle. The position information acquisition unit 23 of the present embodiment acquires the position information by calculation. Specifically, the position information acquisition unit 23 includes GPS receivers that receive GPS signals from a plurality of GPS satellites, and calculates the position information from the received plurality of GPS signals by a predetermined calculation formula. obtain. The position information acquisition unit 23 outputs the acquired position information to the control unit 24. In addition, this position information may include altitude information.

制御部24は、ドライブレコーダ20の各部を制御する(第一制御部に相当)。制御部24は、例えば、演算処理回路、及びメモリを含むマイクロコンピュータである。演算処理回路は、例えば、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、又はその他の演算処理回路を含む。メモリは、例えば、RAM(Random Access Memory)又はその他の揮発性のメモリを含む。演算処理回路は、メモリにデータを一時的に読み出して演算処理を行うことにより、各種の制御を行う。制御部24は、主に警報部25及び通信部26を制御する。制御部24は、一次検出部22から速度取締装置が検出された撮影画像を得て、位置情報取得部23から車両の位置情報を取得して、さらに、探知機10からレーダ又はレーザの探知結果を取得する。制御部24は、一次検出部22から速度取締装置を検出した旨の結果を得た場合には、対応する撮影画像と、その撮影をしたときの位置情報及びレーダ又はレーザの探知結果とを一組のデータとして、通信部26を制御して通信部26からサーバ30に送信する。なお、制御部24は、一次検出部22から速度取締装置を検出した旨の結果を得た場合において、探知機10からレーダ又はレーザを検出した旨の探知結果を受けていないときは、撮影画像と位置情報に、レーダ及びレーザは探知されなかった旨の情報を付して、一組のデータとする。 The control unit 24 controls each unit of the drive recorder 20 (corresponding to the first control unit). The control unit 24 is, for example, a microcomputer including an arithmetic processing circuit and a memory. The arithmetic processing circuit includes, for example, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or other arithmetic processing circuits. The memory includes, for example, a RAM (Random Access Memory) or other volatile memory. The arithmetic processing circuit performs various controls by temporarily reading data into a memory and performing arithmetic processing. The control unit 24 mainly controls the alarm unit 25 and the communication unit 26. The control unit 24 obtains a captured image in which the speed control device is detected from the primary detection unit 22, acquires the position information of the vehicle from the position information acquisition unit 23, and further detects the radar or laser from the detector 10. To get. When the control unit 24 obtains the result that the speed control device is detected from the primary detection unit 22, the control unit 24 combines the corresponding captured image, the position information at the time of the capture, and the detection result of the radar or the laser. As a set of data, the communication unit 26 is controlled and transmitted from the communication unit 26 to the server 30. When the control unit 24 obtains the result that the speed control device is detected from the primary detection unit 22, and the detection result that the radar or the laser is detected from the detector 10 is not received, the captured image. And the position information, the information that the radar and the laser were not detected is added to make a set of data.

出力部としての警報部25は、一次検出部22が速度取締装置を検出した場合に、制御部24の制御に従って、警報を出力する。警報部25は、ブザー音を出力するブザーであってよい。あるいは、警報部25は、速度取締装置の存在をドライバに知らせるための所定の警報音声を出力する音声出力装置であってもよい。この場合に、警報音声は、電子音のメロディであってもよいし、言語メッセージであってもよい。また、警報部25は、液晶パネル等の表示パネルを備え、当該表示パネルに警報の画像を表示するものであってもよい。さらに、警報部25は、点灯の有無ないしは点灯色によって速度取締装置の存在をドライバに知らせるランプであってもよい。さらに、警報部25は、上記のような聴覚や視覚に訴えるものに限らず、ドライバのその他の知覚(例えば、触覚)に訴えることで速度取締装置の存在をドライバに知らせるものであってもよい。 When the primary detection unit 22 detects the speed control device, the alarm unit 25 as an output unit outputs an alarm according to the control of the control unit 24. The alarm unit 25 may be a buzzer that outputs a buzzer sound. Alternatively, the alarm unit 25 may be a voice output device that outputs a predetermined alarm sound for notifying the driver of the existence of the speed control device. In this case, the alarm voice may be an electronic melody or a linguistic message. Further, the alarm unit 25 may include a display panel such as a liquid crystal panel, and display an alarm image on the display panel. Further, the alarm unit 25 may be a lamp that informs the driver of the existence of the speed control device depending on whether or not it is lit or the lighting color. Further, the alarm unit 25 is not limited to the one that appeals to the auditory sense or the visual sense as described above, but may notify the driver of the existence of the speed control device by appealing to other perceptions (for example, tactile sense) of the driver. ..

警報出力部25は、ドライブレコーダ20において警報を出力するための構成に代えて又は加えて、探知機10を介して警報を出力してもよい。この場合、警報出力部25は、探知機10と有線又は無線の通信路を介して接続するためのインタフェースを備える。制御部24は、探知機10を介して警報を発するための信号を、警報部25から探知機10に出力する。探知機10において警報部13は、この信号を受信したことに応じて警報を発する。警報部13の警報は、上述した方法で行われるとよい。例えば、探知機10がダッシュボードに設置されるモニタ型の装置であれば、表示による警報を探知機10において行うと、ドライバにとっては、警報に関する表示を目視しやすい場合がある。 The alarm output unit 25 may output an alarm via the detector 10 instead of or in addition to the configuration for outputting the alarm in the drive recorder 20. In this case, the alarm output unit 25 includes an interface for connecting to the detector 10 via a wired or wireless communication path. The control unit 24 outputs a signal for issuing an alarm via the detector 10 from the alarm unit 25 to the detector 10. In the detector 10, the alarm unit 13 issues an alarm in response to receiving this signal. The alarm of the alarm unit 13 may be performed by the method described above. For example, if the detector 10 is a monitor-type device installed on a dashboard, if the detector 10 gives an alarm by display, the driver may easily see the display related to the alarm.

通信部26は、本実施の形態では、無線LANモジュールである。通信部26は、モバイルルータやテザリング機能付きスマートフォンに無線LAN接続することで、モバイルルータやテザリング機能付きスマートフォンを介して広域の通信ネットワークである携帯電話通信網に接続される。あるいは、通信部26は、携帯電話通信網に直接接続される通信モジュールであってもよい。この場合には、この通信モジュールにはSIMカードが設置されて、SIMカードに対応した携帯電話通信網を介して広域の通信ネットワークに接続される。 The communication unit 26 is a wireless LAN module in the present embodiment. The communication unit 26 is connected to a mobile phone communication network, which is a wide area communication network, via a mobile router or a smartphone with a tethering function by connecting to a mobile router or a smartphone with a tethering function via a wireless LAN. Alternatively, the communication unit 26 may be a communication module directly connected to the mobile phone communication network. In this case, a SIM card is installed in this communication module, and the SIM card is connected to a wide area communication network via a mobile phone communication network corresponding to the SIM card.

本実施の形態では、通信部26は、制御部24の制御に従って、特に、サーバ30との間で通信を行う。具体的には、通信部26は、上記のように、一次検出部22にて速度取締装置をしたときの撮影画像、位置情報、及びレーダ又はレーザの検出結果を一組のデータとしてサーバ30に送信する。また、通信部26は、後述する二次検出部33での二次検出において速度取締装置が検出された場合に、その旨の報告をサーバ30から受信する。 In the present embodiment, the communication unit 26 communicates with the server 30 in particular according to the control of the control unit 24. Specifically, as described above, the communication unit 26 sends the captured image, the position information, and the radar or laser detection result to the server 30 as a set of data when the speed control device is used by the primary detection unit 22. Send. Further, when the speed control device is detected in the secondary detection by the secondary detection unit 33 described later, the communication unit 26 receives a report to that effect from the server 30.

制御部24は、一次検出部22にて撮影画像から速度取締装置を検出した旨の報告を受けたとき、探知機10からレーダ又はレーザを探知した旨の報告を受けたとき、及び通信部26にてサーバ30から二次検出において速度取締装置を検出した旨の報告を受信したときに、警報部25を制御して、警報を出力する。このとき、警報出力の原因(即ち、一次検出部22からの報告であるか、レーダ探知部11からの報告であるか、レーザ探知部12からの報告であるか、探知機10からの報告であるか、それらが複数同時に該当するか、サーバ30からの報告であるか等)によって、異なる内容の警報を出力してよい。 When the control unit 24 receives a report that the speed control device has been detected from the captured image by the primary detection unit 22, the control unit 24 receives a report that the radar or laser has been detected from the detector 10, and the communication unit 26. When the server 30 receives a report that the speed control device has been detected in the secondary detection, the alarm unit 25 is controlled to output an alarm. At this time, the cause of the alarm output (that is, whether it is a report from the primary detection unit 22, a report from the radar detection unit 11, a report from the laser detection unit 12, or a report from the detector 10). Alarms with different contents may be output depending on whether there are any of them, whether they correspond to a plurality of them at the same time, whether the report is from the server 30, etc.).

さらに、例えば、一次検出部22のみで速度取締装置を検出、探知機10のみで速度取締装置を検出、一次検出部22及び探知機10の両方で速度取締装置を検出、サーバ30で速度取締装置を検出の順に警戒レベルが高くなるように、警報の内容を設定してよい。例えば、警報を音声で出力する場合に、警戒レベルが高いほど音量を大きくしてよい。また、例えば、警報を画像で表示する場合に、警戒レベルに応じた色で画像を表示してもよい。 Further, for example, the speed control device is detected only by the primary detection unit 22, the speed control device is detected only by the detector 10, the speed control device is detected by both the primary detection unit 22 and the detector 10, and the speed control device is detected by the server 30. The content of the alarm may be set so that the alert level increases in the order of detection. For example, when the alarm is output by voice, the higher the alert level, the louder the volume may be. Further, for example, when displaying an alarm as an image, the image may be displayed in a color corresponding to the alert level.

なお、制御部24は、一次検出部22にて撮影画像から速度取締装置を検出した旨の報告を受けただけでは警報を出力せず、探知機10からレーダ又はレーザを探知した旨の報告を受けただけでも警報を出力せず、一次検出部22にて撮影画像から速度取締装置を検出した旨の報告を受けるとともに、探知機10からもレーダ又はレーザを探知した旨の報告を受けた場合に警報を出力するようにしてもよい。なお、この場合にも、通信部26にてサーバ30から二次検出において速度取締装置を検出した旨の報告を受信したときは、一次検出部22及び探知機10からの報告に関わらず警報を出力してよい。 The control unit 24 does not output an alarm only when the primary detection unit 22 receives a report that the speed control device has been detected from the captured image, but reports that the detector 10 has detected a radar or a laser. When the primary detection unit 22 does not output an alarm even if it receives it, and receives a report that the speed control device has been detected from the captured image, and also receives a report that the radar or laser has been detected from the detector 10. An alarm may be output to. Also in this case, when the communication unit 26 receives a report from the server 30 that the speed control device has been detected in the secondary detection, an alarm is issued regardless of the report from the primary detection unit 22 and the detector 10. You may output it.

操作入力部27は、ドライバが行った操作が入力される。操作入力部27は、例えば、押下方式若しくはその他の方式の物理ボタン、タッチセンサ若しくは近接センサの操作又はその他の操作装置を備えてもよい。操作入力部27は、音声操作又はジェスチャ操作の入力を受け付けてもよい。操作入力部27は、音声操作の入力を受け付ける場合は例えばマイクロホンを有し、ジェスチャ操作を受け付ける場合は例えばカメラ又は光学センサを有するとよい。操作入力部27は、ドライブレコーダ20外の装置(例えば、探知機10又は所定の機能を割り当てたワンタッチボタン)から、ドライバの操作を示す操作信号の入力を受け付けてもよい。これ以外にも、ドライブレコーダ20は、車両の状態に関する情報(つまり、車両情報)を取得するために、車両に設けられたOBD2コネクタと接続するための端子部を有してもよい。ドライブレコーダ20は、加速度センサ、照度センサで例示される各種センサを必要に応じて備えてもよい。 The operation input unit 27 inputs the operation performed by the driver. The operation input unit 27 may include, for example, a push-type or other type of physical button, touch sensor or proximity sensor operation, or other operation device. The operation input unit 27 may accept input of voice operation or gesture operation. The operation input unit 27 may have, for example, a microphone when accepting a voice operation input, and may have, for example, a camera or an optical sensor when accepting a gesture operation. The operation input unit 27 may receive an input of an operation signal indicating the operation of the driver from a device other than the drive recorder 20 (for example, a detector 10 or a one-touch button to which a predetermined function is assigned). In addition to this, the drive recorder 20 may have a terminal portion for connecting to an OBD2 connector provided on the vehicle in order to acquire information on the state of the vehicle (that is, vehicle information). The drive recorder 20 may be provided with various sensors exemplified by the acceleration sensor and the illuminance sensor, if necessary.

サーバ30は、通信部31と、制御部32と、二次検出部33と、記憶部34と、学習部35とを備えている。通信部31は、通信モジュールであり、ドライブレコーダ20から送信されてきた情報を受信し、ドライブレコーダ20に対して情報を送信する。通信部31は、特に、ドライブレコーダ20から送信されてきた撮影画像、位置情報、及びレーダ及びレーザの探知の有無の情報からなる一組のデータを受信する。また、通信部31は、二次検出部33における検出結果をドライブレコーダ20に送信する。 The server 30 includes a communication unit 31, a control unit 32, a secondary detection unit 33, a storage unit 34, and a learning unit 35. The communication unit 31 is a communication module, receives the information transmitted from the drive recorder 20, and transmits the information to the drive recorder 20. In particular, the communication unit 31 receives a set of data including a captured image, position information, and information on the presence or absence of radar and laser detection transmitted from the drive recorder 20. Further, the communication unit 31 transmits the detection result of the secondary detection unit 33 to the drive recorder 20.

制御部32は、通信部31、二次検出部33、記憶部34、及び学習部35を制御する(第二制御部に相当)。制御部32は、例えば、演算処理回路、及びメモリを含むマイクロコンピュータである。制御部32は、通信部31にてドライブレコーダ20から一組のデータを受信した場合に、二次検出部33に撮影画像に対する二次検出を行わせる。また、制御部32は、二次検出部33にて二次検出の結果、速度取締装置が検出された場合に、その二次検出の結果と、当該撮影画像とともに受信した位置情報とを対応付けて記憶部34に記憶するとともに、当該撮影画像を正例として学習部35に記憶する。 The control unit 32 controls the communication unit 31, the secondary detection unit 33, the storage unit 34, and the learning unit 35 (corresponding to the second control unit). The control unit 32 is, for example, a microcomputer including an arithmetic processing circuit and a memory. When the communication unit 31 receives a set of data from the drive recorder 20, the control unit 32 causes the secondary detection unit 33 to perform secondary detection on the captured image. Further, when the speed control device is detected as a result of the secondary detection by the secondary detection unit 33, the control unit 32 associates the result of the secondary detection with the position information received together with the captured image. In addition to storing the captured image in the storage unit 34, the captured image is stored in the learning unit 35 as a positive example.

二次検出部33は、撮影画像に対して、物体検出処理を行うことで、撮影画像から速度取締装置を検出する。二次検出部33は、一次検出部22とは異なるアルゴリズムにより物体検出を行う。本実施形態では、二次検出部33は、CNN(Convolutional Neural Network)等の機械学習モデル(第二機械学習モデルに相当)を用いて物体検出を行う。二次検出部33は、具体的には、機械学習モデルとして、深層学習モデルを用いる。ドライブレコーダ20から送信されてくる撮影画像は、すでにドライブレコーダ20の一次検出部22にて速度取締装置が検出されている画像であるので、二次検出部33では、一次検出部22より高精度に速度取締装置を検出する。すなわち、二次検出部33では、一次検出部22にて速度取締装置であると誤認された物体が速度取締装置でないことを判定する。 The secondary detection unit 33 detects the speed control device from the captured image by performing object detection processing on the captured image. The secondary detection unit 33 detects an object by an algorithm different from that of the primary detection unit 22. In the present embodiment, the secondary detection unit 33 detects an object using a machine learning model (corresponding to a second machine learning model) such as a CNN (Convolutional Neural Network). Specifically, the secondary detection unit 33 uses a deep learning model as a machine learning model. Since the captured image transmitted from the drive recorder 20 is an image in which the speed control device has already been detected by the primary detection unit 22 of the drive recorder 20, the secondary detection unit 33 has higher accuracy than the primary detection unit 22. Detects speed control equipment. That is, the secondary detection unit 33 determines that the object misidentified as the speed control device by the primary detection unit 22 is not the speed control device.

二次検出部33が用いる機械学習モデルは、速度取締装置の種類も判別可能である。速度取締装置には、Hシステム、LHシステム、速度警告安全システム、可搬式、半可搬式などと呼ばれる複数の種類があるが、二次検出部33は、撮影画像からこれらの速度取締装置を検出するとともにその種類も判別する。二次検出部33は、深層学習モデルによって、撮影画像の部分画像に含まれる物体が各タイプの速度取締装置である確率、即ち確からしさを取得する。この確率が最も高く、かつ所定の閾値を超えている場合には、当該最高確率の大部の速度取締装置があると判定する。いずれのタイプの速度取締装置の確率も閾値を超えない場合には、当該部分画像には速度取締装置はないと判断する。 The machine learning model used by the secondary detection unit 33 can also determine the type of speed control device. There are a plurality of types of speed control devices called H system, LH system, speed warning safety system, portable type, semi-portable type, etc., and the secondary detection unit 33 detects these speed control devices from the captured image. At the same time, the type is also determined. The secondary detection unit 33 acquires the probability, that is, the certainty, that the object included in the partial image of the captured image is a speed control device of each type by the deep learning model. When this probability is the highest and exceeds a predetermined threshold value, it is determined that most of the speed control devices having the highest probability are present. If the probability of any type of speed camera does not exceed the threshold, it is determined that there is no speed camera in the partial image.

図2A〜図2Dは、二次検出部33における物体検出処理の例を示す図である。図2A〜図2Dの例では、それぞれ異なるタイプ(タイプ1〜4)の速度取締装置が検出されている。二次検出部33は、撮影画像内において速度取締装置が検出された領域を特定するとともに、その領域に判別したタイプのラベルを付す。二次検出部33は、図2A〜図2Cに示すように、道路わきに設置された速度取締装置のほか、図2Dに示すように、道路上に設置された速度取締装置も検出する。 2A to 2D are diagrams showing an example of an object detection process in the secondary detection unit 33. In the examples of FIGS. 2A to 2D, different types (types 1 to 4) of speed control devices are detected. The secondary detection unit 33 identifies a region in which the speed control device is detected in the captured image, and attaches a label of the discriminated type to the region. The secondary detection unit 33 detects not only the speed control device installed on the side of the road as shown in FIGS. 2A to 2C, but also the speed control device installed on the road as shown in FIG. 2D.

記憶部34は、二次検出部33において撮影画像から速度取締装置が検出されると、速度取締装置が存在する旨の情報及びその速度取締装置のタイプの情報と、当該速度取締装置が検出された撮影画像が得られたときの車両の位置情報とを関連付けたデータを取締共有データとして記憶するデータベースである。記憶部34には、さらに、地図情報も記憶されており、速度取締装置が存在する旨の情報及びそのタイプの情報が、それに対応付けられた位置情報に対応する地図上の地点に配置された形式で(地図上の地点情報と関連付けて)記憶されている。すなわち、記憶部34は、速度取締装置の分布マップを記憶している。 When the speed control device is detected from the captured image by the secondary detection unit 33, the storage unit 34 detects information that the speed control device exists, information on the type of the speed control device, and the speed control device. This is a database that stores data associated with the position information of the vehicle when the captured image is obtained as control shared data. Map information is also stored in the storage unit 34, and information indicating the existence of the speed control device and information of its type are arranged at points on the map corresponding to the position information associated therewith. It is stored in a format (in association with the location information on the map). That is, the storage unit 34 stores the distribution map of the speed control device.

学習部35は、二次検出部33で用いられる機械学習モデルを生成するための機械学習を行う。なお、学習部35における学習は、上記の他の構成とは非同期で行われてよい。よって、サーバ30は、この機械学習に用いるための学習データのみを記憶ないし出力するものであって、学習部35は学習装置としてサーバ30以外の装置に備えられていてもよい。学習部35を中心とする機械学習のための処理を行うシステム100は、機械学習システムとして捉えることができ、サーバ30は学習装置として捉えることもできる。 The learning unit 35 performs machine learning for generating the machine learning model used in the secondary detection unit 33. The learning in the learning unit 35 may be performed asynchronously with the other configurations described above. Therefore, the server 30 stores or outputs only the learning data to be used for this machine learning, and the learning unit 35 may be provided in a device other than the server 30 as a learning device. The system 100 that performs processing for machine learning centered on the learning unit 35 can be regarded as a machine learning system, and the server 30 can also be regarded as a learning device.

学習部35は、速度取締装置を撮影した複数の画像の各画像を当該画像に速度取締装置が含まれていることに関連付けた教師データとして用いて学習を行う。学習部35は、様々なタイプの速度取締装置を撮影した複数の撮影画像の各撮影画像に、正例であることを示すラベルを付して、学習用データとしての教師データを生成する。また、教師データとして用いられる撮影画像は、例えば、撮影画像は、速度取締地点で取締りを行う警察官等の人物、速度取締地点に停められていることがある警察車両等の車両、及び速度取締地点として設定される可能性の高い地点を撮影した風景(例えば、街並み)の少なくともいずれかを含むものとするとよい。これらは速度取締装置とともに映る可能性が比較的高い要素であるから、この撮影画像を学習用データとして用いることにより、より良質な機械学習モデルを生成できる効果が期待できる。正例の教師データには、撮影画像に速度取締装置の矩形領域と当該速度取締装置のタイプのラベルが付されたデータである。 The learning unit 35 learns by using each image of a plurality of images taken by the speed control device as teacher data associated with the inclusion of the speed control device in the image. The learning unit 35 attaches a label indicating that it is a positive example to each captured image of a plurality of captured images captured by various types of speed control devices, and generates teacher data as learning data. In addition, the captured images used as teacher data include, for example, a person such as a police officer who controls at a speed control point, a vehicle such as a police vehicle that may be parked at a speed control point, and a speed control. It may include at least one of the landscapes (eg, cityscapes) of a point that is likely to be set as a point. Since these are elements that are relatively likely to be reflected together with the speed control device, the effect of generating a higher quality machine learning model can be expected by using this captured image as learning data. The positive example teacher data is data in which a captured image is labeled with a rectangular area of the speed control device and the type of the speed control device.

さらに、速度取締装置に外観上類似するが、速度取締装置でない対象物を含む撮影画像が、負例の教師データとして用いられるとよい。このような対象物として、ゲート型の構造物(例えば、門形状の構造物。図2D参照)ある。このような構造物は、Hシステムに見かけ上類似していることがあるからである負例の教師データには、撮影画像に速度取締装置と誤認した物体の矩形領域と非速度取締装置のラベルが付されたデータである。ラベルは、例えば、サーバ30を管理する管理者側で、例えば手動又は自動で付されるとよい。このようにすれば、撮影画像からより良質な機械学習モデルを生成できる効果が期待できる。 Further, it is preferable that a photographed image including an object which is similar in appearance to the speed control device but is not the speed control device is used as the teacher data of a negative example. Such an object is a gate-shaped structure (for example, a gate-shaped structure; see FIG. 2D). This is because such structures may appear to be similar to the H system, and the negative example teacher data includes the rectangular area of the object that was mistaken for a speed camera in the captured image and the label of the non-speed camera. It is the data with. The label may be, for example, manually or automatically attached by the administrator who manages the server 30. In this way, the effect of generating a higher quality machine learning model from the captured image can be expected.

撮影画像にラベルを付す作業の少なくとも一部を自動化するための手段として、例えば、以下の手段が採用されてもよい。学習部35は、二次検出部33における二次検出の結果とドライブレコーダ20から送られてきた探知機10による探知結果とに基づいて、撮影画像にラベルを付して、学習部35における学習用データとしての教師データを生成する。 For example, the following means may be adopted as means for automating at least a part of the work of labeling the captured image. The learning unit 35 attaches a label to the captured image based on the result of the secondary detection in the secondary detection unit 33 and the detection result by the detector 10 sent from the drive recorder 20, and learns in the learning unit 35. Generate teacher data as data for use.

具体的には、学習部35は、二次検出部33で速度取締装置が検出され、探知機10による探知結果でも所定の波長帯の電磁波が探知されている場合には、その撮影画像を正例の教師データとする。正例の教師データには、撮影画像に速度取締装置の矩形領域と当該速度取締装置のタイプのラベルが付されたデータである。学習部35は、二次検出部33で速度取締装置が検出されたが、探知機10による探知結果では所定の波長帯の電磁波が探知されていない場合には、見た目は速度取締装置に近いが実際には速度取締装置でない物体を二次検出部33で誤って速度取締装置として検出したものであり、よって、その撮影画像を負例の教師データとする。なお、負例の教師データには、撮影画像に速度取締装置と誤認した物体の矩形領域と非速度取締装置のラベルが付されたデータである。 Specifically, when the speed control device is detected by the secondary detection unit 33 and the electromagnetic wave in the predetermined wavelength band is detected even in the detection result by the detector 10, the learning unit 35 corrects the captured image. Let's take the example teacher data. The positive example teacher data is data in which a captured image is labeled with a rectangular area of the speed control device and the type of the speed control device. In the learning unit 35, the speed control device is detected by the secondary detection unit 33, but when the detection result by the detector 10 does not detect an electromagnetic wave in a predetermined wavelength band, the appearance is similar to the speed control device. An object that is not actually a speed control device is erroneously detected as a speed control device by the secondary detection unit 33, and the captured image is used as a negative example of teacher data. The teacher data of the negative example is data in which the captured image is labeled with a rectangular area of an object misidentified as a speed control device and a non-speed control device.

学習部35は、二次検出部33で速度取締装置が検出されなかった場合には、その撮影画像を学習用データとしては採用しない。これは、二次検出部33で速度取締装置が検出されなかった撮影画像には、一次検出で速度取締装置と誤認する程度の物体はあるが、二次検出ではすでに速度取締装置ではないと判断できている撮影画像であるため、負例としてはあまり良質でないからである。なお、二次検出部33で速度取締装置が検出されなかった場合にも、探知機10による探知結果では所定の波長帯の電磁波が探知されていた場合は、速度取締装置が実際にはあるという可能性もあるが、一方で、探知機10が自動販売機等の速度取締装置以外の発生源からの電磁波を探知した可能性もあるため、やはり撮影画像を学習用データとしては採用しない。 If the speed control device is not detected by the secondary detection unit 33, the learning unit 35 does not use the captured image as the learning data. This is because the captured image in which the speed control device was not detected by the secondary detection unit 33 contains an object that is mistaken for the speed control device in the primary detection, but it is judged that the speed control device is not already detected in the secondary detection. This is because the photographed image is made, so the quality is not so good as a negative example. Even if the speed control device is not detected by the secondary detection unit 33, if the detection result of the detector 10 detects an electromagnetic wave in a predetermined wavelength band, it is said that the speed control device is actually present. On the other hand, there is a possibility that the detector 10 has detected an electromagnetic wave from a source other than a speed control device such as a vending machine, so the captured image is not used as learning data.

学習用データとして用いられる複数の撮影画像は、速度取締装置を複数の異なる方向の各方向から撮影した画像を含んでいることが望ましい。複数の異なる方向は、正面側の面、及び少なくとも1つの側面を撮影可能な方向を含むとよく、特に、速度取締装置を正面よりもやや斜め前方から見た方向を含むようにするとよい。また、移動式(例えば、可搬式及び半可搬式)の速度取締装置(図2B参照)について、複数の異なる方向の各方向から撮影した画像を含んでいることが望ましい。このような移動式の速度取締装置は、路肩に配置され、斜め前方から撮影される機会が固定式の速度取締装置よりも多いと考えられるからである。この場合、車両が比較的速度取締装置から離れている場合には、速度取締装置の正面側の面が撮影されやすいが、車両が比較的速度取締装置に近い場合には、速度取締装置の正面側の面が撮影されにくくなり、側面(例えば、車両の進行方向に対して正面及び右側面の一部)が撮影されやすくなる。よって、速度取締装置を複数の方向の各方向から撮影した画像を含んでいることにより、車両と速度取締装置との距離による速度取締装置の検出精度の変化を抑えた良質な機械学習モデルを生成できる効果が期待できる。この意味では、学習用データとして用いられる複数の撮影画像は、速度取締装置を複数の異なる距離の各距離で撮影した画像を含んでいることによっても、車両と速度取締装置との距離による速度取締装置の検出精度の変化を抑えた良質な機械学習モデルを生成できる効果が期待できる。なお、正例の教師データとして用いる撮影画像を以上のようにしてもよい。 It is desirable that the plurality of captured images used as the learning data include images captured by the speed control device from each of a plurality of different directions. The plurality of different directions may include a front side surface and a direction in which at least one side surface can be photographed, and in particular, a direction in which the speed control device is viewed from slightly obliquely forward with respect to the front surface. It is also desirable to include images taken from each of a plurality of different directions for a mobile (eg, portable and semi-portable) speed camera (see FIG. 2B). This is because it is considered that such a mobile speed camera is placed on the shoulder of the road and has more chances of being photographed from diagonally forward than the fixed speed camera. In this case, when the vehicle is relatively far from the speed camera, the front surface of the speed camera is easily photographed, but when the vehicle is relatively close to the speed camera, the front surface of the speed camera is photographed. It becomes difficult to photograph the side surface, and it becomes easy to photograph the side surface (for example, a part of the front surface and the right side surface with respect to the traveling direction of the vehicle). Therefore, by including images taken from each direction of the speed control device, a high-quality machine learning model that suppresses the change in the detection accuracy of the speed control device depending on the distance between the vehicle and the speed control device is generated. You can expect the effect that can be done. In this sense, the plurality of captured images used as learning data also include images captured by the speed control device at each distance of a plurality of different distances, so that the speed control based on the distance between the vehicle and the speed control device can also be included. The effect of generating a high-quality machine learning model that suppresses changes in the detection accuracy of the device can be expected. The captured image used as the regular teacher data may be as described above.

学習部35は、以上説明したような正例及び負例の教師データを学習データとして用いて深層学習を行い、深層学習モデルである機械学習モデルを生成する。二次検出部33は、学習部35で生成された機械学習モデルを用いて二次検出を行うことで、二次検出の精度を向上できる。 The learning unit 35 performs deep learning using the teacher data of the positive example and the negative example as described above as learning data, and generates a machine learning model which is a deep learning model. The secondary detection unit 33 can improve the accuracy of the secondary detection by performing the secondary detection using the machine learning model generated by the learning unit 35.

図3は、本発明の実施の形態の検出方法のフローチャートである。図1では、システムが探知機10を含む例を説明したが、図3の検出方法の説明では、この探知機10を用いない例を説明する。図3において、左の列はドライブレコーダ20における処理であり、右の列はサーバ30における処理である。 FIG. 3 is a flowchart of a detection method according to an embodiment of the present invention. In FIG. 1, an example in which the system includes the detector 10 has been described, but in the description of the detection method in FIG. 3, an example in which the detector 10 is not used will be described. In FIG. 3, the left column is the processing in the drive recorder 20, and the right column is the processing in the server 30.

まず、ドライブレコーダ20は、カメラ21で車両の前方を撮影する(ステップS21)。一次検出部22は、機械学習モデル(例えば、パターンマッチング用)を用いてカメラ21で得られた撮影画像から速度取締装置を検出する(ステップS22)。制御部24は、一次検出部22における一次検出で速度取締装置が検出されたかを判断して(ステップS23)、速度取締装置が検出されない場合は(ステップS23でNO)、続けてカメラ21に撮影をさせる(ステップS21)。 First, the drive recorder 20 photographs the front of the vehicle with the camera 21 (step S21). The primary detection unit 22 detects the speed control device from the captured image obtained by the camera 21 using a machine learning model (for example, for pattern matching) (step S22). The control unit 24 determines whether the speed control device is detected by the primary detection in the primary detection unit 22 (step S23), and if the speed control device is not detected (NO in step S23), the camera 21 continues to take a picture. (Step S21).

制御部24は、一次検出部22における一次検出で速度取締装置が検出された場合には(ステップS23でYES)、警報部25に警報(第一警報)を出力させ(ステップS24)、位置情報取得部23から位置情報を取得する(ステップS25)。そして、制御部24は、通信部26を制御して、速度取締装置が検出された撮影画像と、そのときの位置情報とを含むデータをサーバ30に送信する(ステップS26)。 When the speed control device is detected by the primary detection in the primary detection unit 22 (YES in step S23), the control unit 24 causes the alarm unit 25 to output an alarm (first alarm) (step S24), and position information. Position information is acquired from the acquisition unit 23 (step S25). Then, the control unit 24 controls the communication unit 26 to transmit data including the captured image in which the speed control device is detected and the position information at that time to the server 30 (step S26).

サーバ30の通信部31は、ドライブレコーダ20から送信されてきたデータを受信する(ステップS31)。制御部32は、二次検出部33を制御して、二次検出部33に、受信した撮影画像から速度取締装置を検出する物体検出処理を行わせる(ステップS32)。二次検出部33は、深層学習モデルである機械学習モデルを用いて撮影画像から速度取締装置を検出する。制御部32は、二次検出部33で速度取締装置を検出したか否かを判断し(ステップS33)、速度取締装置が検出されなかった場合は(ステップS33でNO)、処理を終了する。この結果、ドライブレコーダ20では、一次検出に基づく警報を出力するのみで処理が終了する。 The communication unit 31 of the server 30 receives the data transmitted from the drive recorder 20 (step S31). The control unit 32 controls the secondary detection unit 33, and causes the secondary detection unit 33 to perform an object detection process for detecting the speed control device from the received captured image (step S32). The secondary detection unit 33 detects the speed control device from the captured image using the machine learning model which is a deep learning model. The control unit 32 determines whether or not the speed control device is detected by the secondary detection unit 33 (step S33), and if the speed control device is not detected (NO in step S33), the process ends. As a result, the drive recorder 20 only outputs an alarm based on the primary detection, and the process ends.

二次検出部33で速度取締装置が検出された場合には(ステップS33でYES)、記憶部34は、速度取締装置の種類と、当該速度取締装置が検出された撮影画像とともに送られてきた位置情報とを関連付けて記憶する(ステップS34)。また、この場合には、制御部32は、通信部31を制御して、二次検出にて速度取締装置が検出された旨、及びその速度取締装置の種類を含む検出結果のデータをドライブレコーダ20に送信する(ステップS35)。 When the speed control device is detected by the secondary detection unit 33 (YES in step S33), the storage unit 34 is sent together with the type of the speed control device and the captured image in which the speed control device is detected. It is stored in association with the position information (step S34). Further, in this case, the control unit 32 controls the communication unit 31 and records the detection result data including the fact that the speed control device is detected by the secondary detection and the type of the speed control device in the drive recorder. It is transmitted to 20 (step S35).

ドライブレコーダ20の通信部26は、サーバ30からのデータを受信する(ステップS27)。制御部24は、このデータの受信に応じて、警報部25を制御して、警報(第二警報)を出力し(ステップS28)、処理を終了する。この第二警報は、第一警報とは内容が異なっており、車両のドライバは、第二警報であることを確認できる。 The communication unit 26 of the drive recorder 20 receives the data from the server 30 (step S27). The control unit 24 controls the alarm unit 25 in response to the reception of this data, outputs an alarm (second alarm) (step S28), and ends the process. The content of this second warning is different from that of the first warning, and the driver of the vehicle can confirm that it is the second warning.

図4は、本発明の実施の形態の機械学習方法のフローチャートである。以下では、撮影画像にラベルを付す処理を自動化した場合の動作を説明する。学習装置としてのサーバ30は、通信部31にてドライブレコーダ20から撮影画像と探知機10による探知結果とを受けると、二次検出部33は二次検出を行う(ステップS41)。学習部35は二次検出の結果と探知結果とに基づいて、二次検出の結果を学習用データとして記憶する。具体的には、学習部35は、二次検出部33で速度取締装置が検出され(ステップS42でYES)、かつ探知機10による探知結果でも所定の波長帯の電磁波が探知されている場合には(ステップS43でYES)、その撮影画像を正例の教師データとして記憶する(ステップS44)。 FIG. 4 is a flowchart of the machine learning method according to the embodiment of the present invention. The operation when the process of labeling the captured image is automated will be described below. When the server 30 as the learning device receives the captured image from the drive recorder 20 and the detection result by the detector 10 at the communication unit 31, the secondary detection unit 33 performs the secondary detection (step S41). The learning unit 35 stores the result of the secondary detection as learning data based on the result of the secondary detection and the detection result. Specifically, in the learning unit 35, when the speed control device is detected by the secondary detection unit 33 (YES in step S42), and the detection result by the detector 10 also detects an electromagnetic wave in a predetermined wavelength band. (YES in step S43) stores the captured image as regular teacher data (step S44).

学習部35は、二次検出部33で速度取締装置が検出されたが(ステップS42でYES)、探知機10による探知結果では所定の波長帯の電磁波が探知されていない場合には(ステップS43でNO)、その撮影画像を負例の教師データとして記憶する(ステップS45)。学習部35は、二次検出部33で速度取締装置が検出されなかった場合には、その撮影画像を学習用データとしては採用しない(ステップS46)。 In the learning unit 35, when the speed control device is detected by the secondary detection unit 33 (YES in step S42), but the electromagnetic wave in the predetermined wavelength band is not detected in the detection result by the detector 10 (step S43). NO), the captured image is stored as negative example teacher data (step S45). If the speed control device is not detected by the secondary detection unit 33, the learning unit 35 does not use the captured image as learning data (step S46).

学習部35は、学習を実行するための条件を満たすか否かを判断する(ステップS47)。学習部35は、学習用データが所定の数以上蓄積したことを学習実行の条件とする。女権を満たす場合には(ステップS47でYES)、学習部35は、蓄積された正例及び負例の教師データを含む学習用データを用いて、機械学習モデルを生成するための学習を実行する(ステップS48)。 The learning unit 35 determines whether or not the conditions for executing learning are satisfied (step S47). The learning unit 35 makes it a condition for learning execution that a predetermined number or more of learning data has been accumulated. When the female right is satisfied (YES in step S47), the learning unit 35 executes learning to generate a machine learning model using the learning data including the accumulated positive and negative teacher data. (Step S48).

学習部35の学習方法として、さらに以下の方法が採用されてもよい。
システム100は、ドライバが目視にて速度取締装置を確認した場合に、この速度取締装置に関する情報を投稿する機能を有してもよい。例えば、ドライバは、目視にて速度取締装置を確認した場合、操作入力部27を用いて所定の操作(投稿操作)を行う。制御部24は、投稿操作を受け付けたことに応じて、当該投稿操作を受け付けたときに撮影された撮影画像(例えば、最新の撮影画像)をカメラ21から取得する。制御部24は、この取得した撮影画像を、投稿操作を受け付けた旨のデータとともに通信部26からサーバ30に送信する。サーバ30において通信部31は、これらのデータを受信することにより投稿を受け付ける。制御部32は、受信したデータを、学習部35に供給する。学習部35は、撮影画像を、速度取締装置が含まれていることに関連付けた正例の教師データとして用いて、教師あり学習を行う。ドライバにより速度取締装置に関する情報が投稿された場合、撮影画像には速度取締装置が含まれている可能性が高い。よって、この撮影画像を用いて教師あり学習を行えば、より良質な深層学習モデルを生成でき、例えば新たなタイプの速度取締装置が登場した場合にこれに対応する効果が期待できる。また、ドライブレコーダ20は、投稿操作により速度取締装置の種類や、速度取締装置の位置情報を入力可能に構成されてもよい。この場合も、ドライブレコーダ20は入力されたデータをサーバ30に送信する。サーバ30は、このデータを記憶部34に記憶する。
The following method may be further adopted as the learning method of the learning unit 35.
The system 100 may have a function of posting information about the speed control device when the driver visually confirms the speed control device. For example, when the driver visually confirms the speed control device, the driver performs a predetermined operation (posting operation) using the operation input unit 27. In response to the acceptance of the posting operation, the control unit 24 acquires a captured image (for example, the latest captured image) captured when the posting operation is accepted from the camera 21. The control unit 24 transmits the acquired captured image from the communication unit 26 to the server 30 together with data indicating that the posting operation has been accepted. The communication unit 31 in the server 30 accepts posts by receiving these data. The control unit 32 supplies the received data to the learning unit 35. The learning unit 35 uses the photographed image as regular teacher data associated with the inclusion of the speed control device to perform supervised learning. If the driver posts information about a speed camera, the captured image is likely to include a speed camera. Therefore, if supervised learning is performed using this captured image, a better quality deep learning model can be generated, and for example, when a new type of speed control device appears, an effect corresponding to this can be expected. Further, the drive recorder 20 may be configured so that the type of the speed control device and the position information of the speed control device can be input by the posting operation. In this case as well, the drive recorder 20 transmits the input data to the server 30. The server 30 stores this data in the storage unit 34.

この速度取締装置に関する情報を投稿する機能に関して、制御部24は、投稿操作を受け付けたことに応じて、当該投稿操作を受け付けたときに撮影された撮影画像(例えば、最新の撮影画像)と、当該操作を受け付けたときの(例えば、投稿操作のタイミングから前及び後の少なくとも一方の所定期間の)レーダ又はレーザの探知結果とを一組のデータとして、通信部26からサーバ30に送信してもよい。そして、制御部32は、この一組のデータを、学習部35に供給する。学習部35は、探知結果に基づいて、撮影画像がレーダ又はレーザが受信されたときに撮影されたと判断した場合は、この撮影画像に速度取締装置が含まれていることに関連付けた正例の教師データとして用いて、教師あり学習を行う。さらに、学習部35は、探知結果に基づいて、撮影画像がレーダ又はレーザが受信されていないとき(例えば、強度が閾値以下である場合を含む。)に撮影されたと判断した場合は、この撮影画像に速度取締装置が含まれていないことに関連付けた負例の教師データとして用いて、教師あり学習を行ってもよい。ドライバにより速度取締装置に関する情報が投稿された場合に、レーダ又はレーザが探知されていれば、撮影画像に実際に速度取締装置が撮影されている可能性が高い。反対に、レーダ又はレーザが探知されていなければ、ドライバの見間違い等の原因により、撮影画像に実際に速度取締装置が撮影されていない可能性が比較的高い。このように、撮影画像と、レーダ又はレーザの探知結果とを用いて学習を行えば、より良質な深層学習モデルを生成できる。 Regarding the function of posting information about the speed control device, the control unit 24 receives a posting operation and receives a captured image (for example, the latest captured image) taken when the posting operation is accepted. The communication unit 26 transmits to the server 30 the detection result of the radar or the laser when the operation is accepted (for example, at least one predetermined period before and after the timing of the posting operation) as a set of data. May be good. Then, the control unit 32 supplies this set of data to the learning unit 35. When the learning unit 35 determines that the captured image was captured when the radar or laser was received based on the detection result, it is a positive example associated with the inclusion of the speed control device in the captured image. Supervised learning is performed using it as teacher data. Further, when the learning unit 35 determines based on the detection result that the captured image was captured when the radar or laser is not received (for example, the intensity is below the threshold value), this imaging is performed. Supervised learning may be performed by using it as negative example teacher data associated with the fact that the image does not include a speed camera. When the driver posts information about the speed camera, if the radar or laser is detected, it is highly possible that the speed camera is actually captured in the captured image. On the other hand, if the radar or laser is not detected, there is a relatively high possibility that the speed control device is not actually captured in the captured image due to a driver's misunderstanding or the like. In this way, if learning is performed using the captured image and the detection result of the radar or the laser, a higher quality deep learning model can be generated.

この速度取締装置に関する情報を投稿する機能に関しては、特定のドライバに絞って利用できるようにしてもよい。例えば、システム100では、これまでの投稿数に応じて(例えば、投稿数が閾値を超えていること)、又は過去に投稿した情報に対する信頼度に応じて(例えば、信頼度が閾値を超えている)、特定のドライバからの投稿を受け付けて学習に用いるとよい。信頼度は、例えば、投稿された情報が他のドライバにより正しいと判断され、その旨の操作を行ったドライバの数である。このようにすれば、より良質な深層学習モデルを生成できる。 The function of posting information about this speed control device may be made available only to a specific driver. For example, in the system 100, depending on the number of posts so far (for example, the number of posts exceeds the threshold value) or according to the reliability of the information posted in the past (for example, the reliability exceeds the threshold value). It is good to accept posts from specific drivers and use them for learning. The reliability is, for example, the number of drivers whose posted information is judged to be correct by another driver and has performed an operation to that effect. In this way, a better quality deep learning model can be generated.

また、システム100は、警報をした場合のドライバからの応答の入力を取得し、その応答の結果に応じて学習する機能を有してもよい。警報部25が警報を出力した場合において、ドライバは、実際に速度取締装置を目視にて確認することができた場合、操作入力部27を操作して、警報が正しい旨の応答の入力を行う。一方で、ドライバが速度取締装置を目視にて確認することができない場合、この警報は誤報の可能性がある。ドライバは、警報が誤報であると判断した場合、操作入力部27を操作して、誤報である旨の応答の入力を行う。制御部24は、これらのいずれかの操作を受け付けたことに応じて、当該操作を受け付けたときに撮影された撮影画像(例えば、最新の撮影画像)をカメラ21から取得する。制御部24は、この取得した撮影画像を、ドライバからの応答の結果と関連付けたデータを、通信部26からサーバ30に送信する。サーバ30において通信部31は、このデータを受信する。制御部32は、受信したデータを、学習部35に供給する。学習部35は、この撮影画像を、応答の結果に応じて、警報が正しい場合は正例の教師データとして、誤報である場合は負例の教師データとして用いて教師あり学習を行う。このようにすれば、学習部35は、ドライバからの応答を反映した深層学習モデルにすることで、より良質な深層学習モデルを生成することができる。特に、誤報のときに撮影された撮影画像を負例の教師データとすると、速度取締装置に外観上類似する構造物等があり、誤った警報が行われた場合において、この誤報を軽減するような深層学習モデルを生成できる効果が期待できる。 Further, the system 100 may have a function of acquiring an input of a response from the driver when an alarm is issued and learning according to the result of the response. When the alarm unit 25 outputs an alarm, the driver operates the operation input unit 27 to input a response indicating that the alarm is correct when the speed control device can be visually confirmed. .. On the other hand, if the driver cannot visually confirm the speed control device, this alarm may be a false alarm. When the driver determines that the alarm is a false alarm, the driver operates the operation input unit 27 to input a response indicating that the alarm is a false alarm. In response to receiving any of these operations, the control unit 24 acquires a captured image (for example, the latest captured image) captured when the operation is accepted from the camera 21. The control unit 24 transmits data in which the acquired captured image is associated with the result of the response from the driver from the communication unit 26 to the server 30. In the server 30, the communication unit 31 receives this data. The control unit 32 supplies the received data to the learning unit 35. The learning unit 35 uses this captured image as positive teacher data when the alarm is correct and as negative teacher data when the alarm is false, depending on the result of the response, to perform supervised learning. In this way, the learning unit 35 can generate a higher quality deep learning model by making it a deep learning model that reflects the response from the driver. In particular, if the captured image taken at the time of false alarm is used as negative example teacher data, the false alarm should be reduced when there is a structure similar in appearance to the speed control device and an erroneous alarm is given. The effect of generating a deep learning model can be expected.

警報に関しては、以下のようにしてもよい。
ドライブレコーダ20において制御部24は、車両の速度が閾値以下(例えば、30km/h以下)である場合は、速度取締装置が検出されたときであっても、警報部25から警報を出力しないようにしてもよい。例えば、制御部24は、車両の速度が閾値以下である場合は、一次検出部22に速度取締装置の検出を行わせないようにする。警報部25は、警報を出力しないことに代えて、車両の速度が閾値よりも大きい場合に比べて警報のレベルを低くしてもよい。例えば、車両の速度が閾値である場合、車両が速度違反をしている可能性は低く、安全運転がなされていると推測される。よって、ドライブレコーダ20が警報を出力しない又は警報のレベルを下げたとしても、ドライバにとって不都合は少ないと考えられるからである。閾値は、例えば車両が走行する道路の法定速度としてもよい。ドライブレコーダ20は、車両の速度を、車両に設けられたOBD2コネクタを介して取得してもよいし、車速センサを用いて取得してもよい。
The alarm may be as follows.
In the drive recorder 20, when the speed of the vehicle is below the threshold value (for example, 30 km / h or less), the control unit 24 does not output an alarm from the alarm unit 25 even when the speed control device is detected. It may be. For example, the control unit 24 prevents the primary detection unit 22 from detecting the speed control device when the speed of the vehicle is equal to or less than the threshold value. Instead of not outputting the alarm, the alarm unit 25 may lower the alarm level as compared with the case where the speed of the vehicle is higher than the threshold value. For example, when the speed of the vehicle is a threshold value, it is unlikely that the vehicle is in violation of speed, and it is presumed that safe driving is being performed. Therefore, even if the drive recorder 20 does not output an alarm or lowers the alarm level, it is considered that there is little inconvenience for the driver. The threshold value may be, for example, the legal speed of the road on which the vehicle travels. The drive recorder 20 may acquire the speed of the vehicle via the OBD2 connector provided on the vehicle, or may acquire the speed using the vehicle speed sensor.

このようにして生成される機械学習モデルは、画像が入力される入力層と、前記画像に速度取締装置が含まれている確度に応じたデータを出力する出力層と、複数の画像の各画像を入力とし、当該画像に速度取締装置が含まれている確度に応じたデータを出力とする教師データを用いてパラメータが学習された少なくとも1つの中間層と、を有するとよい。パラメータの学習は、上記の学習部35の学習により行われる。このようにすれば、画像から速度取締装置を検出するための機械学習モデルを提供することができる。確度に応じたデータは、当該確度によって変化するデータで、画像に速度取締装置が含まれていると判断される確率を示す値であってもよい。この場合、当該確率が閾値を超えている場合に、画像に速度取締装置が含まれていると判断される。これに限られず、画像に速度取締装置が含まれている確度を示すデータは、画像に速度取締装置が含まれているか否かを示す情報であってもよい。このような深層学習モデルを用いて二次検出を行う二次検出部33は、深層学習モデルにドライブレコーダ20で撮影された画像を入力層に入力し、中間層にて演算し、出力層から出力されたデータに基づいて、速度取締装置を検出したか否かを判断する。 The machine learning model generated in this way includes an input layer into which an image is input, an output layer in which the image includes a speed control device and outputs data according to the certainty, and each image of a plurality of images. It is preferable to have at least one intermediate layer in which the parameters are learned using the teacher data, which outputs the data according to the certainty that the speed control device is included in the image. The parameter learning is performed by the learning of the learning unit 35 described above. In this way, it is possible to provide a machine learning model for detecting the speed control device from the image. The data according to the accuracy is data that changes depending on the accuracy, and may be a value indicating the probability that the image includes a speed control device. In this case, if the probability exceeds the threshold value, it is determined that the image includes a speed control device. Not limited to this, the data indicating the certainty that the image includes the speed control device may be information indicating whether or not the image includes the speed control device. The secondary detection unit 33, which performs secondary detection using such a deep learning model, inputs an image taken by the drive recorder 20 into the deep learning model into the input layer, calculates in the intermediate layer, and performs calculation from the output layer. Based on the output data, it is determined whether or not the speed control device has been detected.

以上のように、本発明の実施の形態のシステム100によれば、探知機10のみで速度取締装置を探知して警報を出力するのではなく、カメラ21で得られた撮影画像から一次検出部22及び二次検出部33で機械学習モデルを用いて速度取締装置を検出することで速度取締装置の存在を認識するので、自動ドア等の速度取締装置以外の電磁波発生源を速度取締装置として探知して警報(誤報)を出してしまう可能性を低減できる。 As described above, according to the system 100 of the embodiment of the present invention, the primary detection unit is not detected by the detector 10 alone and outputs an alarm, but is obtained from the captured image obtained by the camera 21. Since the existence of the speed control device is recognized by detecting the speed control device using the machine learning model in 22 and the secondary detection unit 33, an electromagnetic wave source other than the speed control device such as an automatic door is detected as the speed control device. It is possible to reduce the possibility of issuing an alarm (false report).

また、本発明の実施の形態のシステム100は、ドライブレコーダ20とサーバ30とを備え、車載機器であるドライブレコーダ20で一次検出をした上で、一次検出によって速度取締装置が検出された撮影画像について、サーバ30で二次検出を行う。よって、ドライブレコーダ20における検出処理の負荷を軽減したうえで、ドライブレコーダ20からサーバ30への撮影画像の送信にかかる通信負荷を軽減でき、かつ、サーバ30において比較的処理負荷の大きい検出処理を行うことができる。仮にドライブレコーダ20のマイコンが小さい等の理由で、深層学習モデルを用いた処理を実行する能力を有しない、又は実行するのが困難である(例えば、処理時間が長い)場合であっても、ドライブレコーダ20は深層学習モデルを用いた検出処理の処理結果を得ることができる。サーバ30においては、一次検出で撮影画像から速度取締装置が検出された場合に、深層学習モデルを用いて速度取締装置の検出処理を行うので、全ての撮影画像について検出処理を行う場合に比べて、処理負荷を軽減できる。また、ドライブレコーダ20が深層学習モデルを備える必要がなく、例えば、当該深層学習モデルを複数のドライブレコーダで共用することもできる。このようにすれば、移動式の速度取締措置が設置された場所を、車両が初めて走行する場合でも、ドライブレコーダ20は警報を出力することができる。よって、ドライバの安全運転を支援することができる。 Further, the system 100 according to the embodiment of the present invention includes a drive recorder 20 and a server 30, and a captured image in which the speed control device is detected by the primary detection after the primary detection by the drive recorder 20 which is an in-vehicle device. Is secondary detected on the server 30. Therefore, after reducing the load of the detection process on the drive recorder 20, the communication load on transmitting the captured image from the drive recorder 20 to the server 30 can be reduced, and the detection process having a relatively large processing load on the server 30 can be performed. It can be carried out. Even if the drive recorder 20 does not have the ability to execute processing using the deep learning model or is difficult to execute (for example, the processing time is long) because the microcomputer of the drive recorder 20 is small or the like. The drive recorder 20 can obtain the processing result of the detection process using the deep learning model. In the server 30, when the speed control device is detected from the captured image by the primary detection, the speed control device is detected by using the deep learning model, so that the detection process is performed for all the captured images as compared with the case where the detection process is performed. , The processing load can be reduced. Further, the drive recorder 20 does not need to include a deep learning model, and for example, the deep learning model can be shared by a plurality of drive recorders. In this way, the drive recorder 20 can output an alarm even when the vehicle travels for the first time in a place where a mobile speed control measure is installed. Therefore, it is possible to support the safe driving of the driver.

また、本発明の実施の形態のシステム100では、速度取締装置の検出精度が比較的低い一次検出にて速度取締装置が検出された場合にも警報を出力するとともに、速度取締装置の検出精度が比較的高い二次検出にて速度取締装置が検出された場合には、一次検出された場合とは異なる警報を出力するので、早期の警報と精度の高い警報とを車両のドライバに提供できる。 Further, in the system 100 of the embodiment of the present invention, an alarm is output even when the speed control device is detected by the primary detection in which the detection accuracy of the speed control device is relatively low, and the detection accuracy of the speed control device is improved. When the speed control device is detected by a relatively high secondary detection, an alarm different from that in the case of the primary detection is output, so that an early warning and a highly accurate warning can be provided to the driver of the vehicle.

また、本発明の実施の形態のシステム100では、撮影画像に対する機械学習モデルを用いた検出の結果と探知機による探知の結果とを用いて学習用データを取得すれば、人が正例であるか負例であるかを判別することなく正例及び負例の学習用データを自動で用意することができる。もっとも、人が正例であるか負例であるかを判別して学習用データが生成されるようにすれば、システム100は、良質な深層学習モデルを生成することができる。 Further, in the system 100 of the embodiment of the present invention, if the learning data is acquired using the detection result of the captured image using the machine learning model and the detection result of the detector, a person is a positive example. It is possible to automatically prepare learning data for positive and negative examples without determining whether it is a negative example or a negative example. However, if the learning data is generated by discriminating whether the person is a positive example or a negative example, the system 100 can generate a high-quality deep learning model.

ドライブレコーダ20は一次検出に基づく警報及び二次検出に基づく警報の少なくとも一方をしないようにしてもよい。ドライブレコーダ20が,一次検出に基づく警報をしないようにすれば、速度取締装置が実際には存在しないにも関わらず、警報が発生する可能性が低くなる。ドライブレコーダ20が二次検出に基づく警報をしないようにようにすると、例えば、ドライブレコーダ20の能力や、通信ネットワークの品質等によって、ドライブレコーダ20とサーバ30との通信時間が長い場合や、その他の原因により、ドライブレコーダ20が撮影から二次検出の結果を得るまでの時間が長い場合に、誤ったタイミングで当該警報をしなくて済む。 The drive recorder 20 may not give at least one of the alarm based on the primary detection and the alarm based on the secondary detection. If the drive recorder 20 does not give an alarm based on the primary detection, it is less likely that an alarm will be generated even though the speed control device does not actually exist. When the drive recorder 20 is prevented from giving an alarm based on the secondary detection, for example, the communication time between the drive recorder 20 and the server 30 may be long depending on the capacity of the drive recorder 20 or the quality of the communication network, or other cases. When the drive recorder 20 takes a long time from shooting to obtaining the result of the secondary detection due to the above cause, it is not necessary to give the alarm at an erroneous timing.

上記の実施の形態で説明した各機能を実現する主体(各処理を実行する主体)については、種々の変形が可能である。例えば、上記の実施の形態でドライブレコーダ20が行っていた処理を、別の車載機器である探知機10が行うようにしてもよい。例えば、探知機10の制御部は、ドライブレコーダ20から撮影画像を取得して一次検出を行い、速度取締装置を検出した場合は、その撮影画像をサーバ30に送信してもよい。探知機10の制御部は、サーバ30からのデータを受信するとこのデータの受信に応じて、警報部13を制御して、警報(第二警報)するとよい。また、車載機器はドライブレコーダ及び探知機に限られず、車両に搭載されるカーナビゲーション装置、スマートフォン及びタブレット型コンピュータで例示される情報処理装置(例えば、カーナビゲーション装置として機能する情報処理装置であって車両に設置されたもの)、又はその他の車両に搭載される機器であってもよい。また、車両の外を撮影するカメラは、デジタルビデオカメラ又はその他の撮影装置が有するカメラであってもよい。 The subject that realizes each function described in the above embodiment (the subject that executes each process) can be modified in various ways. For example, the process performed by the drive recorder 20 in the above embodiment may be performed by the detector 10 which is another in-vehicle device. For example, the control unit of the detector 10 may acquire a captured image from the drive recorder 20 to perform primary detection, and when the speed control device is detected, transmit the captured image to the server 30. When the control unit of the detector 10 receives the data from the server 30, the control unit may control the alarm unit 13 in response to the reception of the data to give an alarm (second alarm). In-vehicle devices are not limited to drive recorders and detectors, but are car navigation devices mounted on vehicles, information processing devices exemplified by smartphones and tablet computers (for example, information processing devices that function as car navigation devices). It may be a device installed in a vehicle) or other equipment mounted on a vehicle. Further, the camera that photographs the outside of the vehicle may be a camera included in a digital video camera or other imaging device.

車載機器が、一次検出及び二次検出を行ってもよい。この場合、車載機器は、一次検出で撮影画像から速度取締装置が検出した場合に、深層学習モデルを用いて速度取締装置の検出処理を行うので、全ての撮影画像について検出処理を行う場合に比べて、車載機器における処理負荷を軽減できる。また、車載機器とサーバとの通信ネットワークを通信に要する時間を考慮しなくてよいので、二次検出に基づく警報を的確なタイミングで行う上でも望ましい。また、車載機器は、一次検出及び二次検出を行って速度取締装置を検出したと判断した場合は、その検出をしたときの車両の位置を示す位置情報を、サーバ30に送信してもよい。また、一次検出及び二次検出という二段階の物体検出処理を行うのではなく、一段階又は三段階以上の物体検出処理が行われるとよい。一段階の場合は、例えば、深層学習モデルを用いた物体検出処理が行われるとよい。三段階以上の物体検出処理は、それぞれ異なるアルゴリズムで(例えば、それぞれ異なる機械学習モデルを用いて)、物体検出処理が行われるとよい。 The in-vehicle device may perform the primary detection and the secondary detection. In this case, when the speed control device detects from the captured image in the primary detection, the in-vehicle device performs the detection process of the speed control device using the deep learning model, so that the detection process is performed on all the captured images as compared with the case where the detection process is performed. Therefore, the processing load on the in-vehicle device can be reduced. In addition, since it is not necessary to consider the time required for communication between the in-vehicle device and the server, it is also desirable to issue an alarm based on the secondary detection at an accurate timing. Further, when the in-vehicle device determines that the speed control device has been detected by performing the primary detection and the secondary detection, the in-vehicle device may transmit the position information indicating the position of the vehicle at the time of the detection to the server 30. .. Further, it is preferable that the object detection process of one step or three or more steps is performed instead of performing the object detection process of two steps of primary detection and secondary detection. In the case of one step, for example, it is preferable that the object detection process using the deep learning model is performed. For the object detection processing of three or more stages, it is preferable that the object detection processing is performed by different algorithms (for example, using different machine learning models).

上記の実施の形態では、システム100は、ドライブレコーダ20とサーバ30とを備えていたが、車載機器単体でシステム100が構成されてもよい。この場合には、検出部は1つのみであってもよく、この検出部において、例えば深層学習モデルを用いた精度の高い物体検出を行ってよい。この場合も、車載機器が、一次検出及び二次検出を行ったり、速度取締装置の位置情報を記憶し、これを更新したりしてもよい。また、車載機器は、他の車載機器にこの位置情報を、例えば車両間の通信により送信して、これを複数の車両で共有してもよい。 In the above embodiment, the system 100 includes the drive recorder 20 and the server 30, but the system 100 may be configured by the in-vehicle device alone. In this case, there may be only one detection unit, and this detection unit may perform highly accurate object detection using, for example, a deep learning model. In this case as well, the in-vehicle device may perform primary detection and secondary detection, or store the position information of the speed control device and update it. Further, the in-vehicle device may transmit this position information to another in-vehicle device, for example, by communication between vehicles, and share this with a plurality of vehicles.

このように、システムは、車両の外を撮影した画像から、機械学習モデルを用いて速度取締地点であることを示す目標物を検出する検出部と、前記検出部における検出結果に基づいて制御を行う制御部と、を備えた構成を有していればよい。 In this way, the system controls based on a detection unit that detects a target indicating that it is a speed control point using a machine learning model from an image taken outside the vehicle, and a detection result in the detection unit. It suffices to have a configuration including a control unit for performing the operation.

また、上記の実施の形態の一次検出部22及び二次検出部33では、上述のように、撮影画像に速度取締装置が存在するか否かが確率で得られる。すなわち、撮影画像内の矩形枠内の物体が速度取締装置である確かさが確率で得られる。そこで、警報部25は、この確からしさに応じて警報レベルを用意して、対応する警報レベルに応じた警報を出力してよい。例えば、警報が音声である場合には警報レベルに応じて音声の大きさを調節してもよい。 Further, in the primary detection unit 22 and the secondary detection unit 33 of the above-described embodiment, as described above, whether or not the speed control device exists in the captured image can be obtained with a probability. That is, the probability that the object in the rectangular frame in the captured image is a speed control device can be obtained. Therefore, the alarm unit 25 may prepare an alarm level according to this certainty and output an alarm according to the corresponding alarm level. For example, when the alarm is voice, the volume of the voice may be adjusted according to the alarm level.

また、上記の実施の形態では、システム100は、目標物として速度取締装置を検出し、サーバ30では、速度取締装置の分布マップを生成したが、システム100は、速度取締装置以外の目標物について、同様の処理を行って分布マップを生成してよい。例えば、各種のランドマークを目標物をとすることで、システム100は、POI(Point of Interest)の分布マップを生成することができる。 Further, in the above embodiment, the system 100 detects the speed control device as a target, and the server 30 generates a distribution map of the speed control device, but the system 100 describes the target other than the speed control device. , The same process may be performed to generate a distribution map. For example, by targeting various landmarks, the system 100 can generate a distribution map of POI (Point of Interest).

ドライブレコーダ20においては、自装置(車両)が置かれる環境に応じて、撮影画像に対する物体検出処理の結果に応じて警報の出力の可否を制御してもよい。ドライブレコーダ20の制御部24は、例えば、車両が比較的暗い環境で走行していることをセンサで出している場合(例えば、照度センサにより測定された照度が閾値である場合)、又は夜間等の周辺環境が暗い所定時間帯である場合には、物体検出処理の結果に応じて警報の出力を制限してもよい(例えば、出力を停止する)。換言すると、制御部24は、例えば、車両が比較的明るい環境で走行していることをセンサで検出している場合(例えば、照度センサにより測定された照度が閾値を超えている場合)、又は昼間等の周辺環境が明るい所定時間帯である場合には、物体検出処理の結果に応じて警報の出力を制限してもよい。さらに、システム100では、物体検出処理の結果に応じた警報の出力を制限している期間は、探知機10においてレーダ又はレーザが探知された場合に、警報を出力してもよい。この警報は、物体検出処理の結果に応じた警報とは異なるものとしてもよい。このようにすれば、ドライブレコーダ20は、車両が速度取締装置を撮影画像から検出しやすい環境の下で走行している場合に、物体検出処理の結果に応じて警報を出力するので、不要な処理の削減、又は誤った警報の出力が発生する可能性が低減する効果が期待できる。もっとも、ドライブレコーダ20が暗視カメラの撮影画像を用いる方法又はその他の方法により、車両が比較的暗い環境で走行している場合には、そのような環境下でも、物体検出処理の結果に応じて警報を出力することが望ましい。 In the drive recorder 20, whether or not the alarm can be output may be controlled according to the result of the object detection process on the captured image according to the environment in which the own device (vehicle) is placed. The control unit 24 of the drive recorder 20 uses a sensor to indicate that the vehicle is traveling in a relatively dark environment (for example, when the illuminance measured by the illuminance sensor is a threshold value), or at night, etc. When the surrounding environment is dark in a predetermined time zone, the output of the alarm may be limited according to the result of the object detection process (for example, the output may be stopped). In other words, the control unit 24 detects, for example, that the vehicle is traveling in a relatively bright environment with a sensor (for example, when the illuminance measured by the illuminance sensor exceeds the threshold value), or When the surrounding environment is bright, such as in the daytime, the output of the alarm may be limited according to the result of the object detection process. Further, the system 100 may output an alarm when a radar or a laser is detected by the detector 10 during the period in which the output of the alarm according to the result of the object detection process is restricted. This alarm may be different from the alarm according to the result of the object detection process. In this way, the drive recorder 20 outputs an alarm according to the result of the object detection process when the vehicle is traveling in an environment where the speed control device can be easily detected from the captured image, which is unnecessary. It can be expected to have the effect of reducing processing or reducing the possibility that an erroneous alarm output will occur. However, when the drive recorder 20 is traveling in a relatively dark environment by a method using an image taken by a night-vision camera or another method, even in such an environment, depending on the result of the object detection process. It is desirable to output an alarm.

上記の実施の形態として、速度取締地点であることを示す目標物が、速度取締装置である場合を説明した。速度取締地点であることを示す目標物は、これに代えて又は組み合わせて。速度取締地点で取締りを行う警察官等の人物、速度取締地点に停められていることがある警察車両等の車両、及び速度取締地点として設定される可能性の高い地点を撮影した風景(例えば、街並み)の少なくともいずれかを含むものとするとよい。特に、警察官は制服を着用していることがあり、警察車両は特有の外観を有しているから、これを手掛かりに、上述した物体検出処理によって検出することができると考えられる。 As the above embodiment, the case where the target indicating that the speed control point is the speed control device has been described. Targets indicating that they are speed control points should be replaced or combined. Scenery of a person such as a police officer who controls at a speed control point, a vehicle such as a police vehicle that may be parked at a speed control point, and a point that is likely to be set as a speed control point (for example, It should include at least one of the cityscapes). In particular, police officers may wear uniforms, and police vehicles have a unique appearance. Therefore, it is considered that the police vehicle can be detected by the above-mentioned object detection process using this as a clue.

なお、本発明の範囲は、明細書に明示的に説明された構成や限定されるものではなく、本明細書に開示される本発明の様々な側面の組み合わせをも、その範囲に含むものである。本発明のうち、特許を受けようとする構成を、添付の特許請求の範囲に特定したが、現在の処は特許請求の範囲に特定されていない構成であっても、本明細書に開示される構成を、将来的に特許請求の範囲とする意思を有する。 The scope of the present invention is not limited to the configuration explicitly described in the specification, but also includes a combination of various aspects of the present invention disclosed in the present specification. Of the present invention, the configuration for which a patent is sought is specified in the appended claims, but even if the configuration is not currently specified in the claims, it is disclosed in the present specification. We intend to make this configuration the scope of claims in the future.

本願発明は上述した実施の形態に記載の構成に限定されない。上述した各実施の形態や変形例の構成要素は任意に選択して組み合わせて構成するとよい。また各実施の形態や変形例の任意の構成要素と、発明を解決するための手段に記載の任意の構成要素又は発明を解決するための手段に記載の任意の構成要素を具体化した構成要素とは任意に組み合わせて構成するとよい。これらについても本願の補正又は分割出願等において権利取得する意思を有する。また「〜の場合」「〜のとき」という記載があったとしてもその場合やそのときに限られる構成として記載はしているものではない。これらの場合やときでない構成についても開示しているものであり、権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えた構成についても開示しているものであり、権利取得する意思を有する。 The invention of the present application is not limited to the configuration described in the above-described embodiment. The components of each of the above-described embodiments and modifications may be arbitrarily selected and combined. Further, any component of each embodiment or modification, and any component described in the means for solving the invention or a component described in the means for solving the invention are embodied. And may be configured in any combination. We also intend to acquire the rights to these in the amendment or divisional application of the present application. Further, even if there is a description of "in the case of" or "in the case of", it is not described as a configuration limited to that case or at that time. It also discloses these cases and unusual configurations, and has the intention to acquire the rights. In addition, the places where the description is accompanied by an order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and it has the intention of acquiring rights.

また、意匠登録出願への変更により、全体意匠又は部分意匠について権利取得する意思を有する。図面は本装置の全体を実線で描画しているが、全体意匠のみならず当該装置の一部の部分に対して請求する部分意匠も包含した図面である。例えば当該装置の一部の部材を部分意匠とすることはもちろんのこと、部材と関係なく当該装置の一部の部分を部分意匠として包含した図面である。当該装置の一部の部分としては、装置の一部の部材としても良いし、その部材の部分としても良い。全体意匠はもちろんのこと、図面の実線部分のうち任意の部分を破線部分とした部分意匠を、権利化する意思を有する。また、装置の筐体の内部のモジュール・部材・部品等についても、図面に表示されているものは、いずれも独立して取引の対象となるものであって、同様に、意匠登録出願への変更を行って権利化を行う意思を有するものである。 In addition, by changing to a design registration application, we have the intention to acquire the rights to the entire design or partial design. Although the entire drawing of the device is drawn with solid lines, it is a drawing that includes not only the whole design but also the partial design requested for a part of the device. For example, it is a drawing which includes a part of the device as a partial design regardless of the member as well as a part of the member of the device as a partial design. As a part of the device, it may be a part of the device or a part of the member. Not only the whole design, but also the partial design in which any part of the solid line part of the drawing is a broken line part is intended to be granted the right. In addition, regarding the modules, members, parts, etc. inside the housing of the device, those displayed in the drawings are all independently subject to transactions, and similarly, the application for design registration is filed. They are willing to make changes and acquire rights.

10 探知機
11 レーダ探知部
12 レーザ探知部
13 警報部
20 ドライブレコーダ
21 カメラ
22 一次検出部
23 位置情報取得部
24 制御部
25 警報部
26 通信部
27 操作入力部
30 サーバ
31 通信部
32 制御部
33 二次検出部
34 記憶部
35 学習部
100 システム

10 Detector 11 Radar detector 12 Laser detector 13 Alarm unit 20 Drive recorder 21 Camera 22 Primary detection unit 23 Position information acquisition unit 24 Control unit 25 Alarm unit 26 Communication unit 27 Operation input unit 30 Server 31 Communication unit 32 Control unit 33 Secondary detection unit 34 Storage unit 35 Learning unit 100 System

Claims (29)

車両の外を撮影した画像から、機械学習モデルを用いて車両の速度取締地点であることを示す目標物を検出する検出部と、
前記検出部における検出結果に基づいて制御を行う制御部と、
を備えたシステム。
A detection unit that detects a target indicating that it is a speed control point of the vehicle using a machine learning model from an image taken outside the vehicle.
A control unit that controls based on the detection result in the detection unit,
System with.
前記検出部は、
第一機械学習モデルを用いて前記目標物を検出する一次検出部と、
前記一次検出部により前記目標物が検出された場合に、第二機械学習モデルを用いて前記目標物を検出する二次検出部と、
を有し、
前記制御部は、
前記一次検出部及び前記二次検出部における検出結果に基づいて制御を行う、
請求項1に記載のシステム。
The detection unit
A primary detector that detects the target using the first machine learning model,
When the target is detected by the primary detection unit, the secondary detection unit that detects the target using the second machine learning model, and the secondary detection unit.
Have,
The control unit
Control is performed based on the detection results of the primary detection unit and the secondary detection unit.
The system according to claim 1.
前記一次検出部は、車両に搭載された車載機器に設けられ、
前記二次検出部は、前記車載機器と通信ネットワークを介して通信するサーバに設けられる、
請求項2に記載のシステム。
The primary detection unit is provided on an in-vehicle device mounted on a vehicle and is provided.
The secondary detection unit is provided in a server that communicates with the in-vehicle device via a communication network.
The system according to claim 2.
前記一次検出部は、前記第一機械学習モデルとしてのバイナリデータとのパターンマッチングを行うことで、前記画像から前記目標物を検出し、
前記二次検出部は、前記第二機械学習モデルとして深層学習モデルを用いて前記画像から前記目標物を検出する、
請求項2又は3に記載のシステム。
The primary detection unit detects the target object from the image by performing pattern matching with the binary data as the first machine learning model.
The secondary detection unit detects the target from the image using a deep learning model as the second machine learning model.
The system according to claim 2 or 3.
所定の波長帯の電磁波を探知する探知機を前記車両にさらに備え、
前記一次検出部は、前記第一機械学習モデルと前記探知機の探知結果とに基づいて、前記目標物を検出する、
請求項2〜4のいずれかに記載のシステム。
The vehicle is further equipped with a detector for detecting electromagnetic waves in a predetermined wavelength band.
The primary detection unit detects the target based on the first machine learning model and the detection result of the detector.
The system according to any one of claims 2 to 4.
前記制御部は、前記探知機により前記電磁波が受信されている期間に、前記第一機械学習モデルに基づいて前記画像から前記目標物が検出された場合、前記制御を行う、
請求項5に記載のシステム。
The control unit performs the control when the target is detected from the image based on the first machine learning model during the period when the electromagnetic wave is received by the detector.
The system according to claim 5.
前記制御部は、前記一次検出部における検出結果に基づいて、車両に設けられた警報部から警報を出力する制御を行う第一制御部を有する、
請求項1〜6のいずれかに記載のシステム。
The control unit has a first control unit that controls to output an alarm from an alarm unit provided in the vehicle based on the detection result in the primary detection unit.
The system according to any one of claims 1 to 6.
前記制御部は、前記二次検出部における検出結果に基づいて、車両に設けられた警報部から警報を出力する制御を行う第一制御部を有する、
請求項2〜6のいずれかに記載のシステム。
The control unit has a first control unit that controls to output an alarm from an alarm unit provided in the vehicle based on the detection result in the secondary detection unit.
The system according to any one of claims 2 to 6.
前記制御部は、前記一次検出部における検出結果に基づいて、車両に設けられた警報部から第一警報を出力する制御を行い、前記二次検出部における検出結果に基づいて、前記第一警報と異なる第二警報を出力する制御を行う第一制御部を有する、
請求項2〜6のいずれかに記載のシステム。
The control unit controls to output a first alarm from an alarm unit provided in the vehicle based on the detection result in the primary detection unit, and the first alarm is output based on the detection result in the secondary detection unit. Has a first control unit that controls to output a second alarm different from
The system according to any one of claims 2 to 6.
前記第一制御部は、前記目標物の検出結果の確からしさに応じて異なる警報を出力する制御を行う、
請求項7〜9のいずれかに記載のシステム。
The first control unit controls to output different alarms depending on the certainty of the detection result of the target object.
The system according to any one of claims 7 to 9.
前記目標物の位置情報を記憶する記憶部を備え、
前記制御部は、
それぞれ異なる車両に搭載された複数の前記検出部における検出結果に基づいて、前記記憶部における前記目標物の位置情報を更新する制御を行う第二制御部を有する、
請求項1〜10のいずれかに記載のシステム。
A storage unit for storing the position information of the target object is provided.
The control unit
It has a second control unit that controls to update the position information of the target object in the storage unit based on the detection results of the plurality of detection units mounted on different vehicles.
The system according to any one of claims 1 to 10.
前記目標物の位置情報を記憶する記憶部を備え、
前記制御部は、
それぞれ異なる車両に搭載された複数の前記検出部における検出結果に基づいて、前記記憶部における前記目標物の位置情報を更新する制御を行う第二制御部を有し、
前記第一制御部は、
前記記憶部に記憶された前記目標物の位置情報と、前記車両の位置とに基づいて、前記警報を出力する制御を行う、
請求項7〜10のいずれかに記載のシステム。
A storage unit for storing the position information of the target object is provided.
The control unit
It has a second control unit that controls to update the position information of the target object in the storage unit based on the detection results of the plurality of detection units mounted on different vehicles.
The first control unit
Control to output the alarm is performed based on the position information of the target object stored in the storage unit and the position of the vehicle.
The system according to any one of claims 7 to 10.
前記第一制御部は、車両に搭載された車載機器に設けられ、
前記第二制御部は、前記車載機器と通信ネットワークを介して通信するサーバに設けられる
請求項11又は12に記載のシステム。
The first control unit is provided on an in-vehicle device mounted on a vehicle.
The system according to claim 11 or 12, wherein the second control unit is provided in a server that communicates with the in-vehicle device via a communication network.
車両に搭載される車載機器と通信ネットワーク上に設けられたサーバとを備えたシステムであって、
前記車載機器は、
前記車両の外を撮影して撮影画像を生成するカメラと、
前記通信ネットワークを介して前記撮影画像を前記サーバに送信する車両側送信部と、
を備え、
前記サーバは、
前記車載機器から前記通信ネットワークを介して前記撮影画像を受信するサーバ側受信部と、
機械学習モデルを用いて前記撮影画像から目標物を検出する検出部と、
前記検出部における検出結果を記憶する記憶部と、
を備えたシステム。
It is a system equipped with an in-vehicle device mounted on a vehicle and a server provided on a communication network.
The in-vehicle device is
A camera that captures the outside of the vehicle and generates a captured image,
A vehicle-side transmitter that transmits the captured image to the server via the communication network.
With
The server
A server-side receiver that receives the captured image from the in-vehicle device via the communication network, and
A detector that detects a target from the captured image using a machine learning model,
A storage unit that stores the detection result in the detection unit,
System with.
前記車載機器は、前記機械学習モデルより検出基準の低い機械学習モデルを用いて前記撮影画像から前記目標物を検出する一次検出部を備え、
前記車両側送信部は、前記一次検出部にて前記目標物が検出された前記撮影画像を前記サーバに送信し、
前記検出部は、二次検出部として、前記サーバ側受信部にて受信した前記撮影画像から前記目標物を検出する、請求項14に記載のシステム。
The in-vehicle device includes a primary detection unit that detects the target object from the captured image using a machine learning model having a lower detection standard than the machine learning model.
The vehicle-side transmission unit transmits the captured image in which the target is detected by the primary detection unit to the server.
The system according to claim 14, wherein the detection unit detects the target object from the captured image received by the server-side reception unit as a secondary detection unit.
前記車載機器は、前記車両の位置情報を取得する位置情報取得部を備え、
前記車両側送信部は、前記撮影画像とともに、当該撮影画像を撮影したときの前記車両の位置情報を前記サーバに送信し、
前記記憶部は、前記検出結果を前記位置情報に関連付けて記憶する、請求項14に記載のシステム。
The in-vehicle device includes a position information acquisition unit that acquires the position information of the vehicle.
The vehicle-side transmission unit transmits the captured image and the position information of the vehicle when the captured image is captured to the server.
The system according to claim 14, wherein the storage unit stores the detection result in association with the position information.
前記車載機器は、
前記記憶部に記憶された情報に基づく通知を受ける車両側受信部と、
前記通知に基づく情報出力を行う出力部と、
を備えた、請求項16に記載のシステム。
The in-vehicle device is
A vehicle-side receiver that receives a notification based on the information stored in the storage unit,
An output unit that outputs information based on the notification,
16. The system of claim 16.
車載機器を備えたシステムであって、
前記車載機器が、
車両の外を撮影した画像から、第一機械学習モデルを用いて目標物を検出する検出部と、
前記検出部により前記目標物が検出された場合に、前記画像をサーバに送信する送信部と、
前記サーバから、前記画像から第二機械学習モデルを用いて目標物を検出する処理の結果を受信する受信部と、
前記検出部における検出結果及び受信した前記処理の結果に基づいて制御を行う制御部と、
を有するシステム。
A system equipped with in-vehicle equipment
The in-vehicle device
A detector that detects a target using the first machine learning model from an image taken outside the vehicle,
When the target is detected by the detection unit, the transmission unit that transmits the image to the server and
A receiving unit that receives the result of a process of detecting a target object from the image using the second machine learning model from the server.
A control unit that performs control based on the detection result in the detection unit and the received result of the processing.
System with.
車両の速度取締地点であることを示す目標物を撮影した複数の画像の各画像を取得し、取得した当該各画像に前記目標物が含まれていることに関連付けた教師データを用いて学習を行う、システム。 Acquisition of each image of a plurality of images of a target indicating that it is a vehicle speed control point, and learning using teacher data associated with the inclusion of the target in each of the acquired images. Do, system. 車両に設けられたカメラで前記車両の外を撮影した画像であって、前記車両に設けられた所定の波長帯の電磁波を探知する探知機で前記電磁波が探知されたときに撮影した画像を正例として教師あり学習を行う、システム。 An image taken of the outside of the vehicle by a camera provided in the vehicle, and the image taken when the electromagnetic wave is detected by a detector provided in the vehicle for detecting an electromagnetic wave in a predetermined wavelength band is positive. As an example, a system for supervised learning. 前記画像から車両の速度取締地点であることを示す目標物を検出する検出部をさらに備え、前記目標物を検出し、かつ、前記探知機が前記所定の波長帯の電磁波を探知したときの前記画像を正例として教師あり学習を行う、請求項20に記載のシステム。 The said The system according to claim 20, wherein supervised learning is performed using an image as a positive example. 前記画像から前記目標物を検出する検出部を備え、
前記探知機で前記所定の波長帯の電磁波を探知していないが前記目標物が検出されたときの前記画像を負例として前記教師あり学習を行う、請求項20又は21に記載のシステム。
A detection unit for detecting the target object from the image is provided.
The system according to claim 20 or 21, wherein supervised learning is performed using the image when the target is detected, although the detector does not detect electromagnetic waves in the predetermined wavelength band.
前記車両内の人が目視にて前記目標物を確認したときに撮影された前記画像の投稿を受け付け、
投稿された前記画像を正例として前記教師あり学習を行う、請求項19〜22のいずれかに記載のシステム。
Accepting the posting of the image taken when the person in the vehicle visually confirmed the target object,
The system according to any one of claims 19 to 22, wherein the supervised learning is performed using the posted image as a positive example.
前記車両内の人が目視にて前記目標物を確認したときに撮影された前記画像に加え、前記探知機における前記所定の波長帯の電磁波の探知結果の投稿を受け付け、
投稿された前記画像を、投稿を受け付けた前記探知結果に応じて正例又は負例として前記教師あり学習を行う、請求項23に記載のシステム。
In addition to the image taken when the person in the vehicle visually confirms the target object, the detector accepts posting of the detection result of the electromagnetic wave in the predetermined wavelength band.
The system according to claim 23, wherein the posted image is supervised-learned as a positive example or a negative example according to the detection result of receiving the posting.
前記画像から前記目標物を検出して警報したときの前記車両内の人からの応答の入力を受け付け、
入力を受け付けた前記応答の結果に応じて前記画像を正例又は負例として前記教師あり学習を行う、請求項19〜24のいずれかに記載のシステム。
When the target is detected from the image and an alarm is given, the input of the response from the person in the vehicle is accepted.
The system according to any one of claims 19 to 24, wherein supervised learning is performed using the image as a positive example or a negative example according to the result of the response that receives the input.
前記目標物は車両取締装置である、
請求項1〜25のいずれかに記載のシステム。
The target is a vehicle control device,
The system according to any one of claims 1 to 25.
請求項1〜26のいずれかに記載のシステムの機能の少なくとも一部が車載機器で実現され、
当該車載機器で実現される機能をコンピュータに実現させるためのプログラム。
At least a part of the function of the system according to any one of claims 1 to 26 is realized by an in-vehicle device.
A program for making a computer realize the functions realized by the in-vehicle device.
車両の速度取締地点であることを示す目標物を撮影した複数の画像の各画像を取得し、取得した当該各画像に前記目標物が含まれていることに関連付けた教師データを用いて学習を行う、機械学習方法。 Acquisition of each image of a plurality of images of a target indicating that it is a vehicle speed control point, and learning using teacher data associated with the inclusion of the target in each of the acquired images. Machine learning method to do. 画像が入力される入力層と、
前記画像に車両の速度取締地点であることを示す目標物が含まれている確度に応じたデータを出力する出力層と、
複数の画像の各画像を入力とし、当該画像に前記目標物が含まれている確度に応じたデータを出力とする教師データを用いてパラメータが学習された少なくとも1つの中間層と、
を有する機械学習モデル。

The input layer where the image is input and
An output layer that outputs data according to the accuracy, and an output layer that includes a target indicating that the image is a speed control point of the vehicle.
At least one intermediate layer in which parameters are learned using teacher data in which each image of a plurality of images is input and data corresponding to the probability that the target is included in the image is output, and
Machine learning model with.

JP2020059737A 2020-03-30 2020-03-30 Systems, programs, machine learning methods, and machine learning models Active JP7470967B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020059737A JP7470967B2 (en) 2020-03-30 2020-03-30 Systems, programs, machine learning methods, and machine learning models

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020059737A JP7470967B2 (en) 2020-03-30 2020-03-30 Systems, programs, machine learning methods, and machine learning models

Publications (2)

Publication Number Publication Date
JP2021157699A true JP2021157699A (en) 2021-10-07
JP7470967B2 JP7470967B2 (en) 2024-04-19

Family

ID=77918023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020059737A Active JP7470967B2 (en) 2020-03-30 2020-03-30 Systems, programs, machine learning methods, and machine learning models

Country Status (1)

Country Link
JP (1) JP7470967B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023211066A1 (en) * 2022-04-26 2023-11-02 서울대학교산학협력단 Beam control method using multi-sensor in millimeter-wave and terahertz-wave wireless communication system, and recording medium and device for performing same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240866A (en) * 2003-02-07 2004-08-26 Yupiteru Ind Co Ltd Microwave detector with position detecting function
US20150193663A1 (en) * 2014-01-06 2015-07-09 Hyundai Mobis Co., Ltd Apparatus and method for recognizing traffic sign board
JP2016218760A (en) * 2015-05-20 2016-12-22 株式会社日立製作所 Object detection system, object detection method, poi information creation system, warning system, and guiding system
JP2018107759A (en) * 2016-12-28 2018-07-05 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and image processing system
JP2019205078A (en) * 2018-05-24 2019-11-28 株式会社ユピテル System and program
JP2020046706A (en) * 2018-09-14 2020-03-26 トヨタ自動車株式会社 Object detection apparatus, vehicle control system, object detection method and computer program for object detection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240866A (en) * 2003-02-07 2004-08-26 Yupiteru Ind Co Ltd Microwave detector with position detecting function
US20150193663A1 (en) * 2014-01-06 2015-07-09 Hyundai Mobis Co., Ltd Apparatus and method for recognizing traffic sign board
JP2016218760A (en) * 2015-05-20 2016-12-22 株式会社日立製作所 Object detection system, object detection method, poi information creation system, warning system, and guiding system
JP2018107759A (en) * 2016-12-28 2018-07-05 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and image processing system
JP2019205078A (en) * 2018-05-24 2019-11-28 株式会社ユピテル System and program
JP2020046706A (en) * 2018-09-14 2020-03-26 トヨタ自動車株式会社 Object detection apparatus, vehicle control system, object detection method and computer program for object detection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
城殿清澄他: "高解像度レーザレーダと画像の統合による歩行者認識", SSII2012 第18回画像センシングシンポジウム 講演論文集 [CD−ROM], JPN6023039399, 6 June 2012 (2012-06-06), JP, pages 2 - 07, ISSN: 0005158117 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023211066A1 (en) * 2022-04-26 2023-11-02 서울대학교산학협력단 Beam control method using multi-sensor in millimeter-wave and terahertz-wave wireless communication system, and recording medium and device for performing same
KR20230151661A (en) * 2022-04-26 2023-11-02 서울대학교산학협력단 Method for mmwave and terahertz beam control using multi sensors in wireless communication system, recording medium and device for performing the method
KR102600224B1 (en) * 2022-04-26 2023-11-09 서울대학교산학협력단 Method for mmwave and terahertz beam control using multi sensors in wireless communication system, recording medium and device for performing the method

Also Published As

Publication number Publication date
JP7470967B2 (en) 2024-04-19

Similar Documents

Publication Publication Date Title
US10609148B1 (en) Smart vehicle
CN107608388B (en) Autonomous police vehicle
US20210089048A1 (en) Smart vehicle
CN101844542B (en) Intelligent driving assistant systems
US11526166B2 (en) Smart vehicle
US10227813B2 (en) Device and method for opening trunk of vehicle, and recording medium for recording program for executing method
EP3239945A1 (en) Vehicle safety system
CN107054218B (en) Identification information display device and method
US10525873B2 (en) Turn by turn activation of turn signals
JP4923736B2 (en) Road communication system and road communication method
JP2019205078A (en) System and program
CN106415686A (en) Trainable transceiver and camera systems and methods
US20210080966A1 (en) Smart vehicle
JP7146516B2 (en) Driving evaluation device and in-vehicle device
US20210031793A1 (en) Automated vehicle system
KR102517813B1 (en) Signal system for intersection of alleyway, method and computer program
CN115361653A (en) Providing safety via vehicle-based monitoring of neighboring vehicles
JP2021157699A (en) System, program, machine learning method, machine learning model, and others
JP2023130394A (en) System, program, and the like
KR20180022405A (en) Method and system for report during drive
US20220250613A1 (en) Systems And Methods To Prevent Vehicular Mishaps
KR102385191B1 (en) Real-time dangerous vehicle tracking system and tracking method
JP2022056153A (en) Temporary stop detection device, temporary stop detection system, and temporary stop detection program
KR101787577B1 (en) Intelligent traffic information collection and sharing system using smart device
JP2018028856A (en) Traffic lane warning device and traffic lane warning system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240402

R150 Certificate of patent or registration of utility model

Ref document number: 7470967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150