JP7383954B2 - Learning data collection device - Google Patents

Learning data collection device Download PDF

Info

Publication number
JP7383954B2
JP7383954B2 JP2019174028A JP2019174028A JP7383954B2 JP 7383954 B2 JP7383954 B2 JP 7383954B2 JP 2019174028 A JP2019174028 A JP 2019174028A JP 2019174028 A JP2019174028 A JP 2019174028A JP 7383954 B2 JP7383954 B2 JP 7383954B2
Authority
JP
Japan
Prior art keywords
image
images
detected
road
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019174028A
Other languages
Japanese (ja)
Other versions
JP2021051542A5 (en
JP2021051542A (en
Inventor
賢司 堀口
正雄 山中
俊明 大串
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019174028A priority Critical patent/JP7383954B2/en
Publication of JP2021051542A publication Critical patent/JP2021051542A/en
Publication of JP2021051542A5 publication Critical patent/JP2021051542A5/ja
Application granted granted Critical
Publication of JP7383954B2 publication Critical patent/JP7383954B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、学習用データ収集装置に関する。 The present invention relates to a learning data collection device.

特許文献1には、機械学習によって得られた学習済みモデルを用いて、車載カメラにより撮影された画像中の路上障害物を検出する路上障害物検出装置が開示されている。 Patent Document 1 discloses a road obstacle detection device that uses a trained model obtained by machine learning to detect road obstacles in images captured by an on-vehicle camera.

特開2018-194912号公報Japanese Patent Application Publication No. 2018-194912

特許文献1に記載されているような学習済みモデルを用いて画像中の路上障害物を検出する技術では、路上障害物の検出精度を向上させるために、学習済みモデルを更新するための学習用データを効率的に収集できることが好ましい。しかしながら、特許文献1では、学習済みモデルの学習用データを効率的に収集することは考慮されていない。 In the technology of detecting road obstacles in an image using a trained model as described in Patent Document 1, in order to improve the detection accuracy of road obstacles, a learning model is used to update the trained model. It is preferable to be able to collect data efficiently. However, Patent Document 1 does not take into account efficient collection of training data for trained models.

本発明は、以上の事実を考慮して成されたもので、画像中の路上障害物の検出精度を向上させるための学習済みモデルの学習用データを効率的に収集することを目的とする。 The present invention has been made in consideration of the above facts, and an object of the present invention is to efficiently collect training data for a trained model in order to improve the accuracy of detecting road obstacles in images.

請求項1に記載の学習用データ収集装置は、予め学習された学習済みモデルを用いて画像中の路上障害物を検出する障害物検出部と、前記画像中の物体を検出する物体検出部と、車載カメラにより撮影された複数フレームの画像について、前記障害物検出部により路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ前記物体検出部により物体が検出された画像を、前記学習済みモデルの学習用データとして出力する出力部と、を備える。 The learning data collection device according to claim 1 includes: an obstacle detection unit that detects road obstacles in an image using a trained model that has been trained in advance; and an object detection unit that detects an object in the image. , among the images of a plurality of frames taken by an on-vehicle camera, which are between two images in which a road obstacle is detected by the obstacle detection unit, the road obstacle is detected in an area where the road obstacle is estimated to exist. and an output unit that outputs an image in which no road obstruction is detected and an object is detected by the object detection unit as learning data for the learned model.

請求項1に記載の学習用データ収集装置によれば、予め学習された学習済みモデルを用いて画像中の路上障害物が検出され、画像中の物体が検出される。そして、車載カメラにより撮影された複数フレームの画像について、路上障害物が検出された2つの画像の間の画像のうち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体が検出された画像が、学習済みモデルの学習用データとして出力される。従って、画像中の路上障害物の検出精度を向上させるための学習済みモデルの学習用データを効率的に収集することができる。 According to the learning data collection device according to the first aspect, a road obstacle in an image is detected using a learned model learned in advance, and an object in the image is detected. Then, among the images of multiple frames taken by the in-vehicle camera, no road obstacle is detected in the area where the road obstacle is estimated to exist between the two images in which the road obstacle was detected. , and the image in which the object is detected is output as training data for the trained model. Therefore, it is possible to efficiently collect training data for a trained model to improve the accuracy of detecting road obstacles in images.

本発明によれば、画像中の路上障害物の検出精度を向上させるための学習済みモデルの学習用データを効率的に収集することができる、という効果が得られる。 According to the present invention, it is possible to efficiently collect learning data for a trained model to improve the accuracy of detecting road obstacles in images.

学習用データ収集システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a learning data collection system. 制御装置のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of a hardware configuration of a control device. 学習済みモデルを説明するための図である。FIG. 3 is a diagram for explaining a trained model. 画像中の物体の位置を推定するための近似式を説明するための図である。FIG. 3 is a diagram for explaining an approximate expression for estimating the position of an object in an image. 近似式を算出するための測定データの一例を示す図である。It is a figure which shows an example of the measurement data for calculating an approximate formula. 制御装置の機能的な構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of a functional configuration of a control device. 実施形態に係る学習用データの収集処理を説明するための図である。FIG. 3 is a diagram for explaining learning data collection processing according to the embodiment. 学習用データとして収集される画像の一例を示す図である。It is a figure which shows an example of the image collected as data for learning. 画像保存処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of image storage processing. 学習用データ収集処理の一例を示すフローチャートである。It is a flowchart which shows an example of data collection processing for learning. 変形例に係る学習用データの収集処理を説明するための図である。FIG. 7 is a diagram for explaining a learning data collection process according to a modification.

以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

まず、図1を参照して、本実施形態に係る学習用データ収集システム10の構成を説明する。図1に示すように、学習用データ収集システム10は、情報処理装置16と、車両12に搭載された制御装置14とを含む。制御装置14及び情報処理装置16は、それぞれネットワークNに接続され、ネットワークNを介して情報の送受信が可能とされる。制御装置14の例としては、ECU(Electronic Control Unit)が挙げられ、情報処理装置16の例としては、サーバコンピュータが挙げられる。 First, with reference to FIG. 1, the configuration of a learning data collection system 10 according to the present embodiment will be described. As shown in FIG. 1, the learning data collection system 10 includes an information processing device 16 and a control device 14 mounted on a vehicle 12. The control device 14 and the information processing device 16 are each connected to a network N, and are capable of transmitting and receiving information via the network N. An example of the control device 14 is an ECU (Electronic Control Unit), and an example of the information processing device 16 is a server computer.

次に、図2を参照して、本実施形態に係る制御装置14のハードウェア構成を説明する。図2に示すように、制御装置14は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、制御装置14は、無線通信によってネットワークNに接続されるネットワークI/F(InterFace)23、及び入出力I/F24を含む。入出力I/F24には、車速センサ26及び車載カメラ27が接続される。CPU20、メモリ21、記憶部22、ネットワークI/F23、及び入出力I/F24は、バス25に接続される。制御装置14が、開示の技術に係る学習用データ収集装置の一例である。 Next, with reference to FIG. 2, the hardware configuration of the control device 14 according to this embodiment will be described. As shown in FIG. 2, the control device 14 includes a CPU (Central Processing Unit) 20, a memory 21 as a temporary storage area, and a nonvolatile storage section 22. Further, the control device 14 includes a network I/F (InterFace) 23 connected to the network N by wireless communication, and an input/output I/F 24. A vehicle speed sensor 26 and an on-vehicle camera 27 are connected to the input/output I/F 24 . The CPU 20 , memory 21 , storage section 22 , network I/F 23 , and input/output I/F 24 are connected to the bus 25 . The control device 14 is an example of a learning data collection device according to the disclosed technology.

記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、学習用データ収集プログラム30が記憶される。CPU20は、記憶部22から学習用データ収集プログラム30を読み出してからメモリ21に展開し、展開した学習用データ収集プログラム30を実行する。また、記憶部22には、学習済みモデル32及び近似式データ34が記憶される。 The storage unit 22 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. A learning data collection program 30 is stored in the storage unit 22 as a storage medium. The CPU 20 reads out the learning data collection program 30 from the storage unit 22, expands it into the memory 21, and executes the expanded learning data collection program 30. The storage unit 22 also stores a learned model 32 and approximate formula data 34.

車速センサ26は、車両12の車速を検出し、検出した車速を制御装置14に出力する。車載カメラ27は、車両12の車室内に搭載され、車両12の前方を撮影して得られた画像を制御装置14に出力する。 Vehicle speed sensor 26 detects the vehicle speed of vehicle 12 and outputs the detected vehicle speed to control device 14 . The on-vehicle camera 27 is mounted in the cabin of the vehicle 12 and outputs an image obtained by photographing the front of the vehicle 12 to the control device 14.

学習済みモデル32は、情報処理装置16による機械学習によって予め学習されたモデルであり、入力の画像中の路上障害物を検出するために使用される。制御装置14は、情報処理装置16から学習済みモデル32を取得し、取得した学習済みモデル32を記憶部22に記憶する。一例として図3に示すように、本実施形態に係る学習済みモデル32には、車載カメラ27により撮影された画像が入力される。また、学習済みモデル32は、入力された画像の画素毎に、M個の意味的ラベルのそれぞれに属する確率P(mは、1からMまでの整数)を出力する。 The learned model 32 is a model learned in advance by machine learning by the information processing device 16, and is used to detect road obstacles in the input image. The control device 14 acquires the learned model 32 from the information processing device 16 and stores the acquired learned model 32 in the storage unit 22 . As an example, as shown in FIG. 3, an image photographed by an on-vehicle camera 27 is input to the learned model 32 according to the present embodiment. The trained model 32 also outputs the probability P m (m is an integer from 1 to M) of belonging to each of the M semantic labels for each pixel of the input image.

ここでいう意味的ラベルとは、画像中の物体を表すラベルである。意味的ラベルの例としては、空、道路(例えば、舗装路及び白線等)、車両(例えば、乗用車、トラック、及び自動二輪車等)、自然(例えば、山、森林、及び街路樹等)、人工建築物(例えば、街灯、鉄柱、及びガードレール等)、及び路上障害物等が挙げられる。 The semantic label here is a label that represents an object in an image. Examples of semantic labels include sky, roads (e.g., paved roads and white lines, etc.), vehicles (e.g., cars, trucks, and motorcycles, etc.), nature (e.g., mountains, forests, roadside trees, etc.), and man-made. Examples include buildings (for example, streetlights, iron poles, guardrails, etc.), road obstacles, and the like.

近似式データ34は、1フレーム前の画像中の物体の位置を推定するために用いられる近似式を表すデータである。近似式データ34が表す近似式は、例えば、車両12を用いた実験によって予め得られる。 Approximate formula data 34 is data representing an approximate formula used to estimate the position of an object in an image one frame before. The approximate expression represented by the approximate expression data 34 is obtained in advance through an experiment using the vehicle 12, for example.

具体的には、まず、図4に示すように、路上に物体を設置し、一定の車速で車両12を物体に近づく方向に走行させながら、車載カメラ27により予め定められたフレームレートで撮影を行い、車載カメラ27により撮影された画像中の物体の移動量を測定する。以下では、画像の左右方向をx軸方向とし、上下方向をy軸方向とする。また、以下では、画像中の物体の下端部の位置を画像中の物体の位置とし、物体の位置を画像の予め定められた基準位置(例えば、画像の左上端部の位置)を原点としたy座標で表す。なお、画像中の物体の位置は、物体の下端部の位置に限定されず、例えば、物体の重心の位置を用いてもよい。 Specifically, as shown in FIG. 4, first, an object is placed on the road, and while the vehicle 12 is driven at a constant speed in a direction approaching the object, the in-vehicle camera 27 takes pictures at a predetermined frame rate. The amount of movement of the object in the image taken by the vehicle-mounted camera 27 is measured. In the following, the horizontal direction of the image will be referred to as the x-axis direction, and the vertical direction will be referred to as the y-axis direction. In addition, in the following, the position of the object in the image is defined as the position of the lower edge of the object in the image, and the position of the object is defined as the origin at a predetermined reference position of the image (for example, the position of the upper left edge of the image). Expressed in y coordinate. Note that the position of the object in the image is not limited to the position of the lower end of the object, and for example, the position of the center of gravity of the object may be used.

このように測定されたn-1フレーム目の画像中の物体の位置、nフレーム目の画像中の物体の位置、及び測定時の車速の一例を図5に示す。図5の例では、50km/h及び100km/hのそれぞれの車速で車両12を走行させながら、6フレーム(すなわち、n=2~6)の画像を10fps(frames per second)で車載カメラ27により撮影した際の各画像中の物体の位置を示している。 FIG. 5 shows an example of the position of the object in the n-1th frame image, the position of the object in the nth frame image, and the vehicle speed at the time of measurement, which are measured in this way. In the example of FIG. 5, while the vehicle 12 is running at vehicle speeds of 50 km/h and 100 km/h, 6 frames (that is, n=2 to 6) of images are captured by the on-vehicle camera 27 at 10 fps (frames per second). It shows the position of the object in each image when it was taken.

以上の測定結果から、最小二乗法等の近似手法によって、以下の(1)式で表される近似式が算出される。(1)式におけるa及びaは係数であり、bは定数である。また、(1)式におけるxはnフレーム目の画像中の物体の位置を表す変数であり、xは車速を表す変数であり、yはn-1フレーム目の画像中の物体の位置を表す変数である。
y=a×x+a×x+b・・・(1)
From the above measurement results, an approximate expression expressed by the following equation (1) is calculated by an approximation method such as the least squares method. In equation (1), a 1 and a 2 are coefficients, and b is a constant. Furthermore, in equation (1), x 1 is a variable representing the position of the object in the n-th frame image, x 2 is a variable representing the vehicle speed, and y is the position of the object in the n-1 frame image. This is a variable that represents
y=a 1 ×x 1 +a 2 ×x 2 +b...(1)

図5の測定結果から実際に算出された近似式を、以下の(2)式に示す。
y=0.555449×x-0.0795×x+9.024482・・・(2)
The approximate equation actually calculated from the measurement results in FIG. 5 is shown in equation (2) below.
y=0.555449×x 1 -0.0795×x 2 +9.024482...(2)

近似式データ34は、以上のように算出された近似式を表すデータである。従って、近似式データ34が表す近似式を用いて、nフレーム目の画像中の物体の位置及び車速から、n-1フレーム目の画像中の物体の位置を推定することができる。なお、本実施形態では、車載カメラ27のフレームレートを固定値とする例を説明するが、これに限定されない。例えば、車載カメラ27のフレームレートの設定値をユーザが変更可能な場合は、設定可能なフレームレート毎に近似式を予め算出しておけばよい。 The approximate formula data 34 is data representing the approximate formula calculated as described above. Therefore, using the approximate expression represented by the approximate expression data 34, the position of the object in the n-1st frame image can be estimated from the position of the object in the nth frame image and the vehicle speed. Note that in this embodiment, an example will be described in which the frame rate of the vehicle-mounted camera 27 is a fixed value, but the frame rate is not limited to this. For example, if the user can change the set value of the frame rate of the in-vehicle camera 27, an approximate expression may be calculated in advance for each settable frame rate.

次に、図6を参照して、本実施形態に係る制御装置14の機能的な構成を説明する。図6に示すように、制御装置14は、取得部40、障害物検出部42、物体検出部44、判定部46、及び出力部48を含む。制御装置14のCPU20が記憶部22に記憶された学習用データ収集プログラム30を実行することにより、図6に示す取得部40、障害物検出部42、物体検出部44、判定部46、及び出力部48として機能する。 Next, with reference to FIG. 6, the functional configuration of the control device 14 according to this embodiment will be described. As shown in FIG. 6, the control device 14 includes an acquisition section 40, an obstacle detection section 42, an object detection section 44, a determination section 46, and an output section 48. By executing the learning data collection program 30 stored in the storage unit 22 by the CPU 20 of the control device 14, the acquisition unit 40, obstacle detection unit 42, object detection unit 44, determination unit 46, and output shown in FIG. 48.

取得部40は、車速センサ26により検出された車速を取得する。また、取得部40は、車載カメラ27により撮影された画像を取得する。 The acquisition unit 40 acquires the vehicle speed detected by the vehicle speed sensor 26. Further, the acquisition unit 40 acquires an image photographed by the in-vehicle camera 27.

障害物検出部42は、学習済みモデル32を用いて、取得部40により取得された画像中の路上障害物を検出する。具体的には、障害物検出部42は、取得部40により取得された画像を学習済みモデル32に対して入力する。この入力に対応して、学習済みモデル32からは、入力された画像の画素毎に、M個の意味的ラベルのそれぞれに属する確率Pが出力される。 The obstacle detection unit 42 uses the learned model 32 to detect road obstacles in the image acquired by the acquisition unit 40 . Specifically, the obstacle detection unit 42 inputs the image acquired by the acquisition unit 40 to the learned model 32. In response to this input, the trained model 32 outputs a probability P m of belonging to each of the M semantic labels for each pixel of the input image.

また、障害物検出部42は、取得部40により取得された画像をN個の局所領域S(nは、1からNまでの整数)に分割する。この分割処理は、スーパーピクセル化処理とも呼ばれる。それぞれの局所領域は連続した領域であり、かつ内部の各点の特徴量が互いに類似する領域である。特徴量としては、色と輝度、エッジ強度、又はテクスチャ等を用いることができる。局所領域は、前景と背景との境界を跨がない領域とも表現できる。 Further, the obstacle detection unit 42 divides the image acquired by the acquisition unit 40 into N local areas S n (n is an integer from 1 to N). This division process is also called superpixelization process. Each local area is a continuous area, and the feature amounts of each point inside are similar to each other. As the feature amount, color, brightness, edge strength, texture, etc. can be used. The local area can also be expressed as an area that does not straddle the boundary between the foreground and the background.

障害物検出部42は、画像を分割して得られた局所領域Sと、学習済みモデル32から出力された確率Pとに基づいて、画像のi(iは、1からNまでの整数)番目の局所領域Sにおける路上障害物らしさLを算出する。そして、障害物検出部42は、算出した路上障害物Lらしさに基づいて、取得部40により取得された画像中の路上障害物を検出する。以上の障害物検出部42による学習済みモデル32を用いた路上障害物の検出処理の詳細は、特開2018-194912号公報に開示されているため、これ以上の詳細な説明を省略する。 The obstacle detection unit 42 determines i (i is an integer from 1 to N) of the image based on the local area S n obtained by dividing the image and the probability P m output from the learned model 32. )-th local area S i , the road obstacle likelihood L i is calculated. Then, the obstacle detection unit 42 detects the road obstacle in the image acquired by the acquisition unit 40 based on the calculated likelihood of the road obstacle L i . Details of the road obstacle detection process using the learned model 32 by the obstacle detection unit 42 described above are disclosed in Japanese Patent Application Laid-Open No. 2018-194912, so further detailed explanation will be omitted.

物体検出部44は、取得部40により取得された画像に対して公知の物体検出処理を行うことによって、取得部40により取得された画像中の物体を検出する。この物体検出処理の例としては、Faster R-CNN(Regions with Convolutional Neural Networks)、YOLO(You Only Look Once)、又はSSD(Single Shot Multibox Detector)等が挙げられる。すなわち、物体検出部44は、路上障害物であるか否かを考慮せずに、取得部40により取得された画像中の物体を検出する。これに対し、前述した障害物検出部42は、取得部40により取得された画像中の物体のうち、路上障害物を検出する。 The object detection unit 44 detects an object in the image acquired by the acquisition unit 40 by performing a known object detection process on the image acquired by the acquisition unit 40. Examples of this object detection processing include Faster R-CNN (Regions with Convolutional Neural Networks), YOLO (You Only Look Once), and SSD (Single Shot Multibox Detector). That is, the object detection unit 44 detects the object in the image acquired by the acquisition unit 40 without considering whether it is an obstacle on the road. On the other hand, the aforementioned obstacle detection section 42 detects road obstacles among the objects in the image acquired by the acquisition section 40.

判定部46は、取得部40により取得された連続する複数フレームの画像について、障害物検出部42により路上障害物が検出された2つの画像の間の画像において、以下の判定を行う。判定部46は、上記2つの画像の間の画像において、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体検出部44により物体が検出された画像が存在するか否かを判定する。 The determining unit 46 performs the following determination on an image between two images in which an obstacle on the road is detected by the obstacle detecting unit 42 with respect to a plurality of consecutive frames of images acquired by the acquiring unit 40. The determining unit 46 determines that in the image between the two images, there is an image in which no road obstacle is detected within the area where the road obstacle is estimated to exist, and an object is detected by the object detection unit 44. Determine whether or not.

図7を参照して、判定部46による判定処理の詳細を説明する。図7に示すように、ここでは、説明の分かりやすさのために、連続する3フレームの画像を例に挙げ、各フレームの画像を区別するために、各フレームの画像に1~3の番号を付して説明する。 With reference to FIG. 7, details of the determination processing by the determination unit 46 will be described. As shown in FIG. 7, for the sake of ease of explanation, three consecutive frames of images will be taken as an example, and in order to distinguish between each frame image, each frame image will be numbered 1 to 3. I will explain it by attaching it.

また、図7における「y座標」は、フレーム番号が1~3の画像について、障害物検出部42による路上障害物の検出結果、及び物体検出部44による物体の検出結果を示している。具体的には、図7の「路上障害物」の「y座標」の数値は、障害物検出部42により検出された路上障害物の下端部のy座標を示す。また、図7の「物体」の「y座標」の数値は、物体検出部44により検出された物体の下端部のy座標を示す。また、図7の「y座標」が「-」の箇所は、そのフレーム番号の画像について、路上障害物又は物体が検出されなかったことを表す。すなわち、図7の例では、フレーム番号が1、3の画像については、障害物検出部42により路上障害物が検出され、かつ物体検出部44により物体が検出されたことを表している。また、図7の例では、フレーム番号が2の画像については、障害物検出部42により路上障害物が検出されず、かつ物体検出部44により物体が検出されたことを表している。 Further, "y coordinate" in FIG. 7 indicates the detection results of road obstacles by the obstacle detection unit 42 and the detection results of objects by the object detection unit 44 for images with frame numbers 1 to 3. Specifically, the value of the "y coordinate" of the "road obstacle" in FIG. 7 indicates the y coordinate of the lower end of the road obstacle detected by the obstacle detection unit 42. Further, the numerical value of "y coordinate" of "object" in FIG. 7 indicates the y coordinate of the lower end of the object detected by the object detection unit 44. In addition, a location where the "y coordinate" in FIG. 7 is "-" indicates that no road obstacle or object was detected for the image of that frame number. That is, in the example of FIG. 7, images with frame numbers 1 and 3 indicate that the obstacle detection section 42 has detected an obstacle on the road, and the object detection section 44 has detected an object. Furthermore, in the example of FIG. 7, the image with the frame number 2 indicates that the obstacle detection section 42 did not detect an obstacle on the road, and the object detection section 44 detected an object.

判定部46は、路上障害物が検出された画像について、路上障害物のy座標と、その画像の撮影時に取得部40により取得された車速と、を用いて、近似式データ34が表す上記(1)式に従って、1フレーム前の画像中の路上障害物のy座標の推定値を算出する。同様に、判定部46は、物体が検出された画像について、物体のy座標と、その画像の撮影時に取得部40により取得された車速と、を用いて、上記(1)式に従って、1フレーム前の画像中の物体のy座標の推定値を算出する。図7の例における「1フレーム前のy座標」は、このように算出されたy座標の推定値を表している。 The determination unit 46 uses the y-coordinate of the road obstacle and the vehicle speed acquired by the acquisition unit 40 at the time of photographing the image to determine the above (( 1) According to the equation, an estimated value of the y-coordinate of the road obstacle in the image one frame before is calculated. Similarly, for the image in which the object is detected, the determination unit 46 uses the y-coordinate of the object and the vehicle speed acquired by the acquisition unit 40 at the time of photographing the image to determine one frame according to the above equation (1). Compute an estimate of the y-coordinate of the object in the previous image. The "y coordinate of one frame before" in the example of FIG. 7 represents the estimated value of the y coordinate calculated in this way.

また、判定部46は、路上障害物が検出された画像について、「1フレーム前のy座標」と、1フレーム前の画像の「y座標」との差の絶対値が、予め定められた閾値TH1(例えば、「1」)以下である場合に、その画像と1フレーム前の画像との対応が有ると判定する。同様に、判定部46は、物体が検出された画像について、「1フレーム前のy座標」と、1フレーム前の画像の「y座標」との差の絶対値が、閾値TH1以下である場合に、その画像と1フレーム前の画像との対応が有ると判定する。図7の例における「対応有無」は、このように判定された対応の有無を表している。すなわち、図7の例では、路上障害物については各フレームの画像間で対応が無く、物体についてはフレーム番号が1と2の画像間、及びフレーム番号が2と3の画像間で対応が有ることを表している。図7の例では、判定部46は、3個の連続するフレームの画像から検出された物体は、同じ物体であると判定する。なお、物体検出部44が、検出した物体の物体名も検出可能な場合、判定部46は、物体の「y座標」が対応していることに加えて、更に検出された物体名が同じである場合に、同じ物体であると判定してもよい。 Further, the determination unit 46 determines that the absolute value of the difference between the "y coordinate of one frame before" and the "y coordinate" of the image one frame before is a predetermined threshold value for the image in which the road obstacle has been detected. If it is less than or equal to TH1 (for example, "1"), it is determined that there is a correspondence between the image and the image one frame before. Similarly, for the image in which the object is detected, if the absolute value of the difference between the "y-coordinate of one frame before" and the "y-coordinate" of the image one frame before is less than or equal to the threshold value TH1, , it is determined that there is a correspondence between that image and the image one frame before. “Compatibility/Presence/Presence” in the example of FIG. 7 represents the presence/absence of correspondence determined in this way. That is, in the example of FIG. 7, there is no correspondence between the images of each frame for obstacles on the road, and there is correspondence for objects between the images with frame numbers 1 and 2, and between the images with frame numbers 2 and 3. It represents that. In the example of FIG. 7, the determining unit 46 determines that the objects detected from the images of three consecutive frames are the same object. Note that if the object detection unit 44 can also detect the object name of the detected object, the determination unit 46 determines that not only the “y coordinates” of the objects correspond but also that the detected object names are the same. In some cases, it may be determined that they are the same object.

また、判定部46は、各フレームの画像について、路上障害物のy座標と物体のy座標との差の絶対値が、予め定められた閾値TH2(例えば、「2」)以下の場合、路上障害物と物体とが対応していると判定する。すなわち、図7の例では、判定部46は、フレーム番号が1の画像及び3の画像のそれぞれについて、検出された路上障害物と物体とが対応していると判定する。そして、判定部46は、フレーム番号が2の画像については、検出された物体に対応するエリア、すなわち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されていないと判定する。 Further, for each frame image, if the absolute value of the difference between the y-coordinate of the road obstacle and the y-coordinate of the object is less than or equal to a predetermined threshold TH2 (for example, "2"), the determination unit 46 determines that It is determined that the obstacle and the object correspond. That is, in the example of FIG. 7, the determination unit 46 determines that the detected road obstacle and object correspond to each other in the image with frame number 1 and the image with frame number 3. For the image with frame number 2, the determination unit 46 determines that no road obstacle is detected in the area corresponding to the detected object, that is, the area where the road obstacle is estimated to exist. .

以上の処理により、判定部46は、連続する複数フレームの画像について、路上障害物が検出された2つの画像(図7の例では、フレーム番号が1の画像と3の画像)の間の画像(図7の例では、フレーム番号が2の画像)において、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体検出部44により物体が検出された画像が存在するか否かを判定する。なお、判定部46は、連続する複数フレームの画像として4つ以上の画像を用いてもよい。また、車両12の車速が遅いほど、同じ物体が写る画像数は多くなると考えられる。そこで、判定部46は、車両12の車速が遅いほど、連続する複数フレームの画像として多い枚数の画像を用いてもよい。 Through the above processing, the determination unit 46 determines whether the image between two images in which a road obstacle has been detected (in the example of FIG. 7, the image with frame number 1 and the image with frame number 3) is (In the example of FIG. 7, the image with frame number 2), there is an image in which no road obstacle is detected and an object is detected by the object detection unit 44 within the area where the road obstacle is estimated to exist. Determine whether or not to do so. Note that the determination unit 46 may use four or more images as images of a plurality of consecutive frames. Furthermore, it is considered that the slower the vehicle speed of the vehicle 12, the greater the number of images showing the same object. Therefore, the determination unit 46 may use a larger number of images as images of a plurality of consecutive frames as the vehicle speed of the vehicle 12 is lower.

出力部48は、判定部46により上記2つの画像の間に存在すると判定された画像を、学習済みモデル32の学習用データとして出力する。本実施形態では、出力部48は、判定部46により上記2つの画像の間に存在すると判定された画像を、学習済みモデル32の学習用データとして、ネットワークNを介して情報処理装置16に出力(すなわち、送信)する。 The output unit 48 outputs the image determined by the determination unit 46 to exist between the two images as learning data for the trained model 32. In the present embodiment, the output unit 48 outputs the image determined by the determination unit 46 to exist between the two images to the information processing device 16 via the network N as learning data for the trained model 32. (i.e. send).

判定部46により、上記2つの画像の間に存在すると判定された画像は、検出された物体が、路上障害物である可能性が比較的高いにもかかわらず、障害物検出部42により路上障害物として検出されなかった画像である。この画像は、具体的な一例として図8に示すフレームnの画像である。図8の例では、フレームn-1、n+1の画像では、車線変更を指示する物体(矩形の破線で囲まれた物体)が路上障害物及び物体として検出されている。これに対し、フレームnの画像では、車線変更を指示する物体が物体としては検出されているが、路上障害物としては検出されていない。従って、このような画像を用いて学習済みモデル32を更に学習させて更新することによって、学習済みモデル32を用いた画像中の路上障害物の検出精度が向上する。 An image determined by the determination unit 46 to exist between the above two images has a relatively high possibility that the detected object is an obstacle on the road, but the obstacle detection unit 42 determines that the detected object is an obstacle on the road. This is an image that was not detected as an object. This image is the image of frame n shown in FIG. 8 as a specific example. In the example of FIG. 8, in the images of frames n-1 and n+1, an object instructing a lane change (an object surrounded by a rectangular broken line) is detected as a road obstacle and object. On the other hand, in the image of frame n, an object instructing a lane change is detected as an object, but is not detected as a road obstacle. Therefore, by further learning and updating the trained model 32 using such images, the accuracy of detecting road obstacles in images using the trained model 32 is improved.

次に、図9及び図10を参照して、本実施形態に係る制御装置14の作用について説明する。なお、図9は、制御装置14のCPU20により実行される画像保存処理の流れの一例を示すフローチャートである。また、図10は、制御装置14のCPU20により実行される学習用データ収集処理の流れの一例を示すフローチャートである。図9に示す画像保存処理及び図10に示す学習用データ収集処理は、記憶部22に記憶された学習用データ収集プログラム30をCPU20が実行することにより実行される。図9に示す画像保存処理は、例えば、車載カメラ27のフレームレートに応じた撮影の時間間隔毎に実行される。また、図10に示す学習用データ収集処理は、1時間に1回等の定期的なタイミングに実行される。なお、図10に示す学習用データ収集処理は、図9に示す画像保存処理により所定数(例えば、100枚)の画像が記憶部22に記憶される毎に実行されてもよいし、車載カメラ27により画像が撮影される毎に実行されてもよい。 Next, the operation of the control device 14 according to this embodiment will be explained with reference to FIGS. 9 and 10. Note that FIG. 9 is a flowchart showing an example of the flow of image saving processing executed by the CPU 20 of the control device 14. Further, FIG. 10 is a flowchart showing an example of the flow of the learning data collection process executed by the CPU 20 of the control device 14. The image storage process shown in FIG. 9 and the learning data collection process shown in FIG. 10 are executed by the CPU 20 executing the learning data collection program 30 stored in the storage unit 22. The image storage process shown in FIG. 9 is executed, for example, at every time interval of shooting according to the frame rate of the vehicle-mounted camera 27. Further, the learning data collection process shown in FIG. 10 is executed at regular timing, such as once every hour. Note that the learning data collection process shown in FIG. 10 may be executed each time a predetermined number (for example, 100 images) of images are stored in the storage unit 22 by the image storage process shown in FIG. 27 may be executed each time an image is taken.

図9のステップS10で、取得部40は、車載カメラ27により撮影された画像を取得する。ステップS12で、取得部40は、車速センサ26により検出された車速を取得する。ステップS14で、取得部40は、ステップS10で取得した画像と、ステップS12で取得した車速とを対応付けて記憶部22に記憶する。ステップS14の処理が終了すると、画像保存処理が終了する。 In step S10 of FIG. 9, the acquisition unit 40 acquires an image photographed by the vehicle-mounted camera 27. In step S12, the acquisition unit 40 acquires the vehicle speed detected by the vehicle speed sensor 26. In step S14, the acquisition unit 40 stores the image acquired in step S10 and the vehicle speed acquired in step S12 in the storage unit 22 in association with each other. When the process of step S14 ends, the image saving process ends.

図10のステップS20で、障害物検出部42は、前述したように、学習済みモデル32を用いて、上記の画像保存処理により記憶部22に記憶された全ての画像中の路上障害物を検出する。ステップS22で、物体検出部44は、前述したように、上記の画像保存処理により記憶部22に記憶された全ての画像に対して公知の物体検出処理を行うことによって、記憶部22に記憶された全ての画像中の物体を検出する。 In step S20 of FIG. 10, the obstacle detection unit 42 uses the learned model 32 to detect road obstacles in all images stored in the storage unit 22 through the image storage process described above. do. In step S22, the object detection unit 44 performs a known object detection process on all images stored in the storage unit 22 through the image storage process described above, so that the images stored in the storage unit 22 are not stored in the storage unit 22. Detect objects in all images.

ステップS24で、判定部46は、前述したように、上記の画像保存処理により記憶部22に記憶された全ての画像における連続する複数フレームの画像について、障害物検出部42により路上障害物が検出された2つの画像の間の画像において、以下の判定を行う。判定部46は、上記2つの画像の間の画像において、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体検出部44により物体が検出された画像が存在するか否かを判定する。判定部46は、上記の画像保存処理により記憶部22に記憶された全ての画像における連続する複数フレーム(例えば、3フレーム)の全組合せについて上記の判定を行う。この判定が否定判定となった場合は、学習用データ収集処理が終了し、肯定判定となった場合は、処理はステップS26に移行する。 In step S24, the determination unit 46 determines, as described above, that the obstacle detection unit 42 detects an obstacle on the road with respect to consecutive frames of all images stored in the storage unit 22 through the image storage process described above. The following determination is made on the image between the two images obtained. The determining unit 46 determines that in the image between the two images, there is an image in which no road obstacle is detected within the area where the road obstacle is estimated to exist, and an object is detected by the object detection unit 44. Determine whether or not. The determination unit 46 performs the above determination for all combinations of consecutive frames (for example, three frames) in all images stored in the storage unit 22 through the image storage process described above. If this determination is negative, the learning data collection process ends, and if this determination is affirmative, the process moves to step S26.

ステップS26で、出力部48は、前述したように、ステップS24の処理により上記2つの画像の間に存在すると判定された画像を、学習済みモデル32の学習用データとして情報処理装置16に出力する。ステップS26の処理が終了すると、学習用データ収集処理が終了する。 In step S26, the output unit 48 outputs the image determined to exist between the above two images by the processing in step S24 to the information processing device 16 as learning data for the trained model 32, as described above. . When the process of step S26 is finished, the learning data collection process is finished.

ステップS26の処理により制御装置14から学習用データとして送信された画像は、情報処理装置16により受信される。ユーザは、情報処理装置16が受信した画像における障害物検出部42により検出されなかった路上障害物に、路上障害物という意味的ラベルを付与する。情報処理装置16は、自装置の記憶部に記憶された学習済みモデル32を、ユーザにより意味的ラベルが付与された画像を用いて学習させることによって更新する。情報処理装置16は、更新した学習済みモデル32を制御装置14に送信する。制御装置14は、情報処理装置16から送信された新たな学習済みモデル32によって記憶部22の学習済みモデル32を更新する。これにより、学習済みモデル32を用いた路上障害物の検出精度が向上する。 The image transmitted as learning data from the control device 14 through the process of step S26 is received by the information processing device 16. The user assigns a semantic label of "road obstacle" to a road obstacle that is not detected by the obstacle detection unit 42 in the image received by the information processing device 16. The information processing device 16 updates the trained model 32 stored in its own storage unit by training it using images to which semantic labels have been added by the user. The information processing device 16 transmits the updated learned model 32 to the control device 14. The control device 14 updates the learned model 32 in the storage unit 22 with the new learned model 32 transmitted from the information processing device 16. This improves the accuracy of detecting obstacles on the road using the learned model 32.

以上説明したように、本実施形態によれば、複数フレームの画像について、路上障害物が検出された2つの画像の間の画像のうち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体が検出された画像を、学習済みモデル32の学習用データとして出力する。従って、画像中の路上障害物の検出精度を向上させるための学習済みモデル32の学習用データを効率的に収集することができる。 As explained above, according to the present embodiment, for images of multiple frames, among images between two images in which a road obstacle is detected, a road obstacle is detected in an area where a road obstacle is estimated to exist. Images in which no object is detected and in which the object is detected are output as learning data for the trained model 32. Therefore, it is possible to efficiently collect learning data for the trained model 32 to improve the accuracy of detecting road obstacles in images.

なお、上記実施形態では、路上障害物が検出された2つの画像の間の画像のうち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体が検出された画像を、学習済みモデル32の学習用データとして出力する場合について説明したが、これに限定されない。例えば、図11に示すように、物体が検出された2つの画像の間の画像のうち、物体が存在すると推定されるエリア内に物体が検出されず、かつ路上障害物が検出された画像を、物体検出部44が物体の検出に用いる学習済みモデルの学習用データとして出力する形態としてもよい。この場合、図11におけるフレーム番号が2の画像が学習用データとして収集される。なお、図11における各項目は図7と同様である。 Note that in the above embodiment, among images between two images in which a road obstacle is detected, no road obstacle is detected in an area where a road obstacle is estimated to exist, and an object is detected. Although a case has been described in which an image is output as learning data for the learned model 32, the present invention is not limited to this. For example, as shown in FIG. 11, among the images between two images in which an object is detected, an image in which no object is detected in the area where the object is estimated to exist and an obstacle on the road is detected. , the object detection unit 44 may output it as learning data of a trained model used for object detection. In this case, the image with frame number 2 in FIG. 11 is collected as learning data. Note that each item in FIG. 11 is the same as in FIG. 7.

また、上記実施形態において、制御装置14が障害物検出部42及び物体検出部44の何れかを備えてもよい。この場合、制御装置14が備える何れかの機能部による検出結果が安定しない場合に、物体又は路上障害物が検出されなかった画像を学習用データとして出力する形態が例示される。また、物体検出部44が、更に物体名を検出してもよい。この場合、物体検出部44が、連続する複数フレームの画像のそれぞれについて検出した物体が対応する物体ではあるが、物体名が異なる場合に、各フレームの画像を物体検出部44が物体の検出に用いる学習済みモデルの学習用データとして出力する形態が例示される。 Further, in the embodiment described above, the control device 14 may include either the obstacle detection section 42 or the object detection section 44. In this case, when the detection result by any of the functional units included in the control device 14 is unstable, an example is illustrated in which an image in which no object or road obstacle is detected is output as learning data. Further, the object detection unit 44 may further detect the object name. In this case, if the object detected by the object detection unit 44 in each of the images of a plurality of consecutive frames is a corresponding object, but the object name is different, the object detection unit 44 uses the image of each frame to detect the object. An example is a form in which the data is output as learning data of a trained model to be used.

また、上記実施形態では、1フレーム前の画像における物体の位置の推定に、y軸方向の物体の移動量を用いた場合について説明したが、これに限定されない。例えば、1フレーム前の画像における物体の位置の推定に、x軸方向の物体の移動量を加えてもよい。この場合のy軸方向及びx軸方向の物体の移動量は、例えば、ヨーレート及び車速から算出することができる。 Further, in the above embodiment, a case has been described in which the amount of movement of the object in the y-axis direction is used to estimate the position of the object in the image one frame before, but the present invention is not limited to this. For example, the amount of movement of the object in the x-axis direction may be added to the estimation of the position of the object in the image one frame before. In this case, the amount of movement of the object in the y-axis direction and the x-axis direction can be calculated from, for example, the yaw rate and the vehicle speed.

また、上記実施形態におけるCPU20により行われる処理は、プログラムを実行することにより行われるソフトウェア処理として説明したが、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)及びFPGA(Field-Programmable Gate Array)等のハードウェアで行われる処理としてもよい。また、CPU20により行われる処理は、ソフトウェア及びハードウェアの双方を組み合わせて行われる処理としてもよい。また、記憶部22に記憶される学習用データ収集プログラム30は、各種記憶媒体に記憶して流通させてもよい。 Further, the processing performed by the CPU 20 in the above embodiment has been described as software processing performed by executing a program, but it is also possible to use GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), and FPGA (Field-Programmable Gate Array). ) etc. may be performed by hardware. Furthermore, the processing performed by the CPU 20 may be performed using a combination of both software and hardware. Further, the learning data collection program 30 stored in the storage unit 22 may be stored in various storage media and distributed.

また、本発明は、上記の形態例に限定されるものではなく、上記の形態例以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。 Further, the present invention is not limited to the above embodiments, and it goes without saying that various modifications can be made in addition to the above embodiments without departing from the spirit thereof.

10 学習用データ収集システム
12 車両
14 制御装置(学習用データ収集装置)
16 情報処理装置
20 CPU(障害物検出部、物体検出部、出力部)
30 学習用データ収集プログラム
32 学習済みモデル
40 取得部
42 障害物検出部
44 物体検出部
46 判定部
48 出力部
10 Learning data collection system 12 Vehicle 14 Control device (learning data collection device)
16 Information processing device 20 CPU (obstacle detection section, object detection section, output section)
30 Learning data collection program 32 Learned model 40 Acquisition unit 42 Obstacle detection unit 44 Object detection unit 46 Determination unit 48 Output unit

Claims (7)

更新された学習済みモデルを用いて、路上障害物を検出する障害物検出部を含み、
前記更新された学習済みモデルは、車載カメラにより撮影された複数フレームの画像について、予め学習された学習済みモデルを用いた前記画像中の路上障害物の検出及び前記画像中の物体の検出において、前記路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ前記物体が検出された画像を、学習用データとして用いて更新されている、制御装置。
includes an obstacle detection unit that detects obstacles on the road using the updated trained model;
The updated trained model detects road obstacles in the images and objects in the images using a trained model trained in advance for multiple frames of images taken by an on-vehicle camera. Among the images between the two images in which the road obstacle is detected, an image in which the road obstacle is not detected and the object is detected in an area where the road obstacle is estimated to exist, A control device that is updated using learning data .
予め学習された学習済みモデルを用いて画像中の路上障害物を検出すると共に、
前記画像中の物体を検出し、
車載カメラにより撮影された複数フレームの画像について、前記路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ前記物体が検出された画像を、前記学習済みモデルの学習用データとして、前記学習済みモデルを更新する、
処理をコンピュータが実行する学習済みモデルの更新方法。
Detect road obstacles in images using a trained model that has been trained in advance, and
detecting an object in the image;
Of a plurality of frames of images taken by an in-vehicle camera, the road obstacle is detected within an area where the road obstacle is estimated to exist, among images between two images in which the road obstacle is detected. and updating the trained model using the image in which the object is detected as training data for the trained model.
A method for updating trained models in which processing is performed by a computer.
予め学習された学習済みモデルを用いて画像中の路上障害物を検出する障害物検出部と、
前記画像中の物体を検出する物体検出部と、
車載カメラにより撮影された複数フレームの画像について、前記路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ前記物体検出部により前記物体が検出された画像を、前記学習済みモデルの学習用データとして出力する出力部と、
を備えた学習用データ収集装置。
an obstacle detection unit that detects road obstacles in an image using a trained model that has been trained in advance;
an object detection unit that detects an object in the image;
Of a plurality of frames of images taken by an in-vehicle camera, the road obstacle is detected within an area where the road obstacle is estimated to exist, among images between two images in which the road obstacle is detected. an output unit that outputs an image in which the object is detected by the object detection unit as learning data for the learned model;
A learning data collection device equipped with
予め学習された学習済みモデルを用いて画像中の路上障害物を検出する障害物検出部と、
前記画像中の物体を検出する物体検出部と、
車載カメラにより撮影された複数フレームの画像について、前記路上障害物が検出された2つの画像の間の画像のうち、前記物体が存在すると推定されるエリア内に前記物体が検出されず、かつ前記路上障害物が検出された画像を、前記学習済みモデルの学習用データとして出力する出力部と、
を備えた学習用データ収集装置。
an obstacle detection unit that detects road obstacles in an image using a trained model that has been trained in advance;
an object detection unit that detects an object in the image;
Regarding multiple frames of images taken by an in-vehicle camera, the object is not detected within the area where the object is estimated to exist among the images between the two images in which the road obstacle is detected, and the object is an output unit that outputs an image in which a road obstacle is detected as learning data for the learned model;
A learning data collection device equipped with
前記障害物検出部は、前記画像を分割して得られた局所領域Sと、前記学習済みモデルから出力された確率Pとに基づいて、画像のi番目の局所領域Sにおける路上障害物らしさLを算出することにより、前記路上障害物を検出する請求項3又は請求項4に記載の学習用データ収集装置。 The obstacle detection unit detects a road obstacle in the i-th local region S i of the image based on the local region S n obtained by dividing the image and the probability P m output from the learned model. The learning data collection device according to claim 3 or 4 , wherein the road obstacle is detected by calculating the object-likeness L i . 前記車載カメラを搭載した車両の車速が遅いほど、連続する複数フレームの画像を多い枚数を用いて、前記2つの画像の間の画像のうちから、前記学習用データとする画像を得る請求項3~請求項5の何れか1項に記載の学習用データ収集装置。 3. The slower the vehicle speed of the vehicle equipped with the in-vehicle camera is, the larger the number of consecutive frames is used to obtain the image to be used as the learning data from among the images between the two images. - The data collection device for learning according to any one of claims 5 to 6. 車載カメラにより撮影された複数フレームの画像について、路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ物体が検出された画像を、前記路上障害物のデータとして出力する出力部、
を備えた障害物データ収集装置。
Among multiple frames of images taken by an on-vehicle camera, the road obstacle is not detected within an area where the road obstacle is estimated to exist among the images between two images in which the road obstacle is detected. , and an output unit that outputs an image in which the object is detected as data of the road obstacle;
Obstacle data collection device with.
JP2019174028A 2019-09-25 2019-09-25 Learning data collection device Active JP7383954B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019174028A JP7383954B2 (en) 2019-09-25 2019-09-25 Learning data collection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174028A JP7383954B2 (en) 2019-09-25 2019-09-25 Learning data collection device

Publications (3)

Publication Number Publication Date
JP2021051542A JP2021051542A (en) 2021-04-01
JP2021051542A5 JP2021051542A5 (en) 2022-07-21
JP7383954B2 true JP7383954B2 (en) 2023-11-21

Family

ID=75158245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019174028A Active JP7383954B2 (en) 2019-09-25 2019-09-25 Learning data collection device

Country Status (1)

Country Link
JP (1) JP7383954B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114343641A (en) * 2022-01-24 2022-04-15 广州熠华教育咨询服务有限公司 Learning difficulty intervention training guidance method and system thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102838A (en) 2015-12-04 2017-06-08 トヨタ自動車株式会社 Database construction system for article recognition algorism machine-learning
JP2018194912A (en) 2017-05-12 2018-12-06 トヨタ自動車株式会社 Obstacle on-road detection device, method and program
JP2019159659A (en) 2018-03-12 2019-09-19 パナソニックIpマネジメント株式会社 Information processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102838A (en) 2015-12-04 2017-06-08 トヨタ自動車株式会社 Database construction system for article recognition algorism machine-learning
JP2018194912A (en) 2017-05-12 2018-12-06 トヨタ自動車株式会社 Obstacle on-road detection device, method and program
JP2019159659A (en) 2018-03-12 2019-09-19 パナソニックIpマネジメント株式会社 Information processing device

Also Published As

Publication number Publication date
JP2021051542A (en) 2021-04-01

Similar Documents

Publication Publication Date Title
JP7467485B2 (en) Generating ground truth for machine learning from time series elements
JP6307356B2 (en) Driving context information generator
EP4152204A1 (en) Lane line detection method, and related apparatus
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
CN113044059A (en) Safety system for a vehicle
US11631326B2 (en) Information providing system, server, onboard device, vehicle, storage medium, and information providing method
CN109977776B (en) Lane line detection method and device and vehicle-mounted equipment
JP7078021B2 (en) Object detection device, object detection method and computer program for object detection
JP4670805B2 (en) Driving support device and program
JP2018081545A (en) Image data extraction device and image data extraction method
CN106326866B (en) Early warning method and device for vehicle collision
KR102195317B1 (en) Method for Predicting Vehicle Collision Using Data Collected from Video Games
KR102011231B1 (en) Image processing apparatus and image processing method
JP7383954B2 (en) Learning data collection device
WO2018138782A1 (en) Information processing device, feature point extraction program, and feature point extraction method
CN111126327A (en) Lane line detection method and system, vehicle-mounted system and vehicle
CN112735163B (en) Method for determining static state of target object, road side equipment and cloud control platform
JP2020126432A (en) Image processing system and image processing method
CN109300313B (en) Illegal behavior detection method, camera and server
US20230169797A1 (en) Traffic hand signal detection system and method thereof
CN110705495A (en) Detection method and device for vehicle, electronic equipment and computer storage medium
CN116524454A (en) Object tracking device, object tracking method, and storage medium
CN115909241A (en) Lane line detection method, system, electronic device and storage medium
CN114973205A (en) Traffic light tracking method and device and unmanned automobile
JP2000242797A (en) Method for detecting movement of image and object detecting device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R151 Written notification of patent or utility model registration

Ref document number: 7383954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151