JP2021051542A - Learning data collection device - Google Patents

Learning data collection device Download PDF

Info

Publication number
JP2021051542A
JP2021051542A JP2019174028A JP2019174028A JP2021051542A JP 2021051542 A JP2021051542 A JP 2021051542A JP 2019174028 A JP2019174028 A JP 2019174028A JP 2019174028 A JP2019174028 A JP 2019174028A JP 2021051542 A JP2021051542 A JP 2021051542A
Authority
JP
Japan
Prior art keywords
image
images
detected
obstacle
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019174028A
Other languages
Japanese (ja)
Other versions
JP2021051542A5 (en
JP7383954B2 (en
Inventor
賢司 堀口
Kenji Horiguchi
賢司 堀口
正雄 山中
Masao Yamanaka
正雄 山中
俊明 大串
Toshiaki Ogushi
俊明 大串
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019174028A priority Critical patent/JP7383954B2/en
Publication of JP2021051542A publication Critical patent/JP2021051542A/en
Publication of JP2021051542A5 publication Critical patent/JP2021051542A5/ja
Application granted granted Critical
Publication of JP7383954B2 publication Critical patent/JP7383954B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a learning data collecting device capable of efficiently collecting learning data of a learned model for improving detection accuracy of road obstacles in an image.SOLUTION: For a plurality of frames of images photographed by an on-vehicle camera, which are obtained by detecting a road obstacle in the images using pre-learned learned models and detecting a substance in the images, a learning data collection device outputs, of images between two images in which the road obstacle is detected, an image, in which the road obstacle is not detected and the substance is detected in an area where the road obstacle is presumed to exist, as learning data of the learned model.SELECTED DRAWING: Figure 8

Description

本発明は、学習用データ収集装置に関する。 The present invention relates to a learning data collection device.

特許文献1には、機械学習によって得られた学習済みモデルを用いて、車載カメラにより撮影された画像中の路上障害物を検出する路上障害物検出装置が開示されている。 Patent Document 1 discloses a road obstacle detection device that detects a road obstacle in an image taken by an in-vehicle camera using a trained model obtained by machine learning.

特開2018−194912号公報JP-A-2018-194912

特許文献1に記載されているような学習済みモデルを用いて画像中の路上障害物を検出する技術では、路上障害物の検出精度を向上させるために、学習済みモデルを更新するための学習用データを効率的に収集できることが好ましい。しかしながら、特許文献1では、学習済みモデルの学習用データを効率的に収集することは考慮されていない。 In the technique of detecting road obstacles in an image using a trained model as described in Patent Document 1, for learning to update the trained model in order to improve the detection accuracy of road obstacles. It is preferable that the data can be collected efficiently. However, Patent Document 1 does not consider efficiently collecting training data of a trained model.

本発明は、以上の事実を考慮して成されたもので、画像中の路上障害物の検出精度を向上させるための学習済みモデルの学習用データを効率的に収集することを目的とする。 The present invention has been made in consideration of the above facts, and an object of the present invention is to efficiently collect training data of a trained model for improving the detection accuracy of road obstacles in an image.

請求項1に記載の学習用データ収集装置は、予め学習された学習済みモデルを用いて画像中の路上障害物を検出する障害物検出部と、前記画像中の物体を検出する物体検出部と、車載カメラにより撮影された複数フレームの画像について、前記障害物検出部により路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ前記物体検出部により物体が検出された画像を、前記学習済みモデルの学習用データとして出力する出力部と、を備える。 The learning data collecting device according to claim 1 includes an obstacle detection unit that detects a road obstacle in an image using a trained model learned in advance, and an object detection unit that detects an object in the image. With respect to the images of a plurality of frames taken by the in-vehicle camera, among the images between the two images in which the road obstacle is detected by the obstacle detection unit, the above-mentioned in the area where the road obstacle is presumed to exist. It includes an output unit that outputs an image in which an obstacle on the road is not detected and an object is detected by the object detection unit as learning data of the trained model.

請求項1に記載の学習用データ収集装置によれば、予め学習された学習済みモデルを用いて画像中の路上障害物が検出され、画像中の物体が検出される。そして、車載カメラにより撮影された複数フレームの画像について、路上障害物が検出された2つの画像の間の画像のうち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体が検出された画像が、学習済みモデルの学習用データとして出力される。従って、画像中の路上障害物の検出精度を向上させるための学習済みモデルの学習用データを効率的に収集することができる。 According to the learning data collecting device according to claim 1, a road obstacle in an image is detected using a learned model learned in advance, and an object in the image is detected. Then, among the images of the plurality of frames taken by the in-vehicle camera, among the images between the two images in which the road obstacle is detected, the road obstacle is not detected in the area where the road obstacle is presumed to exist. , And the image in which the object is detected is output as training data of the trained model. Therefore, it is possible to efficiently collect training data of the trained model for improving the detection accuracy of road obstacles in the image.

本発明によれば、画像中の路上障害物の検出精度を向上させるための学習済みモデルの学習用データを効率的に収集することができる、という効果が得られる。 According to the present invention, it is possible to efficiently collect training data of a trained model for improving the detection accuracy of road obstacles in an image.

学習用データ収集システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the data collection system for learning. 制御装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of a control device. 学習済みモデルを説明するための図である。It is a figure for demonstrating a trained model. 画像中の物体の位置を推定するための近似式を説明するための図である。It is a figure for demonstrating the approximate expression for estimating the position of an object in an image. 近似式を算出するための測定データの一例を示す図である。It is a figure which shows an example of the measurement data for calculating the approximate expression. 制御装置の機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of a control device. 実施形態に係る学習用データの収集処理を説明するための図である。It is a figure for demonstrating the collection process of learning data which concerns on embodiment. 学習用データとして収集される画像の一例を示す図である。It is a figure which shows an example of the image collected as learning data. 画像保存処理の一例を示すフローチャートである。It is a flowchart which shows an example of an image preservation process. 学習用データ収集処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning data collection process. 変形例に係る学習用データの収集処理を説明するための図である。It is a figure for demonstrating the collection process of learning data which concerns on a modification.

以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。 Hereinafter, examples of embodiments for carrying out the present invention will be described in detail with reference to the drawings.

まず、図1を参照して、本実施形態に係る学習用データ収集システム10の構成を説明する。図1に示すように、学習用データ収集システム10は、情報処理装置16と、車両12に搭載された制御装置14とを含む。制御装置14及び情報処理装置16は、それぞれネットワークNに接続され、ネットワークNを介して情報の送受信が可能とされる。制御装置14の例としては、ECU(Electronic Control Unit)が挙げられ、情報処理装置16の例としては、サーバコンピュータが挙げられる。 First, the configuration of the learning data collection system 10 according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the learning data collection system 10 includes an information processing device 16 and a control device 14 mounted on the vehicle 12. The control device 14 and the information processing device 16 are each connected to the network N, and information can be transmitted and received via the network N. An example of the control device 14 is an ECU (Electronic Control Unit), and an example of the information processing device 16 is a server computer.

次に、図2を参照して、本実施形態に係る制御装置14のハードウェア構成を説明する。図2に示すように、制御装置14は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、制御装置14は、無線通信によってネットワークNに接続されるネットワークI/F(InterFace)23、及び入出力I/F24を含む。入出力I/F24には、車速センサ26及び車載カメラ27が接続される。CPU20、メモリ21、記憶部22、ネットワークI/F23、及び入出力I/F24は、バス25に接続される。制御装置14が、開示の技術に係る学習用データ収集装置の一例である。 Next, the hardware configuration of the control device 14 according to the present embodiment will be described with reference to FIG. As shown in FIG. 2, the control device 14 includes a CPU (Central Processing Unit) 20, a memory 21 as a temporary storage area, and a non-volatile storage unit 22. Further, the control device 14 includes a network I / F (InterFace) 23 connected to the network N by wireless communication, and an input / output I / F 24. A vehicle speed sensor 26 and an in-vehicle camera 27 are connected to the input / output I / F 24. The CPU 20, the memory 21, the storage unit 22, the network I / F23, and the input / output I / F24 are connected to the bus 25. The control device 14 is an example of a learning data collection device according to the disclosed technology.

記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、学習用データ収集プログラム30が記憶される。CPU20は、記憶部22から学習用データ収集プログラム30を読み出してからメモリ21に展開し、展開した学習用データ収集プログラム30を実行する。また、記憶部22には、学習済みモデル32及び近似式データ34が記憶される。 The storage unit 22 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The learning data collection program 30 is stored in the storage unit 22 as a storage medium. The CPU 20 reads the learning data collection program 30 from the storage unit 22, expands it into the memory 21, and executes the expanded learning data collection program 30. Further, the learned model 32 and the approximate expression data 34 are stored in the storage unit 22.

車速センサ26は、車両12の車速を検出し、検出した車速を制御装置14に出力する。車載カメラ27は、車両12の車室内に搭載され、車両12の前方を撮影して得られた画像を制御装置14に出力する。 The vehicle speed sensor 26 detects the vehicle speed of the vehicle 12 and outputs the detected vehicle speed to the control device 14. The in-vehicle camera 27 is mounted in the vehicle interior of the vehicle 12, and outputs an image obtained by photographing the front of the vehicle 12 to the control device 14.

学習済みモデル32は、情報処理装置16による機械学習によって予め学習されたモデルであり、入力の画像中の路上障害物を検出するために使用される。制御装置14は、情報処理装置16から学習済みモデル32を取得し、取得した学習済みモデル32を記憶部22に記憶する。一例として図3に示すように、本実施形態に係る学習済みモデル32には、車載カメラ27により撮影された画像が入力される。また、学習済みモデル32は、入力された画像の画素毎に、M個の意味的ラベルのそれぞれに属する確率P(mは、1からMまでの整数)を出力する。 The trained model 32 is a model pre-learned by machine learning by the information processing device 16 and is used to detect road obstacles in the input image. The control device 14 acquires the learned model 32 from the information processing device 16, and stores the acquired learned model 32 in the storage unit 22. As an example, as shown in FIG. 3, an image taken by the in-vehicle camera 27 is input to the learned model 32 according to the present embodiment. Further, the trained model 32 outputs the probability P m (m is an integer from 1 to M) belonging to each of the M semantic labels for each pixel of the input image.

ここでいう意味的ラベルとは、画像中の物体を表すラベルである。意味的ラベルの例としては、空、道路(例えば、舗装路及び白線等)、車両(例えば、乗用車、トラック、及び自動二輪車等)、自然(例えば、山、森林、及び街路樹等)、人工建築物(例えば、街灯、鉄柱、及びガードレール等)、及び路上障害物等が挙げられる。 The semantic label here is a label representing an object in an image. Examples of semantic labels are sky, roads (eg paved roads and white lines, etc.), vehicles (eg, passenger cars, trucks, and motorcycles, etc.), nature (eg, mountains, forests, and roadside trees, etc.), artificial. Examples include buildings (for example, street lights, iron pillars, guardrails, etc.), road obstacles, and the like.

近似式データ34は、1フレーム前の画像中の物体の位置を推定するために用いられる近似式を表すデータである。近似式データ34が表す近似式は、例えば、車両12を用いた実験によって予め得られる。 The approximate expression data 34 is data representing an approximate expression used for estimating the position of an object in the image one frame before. The approximate expression represented by the approximate expression data 34 is obtained in advance by, for example, an experiment using the vehicle 12.

具体的には、まず、図4に示すように、路上に物体を設置し、一定の車速で車両12を物体に近づく方向に走行させながら、車載カメラ27により予め定められたフレームレートで撮影を行い、車載カメラ27により撮影された画像中の物体の移動量を測定する。以下では、画像の左右方向をx軸方向とし、上下方向をy軸方向とする。また、以下では、画像中の物体の下端部の位置を画像中の物体の位置とし、物体の位置を画像の予め定められた基準位置(例えば、画像の左上端部の位置)を原点としたy座標で表す。なお、画像中の物体の位置は、物体の下端部の位置に限定されず、例えば、物体の重心の位置を用いてもよい。 Specifically, first, as shown in FIG. 4, an object is placed on the road, and while the vehicle 12 is driven in a direction approaching the object at a constant vehicle speed, an in-vehicle camera 27 takes a picture at a predetermined frame rate. Then, the amount of movement of the object in the image taken by the in-vehicle camera 27 is measured. In the following, the horizontal direction of the image is the x-axis direction, and the vertical direction is the y-axis direction. Further, in the following, the position of the lower end of the object in the image is defined as the position of the object in the image, and the position of the object is defined as the origin of the predetermined reference position of the image (for example, the position of the upper left edge of the image). Expressed in y coordinates. The position of the object in the image is not limited to the position of the lower end of the object, and for example, the position of the center of gravity of the object may be used.

このように測定されたn−1フレーム目の画像中の物体の位置、nフレーム目の画像中の物体の位置、及び測定時の車速の一例を図5に示す。図5の例では、50km/h及び100km/hのそれぞれの車速で車両12を走行させながら、6フレーム(すなわち、n=2〜6)の画像を10fps(frames per second)で車載カメラ27により撮影した際の各画像中の物体の位置を示している。 FIG. 5 shows an example of the position of the object in the image of the n-1th frame measured in this way, the position of the object in the image of the nth frame, and the vehicle speed at the time of measurement. In the example of FIG. 5, while the vehicle 12 is running at the respective vehicle speeds of 50 km / h and 100 km / h, an image of 6 frames (that is, n = 2 to 6) is captured by the in-vehicle camera 27 at 10 fps (frames per second). It shows the position of the object in each image when it was taken.

以上の測定結果から、最小二乗法等の近似手法によって、以下の(1)式で表される近似式が算出される。(1)式におけるa及びaは係数であり、bは定数である。また、(1)式におけるxはnフレーム目の画像中の物体の位置を表す変数であり、xは車速を表す変数であり、yはn−1フレーム目の画像中の物体の位置を表す変数である。
y=a×x+a×x+b・・・(1)
From the above measurement results, an approximate expression represented by the following equation (1) is calculated by an approximate method such as the least squares method. In equation (1), a 1 and a 2 are coefficients, and b is a constant. Further, x 1 in the equation (1) is a variable representing the position of the object in the image of the nth frame, x 2 is a variable representing the vehicle speed, and y is the position of the object in the image of the n-1th frame. It is a variable that represents.
y = a 1 x x 1 + a 2 x x 2 + b ... (1)

図5の測定結果から実際に算出された近似式を、以下の(2)式に示す。
y=0.555449×x−0.0795×x+9.024482・・・(2)
The approximate expression actually calculated from the measurement result of FIG. 5 is shown in the following equation (2).
y = 0.555449 × x 1 −0.0795 × x 2 +9.024482 ・ ・ ・ (2)

近似式データ34は、以上のように算出された近似式を表すデータである。従って、近似式データ34が表す近似式を用いて、nフレーム目の画像中の物体の位置及び車速から、n−1フレーム目の画像中の物体の位置を推定することができる。なお、本実施形態では、車載カメラ27のフレームレートを固定値とする例を説明するが、これに限定されない。例えば、車載カメラ27のフレームレートの設定値をユーザが変更可能な場合は、設定可能なフレームレート毎に近似式を予め算出しておけばよい。 The approximate expression data 34 is data representing the approximate expression calculated as described above. Therefore, the position of the object in the image of the n-1st frame can be estimated from the position of the object in the image of the nth frame and the vehicle speed by using the approximate expression represented by the approximate expression data 34. In this embodiment, an example in which the frame rate of the in-vehicle camera 27 is set to a fixed value will be described, but the present invention is not limited to this. For example, when the user can change the frame rate setting value of the in-vehicle camera 27, an approximate expression may be calculated in advance for each settable frame rate.

次に、図6を参照して、本実施形態に係る制御装置14の機能的な構成を説明する。図6に示すように、制御装置14は、取得部40、障害物検出部42、物体検出部44、判定部46、及び出力部48を含む。制御装置14のCPU20が記憶部22に記憶された学習用データ収集プログラム30を実行することにより、図6に示す取得部40、障害物検出部42、物体検出部44、判定部46、及び出力部48として機能する。 Next, the functional configuration of the control device 14 according to the present embodiment will be described with reference to FIG. As shown in FIG. 6, the control device 14 includes an acquisition unit 40, an obstacle detection unit 42, an object detection unit 44, a determination unit 46, and an output unit 48. When the CPU 20 of the control device 14 executes the learning data collection program 30 stored in the storage unit 22, the acquisition unit 40, the obstacle detection unit 42, the object detection unit 44, the determination unit 46, and the output shown in FIG. It functions as a unit 48.

取得部40は、車速センサ26により検出された車速を取得する。また、取得部40は、車載カメラ27により撮影された画像を取得する。 The acquisition unit 40 acquires the vehicle speed detected by the vehicle speed sensor 26. In addition, the acquisition unit 40 acquires an image taken by the in-vehicle camera 27.

障害物検出部42は、学習済みモデル32を用いて、取得部40により取得された画像中の路上障害物を検出する。具体的には、障害物検出部42は、取得部40により取得された画像を学習済みモデル32に対して入力する。この入力に対応して、学習済みモデル32からは、入力された画像の画素毎に、M個の意味的ラベルのそれぞれに属する確率Pが出力される。 The obstacle detection unit 42 detects a road obstacle in the image acquired by the acquisition unit 40 by using the trained model 32. Specifically, the obstacle detection unit 42 inputs the image acquired by the acquisition unit 40 to the trained model 32. Corresponding to this input, the trained model 32 outputs the probability P m belonging to each of the M semantic labels for each pixel of the input image.

また、障害物検出部42は、取得部40により取得された画像をN個の局所領域S(nは、1からNまでの整数)に分割する。この分割処理は、スーパーピクセル化処理とも呼ばれる。それぞれの局所領域は連続した領域であり、かつ内部の各点の特徴量が互いに類似する領域である。特徴量としては、色と輝度、エッジ強度、又はテクスチャ等を用いることができる。局所領域は、前景と背景との境界を跨がない領域とも表現できる。 Further, the obstacle detection unit 42 divides the image acquired by the acquisition unit 40 into N local regions Sn (n is an integer from 1 to N). This division process is also called a super-pixelation process. Each local region is a continuous region, and the features of each internal point are similar to each other. As the feature amount, color and brightness, edge strength, texture, or the like can be used. The local area can also be expressed as an area that does not straddle the boundary between the foreground and the background.

障害物検出部42は、画像を分割して得られた局所領域Sと、学習済みモデル32から出力された確率Pとに基づいて、画像のi(iは、1からNまでの整数)番目の局所領域Sにおける路上障害物らしさLを算出する。そして、障害物検出部42は、算出した路上障害物Lらしさに基づいて、取得部40により取得された画像中の路上障害物を検出する。以上の障害物検出部42による学習済みモデル32を用いた路上障害物の検出処理の詳細は、特開2018−194912号公報に開示されているため、これ以上の詳細な説明を省略する。 Obstacle detection unit 42, a local region S n obtained by dividing an image, on the basis of the probability P m outputted from the learned model 32, i (i images are integers from 1 to N ) th to the calculated road obstacle likelihood L i in a local area S i. The obstacle detection unit 42 based on the calculated road obstacle L i likeness, detects a road obstacle in an image acquired by the acquisition unit 40. Since the details of the road obstacle detection process using the trained model 32 by the obstacle detection unit 42 are disclosed in Japanese Patent Application Laid-Open No. 2018-194912, further detailed description thereof will be omitted.

物体検出部44は、取得部40により取得された画像に対して公知の物体検出処理を行うことによって、取得部40により取得された画像中の物体を検出する。この物体検出処理の例としては、Faster R−CNN(Regions with Convolutional Neural Networks)、YOLO(You Only Look Once)、又はSSD(Single Shot Multibox Detector)等が挙げられる。すなわち、物体検出部44は、路上障害物であるか否かを考慮せずに、取得部40により取得された画像中の物体を検出する。これに対し、前述した障害物検出部42は、取得部40により取得された画像中の物体のうち、路上障害物を検出する。 The object detection unit 44 detects an object in the image acquired by the acquisition unit 40 by performing a known object detection process on the image acquired by the acquisition unit 40. Examples of this object detection process include Faster R-CNN (Regions with Convolutional Neural Networks), YOLO (You Only Look Once), SSD (Single Shot Multibox Detector), and the like. That is, the object detection unit 44 detects the object in the image acquired by the acquisition unit 40 without considering whether or not it is an obstacle on the road. On the other hand, the obstacle detection unit 42 described above detects an obstacle on the road among the objects in the image acquired by the acquisition unit 40.

判定部46は、取得部40により取得された連続する複数フレームの画像について、障害物検出部42により路上障害物が検出された2つの画像の間の画像において、以下の判定を行う。判定部46は、上記2つの画像の間の画像において、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体検出部44により物体が検出された画像が存在するか否かを判定する。 The determination unit 46 makes the following determinations on the images of a plurality of consecutive frames acquired by the acquisition unit 40 in the image between the two images in which the obstacle detection unit 42 has detected an obstacle on the road. In the image between the two images, the determination unit 46 has an image in which the road obstacle is not detected in the area where the road obstacle is presumed to exist, and the object is detected by the object detection unit 44. Judge whether or not.

図7を参照して、判定部46による判定処理の詳細を説明する。図7に示すように、ここでは、説明の分かりやすさのために、連続する3フレームの画像を例に挙げ、各フレームの画像を区別するために、各フレームの画像に1〜3の番号を付して説明する。 The details of the determination process by the determination unit 46 will be described with reference to FIG. 7. As shown in FIG. 7, here, for the sake of clarity of explanation, a continuous three-frame image is taken as an example, and in order to distinguish the images of each frame, the images of each frame are numbered 1 to 3. Will be explained with.

また、図7における「y座標」は、フレーム番号が1〜3の画像について、障害物検出部42による路上障害物の検出結果、及び物体検出部44による物体の検出結果を示している。具体的には、図7の「路上障害物」の「y座標」の数値は、障害物検出部42により検出された路上障害物の下端部のy座標を示す。また、図7の「物体」の「y座標」の数値は、物体検出部44により検出された物体の下端部のy座標を示す。また、図7の「y座標」が「−」の箇所は、そのフレーム番号の画像について、路上障害物又は物体が検出されなかったことを表す。すなわち、図7の例では、フレーム番号が1、3の画像については、障害物検出部42により路上障害物が検出され、かつ物体検出部44により物体が検出されたことを表している。また、図7の例では、フレーム番号が2の画像については、障害物検出部42により路上障害物が検出されず、かつ物体検出部44により物体が検出されたことを表している。 Further, the "y coordinate" in FIG. 7 indicates the detection result of the road obstacle by the obstacle detection unit 42 and the detection result of the object by the object detection unit 44 for the images having the frame numbers 1 to 3. Specifically, the numerical value of the "y coordinate" of the "road obstacle" in FIG. 7 indicates the y coordinate of the lower end portion of the road obstacle detected by the obstacle detection unit 42. Further, the numerical value of the "y coordinate" of the "object" in FIG. 7 indicates the y coordinate of the lower end portion of the object detected by the object detection unit 44. Further, the portion where the “y coordinate” in FIG. 7 is “−” indicates that no road obstacle or object was detected in the image of the frame number. That is, in the example of FIG. 7, for the images having frame numbers 1 and 3, it means that the obstacle detection unit 42 detected the road obstacle and the object detection unit 44 detected the object. Further, in the example of FIG. 7, for the image having the frame number 2, it shows that the obstacle detection unit 42 did not detect the obstacle on the road and the object detection unit 44 detected the object.

判定部46は、路上障害物が検出された画像について、路上障害物のy座標と、その画像の撮影時に取得部40により取得された車速と、を用いて、近似式データ34が表す上記(1)式に従って、1フレーム前の画像中の路上障害物のy座標の推定値を算出する。同様に、判定部46は、物体が検出された画像について、物体のy座標と、その画像の撮影時に取得部40により取得された車速と、を用いて、上記(1)式に従って、1フレーム前の画像中の物体のy座標の推定値を算出する。図7の例における「1フレーム前のy座標」は、このように算出されたy座標の推定値を表している。 The determination unit 46 uses the y-coordinate of the road obstacle and the vehicle speed acquired by the acquisition unit 40 at the time of taking the image of the image in which the road obstacle is detected, and is represented by the approximate expression data 34 ( According to the equation 1), the estimated value of the y-coordinate of the road obstacle in the image one frame before is calculated. Similarly, the determination unit 46 uses the y-coordinate of the object and the vehicle speed acquired by the acquisition unit 40 at the time of shooting the image for the image in which the object is detected, according to the above equation (1), for one frame. Calculate the estimated y-coordinate of the object in the previous image. The "y-coordinate one frame before" in the example of FIG. 7 represents the estimated value of the y-coordinate calculated in this way.

また、判定部46は、路上障害物が検出された画像について、「1フレーム前のy座標」と、1フレーム前の画像の「y座標」との差の絶対値が、予め定められた閾値TH1(例えば、「1」)以下である場合に、その画像と1フレーム前の画像との対応が有ると判定する。同様に、判定部46は、物体が検出された画像について、「1フレーム前のy座標」と、1フレーム前の画像の「y座標」との差の絶対値が、閾値TH1以下である場合に、その画像と1フレーム前の画像との対応が有ると判定する。図7の例における「対応有無」は、このように判定された対応の有無を表している。すなわち、図7の例では、路上障害物については各フレームの画像間で対応が無く、物体についてはフレーム番号が1と2の画像間、及びフレーム番号が2と3の画像間で対応が有ることを表している。図7の例では、判定部46は、3個の連続するフレームの画像から検出された物体は、同じ物体であると判定する。なお、物体検出部44が、検出した物体の物体名も検出可能な場合、判定部46は、物体の「y座標」が対応していることに加えて、更に検出された物体名が同じである場合に、同じ物体であると判定してもよい。 Further, the determination unit 46 sets a predetermined threshold value for the absolute value of the difference between the "y-coordinate of one frame before" and the "y-coordinate" of the image one frame before for the image in which the road obstacle is detected. When it is TH1 (for example, "1") or less, it is determined that there is a correspondence between the image and the image one frame before. Similarly, the determination unit 46 determines that the absolute value of the difference between the "y-coordinate of one frame before" and the "y-coordinate" of the image one frame before is equal to or less than the threshold value TH1 for the image in which the object is detected. It is determined that there is a correspondence between the image and the image one frame before. The “presence / absence of correspondence” in the example of FIG. 7 indicates the presence / absence of correspondence determined in this way. That is, in the example of FIG. 7, there is no correspondence between the images of each frame for road obstacles, and there is a correspondence between the images of frame numbers 1 and 2 and the images of frame numbers 2 and 3 for objects. It represents that. In the example of FIG. 7, the determination unit 46 determines that the objects detected from the images of the three consecutive frames are the same object. When the object detection unit 44 can also detect the object name of the detected object, the determination unit 46 has the same detected object name in addition to the corresponding "y-coordinate" of the object. In some cases, it may be determined that they are the same object.

また、判定部46は、各フレームの画像について、路上障害物のy座標と物体のy座標との差の絶対値が、予め定められた閾値TH2(例えば、「2」)以下の場合、路上障害物と物体とが対応していると判定する。すなわち、図7の例では、判定部46は、フレーム番号が1の画像及び3の画像のそれぞれについて、検出された路上障害物と物体とが対応していると判定する。そして、判定部46は、フレーム番号が2の画像については、検出された物体に対応するエリア、すなわち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されていないと判定する。 Further, the determination unit 46 determines that the absolute value of the difference between the y-coordinate of the road obstacle and the y-coordinate of the object is equal to or less than a predetermined threshold value TH2 (for example, “2”) for the image of each frame on the road. It is determined that the obstacle and the object correspond to each other. That is, in the example of FIG. 7, the determination unit 46 determines that the detected road obstacle and the object correspond to each of the image having the frame number 1 and the image having the frame number 3. Then, the determination unit 46 determines that the road obstacle is not detected in the area corresponding to the detected object, that is, the area where the road obstacle is presumed to exist for the image having the frame number 2. ..

以上の処理により、判定部46は、連続する複数フレームの画像について、路上障害物が検出された2つの画像(図7の例では、フレーム番号が1の画像と3の画像)の間の画像(図7の例では、フレーム番号が2の画像)において、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体検出部44により物体が検出された画像が存在するか否かを判定する。なお、判定部46は、連続する複数フレームの画像として4つ以上の画像を用いてもよい。また、車両12の車速が遅いほど、同じ物体が写る画像数は多くなると考えられる。そこで、判定部46は、車両12の車速が遅いほど、連続する複数フレームの画像として多い枚数の画像を用いてもよい。 Through the above processing, the determination unit 46 determines that the images of a plurality of consecutive frames are between two images in which road obstacles are detected (in the example of FIG. 7, an image having a frame number of 1 and an image having a frame number of 3). (In the example of FIG. 7, the image having the frame number 2), there is an image in which the road obstacle is not detected in the area where the road obstacle is presumed to exist and the object is detected by the object detection unit 44. Determine whether or not to do so. The determination unit 46 may use four or more images as continuous images of a plurality of frames. Further, it is considered that the slower the vehicle speed of the vehicle 12, the larger the number of images in which the same object is captured. Therefore, the determination unit 46 may use a larger number of images as continuous images of a plurality of frames as the vehicle speed of the vehicle 12 is slower.

出力部48は、判定部46により上記2つの画像の間に存在すると判定された画像を、学習済みモデル32の学習用データとして出力する。本実施形態では、出力部48は、判定部46により上記2つの画像の間に存在すると判定された画像を、学習済みモデル32の学習用データとして、ネットワークNを介して情報処理装置16に出力(すなわち、送信)する。 The output unit 48 outputs an image determined by the determination unit 46 to exist between the two images as training data of the trained model 32. In the present embodiment, the output unit 48 outputs an image determined by the determination unit 46 to exist between the two images as training data of the trained model 32 to the information processing device 16 via the network N. (That is, send).

判定部46により、上記2つの画像の間に存在すると判定された画像は、検出された物体が、路上障害物である可能性が比較的高いにもかかわらず、障害物検出部42により路上障害物として検出されなかった画像である。この画像は、具体的な一例として図8に示すフレームnの画像である。図8の例では、フレームn−1、n+1の画像では、車線変更を指示する物体(矩形の破線で囲まれた物体)が路上障害物及び物体として検出されている。これに対し、フレームnの画像では、車線変更を指示する物体が物体としては検出されているが、路上障害物としては検出されていない。従って、このような画像を用いて学習済みモデル32を更に学習させて更新することによって、学習済みモデル32を用いた画像中の路上障害物の検出精度が向上する。 The image determined by the determination unit 46 to exist between the above two images has a relatively high possibility that the detected object is a road obstacle, but the obstacle detection unit 42 indicates a road obstacle. It is an image that was not detected as an object. This image is an image of frame n shown in FIG. 8 as a specific example. In the example of FIG. 8, in the images of frames n-1 and n + 1, an object instructing a lane change (an object surrounded by a rectangular broken line) is detected as a road obstacle and an object. On the other hand, in the image of the frame n, the object instructing the lane change is detected as an object, but is not detected as an obstacle on the road. Therefore, by further learning and updating the trained model 32 using such an image, the detection accuracy of road obstacles in the image using the trained model 32 is improved.

次に、図9及び図10を参照して、本実施形態に係る制御装置14の作用について説明する。なお、図9は、制御装置14のCPU20により実行される画像保存処理の流れの一例を示すフローチャートである。また、図10は、制御装置14のCPU20により実行される学習用データ収集処理の流れの一例を示すフローチャートである。図9に示す画像保存処理及び図10に示す学習用データ収集処理は、記憶部22に記憶された学習用データ収集プログラム30をCPU20が実行することにより実行される。図9に示す画像保存処理は、例えば、車載カメラ27のフレームレートに応じた撮影の時間間隔毎に実行される。また、図10に示す学習用データ収集処理は、1時間に1回等の定期的なタイミングに実行される。なお、図10に示す学習用データ収集処理は、図9に示す画像保存処理により所定数(例えば、100枚)の画像が記憶部22に記憶される毎に実行されてもよいし、車載カメラ27により画像が撮影される毎に実行されてもよい。 Next, the operation of the control device 14 according to the present embodiment will be described with reference to FIGS. 9 and 10. Note that FIG. 9 is a flowchart showing an example of the flow of the image storage process executed by the CPU 20 of the control device 14. Further, FIG. 10 is a flowchart showing an example of a flow of learning data collection processing executed by the CPU 20 of the control device 14. The image storage process shown in FIG. 9 and the learning data collection process shown in FIG. 10 are executed by the CPU 20 executing the learning data collection program 30 stored in the storage unit 22. The image storage process shown in FIG. 9 is executed, for example, at each shooting time interval according to the frame rate of the in-vehicle camera 27. Further, the learning data collection process shown in FIG. 10 is executed at a regular timing such as once an hour. The learning data collection process shown in FIG. 10 may be executed every time a predetermined number (for example, 100 images) of images are stored in the storage unit 22 by the image storage process shown in FIG. It may be executed every time an image is taken by 27.

図9のステップS10で、取得部40は、車載カメラ27により撮影された画像を取得する。ステップS12で、取得部40は、車速センサ26により検出された車速を取得する。ステップS14で、取得部40は、ステップS10で取得した画像と、ステップS12で取得した車速とを対応付けて記憶部22に記憶する。ステップS14の処理が終了すると、画像保存処理が終了する。 In step S10 of FIG. 9, the acquisition unit 40 acquires an image taken by the in-vehicle camera 27. In step S12, the acquisition unit 40 acquires the vehicle speed detected by the vehicle speed sensor 26. In step S14, the acquisition unit 40 stores the image acquired in step S10 and the vehicle speed acquired in step S12 in association with each other in the storage unit 22. When the process of step S14 is completed, the image saving process is completed.

図10のステップS20で、障害物検出部42は、前述したように、学習済みモデル32を用いて、上記の画像保存処理により記憶部22に記憶された全ての画像中の路上障害物を検出する。ステップS22で、物体検出部44は、前述したように、上記の画像保存処理により記憶部22に記憶された全ての画像に対して公知の物体検出処理を行うことによって、記憶部22に記憶された全ての画像中の物体を検出する。 In step S20 of FIG. 10, the obstacle detection unit 42 detects road obstacles in all the images stored in the storage unit 22 by the above image storage process using the trained model 32 as described above. To do. In step S22, as described above, the object detection unit 44 is stored in the storage unit 22 by performing a known object detection process on all the images stored in the storage unit 22 by the above image storage process. Detects objects in all images.

ステップS24で、判定部46は、前述したように、上記の画像保存処理により記憶部22に記憶された全ての画像における連続する複数フレームの画像について、障害物検出部42により路上障害物が検出された2つの画像の間の画像において、以下の判定を行う。判定部46は、上記2つの画像の間の画像において、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体検出部44により物体が検出された画像が存在するか否かを判定する。判定部46は、上記の画像保存処理により記憶部22に記憶された全ての画像における連続する複数フレーム(例えば、3フレーム)の全組合せについて上記の判定を行う。この判定が否定判定となった場合は、学習用データ収集処理が終了し、肯定判定となった場合は、処理はステップS26に移行する。 In step S24, as described above, the determination unit 46 detects road obstacles by the obstacle detection unit 42 with respect to the images of a plurality of consecutive frames in all the images stored in the storage unit 22 by the image storage process. The following determination is made in the image between the two images. In the image between the two images, the determination unit 46 has an image in which the road obstacle is not detected in the area where the road obstacle is presumed to exist, and the object is detected by the object detection unit 44. Judge whether or not. The determination unit 46 makes the above determination for all combinations of a plurality of consecutive frames (for example, 3 frames) in all the images stored in the storage unit 22 by the image storage process. If this determination is a negative determination, the learning data collection process is completed, and if the determination is affirmative, the process proceeds to step S26.

ステップS26で、出力部48は、前述したように、ステップS24の処理により上記2つの画像の間に存在すると判定された画像を、学習済みモデル32の学習用データとして情報処理装置16に出力する。ステップS26の処理が終了すると、学習用データ収集処理が終了する。 In step S26, as described above, the output unit 48 outputs the image determined to exist between the two images by the process of step S24 to the information processing device 16 as learning data of the trained model 32. .. When the process of step S26 is completed, the learning data collection process is completed.

ステップS26の処理により制御装置14から学習用データとして送信された画像は、情報処理装置16により受信される。ユーザは、情報処理装置16が受信した画像における障害物検出部42により検出されなかった路上障害物に、路上障害物という意味的ラベルを付与する。情報処理装置16は、自装置の記憶部に記憶された学習済みモデル32を、ユーザにより意味的ラベルが付与された画像を用いて学習させることによって更新する。情報処理装置16は、更新した学習済みモデル32を制御装置14に送信する。制御装置14は、情報処理装置16から送信された新たな学習済みモデル32によって記憶部22の学習済みモデル32を更新する。これにより、学習済みモデル32を用いた路上障害物の検出精度が向上する。 The image transmitted as learning data from the control device 14 by the process of step S26 is received by the information processing device 16. The user assigns a semantic label of a road obstacle to a road obstacle that is not detected by the obstacle detection unit 42 in the image received by the information processing device 16. The information processing device 16 updates the trained model 32 stored in the storage unit of its own device by training the trained model 32 using an image to which a semantic label is given by the user. The information processing device 16 transmits the updated learned model 32 to the control device 14. The control device 14 updates the trained model 32 of the storage unit 22 with the new trained model 32 transmitted from the information processing device 16. As a result, the accuracy of detecting road obstacles using the trained model 32 is improved.

以上説明したように、本実施形態によれば、複数フレームの画像について、路上障害物が検出された2つの画像の間の画像のうち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体が検出された画像を、学習済みモデル32の学習用データとして出力する。従って、画像中の路上障害物の検出精度を向上させるための学習済みモデル32の学習用データを効率的に収集することができる。 As described above, according to the present embodiment, with respect to the image of a plurality of frames, the road obstacle is located in the area where the road obstacle is presumed to exist among the images between the two images in which the road obstacle is detected. The image in which the object is not detected and the object is detected is output as the training data of the trained model 32. Therefore, it is possible to efficiently collect the training data of the trained model 32 for improving the detection accuracy of the road obstacle in the image.

なお、上記実施形態では、路上障害物が検出された2つの画像の間の画像のうち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体が検出された画像を、学習済みモデル32の学習用データとして出力する場合について説明したが、これに限定されない。例えば、図11に示すように、物体が検出された2つの画像の間の画像のうち、物体が存在すると推定されるエリア内に物体が検出されず、かつ路上障害物が検出された画像を、物体検出部44が物体の検出に用いる学習済みモデルの学習用データとして出力する形態としてもよい。この場合、図11におけるフレーム番号が2の画像が学習用データとして収集される。なお、図11における各項目は図7と同様である。 In the above embodiment, of the images between the two images in which the road obstacle is detected, the road obstacle is not detected and the object is detected in the area where the road obstacle is presumed to exist. The case where the image is output as the training data of the trained model 32 has been described, but the present invention is not limited to this. For example, as shown in FIG. 11, of the images between the two images in which the object is detected, the image in which the object is not detected in the area where the object is presumed to exist and the road obstacle is detected is detected. , The object detection unit 44 may output as training data of the trained model used for detecting the object. In this case, the image having the frame number 2 in FIG. 11 is collected as learning data. Each item in FIG. 11 is the same as in FIG. 7.

また、上記実施形態において、制御装置14が障害物検出部42及び物体検出部44の何れかを備えてもよい。この場合、制御装置14が備える何れかの機能部による検出結果が安定しない場合に、物体又は路上障害物が検出されなかった画像を学習用データとして出力する形態が例示される。また、物体検出部44が、更に物体名を検出してもよい。この場合、物体検出部44が、連続する複数フレームの画像のそれぞれについて検出した物体が対応する物体ではあるが、物体名が異なる場合に、各フレームの画像を物体検出部44が物体の検出に用いる学習済みモデルの学習用データとして出力する形態が例示される。 Further, in the above embodiment, the control device 14 may include either the obstacle detection unit 42 or the object detection unit 44. In this case, when the detection result by any of the functional units included in the control device 14 is not stable, an image in which no object or road obstacle is detected is output as learning data. Further, the object detection unit 44 may further detect the object name. In this case, the object detected by the object detection unit 44 for each of the images of a plurality of consecutive frames is the corresponding object, but when the object names are different, the object detection unit 44 uses the image of each frame to detect the object. An example is a form of outputting as training data of the trained model to be used.

また、上記実施形態では、1フレーム前の画像における物体の位置の推定に、y軸方向の物体の移動量を用いた場合について説明したが、これに限定されない。例えば、1フレーム前の画像における物体の位置の推定に、x軸方向の物体の移動量を加えてもよい。この場合のy軸方向及びx軸方向の物体の移動量は、例えば、ヨーレート及び車速から算出することができる。 Further, in the above embodiment, the case where the movement amount of the object in the y-axis direction is used for estimating the position of the object in the image one frame before has been described, but the present invention is not limited to this. For example, the amount of movement of the object in the x-axis direction may be added to the estimation of the position of the object in the image one frame before. In this case, the amount of movement of the object in the y-axis direction and the x-axis direction can be calculated from, for example, the yaw rate and the vehicle speed.

また、上記実施形態におけるCPU20により行われる処理は、プログラムを実行することにより行われるソフトウェア処理として説明したが、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)及びFPGA(Field-Programmable Gate Array)等のハードウェアで行われる処理としてもよい。また、CPU20により行われる処理は、ソフトウェア及びハードウェアの双方を組み合わせて行われる処理としてもよい。また、記憶部22に記憶される学習用データ収集プログラム30は、各種記憶媒体に記憶して流通させてもよい。 Further, the processing performed by the CPU 20 in the above embodiment has been described as software processing performed by executing a program, but GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), and FPGA (Field-Programmable Gate Array). ) Etc. may be used as the processing performed by the hardware. Further, the process performed by the CPU 20 may be a process performed by combining both software and hardware. Further, the learning data collection program 30 stored in the storage unit 22 may be stored in various storage media and distributed.

また、本発明は、上記の形態例に限定されるものではなく、上記の形態例以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。 Further, the present invention is not limited to the above-mentioned embodiment, and it is needless to say that the present invention can be variously modified and implemented within a range not deviating from the gist thereof other than the above-mentioned embodiment.

10 学習用データ収集システム
12 車両
14 制御装置(学習用データ収集装置)
16 情報処理装置
20 CPU(障害物検出部、物体検出部、出力部)
30 学習用データ収集プログラム
32 学習済みモデル
40 取得部
42 障害物検出部
44 物体検出部
46 判定部
48 出力部
10 Learning data collection system 12 Vehicle 14 Control device (learning data collection device)
16 Information processing device 20 CPU (obstacle detection unit, object detection unit, output unit)
30 Learning data collection program 32 Learned model 40 Acquisition unit 42 Obstacle detection unit 44 Object detection unit 46 Judgment unit 48 Output unit

Claims (1)

予め学習された学習済みモデルを用いて画像中の路上障害物を検出する障害物検出部と、
前記画像中の物体を検出する物体検出部と、
車載カメラにより撮影された複数フレームの画像について、前記障害物検出部により路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ前記物体検出部により物体が検出された画像を、前記学習済みモデルの学習用データとして出力する出力部と、
を備えた学習用データ収集装置。
An obstacle detection unit that detects road obstacles in an image using a pre-learned model, and an obstacle detection unit.
An object detection unit that detects an object in the image,
With respect to a plurality of frames of images taken by an in-vehicle camera, among the images between two images in which a road obstacle is detected by the obstacle detection unit, the road obstacle is presumed to exist in the road. An output unit that outputs an image in which an obstacle is not detected and an object is detected by the object detection unit as training data of the trained model, and an output unit.
Data collection device for learning equipped with.
JP2019174028A 2019-09-25 2019-09-25 Learning data collection device Active JP7383954B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019174028A JP7383954B2 (en) 2019-09-25 2019-09-25 Learning data collection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174028A JP7383954B2 (en) 2019-09-25 2019-09-25 Learning data collection device

Publications (3)

Publication Number Publication Date
JP2021051542A true JP2021051542A (en) 2021-04-01
JP2021051542A5 JP2021051542A5 (en) 2022-07-21
JP7383954B2 JP7383954B2 (en) 2023-11-21

Family

ID=75158245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019174028A Active JP7383954B2 (en) 2019-09-25 2019-09-25 Learning data collection device

Country Status (1)

Country Link
JP (1) JP7383954B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114343641A (en) * 2022-01-24 2022-04-15 广州熠华教育咨询服务有限公司 Learning difficulty intervention training guidance method and system thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102838A (en) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 Database construction system for article recognition algorism machine-learning
JP2018194912A (en) * 2017-05-12 2018-12-06 トヨタ自動車株式会社 Obstacle on-road detection device, method and program
JP2019159659A (en) * 2018-03-12 2019-09-19 パナソニックIpマネジメント株式会社 Information processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102838A (en) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 Database construction system for article recognition algorism machine-learning
JP2018194912A (en) * 2017-05-12 2018-12-06 トヨタ自動車株式会社 Obstacle on-road detection device, method and program
JP2019159659A (en) * 2018-03-12 2019-09-19 パナソニックIpマネジメント株式会社 Information processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114343641A (en) * 2022-01-24 2022-04-15 广州熠华教育咨询服务有限公司 Learning difficulty intervention training guidance method and system thereof

Also Published As

Publication number Publication date
JP7383954B2 (en) 2023-11-21

Similar Documents

Publication Publication Date Title
US10453256B2 (en) Lane boundary detection data generation in virtual environment
US10832478B2 (en) Method and system for virtual sensor data generation with depth ground truth annotation
JP6307356B2 (en) Driving context information generator
US20170109458A1 (en) Testbed for lane boundary detection in virtual driving environment
CN109977776B (en) Lane line detection method and device and vehicle-mounted equipment
JP2018081545A (en) Image data extraction device and image data extraction method
CN104463903A (en) Pedestrian image real-time detection method based on target behavior analysis
CN109427191B (en) Driving detection method and device
JP7374001B2 (en) Learning model generation method, program, and information processing device
CN111382625A (en) Road sign identification method and device and electronic equipment
CN113168520A (en) Method of tracking objects in a scene
CN104700384B (en) Display systems and methods of exhibiting based on augmented reality
JP6241172B2 (en) Vehicle position estimation device and vehicle position estimation method
JP2020126432A (en) Image processing system and image processing method
JP7383954B2 (en) Learning data collection device
CN116863124B (en) Vehicle attitude determination method, controller and storage medium
CN114037977B (en) Road vanishing point detection method, device, equipment and storage medium
CN108256444B (en) Target detection method for vehicle-mounted vision system
CN115909241A (en) Lane line detection method, system, electronic device and storage medium
CN114973205A (en) Traffic light tracking method and device and unmanned automobile
CN111325075B (en) Video sequence target detection method
JP2002042140A (en) Moving object measuring device and traffic flow measured image processing device
JP2000242797A (en) Method for detecting movement of image and object detecting device
CN112309134B (en) Vehicle speed detection method and device
CN117612069B (en) Method and device for constructing true value data and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R151 Written notification of patent or utility model registration

Ref document number: 7383954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151