JP7411771B1 - Vehicle speed detection device, vehicle speed detection method and program - Google Patents

Vehicle speed detection device, vehicle speed detection method and program Download PDF

Info

Publication number
JP7411771B1
JP7411771B1 JP2022192834A JP2022192834A JP7411771B1 JP 7411771 B1 JP7411771 B1 JP 7411771B1 JP 2022192834 A JP2022192834 A JP 2022192834A JP 2022192834 A JP2022192834 A JP 2022192834A JP 7411771 B1 JP7411771 B1 JP 7411771B1
Authority
JP
Japan
Prior art keywords
bounding box
image
vehicle
speed
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022192834A
Other languages
Japanese (ja)
Inventor
美優 ▲高▼橋
将揮 細野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Solutions Inc.
Original Assignee
Seiko Solutions Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Solutions Inc. filed Critical Seiko Solutions Inc.
Priority to JP2022192834A priority Critical patent/JP7411771B1/en
Application granted granted Critical
Publication of JP7411771B1 publication Critical patent/JP7411771B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】車両事故発生時の状況把握を精度よく行う。【解決手段】車両速度検出装置は、複数のフレームを含む動画像データから1フレーム分の画像を取得する画像取得部と、取得した画像に含まれる移動体である第1移動体の位置と大きさを特定するバウンディングボックスを検出するバウンディングボックス検出部と、検出されたバウンディングボックスの位置と大きさに基づく点である追跡対象点の位置座標を検出する追跡対象点検出部と、複数フレーム分の画像それぞれにおいて検出された前記追跡対象点の位置座標の変化に基づき、前記動画像データを撮像する撮像装置が設置された移動体である第2移動体と前記第1移動体との相対速度を推定する相対速度推定部とを備える。【選択図】図12[Problem] To accurately grasp the situation when a vehicle accident occurs. [Solution] A vehicle speed detection device includes an image acquisition unit that acquires an image for one frame from moving image data including a plurality of frames, and a position and size of a first moving object that is a moving object included in the acquired image. a bounding box detection unit that detects a bounding box for specifying the bounding box; a tracking target point detection unit that detects the position coordinates of a tracking target point, which is a point based on the position and size of the detected bounding box; Based on changes in the positional coordinates of the tracking target point detected in each image, the relative speed of the second moving body, which is a moving body in which an imaging device for capturing the moving image data is installed, and the first moving body is determined. and a relative velocity estimator for estimating. [Selection diagram] Figure 12

Description

本発明は、車両速度検出装置、車両速度検出方法及びプログラムに関する。 The present invention relates to a vehicle speed detection device, a vehicle speed detection method, and a program.

従来、車両事故発生時の状況把握を正確に行うため、車両にドライブレコーダ等のカメラを設置し、車両進行方向周辺の動画像を撮像することが行われている。自車両と相手車両との間で車両事故が発生している場合、事故分析において、事故発生前から事故発生時までの相手車の速度が重要な要素となる。そのため、ドライブレコーダにより撮像された動画像から相手車両の速度を推定する技術が多く検討されている。相手車両の速度を推定する手法の1つとして、ドライブレコーダにより撮像された動画像を二次元的に解析する手法が提案されている(例えば、特許文献1を参照)。このような技術によれば、オプティカルフローを用いることにより、動画像内において動いている物体の座標を算出し、算出した座標を用いて相手車両速度の推定を行うことが可能である。 BACKGROUND ART Conventionally, in order to accurately grasp the situation when a vehicle accident occurs, a camera such as a drive recorder is installed in a vehicle to capture moving images of the surrounding area in the direction in which the vehicle is traveling. When a vehicle accident occurs between one's own vehicle and another vehicle, the speed of the other vehicle from before the accident to the time of the accident becomes an important factor in accident analysis. Therefore, many techniques for estimating the speed of the other vehicle from moving images captured by drive recorders have been studied. As one method of estimating the speed of an opponent vehicle, a method of two-dimensionally analyzing a moving image captured by a drive recorder has been proposed (see, for example, Patent Document 1). According to such a technique, by using optical flow, it is possible to calculate the coordinates of a moving object in a moving image and estimate the speed of the other vehicle using the calculated coordinates.

特開2021-189531号公報JP2021-189531A

上述したような技術によれば、フレーム毎にタイヤと路面との接地点を特定し、特定した接地点のフレーム毎の推移に基づき自車両と相手車両との相対速度を推定する。したがって、フレーム毎に特定した接地点が実際よりずれている場合、速度のずれに直結してしまう。このように従来技術によれば、フレーム毎の速度変化を精度よく検出できないといった問題があった。相手車両の速度を精度よく算出できない場合、車両事故発生時の状況把握を正確に行うことが困難である。 According to the technique described above, the grounding point between the tire and the road surface is specified for each frame, and the relative speed between the own vehicle and the other vehicle is estimated based on the transition of the specified grounding point for each frame. Therefore, if the grounding point specified for each frame deviates from the actual position, this will directly lead to a deviation in speed. As described above, the conventional technology has a problem in that speed changes for each frame cannot be accurately detected. If the speed of the other vehicle cannot be accurately calculated, it is difficult to accurately grasp the situation when a vehicle accident occurs.

そこで本発明は、車両事故発生時の状況把握を精度よく行うことができる技術の提供を目的とする。 Therefore, an object of the present invention is to provide a technology that can accurately grasp the situation when a vehicle accident occurs.

[1]上記の課題を解決するため、本発明の一態様は、複数のフレームを含む動画像データから1フレーム分の画像を取得する画像取得部と、取得した画像に含まれる移動体である第1移動体の位置と大きさを特定するバウンディングボックスを検出するバウンディングボックス検出部と、検出されたバウンディングボックスの位置と大きさに基づく点である追跡対象点の位置座標を検出する追跡対象点検出部と、複数フレーム分の画像それぞれにおいて検出された前記追跡対象点の位置座標の変化に基づき、前記動画像データを撮像する撮像装置が設置された移動体である第2移動体と前記第1移動体との相対速度を推定する相対速度推定部とを備え、前記相対速度推定部は、1フレーム分の画像ごとに前記第2移動体と前記第1移動体との相対位置を示す情報を出力し、出力された相対位置の変化に基づいて前記相対速度を推定する車両速度検出装置である。 [1] In order to solve the above problems, one aspect of the present invention is an image acquisition unit that acquires an image for one frame from video data including a plurality of frames, and a moving object included in the acquired image. A bounding box detection unit that detects a bounding box that specifies the position and size of the first moving object, and a tracking target inspection that detects the position coordinates of a tracked point that is a point based on the position and size of the detected bounding box. a second moving body, which is a moving body equipped with an imaging device that captures the moving image data, based on a change in the position coordinates of the tracking target point detected in each of a plurality of frames of images; a relative speed estimating section that estimates a relative speed with respect to a first moving object, and the relative speed estimating section includes information indicating a relative position between the second moving object and the first moving object for each frame of images. This is a vehicle speed detection device that outputs a change in relative position and estimates the relative speed based on a change in the output relative position .

[2]また、本発明の一態様は、上記[1]に記載の車両速度検出装置において、前記追跡対象点検出部は、前記バウンディングボックスが有する1つ以上の頂点に基づく点を前記追跡対象点として検出するものである。 [2] Further, one aspect of the present invention is that in the vehicle speed detection device according to [1] above, the tracking target point detection unit detects a point based on one or more vertices of the bounding box as the tracking target point. It is detected as a point.

[3]また、本発明の一態様は、上記[2]に記載の車両速度検出装置において、前記追跡対象点検出部は、前記バウンディングボックスが有する1つの頂点、又は2つ以上の頂点の中心点を前記追跡対象点として検出するものである。 [3] Moreover, one aspect of the present invention is that in the vehicle speed detection device according to [2] above, the tracking target point detection unit detects the center of one vertex or two or more vertices of the bounding box. The point is detected as the tracking target point.

[4]また、本発明の一態様は、上記[1]から[3]のいずれかに記載の車両速度検出装置において、前記バウンディングボックスは、奥行き方向を有する三次元バウンディングボックスである。 [4] Further, one aspect of the present invention is the vehicle speed detection device according to any one of [1] to [3] above, in which the bounding box is a three-dimensional bounding box having a depth direction.

[5]また、本発明の一態様は、上記[4]に記載の車両速度検出装置において、前記追跡対象点検出部は、検出された前記三次元バウンディングボックスが有する底面に含まれる点を前記追跡対象点として検出するものである。 [5] Moreover, one aspect of the present invention is the vehicle speed detection device according to [4] above, in which the tracking target point detection unit detects a point included in a bottom surface of the detected three-dimensional bounding box. This is detected as a tracking target point.

[6]また、本発明の一態様は、上記[1]から[5]のいずれかに記載の車両速度検出装置において、前記第2移動体の走行速度を取得する速度情報取得部と、推定された前記相対速度と、前記第2移動体の走行速度とに基づき、前記第1移動体の走行速度を推定する絶対速度推定部とを更に備えるものである。 [6] Further, one aspect of the present invention provides the vehicle speed detection device according to any one of [1] to [5] above, including a speed information acquisition unit that acquires the traveling speed of the second moving body; The vehicle further includes an absolute speed estimating section that estimates the traveling speed of the first moving body based on the relative velocity determined by the vehicle and the traveling speed of the second moving body.

[7]また、本発明の一態様は、上記[1]から[6]のいずれかに記載の車両速度検出装置において、前記画像取得部により取得された画像の歪み補正を行う歪み補正部を更に備え、前記バウンディングボックス検出部は、前記歪み補正部により歪み補正が行われた画像に基づき、前記バウンディングボックスを検出するものである。 [7] Further, one aspect of the present invention is the vehicle speed detection device according to any one of [1] to [6] above, further comprising a distortion correction unit that corrects distortion of the image acquired by the image acquisition unit. Furthermore, the bounding box detection section detects the bounding box based on the image subjected to distortion correction by the distortion correction section.

[8]また、本発明の一態様は、上記[7]に記載の車両速度検出装置において、検出された前記バウンディングボックスの位置座標を、前記画像取得部により取得された画像の座標系における位置座標に変換する検出結果整形部を更に備えるものである。 [8] In addition, in the vehicle speed detection device according to [7] above, one aspect of the present invention is that the position coordinates of the detected bounding box are determined by the position coordinates of the detected bounding box in the coordinate system of the image acquired by the image acquisition unit. The apparatus further includes a detection result shaping section that converts the detection result into coordinates.

[9]また、本発明の一態様は、上記[1]から[8]のいずれかに記載の車両速度検出装置において、前記バウンディングボックス検出部は、所定の入力画像と、当該入力画像に対応するバウンディングボックスの位置とが対応付けられた教師データに基づき学習された機械学習モデルを用いて前記バウンディングボックスを検出するものである。 [9] Further, one aspect of the present invention is the vehicle speed detection device according to any one of [1] to [8] above, in which the bounding box detection unit has a predetermined input image and a frame corresponding to the input image. The bounding box is detected using a machine learning model learned based on teacher data that is associated with the position of the bounding box.

[10]また、本発明の一態様は、上記[9]に記載の車両速度検出装置において、前記機械学習モデルの学習に用いられる教師データは、昼間に撮像された画像に基づいて昼夜変換モデルを用いた画像処理が行われた結果、夜間に撮像された画像に変換された画像が含まれるものである。 [10] Further, one aspect of the present invention is that in the vehicle speed detection device according to [9] above, the training data used for learning the machine learning model is a day/night conversion model based on images captured during the day. As a result of image processing using , images converted to images taken at night are included.

[11]また、本発明の一態様は、複数のフレームを含む動画像データから1フレーム分の画像を取得する画像取得工程と、取得した画像に含まれる移動体である第1移動体の位置と大きさを特定するバウンディングボックスを検出するバウンディングボックス検出工程と、検出されたバウンディングボックスの位置と大きさに基づく点である追跡対象点の位置座標を検出する追跡対象点検出工程と、複数フレーム分の画像それぞれにおいて検出された前記追跡対象点の位置座標の変化に基づき、前記動画像データを撮像する撮像装置が設置された移動体である第2移動体と前記第1移動体との相対速度を推定する相対速度推定工程とを有し、前記相対速度推定工程は、1フレーム分の画像ごとに前記第2移動体と前記第1移動体との相対位置を示す情報を出力し、出力された相対位置の変化に基づいて前記相対速度を推定する車両速度検出方法である。 [11] Further, one aspect of the present invention provides an image acquisition step of acquiring an image for one frame from moving image data including a plurality of frames, and a position of a first moving object that is a moving object included in the acquired image. a bounding box detection step that detects a bounding box whose size is specified; a tracking point detection step that detects the position coordinates of a tracking point that is a point based on the position and size of the detected bounding box; Based on changes in the position coordinates of the tracking target point detected in each of the images, the relative relationship between the second moving body, which is a moving body in which an imaging device for capturing the moving image data is installed, and the first moving body is determined. a relative speed estimating step of estimating a speed , and the relative speed estimating step outputs information indicating the relative position of the second moving object and the first moving object for each frame of images; This vehicle speed detection method estimates the relative speed based on a change in relative position .

[12]また、本発明の一態様は、コンピュータに、複数のフレームを含む動画像データから1フレーム分の画像を取得する画像取得ステップと、取得した画像に含まれる移動体である第1移動体の位置と大きさを特定するバウンディングボックスを検出するバウンディングボックス検出ステップと、検出されたバウンディングボックスの位置と大きさに基づく点である追跡対象点の位置座標を検出する追跡対象点検出ステップと、複数フレーム分の画像それぞれにおいて検出された前記追跡対象点の位置座標の変化に基づき、前記動画像データを撮像する撮像装置が設置された移動体である第2移動体と前記第1移動体との相対速度を推定する相対速度推定ステップとを実行させ、前記相対速度推定ステップは、1フレーム分の画像ごとに前記第2移動体と前記第1移動体との相対位置を示す情報を出力し、出力された相対位置の変化に基づいて前記相対速度を推定するプログラムである。
[12] Further, one aspect of the present invention includes an image acquisition step of acquiring an image for one frame from moving image data including a plurality of frames, and a first moving object that is a moving object included in the acquired image. a bounding box detection step for detecting a bounding box that specifies the position and size of the body; a tracking target point detection step for detecting the position coordinates of a tracking target point, which is a point based on the position and size of the detected bounding box; , a second mobile body that is a mobile body equipped with an imaging device that captures the moving image data based on changes in the position coordinates of the tracking target point detected in each of a plurality of frames of images; and the first mobile body. and a relative speed estimating step of estimating a relative speed between the second moving object and the first moving object, and the relative speed estimating step outputs information indicating the relative position of the second moving object and the first moving object for each frame of images. The program estimates the relative velocity based on the output change in relative position .

本発明によれば、車両事故発生時の状況把握を精度よく行うことができる。 According to the present invention, it is possible to accurately grasp the situation when a vehicle accident occurs.

実施形態に係るシステムの概要について説明するためのブロック図である。FIG. 1 is a block diagram for explaining an overview of a system according to an embodiment. 実施形態に係るシステムが行う処理の概要について説明するためのシーケンス図である。FIG. 2 is a sequence diagram for explaining an overview of processing performed by the system according to the embodiment. 実施形態に係るシステムが行う車両認識処理の詳細について説明するためのフローチャートである。It is a flowchart for explaining details of vehicle recognition processing performed by a system concerning an embodiment. 実施形態に係るシステムが行う歪み補正処理について説明するための第1の図である。FIG. 2 is a first diagram for explaining distortion correction processing performed by the system according to the embodiment. 実施形態に係るシステムが行う歪み補正処理について説明するための第2の図である。FIG. 2 is a second diagram for explaining distortion correction processing performed by the system according to the embodiment. 実施形態に係るシステムが行うバウンディングボックス検出処理について説明するための図である。FIG. 3 is a diagram for explaining bounding box detection processing performed by the system according to the embodiment. 実施形態に係るシステムが行う検出結果整形処理について説明するための第1の図である。FIG. 2 is a first diagram for explaining detection result shaping processing performed by the system according to the embodiment. 実施形態に係るシステムが行う検出結果整形処理について説明するための第2の図である。FIG. 7 is a second diagram for explaining detection result shaping processing performed by the system according to the embodiment. 実施形態に係るシステムが行う速度推定処理の詳細について説明するためのフローチャートである。It is a flowchart for explaining the details of speed estimation processing performed by the system concerning an embodiment. 実施形態に係る三次元バウンディングボックスと、追跡対象点の一例について説明するための図である。FIG. 3 is a diagram for explaining an example of a three-dimensional bounding box and a tracking target point according to an embodiment. 実施形態に係るシステムが行うトラッキング処理の一例について説明するための図である。FIG. 3 is a diagram for explaining an example of tracking processing performed by the system according to the embodiment. 実施形態に係る車両速度検出装置の機能構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a functional configuration of a vehicle speed detection device according to an embodiment. 実施形態に係るシステムが有するユーザーインターフェースの処理の一例を示すフローチャートである。2 is a flowchart illustrating an example of processing of a user interface included in the system according to the embodiment. 実施形態に係るシステムが有するユーザーインターフェースが表示する表示画面の一例を示す第1の図である。FIG. 2 is a first diagram illustrating an example of a display screen displayed by a user interface included in the system according to the embodiment. 実施形態に係るシステムが有するユーザーインターフェースが表示する表示画面の一例を示す第2の図である。FIG. 7 is a second diagram showing an example of a display screen displayed by a user interface included in the system according to the embodiment. 実施形態に係るシステムにより出力された帳票の一例を示す第1の図である。FIG. 2 is a first diagram showing an example of a form output by the system according to the embodiment.

[実施形態]
本発明の態様に係る車両速度検出装置、車両速度検出方法及びプログラムについて、好適な実施の形態を掲げ、添付の図面を参照しながら以下、詳細に説明する。なお、本発明の態様は、これらの実施の形態に限定されるものではなく、多様な変更または改良を加えたものも含まれる。つまり、以下に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものが含まれ、以下に記載した構成要素は適宜組み合わせることが可能である。また、本発明の要旨を逸脱しない範囲で構成要素の種々の省略、置換または変更を行うことができる。また、以下の図面においては、各構成をわかりやすくするために、各構造における縮尺および数等を、実際の構造における縮尺および数等と異ならせる場合がある。
[Embodiment]
DESCRIPTION OF THE PREFERRED EMBODIMENTS A vehicle speed detection device, a vehicle speed detection method, and a program according to aspects of the present invention will be described in detail below with reference to preferred embodiments and the accompanying drawings. Note that aspects of the present invention are not limited to these embodiments, but also include those with various changes or improvements. That is, the components described below include those that can be easily assumed by those skilled in the art and are substantially the same, and the components described below can be combined as appropriate. Moreover, various omissions, substitutions, or changes of the constituent elements can be made without departing from the gist of the present invention. Further, in the following drawings, in order to make each structure easier to understand, the scale, number, etc. of each structure may be different from the scale, number, etc. of the actual structure.

図1は、実施形態に係るシステムの概要について説明するためのブロック図である。同図を参照しながら、システム1の概要について説明する。システム1は、車両事故発生時における状況把握を行う。車両事故発生時における状況把握には、少なくとも自車両と相手車両との間における相対位置の特定が含まれる。また、車両事故発生時における状況把握には、自車両と相手車両との相対速度の推定が含まれていてもよく、相手車両の絶対速度の推定が含まれていてもよい。その他、車両事故発生時における状況把握には、過失の割合の算出等が広く含まれていてもよい。 FIG. 1 is a block diagram for explaining an overview of a system according to an embodiment. An overview of the system 1 will be explained with reference to the same figure. System 1 grasps the situation when a vehicle accident occurs. Understanding the situation when a vehicle accident occurs includes at least specifying the relative position between the own vehicle and the other vehicle. Also, grasping the situation when a vehicle accident occurs may include estimating the relative speed between the own vehicle and the other vehicle, or may include estimating the absolute speed of the other vehicle. In addition, grasping the situation when a vehicle accident occurs may broadly include calculation of the percentage of fault.

システム1は、UIサーバ装置10と、AIサーバ装置20と、ファイルサーバ装置30とを備える。UIサーバ装置10、AIサーバ装置20及びファイルサーバ装置30は、互いに所定の通信ネットワークNWを介して接続される。通信ネットワークNWとは、有線又は無線回線を用いて構成される通信ネットワークである。所定の通信ネットワークNWはオープンなネットワークであってもよく、通信ネットワークNWに接続された装置同士は所定のプロトコルを用いて相互に通信することができる。所定の通信ネットワークNWの一例としては、インターネットを例示することができる。UIサーバ装置10、AIサーバ装置20及びファイルサーバ装置30は、互いに通信ネットワークNWを介して情報通信を行う。 The system 1 includes a UI server device 10, an AI server device 20, and a file server device 30. The UI server device 10, the AI server device 20, and the file server device 30 are connected to each other via a predetermined communication network NW. The communication network NW is a communication network configured using wired or wireless lines. The predetermined communication network NW may be an open network, and devices connected to the communication network NW can communicate with each other using a predetermined protocol. An example of the predetermined communication network NW is the Internet. The UI server device 10, the AI server device 20, and the file server device 30 communicate information with each other via the communication network NW.

なお、図示したようなシステム1が備える機能構成の割り当ては一例であり、例えば1台の装置によりシステム1が備える機能を実現してもよい。 Note that the assignment of the functional configuration of the system 1 as shown in the figure is an example, and the functions of the system 1 may be realized by one device, for example.

UIサーバ装置10は、ユーザーインターフェースの機能を有する。ユーザーインターフェースの機能の一例としては、ドライブレコーダにより撮像された動画像データを取得したり、事故発生時に置ける状況把握に関する指示を受け付けたりすること等である。UIサーバ装置10は、取得した動画像データや、受け付けた指示に基づき、通信ネットワークNWを介してAIサーバ装置20やファイルサーバ装置30に情報を出力する。UIサーバ装置10は、フレーム分割部11と、要求部12とを備える。 The UI server device 10 has a user interface function. Examples of the functions of the user interface include acquiring moving image data captured by a drive recorder and receiving instructions regarding understanding the situation when an accident occurs. The UI server device 10 outputs information to the AI server device 20 and the file server device 30 via the communication network NW based on the acquired moving image data and received instructions. The UI server device 10 includes a frame division section 11 and a request section 12.

フレーム分割部11は、取得した動画像データを静止画であるフレーム画像に分割する。換言すれば、ドライブレコーダにより撮像される動画像データには、複数のフレーム画像が含まれる。フレーム分割部11は、分割したフレーム画像をファイルサーバ装置30に出力し、記憶させる。分割したフレーム画像には、元となる動画像データを識別するための情報や、フレームの順番、フレームレートに関する情報等が対応付けられていてもよい。 The frame dividing unit 11 divides the acquired moving image data into frame images that are still images. In other words, the moving image data captured by the drive recorder includes a plurality of frame images. The frame dividing unit 11 outputs the divided frame images to the file server device 30 and stores them. The divided frame images may be associated with information for identifying the source moving image data, information regarding the order of frames, frame rate, and the like.

要求部12は、受け付けた事故発生時に置ける状況把握に関する指示に基づき、AIサーバ装置20に対し処理開始の要求を行う。事故発生時に置ける状況把握に関する指示は、システム1の使用者の操作により行われてもよい。事故発生時に置ける状況把握に関する指示の一例としては、車両認識処理や、速度推定処理等である。要求部12により出力される情報には、対応する動画像データ(又はフレーム画像)を識別する情報や、動画像データが含まれていてもよい。 The requesting unit 12 issues a request to the AI server device 20 to start processing based on the received instruction regarding understanding the situation when an accident occurs. Instructions regarding situational awareness at the time of occurrence of an accident may be given through an operation by the user of the system 1. Examples of instructions related to understanding the situation when an accident occurs include vehicle recognition processing and speed estimation processing. The information output by the requesting unit 12 may include information for identifying the corresponding moving image data (or frame image) and moving image data.

AIサーバ装置20は、事故発生時に置ける状況把握に関する処理を行うための機能を有する。事故発生時に置ける状況把握に関する処理の一例としては、車両認識処理や、速度推定処理等を例示することができる。AIサーバ装置20は、車両認識処理部21と、速度推定処理部22とを備える。 The AI server device 20 has a function for performing processing related to grasping the situation when an accident occurs. As an example of the process related to grasping the situation when an accident occurs, vehicle recognition process, speed estimation process, etc. can be exemplified. The AI server device 20 includes a vehicle recognition processing section 21 and a speed estimation processing section 22.

車両認識処理部21は、UIサーバ装置10から車両認識処理開始についての要求を取得する。当該要求には、対応するフレーム画像を特定するための情報(又はフレーム画像)が含まれている。車両認識処理部21は、ファイルサーバ装置30から対応するフレーム画像を取得し、取得したフレーム画像に基づき、車両認識処理を行う。車両認識処理とは、フレーム画像中における車両の位置を特定するための処理である。具体的には、車両認識処理とは、車両を囲うバウンディングボックスの大きさと位置座標とを特定する処理であってもよい。当該処理には機械学習アルゴリズムが用いられてもよい。車両認識処理部21は、処理を行った結果として得られた車両認識結果をファイルサーバ装置30に出力し、記憶させる。 The vehicle recognition processing unit 21 acquires a request for starting vehicle recognition processing from the UI server device 10. The request includes information (or frame image) for identifying the corresponding frame image. The vehicle recognition processing unit 21 acquires a corresponding frame image from the file server device 30, and performs vehicle recognition processing based on the acquired frame image. Vehicle recognition processing is processing for identifying the position of a vehicle in a frame image. Specifically, the vehicle recognition process may be a process of identifying the size and position coordinates of a bounding box surrounding the vehicle. A machine learning algorithm may be used for the processing. The vehicle recognition processing unit 21 outputs the vehicle recognition result obtained as a result of the processing to the file server device 30 and stores it.

速度推定処理部22は、UIサーバ装置10から速度推定処理開始についての要求を取得する。当該要求には、対応するフレーム画像(又は車両認識結果)を特定するための情報が含まれている。また、当該要求には、対応するフレーム画像(又は車両認識結果)そのものが含まれていてもよい。速度推定処理部22は、複数のフレーム画像に対応する車両認識結果を取得する。速度推定処理部22は、ファイルサーバ装置30から対応する複数の車両認識結果を取得し、取得した複数の車両認識結果に基づき、速度推定処理を行う。速度推定処理とは、自車両と相手車両との相対速度を推定するための処理であってもよいし、相手車両の絶対速度を推定するための処理であってもよい。具体的には、速度推定処理とは、認識された車両位置に基づく特定の点(例えばバウンディングボックスの中心点)のフレーム毎の位置(又は座標)の変化に基づいて速度推定を行うことであってもよい。速度推定処理部22は、処理を行った結果として得られた速度推定結果をファイルサーバ装置30に出力し、記憶させる。 The speed estimation processing unit 22 acquires a request for starting speed estimation processing from the UI server device 10. The request includes information for specifying the corresponding frame image (or vehicle recognition result). Further, the request may include the corresponding frame image (or vehicle recognition result) itself. The speed estimation processing unit 22 acquires vehicle recognition results corresponding to a plurality of frame images. The speed estimation processing unit 22 obtains a plurality of corresponding vehicle recognition results from the file server device 30, and performs a speed estimation process based on the obtained plurality of vehicle recognition results. The speed estimation process may be a process for estimating the relative speed between the host vehicle and the other vehicle, or may be a process for estimating the absolute speed of the other vehicle. Specifically, speed estimation processing is to estimate speed based on changes in the position (or coordinates) of a specific point (for example, the center point of a bounding box) for each frame based on the recognized vehicle position. You can. The speed estimation processing unit 22 outputs the speed estimation result obtained as a result of the processing to the file server device 30 and stores it.

ファイルサーバ装置30は、UIサーバ装置10からフレーム画像を取得し、フレーム画像31として記憶する。また、ファイルサーバ装置30は、AIサーバ装置20から車両認識結果を取得し、車両認識結果32として記憶する。また、ファイルサーバ装置30は、AIサーバ装置20から速度推定結果を取得し、速度推定結果33として記憶する。フレーム画像31、車両認識結果32及び速度推定結果33は、例えばドライブレコーダを特定する情報や、事故案件を識別するための番号である事故番号等をキーとして互いに対応付け可能なよう管理されてもよい。 The file server device 30 acquires a frame image from the UI server device 10 and stores it as a frame image 31. Further, the file server device 30 acquires the vehicle recognition result from the AI server device 20 and stores it as a vehicle recognition result 32. Further, the file server device 30 acquires the speed estimation result from the AI server device 20 and stores it as the speed estimation result 33. The frame image 31, the vehicle recognition result 32, and the speed estimation result 33 may be managed so that they can be associated with each other using, for example, information that identifies a drive recorder, or an accident number that is a number that identifies an accident case. good.

図2は、実施形態に係るシステムが行う処理の概要について説明するためのシーケンス図である。同図を参照しながら、システム1が行う処理の概要について説明する。図示するようなシステム1が行う処理の前提として、UIサーバ装置10は、ドライブレコーダから動画像データを取得し、取得した動画像データをフレーム画像に分割し、分割したフレーム画像をファイルサーバ装置30に記憶させてあるものとする。 FIG. 2 is a sequence diagram for explaining an overview of processing performed by the system according to the embodiment. An overview of the processing performed by the system 1 will be explained with reference to the same figure. As a premise of the processing performed by the system 1 as shown in the figure, the UI server device 10 acquires moving image data from a drive recorder, divides the acquired moving image data into frame images, and sends the divided frame images to the file server device 30. It is assumed that it has been memorized.

まず、システム1が行う車両認識処理について説明する。UIサーバ装置10は、AIサーバ装置20に対し車両認識要求を出力する(ステップS110)。AIサーバ装置20は、車両認識要求を取得すると、ファイルサーバ装置30に対してフレーム画像要求を出力する(ステップS120)。当該フレーム画像要求では、車両認識要求に含まれる識別情報(例えばドライブレコーダの識別情報や動画像データの識別情報)を用いて、取得すべきフレーム画像が特定される。ファイルサーバ装置30は、フレーム画像要求に基づき特定されるフレーム画像をAIサーバ装置20に出力する(ステップS130)。なお、ファイルサーバ装置30からAIサーバ装置20に出力されるフレーム画像の数は1以上であればよく、複数であってもよい。例えば、識別情報により識別されるフレーム画像すべてについて出力されてもよい。AIサーバ装置20は、取得したフレーム画像に基づき、車両認識処理を行う(ステップS140)。当該車両認識処理の詳細については後述する。AIサーバ装置20は、車両認識を行った結果を、ファイルサーバ装置30に出力する(ステップS150)。ファイルサーバ装置30は、例えばドライブレコーダの識別情報や動画像データの識別情報等と対応付けて、車両認識結果を記憶する。 First, vehicle recognition processing performed by the system 1 will be explained. The UI server device 10 outputs a vehicle recognition request to the AI server device 20 (step S110). Upon acquiring the vehicle recognition request, the AI server device 20 outputs a frame image request to the file server device 30 (step S120). In the frame image request, the frame image to be acquired is specified using the identification information (for example, the identification information of the drive recorder or the identification information of the moving image data) included in the vehicle recognition request. The file server device 30 outputs the frame image specified based on the frame image request to the AI server device 20 (step S130). Note that the number of frame images output from the file server device 30 to the AI server device 20 may be one or more, or may be plural. For example, all frame images identified by the identification information may be output. The AI server device 20 performs vehicle recognition processing based on the acquired frame image (step S140). Details of the vehicle recognition process will be described later. The AI server device 20 outputs the result of vehicle recognition to the file server device 30 (step S150). The file server device 30 stores vehicle recognition results in association with, for example, identification information of a drive recorder, identification information of moving image data, and the like.

次に、システム1が行う速度推定処理について説明する。UIサーバ装置10は、AIサーバ装置20に対し速度推定要求を出力する(ステップS210)。AIサーバ装置20は、速度推定要求を取得すると、ファイルサーバ装置30に対して車両認識結果要求を出力する(ステップS220)。当該車両認識結果要求では、速度推定要求に含まれる識別情報(例えばドライブレコーダの識別情報や動画像データの識別情報)を用いて、取得すべき車両認識結果が特定される。ファイルサーバ装置30は、車両認識結果要求に基づき特定される車両認識結果をAIサーバ装置20に出力する(ステップS230)。AIサーバ装置20は、取得した車両認識結果に基づき、速度推定処理を行う(ステップS240)。当該速度推定の詳細については後述する。AIサーバ装置20は、速度推定を行った結果を、ファイルサーバ装置30に出力する(ステップS250)。ファイルサーバ装置30は、例えばドライブレコーダの識別情報や動画像データの識別情報等と対応付けて、速度推定を記憶する。 Next, the speed estimation process performed by the system 1 will be explained. The UI server device 10 outputs a speed estimation request to the AI server device 20 (step S210). Upon acquiring the speed estimation request, the AI server device 20 outputs a vehicle recognition result request to the file server device 30 (step S220). In the vehicle recognition result request, the vehicle recognition result to be obtained is specified using identification information (for example, drive recorder identification information or video data identification information) included in the speed estimation request. The file server device 30 outputs the vehicle recognition result specified based on the vehicle recognition result request to the AI server device 20 (step S230). The AI server device 20 performs speed estimation processing based on the acquired vehicle recognition result (step S240). Details of the speed estimation will be described later. The AI server device 20 outputs the speed estimation result to the file server device 30 (step S250). The file server device 30 stores the speed estimation in association with, for example, identification information of a drive recorder, identification information of moving image data, and the like.

次に、図3から図8を参照しながら、車両認識処理の詳細について説明する。 Next, details of the vehicle recognition process will be described with reference to FIGS. 3 to 8.

図3は、実施形態に係るシステムが行う車両認識処理の詳細について説明するためのフローチャートである。同図を参照しながら、車両認識処理の詳細について説明する。 FIG. 3 is a flowchart for explaining details of vehicle recognition processing performed by the system according to the embodiment. The details of the vehicle recognition process will be explained with reference to the figure.

まず、AIサーバ装置20の車両認識処理部21は、要求部12からの要求に基づき、ファイルサーバ装置30からフレーム画像を取得する(ステップS310)。ここで、ファイルサーバ装置30に記憶されているフレーム画像は、ドライブレコーダにより撮像された動画の1フレームに該当する。ドライブレコーダにより撮像される画像は、歪み補正がされていないため、当該画像を用いて車両位置を推定する場合、歪みによる影響を受け、精度が落ちてしまう場合がある。歪み補正がされていない画像は、Radial distortion modelによる画像ということもできる。歪みによる影響を低減するため、車両認識処理部21は、取得したフレーム画像についての歪み補正を行う(ステップS320)。車両認識処理部21が行う歪み補正処理の詳細については、図4及び図5を参照しながら説明する。 First, the vehicle recognition processing unit 21 of the AI server device 20 acquires a frame image from the file server device 30 based on a request from the requesting unit 12 (step S310). Here, the frame image stored in the file server device 30 corresponds to one frame of a moving image captured by a drive recorder. Images captured by a drive recorder have not been subjected to distortion correction, so when estimating a vehicle position using the images, the accuracy may decrease due to the effects of distortion. An image that has not been subjected to distortion correction can also be said to be an image based on a radial distortion model. In order to reduce the influence of distortion, the vehicle recognition processing unit 21 performs distortion correction on the acquired frame image (step S320). Details of the distortion correction processing performed by the vehicle recognition processing section 21 will be described with reference to FIGS. 4 and 5.

図4は、実施形態に係るシステムが行う歪み補正処理について説明するための第1の図である。図4(A)は、歪み補正がされていない画像(すなわち、ファイルサーバ装置30に記憶されるフレーム画像)の一例を示す。同図には、自車両の走行方向を撮像した映像が示される。また、同図に示す一例では、車両事故の相手車両(対向車)が画角内に映り込んでいる。図4(A)は、Radial distortion modelによる画像であるということもできる。 FIG. 4 is a first diagram for explaining distortion correction processing performed by the system according to the embodiment. FIG. 4A shows an example of an image that has not been subjected to distortion correction (that is, a frame image stored in the file server device 30). The figure shows an image captured in the traveling direction of the host vehicle. Furthermore, in the example shown in the figure, the other vehicle (oncoming vehicle) in the vehicle accident is reflected within the angle of view. FIG. 4(A) can also be said to be an image based on a Radial distortion model.

図4(B)は、車両認識処理部21により第1の補正がされた後の画像の一例を示す。図4(B)は、具体的にはPinhole camera modelによる画像である。図4(C)は、車両認識処理部21により第2の補正がされた後の画像の一例を示す。図4(C)は、具体的にはFOV distortion modelによる画像である。車両認識処理部21は、図示するように、まずPinhole camera modelに変換し、その後、FOV distortion modelに変換を行う。車両認識処理部21は、これら2回の変換を行った画像に基づき、車両認識処理を行う。 FIG. 4(B) shows an example of an image after the first correction is performed by the vehicle recognition processing unit 21. Specifically, FIG. 4(B) is an image based on the Pinhole camera model. FIG. 4C shows an example of an image after the second correction is performed by the vehicle recognition processing unit 21. Specifically, FIG. 4(C) is an image based on the FOV distortion model. As shown in the figure, the vehicle recognition processing unit 21 first converts into a pinhole camera model, and then converts into an FOV distortion model. The vehicle recognition processing unit 21 performs vehicle recognition processing based on the image that has been converted twice.

ここで、まずPinhole camera modelに変換し、その後、FOV distortion modelに変換を行う処理をフレーム毎に行う場合、全体の処理に要する時間が長くなってしまうといった課題が生じる場合がある。したがって、Pinhole camera modelに変換するための行列と、FOV distortion modelに変換するための行列とを予め掛け合わせておくことにより、Pinhole camera modelを経てFOV distortion modelに変換するための行列を用意しておくことが好適である。この場合、フレーム毎に予め用意した行列を乗じることにより、1回の演算により、Pinhole camera modelを経てFOV distortion modelに変換することができるようになり、全体の処理に要する時間を短縮することができるようになる。 Here, if the process of first converting to the Pinhole camera model and then converting to the FOV distortion model is performed for each frame, a problem may arise in that the time required for the entire process becomes long. Therefore, by multiplying the matrix for converting to the Pinhole camera model and the matrix for converting to the FOV distortion model in advance, you can prepare the matrix for converting from the Pinhole camera model to the FOV distortion model. It is preferable to leave the In this case, by multiplying each frame by a matrix prepared in advance, it becomes possible to convert from a pinhole camera model to an FOV distortion model in one operation, reducing the time required for the entire processing. become able to.

図5は、実施形態に係るシステムが行う歪み補正処理について説明するための第2の図である。同図を参照しながら、Pinhole camera modelと、FOV distortion modelについて説明する。Pinhole camera modelとは、レンズ面の中心を通った光が直進して、結像面で像となるモデルである。Pinhole camera modelにおける光の経路を図中破線で示す。図中右側の垂直な実線で示された面は、結像面を示し、カメラにおけるイメージセンサに相当する。また、図中に記載したレンズ面とは、円の中心を通る垂直な実線で示された面のことであり、カメラにおけるレンズを抽象的に示した面に相当する。実線で示された円は、説明の都合上、概念的に描かれたものであり、何らかの実際の面を示すものではない。Pinhole camera modelによれば、直線のものは直線として写るという特徴を有する。また、Pinhole camera modelによれば、光軸とのなす角が大きい被写体(例えば画像端に存在する被写体)は大きく引き伸ばされて写るという特徴を有する。 FIG. 5 is a second diagram for explaining the distortion correction processing performed by the system according to the embodiment. The Pinhole camera model and FOV distortion model will be explained with reference to the same figure. The Pinhole camera model is a model in which light passes through the center of the lens surface and travels straight, forming an image on the imaging surface. The path of light in the pinhole camera model is shown by the dashed line in the figure. The plane indicated by the vertical solid line on the right side of the figure indicates the imaging plane, and corresponds to the image sensor in the camera. Further, the lens surface shown in the figure is a surface indicated by a vertical solid line passing through the center of a circle, and corresponds to a surface abstractly showing a lens in a camera. The circles shown in solid lines are drawn conceptually for illustrative purposes and do not represent any actual surface. According to the pinhole camera model, a straight object has the characteristic that it appears as a straight line. Furthermore, according to the pinhole camera model, a subject that forms a large angle with the optical axis (for example, a subject that is present at the edge of the image) has a characteristic that it appears greatly elongated.

FOV distortion modelとは、結像面の中心からの距離が、被写体が光軸となす角に比例するモデルである。FOV distortion modelのFOVとは、Field-of-viewである。FOV distortion modelにおける光の経路を、白丸と白丸とを結ぶ実線による線分により示す。当該線分は、FOV distortion modelにおける概念上の結像面と、実際の結像面における、レンズの中心を通った光が像をなす位置を概念的に示したものということができる。FOV distortion modelによれば、結像面の中心からの距離が等しい点は、光軸となす角も等しい。すなわち、FOV distortion modelによれば、光軸とのなす角が大きい被写体(例えば画像端に存在する被写体)であっても大きく引き伸ばされてしまうことがない。したがって、車両認識処理部21は、FOV distortion modelを用いて車両認識を行うことにより、画像端に存在する車両の認識精度を向上させることができる。 The FOV distortion model is a model in which the distance from the center of the image plane is proportional to the angle that the subject makes with the optical axis. FOV The FOV of the distortion model is Field-of-view. The path of light in the FOV distortion model is shown by solid line segments connecting white circles. The line segment can be said to conceptually indicate the position where light passing through the center of the lens forms an image on the conceptual imaging plane in the FOV distortion model and on the actual imaging plane. According to the FOV distortion model, points that are the same distance from the center of the image plane also have the same angle with the optical axis. That is, according to the FOV distortion model, even a subject that forms a large angle with the optical axis (for example, a subject located at the edge of the image) will not be significantly stretched. Therefore, by performing vehicle recognition using the FOV distortion model, the vehicle recognition processing unit 21 can improve the recognition accuracy of vehicles present at the edges of the image.

図3に戻り、車両認識処理部21は、上述した歪み補正がされた後の画像に基づき、バウンディングボックスの検出を行う(ステップS330)。当該バウンディングボックスは、事故の相手となる可能性が有る移動体(例えば、自動車や自動二輪車又は二輪車等の車両や歩行者等)が存在する位置を特定する。 Returning to FIG. 3, the vehicle recognition processing unit 21 detects a bounding box based on the image after the above-described distortion correction (step S330). The bounding box specifies the location of a moving object (for example, a vehicle such as a car, a motorcycle, or a two-wheeled vehicle, a pedestrian, etc.) that may be involved in an accident.

ここで、本実施形態に係るバウンディングボックスは、三次元バウンディングボックス(3Dバウンディングボックス)であることが好適である。三次元バウンディングボックスとは、二次元の情報である画像に含まれる物体の三次元的な位置座標を特定するものである。すなわち三次元バウンディングボックスは、二次元バウンディングボックスと比較して、奥行き情報を更に有する点において異なる。例えば車両の場合、車両を囲う三次元バウンディングボックスを特定するためには、車両を三次元的に囲う8点の座標が用いられてもよい。なお、本実施形態に係るバウンディングボックスは、三次元バウンディングボックスの一例に限定されず、三次元バウンディングボックスを構成する6面の内の1面のみを用いた二次元バウンディングボックスが用いられてもよい。 Here, it is preferable that the bounding box according to this embodiment is a three-dimensional bounding box (3D bounding box). A three-dimensional bounding box specifies the three-dimensional position coordinates of an object included in an image, which is two-dimensional information. That is, a three-dimensional bounding box differs from a two-dimensional bounding box in that it further includes depth information. For example, in the case of a vehicle, the coordinates of eight points that three-dimensionally surround the vehicle may be used to specify a three-dimensional bounding box that surrounds the vehicle. Note that the bounding box according to the present embodiment is not limited to an example of a three-dimensional bounding box, and a two-dimensional bounding box using only one of the six sides constituting the three-dimensional bounding box may be used. .

図6は、実施形態に係るシステムが行うバウンディングボックス検出処理について説明するための図である。同図を参照しながら、バウンディングボックス検出処理の詳細について説明する。図6(A)は、車両認識処理部21により特定された三次元バウンディングボックスの一例が示されている。当該バウンディングボックスは、例えば学習済みモデルを用いて推論を行った結果として得られるものであってもよい。なお、図示する一例では、ドライブレコーダにより撮像された動画像には、3台の移動体(具体的には車両)が映り込んでいるため、3つのバウンディングボックスが検出されている。図6(B)は、バウンディングボックスの位置座標情報から生成された鳥瞰図である。当該鳥瞰図には、三次元バウンディングボックスの位置座標から特定された移動体が存在する位置座標が示される。当該鳥瞰図は、自車両の位置との距離、自車両の位置から見て移動体が存在する方向、及び移動体の向き(進行方向)についての情報を有する。同図における自車両の位置は、図中下方の上向き矢印により示されている。 FIG. 6 is a diagram for explaining bounding box detection processing performed by the system according to the embodiment. The details of the bounding box detection process will be explained with reference to the figure. FIG. 6A shows an example of a three-dimensional bounding box specified by the vehicle recognition processing unit 21. The bounding box may be obtained, for example, as a result of inference using a trained model. In the illustrated example, three moving objects (specifically, vehicles) are reflected in the moving image captured by the drive recorder, so three bounding boxes are detected. FIG. 6(B) is a bird's eye view generated from the position coordinate information of the bounding box. The bird's-eye view shows the position coordinates where the moving object, identified from the position coordinates of the three-dimensional bounding box, is present. The bird's eye view has information about the distance to the position of the own vehicle, the direction in which the moving body exists as seen from the position of the own vehicle, and the orientation (progressing direction) of the moving body. The position of the host vehicle in the figure is indicated by an upward arrow at the bottom of the figure.

図3に戻り、車両認識処理部21は、上述したステップS330により得られた検出結果を整形する(ステップS340)。ここで、ステップS330におけるバウンディングボックスの検出処理は、FOV distortion modelを用いて行われるものである。したがって、ステップS340では、検出結果を整形することにより、カメラ座標系における真の座標を計算するものである。 Returning to FIG. 3, the vehicle recognition processing unit 21 shapes the detection result obtained in step S330 described above (step S340). Here, the bounding box detection process in step S330 is performed using an FOV distortion model. Therefore, in step S340, the true coordinates in the camera coordinate system are calculated by shaping the detection results.

図7は、実施形態に係るシステムが行う検出結果整形処理について説明するための第1の図である。同図を参照しながら、検出結果整形処理の詳細について説明する。まず、線L71は、FOV distortion modelを用いて三次元バウンディングボックスの検出がおこなわれた時点における光路を示す。また、当該時点における座標を点P1として示す。点P1をそのままカメラ座標系に適用することはできないため(誤差が生じるため)、検出結果整形処理によりカメラ座標系における座標を計算する。線L72は、FOV distortion model からPinhole camera model に変換された後における光路を示す。また、当該時点における座標を点P2として示す。点P2は、検出結果整形処理が行われた結果として得られる座標である。 FIG. 7 is a first diagram for explaining detection result shaping processing performed by the system according to the embodiment. The details of the detection result shaping process will be explained with reference to the same figure. First, line L71 indicates the optical path at the time when a three-dimensional bounding box is detected using the FOV distortion model. Further, the coordinates at that point in time are shown as point P1. Since point P1 cannot be directly applied to the camera coordinate system (because an error will occur), the coordinates in the camera coordinate system are calculated by detection result shaping processing. A line L72 indicates the optical path after being converted from the FOV distortion model to the Pinhole camera model. Further, the coordinates at that point in time are shown as point P2. Point P2 is the coordinate obtained as a result of the detection result shaping process.

なお、結像面におけるピクセルの座標と、カメラ座標系上の座標を相互変換する場合の具体例として、例えば下の式(1)を例示することができる。式(1)における3×4行列は、カメラパラメータ行列である。 Note that, as a specific example of mutually converting the coordinates of a pixel on the image plane and the coordinates on the camera coordinate system, the following equation (1) can be exemplified. The 3×4 matrix in equation (1) is a camera parameter matrix.

Figure 0007411771000002
Figure 0007411771000002

cx及びcyは、光軸からの結像面上における距離を示しており、fx及びfyは、レンズ面から結像面への光軸上の距離を示している。cx及びcyは、Pinhole camera model 画像の幅及び高さの半分とすることにより求められる。また、fx及びfyは、既知のcx及びcyを用いて、fx=cx/tanθ、fy=cy/tanθ(なお、画角θは光軸と光路がなす角)により求められる。 cx and cy indicate the distance on the imaging plane from the optical axis, and fx and fy indicate the distance on the optical axis from the lens surface to the imaging plane. cx and cy are determined by setting them to half the width and height of the Pinhole camera model image. Further, fx and fy are determined by fx=cx/tanθ and fy=cy/tanθ (the angle of view θ is the angle formed by the optical axis and the optical path) using known cx and cy.

図8は、実施形態に係るシステムが行う検出結果整形処理について説明するための第2の図である。同図を参照しながら、検出結果整形処理の前後における鳥瞰図の変化について説明する。図8(A)は、検出結果整形処理の前における鳥瞰図を示す。図8(B)は、検出結果整形処理の後における鳥瞰図を示す。図示するように、検出結果整形処理を行った結果、移動体の位置が自車両に近づき、実際のカメラ座標系における位置に変換されていることが分かる。 FIG. 8 is a second diagram for explaining the detection result shaping process performed by the system according to the embodiment. With reference to the figure, changes in the bird's-eye view before and after the detection result shaping process will be described. FIG. 8(A) shows a bird's-eye view before the detection result shaping process. FIG. 8(B) shows a bird's-eye view after the detection result shaping process. As shown in the figure, it can be seen that as a result of the detection result shaping process, the position of the moving object has moved closer to the host vehicle and has been converted to a position in the actual camera coordinate system.

図3に戻り、車両認識処理部21は、車両認識結果をファイルサーバ装置30に出力する(ステップS350)。なお、車両認識結果には、少なくともバウンディングボックスの座標が含まれる。車両認識結果には、図6(A)に示したような三次元バウンディングボックスを含む画像や、図7(B)に示すような鳥瞰図が含まれていてもよい。 Returning to FIG. 3, the vehicle recognition processing unit 21 outputs the vehicle recognition result to the file server device 30 (step S350). Note that the vehicle recognition result includes at least the coordinates of the bounding box. The vehicle recognition result may include an image including a three-dimensional bounding box as shown in FIG. 6(A), or a bird's-eye view as shown in FIG. 7(B).

次に、図9から図11を参照しながら、速度推定処理の詳細について説明する。 Next, details of the speed estimation process will be described with reference to FIGS. 9 to 11.

図9は、実施形態に係るシステムが行う速度推定処理の詳細について説明するためのフローチャートである。同図を参照しながら、速度推定処理の詳細について説明する。まず、AIサーバ装置20の速度推定処理部22は、要求部12からの要求に基づき、ファイルサーバ装置30から車両認識結果を取得する(ステップS410)。ファイルサーバ装置30に記憶されている車両認識結果は、ドライブレコーダにより撮像された動画の1フレームに該当する。速度推定処理部22は、複数フレーム分の車両認識結果を取得する。速度推定処理部22は、取得した複数フレーム分の車両認識結果に基づき、対象車両(速度推定処理の対象となる移動体)のトラッキングを行う(ステップS420)。当該トラッキング処理とは、具体的には、各フレームにおける1以上のバウンディングボックスのうち、追跡対象となるバウンディングを特定する(すなわち、同一車両を囲むバウンディングを各フレームにおいて特定する)処理である。 FIG. 9 is a flowchart for explaining details of the speed estimation process performed by the system according to the embodiment. The details of the speed estimation process will be explained with reference to the figure. First, the speed estimation processing unit 22 of the AI server device 20 obtains a vehicle recognition result from the file server device 30 based on a request from the requesting unit 12 (step S410). The vehicle recognition result stored in the file server device 30 corresponds to one frame of a moving image captured by a drive recorder. The speed estimation processing unit 22 acquires vehicle recognition results for multiple frames. The speed estimation processing unit 22 tracks the target vehicle (the moving object that is the target of the speed estimation process) based on the acquired vehicle recognition results for a plurality of frames (step S420). Specifically, the tracking process is a process of identifying a bounding to be tracked among one or more bounding boxes in each frame (that is, identifying boundings surrounding the same vehicle in each frame).

トラッキング処理の具体的な実施例について説明する。まず、速度推定処理の対象となる複数のフレームのうち、最前及び最後の2つのフレームを特定する。さらに特定された2つのフレームそれぞれにおいて、速度推定処理の対象となる車両を囲うバウンディングボックスを特定する。最前のフレーム(スタートフレーム)において特定されたバウンディングボックスにより囲われた車両と、最後のフレーム(エンドフレーム)において特定されたバウンディングボックスにより囲われた車両とは、同一の車両である。また、2つのフレームを特定する作業と、特定された2つのフレームにおいてバウンディングボックスを特定する作業とは、ユーザの選択により行われることが好適である。次に、2つのフレームの間に位置するフレームについて、(1)スタートフレームにおけるバウンディングボックスの位置とエンドフレームにおけるバウンディングボックスの位置とから線形補間により算出されたバウンディングボックスの位置と、(2)バウンディングボックス検出部45により検出されたバウンディングボックスの位置とに基づいて、速度推定処理の対象となる車両を囲うバウンディングボックスを特定する。当該特定作業は、例えば(1)のバウンディングボックスと重複する面積が最も大きい(2)のバウンディングボックスを特定することであってもよい。面積の比較は、三次元バウンディングボックスの場合、三次元バウンディングボックスを構成する特定の面に基づき行われてもよい。このように、トラッキング処理においては、ユーザにより特定されたバウンディングボックスに基づいて、各フレームにおける追跡対象となるバウンディングボックスを特定する。なお、当該処理は、スタートフレームにおけるフレームを1フレーム目、エンドフレームにおけるフレームをn(nは1以上の自然数)フレーム目とした場合、1+1フレーム目、n-1フレーム目、1+2フレーム目、n-2フレーム目、…、のような順序で行われていってもよい。この場合、線形補間により(1)のバウンディングボックスの位置を特定する処理は、1+1フレーム目、n-1フレーム目、1+2フレーム目、n-2フレーム目、…、のように既に確定したバウンディングボックスに基づいて行われてもよい。 A specific example of tracking processing will be described. First, among a plurality of frames to be subjected to speed estimation processing, the first and last two frames are identified. Furthermore, in each of the two specified frames, a bounding box surrounding the vehicle to be subjected to speed estimation processing is specified. The vehicle surrounded by the bounding box specified in the first frame (start frame) and the vehicle surrounded by the bounding box specified in the last frame (end frame) are the same vehicle. Further, it is preferable that the task of specifying two frames and the task of specifying a bounding box in the two specified frames are performed by the user's selection. Next, for a frame located between two frames, (1) the bounding box position calculated by linear interpolation from the bounding box position in the start frame and the bounding box position in the end frame, and (2) the bounding box position. Based on the position of the bounding box detected by the box detection unit 45, a bounding box surrounding the vehicle to be subjected to speed estimation processing is specified. The specific work may be, for example, to specify the bounding box (2) that has the largest area overlapping with the bounding box (1). In the case of a three-dimensional bounding box, the area comparison may be performed based on specific planes that make up the three-dimensional bounding box. In this way, in the tracking process, the bounding box to be tracked in each frame is specified based on the bounding box specified by the user. In addition, when the start frame is the 1st frame and the end frame is the nth frame (n is a natural number of 1 or more), this process is performed on the 1+1st frame, the n-1st frame, the 1+2nd frame, and the nth frame. -2nd frame, . . . , etc. may be performed in this order. In this case, the process of identifying the position of the bounding box in (1) by linear interpolation is based on the bounding boxes that have already been determined such as 1+1 frame, n-1 frame, 1+2 frame, n-2 frame, etc. It may be done based on.

速度推定処理部22は、自車両と相手車両との間の相対速度を導出する(ステップS430)。相対速度の導出には、ステップS420のトラッキング処理により特定されたバウンディングボックスの位置と、ドライブレコーダに関する特性(例えば、フレームレート等)とが用いられる。 ドライブレコーダに関する特性は、予め速度推定処理部22が記憶していてもよいし、UIサーバ装置10からの要求、フレーム画像又は車両認識結果等に含まれていてもよい。バウンディングボックスの移動量を計測するためには、バウンディングボックスの頂点が用いられてもよいし、複数の頂点により特定される点(例えば中点や中心点)が用いられてもよい。 The speed estimation processing unit 22 derives the relative speed between the own vehicle and the other vehicle (step S430). The position of the bounding box specified by the tracking process in step S420 and characteristics related to the drive recorder (for example, frame rate, etc.) are used to derive the relative speed. The characteristics related to the drive recorder may be stored in advance by the speed estimation processing unit 22, or may be included in a request from the UI server device 10, a frame image, a vehicle recognition result, or the like. In order to measure the amount of movement of the bounding box, a vertex of the bounding box may be used, or a point specified by a plurality of vertices (for example, a midpoint or center point) may be used.

図10は、実施形態に係る三次元バウンディングボックスと、追跡対象点の一例について説明するための図である。同図を参照しながら、移動体の速度算出処理に用いられる点の一例について説明する。同図には、バウンディングボックスの模式図を示す。点Aから点Hは、移動体を囲うバウンディングボックスの頂点である。点A、点B、点C及び点Dにより構成される矩形は、例えば車両のフロント側に該当する。点E、点F、点G及び点Hにより構成される矩形は、例えば車両のリア側に該当する。点C、点D、点G及び点Hにより構成される矩形は、例えば車両の下側に該当する。点A、点B、点E及び点Fにより構成される矩形は、例えば車両の上側に該当する。点Iは、車両の下側の矩形における中心点である。速度推定処理部22は、例えば下側の矩形における中心点を追跡対象点として特定し、当該追跡対象点をトラッキングしてもよい。なお、追跡対象点には、フロント側又はリア側等の中心点が用いられてもよいし、三次元バウンディングボックスの中心点が用いられてもよい。 FIG. 10 is a diagram for explaining an example of a three-dimensional bounding box and a tracking target point according to the embodiment. An example of points used in the velocity calculation process of a moving object will be explained with reference to the same figure. The figure shows a schematic diagram of a bounding box. Points A to H are the vertices of a bounding box surrounding the moving object. A rectangle formed by points A, B, C, and D corresponds to the front side of the vehicle, for example. A rectangle formed by points E, F, G, and H corresponds to, for example, the rear side of the vehicle. A rectangle formed by points C, D, G, and H corresponds to the lower side of the vehicle, for example. A rectangle formed by points A, B, E, and F corresponds to the upper side of the vehicle, for example. Point I is the center point of the lower rectangle of the vehicle. The speed estimation processing unit 22 may specify, for example, the center point of the lower rectangle as a tracking target point, and may track the tracking target point. Note that the center point on the front side or rear side may be used as the tracking target point, or the center point of a three-dimensional bounding box may be used.

なお、バウンディングボックスが二次元バウンディングである場合、二次元バウンディングボックス(矩形)の中心点が追跡対象点として用いられてもよいし、下側の線分の中点が追跡対象点として用いられてもよい。 Note that if the bounding box is a two-dimensional bounding, the center point of the two-dimensional bounding box (rectangle) may be used as the tracking target point, or the midpoint of the lower line segment may be used as the tracking target point. Good too.

図11は、実施形態に係るシステムが行うトラッキング処理の一例について説明するための図である。同図を参照しながら、トラッキング処理の一例について説明する。図11(A)は、第1のフレーム画像から抽出された車両の位置を示す鳥瞰図であり、図11(B)は、第2のフレーム画像から抽出された車両の位置を示す鳥瞰図である。第1のフレーム画像と、第2のフレーム画像とは、連続するフレームであってもよい。フレームレートが10[fps(frames per second)]である場合、図11(A)に示す状況から図11(B)に示す状況までの時間は0.1[秒]である。この場合、例えばフレーム毎の車両の移動量が3[m(メートル)]であるとすると、相対速度は3[m]×36000=108[km/時]となる。 FIG. 11 is a diagram for explaining an example of tracking processing performed by the system according to the embodiment. An example of tracking processing will be described with reference to the same figure. FIG. 11(A) is a bird's-eye view showing the position of the vehicle extracted from the first frame image, and FIG. 11(B) is a bird's-eye view showing the position of the vehicle extracted from the second frame image. The first frame image and the second frame image may be consecutive frames. When the frame rate is 10 [fps (frames per second)], the time from the situation shown in FIG. 11(A) to the situation shown in FIG. 11(B) is 0.1 [second]. In this case, for example, if the amount of movement of the vehicle per frame is 3 [m (meter)], the relative speed will be 3 [m] x 36000 = 108 [km/hour].

図9に戻り、速度推定処理部22は、速度推定結果をファイルサーバ装置30に出力する(ステップS440)。なお、速度推定結果には、少なくとも相対速度を示す情報が含まれる。その他、速度推定結果には、速度推定処理部22により推定された結果に関する情報(例えば、絶対速度等)が含まれていてもよい。 Returning to FIG. 9, the speed estimation processing unit 22 outputs the speed estimation result to the file server device 30 (step S440). Note that the speed estimation result includes at least information indicating relative speed. In addition, the speed estimation result may include information regarding the result estimated by the speed estimation processing section 22 (for example, absolute speed, etc.).

図12は、実施形態に係る車両速度検出装置の機能構成の一例を示すブロック図である。同図を参照しながら、車両速度検出装置40の機能構成の一例について説明する。車両速度検出装置40は、上述した車両速度検出方法を単独の装置により実現しようとした場合における機能構成を有する。車両速度検出装置40が備える機能構成は、例えば図1に示したように複数の装置間に分配して配置されていてもよい。 FIG. 12 is a block diagram showing an example of the functional configuration of the vehicle speed detection device according to the embodiment. An example of the functional configuration of the vehicle speed detection device 40 will be described with reference to the same figure. The vehicle speed detection device 40 has a functional configuration when the above-described vehicle speed detection method is attempted to be implemented by a single device. The functional configuration of the vehicle speed detection device 40 may be distributed among a plurality of devices, for example, as shown in FIG.

車両速度検出装置40は、動画取得部41と、フレーム分割部42と、画像取得部43と、歪み補正部44と、バウンディングボックス検出部45と、追跡対象点検出部46と、検出結果整形部47と、相対速度推定部48と、速度情報取得部49と、絶対速度推定部411とを含んで構成される。これらの各機能部は、例えば、電子回路を用いて実現される。また、各機能部は、必要に応じて、半導体メモリや磁気ハードディスク装置などといった記憶手段を内部に備えてよい。また、各機能部を、コンピュータおよびソフトウェアによって実現するようにしてもよい。 The vehicle speed detection device 40 includes a video acquisition section 41, a frame division section 42, an image acquisition section 43, a distortion correction section 44, a bounding box detection section 45, a tracking target point detection section 46, and a detection result shaping section. 47, a relative speed estimation section 48, a speed information acquisition section 49, and an absolute speed estimation section 411. Each of these functional units is realized using, for example, an electronic circuit. Furthermore, each functional unit may be provided with storage means such as a semiconductor memory or a magnetic hard disk device, if necessary. Further, each functional unit may be realized by a computer and software.

動画取得部41は、ドライブレコーダにより撮像された動画像データを取得する。ドライブレコーダにより撮像された動画像データは、例えば動画情報記憶部51に記憶される。動画情報記憶部51は、ドライブレコーダに備えられていてもよいし、クラウド上に存在する記憶部であってもよい。 The video acquisition unit 41 acquires video data captured by a drive recorder. The moving image data captured by the drive recorder is stored in the moving image information storage section 51, for example. The video information storage section 51 may be included in the drive recorder, or may be a storage section that exists on the cloud.

フレーム分割部42は、動画取得部41により取得された動画像データをフレーム毎に分割し、フレーム画像とする。フレーム分割部42により分割されたフレーム画像は、一時的に所定の記憶部(不図示)に保存されてもよい。当該記憶部は、車両速度検出装置40に備えられていてもよいし、クラウド上に存在していてもよい。 The frame dividing section 42 divides the moving image data acquired by the moving image acquiring section 41 into frames to form frame images. The frame images divided by the frame dividing section 42 may be temporarily stored in a predetermined storage section (not shown). The storage unit may be included in the vehicle speed detection device 40 or may exist on the cloud.

画像取得部43は、フレーム分割部42により分割されたフレーム画像を取得する。換言すれば、画像取得部43は、複数のフレームを含む動画像データから1フレーム分の画像を取得するということもできる。 The image acquisition unit 43 acquires the frame images divided by the frame division unit 42. In other words, the image acquisition unit 43 can also acquire one frame's worth of images from moving image data including a plurality of frames.

歪み補正部44は、画像取得部43により取得されたフレーム画像についての歪み補正を行う。歪み補正処理は、ドライブレコーダにより撮像された動画像データが有する歪みを補正するために行われる。歪み補正処理の具体的な一例としては、Radial distortion modelからPinhole camera modelに変換し、更にPinhole camera modelからFOV distortion modelへ変換することであってもよい。 The distortion correction unit 44 performs distortion correction on the frame image acquired by the image acquisition unit 43. Distortion correction processing is performed to correct distortion of moving image data captured by a drive recorder. A specific example of the distortion correction process may be converting from a Radial distortion model to a Pinhole camera model, and further converting from a Pinhole camera model to an FOV distortion model.

バウンディングボックス検出部45は、フレーム画像に含まれる相手車両の位置と大きさを特定するバウンディングボックスを検出する。バウンディングボックス検出の対象となるフレーム画像は、画像取得部43により取得された画像である。また、好適には、バウンディングボックス検出の対象となるフレーム画像は、歪み補正部44により歪み補正が行われた画像である。ここで、相手車両には、自動車や自動二輪車又は二輪車等の車両が広く含まれる。以下の説明において、バウンディングボックス検出部45により検出される車両等を第1移動体と記載する場合がある。第1移動体は、車両の一例に限定されず、歩行者や野生動物等が広く含まれていてもよい。また、自車両(ドライブレコーダが設置された車両)を第2移動体と記載する場合がある。第2移動体は、自動車以外であってもよく、自動二輪車又は二輪車等の車両であってもよい。 The bounding box detection unit 45 detects a bounding box that specifies the position and size of the opponent vehicle included in the frame image. The frame image to be subjected to bounding box detection is an image acquired by the image acquisition unit 43. Preferably, the frame image to be subjected to bounding box detection is an image subjected to distortion correction by the distortion correction unit 44. Here, the other vehicle broadly includes vehicles such as automobiles, motorcycles, and two-wheeled vehicles. In the following description, a vehicle or the like detected by the bounding box detection unit 45 may be referred to as a first moving object. The first moving object is not limited to an example of a vehicle, and may include a wide variety of pedestrians, wild animals, and the like. Further, the own vehicle (the vehicle in which the drive recorder is installed) may be referred to as a second moving body. The second moving body may be other than a car, and may be a vehicle such as a motorcycle or a two-wheeled vehicle.

上述したように、バウンディングボックス検出部45により検出されるバウンディングボックスは、二次元バウンディングボックスであってもよいが、好適には、奥行き方向を有する三次元バウンディングボックス(3Dバウンディングボックス)であってもよい。当該三次元バウンディングボックスは、フレーム画像に含まれる相手車両の位置と大きさとを三次元的に特定する。 As described above, the bounding box detected by the bounding box detection unit 45 may be a two-dimensional bounding box, but preferably, it may be a three-dimensional bounding box (3D bounding box) having a depth direction. good. The three-dimensional bounding box three-dimensionally specifies the position and size of the opponent vehicle included in the frame image.

また、バウンディングボックス検出部45は、予め学習された機械学習モデルを用いてバウンディングボックスを検出してもよい。当該機械学習モデルは、所定の入力画像と、当該入力画像に対応するバウンディングボックスの位置とが対応付けられた教師データに基づき学習される。機械学習によりバウンディングボックスの検出(特に三次元バウンディングボックスの検出)を行う場合、“Monocular Quasi-Dense 3D Object Tracking(以下、QD―3DTと記載する)”等の公知の技術が用いられてもよい。QD―3DTを用いた機械学習モデルの学習には、公知のデータセットが用いられればよい。なお、バウンディングボックスの検出精度向上のため、公知のデータセットに含まれる画像の内、所定の枚数については、昼夜変換モデルを用いて夜間風の画像に変換して、QD―3DTを学習させてもよい。すなわち、機械学習モデルの学習に用いられる教師データは、昼間に撮像された画像に基づいて昼夜変換モデルを用いた画像処理が行われた結果、夜間に撮像された画像に変換された画像が含まれるということもできる。 Further, the bounding box detection unit 45 may detect bounding boxes using a machine learning model learned in advance. The machine learning model is trained based on teacher data in which a predetermined input image and the position of a bounding box corresponding to the input image are associated with each other. When detecting bounding boxes (especially detecting three-dimensional bounding boxes) by machine learning, known techniques such as "Monocular Quasi-Dense 3D Object Tracking (hereinafter referred to as QD-3DT)" may be used. . A known data set may be used for learning a machine learning model using QD-3DT. In order to improve the bounding box detection accuracy, a predetermined number of images included in a known dataset are converted to nighttime images using a day/night conversion model, and then QD-3DT is trained. Good too. In other words, the training data used for learning the machine learning model includes images that have been converted to images taken at night as a result of image processing using a day/night conversion model based on images taken during the day. It can also be said that

なお、バウンディングボックス検出部45により検出されたバウンディングボックスの位置は、図9のステップS420において行われるトラッキング処理が行われた結果、確定する。トラッキング処理は、ユーザによりスタートフレームとエンドフレームが特定された後、トラッキング部(不図示)により行われてもよい。 Note that the position of the bounding box detected by the bounding box detection unit 45 is determined as a result of the tracking process performed in step S420 of FIG. The tracking process may be performed by a tracking unit (not shown) after the start frame and end frame are specified by the user.

検出結果整形部47は、バウンディングボックス検出部45により検出されたバウンディングボックスの位置座標を、画像取得部43により取得された画像の座標系における位置座標に変換する。ここで、バウンディングボックス検出部45は、所定の画角(例えば、約67度)により撮像された画像に基づいた学習が行われる。したがって、検出結果整形部47により行われる検出結果整形処理は、バウンディングボックス検出部45の学習時の画角から、実際の映像と同じ画角に補正する処理を行うものである。 The detection result shaping unit 47 converts the position coordinates of the bounding box detected by the bounding box detection unit 45 into position coordinates in the coordinate system of the image acquired by the image acquisition unit 43. Here, the bounding box detection unit 45 performs learning based on images captured at a predetermined angle of view (for example, about 67 degrees). Therefore, the detection result shaping process performed by the detection result shaping unit 47 is a process of correcting the angle of view at the time of learning of the bounding box detection unit 45 to the same angle of view as the actual video.

追跡対象点検出部46は、バウンディングボックスに基づき、追跡対象点の位置座標を検出する。追跡対象点検出部46により用いられるバウンディングボックスは、バウンディングボックス検出部45により検出されたものであり、好適には、検出結果整形部47により位置座標の変換が行われたものであってもよい。ここで、追跡対象点とは、フレーム毎の車両の位置を特定するために用いられる点である。追跡対象点は、速度の算出に用いられる。追跡対象点は、検出されたバウンディングボックスの位置と大きさに基づく点であり、追跡対象点の位置をどのように特定するかは、予め決められていることが好適である。追跡対象点検出部46は、例えばバウンディングボックスが有する1の頂点又は2つ以上の頂点に基づく点を追跡対象点として検出する。この場合、図10における点C、点D、又は点Cと点Dからなる線分の中点を追跡対象点としてもよい。また、追跡対象点検出部46は、例えばバウンディングボックスが有する2つ以上の頂点の中心点を追跡対象点として検出する。この場合、図10における点C、点D、点G及び点Hを頂点とする矩形の中心点である点Iを追跡対象点としてもよい。換言すれば、追跡対象点検出部46は、検出された三次元バウンディングボックスが有する底面に含まれる点を追跡対象点として検出してもよい。底面に含まれる点とは、例えばタイヤと地面が接する点であってもよい。また、追跡対象点検出部46は、三次元バウンディングボックスである直方体の重心等を追跡対象点として検出してもよい。追跡対象点検出部46は、バウンディングボックス検出部45により検出が行われたバウンディングボックスの位置であって、トラッキング処理が行われたことにより確定したバウンディングボックスの位置に応じて、追跡対象点検出処理を行う。 The tracking target point detection unit 46 detects the position coordinates of the tracking target point based on the bounding box. The bounding box used by the tracking target point detection unit 46 is one detected by the bounding box detection unit 45, and preferably the position coordinates may be converted by the detection result shaping unit 47. . Here, the tracking target point is a point used to specify the position of the vehicle for each frame. The tracked point is used to calculate speed. The tracking target point is a point based on the position and size of the detected bounding box, and it is preferable that how to specify the position of the tracking target point is determined in advance. The tracking target point detection unit 46 detects, for example, a point based on one vertex or two or more vertices included in a bounding box as a tracking target point. In this case, point C, point D, or the midpoint of a line segment consisting of point C and point D in FIG. 10 may be set as the tracking target point. Further, the tracking target point detection unit 46 detects, for example, the center point of two or more vertices included in the bounding box as the tracking target point. In this case, point I, which is the center point of a rectangle whose vertices are point C, point D, point G, and point H in FIG. 10, may be the tracking target point. In other words, the tracking target point detection unit 46 may detect a point included in the bottom surface of the detected three-dimensional bounding box as the tracking target point. The point included in the bottom surface may be, for example, a point where the tire contacts the ground. Further, the tracking target point detection unit 46 may detect the center of gravity of a rectangular parallelepiped, which is a three-dimensional bounding box, as the tracking target point. The tracking target point detection unit 46 performs tracking target point detection processing according to the position of the bounding box detected by the bounding box detection unit 45 and determined by the tracking process. I do.

相対速度推定部48は、複数フレーム分の画像それぞれにおいて検出された追跡対象点の位置座標の変化に基づき、動画像データを撮像する撮像装置(すなわち、ドライブレコーダ)が設置された移動体(すなわち、第2移動体)と、バウンディングボックス検出部45により検出されたバウンディングボックスにより特定される移動体(すなわち、第1移動体)との相対速度を推定する。相対速度推定部48は、具体的には、追跡対象点のフレーム毎の移動距離とフレームレートとに基づく演算を行うことにより相対速度を算出してもよい。 The relative velocity estimating unit 48 detects a moving body (i.e., a moving body) in which an imaging device (i.e., a drive recorder) that captures moving image data is installed, based on changes in the position coordinates of the tracking target point detected in each of a plurality of frames of images. , the second moving body) and the moving body (that is, the first moving body) specified by the bounding box detected by the bounding box detection unit 45 is estimated. Specifically, the relative velocity estimating unit 48 may calculate the relative velocity by performing calculations based on the moving distance of the tracking target point for each frame and the frame rate.

速度情報取得部49は、自車両(すなわち、第2移動体)の走行速度を取得する。第2移動体が車速センサ61を備えている場合、速度情報取得部49は、車速センサ61から走行速度に関する情報が含まれる速度情報を取得する。車速センサ61は、例えばシャフトの回転速度に基づき走行速度を検出してもよく、GPS(Global Positioning System)等の人工衛星から受信された電波に基づいて算出されてもよく、速度情報は、ECU(Engine Control Unit又はElectronic Control Unit)から提供されるものであってもよい。また、第2移動体が車速センサ61を備えていない場合、車速推定部(不図示)を備えることにより、動画像データに基づく画像処理によって車速を推定してもよい。当該画像処理には、例えばオプティカルフロー等の既存技術が用いられてもよい。 The speed information acquisition unit 49 acquires the traveling speed of the host vehicle (ie, the second moving body). When the second moving body includes the vehicle speed sensor 61, the speed information acquisition unit 49 acquires speed information including information regarding the traveling speed from the vehicle speed sensor 61. The vehicle speed sensor 61 may detect the traveling speed based on the rotational speed of the shaft, for example, or may be calculated based on radio waves received from an artificial satellite such as GPS (Global Positioning System), and the speed information may be detected by the ECU. (Engine Control Unit or Electronic Control Unit). Furthermore, when the second moving object does not include the vehicle speed sensor 61, the vehicle speed may be estimated by image processing based on moving image data by providing a vehicle speed estimation section (not shown). For example, existing techniques such as optical flow may be used for the image processing.

絶対速度推定部411は、相対速度推定部48から相対速度に関する情報を取得し、速度情報取得部49から自車両の走行速度を取得する。絶対速度推定部411は、相対速度推定部48により推定された相対速度と、自車両の走行速度とに基づき、バウンディングボックス検出部45により検出されたバウンディングボックスにより特定される移動体(すなわち、第1移動体)の走行速度を推定する。絶対速度推定部411により推定された絶対速度は、相対速度推定部48により推定された相対速度と併せて所定の情報処理装置に出力されてもよい。 The absolute speed estimating section 411 acquires information regarding relative speed from the relative speed estimating section 48 and acquires the traveling speed of the host vehicle from the speed information acquiring section 49. The absolute speed estimator 411 determines the moving object (i.e., the 1) Estimate the traveling speed of the moving object. The absolute speed estimated by the absolute speed estimation unit 411 may be output to a predetermined information processing device together with the relative speed estimated by the relative speed estimation unit 48.

次に、図13から図17を参照しながら、本実施形態に係るシステム1が有するユーザーインターフェースにより行われる処理と、当該ユーザーインターフェースが表示する表示画面の一例等について説明する。 Next, with reference to FIGS. 13 to 17, processing performed by the user interface of the system 1 according to the present embodiment, an example of a display screen displayed by the user interface, etc. will be described.

図13は、実施形態に係るシステムが有するユーザーインターフェースの処理の一例を示すフローチャートである。同図を参照しながら、ユーザーインターフェースの処理の一連の流れについて説明する。 FIG. 13 is a flowchart illustrating an example of processing of a user interface included in the system according to the embodiment. A series of user interface processes will be described with reference to the same figure.

(ステップS510)まず、ユーザにより基本情報が入力される。ユーザとは、システム1を利用する者であって、ドライブレコーダの保有者や、保険会社のスタッフ等であってもよい。ユーザにより入力される基本情報には、事故発生日時や場所等の情報が含まれる。また、ユーザにより入力される基本情報には、事故状況把握の対象となる動画像データが含まれていてもよい。 (Step S510) First, basic information is input by the user. The user is a person who uses the system 1, and may be an owner of a drive recorder, a staff member of an insurance company, or the like. The basic information input by the user includes information such as the date and time of the accident and the location. Furthermore, the basic information input by the user may include moving image data that is a target of understanding the accident situation.

(ステップS520)次に、ユーザにより動画像データの確認及び編集が行われる。ユーザは、事故状況把握の対象となる動画像データを確認する。当該動画像データが異なるものであった場合、ユーザは正しいものに差し替える。また、本ステップにおいてユーザは、当該動画像データについての適切な編集作業を行ってもよい。ここで、動画像データの長さに応じては、事故状況には直接的に関係しない動画が含まれている場合がある。したがって、本ステップにおいてユーザは、動画像データを適切な長さに調整する。ユーザは、動画像データを既定の長さに編集することにより、衝突の瞬間を特定する。 (Step S520) Next, the user confirms and edits the video data. The user confirms the video data that is the target of understanding the accident situation. If the moving image data is different, the user replaces it with the correct one. Furthermore, in this step, the user may perform appropriate editing work on the moving image data. Here, depending on the length of the video data, videos that are not directly related to the accident situation may be included. Therefore, in this step, the user adjusts the moving image data to an appropriate length. The user identifies the moment of collision by editing the video data to a predetermined length.

(ステップS530及びステップS540)本ステップにおいてユーザは、動画像データのスタート位置と、エンド位置とを指定するスタート位置とは、例えば相手車両が見え始めた位置であってもよく、エンド位置とは、例えば相手車両と接触が起こった直後であってもよい。本ステップでは、スタート地点のフレーム(スタートフレーム)に含まれる1以上のバウンディングボックスのうち、特定のバウンディングボックスを追跡対象として特定し、エンド地点のフレーム(エンドフレーム)に含まれる1以上のバウンディングボックスのうち、特定のバウンディングボックスを追跡対象として特定する。当該特定作業は、ユーザの選択により行われる。 (Steps S530 and S540) In this step, the user specifies the start position and end position of the video data.The start position may be, for example, a position where the other vehicle begins to be seen, and the end position is , for example, immediately after contact with the other vehicle occurs. In this step, a specific bounding box among one or more bounding boxes included in the frame at the start point (start frame) is specified as a tracking target, and one or more bounding boxes included in the frame at the end point (end frame) Among them, a specific bounding box is identified as a tracking target. The specific work is performed according to the user's selection.

(ステップS550)動画像データのスタート位置とエンド位置とが確定すると、システム1は、AI判定を行う。AI判定には、上述したような車両認識処理や速度推定処理等が含まれる。AI処理には、その他、事故状況の把握に必要な処理が含まれていてもよい。システム1は、図15を参照しながら後述するような表示画面を用いて、AI判定の結果を出力することにより、ユーザに情報を伝達する。 (Step S550) When the start position and end position of the moving image data are determined, the system 1 performs AI determination. The AI determination includes vehicle recognition processing, speed estimation processing, etc. as described above. The AI processing may also include other processing necessary for understanding the accident situation. The system 1 transmits information to the user by outputting the results of the AI determination using a display screen as will be described later with reference to FIG.

(ステップS560)ユーザは、ステップS550により出力された結果を確認し、事故状況の確認を行う。また、ユーザは、事故当時の詳細な状況についての入力を行う。 (Step S560) The user confirms the results output in step S550 and confirms the accident situation. The user also inputs detailed information about the circumstances at the time of the accident.

(ステップS570)最後に、システム1は、推定結果を出力する。当該推定結果には、自車両と相手車両との相対速度が含まれていてもよいし、相手車両の絶対速度が含まれていてもよい。推定結果の出力には、所定のフォーマットの帳票が用いられてもよい。当該帳票の一例については、図16及び図17を参照しながら後述する。 (Step S570) Finally, the system 1 outputs the estimation result. The estimation result may include the relative speed between the own vehicle and the other vehicle, or may include the absolute speed of the other vehicle. A form in a predetermined format may be used to output the estimation results. An example of the form will be described later with reference to FIGS. 16 and 17.

図14は、実施形態に係るシステムが有するユーザーインターフェースが表示する表示画面の一例を示す第1の図である。同図を参照しながら、ユーザーインターフェースが表示する表示画面の一例である表示画面D100について説明する。表示画面D100は、上述したステップS530のスタート指定や、ステップS540のエンド指定において表示される画面の一例である。図示する一例では、エンド指定において表示される表示画面の構成要素について示すが、スタート指定において表示される表示画面についても同様の構成要素を有していてもよい。表示画面D100は、符号D111と、符号D113と、符号D121と、符号D123と、符号D131と、符号D133と、符号D141と、符号D143と、符号D145と、符号D147と、符号D151と、符号D153と、符号D161と、符号D163とを画面の構成要素として備える。 FIG. 14 is a first diagram showing an example of a display screen displayed by a user interface included in the system according to the embodiment. A display screen D100, which is an example of a display screen displayed by the user interface, will be described with reference to the same figure. The display screen D100 is an example of a screen displayed when specifying the start in step S530 and specifying the end in step S540 described above. In the illustrated example, the components of the display screen displayed when specifying the end are shown, but the display screen displayed when specifying the start may also have similar components. The display screen D100 includes the symbols D111, D113, D121, D123, D131, D133, D141, D143, D145, D147, D151, and D151. D153, code D161, and code D163 are provided as screen components.

符号D111は、事故番号を示すものである。事故番号は、事故案件毎に付与される番号であり、事故案件を一意に特定するものである。図示する一例では、事故番号は、“jikobango”である。 The code D111 indicates an accident number. The accident number is a number assigned to each accident case, and uniquely identifies the accident case. In the illustrated example, the accident number is "jikobango".

符号D113は、ユーザーインターフェースが行う処理の全ステップを示すものである。当該ステップは、図13を参照しながら説明した一連の処理に相当する。符号D113は、現在の表示画面がどのステップを表示しているかを示すものであってもよい。具体的には、現在のステップを示す要素の表示色を、他のステップを示す要素の表示色と異ならせることにより、現在の表示画面がどのステップを表示しているかを示してもよい。図示する一例では、“エンド指定”の要素の表示色が、他のステップを示す要素の表示色と異なるため、“エンド指定”についての処理を行っていることが示されている。 Reference numeral D113 indicates all steps of processing performed by the user interface. This step corresponds to the series of processes described with reference to FIG. The code D113 may indicate which step is currently displayed on the display screen. Specifically, it may be shown which step the current display screen is displaying by making the display color of the element indicating the current step different from the display color of the elements indicating other steps. In the illustrated example, the display color of the "end designation" element is different from the display color of elements indicating other steps, indicating that processing for "end designation" is being performed.

符号D121には、動画像データが示されている。符号D121には、動画像データの上に重ねて、補助線が設けられていてもよい。当該補助線は、相手車両の位置の特定を補助するためのものであり、ユーザは、補助線を操作(又は補助線により特定される枠を操作)することができるものである。 Reference numeral D121 indicates moving image data. An auxiliary line may be provided at the symbol D121 to be superimposed on the moving image data. The auxiliary line is for assisting in specifying the position of the other vehicle, and the user can operate the auxiliary line (or operate the frame specified by the auxiliary line).

符号D123には、動画像データに基づく鳥瞰図が示されている。当該鳥瞰図は、システム1によるAI処理の結果として得られるものである。当該鳥瞰図には、相手車両の位置と、相手車両の向く方向とが示されている。 Reference numeral D123 indicates a bird's eye view based on the moving image data. The bird's eye view is obtained as a result of AI processing by the system 1. The bird's-eye view shows the position of the other vehicle and the direction in which the other vehicle is facing.

符号D131には動画像データのファイル名が示されている。符号D133は、動画像データの全体の長さと、全体のうちどの時点の映像が符号D121に表示されているかが示されている。図示する一例では、動画像データの全体の長さは5.00[秒]であり、2.3[秒]の時点における映像が符号D121に表示されていることを示している。 Reference numeral D131 indicates the file name of the moving image data. Reference numeral D133 indicates the entire length of the moving image data, and reference numeral D121 indicates the point in time of the entire video being displayed. In the illustrated example, the entire length of the moving image data is 5.00 [seconds], and the video at the time of 2.3 [seconds] is displayed at D121.

符号D141から符号D147は、符号D121に表示する時点のフレームを選択するためのボタンである。当該ボタンを操作することにより1コマ単位又は10コマ単位で表示するフレームを移動させることができる。コマとは、すなわちフレームのことである。具体的には、フレームレートが10[fps]である場合、1コマは0.1[秒]である。したがってユーザは、当該ボタンを操作することにより0.1[秒]単位又は1.0[秒]単位で表示するフレームを移動させることができる。符号D141は、10コマ戻すためのボタンであり、符号D143は1コマ戻すためのボタンであり、符号D145は1コマ送るためのボタンであり、符号D147は10コマ送るためのボタンである。 Reference numerals D141 to D147 are buttons for selecting the frame to be displayed at reference numeral D121. By operating this button, the displayed frame can be moved in units of 1 frame or 10 frames. A frame is a frame. Specifically, when the frame rate is 10 [fps], one frame is 0.1 [second]. Therefore, the user can move the displayed frame in units of 0.1 [seconds] or 1.0 [seconds] by operating the button. Reference numeral D141 is a button for moving back 10 frames, D143 is a button for moving back 1 frame, D145 is a button for moving forward 1 frame, and D147 is a button for moving 10 frames forward.

符号D151と、符号D153とは、動画像データの再生と一時停止を行うボタンである。符号D151は再生を行うためのボタンであり、符号D153は一時停止を行うためのボタンである。再生ボタンが押下されると、符号D121には、0.1[秒]単位でフレーム画像が切り替わることにより、動画像データが再生される。 Reference numerals D151 and D153 are buttons for reproducing and temporarily stopping moving image data. Reference numeral D151 is a button for playing, and reference D153 is a button for pausing. When the playback button is pressed, the moving image data is played back by switching frame images in units of 0.1 [seconds] at reference numeral D121.

符号D161と、符号D163とは、符号D113に示したステップの移動を行うためのボタンである。符号D161はステップを戻すためのボタンであり、符号D163はステップを進めるためのボタンである。符号D113によれば現在のステップは“エンド指定”であるため、符号D161の押下により戻る先のステップは“スタート指定”であり、符号D163の押下により進先のステップは“AI判定結果”(すなわち、事故状況の推定の開始)である。 Reference numerals D161 and D163 are buttons for performing step movement indicated by reference numeral D113. Reference numeral D161 is a button for going back a step, and D163 is a button for advancing a step. According to code D113, the current step is "end specification", so the step to which to return by pressing code D161 is "start specification", and the step to which to proceed by pressing code D163 is "AI judgment result" ( That is, the start of estimating the accident situation).

図15は、実施形態に係るシステムが有するユーザーインターフェースが表示する表示画面の一例を示す第2の図である。同図を参照しながら、ユーザーインターフェースが表示する表示画面の一例である表示画面D200について説明する。表示画面D200は、上述したステップS550のAI判定結果出力時において表示される画面の一例である。表示画面D200は、符号D111と、符号D113と、符号D220と、符号D231と、符号D233と、符号D241と、符号D251と、符号D265と、符号D267とを画面の構成要素として備える。表示画面D200の説明において、表示画面D100と同一の構成要素については同様の符号を付すことにより説明を省略する。 FIG. 15 is a second diagram showing an example of a display screen displayed by a user interface included in the system according to the embodiment. With reference to the figure, a display screen D200, which is an example of a display screen displayed by the user interface, will be described. The display screen D200 is an example of a screen displayed when outputting the AI determination result in step S550 described above. The display screen D200 includes a code D111, a code D113, a code D220, a code D231, a code D233, a code D241, a code D251, a code D265, and a code D267 as screen components. In the description of the display screen D200, the same components as those of the display screen D100 are given the same reference numerals and the description will be omitted.

符号D220は、AIによる要素抽出結果を示す表示部である。当該表示部は、構成要素として符号D221乃至符号D226を備える。符号D221は、交差点の形態を示す。図示する一例では、交差点の形態は“十字路”である。符号D222は、自車進行方向を示す。図示する一例では、自車進行方向は“直進”である。符号D223は、相手車初期位置を示す。図示する一例では、相手車初期位置は“左方”である。符号D224は、相手車進行方向を示す。図示する一例では、相手車進行方向は“直進”である。符号D225は、対面信号機の有無を示す。図示する一例では、対面信号機の有無は“信号あり”である。符号D226は、対面信号機の色を示す。図示する一例では、対面信号機の色は“青”である。符号D221乃至符号D226により示される情報は、AIサーバ装置20(又は車両速度検出装置40)により、自動的に判定されてもよい。当該判定には、公知の機械学習による物体検知技術や、公知のパターンマッチング技術が用いられてもよい。また、他の実施例として、符号D221乃至符号D226のいずれかは、ユーザにより更新又は新たに入力されてもよい。 Reference numeral D220 is a display section showing the result of element extraction by AI. The display section includes components D221 to D226. The code D221 indicates the form of the intersection. In the illustrated example, the shape of the intersection is a "crossroads." Reference numeral D222 indicates the direction in which the vehicle is traveling. In the illustrated example, the vehicle's traveling direction is "straight ahead". Reference numeral D223 indicates the initial position of the other vehicle. In the illustrated example, the initial position of the other vehicle is "to the left." Reference numeral D224 indicates the traveling direction of the other vehicle. In the illustrated example, the traveling direction of the other vehicle is "straight ahead". The code D225 indicates the presence or absence of a facing traffic light. In the illustrated example, the presence or absence of a facing traffic signal is "signal present". The code D226 indicates the color of the facing traffic light. In the illustrated example, the color of the facing traffic light is "blue." The information indicated by symbols D221 to D226 may be automatically determined by the AI server device 20 (or vehicle speed detection device 40). For this determination, a known object detection technique based on machine learning or a known pattern matching technique may be used. Further, as another embodiment, any of the codes D221 to D226 may be updated or newly input by the user.

符号D231は、ステップS530において指定したスタート地点における動画像データのフレーム画像と、自車両の速度と、相手車両の速度とが示される。図示する一例において、自車両の速度は“37.1[km/h]”であり、相手車両の速度は“50.4[km/h]”である。 Reference numeral D231 indicates a frame image of moving image data at the start point specified in step S530, the speed of the own vehicle, and the speed of the other vehicle. In the illustrated example, the speed of the own vehicle is "37.1 [km/h]" and the speed of the other vehicle is "50.4 [km/h]".

符号D233は、ステップS540において指定したエンド地点における動画像データのフレーム画像と、自車両の速度と、相手車両の速度とが示される。図示する一例において、自車両の速度は“32.6[km/h]”であり、相手車両の速度は“20.9[km/h]”である。 Reference numeral D233 indicates the frame image of the moving image data at the end point designated in step S540, the speed of the own vehicle, and the speed of the other vehicle. In the illustrated example, the speed of the own vehicle is "32.6 [km/h]" and the speed of the other vehicle is "20.9 [km/h]".

符号D241は、事故状況図を示す。当該事故状況図は、符号D220に示したAIによる要素抽出結果に基づいて描画されるものである。図示する一例では、十字路である交差点において、自車両が直進し、相手車両が交差点の左方向から進入している。交差点には信号機が設置され、青であることが示されている。 Reference numeral D241 indicates an accident situation diagram. The accident situation diagram is drawn based on the result of element extraction by AI indicated by reference numeral D220. In the illustrated example, the host vehicle is traveling straight at an intersection that is a crossroads, and the other vehicle is entering from the left side of the intersection. A traffic light is installed at the intersection, indicating that the traffic light is green.

符号D251は、“事故形態”や、“基本割合”等について記載される表示部である。図示する一例では、“事故形態”として、“信号のある交差点における直進車同士の出会い頭事故”であることが示されている。また、“基本割合” として、“[自車]0:[相手車]100”であることが示されている。 Reference numeral D251 is a display section in which "accident type", "basic ratio", etc. are written. In the illustrated example, the "accident type" is "an accident between two vehicles traveling straight at an intersection with traffic lights". Furthermore, it is shown that the "basic ratio" is "[own vehicle] 0:[other vehicle] 100."

符号D265は、事故動画ダウンロードボタンである。ユーザは、事故動画ダウンロードボタンである符号D265を押下することにより、分析に用いた動画像データをダウンロードすることができる。 Reference numeral D265 is an accident video download button. The user can download the video data used for analysis by pressing the code D265, which is an accident video download button.

符号D267は、スタート指定からエンド指定までの静止画ダウンロードボタン(以下、単に静止画ダウンロードボタンと記載する。)である。ユーザは、静止画ダウンロードボタンである符号D267を押下することにより、スタート地点からエンド地点までの各フレーム画像をダウンロードすることができる。また、ユーザは、所定のチェックボックスにチェックを入れた上で当該ボタンを押下することにより、全てのフレーム画像をダウンロード可能なよう構成されていてもよい。 Reference numeral D267 is a still image download button from start designation to end designation (hereinafter simply referred to as still image download button). The user can download each frame image from the start point to the end point by pressing the still image download button D267. Alternatively, the user may be configured to be able to download all frame images by checking a predetermined checkbox and pressing the button.

図16は、実施形態に係るシステムにより出力された帳票の一例を示す図である。図16を参照しながら、システム1により出力される帳票の一例である帳票D300について説明する。帳票D300は、欄属した1つの帳票であってもよく、別個独立した2つの帳票であってもよい。帳票D300は、上述したステップS570の推定結果出力時において表示される画面の一例である。 FIG. 16 is a diagram showing an example of a form output by the system according to the embodiment. A form D300, which is an example of a form output by the system 1, will be described with reference to FIG. 16. The form D300 may be one form with columns, or may be two separate forms. Form D300 is an example of a screen displayed when outputting the estimation result in step S570 described above.

帳票D300には、“お客様の車両速度解析結果”が示される。帳票D300は、構成要素として符号D310と、符号D320とを含む。 Form D300 shows "customer's vehicle speed analysis results." The form D300 includes a code D310 and a code D320 as constituent elements.

符号D310には、シーン別ドライブレコーダ画像と、当該画像に対応する自車速度とが表示される。図示する一例では、“動画の最初のシーン(衝突10秒前)”、“衝突シーン”及び“動画の最後のシーン(衝突5秒前)”の3つのシーンにおける状況が表示されている。また、“動画の最初のシーン(衝突10秒前)”における速度は“50[km/h]”であり、“衝突シーン”における速度は“40[km/h]”であり、“動画の最後のシーン(衝突5秒前)”における速度は“10[km/h]”である。 At D310, a scene-by-scene drive recorder image and the own vehicle speed corresponding to the image are displayed. In the illustrated example, situations in three scenes are displayed: "first scene of video (10 seconds before collision)," "collision scene," and "last scene of video (5 seconds before collision)." Also, the speed in the “first scene of the video (10 seconds before the collision)” is “50 [km/h]”, the speed in the “collision scene” is “40 [km/h]”, and the speed in “the video The speed in the last scene (5 seconds before the collision) is 10 [km/h].

符号D320には、速度推移グラフが表示される。速度推移グラフグラフには、縦軸を速度、横軸を時間として、自車両及び相手車両の時間ごとの速度変化が示されている。当該速度変化は、フレーム毎に算出された速度情報を繋ぎ合わせたものである。 A speed transition graph is displayed at D320. The speed change graph graph shows speed changes of the own vehicle and the other vehicle over time, with the vertical axis representing speed and the horizontal axis representing time. The speed change is a combination of speed information calculated for each frame.

[実施形態のまとめ]
以上説明した実施形態によれば、車両速度検出装置40は、画像取得部43を備えることにより複数のフレームを含む動画像データから1フレーム分の画像を取得し、バウンディングボックス検出部45を備えることにより取得した画像に含まれる移動体である第1移動体(例えば、相手車両)の位置と大きさを特定するバウンディングボックスを検出し、追跡対象点検出部46を備えることにより検出されたバウンディングボックスの位置と大きさに基づく点である追跡対象点の位置座標を検出し、相対速度推定部48を備えることにより複数フレーム分の画像それぞれにおいて検出された追跡対象点の位置座標の変化に基づき動画像データを撮像する撮像装置が設置された移動体である第2移動体(例えば、自車両)と第1移動体との相対速度を推定する。すなわち、車両速度検出装置40によれば、相手車両を囲うバウンディングボックスをまず検出し、バウンディングボックスの位置の変化に基づき速度を検出する。本実施形態によれば、バウンディングボックスに基づき移動体の位置を特定するため、位置特定の精度を向上させることができる。よって、本実施形態によれば、速度の算出精度を向上させることができる。
[Summary of embodiments]
According to the embodiment described above, the vehicle speed detection device 40 includes the image acquisition unit 43 to acquire one frame of image from video data including a plurality of frames, and includes the bounding box detection unit 45. A bounding box that is detected by detecting a bounding box that specifies the position and size of a first moving object (for example, an opponent vehicle) that is a moving object included in an image acquired by the tracking target point detection unit 46 By detecting the position coordinates of the tracking target point, which is a point based on the position and size of The relative speed between the first moving body and a second moving body (for example, the own vehicle), which is a moving body equipped with an imaging device that captures image data, is estimated. That is, according to the vehicle speed detection device 40, the bounding box surrounding the opponent vehicle is first detected, and the speed is detected based on a change in the position of the bounding box. According to the present embodiment, the position of the moving body is specified based on the bounding box, so the accuracy of position specification can be improved. Therefore, according to this embodiment, the accuracy of speed calculation can be improved.

また、上述した車両速度検出装置40によれば、追跡対象点検出部46は、バウンディングボックスが有する2つ以上の頂点に基づく点を追跡対象点として検出する。ここで、従来技術によれば、タイヤと路面との接地点を特定していたため、フレーム毎に検出位置が異なってしまっていた。本実施形態によれば、バウンディングボックスが有する2つ以上の頂点に基づく点を追跡対象点として検出するため、位置特定の精度を向上させることができる。よって、本実施形態によれば、速度の算出精度を向上させることができる。 Further, according to the vehicle speed detection device 40 described above, the tracking target point detection unit 46 detects a point based on two or more vertices of the bounding box as a tracking target point. Here, according to the prior art, since the grounding point between the tire and the road surface was specified, the detected position differed from frame to frame. According to the present embodiment, a point based on two or more vertices of a bounding box is detected as a tracking target point, so the accuracy of position specification can be improved. Therefore, according to this embodiment, the accuracy of speed calculation can be improved.

また、上述した車両速度検出装置40によれば、追跡対象点検出部46は、バウンディングボックスが有する2つ以上の頂点の中心点を追跡対象点として検出する。したがって、一方の頂点の位置がずれた場合であっても、追跡対象点のずれを抑えることができる。すなわち、本実施形態によれば、位置特定の精度を向上させることができる。よって、本実施形態によれば、速度の算出精度を向上させることができる。 Further, according to the vehicle speed detection device 40 described above, the tracking target point detection unit 46 detects the center point of two or more vertices of the bounding box as the tracking target point. Therefore, even if the position of one vertex shifts, the shift of the tracking target point can be suppressed. That is, according to this embodiment, the accuracy of position specification can be improved. Therefore, according to this embodiment, the accuracy of speed calculation can be improved.

また、上述した車両速度検出装置40によれば、バウンディングボックスは、奥行き方向を有する三次元バウンディングボックス(3Dバウンディングボックス)である。したがって、本実施形態によれば、移動体の位置を正確に特定することができる。したがって、実施形態によれば、位置特定の精度を向上させることができる。よって、本実施形態によれば、速度の算出精度を向上させることができる。 Further, according to the vehicle speed detection device 40 described above, the bounding box is a three-dimensional bounding box (3D bounding box) having a depth direction. Therefore, according to this embodiment, the position of the moving body can be accurately specified. Therefore, according to the embodiment, the accuracy of positioning can be improved. Therefore, according to this embodiment, the accuracy of speed calculation can be improved.

また、上述した車両速度検出装置40によれば、追跡対象点検出部46は、検出された三次元バウンディングボックスが有する底面に含まれる点を追跡対象点として検出する。すなわち、追跡対象点検出部46は、底面を構成する4点に基づいて移動体の位置を特定する。したがって、実施形態によれば、2点に基づいて位置を特定する場合と比較して、更に位置特定の精度を向上させることができる。よって、本実施形態によれば、速度の算出精度を向上させることができる。 Further, according to the vehicle speed detection device 40 described above, the tracking target point detection unit 46 detects a point included in the bottom surface of the detected three-dimensional bounding box as a tracking target point. That is, the tracking target point detection unit 46 specifies the position of the moving object based on the four points forming the bottom surface. Therefore, according to the embodiment, the accuracy of position specification can be further improved compared to the case where the position is specified based on two points. Therefore, according to this embodiment, the accuracy of speed calculation can be improved.

また、上述した車両速度検出装置40によれば、速度情報取得部49を備えることにより第2移動体(例えば、自車両)の走行速度を取得し、絶対速度推定部411を備えることにより、推定された相対速度と第2移動体の走行速度とに基づき、第1移動体(例えば、相手車両)の走行速度(絶対速度)を推定する。したがって、本実施形態によれば、事故状況の把握を容易にすることができる。また、本実施形態によれば、精度よく第1移動体(例えば、相手車両)の走行速度(絶対速度)を推定することができる。 Further, according to the vehicle speed detection device 40 described above, the speed information acquisition unit 49 is provided to acquire the running speed of the second moving object (for example, the own vehicle), and the absolute speed estimation unit 411 is provided to obtain the traveling speed of the second moving object (for example, the host vehicle). The running speed (absolute speed) of the first moving body (for example, the other vehicle) is estimated based on the determined relative speed and the running speed of the second moving body. Therefore, according to this embodiment, it is possible to easily understand the accident situation. Further, according to the present embodiment, it is possible to estimate the traveling speed (absolute speed) of the first moving object (for example, the other vehicle) with high accuracy.

また、上述した車両速度検出装置40によれば、歪み補正部44を更に備えることにより、画像取得部43により取得された画像の歪み補正を行う。また、バウンディングボックス検出部45は、歪み補正部44により歪み補正が行われた画像に基づき、バウンディングボックスを検出する。したがって、本実施形態によれば、歪みが補正された画像において精度よくバウンディングボックスを検出することができる。したがって、本実施形態によれば、位置特定の精度を向上させることができる。よって、本実施形態によれば、速度の算出精度を向上させることができる。 Further, according to the vehicle speed detection device 40 described above, by further including the distortion correction section 44, distortion correction of the image acquired by the image acquisition section 43 is performed. Further, the bounding box detection unit 45 detects a bounding box based on the image subjected to distortion correction by the distortion correction unit 44. Therefore, according to this embodiment, a bounding box can be detected with high accuracy in an image whose distortion has been corrected. Therefore, according to this embodiment, the accuracy of position specification can be improved. Therefore, according to this embodiment, the accuracy of speed calculation can be improved.

また、上述した車両速度検出装置40によれば、検出結果整形部47を備えることにより、検出されたバウンディングボックスの位置座標を、画像取得部43により取得された画像の座標系における位置座標に変換する。したがって、本実施形態によれば、歪みが補正された座標系においてバウンディングボックスが検出された後、カメラ座標系におけるバウンディングボックスの位置を特定することができる。 Further, according to the vehicle speed detection device 40 described above, by including the detection result shaping unit 47, the position coordinates of the detected bounding box are converted into position coordinates in the coordinate system of the image acquired by the image acquisition unit 43. do. Therefore, according to this embodiment, after the bounding box is detected in the coordinate system in which the distortion has been corrected, the position of the bounding box in the camera coordinate system can be specified.

また、上述した車両速度検出装置40によれば、バウンディングボックス検出部45は、所定の入力画像と、当該入力画像に対応するバウンディングボックスの位置とが対応付けられた教師データに基づき学習された機械学習モデルを用いてバウンディングボックスを検出する。すなわちバウンディングボックス検出部45は機械学習によりバウンディングボックスの位置を検出する。したがって、本実施形態によれば、精度よくかつ容易にバウンディングボックスの位置を検出することができる。 Further, according to the vehicle speed detection device 40 described above, the bounding box detection unit 45 is a machine trained based on teacher data in which a predetermined input image and the position of a bounding box corresponding to the input image are associated with each other. Detect bounding boxes using a learning model. That is, the bounding box detection unit 45 detects the position of the bounding box by machine learning. Therefore, according to this embodiment, the position of the bounding box can be detected easily and accurately.

また、上述した車両速度検出装置40によれば、機械学習モデルの学習に用いられる教師データは、昼間に撮像された画像に基づいて昼夜変換モデルを用いた画像処理が行われた結果、夜間に撮像された画像に変換された画像が含まれる。すなわちバウンディングボックス検出部45が用いる機械学習モデルは、夜間の画像に基づき学習される。したがって、バウンディングボックス検出部45は、夜間の画像であってもバウンディングボックスの位置を検出することができる。したがって、本実施形態によれば、夜間の画像にも対応することができるため、夜間の事故であっても精度よく事故状況を把握することができる。 Further, according to the vehicle speed detection device 40 described above, the training data used for learning the machine learning model is obtained by performing image processing using a day/night conversion model based on images captured during the day. A converted image is included in the captured image. That is, the machine learning model used by the bounding box detection unit 45 is learned based on nighttime images. Therefore, the bounding box detection unit 45 can detect the position of the bounding box even in a nighttime image. Therefore, according to the present embodiment, since it is possible to deal with images taken at night, it is possible to accurately grasp the accident situation even if the accident occurs at night.

なお、上述した実施形態におけるシステム1が備える各部の機能全体あるいはその一部は、これらの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶部のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
In addition, all or part of the functions of each part included in the system 1 in the embodiment described above can be achieved by recording a program for realizing these functions on a computer-readable recording medium, and then using the program recorded on this recording medium. This may be realized by loading and executing into a computer system. Note that the "computer system" herein includes hardware such as an OS and peripheral devices.
Furthermore, the term "computer-readable recording medium" refers to portable media such as flexible disks, magneto-optical disks, ROMs, and CD-ROMs, and storage units such as hard disks built into computer systems. Furthermore, a "computer-readable recording medium" refers to a storage medium that dynamically stores a program for a short period of time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. It may also include a device that retains a program for a certain period of time, such as a volatile memory inside a computer system that is a server or client. Further, the above-mentioned program may be one for realizing a part of the above-mentioned functions, or may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

1…システム、10…UIサーバ装置、11…フレーム分割部、12…要求部、20…AIサーバ装置、21…車両認識処理部、22…速度推定処理部、30…ファイルサーバ装置、31…フレーム画像、32…車両認識結果、33…速度推定結果、40…車両速度検出装置、41…動画取得部、42…フレーム分割部、43…画像取得部、44…歪み補正部、45…バウンディングボックス検出部、46…追跡対象点検出部、47…検出結果整形部、48…相対速度推定部、49…速度情報取得部、411…絶対速度推定部、51…動画情報記憶部、61…車速センサ DESCRIPTION OF SYMBOLS 1... System, 10... UI server device, 11... Frame division part, 12... Request part, 20... AI server device, 21... Vehicle recognition processing part, 22... Speed estimation processing part, 30... File server device, 31... Frame Image, 32... Vehicle recognition result, 33... Speed estimation result, 40... Vehicle speed detection device, 41... Video acquisition section, 42... Frame division section, 43... Image acquisition section, 44... Distortion correction section, 45... Bounding box detection Section, 46... Tracking target point detection section, 47... Detection result shaping section, 48... Relative speed estimation section, 49... Speed information acquisition section, 411... Absolute speed estimation section, 51... Video information storage section, 61... Vehicle speed sensor

Claims (12)

複数のフレームを含む動画像データから1フレーム分の画像を取得する画像取得部と、
取得した画像に含まれる移動体である第1移動体の位置と大きさを特定するバウンディングボックスを検出するバウンディングボックス検出部と、
検出されたバウンディングボックスの位置と大きさに基づく点である追跡対象点の位置座標を検出する追跡対象点検出部と、
複数フレーム分の画像それぞれにおいて検出された前記追跡対象点の位置座標の変化に基づき、前記動画像データを撮像する撮像装置が設置された移動体である第2移動体と前記第1移動体との相対速度を推定する相対速度推定部と
を備え
前記相対速度推定部は、1フレーム分の画像ごとに前記第2移動体と前記第1移動体との相対位置を示す情報を出力し、出力された相対位置の変化に基づいて前記相対速度を推定する
車両速度検出装置。
an image acquisition unit that acquires an image for one frame from video data including multiple frames;
a bounding box detection unit that detects a bounding box that specifies the position and size of a first moving object that is a moving object included in the acquired image;
a tracking target point detection unit that detects the position coordinates of a tracking target point, which is a point based on the position and size of the detected bounding box;
Based on changes in the position coordinates of the tracking target point detected in each of a plurality of frames of images, a second moving body that is a moving body in which an imaging device that captures the moving image data is installed and the first moving body and a relative speed estimator for estimating the relative speed of
The relative speed estimation unit outputs information indicating the relative position between the second moving body and the first moving body for each frame of images, and calculates the relative speed based on a change in the output relative position. presume
Vehicle speed detection device.
前記追跡対象点検出部は、前記バウンディングボックスが有する1つ以上の頂点に基づく点を前記追跡対象点として検出する
請求項1に記載の車両速度検出装置。
The vehicle speed detection device according to claim 1, wherein the tracking target point detection unit detects a point based on one or more vertices of the bounding box as the tracking target point.
前記追跡対象点検出部は、前記バウンディングボックスが有する1つの頂点、又は2つ以上の頂点の中心点を前記追跡対象点として検出する
請求項2に記載の車両速度検出装置。
The vehicle speed detection device according to claim 2, wherein the tracking target point detection unit detects one vertex or a center point of two or more vertices of the bounding box as the tracking target point.
前記バウンディングボックスは、奥行き方向を有する三次元バウンディングボックスである
請求項1又は請求項2に記載の車両速度検出装置。
The vehicle speed detection device according to claim 1 or 2, wherein the bounding box is a three-dimensional bounding box having a depth direction.
前記追跡対象点検出部は、検出された前記三次元バウンディングボックスが有する底面に含まれる点を前記追跡対象点として検出する
請求項4に記載の車両速度検出装置。
The vehicle speed detection device according to claim 4, wherein the tracking target point detection unit detects a point included in a bottom surface of the detected three-dimensional bounding box as the tracking target point.
前記第2移動体の走行速度を取得する速度情報取得部と、
推定された前記相対速度と、前記第2移動体の走行速度とに基づき、前記第1移動体の走行速度を推定する絶対速度推定部とを更に備える
請求項1又は請求項2に記載の車両速度検出装置。
a speed information acquisition unit that acquires the running speed of the second moving body;
The vehicle according to claim 1 or 2, further comprising: an absolute speed estimation unit that estimates the running speed of the first moving body based on the estimated relative speed and the running speed of the second moving body. Speed detection device.
前記画像取得部により取得された画像の歪み補正を行う歪み補正部を更に備え、
前記バウンディングボックス検出部は、前記歪み補正部により歪み補正が行われた画像に基づき、前記バウンディングボックスを検出する
請求項1又は請求項2に記載の車両速度検出装置。
further comprising a distortion correction unit that corrects distortion of the image acquired by the image acquisition unit,
The vehicle speed detection device according to claim 1 or 2, wherein the bounding box detection section detects the bounding box based on an image subjected to distortion correction by the distortion correction section.
検出された前記バウンディングボックスの位置座標を、前記画像取得部により取得された画像の座標系における位置座標に変換する検出結果整形部を更に備える
請求項7に記載の車両速度検出装置。
The vehicle speed detection device according to claim 7 , further comprising a detection result shaping unit that converts the detected position coordinates of the bounding box into position coordinates in the coordinate system of the image acquired by the image acquisition unit.
前記バウンディングボックス検出部は、所定の入力画像と、当該入力画像に対応するバウンディングボックスの位置とが対応付けられた教師データに基づき学習された機械学習モデルを用いて前記バウンディングボックスを検出する
請求項1又は請求項2に記載の車両速度検出装置。
The bounding box detection unit detects the bounding box using a machine learning model learned based on teacher data in which a predetermined input image and a position of a bounding box corresponding to the input image are associated with each other. 3. The vehicle speed detection device according to claim 1 or claim 2.
前記機械学習モデルの学習に用いられる教師データは、昼間に撮像された画像に基づいて昼夜変換モデルを用いた画像処理が行われた結果、夜間に撮像された画像に変換された画像が含まれる
請求項9に記載の車両速度検出装置。
The training data used for learning the machine learning model includes images that are converted into images taken at night as a result of image processing using a day/night conversion model based on images taken during the day. The vehicle speed detection device according to claim 9.
複数のフレームを含む動画像データから1フレーム分の画像を取得する画像取得工程と、
取得した画像に含まれる移動体である第1移動体の位置と大きさを特定するバウンディングボックスを検出するバウンディングボックス検出工程と、
検出されたバウンディングボックスの位置と大きさに基づく点である追跡対象点の位置座標を検出する追跡対象点検出工程と、
複数フレーム分の画像それぞれにおいて検出された前記追跡対象点の位置座標の変化に基づき、前記動画像データを撮像する撮像装置が設置された移動体である第2移動体と前記第1移動体との相対速度を推定する相対速度推定工程と
を有し、
前記相対速度推定工程は、1フレーム分の画像ごとに前記第2移動体と前記第1移動体との相対位置を示す情報を出力し、出力された相対位置の変化に基づいて前記相対速度を推定する
車両速度検出方法。
an image acquisition step of acquiring an image for one frame from video data including multiple frames;
a bounding box detection step of detecting a bounding box that specifies the position and size of a first moving object that is a moving object included in the acquired image;
a tracking target point detection step of detecting the position coordinates of the tracking target point, which is a point based on the position and size of the detected bounding box;
Based on changes in the position coordinates of the tracking target point detected in each of a plurality of frames of images, a second moving body that is a moving body in which an imaging device that captures the moving image data is installed and the first moving body and a relative speed estimation step of estimating the relative speed of
The relative velocity estimation step outputs information indicating the relative position of the second moving body and the first moving body for each frame of images, and calculates the relative velocity based on a change in the output relative position. presume
Vehicle speed detection method.
コンピュータに、
複数のフレームを含む動画像データから1フレーム分の画像を取得する画像取得ステップと、
取得した画像に含まれる移動体である第1移動体の位置と大きさを特定するバウンディングボックスを検出するバウンディングボックス検出ステップと、
検出されたバウンディングボックスの位置と大きさに基づく点である追跡対象点の位置座標を検出する追跡対象点検出ステップと、
複数フレーム分の画像それぞれにおいて検出された前記追跡対象点の位置座標の変化に基づき、前記動画像データを撮像する撮像装置が設置された移動体である第2移動体と前記第1移動体との相対速度を推定する相対速度推定ステップと
を実行させ
前記相対速度推定ステップは、1フレーム分の画像ごとに前記第2移動体と前記第1移動体との相対位置を示す情報を出力し、出力された相対位置の変化に基づいて前記相対速度を推定する
プログラム。
to the computer,
an image acquisition step of acquiring an image for one frame from video data including multiple frames;
a bounding box detection step of detecting a bounding box that specifies the position and size of a first moving object that is a moving object included in the acquired image;
a tracking target point detection step of detecting the position coordinates of the tracking target point, which is a point based on the position and size of the detected bounding box;
Based on changes in the position coordinates of the tracking target point detected in each of a plurality of frames of images, a second moving body that is a moving body in which an imaging device that captures the moving image data is installed and the first moving body A relative speed estimation step of estimating the relative speed of
The relative speed estimating step outputs information indicating the relative position between the second moving body and the first moving body for each frame of images, and calculates the relative speed based on a change in the output relative position. presume
program.
JP2022192834A 2022-12-01 2022-12-01 Vehicle speed detection device, vehicle speed detection method and program Active JP7411771B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022192834A JP7411771B1 (en) 2022-12-01 2022-12-01 Vehicle speed detection device, vehicle speed detection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022192834A JP7411771B1 (en) 2022-12-01 2022-12-01 Vehicle speed detection device, vehicle speed detection method and program

Publications (1)

Publication Number Publication Date
JP7411771B1 true JP7411771B1 (en) 2024-01-11

Family

ID=89451824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022192834A Active JP7411771B1 (en) 2022-12-01 2022-12-01 Vehicle speed detection device, vehicle speed detection method and program

Country Status (1)

Country Link
JP (1) JP7411771B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163797A (en) 2000-11-24 2002-06-07 Aisin Seiki Co Ltd Collision-preventing device for vehicle
JP2003149256A (en) 2001-11-14 2003-05-21 Mitsubishi Electric Corp Vehicle speed measuring instrument
JP2004177289A (en) 2002-11-27 2004-06-24 Toyota Motor Corp Target speed calculation device and vehicle controller using it
CN111753797A (en) 2020-07-02 2020-10-09 浙江工业大学 Vehicle speed measuring method based on video analysis
CN112861700A (en) 2021-02-03 2021-05-28 西安仁义智机电科技有限公司 DeepLabv3+ based lane line network identification model establishment and vehicle speed detection method
JP2021117816A (en) 2020-01-28 2021-08-10 アマノ株式会社 Parking lot control system, parking lot control method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163797A (en) 2000-11-24 2002-06-07 Aisin Seiki Co Ltd Collision-preventing device for vehicle
JP2003149256A (en) 2001-11-14 2003-05-21 Mitsubishi Electric Corp Vehicle speed measuring instrument
JP2004177289A (en) 2002-11-27 2004-06-24 Toyota Motor Corp Target speed calculation device and vehicle controller using it
JP2021117816A (en) 2020-01-28 2021-08-10 アマノ株式会社 Parking lot control system, parking lot control method, and program
CN111753797A (en) 2020-07-02 2020-10-09 浙江工业大学 Vehicle speed measuring method based on video analysis
CN112861700A (en) 2021-02-03 2021-05-28 西安仁义智机电科技有限公司 DeepLabv3+ based lane line network identification model establishment and vehicle speed detection method

Similar Documents

Publication Publication Date Title
JP4895857B2 (en) Vehicle behavior reproduction method
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
JP2018018461A (en) Information processing apparatus, display device, information processing method, and program
EP3355241B1 (en) Determining a position of a vehicle on a track
CN107851125A (en) The processing of two step object datas is carried out by vehicle and server database to generate, update and transmit the system and method in accurate road characteristic data storehouse
CN107850672A (en) System and method for accurate vehicle positioning
CN107850453A (en) Road data object is matched to generate and update the system and method for accurate transportation database
EP3942794B1 (en) Depth-guided video inpainting for autonomous driving
JP6615065B2 (en) Information processing apparatus, information processing method, and program
JP2000020728A (en) Image processor and image processing method
US20200258309A1 (en) Live in-camera overlays
KR20130030208A (en) Egomotion estimation system and method
JP2014137815A (en) System and method for correcting camera image with distortion
JP6615066B2 (en) Information processing apparatus, information processing method, and program
CN112753038B (en) Method and device for identifying lane change trend of vehicle
JP2014130404A (en) Road surface image generation system, shadow removing apparatus, method and program
EP4213128A1 (en) Obstacle detection device, obstacle detection system, and obstacle detection method
KR20140054710A (en) Apparatus and method for generating 3d map
JP6647171B2 (en) Information processing apparatus, information processing method, and program
WO2018134897A1 (en) Position and posture detection device, ar display device, position and posture detection method, and ar display method
JP2019139420A (en) Three-dimensional object recognition device, imaging device, and vehicle
JP7411771B1 (en) Vehicle speed detection device, vehicle speed detection method and program
CN116804553A (en) Odometer system and method based on event camera/IMU/natural road sign
JP6087218B2 (en) Image analysis device
JP7429246B2 (en) Methods and systems for identifying objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R150 Certificate of patent or registration of utility model

Ref document number: 7411771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150