JP2020180437A - Road surface evaluation system, road surface evaluation method, and road surface evaluation program - Google Patents

Road surface evaluation system, road surface evaluation method, and road surface evaluation program Download PDF

Info

Publication number
JP2020180437A
JP2020180437A JP2019082313A JP2019082313A JP2020180437A JP 2020180437 A JP2020180437 A JP 2020180437A JP 2019082313 A JP2019082313 A JP 2019082313A JP 2019082313 A JP2019082313 A JP 2019082313A JP 2020180437 A JP2020180437 A JP 2020180437A
Authority
JP
Japan
Prior art keywords
data
road surface
imaging data
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019082313A
Other languages
Japanese (ja)
Other versions
JP7272546B2 (en
Inventor
克彦 洞口
Katsuhiko Horaguchi
克彦 洞口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DAT JAPAN KK
Original Assignee
DAT JAPAN KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DAT JAPAN KK filed Critical DAT JAPAN KK
Priority to JP2019082313A priority Critical patent/JP7272546B2/en
Publication of JP2020180437A publication Critical patent/JP2020180437A/en
Application granted granted Critical
Publication of JP7272546B2 publication Critical patent/JP7272546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a road surface evaluation system that can grasp how a road surface changes over the passage of time.SOLUTION: A road surface evaluation system comprises: a storage unit that stores imaging data acquired from an imaging unit in association with position data; and a data processing unit that reads the imaging data and the position data from the storage unit. The data processing unit includes: a parameter calculation unit that calculates a travel vector indicating a travel direction of an inspection vehicle at the time when the imaging data is captured from an amount of change in the position data at prescribed time intervals; and a data retrieval unit that refers to the position data associated with the plurality of imaging data stored in the storage unit and the travel vector, determines a similarity of each, and reads comparison source imaging data and comparison destination imaging data in which the road surface of the same location is imaged from the storage unit.SELECTED DRAWING: Figure 1

Description

本発明は、路面評価システム、路面評価方法、および路面評価プログラムに関する。 The present invention relates to a road surface evaluation system, a road surface evaluation method, and a road surface evaluation program.

従来、車両が走行する路面の状態を撮像し、路面に生じた窪み、段差、ひび割れ等を検出し、その程度に基づいて路面状態を評価(判定)する路面評価システムが知られている。
このような路面評価システムとして、下記特許文献1には、車両の走行時の振動を加速度センサで検出し、路面の状態を判定する構成が開示されている。
Conventionally, there is known a road surface evaluation system that images the condition of the road surface on which a vehicle travels, detects dents, steps, cracks, etc. generated on the road surface, and evaluates (determines) the road surface condition based on the degree thereof.
As such a road surface evaluation system, Patent Document 1 below discloses a configuration in which vibration during traveling of a vehicle is detected by an acceleration sensor to determine the state of the road surface.

特開2013−79889号公報Japanese Unexamined Patent Publication No. 2013-79889

しかしながら、このような路面評価システムでは、検査時における路面の状態を評価することはできるが、定期的に行われる検査において、時間の経過とともに路面が経年変化する様子を把握することができなかった。 However, although such a road surface evaluation system can evaluate the condition of the road surface at the time of inspection, it has not been possible to grasp how the road surface changes over time in the regular inspection. ..

そこで本発明は、時間の経過とともに路面が経年変化する様子を把握することができる路面評価システムを提供することを目的とする。 Therefore, an object of the present invention is to provide a road surface evaluation system capable of grasping how the road surface changes over time with the passage of time.

上記課題を解決するために、本発明の路面評価システムは、検査対象路面を走行する検査車両に搭載され、かつ車両の周辺における路面の状態を撮像する撮像部から取得した撮像データを、検査車両の位置を示す位置データを特定する測位システムから取得した位置データと関連付けて記憶する記憶部と、撮像データおよび位置データを、記憶部から読み込むデータ処理部と、を備え、データ処理部は、位置データの所定時間毎の変化量から、撮像データが撮像された時点での検査車両の進行方向を示す進行ベクトルを算出するパラメータ算出部と、記憶部に記憶された複数の撮像データと関連付けられた位置データ、および進行ベクトルを参照し、それぞれの類似性を判断し、同一箇所の路面が撮像された比較元撮像データおよび比較先撮像データを、記憶部から読み込むデータ検索部と、を備えている路面評価システム。 In order to solve the above problems, the road surface evaluation system of the present invention is mounted on an inspection vehicle traveling on the road surface to be inspected, and the inspection vehicle obtains imaging data acquired from an imaging unit that images the state of the road surface around the vehicle. The data processing unit includes a storage unit that stores the position data indicating the position of the image in association with the position data acquired from the positioning system, and a data processing unit that reads the imaging data and the position data from the storage unit. It was associated with a parameter calculation unit that calculates a progress vector indicating the traveling direction of the inspection vehicle at the time when the imaging data was imaged from the amount of change in the data at predetermined time intervals, and a plurality of imaging data stored in the storage unit. It is provided with a data search unit that refers to the position data and the progress vector, determines the similarity between them, and reads the comparison source imaging data and the comparison destination imaging data in which the road surface at the same location is imaged from the storage unit. Road surface evaluation system.

また、パラメータ算出部は、比較元撮像データと関連付けられた位置データに対して、所定の位置の範囲を付加した位置閾値を設定し、進行ベクトルに対して、所定の角度の範囲を付加した角度閾値を設定し、データ検索部は、撮像データのうち、位置閾値内の位置データ、および角度閾値内の進行ベクトルを有する撮像データを、比較元撮像データと類似性の高い比較先撮像データとして、記憶部から読み込んでもよい。 Further, the parameter calculation unit sets a position threshold in which a range of a predetermined position is added to the position data associated with the comparison source imaging data, and an angle in which a range of a predetermined angle is added to the traveling vector. A threshold is set, and the data search unit uses the imaging data having the position data within the position threshold and the progress vector within the angle threshold as the comparison destination imaging data having high similarity to the comparison source imaging data. It may be read from the storage unit.

また、撮像部は、検査車両の前方における左右方向の中央部に、検査車両の前方を向くように配置されてもよい。 Further, the imaging unit may be arranged at the center in the left-right direction in front of the inspection vehicle so as to face the front of the inspection vehicle.

また、データ処理部は、データ検索部が読み込んだ撮像データを補正するデータ補正部を備え、データ補正部は、撮像データに3次元仮想領域を設定し、3次元仮想領域を区画する各頂点の座標を用いて、撮像データの視点の位置を示す視点情報を算出し、視点情報を用いて、比較先撮像データに対して、比較元撮像データの視点になるように幾何補正を行うことで、比較元撮像データと比較する比較先補正撮像データを生成してもよい。 Further, the data processing unit includes a data correction unit that corrects the imaging data read by the data search unit, and the data correction unit sets a three-dimensional virtual area in the imaging data and of each vertex that partitions the three-dimensional virtual area. By using the coordinates to calculate the viewpoint information indicating the position of the viewpoint of the imaging data, and using the viewpoint information, the comparison destination imaging data is geometrically corrected so as to be the viewpoint of the comparison source imaging data. The comparison destination correction imaging data to be compared with the comparison source imaging data may be generated.

また、本発明の路面評価方法は、コンピュータが、検査対象路面を走行する検査車両に搭載され、かつ前記車両の周辺における路面の状態を撮像する撮像部から取得した撮像データを、前記検査車両の位置を示す位置データを特定する測位システムから取得した位置データと関連付けて記憶部に記憶する記憶ステップと、前記撮像データおよび前記位置データを、前記記憶部から読み込むデータ処理ステップと、を実行し、前記データ処理ステップは、前記位置データの所定時間毎の変化量から、前記撮像データが撮像された時点での前記検査車両の進行方向を示す進行ベクトルを算出するパラメータ算出ステップと、前記記憶部に記憶された複数の前記撮像データと関連付けられた位置データ、および前記進行ベクトルを参照し、それぞれの類似性を判断し、同一箇所の路面が撮像された比較元撮像データおよび比較先撮像データを、前記記憶部から読み込むデータ検索ステップと、を備えている。 Further, in the road surface evaluation method of the present invention, the computer mounts on the inspection vehicle traveling on the road surface to be inspected, and obtains the imaging data acquired from the imaging unit that images the state of the road surface around the vehicle. A storage step of associating the position data indicating the position with the position data acquired from the positioning system and storing the position data in the storage unit, and a data processing step of reading the imaging data and the position data from the storage unit are executed. The data processing step includes a parameter calculation step of calculating a progress vector indicating the traveling direction of the inspection vehicle at the time when the imaging data is captured from the amount of change of the position data at predetermined time, and a parameter calculation step in the storage unit. The comparison source imaging data and the comparison destination imaging data in which the road surface at the same location is imaged by referring to the stored position data associated with the plurality of imaging data and the traveling vector to determine the similarity between them. It includes a data search step to be read from the storage unit.

また、本発明の路面評価プログラムは、コンピュータに、検査対象路面を走行する検査車両に搭載され、かつ前記車両の周辺における路面の状態を撮像する撮像部から取得した撮像データを、前記検査車両の位置を示す位置データを特定する測位システムから取得した位置データと関連付けて記憶部に記憶する記憶機能と、前記撮像データおよび前記位置データを、前記記憶部から読み込むデータ処理機能と、を実現させ、前記データ処理機能は、前記位置データの所定時間毎の変化量から、前記撮像データが撮像された時点での前記検査車両の進行方向を示す進行ベクトルを算出するパラメータ算出機能と、前記記憶部に記憶された複数の前記撮像データと関連付けられた位置データ、および前記進行ベクトルを参照し、それぞれの類似性を判断し、同一箇所の路面が撮像された比較元撮像データおよび比較先撮像データを、前記記憶部から読み込むデータ検索機能と、を備えている。 Further, in the road surface evaluation program of the present invention, the image data obtained from the imaging unit which is mounted on the inspection vehicle traveling on the inspection target road surface and images the state of the road surface around the vehicle is obtained by the inspection vehicle. A storage function for storing the position data indicating the position in the storage unit in association with the position data acquired from the positioning system for specifying the position, and a data processing function for reading the imaging data and the position data from the storage unit are realized. The data processing function includes a parameter calculation function that calculates a progress vector indicating the traveling direction of the inspection vehicle at the time when the imaging data is captured from the amount of change of the position data at predetermined time, and a storage unit. The comparison source imaging data and the comparison destination imaging data in which the road surface at the same location is imaged by referring to the stored position data associated with the plurality of imaging data and the traveling vector to determine the similarity between them. It has a data search function to read from the storage unit.

本発明の路面評価システムでは、データ検索部が、撮像データと関連付けられた位置データ、および検査車両の進行ベクトルを参照して、記憶部に記憶された複数の撮像データを比較する。これにより、データ検索部は、同一箇所の路面が撮像された比較元撮像データおよび比較先撮像データを、記憶部から読み込むことができる。このため、比較元撮像データと比較先撮像データとを確認して比較することで、例えば、比較先撮像データを比較元撮像データよりも後で撮像したデータとした場合には、時間の経過とともに路面が経年変化する様子を把握することができる。 In the road surface evaluation system of the present invention, the data search unit refers to the position data associated with the imaging data and the progress vector of the inspection vehicle, and compares a plurality of imaging data stored in the storage unit. As a result, the data search unit can read the comparison source imaging data and the comparison destination imaging data in which the road surface at the same location is imaged from the storage unit. Therefore, by confirming and comparing the comparison source imaging data and the comparison destination imaging data, for example, when the comparison destination imaging data is taken after the comparison source imaging data, the time passes. It is possible to grasp how the road surface changes over time.

本発明の路面評価システムの概略を説明する図である。It is a figure explaining the outline of the road surface evaluation system of this invention. 図1に示す路面評価システムの構成を示すブロック図である。It is a block diagram which shows the structure of the road surface evaluation system shown in FIG. 図1に示す撮像部による撮像範囲を説明する図である。It is a figure explaining the image pickup range by the image pickup part shown in FIG. 位置データを含む属性データの構造を示す図である。It is a figure which shows the structure of the attribute data including the position data. 図2に示す表示部による表示内容の一例を示す図である。It is a figure which shows an example of the display content by the display part shown in FIG. 図2に示す表示部による表示内容の他の例を示す図である。It is a figure which shows another example of the display content by the display part shown in FIG. (a)撮像部の仰俯角を説明する図、(b)3次元仮想領域を説明する図である。(A) It is a figure explaining the elevation-depression angle of an image pickup part, and (b) it is a figure explaining a three-dimensional virtual area. 撮像部のキャリブレーションを説明する図である。It is a figure explaining the calibration of the imaging part. 記憶部に記憶されたデータを、データ検索部が読み込む処理を示すフロー図である。It is a flow chart which shows the process which the data search unit reads the data stored in the storage unit. データ補正部が幾何補正を行う処理を示すフロー図である。It is a flow chart which shows the process which the data correction part performs geometric correction.

(システム構成)
本発明の一実施形態に係る路面評価システム1について、図面を参照して説明する。
図1に示すように、本実施形態に係る路面評価システム1は、検査車両100が走行する路面において、検査車両100の前方に位置する部分の状態を撮像し、路面に生じた窪み、段差、ひび割れ等を検出し、その程度に基づいて路面状態を評価(判定)するシステムである。
図1は、本発明の路面評価システム1の概略を説明する図である。
(System configuration)
The road surface evaluation system 1 according to the embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the road surface evaluation system 1 according to the present embodiment images the state of a portion of the road surface on which the inspection vehicle 100 travels, which is located in front of the inspection vehicle 100, and has dents, steps, and the like formed on the road surface. It is a system that detects cracks and evaluates (determines) the road surface condition based on the degree of cracks.
FIG. 1 is a diagram illustrating an outline of the road surface evaluation system 1 of the present invention.

路面評価システム1は、検査車両100の前方の路面の状態を、アクションカメラ10で撮像しながら走行し、時々刻々と変化するアクションカメラ10の位置情報を測位システム12により取得する。取得された撮像データおよび位置情報は、通信手段、又はフラッシュメモリなど各種の記憶媒体を介して操作端末20に入力される。これにより、地図上に設定された検査対象路面の状態を、操作端末20に表示することで確認することができる。 The road surface evaluation system 1 travels while capturing the state of the road surface in front of the inspection vehicle 100 with the action camera 10, and acquires the position information of the action camera 10 that changes from moment to moment by the positioning system 12. The acquired imaging data and position information are input to the operation terminal 20 via various storage media such as a communication means or a flash memory. Thereby, the state of the road surface to be inspected set on the map can be confirmed by displaying it on the operation terminal 20.

操作端末20は、表示装置(表示部26)と入力装置(キーボード等)とを備えたパソコンである。操作端末20は、固定端末に限られず、スマートフォンやタブレットのような携帯端末であってもよい。 The operation terminal 20 is a personal computer provided with a display device (display unit 26) and an input device (keyboard, etc.). The operation terminal 20 is not limited to a fixed terminal, and may be a mobile terminal such as a smartphone or a tablet.

操作端末20の内部では、記憶部21に複数の撮像データが記憶される。これらの撮像データのうち、比較元撮像データと比較先撮像データとを、データ検索部23が検索する。
そして、データ補正部25が、比較先撮像データに対して幾何補正を行うことで、比較元撮像データと比較先撮像データとを比較しやすい状態にし、表示部26に表示する。これらの各処理については別途詳述する。
Inside the operation terminal 20, a plurality of imaging data are stored in the storage unit 21. Of these imaging data, the data search unit 23 searches for the comparison source imaging data and the comparison destination imaging data.
Then, the data correction unit 25 performs geometric correction on the comparison destination imaging data to make it easy to compare the comparison source imaging data and the comparison destination imaging data, and displays the data on the display unit 26. Each of these processes will be described in detail separately.

通信手段は、路面評価システム1と、操作端末20との間を相互に接続させるための技術的手段であり、図示の例では無線通信手段であるが、有線通信手段であっても構わない。
具体的には、通信手段は、ワイヤレスLAN(wireless LAN:WLAN)や広域ネットワーク(wide area network:WAN)、ISDNs(integrated service digital networks)、無線LANs、LTE(long term evolution)、LTE−Advanced、第4世代(4G)、第5世代(5G)、CDMA(code division multiple access)、WCDMA(登録商標)、イーサネット(登録商標)などである。
The communication means is a technical means for connecting the road surface evaluation system 1 and the operation terminal 20 to each other, and although it is a wireless communication means in the illustrated example, it may be a wired communication means.
Specifically, the communication means are wireless LAN (wireless LAN: WLAN), wide area network (wide area network: WAN), ISDNs (integrated service digital networks), wireless LANs, LTE (long term evolution), LTE (long term evolution). 4th generation (4G), 5th generation (5G), CDMA (code division network access), WCDMA (registered trademark), Ethernet (registered trademark) and the like.

また、通信手段は、これらの例に限られず、例えば、公衆交換電話網(Public Switched Telephone Network:PSTN)やブルートゥース(Bluetooth(登録商標))、ブルートゥースローエナジー(Bluetooth Low Energy)、光回線、ADSL(Asymmetric Digital Subscriber Line)回線、衛星通信網などであってもよく、どのような通信手段であってもよい。 Further, the communication means is not limited to these examples, for example, the public switched telephone network (Public Switched Telephone Network: PSTN), Bluetooth (registered trademark), Bluetooth Low Energy, optical line, ADSL. (Asymmetric Digital Subscriber Line) A line, a satellite communication network, or the like may be used, and any communication means may be used.

また、通信手段は、例えば、NB−IoT(Narrow Band IoT)や、eMTC(enhanced Machine Type Communication)であってもよい。なお、NB−IoTやeMTCは、IoT向けの無線通信方式であり、低コスト、低消費電力で長距離通信が可能な通信手段である。 Further, the communication means may be, for example, NB-IoT (Narrow Band IoT) or eMTC (enhanced Machine Type Communication). NB-IoT and eMTC are wireless communication methods for IoT, and are communication means capable of long-distance communication at low cost and low power consumption.

また、通信手段は、これらの組み合わせであってもよい。また、通信手段は、これらの例を組み合わせた複数の異なる通信手段を含むものであってもよい。
例えば、通信手段は、LTEによる無線ネットワークと、閉域網であるイントラネットなどの有線ネットワークとを含むものであってもよい。
Moreover, the communication means may be a combination of these. Further, the communication means may include a plurality of different communication means in which these examples are combined.
For example, the communication means may include a wireless network by LTE and a wired network such as an intranet which is a closed network.

次に、図2を用いて路面評価システム1の構成について説明する。図2は、路面評価システム1の構成を示すブロック図である。
図2に示すように、路面評価システム1は、アクションカメラ10と操作端末20とを備えている。アクションカメラ10は、撮像部11と、測位システム12と、送信部13と、を備えている。
Next, the configuration of the road surface evaluation system 1 will be described with reference to FIG. FIG. 2 is a block diagram showing the configuration of the road surface evaluation system 1.
As shown in FIG. 2, the road surface evaluation system 1 includes an action camera 10 and an operation terminal 20. The action camera 10 includes an imaging unit 11, a positioning system 12, and a transmitting unit 13.

アクションカメラ10は、検査車両100に搭載され、車両の周辺における路面の状態を撮像部11により撮像する。アクションカメラ100とは、測位システム12を備え、撮像しながら移動した際の位置の変化を検出することができるカメラを指す。
アクションカメラ10は、検査車両100の前方における左右方向の中央部に、検査車両100の前方を向くように配置されている。
The action camera 10 is mounted on the inspection vehicle 100, and the image pickup unit 11 captures the state of the road surface around the vehicle. The action camera 100 refers to a camera provided with a positioning system 12 and capable of detecting a change in position when moving while taking an image.
The action camera 10 is arranged at the center in the left-right direction in front of the inspection vehicle 100 so as to face the front of the inspection vehicle 100.

撮像部11の仰俯角は、撮像範囲の上下方向の中央部に、撮像部11の前方の所定の地点が位置する角度となっている。
具体的には、撮像部11の前方において、撮像範囲の上下方向の中央部に撮像される地点と、撮像部11の直下と、の間の水平距離が所定距離となるように、撮像部11の仰俯角が設定されている。
The elevation / depression angle of the imaging unit 11 is an angle at which a predetermined point in front of the imaging unit 11 is located at the center of the imaging range in the vertical direction.
Specifically, in front of the imaging unit 11, the imaging unit 11 has a predetermined horizontal distance between a point to be imaged in the central portion in the vertical direction of the imaging range and directly below the imaging unit 11. The elevation and depression angles are set.

道路点検は一般に10mの点検範囲で行うことが慣例であり、本実施形態では、その半分の5mを点検範囲とした。この点検範囲の路面を、過不足なく撮影するため、5mを所定距離とした。なお、所定距離の大きさは、任意に変更することができる。
本実施形態では、前述のとおり、所定距離は5mとなっている。この場合には、図3に示すように、撮像部11から5mの地点が、撮像範囲の上下方向の中央部に位置している。ここで、図3は、図1に示す撮像部11による撮像範囲を説明する図である。
It is customary to carry out road inspections within an inspection range of 10 m, and in this embodiment, half of that, 5 m, is set as the inspection range. In order to photograph the road surface in this inspection range without excess or deficiency, 5 m was set as a predetermined distance. The size of the predetermined distance can be changed arbitrarily.
In the present embodiment, as described above, the predetermined distance is 5 m. In this case, as shown in FIG. 3, a point 5 m from the imaging unit 11 is located at the center of the imaging range in the vertical direction. Here, FIG. 3 is a diagram for explaining an imaging range by the imaging unit 11 shown in FIG.

図2に示すように、測位システム12は、アクションカメラ10の位置を示す位置データを取得する。測位システム12としては、GPSシステムを採用することができる。
測位システム12が取得する位置データは、少なくとも、経度情報および緯度情報を含んでいる。なお、位置データは、標高情報を含んでいてもよい。
As shown in FIG. 2, the positioning system 12 acquires position data indicating the position of the action camera 10. A GPS system can be adopted as the positioning system 12.
The position data acquired by the positioning system 12 includes at least longitude information and latitude information. The position data may include altitude information.

送信部13は、撮像部11が取得した撮像データ、および測位システム12が取得した位置情報を、先述したネットワークを使用して操作端末20に対して送信するインターフェースである。 The transmission unit 13 is an interface that transmits the image pickup data acquired by the image pickup unit 11 and the position information acquired by the positioning system 12 to the operation terminal 20 using the network described above.

操作端末20は、記憶部21と、データ処理部22と、表示部26と、受信部27と、を備えている。
記憶部21は、路面評価システム1が動作するうえで必要とする各種の制御プログラムを記憶する機能を有する。記憶部21は、例えば、HDD、SSD、フラッシュメモリなど各種の記憶媒体により実現される。
The operation terminal 20 includes a storage unit 21, a data processing unit 22, a display unit 26, and a receiving unit 27.
The storage unit 21 has a function of storing various control programs required for the road surface evaluation system 1 to operate. The storage unit 21 is realized by various storage media such as HDD, SSD, and flash memory.

記憶部21に記憶された制御プログラムを実行することで、データ処理部22が、路面評価システム1として実現すべき各機能を実現する。ここでいう各機能とは、データ処理部22が実現する機能として、記憶機能、表示機能、パラメータ算出機能、データ検索機能、およびデータ補正機能、を含んでいる。 By executing the control program stored in the storage unit 21, the data processing unit 22 realizes each function to be realized as the road surface evaluation system 1. Each function referred to here includes a storage function, a display function, a parameter calculation function, a data search function, and a data correction function as functions realized by the data processing unit 22.

記憶部21は、撮像部11が取得した撮像データを、位置データと関連付けて記憶する。記憶部21は、撮像データの各フレームに対して位置データを含む属性データを記憶する。属性データの構造について、図4を用いて説明する。図4は、位置データを含む属性データを示す図である。 The storage unit 21 stores the imaging data acquired by the imaging unit 11 in association with the position data. The storage unit 21 stores attribute data including position data for each frame of the imaging data. The structure of the attribute data will be described with reference to FIG. FIG. 4 is a diagram showing attribute data including position data.

図4に示すように、属性データは、撮像データのフレーム番号を示す撮影時間と対応付けて、位置情報、移動距離、走行速度、および進行ベクトルが記憶されている。
撮影時間は、動画を構成する各フレームを撮像した時間を指している。本実施形態では、1秒あたりに60フレームの撮像を行っている。このため、撮影時間は0.16秒毎になっている。なお、1秒あたりのフレーム数については、任意に変更することができる。
As shown in FIG. 4, in the attribute data, position information, moving distance, traveling speed, and traveling vector are stored in association with the shooting time indicating the frame number of the imaging data.
The shooting time refers to the time when each frame constituting the moving image is imaged. In this embodiment, 60 frames are imaged per second. Therefore, the shooting time is every 0.16 seconds. The number of frames per second can be changed arbitrarily.

位置情報は、測位システム12が取得した緯度情報および経度情報である。属性データには、時々刻々と変化する車両の位置の変化に合わせて、撮影時間毎の位置情報が記憶されている。
移動距離は、対応する撮影時間において、撮影開始地点からの移動距離を指しており、位置情報を基に算出される値である。
The position information is latitude information and longitude information acquired by the positioning system 12. In the attribute data, the position information for each shooting time is stored in accordance with the change in the position of the vehicle that changes from moment to moment.
The moving distance refers to the moving distance from the shooting start point at the corresponding shooting time, and is a value calculated based on the position information.

走行速度は、対応する撮影時間における検査車両100の走行速度を示している。走行速度は、撮影時間と移動距離とにより算出される値である。
進行ベクトルは、対応する撮影時間における検査車両100の走行する向きを示している。進行ベクトルは、基準となる撮影時間(例えばss.032)における位置情報と、この撮影時間(例えばss.032)から所定時間後(例えば0.64秒後)における撮影時間(ss.096)における位置情報と、を比較することで求められる。なお、所定時間については、0.64秒でなくてもよく、任意に設定することができる。
The traveling speed indicates the traveling speed of the inspection vehicle 100 at the corresponding shooting time. The traveling speed is a value calculated by the shooting time and the moving distance.
The travel vector indicates the traveling direction of the inspection vehicle 100 at the corresponding shooting time. The progress vector is the position information at the reference shooting time (for example, ss.032) and the shooting time (ss.096) after a predetermined time (for example, 0.64 seconds) from this shooting time (for example, ss.032). It is obtained by comparing with the position information. The predetermined time does not have to be 0.64 seconds and can be set arbitrarily.

表示部26は、記憶部21に記憶された撮像データおよび位置データを表示するモニタ装置である。表示部26に表示される内容について、図5および図6を用いて説明する。
図5は、図2に示す表示部26による表示内容の一例を示す図である。図6は、図2に示す表示部26による表示内容の他の例を示す図である。
The display unit 26 is a monitor device that displays the imaging data and the position data stored in the storage unit 21. The contents displayed on the display unit 26 will be described with reference to FIGS. 5 and 6.
FIG. 5 is a diagram showing an example of display contents by the display unit 26 shown in FIG. FIG. 6 is a diagram showing another example of the display content displayed by the display unit 26 shown in FIG.

図5に示すように、表示部26の左側には撮像データが再生される動画表示部26Aが設けられている。動画表示部26Aには、撮像部11からの距離の基準として、基準線が表示されている。撮像部11から基準線までの距離は任意に変更することができる。
撮像データは、検査者が任意に操作して、順送りや逆送りをしたり、所定の撮影時間における撮像データを選択したりすることができる。
As shown in FIG. 5, a moving image display unit 26A for reproducing captured data is provided on the left side of the display unit 26. A reference line is displayed on the moving image display unit 26A as a reference for the distance from the imaging unit 11. The distance from the image pickup unit 11 to the reference line can be arbitrarily changed.
The imaged data can be arbitrarily operated by the inspector to perform forward or reverse feed, or to select the imaged data at a predetermined imaging time.

動画表示部26Aの右側には、地図表示部26Bが設けられている。地図表示部26Bには、動画表示部26Aに表示されている撮像データが撮像された位置を示す地図が表示されている。地図上にはアイコンにより、測位システム12により取得された検査車両100の位置が示されている。
検査車両100の位置を示すアイコンは、動画表示部26Aに表示されている撮像データが進むに従って地図上を移動する。このときの位置情報である緯度、経度が地図表示部26Bの下側に表示されている。
A map display unit 26B is provided on the right side of the moving image display unit 26A. On the map display unit 26B, a map showing the position where the imaging data displayed on the moving image display unit 26A is captured is displayed. The position of the inspection vehicle 100 acquired by the positioning system 12 is indicated by an icon on the map.
The icon indicating the position of the inspection vehicle 100 moves on the map as the imaging data displayed on the moving image display unit 26A advances. The latitude and longitude, which are the position information at this time, are displayed on the lower side of the map display unit 26B.

図6に示すように、撮像データにおいて路面の損傷個所を確認した場合には、撮像データに対して加工を行い、当該損傷個所をマーキングすることができる。
この際、マーキングを施した部分は、地図上で確認することができる。これにより、地図全体を見ることで、損傷個所を容易に確認することができる。
As shown in FIG. 6, when a damaged part of the road surface is confirmed in the imaging data, the damaged part can be processed and the damaged part can be marked.
At this time, the marked portion can be confirmed on the map. As a result, the damaged part can be easily confirmed by looking at the entire map.

データ処理部22は、路面評価システム1の各部を制御するコンピュータであり、例えば、中央処理装置(CPU)やマイクロプロセッサ、ASIC、FPGAなどであってもよい。なお、データ処理部22は、これらの例に限られず、路面評価システム1の各部を制御するコンピュータであれば、どのようなものであってもよい。 The data processing unit 22 is a computer that controls each unit of the road surface evaluation system 1, and may be, for example, a central processing unit (CPU), a microprocessor, an ASIC, an FPGA, or the like. The data processing unit 22 is not limited to these examples, and may be any computer as long as it controls each unit of the road surface evaluation system 1.

図2に示すように、データ処理部22は、データ検索部23、パラメータ算出部24、およびデータ補正部25を備えている。
データ検索部23は、撮像データおよび位置データを、記憶部21から読み込んで、表示部26に表示させる。データ検索部23は、例えばユーザが操作端末20に入力した検査路線の識別番号や撮影日時等を入力することで、記憶部21に記憶された撮像データを検索することができる。
As shown in FIG. 2, the data processing unit 22 includes a data search unit 23, a parameter calculation unit 24, and a data correction unit 25.
The data search unit 23 reads the imaging data and the position data from the storage unit 21 and displays them on the display unit 26. The data search unit 23 can search the imaging data stored in the storage unit 21 by inputting, for example, an inspection route identification number, a shooting date and time, etc. input by the user to the operation terminal 20.

また本実施形態では、データ検索部23は、記憶部21に記憶された複数の撮像データと対応して記憶された位置データ、および進行ベクトルの類似性を判断する。そしてデータ処理部22は、同一箇所の路面が撮像された比較元撮像データおよび比較先撮像データを、記憶部21から読み込む機能を有している。この機能について以下に詳述する。 Further, in the present embodiment, the data search unit 23 determines the similarity between the position data stored in correspondence with the plurality of imaging data stored in the storage unit 21 and the progress vector. Then, the data processing unit 22 has a function of reading the comparison source imaging data and the comparison destination imaging data in which the road surface of the same location is imaged from the storage unit 21. This function will be described in detail below.

パラメータ算出部24は、位置データの所定時間毎の変化量から、撮像データが撮像された時点での検査車両100の進行方向を示す進行ベクトルを算出する。
進行ベクトルは、検査車両100が向く方向を示している。そして、アクションカメラ10が検査車両100の前方を向いているので、進行ベクトルが特定されることで、撮像部11が撮像している方向が特定されることとなる。
The parameter calculation unit 24 calculates a travel vector indicating the traveling direction of the inspection vehicle 100 at the time when the imaging data is captured from the amount of change in the position data at predetermined time intervals.
The travel vector indicates the direction in which the inspection vehicle 100 faces. Then, since the action camera 10 faces the front of the inspection vehicle 100, the direction in which the imaging unit 11 is capturing is specified by specifying the traveling vector.

パラメータ算出部24は、基準時の位置情報と、所定時間後の位置情報と、を比較することで、基準時における進行ベクトルを算出する。算出された進行ベクトルは、属性データの一部として、記憶部21に記憶される。
そしてデータ検索部23は、撮像データと関連付けられた位置データ、および進行ベクトルを参照して、比較元撮像データおよび比較先撮像データを、記憶部21から読み込む。
The parameter calculation unit 24 calculates the progress vector at the reference time by comparing the position information at the reference time with the position information after a predetermined time. The calculated progress vector is stored in the storage unit 21 as a part of the attribute data.
Then, the data search unit 23 refers to the position data associated with the imaging data and the progress vector, and reads the comparison source imaging data and the comparison destination imaging data from the storage unit 21.

ここで、比較元撮像データおよび比較先撮像データはそれぞれ、撮像部11が取得した動画データを構成する単位フレーム毎の静止画データを指している。
比較元撮像データとは、基準となる時期における撮像データを指す。基準となる時期とは、現在であってもよいし、過去の所定の日時であってもよい。
比較先撮像データとは、比較元撮像と比較される撮像であって、比較元撮像データにおいて特に観察したい部分が写っているデータを指す。比較先撮像データは、比較元撮像データよりも過去のデータであってもよいし、将来のデータであってもよい。
Here, the comparison source imaging data and the comparison destination imaging data each refer to still image data for each unit frame constituting the moving image data acquired by the imaging unit 11.
The comparison source imaging data refers to imaging data at a reference time. The reference time may be the present or a predetermined date and time in the past.
The comparison destination imaging data refers to imaging that is compared with the comparison source imaging data, and refers to data in which a portion of the comparison source imaging data that is particularly desired to be observed is captured. The comparison destination imaging data may be data that is older than the comparison source imaging data, or may be future data.

パラメータ算出部24は、比較元撮像データと関連付けられた位置データに対して、所定の位置範囲を付加した位置閾値を設定する。所定の位置範囲としては、例えば±0.5mの範囲を設定することができる。なお、所定の位置範囲の値は任意に変更することができる。 The parameter calculation unit 24 sets a position threshold value by adding a predetermined position range to the position data associated with the comparison source imaging data. As a predetermined position range, for example, a range of ± 0.5 m can be set. The value of the predetermined position range can be changed arbitrarily.

また、パラメータ算出部24は、進行ベクトルに対して、所定の角度範囲を付加した角度閾値を設定する。所定の角度範囲としては、例えば±15°の範囲を設定することができる。なお、所定の角度範囲の値は任意に変更することができる。
そして、データ検索部23は、記憶部21に記憶された撮像データのうち、位置閾値内の位置データ、および角度閾値内の進行ベクトルを有する撮像データを、比較元撮像データと類似性の高い比較先撮像データとして、記憶部21から読み込む。
Further, the parameter calculation unit 24 sets an angle threshold value by adding a predetermined angle range to the progress vector. As the predetermined angle range, for example, a range of ± 15 ° can be set. The value in the predetermined angle range can be changed arbitrarily.
Then, the data search unit 23 compares the imaging data stored in the storage unit 21 with the imaging data having the position data within the position threshold and the progress vector within the angle threshold with high similarity to the comparison source imaging data. It is read from the storage unit 21 as the pre-image data.

データ補正部25は、データ検索部23が読み込んだ撮像データを幾何補正する。データ処理部22が撮像データを幾何補正することにより、走行車両が走行しながら撮像して取得した複数の撮像データの視点を一致させることができる。
これにより、比較元撮像データと同じ観察点から定点観察したように、損傷個所の識別性の高い補正比較先撮像データを取得することができる。データ補正部25による幾何補正処理について、図7および図8を用いて詳述する。図7(a)は、撮像部11の仰俯角を説明する図、図7(b)は、3次元仮想領域を説明する図である。図8は、撮像部11のキャリブレーションを説明する図である。
The data correction unit 25 geometrically corrects the imaging data read by the data search unit 23. By geometrically correcting the imaging data by the data processing unit 22, it is possible to match the viewpoints of a plurality of imaging data acquired by imaging while the traveling vehicle is traveling.
As a result, it is possible to acquire the corrected comparison destination imaging data with high distinctiveness of the damaged portion, as if the fixed point observation was performed from the same observation point as the comparison source imaging data. The geometric correction process by the data correction unit 25 will be described in detail with reference to FIGS. 7 and 8. FIG. 7A is a diagram for explaining the elevation / depression angle of the imaging unit 11, and FIG. 7B is a diagram for explaining a three-dimensional virtual area. FIG. 8 is a diagram illustrating calibration of the imaging unit 11.

図7(a)に示すように、撮像部11は前方5mの地点が画角の中央になるように設定されている。この際、図7(b)に三角形を呈する領域を撮像部11が撮像できる。
そして、データ補正部25は、撮像データに3次元仮想領域を設定する。3次元仮想領域とは、検査車両100の前方に画定される領域であって、図7(b)において白抜きにされている領域を指す。
As shown in FIG. 7A, the imaging unit 11 is set so that the point 5 m ahead is at the center of the angle of view. At this time, the imaging unit 11 can image the region having a triangle in FIG. 7 (b).
Then, the data correction unit 25 sets a three-dimensional virtual area for the imaged data. The three-dimensional virtual area is an area defined in front of the inspection vehicle 100, and refers to an area outlined in FIG. 7B.

具体的には、撮像部11の位置を原点として、原点から前方に所定距離までの領域、かつ道路の左右方向の両端部までの領域を3次元仮想領域とする。すなわち、3次元仮想領域は、撮像部11により撮像されていない範囲を含んでいる。
3次元仮想領域は、第1頂点、第2頂点、第3頂点、および第4頂点により画定されている。第1頂点と第2頂点との間の距離は5m(所定距離)になっている。第1頂点と第4頂点との間の距離は4mであり、第1頂点と原点との間の距離は2mとなっている。なお、第1頂点と第2頂点との間の所定距離は、5mでなくてもよいし、第1頂点と原点との間の距離は2mでなくてもよい。すなわち、3次元仮想領域の大きさは、任意に変更することができる。
Specifically, the position of the imaging unit 11 is set as the origin, and the region from the origin to a predetermined distance forward and the region to both ends in the left-right direction of the road is defined as a three-dimensional virtual region. That is, the three-dimensional virtual area includes a range that has not been imaged by the imaging unit 11.
The three-dimensional virtual area is defined by the first vertex, the second vertex, the third vertex, and the fourth vertex. The distance between the first vertex and the second vertex is 5 m (predetermined distance). The distance between the first vertex and the fourth vertex is 4 m, and the distance between the first vertex and the origin is 2 m. The predetermined distance between the first vertex and the second vertex does not have to be 5 m, and the distance between the first vertex and the origin does not have to be 2 m. That is, the size of the three-dimensional virtual area can be changed arbitrarily.

データ補正部25は、3次元仮想領域を区画する各頂点の座標を用いて、撮像データの視点の位置を示す視点情報を算出する。この際、データ補正部25は、撮影時に測位システム12から取得した位置情報を用いて、この3次元仮想領域の各頂点の座標情報を記録し、撮像データに3次元仮想領域を画定する座標を付加した状態で記憶している。 The data correction unit 25 calculates the viewpoint information indicating the position of the viewpoint of the imaging data by using the coordinates of each vertex that divides the three-dimensional virtual area. At this time, the data correction unit 25 records the coordinate information of each vertex of the three-dimensional virtual area by using the position information acquired from the positioning system 12 at the time of shooting, and sets the coordinates that define the three-dimensional virtual area in the imaging data. It is memorized in the added state.

図8に示すように、キャリブレーションとして、撮像データにおいて、どの位置に3次元仮想領域を画定する各頂点が位置するのかを確認する。
具体的には、撮像データにおける画素座標と、実際の撮像部11を原点として求められる空間座標と、の関係を確認する。この際、後方に位置する第1頂点および第4頂点は、撮像されていなくてもよい。
As shown in FIG. 8, as a calibration, it is confirmed at which position each vertex defining the three-dimensional virtual area is located in the imaging data.
Specifically, the relationship between the pixel coordinates in the imaging data and the spatial coordinates obtained with the actual imaging unit 11 as the origin is confirmed. At this time, the first and fourth vertices located behind may not be imaged.

次に、データ補正部25は、視点情報(視点座標と視線方向)を用いて、比較先撮像データに対して、比較元撮像データの視点になるように幾何補正を行うことで、比較元撮像データと比較する比較先補正撮像データを生成する。
この処理では、データ補正部25は、比較元撮像データに対して、3次元仮想領域の各頂点の座標情報を用いて視点情報(視点座標と視線方向)を算出する。次に、データ補正部25は、比較先撮像データに対して、3次元仮想領域の各頂点の座標情報を用いて、視点情報(視点座標と視線方向)を算出する。
次に、データ補正部25は、比較先撮像データの視点情報と、比較元撮像データの視点情報と、を用いて、比較先撮像データの視点を比較元撮像データの視点と一致させるための射影変換行列を算出する。
Next, the data correction unit 25 uses the viewpoint information (viewpoint coordinates and line-of-sight direction) to perform geometric correction on the comparison destination imaging data so as to be the viewpoint of the comparison source imaging data, thereby performing the comparison source imaging. Generate comparison destination correction imaging data to be compared with the data.
In this process, the data correction unit 25 calculates the viewpoint information (viewpoint coordinates and line-of-sight direction) using the coordinate information of each vertex of the three-dimensional virtual area with respect to the comparison source imaging data. Next, the data correction unit 25 calculates the viewpoint information (viewpoint coordinates and line-of-sight direction) using the coordinate information of each vertex of the three-dimensional virtual area with respect to the comparison destination imaging data.
Next, the data correction unit 25 uses the viewpoint information of the comparison destination imaging data and the viewpoint information of the comparison source imaging data to project a projection for matching the viewpoint of the comparison destination imaging data with the viewpoint of the comparison source imaging data. Calculate the transformation matrix.

そして、データ補正部25は、比較先撮像データに対して、比較元撮像データの視点になるように幾何補正を行う。この際、予め算出した射影変換行列を用いて、比較先撮像データを構成する全ての画素に対して幾何補正を行う。これにより、比較元撮像データと視点が一致し、比較しやすくなった比較先補正撮像データが生成される。
このように補正された比較先補正撮像データは、比較元データと視点情報が一致しているので、例えば重ね合わせ処理をすることで、経年変化の様子を正確に把握することができる。
Then, the data correction unit 25 performs geometric correction on the comparison destination imaging data so as to be the viewpoint of the comparison source imaging data. At this time, geometric correction is performed on all the pixels constituting the comparison destination imaging data by using the projective transformation matrix calculated in advance. As a result, the comparison destination correction imaging data is generated in which the viewpoint matches the comparison source imaging data and the comparison is easy.
Since the comparison source data and the viewpoint information of the comparison destination correction imaging data corrected in this way match, for example, by performing overlay processing, it is possible to accurately grasp the state of secular change.

(処理フロー)
次に、図9および図10を用いて路面評価システム1の処理フローについて説明する。図9は、記憶部21に記憶されたデータを、データ検索部23が読み込む処理を示すフロー図であり、図10は、データ補正部25が幾何補正を行う処理を示すフロー図である。まず、記憶部21に記憶されたデータを、データ検索部23が読み込む処理について説明する。
(Processing flow)
Next, the processing flow of the road surface evaluation system 1 will be described with reference to FIGS. 9 and 10. FIG. 9 is a flow chart showing a process of reading the data stored in the storage unit 21 by the data search unit 23, and FIG. 10 is a flow chart showing a process of performing geometric correction by the data correction unit 25. First, a process of reading the data stored in the storage unit 21 by the data search unit 23 will be described.

図9に示すように、まず、撮像部11が撮像データを取得する(S101)。この際、検査車両100は定められた路線区域としての評価路線を走行する。
評価路線を走行しながら撮像部11により前方の路面の状態を撮像することで、撮像データを取得することができる。なお、アクションカメラ10は、走行前に予めカメラ位置や仰俯角が前述した構成に設定されている。
As shown in FIG. 9, first, the imaging unit 11 acquires imaging data (S101). At this time, the inspection vehicle 100 travels on the evaluation route as the defined route area.
Imaging data can be acquired by imaging the state of the road surface ahead by the imaging unit 11 while traveling on the evaluation route. The action camera 10 has the camera position and elevation / depression angle set in advance before traveling.

次に、測位システム12が位置情報を取得する(S102)。測位システム12は、GPS衛星30から少なくとも緯度、経度を含む位置情報を取得する。そして、送信部13が撮像データと位置情報とを送信し(S103)、受信部27が撮像データと位置情報とを受信する(S104)。
データ処理部22は、撮像データと位置情報とを記憶部21に記憶させる(S105:記憶ステップ)。この際、位置情報は属性情報として、撮影時間毎に記憶される。
Next, the positioning system 12 acquires the position information (S102). The positioning system 12 acquires position information including at least latitude and longitude from GPS satellites 30. Then, the transmitting unit 13 transmits the imaging data and the position information (S103), and the receiving unit 27 receives the imaging data and the position information (S104).
The data processing unit 22 stores the imaging data and the position information in the storage unit 21 (S105: storage step). At this time, the position information is stored as attribute information for each shooting time.

次に、パラメータ算出部24が、進行ベクトルを含む各パラメータを算出する(S106:パラメータ算出ステップ)。進行ベクトルは、撮像時間毎の各撮像データそれぞれに対して算出される。各パラメータとは、移動距離、走行速度、進行ベクトル、および3次元仮想領域における各頂点座標である。これらの各パラメータは、図4に示すように属性データとして、記憶部21に記憶される。 Next, the parameter calculation unit 24 calculates each parameter including the progress vector (S106: parameter calculation step). The progress vector is calculated for each imaging data for each imaging time. Each parameter is a moving distance, a traveling speed, a traveling vector, and the coordinates of each vertex in the three-dimensional virtual area. Each of these parameters is stored in the storage unit 21 as attribute data as shown in FIG.

次に、パラメータ算出部24が、位置閾値を算出する(S107)。位置閾値は撮像時間毎の各撮像データそれぞれに対して算出される。位置閾値を算出するために用いる所定の位置範囲については、任意に設定することができる。パラメータ算出部24は、算出した位置閾値を記憶部21に記憶させる。 Next, the parameter calculation unit 24 calculates the position threshold value (S107). The position threshold is calculated for each imaging data for each imaging time. A predetermined position range used for calculating the position threshold value can be arbitrarily set. The parameter calculation unit 24 stores the calculated position threshold value in the storage unit 21.

次に、パラメータ算出部24が、角度閾値を算出する(S108)。角度閾値は、撮像時間毎の各撮像データそれぞれに対して算出される。角度閾値を算出するために用いる所定の角度範囲については、任意に設定することができる。パラメータ算出部24は、算出した角度閾値を記憶部21に記憶させる。 Next, the parameter calculation unit 24 calculates the angle threshold value (S108). The angle threshold value is calculated for each imaging data for each imaging time. The predetermined angle range used for calculating the angle threshold value can be arbitrarily set. The parameter calculation unit 24 stores the calculated angle threshold value in the storage unit 21.

次に、データ検索部23が比較元撮像データを読み込む(S109:データ検索ステップ)。比較元撮像データは、ユーザが入力した撮影時期や評価路線等の情報により特定されて検索される。
比較元撮像データは、例えば最新の撮像データであってもよいし、過去の撮像データであってもよい。比較元撮像データとしては、例えば、路面に形成されたポットホールと呼ばれる窪み等の路面の機能に対して悪影響がある箇所を含む撮像データである。そして、比較元撮像データと、比較先撮像データと、を比較することで、このポットホールの経年変化の様子を確認することができる。
Next, the data search unit 23 reads the comparison source imaging data (S109: data search step). The comparison source imaging data is specified and searched by information such as the shooting time and the evaluation route input by the user.
The comparison source imaging data may be, for example, the latest imaging data or past imaging data. The comparison source imaging data is, for example, imaging data including a portion having an adverse effect on the function of the road surface such as a dent called a pothole formed on the road surface. Then, by comparing the comparison source imaging data and the comparison destination imaging data, it is possible to confirm the state of the secular change of this pothole.

次に、データ検索部23が、比較先撮像データを読み込む(S110:データ検索ステップ)。比較先撮像データは、比較元撮像データと類似性の高い撮像データである。
データ検索部23は、位置閾値内の位置データ、および角度閾値内の進行ベクトルを有する撮像データを、比較元撮像データと類似性の高い比較先撮像データとして、記憶部21から読み込む。これにより、比較元撮像データと位置が近く、かつ撮影する方向の近い撮像データが取得できる。
Next, the data search unit 23 reads the comparison destination imaging data (S110: data search step). The comparison destination imaging data is imaging data having high similarity to the comparison source imaging data.
The data search unit 23 reads the position data within the position threshold value and the imaging data having the progress vector within the angle threshold value from the storage unit 21 as comparison destination imaging data having high similarity to the comparison source imaging data. As a result, it is possible to acquire imaging data whose position is close to that of the comparison source imaging data and whose imaging direction is close.

次に、データ補正部25が行う幾何補正の処理について説明する。
図10に示すように、まず、データ補正部25が比較元撮像データに3次元仮想領域を設定する(S201)。3次元仮想領域は、予め撮像データにおける画素座標と、実際の撮像部11を原点として求められる空間座標と、の関係により、画定される。
次に、データ補正部25が視点情報を算出する(S202)。視点情報の算出に際しては、3次元仮想領域の各頂点の座標を用いて計算を行う。計算された各座標は、属性データの一部として記憶部21に記憶される(図4参照)。
Next, the geometric correction process performed by the data correction unit 25 will be described.
As shown in FIG. 10, first, the data correction unit 25 sets a three-dimensional virtual area in the comparison source imaging data (S201). The three-dimensional virtual area is defined in advance by the relationship between the pixel coordinates in the imaging data and the spatial coordinates obtained with the actual imaging unit 11 as the origin.
Next, the data correction unit 25 calculates the viewpoint information (S202). When calculating the viewpoint information, the calculation is performed using the coordinates of each vertex of the three-dimensional virtual area. Each of the calculated coordinates is stored in the storage unit 21 as a part of the attribute data (see FIG. 4).

次に、図10に示すように、データ補正部25が、比較先撮像データに3次元仮想領域を設定する(S203)。3次元仮想領域は、予め撮像データにおける画素座標と、実際の撮像部11を原点として求められる空間座標と、の関係により、画定される。
次に、データ補正部25が視点情報を算出する(S204)。視点情報の算出に際しては、3次元仮想領域の各頂点の座標を用いて計算を行う。
そして、データ補正部25が、射影変換行列を算出する(S205)。射影変換行列は、比較先撮像データおよび比較元撮像データそれぞれから算出した2つの視点情報を用いて算出する。
Next, as shown in FIG. 10, the data correction unit 25 sets a three-dimensional virtual area in the comparison destination imaging data (S203). The three-dimensional virtual area is defined in advance by the relationship between the pixel coordinates in the imaging data and the spatial coordinates obtained with the actual imaging unit 11 as the origin.
Next, the data correction unit 25 calculates the viewpoint information (S204). When calculating the viewpoint information, the calculation is performed using the coordinates of each vertex of the three-dimensional virtual area.
Then, the data correction unit 25 calculates the projective transformation matrix (S205). The projective transformation matrix is calculated using two viewpoint information calculated from each of the comparison destination imaging data and the comparison source imaging data.

次に、データ補正部25が、比較先撮像データに幾何補正を行う(S206)。データ補正部25は、射影変換行列を用いて行われる。これにより、比較先撮像データの視点情報が、比較元撮像データの視点情報と一致し、同じ視点から観察したような比較先補正撮像データが生成される。次に、データ補正部25は、生成された比較先補正撮像データを記憶部21に記憶させる(S207)。 Next, the data correction unit 25 performs geometric correction on the comparison destination imaging data (S206). The data correction unit 25 is performed using a projective transformation matrix. As a result, the viewpoint information of the comparison destination imaging data matches the viewpoint information of the comparison source imaging data, and the comparison destination correction imaging data as if observed from the same viewpoint is generated. Next, the data correction unit 25 stores the generated comparison destination correction imaging data in the storage unit 21 (S207).

そして最後に、表示部26が、比較元撮像データと比較先補正撮像データとを表示させる(S208)。この際、比較元撮像データと比較先補正撮像データとを重ね合わせた状態で表示してもよいし、並べて配置した状態で表示してもよい。これにより、比較元撮像データと、比較先補正撮像データとを同時に確認することで、路面の機能に対して悪影響を与える箇所の経年変化を確認することができる。 Finally, the display unit 26 displays the comparison source imaging data and the comparison destination correction imaging data (S208). At this time, the comparison source imaging data and the comparison destination correction imaging data may be displayed in a superposed state, or may be displayed in a state of being arranged side by side. As a result, by simultaneously confirming the comparison source imaging data and the comparison destination correction imaging data, it is possible to confirm the secular change of the portion that adversely affects the function of the road surface.

以上説明したように、本実施形態に係る路面評価システム1によれば、データ検索部23が、撮像データと関連付けられた位置データ、および検査車両100の進行ベクトルを参照して、記憶部21に記憶された複数の撮像データを比較する。
これにより、データ検索部23は、同一箇所の路面が撮像された比較元撮像データおよび比較先撮像データを、記憶部21から読み込むことができる。このため、比較元撮像データと比較先撮像データとを確認して比較することで、例えば、比較先撮像データを比較元撮像データよりも後で撮像したデータとした場合には、時間の経過とともに路面が経年変化する様子を把握することができる。
As described above, according to the road surface evaluation system 1 according to the present embodiment, the data search unit 23 refers to the position data associated with the imaging data and the progress vector of the inspection vehicle 100 in the storage unit 21. Compare a plurality of stored imaging data.
As a result, the data search unit 23 can read the comparison source imaging data and the comparison destination imaging data in which the road surface at the same location is imaged from the storage unit 21. Therefore, by confirming and comparing the comparison source imaging data and the comparison destination imaging data, for example, when the comparison destination imaging data is taken after the comparison source imaging data, the time passes. It is possible to grasp how the road surface changes over time.

また、データ処理部22が、位置データに対して位置閾値を設定し、データ検索部23が、位置閾値内の位置データを、比較元撮像データと類似性の高い比較先撮像データとして記憶部21から読み込む。これにより、大量に記憶された撮像データのうち、比較元撮像データと撮影地点が近い撮像データを容易に特定することができる。 Further, the data processing unit 22 sets a position threshold value for the position data, and the data search unit 23 stores the position data within the position threshold value as the comparison destination imaging data having high similarity to the comparison source imaging data. Read from. As a result, among the large amount of stored imaging data, it is possible to easily identify the imaging data whose imaging point is close to the comparison source imaging data.

また、データ処理部22が、進行ベクトルに対して角度閾値を設定し、データ検索部23が、角度閾値内の進行ベクトルを有する撮像データを、比較元撮像データと類似性の高い比較先撮像データとして記憶部21から読み込む。
これにより、比較元撮像データと仮に撮影地点が近い撮像データであっても、撮像部11が撮像している方向が大きく異なる撮像データを除外することで、データ検索部23の検索処理からノイズを除去することができる。
Further, the data processing unit 22 sets an angle threshold value with respect to the progress vector, and the data search unit 23 uses the image pickup data having the progress vector within the angle threshold value as the comparison destination imaging data having a high similarity to the comparison source imaging data. Is read from the storage unit 21.
As a result, even if the imaging data is close to the comparison source imaging data, the imaging data whose imaging direction is significantly different from that of the imaging unit 11 is excluded, so that noise is removed from the search process of the data search unit 23. Can be removed.

また、撮像部11が、検査車両100の前方における左右方向の中央部に、検査車両100の前方を向くように配置されているので、検査車両100の左右両側を均等に撮像することができる。 Further, since the imaging unit 11 is arranged at the center in the left-right direction in front of the inspection vehicle 100 so as to face the front of the inspection vehicle 100, the left and right sides of the inspection vehicle 100 can be uniformly imaged.

また、データ補正部25が、撮像データに設定した3次元仮想領域を区画する各頂点の座標を用いて、撮像データの視点の位置を示す視点情報を算出し、視点情報を用いて、比較先撮像データに対して、比較元撮像データの視点になるように幾何補正を行う。
これにより、視点情報を予め算出し、全ての画素データに対して適用することで、例えば、比較先撮像データを構成する各画素に対して視点情報を算出して幾何補正を行うような手法と比較して、幾何補正に係る計算負荷を大幅に低減することができる。これにより、路面評価システム1を汎用のパソコン等の計算機により安価に実現することができるとともに、処理速度を確保することができる。
Further, the data correction unit 25 calculates the viewpoint information indicating the position of the viewpoint of the imaging data using the coordinates of each vertex that divides the three-dimensional virtual area set in the imaging data, and uses the viewpoint information to compare the comparison destination. Geometric correction is performed on the imaged data so that it becomes the viewpoint of the comparison source imaged data.
As a result, the viewpoint information is calculated in advance and applied to all the pixel data, for example, a method of calculating the viewpoint information for each pixel constituting the comparison destination imaging data and performing geometric correction. In comparison, the calculation load related to geometric correction can be significantly reduced. As a result, the road surface evaluation system 1 can be realized at low cost by a computer such as a general-purpose personal computer, and the processing speed can be secured.

なお、上述の実施形態は、本発明の代表的な実施形態を単に例示したものにすぎない。したがって、本発明の趣旨を逸脱しない範囲において、上述の実施形態に対して種々の変形を行ってもよい。 It should be noted that the above-described embodiment is merely an example of a typical embodiment of the present invention. Therefore, various modifications may be made to the above-described embodiment without departing from the spirit of the present invention.

例えば、上記実施形態で示した属性データの構造はあくまで例示である。これらのデータ構造は任意に変更することができる。
また、上記実施形態で示した操作端末20における表示部26での表示内容は、あくまで例示である。表示部26での表示内容は任意に変更することができる。
For example, the structure of the attribute data shown in the above embodiment is merely an example. These data structures can be changed arbitrarily.
Further, the display content on the display unit 26 of the operation terminal 20 shown in the above embodiment is merely an example. The display content on the display unit 26 can be arbitrarily changed.

また、上記実施形態では、3次元仮想領域として、矩形の領域を画定する構成を説明したが、このような態様に限られない。3次元仮想領域は、矩形以外の平面図形であってもよい。
また、上記実施形態では、データ補正部25が、射影変換行列を算出し、この行列を用いて幾何補正を行う態様について説明したが、このような態様に限られない。データ補正部25は、射影変換行列を算出することなく、単純に基準となる座標を一致させる補正を行ってもよい。
Further, in the above embodiment, a configuration for defining a rectangular area as a three-dimensional virtual area has been described, but the present invention is not limited to such a mode. The three-dimensional virtual area may be a plane figure other than a rectangle.
Further, in the above embodiment, the mode in which the data correction unit 25 calculates the projective transformation matrix and performs geometric correction using this matrix has been described, but the present invention is not limited to such a mode. The data correction unit 25 may simply perform correction to match the reference coordinates without calculating the projection transformation matrix.

また、路面評価システム1に用いられる制御プログラムは、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよい。記憶媒体は、「一時的でない有形の媒体」に、制御プログラムを記憶可能である。
記憶媒体は、HDDやSDDなどの任意の適切な記憶媒体、またはこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、揮発性、不揮発性、または揮発性と不揮発性の組合せでよい。なお、記憶媒体はこれらの例に限られず、制御プログラムを記憶可能であれば、どのようなデバイスまたは媒体であってもよい。
Further, the control program used in the road surface evaluation system 1 may be provided in a state of being stored in a storage medium readable by a computer. The storage medium can store the control program in a "non-temporary tangible medium".
The storage medium can include any suitable storage medium such as HDD or SDD, or a suitable combination of two or more thereof. The storage medium may be volatile, non-volatile, or a combination of volatile and non-volatile. The storage medium is not limited to these examples, and may be any device or medium as long as the control program can be stored.

また、路面評価システム1は、記憶媒体に記憶された制御プログラムを読み出し、読み出した制御プログラムを実行することによって、実施形態に示す各機能を実現する構成であってもよい。また、制御プログラムは、任意の伝送媒体(通信ネットワークや放送波等)を介して、路面評価システム1に提供されてもよい。路面評価システム1は、例えば、インターネット等を介してダウンロードした制御プログラムを実行することにより、前述した各種の機能を実現する構成であってもよい。 Further, the road surface evaluation system 1 may be configured to realize each function shown in the embodiment by reading the control program stored in the storage medium and executing the read control program. Further, the control program may be provided to the road surface evaluation system 1 via an arbitrary transmission medium (communication network, broadcast wave, etc.). The road surface evaluation system 1 may be configured to realize the various functions described above by executing a control program downloaded via the Internet or the like, for example.

また、制御プログラムは、例えば、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective―C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装してもよい。 Further, the control program may be implemented using, for example, a script language such as ActionScript or JavaScript (registered trademark), an object-oriented programming language such as Objective-C or Java (registered trademark), or a markup language such as HTML5. Good.

また、上記実施形態では、路面評価システム1が、アクションカメラ10と操作端末20とにより実現されている構成を示したが、このような態様に限られない。路面評価システム1は、アクションカメラ10を備えておらず、取得された撮像データ、および位置情報を解析する操作端末20のみの構成であってもよい。 Further, in the above embodiment, the road surface evaluation system 1 shows a configuration realized by the action camera 10 and the operation terminal 20, but the present invention is not limited to such a mode. The road surface evaluation system 1 may not include the action camera 10 and may be configured only by the operation terminal 20 that analyzes the acquired imaging data and the position information.

また、路面評価システム1における処理の少なくとも一部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、路面評価システム1の各機能部は、上記実施形態に示した機能を実現する1または複数の回路によって実現されてもよく、1の回路により複数の機能部の機能が実現されることとしてもよい。 Further, at least a part of the processing in the road surface evaluation system 1 may be realized by cloud computing composed of one or more computers. Further, each functional unit of the road surface evaluation system 1 may be realized by one or a plurality of circuits that realize the functions shown in the above embodiment, and the functions of the plurality of functional units are realized by one circuit. May be good.

また、本開示の実施形態を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易である。従って、これらの変形や修正は本開示の範囲に含まれることになる。例えば、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、各実施形態に示す構成を適宜組み合わせることとしてもよい。 Moreover, although the embodiment of the present disclosure has been described based on various drawings and examples, those skilled in the art can easily make various modifications and modifications based on the present disclosure. Therefore, these modifications and modifications are included in the scope of the present disclosure. For example, the functions included in each means, each step, etc. can be rearranged so as not to be logically inconsistent, and a plurality of means, steps, etc. can be combined or divided into one. .. Further, the configurations shown in each embodiment may be appropriately combined.

1 路面評価システム
10 アクションカメラ
11 撮像部
12 測位システム
20 操作端末
21 記憶部
22 データ処理部
23 データ検索部
24 パラメータ算出部
25 データ補正部
100 検査車両
1 Road surface evaluation system 10 Action camera 11 Imaging unit 12 Positioning system 20 Operation terminal 21 Storage unit 22 Data processing unit 23 Data search unit 24 Parameter calculation unit 25 Data correction unit 100 Inspection vehicle

Claims (6)

検査対象路面を走行する検査車両に搭載され、かつ前記車両の周辺における路面の状態を撮像する撮像部から取得した撮像データを、前記検査車両の位置を示す位置データを特定する測位システムから取得した位置データと関連付けて記憶する記憶部と、
前記撮像データおよび前記位置データを、前記記憶部から読み込むデータ処理部と、を備え、
前記データ処理部は、前記位置データの所定時間毎の変化量から、前記撮像データが撮像された時点での前記検査車両の進行方向を示す進行ベクトルを算出するパラメータ算出部と、
前記記憶部に記憶された複数の前記撮像データと関連付けられた位置データ、および前記進行ベクトルを参照し、それぞれの類似性を判断し、同一箇所の路面が撮像された比較元撮像データおよび比較先撮像データを、前記記憶部から読み込むデータ検索部と、を備えている路面評価システム。
The imaging data mounted on the inspection vehicle traveling on the road surface to be inspected and acquired from the imaging unit that images the state of the road surface around the vehicle was acquired from the positioning system that specifies the position data indicating the position of the inspection vehicle. A storage unit that stores in association with position data,
A data processing unit that reads the imaging data and the position data from the storage unit is provided.
The data processing unit includes a parameter calculation unit that calculates a travel vector indicating the traveling direction of the inspection vehicle at the time when the imaging data is captured from the amount of change in the position data at predetermined time intervals.
The comparison source imaging data and the comparison destination in which the road surface at the same location is imaged by referring to the position data associated with the plurality of imaging data stored in the storage unit and the traveling vector to determine the similarity between them. A road surface evaluation system including a data search unit that reads captured data from the storage unit.
前記パラメータ算出部は、
前記比較元撮像データと関連付けられた位置データに対して、所定の位置の範囲を付加した位置閾値を設定し、
前記進行ベクトルに対して、所定の角度の範囲を付加した角度閾値を設定し、
前記データ検索部は、前記撮像データのうち、前記位置閾値内の位置データ、および前記角度閾値内の前記進行ベクトルを有する撮像データを、前記比較元撮像データと類似性の高い前記比較先撮像データとして、前記記憶部から読み込むことを特徴とする請求項1に記載の路面評価システム。
The parameter calculation unit
A position threshold value is set by adding a range of a predetermined position to the position data associated with the comparison source imaging data.
An angle threshold value with a predetermined angle range added to the traveling vector is set.
Among the imaging data, the data search unit uses the imaging data having the position data within the position threshold value and the progress vector within the angle threshold value as the comparison destination imaging data having high similarity to the comparison source imaging data. The road surface evaluation system according to claim 1, wherein the data is read from the storage unit.
前記撮像部は、検査車両の前方における左右方向の中央部に、前記検査車両の前方を向くように配置されていることを特徴とする請求項1又は2に記載の路面評価システム。 The road surface evaluation system according to claim 1 or 2, wherein the imaging unit is arranged at a central portion in the left-right direction in front of the inspection vehicle so as to face the front of the inspection vehicle. 前記データ処理部は、前記データ検索部が読み込んだ前記撮像データを補正するデータ補正部を備え、
前記データ補正部は、前記撮像データに3次元仮想領域を設定し、
前記3次元仮想領域を区画する各頂点の座標を用いて、前記撮像データの視点の位置を示す視点情報を算出し、
前記視点情報を用いて、前記比較先撮像データに対して、前記比較元撮像データの視点になるように幾何補正を行うことで、前記比較元撮像データと比較する比較先補正撮像データを生成することを特徴とする請求項3に記載の路面評価システム。
The data processing unit includes a data correction unit that corrects the imaging data read by the data search unit.
The data correction unit sets a three-dimensional virtual area for the imaged data,
Using the coordinates of each vertex that divides the three-dimensional virtual area, viewpoint information indicating the position of the viewpoint of the imaging data is calculated.
Using the viewpoint information, the comparison destination imaging data is geometrically corrected so as to be the viewpoint of the comparison source imaging data, thereby generating comparison destination correction imaging data to be compared with the comparison source imaging data. The road surface evaluation system according to claim 3, wherein the road surface evaluation system is characterized in that.
コンピュータが、
検査対象路面を走行する検査車両に搭載され、かつ前記車両の周辺における路面の状態を撮像する撮像部から取得した撮像データを、前記検査車両の位置を示す位置データを特定する測位システムから取得した位置データと関連付けて記憶部に記憶する記憶ステップと、
前記撮像データおよび前記位置データを、前記記憶部から読み込むデータ処理ステップと、を実行し、
前記データ処理ステップは、前記位置データの所定時間毎の変化量から、前記撮像データが撮像された時点での前記検査車両の進行方向を示す進行ベクトルを算出するパラメータ算出ステップと、
前記記憶部に記憶された複数の前記撮像データと関連付けられた位置データ、および前記進行ベクトルを参照し、それぞれの類似性を判断し、同一箇所の路面が撮像された比較元撮像データおよび比較先撮像データを、前記記憶部から読み込むデータ検索ステップと、を備えている路面評価方法。
The computer
The imaging data mounted on the inspection vehicle traveling on the road surface to be inspected and acquired from the imaging unit that images the state of the road surface around the vehicle was acquired from the positioning system that specifies the position data indicating the position of the inspection vehicle. A storage step that associates with position data and stores it in the storage unit,
A data processing step of reading the imaged data and the position data from the storage unit is executed.
The data processing step includes a parameter calculation step of calculating a progress vector indicating the traveling direction of the inspection vehicle at the time when the imaging data is captured from the amount of change of the position data at predetermined time intervals.
The comparison source imaging data and the comparison destination in which the road surface at the same location is imaged by referring to the position data associated with the plurality of imaging data stored in the storage unit and the traveling vector to determine the similarity between them. A road surface evaluation method including a data search step for reading captured data from the storage unit.
コンピュータに、
検査対象路面を走行する検査車両に搭載され、かつ前記車両の周辺における路面の状態を撮像する撮像部から取得した撮像データを、前記検査車両の位置を示す位置データを特定する測位システムから取得した位置データと関連付けて記憶部に記憶する記憶機能と、
前記撮像データおよび前記位置データを、前記記憶部から読み込むデータ処理機能と、
を実現させ、
前記データ処理機能は、前記位置データの所定時間毎の変化量から、前記撮像データが撮像された時点での前記検査車両の進行方向を示す進行ベクトルを算出するパラメータ算出機能と、
前記記憶部に記憶された複数の前記撮像データと関連付けられた位置データ、および前記進行ベクトルを参照し、それぞれの類似性を判断し、同一箇所の路面が撮像された比較元撮像データおよび比較先撮像データを、前記記憶部から読み込むデータ検索機能と、を備えている路面評価プログラム。
On the computer
The imaging data mounted on the inspection vehicle traveling on the road surface to be inspected and acquired from the imaging unit that images the state of the road surface around the vehicle was acquired from the positioning system that specifies the position data indicating the position of the inspection vehicle. A storage function that associates with position data and stores it in the storage unit,
A data processing function for reading the imaged data and the position data from the storage unit, and
Realized,
The data processing function includes a parameter calculation function that calculates a travel vector indicating the traveling direction of the inspection vehicle at the time when the imaging data is captured from the amount of change of the position data at predetermined time intervals.
The comparison source imaging data and the comparison destination in which the road surface at the same location is imaged by referring to the position data associated with the plurality of imaging data stored in the storage unit and the traveling vector to determine the similarity between them. A road surface evaluation program having a data search function for reading captured data from the storage unit.
JP2019082313A 2019-04-23 2019-04-23 Road surface evaluation system, road surface evaluation method, and road surface evaluation program Active JP7272546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019082313A JP7272546B2 (en) 2019-04-23 2019-04-23 Road surface evaluation system, road surface evaluation method, and road surface evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019082313A JP7272546B2 (en) 2019-04-23 2019-04-23 Road surface evaluation system, road surface evaluation method, and road surface evaluation program

Publications (2)

Publication Number Publication Date
JP2020180437A true JP2020180437A (en) 2020-11-05
JP7272546B2 JP7272546B2 (en) 2023-05-12

Family

ID=73023338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019082313A Active JP7272546B2 (en) 2019-04-23 2019-04-23 Road surface evaluation system, road surface evaluation method, and road surface evaluation program

Country Status (1)

Country Link
JP (1) JP7272546B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022162855A1 (en) * 2021-01-29 2022-08-04 日本電気株式会社 On-vehicle device, method for transmitting image of road surface, and program recording medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113339A (en) * 2009-11-27 2011-06-09 Daihatsu Motor Co Ltd Image processor
JP2011242293A (en) * 2010-05-19 2011-12-01 Hanshin Expressway Engineering Co Ltd Road inspection method and road inspection vehicle
US20180188046A1 (en) * 2017-01-03 2018-07-05 Ionroad Technologies Ltd. Creation and use of enhanced maps

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113339A (en) * 2009-11-27 2011-06-09 Daihatsu Motor Co Ltd Image processor
JP2011242293A (en) * 2010-05-19 2011-12-01 Hanshin Expressway Engineering Co Ltd Road inspection method and road inspection vehicle
US20180188046A1 (en) * 2017-01-03 2018-07-05 Ionroad Technologies Ltd. Creation and use of enhanced maps

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022162855A1 (en) * 2021-01-29 2022-08-04 日本電気株式会社 On-vehicle device, method for transmitting image of road surface, and program recording medium

Also Published As

Publication number Publication date
JP7272546B2 (en) 2023-05-12

Similar Documents

Publication Publication Date Title
JP4889351B2 (en) Image processing apparatus and processing method thereof
KR102085228B1 (en) Imaging processing method and apparatus for calibrating depth of depth sensor
JP5736526B2 (en) Location search method and apparatus based on electronic map
KR102607517B1 (en) Generate composite images from 3D point clouds
CN111462503B (en) Vehicle speed measuring method and device and computer readable storage medium
CN110349086B (en) Image splicing method under non-concentric imaging condition
JP2007327938A (en) Image processing device and method therefor
KR101453143B1 (en) Stereo matching process system, stereo matching process method, and recording medium
JP2019032218A (en) Location information recording method and device
JP2016177388A (en) Mobile object position/attitude measuring apparatus
JP2015138428A (en) Additional information display apparatus and additional information display program
CN115829843B (en) Image stitching method, device, computer equipment and storage medium
CN115953483A (en) Parameter calibration method and device, computer equipment and storage medium
JP2013186624A (en) Image processor and operation method for image processor
US10573072B2 (en) Image processing device, image processing method, and recording medium
JP6110780B2 (en) Additional information display system
JP7272546B2 (en) Road surface evaluation system, road surface evaluation method, and road surface evaluation program
CN112734630B (en) Ortho image processing method, device, equipment and storage medium
US20220148216A1 (en) Position coordinate derivation device, position coordinate derivation method, position coordinate derivation program, and system
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
JP2004028811A (en) Device and method for correcting distance for monitoring system
JP6901424B2 (en) Image processing device and image processing method
JP5885974B2 (en) Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data
JP2004038884A (en) Image distortion correction method, image distortion correction device and image distortion correction program based on representative point measurement
KR101415145B1 (en) Generation of Target Coordination for Automatic Image Aquisition of the Airborne EO/IR Pod

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230414

R150 Certificate of patent or registration of utility model

Ref document number: 7272546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150