JP2023029441A - Measuring device, measuring system, and vehicle - Google Patents

Measuring device, measuring system, and vehicle Download PDF

Info

Publication number
JP2023029441A
JP2023029441A JP2022206374A JP2022206374A JP2023029441A JP 2023029441 A JP2023029441 A JP 2023029441A JP 2022206374 A JP2022206374 A JP 2022206374A JP 2022206374 A JP2022206374 A JP 2022206374A JP 2023029441 A JP2023029441 A JP 2023029441A
Authority
JP
Japan
Prior art keywords
unit
imaging
stereo
measurement
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022206374A
Other languages
Japanese (ja)
Inventor
奈都子 川瀬
Natsuko Kawase
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022206374A priority Critical patent/JP2023029441A/en
Publication of JP2023029441A publication Critical patent/JP2023029441A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a measuring device, a measuring system, and a vehicle with which it is possible to discriminate a foreign matter that is different from a measurement object and thereby accurately and quickly perform a measurement process in inspecting the measurement object.
SOLUTION: A measuring device comprises: a recognition unit for recognizing, using a discriminator obtained by learning using learning data pertaining to a state of a measurement object, the state of the measurement object in an imaged image having been imaged by an imaging unit; a determination unit for determining a measurement position at which to measure prescribed physical quantity relative to the measurement object on the basis of a result of recognition of the measurement object state by the recognition unit; and a measurement unit for measuring the physical quantity relative to the measurement object at a measurement position determined by the determination unit.
SELECTED DRAWING: Figure 12
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、計測装置、計測システムおよび車両に関する。 The present invention relates to a measuring device, a measuring system and a vehicle.

高速道路、橋梁、およびトンネル等のインフラの維持管理および点検作業において平成26年7月より近接目視が厳格化され、5年に1度、近接目視で全面点検する必要がある。例えば、舗装道路(以下、単に「道路」と称する)の道路性状についての点検の場合、代表的な損傷に関する点検項目として、ひび割れ、わだち掘れ(道路の幅方向の凹凸具合)、および平坦性(車両進行方向の凹凸具合)等を指標として点検が行われることが既に知られている。 In July 2014, close visual inspection became stricter in the maintenance and inspection work of infrastructure such as expressways, bridges, and tunnels, and it is necessary to conduct a full inspection by close visual inspection once every five years. For example, when inspecting the road properties of a paved road (hereinafter simply referred to as "road"), typical damage inspection items include cracks, ruts (unevenness in the width direction of the road), and flatness ( It is already known that an inspection is performed using, for example, the degree of unevenness in the traveling direction of the vehicle as an index.

しかし、現在の道路点検では、人の手を介して検査を行っており、検査時にヒューマンエラーが発生する恐れがあった。また、人の手を介すにあたって、点検項目によっては、道路表面上にある標識等、避けなくてはならない箇所があり、非常に手間がかかるという問題があった。 However, current road inspections are performed manually, and there is a risk of human error occurring during inspections. In addition, depending on the inspection item, there are places that must be avoided, such as signs on the road surface, and there is a problem that it takes a lot of time and effort.

このような、道路点検のうちわだち掘れの計測に関する技術として、専用車を使用し、ラインスキャンカメラ、レーザ光、GPS(Global Positioning System)と音声を記録し、PC(Personal Computer)で動作を制御し、測定部(レーザ光)でわだち掘れを計測し、計測情報の計測位置の検査画面が表示されるという技術が開示されている(例えば、特許文献1)。 As a technology for measuring ruts in such road inspections, a dedicated vehicle is used to record line scan cameras, laser beams, GPS (Global Positioning System) and voice, and the operation is controlled by a PC (Personal Computer). Then, a technique is disclosed in which rutting is measured by a measuring unit (laser beam) and an inspection screen of the measurement position of the measurement information is displayed (for example, Patent Document 1).

しかしながら、特許文献1に記載された技術では、わだち掘れの計測の際に道路にある標識等の異物を避けなければならない箇所を避けることができないという問題がある。 However, with the technique described in Patent Document 1, there is a problem that it is not possible to avoid locations where foreign substances such as signs on the road should be avoided when measuring rutting.

本発明は、上述の問題点に鑑みてなされたものであって、被計測物とは異なる異物を判別することにより被計測物に対する点検における計測処理を正確かつ早く行うことができる計測装置、計測システムおよび車両を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and provides a measuring apparatus capable of accurately and quickly performing measurement processing in inspection of an object to be measured by discriminating foreign matter different from the object to be measured. The purpose is to provide systems and vehicles.

上述した課題を解決し、目的を達成するために、本発明は、被計測物の状態に関する学習データを用いた学習により得られた識別器を用いて、撮像画像における前記被計測物の状態を認識する認識部と、前記認識部による前記被計測物の状態の認識結果に基づいて、該被計測物に対する所定の物理量を計測する計測位置を決定する決定部と、前記決定部により決定された前記計測位置で前記被計測物に対する前記物理量を計測する計測部と、を備え、前記計測部は、前記決定部により決定された前記計測位置が所定範囲を外れた場合、前記被計測物に対する前記物理量を計測しないことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention uses a classifier obtained by learning using learning data regarding the state of the object to be measured to determine the state of the object to be measured in a captured image. a determining unit that determines a measurement position for measuring a predetermined physical quantity with respect to the object to be measured based on the recognition result of the state of the object to be measured by the recognizing unit; a measurement unit that measures the physical quantity of the object to be measured at the measurement position, and the measurement unit measures the physical quantity of the object to be measured when the measurement position determined by the determination unit is outside a predetermined range. It is characterized by not measuring physical quantities.

本発明によれば、被計測物とは異なる異物を判別することにより被計測物に対する点検における計測処理を正確かつ早く行うことができる。 According to the present invention, it is possible to accurately and quickly perform measurement processing in inspection of the object to be measured by discriminating foreign matter different from the object to be measured.

図1は、わだち掘れ量の計測を説明するための図である。FIG. 1 is a diagram for explaining the measurement of the amount of rutting. 図2は、平坦性の形成を説明するための図である。FIG. 2 is a diagram for explaining formation of flatness. 図3は、第1の実施形態に係る撮像システムの構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of the configuration of an imaging system according to the first embodiment; 図4は、第1の実施形態に係るステレオカメラによる車両の進行方向の撮像範囲を説明するための図である。FIG. 4 is a diagram for explaining an image pickup range in the traveling direction of the vehicle by the stereo camera according to the first embodiment. 図5は、第1の実施形態に係るステレオカメラによる車両の道路幅方向の撮像範囲を説明するための図である。FIG. 5 is a diagram for explaining an imaging range of the vehicle in the road width direction by the stereo camera according to the first embodiment. 図6は、第1の実施形態に係るステレオカメラによるステレオ撮像範囲の、車両の進行方向における重複を示す図である。FIG. 6 is a diagram illustrating overlap in the traveling direction of the vehicle of the stereo imaging ranges of the stereo cameras according to the first embodiment. 図7は、第1の実施形態に係る、3台のステレオカメラを備えた撮像システムの一例を示す図である。FIG. 7 is a diagram illustrating an example of an imaging system having three stereo cameras according to the first embodiment. 図8は、第1の実施形態に係る撮像システムの概略的な全体構成を示すブロック図である。FIG. 8 is a block diagram showing a schematic overall configuration of the imaging system according to the first embodiment. 図9は、第1の実施形態に係る撮像システムの概略的なハードウェア構成の一例を示す図である。FIG. 9 is a diagram illustrating an example of a schematic hardware configuration of an imaging system according to the first embodiment; 図10は、第1の実施形態に係るステレオカメラのハードウェア構成の一例を示す図である。10 is a diagram illustrating an example of a hardware configuration of a stereo camera according to the first embodiment; FIG. 図11は、第1の実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。11 is a diagram illustrating an example of a hardware configuration of an information processing apparatus according to the first embodiment; FIG. 図12は、第1の実施形態に係る情報処理装置の機能を説明するための機能ブロックの構成の一例を示す図である。FIG. 12 is a diagram showing an example of the configuration of functional blocks for explaining functions of the information processing apparatus according to the first embodiment. 図13は、第1の実施形態の平坦性の算出処理の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of flatness calculation processing according to the first embodiment. 図14は、第1の実施形態のデプスマップの生成処理の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of depth map generation processing according to the first embodiment. 図15は、三角法を説明するための図である。FIG. 15 is a diagram for explaining trigonometry. 図16は、第1の実施形態のカメラ位置および向きの推定処理の一例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of camera position and orientation estimation processing according to the first embodiment. 図17は、第1の実施形態のカメラ位置および向きの推定処理を説明するための図である。FIG. 17 is a diagram for explaining camera position and direction estimation processing according to the first embodiment. 図18は、第1の実施形態のわだち掘れ量の計測処理の一例を示すフローチャートである。FIG. 18 is a flow chart showing an example of a rutting amount measurement process according to the first embodiment. 図19は、第1の実施形態の異物の認識結果を示す画像の一例を示す図である。FIG. 19 is a diagram showing an example of an image showing a foreign substance recognition result according to the first embodiment. 図20は、わだち掘れ量の計測位置を説明するための図である。FIG. 20 is a diagram for explaining the measurement positions of the amount of rutting. 図21は、わだち掘れ量の計測位置を示す図である。FIG. 21 is a diagram showing measurement positions of the amount of rutting. 図22は、第2の実施形態に係る情報処理装置の機能を説明するための機能ブロックの構成の一例を示す図である。FIG. 22 is a diagram showing an example of the configuration of functional blocks for explaining the functions of the information processing apparatus according to the second embodiment. 図23は、第2の実施形態のわだち掘れ量の計測処理の一例を示すフローチャートである。FIG. 23 is a flow chart showing an example of a rutting amount measurement process according to the second embodiment. 図24は、第3の実施形態に係る情報処理装置の機能を説明するための機能ブロックの構成の一例を示す図である。FIG. 24 is a diagram showing an example of the configuration of functional blocks for explaining the functions of the information processing apparatus according to the third embodiment. 図25は、第3の実施形態のわだち掘れ量の計測処理の一例を示すフローチャートである。FIG. 25 is a flow chart showing an example of a rutting amount measurement process according to the third embodiment.

以下に、図面を参照しながら、本発明に係る計測装置、計測システムおよび車両の実施形態を詳細に説明する。また、以下の各実施形態によって本発明が限定されるものではなく、以下の各実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の各実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 EMBODIMENT OF THE INVENTION Below, embodiment of the measuring device which concerns on this invention, a measuring system, and a vehicle is described in detail, referring drawings. In addition, the present invention is not limited by the following embodiments, and components in the following embodiments can be easily conceived by those skilled in the art, substantially the same, and so-called equivalent ranges. are included. Furthermore, various omissions, replacements, changes, and combinations of components can be made without departing from the scope of the following embodiments.

[既存の道路性状の検査方法の概略]
実施形態の説明に先んじて、既存の道路性状の検査方法について、概略的に説明する。道路性状を評価するための指標として、舗装の維持管理指数(MCI:Maintenance Control Index)が定められている。MCIは、舗装の供用性を、「ひび割れ率」、「わだち掘れ量」および「平坦性」という3種類の路面性状値によって定量的に評価するものである。
[Overview of existing road property inspection methods]
Before describing the embodiments, an existing method for inspecting road properties will be briefly described. As an index for evaluating road properties, a pavement maintenance control index (MCI: Maintenance Control Index) is established. MCI quantitatively evaluates the usability of pavement using three types of road surface property values: "crack rate", "rutting amount" and "flatness".

これらのうち、「ひび割れ率」は、例えば、路面を50cmのメッシュに分割した各領域において、ひび割れの本数およびパッチング面積に応じて、下記の通り、ひび割れ面積を算出し、算出結果を下記の式(1)に適用して、ひび割れ率を求める。 Among these, the "crack rate" is obtained by, for example, calculating the crack area according to the number of cracks and the patching area in each area obtained by dividing the road surface into 50 cm meshes, and calculating the calculation result using the following formula. Apply to (1) to find the crack rate.

ひび割れ1本⇒0.15[m]のひび
ひび割れ2本⇒0.25[m]のひび
パッチング面積0~25[%]⇒ひび割れ0[m
パッチング面積25~75[%]⇒ひび割れ0.125[m
パッチング面積75[%]以上⇒ひび割れ0.25[m
1 crack ⇒ 0.15 [m 2 ] crack 2 cracks ⇒ 0.25 [m 2 ] crack Patching area 0 to 25 [%] ⇒ Crack 0 [m 2 ]
Patching area 25-75 [%] ⇒ Crack 0.125 [m 2 ]
Patching area 75 [%] or more ⇒ Crack 0.25 [m 2 ]

Figure 2023029441000002
Figure 2023029441000002

「わだち掘れ量」は、図1(a)および図1(b)に例示されるように、例えば、1車線について2本発生する「わだち」の深さDおよびDを計測し、計測された深さDおよびDのうち大きい値を採用する。「わだち」の掘れ方には、いくつかのパターンがあるので、それぞれのパターンに合わせた計測方法が採用される。図1(a)は、2本の「わだち」の間の部分が、2本の「わだち」の両端より高い場合、図1(b)は、2本の「わだち」の間の部分が、2本の「わだち」の両端より低い場合の計測方法の例を示している。 As illustrated in FIGS. 1( a ) and 1 ( b ), the “rut amount” is measured by measuring the depths D 1 and D 2 of two “ruts” that occur in one lane, for example. The larger value of the depths D1 and D2 is adopted. Since there are several patterns in how the ruts are dug, a measurement method suitable for each pattern is adopted. In FIG. 1(a), the part between the two "ruts" is higher than both ends of the two "ruts", and in FIG. 1(b), the part between the two "ruts" is It shows an example of the measurement method when it is lower than both ends of two "ruts".

「平坦性」は、路面の車両の進行方向に沿って、例えば、路面からの高さを1.5[m]間隔で3箇所、計測する。例えば、図2に示されるように、車両の下面に1.5[m]間隔でA、B、Cの3箇所に測定器を設け、高さX、XおよびXを計測する。計測された高さX、XおよびXに基づき、下記の式(2)により変位量dを求める。この計測を、車両を移動させながら複数回実行する。これにより得られた複数の変位量dに基づいて、式下記の式(3)を用いて平坦性σを算出する。 "Flatness" is measured along the traveling direction of the vehicle on the road surface, for example, by measuring the height from the road surface at three points at intervals of 1.5 [m]. For example, as shown in FIG. 2, measuring instruments are provided at three locations A, B, and C at intervals of 1.5 [m] on the underside of the vehicle to measure heights X 1 , X 2 , and X 3 . Based on the measured heights X 1 , X 2 and X 3 , the displacement amount d is obtained by the following formula (2). This measurement is performed multiple times while moving the vehicle. Based on the plurality of displacement amounts d thus obtained, the flatness σ is calculated using the following formula (3).

Figure 2023029441000003
Figure 2023029441000003

Figure 2023029441000004
Figure 2023029441000004

上述した「ひび割れ率」、「わだち掘れ量」および「平坦性」の計測を、例えば100[m]の評価区間毎に実行する。損傷箇所が予め分かっている場合は、100[m]を40[m]+60[m]等、より小さい単位に分割して計測を行う場合もある。100[m]単位で実行された計測結果に基づきMCIを算出し、調書を作成する。 The above-described "crack rate", "rutting amount" and "flatness" are measured, for example, for each evaluation section of 100 [m]. If the location of the damage is known in advance, the measurement may be performed by dividing 100 [m] into smaller units such as 40 [m]+60 [m]. MCI is calculated based on the results of measurement performed in units of 100 [m], and a record is created.

MCIは、計測したひび割れ率C[%]、わだち掘れ量D[mm]、および、平坦性σ[mm]に基づき、下記の(表1)に示される4つの式を計算して、値MCI、MCI1、MCI2およびMCI3を算出する。そして、算出された値MCI、MCI1、MCI2およびMCI3のうち、最小値をMCIとして採用する。採用されたMCIに基づいて、下記の(表2)に示す評価基準に従って評価を行い、評価区間の路面に修繕が必要か否かを判定する。 MCI is calculated using the four formulas shown in Table 1 below based on the measured crack rate C [%], rutting amount D [mm], and flatness σ [mm], and the value MCI , MCI1, MCI2 and MCI3. Then, among the calculated values MCI, MCI1, MCI2 and MCI3, the minimum value is adopted as MCI. Based on the adopted MCI, evaluation is performed according to the evaluation criteria shown in (Table 2) below, and it is determined whether or not the road surface in the evaluation section needs repair.

Figure 2023029441000005
Figure 2023029441000005

Figure 2023029441000006
Figure 2023029441000006

[第1の実施形態]
次に、第1の実施形態に係る撮像システムについて説明する。第1の実施形態では、対象物を複数の異なる方向から同時に撮影して2つの撮像画像(以下、「ステレオ撮像画像」と称する場合がある)を得ることにより、その奥行き情報を得ることができるステレオカメラを車両に取り付けて路面を撮像する。撮像されたステレオ撮像画像に基づき撮像位置から路面に対する奥行き情報を取得して路面の3次元形状を生成し、3次元路面データを作成する。この3次元路面データを解析することで、MCIを求めるために用いる「ひび割れ率」、「わだち掘れ量」および「平坦性」を取得することができる。
[First Embodiment]
Next, an imaging system according to the first embodiment will be described. In the first embodiment, the depth information can be obtained by capturing two captured images (hereinafter sometimes referred to as "stereo captured images") by simultaneously capturing images of the object from a plurality of different directions. A stereo camera is attached to the vehicle to capture images of the road surface. Depth information for the road surface is obtained from the imaging position based on the captured stereo images, the three-dimensional shape of the road surface is generated, and three-dimensional road surface data is created. By analyzing this three-dimensional road surface data, it is possible to obtain the "crack rate", "rutting amount" and "flatness" used to obtain the MCI.

より具体的に説明する。ステレオカメラは、所定の長さ(基線長と呼ぶ)を離して設けられた2つのカメラを備え、この2つのカメラで撮像された2枚ペアの撮像画像(ステレオ撮像画像)を出力する。このステレオ撮像画像に含まれる2枚の撮像画像間で対応する点を探索することで、撮像画像中の任意の点について、奥行きの距離を復元することができる。撮像画像の全域について奥行きの距離(以下、「奥行き値」と称する場合がある)を復元し、各画素を奥行き情報により表したデータを、デプスマップと呼ぶ。すなわち、デプスマップは、それぞれ3次元の情報を持つ点の集合からなる3次元点群情報である。 More specific description will be given. A stereo camera has two cameras separated by a predetermined length (called a base line length), and outputs a pair of captured images (stereo captured images) captured by the two cameras. By searching for a corresponding point between two captured images included in this stereo captured image, the depth distance can be restored for an arbitrary point in the captured image. Depth distance (hereinafter sometimes referred to as “depth value”) is restored for the entire captured image, and data representing each pixel with depth information is called a depth map. That is, the depth map is three-dimensional point group information consisting of a set of points each having three-dimensional information.

このステレオカメラを車両の後方等、1箇所に下向きに取り付け地面を撮像できるようにし、計測したい道路に沿って車両を移動させる。説明を簡略にするため、測定のために車両に搭載するステレオカメラは、撮像範囲が、道路幅方向の規定の長さをカバーしているとする。 This stereo camera is mounted downward at one position such as the rear of the vehicle so that the ground can be imaged, and the vehicle is moved along the road to be measured. To simplify the explanation, it is assumed that the imaging range of the stereo camera mounted on the vehicle for measurement covers a specified length in the road width direction.

わだち掘れ量Dは、このステレオカメラにより撮像されたステレオ撮像画像から復元されたデプスマップ中の道路幅方向にストライプ状に切り取った部分の奥行き値を並べる。この奥行き値の道路幅方向の変化に基づき、深さDおよびDを計算することができる。 For the rutting amount D, the depth values of the striped portions cut in the road width direction in the depth map restored from the stereo image captured by the stereo camera are arranged. Depths D1 and D2 can be calculated based on the road width direction variation of this depth value.

ひび割れ率Cは、路面を撮像した撮像画像を解析して「ひび」等を検出し、検出結果に基づき上述した式(1)による計算を行うことで取得する。 The crack rate C is obtained by analyzing a captured image of the road surface to detect "cracks" and the like, and performing calculation according to Equation (1) described above based on the detection results.

ここで、車両の進行方向では、1回の撮像では撮像範囲が限定されるため、例えば、100[m]区間のひび割れ率Cを1回の撮像による撮像画像に基づき計算することができない。そこで、車両を道路に従い移動させながら、撮像範囲の車両の進行方向の長さに応じた移動毎に順次、撮像を行う。このとき、前回の撮像における撮像範囲と、今回の撮像における撮像範囲とが、予め設計された重複率以上で重複するように、撮像のトリガ(撮像トリガ)を制御する。 Here, in the traveling direction of the vehicle, since the imaging range is limited in one imaging, for example, the crack rate C in a 100 [m] section cannot be calculated based on the captured image obtained by one imaging. Therefore, while moving the vehicle along the road, images are sequentially captured for each movement corresponding to the length of the imaging range in the direction in which the vehicle travels. At this time, the imaging trigger (imaging trigger) is controlled so that the imaging range of the previous imaging and the imaging range of the current imaging overlap at a predetermined overlapping rate or more.

このように、車両の移動に応じて撮像のトリガを制御することで、計測したい道路の路面を漏れなく撮像できる。そのため、車両の進行に応じて順次撮像された撮像画像をスティッチングと呼ばれる画像処理等を用いて繋ぎ合わせて、例えば100[m]区間の路面の画像を含む1枚の画像を生成する。この画像を目視確認あるいは解析することで、道路面上のひび割れ率Cを計測できる。 In this way, by controlling the imaging trigger according to the movement of the vehicle, the road surface to be measured can be imaged without omission. For this reason, captured images that are sequentially captured according to the progress of the vehicle are stitched together using image processing called stitching, for example, to generate a single image including a road surface image of a 100 [m] section. By visually confirming or analyzing this image, the crack rate C on the road surface can be measured.

平坦性の測定は、Structure from Motion(以下、「SfM」と称する)と呼ばれる、異なる撮像地点の画像から十分に重複して撮像された画像に基づき、その撮像位置を推定する技術を使う。 Flatness measurement uses a technique called Structure from Motion (hereinafter referred to as “SfM”), which estimates the imaging position based on sufficiently overlapping images taken from images at different imaging points.

SfMの処理の概要について説明する。まず、撮像範囲を重複して撮像された画像を用い、それぞれの画像中で同一地点を撮像した点を対応点として検出する。対応点は、可能な限り多数を検出することが望ましい。次に、例えば1枚目の画像の撮像地点から、2枚目の画像の撮像地点へのカメラの移動を、回転と並進を未知パラメータとして、検出した対応点の座標を用いた連立方程式を立て、最も合計の誤差が小さくなるようなパラメータを求める。このようにして、2枚目の画像の撮像位置を算出できる。 An outline of the SfM processing will be described. First, using images captured in overlapping imaging ranges, points obtained by imaging the same point in each image are detected as corresponding points. It is desirable to detect as many corresponding points as possible. Next, for example, simultaneous equations are established using the coordinates of the detected corresponding points for the movement of the camera from the imaging point of the first image to the imaging point of the second image, with rotation and translation as unknown parameters. , find the parameters that minimize the total error. In this way, the imaging position of the second image can be calculated.

上述したように、それぞれの撮像地点におけるステレオ撮像画像から、画像中の任意の点の奥行きがデプスマップとして復元できている。1枚目のステレオ撮像画像に対応するデプスマップに対して、2枚目のステレオ撮像画像に対応するデプスマップを、上述の連立方程式により求めた1枚目のカメラの撮像位置を原点としたデプスマップに座標変換する。これにより、2枚のデプスマップを、1枚目のデプスマップの座標系に統一することができる。換言すれば、2枚のデプスマップを合成して1枚のデプスマップを生成できる。 As described above, the depth of an arbitrary point in the image can be restored as a depth map from the stereo-captured image at each imaging point. The depth map corresponding to the second stereo-captured image is obtained from the simultaneous equations described above with respect to the depth map corresponding to the first stereo-captured image, with the imaging position of the first camera as the origin. Coordinate transformation to map. As a result, the two depth maps can be unified into the coordinate system of the first depth map. In other words, one depth map can be generated by synthesizing two depth maps.

この処理を、例えば100[m]区間において撮像したすべてのステレオ撮像画像に基づくデプスマップについて行い合成することで、1つの3次元空間中に、100[m]区間の道路面が復元される。このようにして復元された道路面の奥行き値を上述の式(2)に適用することで、変位量dを算出できる。この変位量dを上述の式(3)に適用して、平坦性σを算出する。 By performing this processing for, for example, depth maps based on all stereo imaged images captured in a 100 [m] section and synthesizing them, the road surface of the 100 [m] section is restored in one three-dimensional space. The amount of displacement d can be calculated by applying the depth value of the road surface thus restored to the above equation (2). Applying this displacement amount d to the above equation (3), the flatness σ is calculated.

第1の実施形態では、車両に搭載したステレオカメラによる撮像と、撮像されたステレオ撮像画像に対する画像処理を行うことによって、MCIを求めるための、道路面の平坦性σ、わだち掘れ量D、および、ひび割れ率Cを、纏めて計測することができる。第1の実施形態では、この計測を、ステレオカメラと、ステレオ撮像画像に対する画像処理を行う情報処理装置とを含む撮像システムを用いて実施可能であり、MCIを簡易な構成により求めることが可能となる。 In the first embodiment, images are captured by a stereo camera mounted on a vehicle, and image processing is performed on the captured stereo images. , the crack rate C can be collectively measured. In the first embodiment, this measurement can be performed using an imaging system including a stereo camera and an information processing device that performs image processing on stereo captured images, and MCI can be obtained with a simple configuration. Become.

また、既存技術では、MCIを求めるための3つの指標に係る計測を、それぞれ別個の装置にて実行するため、データの保存、ならびにデータ同士の時刻同期等の制御および管理が煩雑になっていた。これに対して、第1の実施形態では、MCIを求めるための3つの指標を共通のステレオ撮像画像に基づき算出するため、データの保存、ならびにデータ同士の時刻同期等の制御および管理が容易となる。 In addition, with the existing technology, each of the three indices for determining MCI is measured by separate devices, so control and management such as data storage and time synchronization between data are complicated. . On the other hand, in the first embodiment, since the three indices for obtaining MCI are calculated based on a common stereo image, control and management such as data storage and time synchronization between data are easy. Become.

(ステレオカメラの配置)
次に、第1の実施形態におけるステレオカメラ配置の一例について説明する。図3は、第1の実施形態に係る撮像システムの構成の一例を示す図である。図3(a)は、第1の実施形態に係る撮像システムが車両1に搭載される様子を車両1の側面から示した図である。図3(a)において、図の左端に向かう方向が、車両1の進行方向とする。すなわち、図3(a)において、車両1の左端側が車両1の前部であり、右端側が車両1の後部である。図3(b)は、当該車両1を後部側から見た例を示す図である。
(Stereo camera arrangement)
Next, an example of stereo camera arrangement in the first embodiment will be described. FIG. 3 is a diagram illustrating an example of the configuration of an imaging system according to the first embodiment; FIG. 3A is a side view of the vehicle 1 showing how the imaging system according to the first embodiment is mounted on the vehicle 1. FIG. In FIG. 3( a ), the direction toward the left end of the drawing is the traveling direction of the vehicle 1 . That is, in FIG. 3( a ), the left end side of the vehicle 1 is the front portion of the vehicle 1 , and the right end side is the rear portion of the vehicle 1 . FIG. 3(b) is a diagram showing an example of the vehicle 1 viewed from the rear side.

第1の実施形態に係る撮像システムは、当該撮像システムを搭載する移動体としての車両1の車体後部に撮像装置取付用の取付部2を備える取付部材3を固定し、取付部2に1以上のステレオカメラ6を取り付ける。ここでは、図3(b)に例示されるように、車両1の車体の幅方向の両端側に、2台のステレオカメラ6Lおよび6R(撮像部)が取り付けられるものとする。各ステレオカメラ6Lおよび6Rは、車両1が移動する路面4(被計測物の一例)を撮像する向きに取り付けられる。好ましくは、各ステレオカメラ6Lおよび6Rは、路面4を垂直方向から撮像するように取り付けられる。 In the imaging system according to the first embodiment, a mounting member 3 having a mounting portion 2 for mounting an imaging device is fixed to the rear portion of a vehicle body 1 as a mobile body on which the imaging system is mounted, and one or more Attach the stereo camera 6 of . Here, as exemplified in FIG. 3B, two stereo cameras 6L and 6R (imaging units) are attached to both end sides of the vehicle body of the vehicle 1 in the width direction. Each of the stereo cameras 6L and 6R is attached in an orientation to image a road surface 4 (an example of an object to be measured) on which the vehicle 1 moves. Preferably, each stereo camera 6L and 6R is mounted so as to image the road surface 4 from the vertical direction.

以降、ステレオカメラ6Lおよび6Rを区別する必要のない場合には、ステレオカメラ6Lおよび6Rをステレオカメラ6として纏めて記述する。 Hereinafter, the stereo cameras 6L and 6R will be collectively referred to as the stereo camera 6 when there is no need to distinguish between the stereo cameras 6L and 6R.

ステレオカメラ6は、例えば車両1の内部に設置された、例えばパーソナルコンピュータ(PC)5により制御される。作業者はPC5を操作し、ステレオカメラ6による撮像開始を指示する。撮像開始が指示されると、PC5は、ステレオカメラ6による撮像を開始する。撮像は、ステレオカメラ6すなわち車両1の移動速度に応じてタイミング制御され、繰り返し実行される。なお、ステレオカメラ6を制御する装置は、PC5に限られず、ワークステーション、またはステレオカメラ6の制御に特化した専用装置等であってもよい。 The stereo camera 6 is controlled by, for example, a personal computer (PC) 5 installed inside the vehicle 1, for example. The operator operates the PC 5 and instructs the stereo camera 6 to start imaging. When instructed to start imaging, the PC 5 starts imaging with the stereo camera 6 . The imaging is controlled in timing according to the moving speed of the stereo camera 6, that is, the vehicle 1, and is repeatedly executed. Note that the device that controls the stereo camera 6 is not limited to the PC 5, and may be a work station, a dedicated device that specializes in controlling the stereo camera 6, or the like.

作業者は、例えば、必要な区間の撮像が終了に応じてPC5を操作し撮像終了を指示をする。PC5は、撮像終了の指示に応じて、ステレオカメラ6による撮像を終了させる。 For example, the operator operates the PC 5 and instructs the end of imaging when the imaging of the required section is completed. The PC 5 terminates the imaging by the stereo camera 6 in response to the imaging termination instruction.

図4および図5は、第1の実施形態に適用可能な、ステレオカメラ6の撮像範囲の例を示す図である。なお、図4および図5において、上述した図3と共通する部分には同一の符号を付して、詳細な説明を省略する。 4 and 5 are diagrams showing examples of the imaging range of the stereo camera 6 applicable to the first embodiment. In FIGS. 4 and 5, the same reference numerals are given to the parts common to FIG. 3 described above, and detailed description thereof will be omitted.

図4は、第1の実施形態に係るステレオカメラによる車両の進行方向の撮像範囲(進行方向視野Vpとする)を説明するための図である。なお、図4は、上述の図1と同様に、図の左端に向かう方向を、車両1の進行方向としている。進行方向視野Vpは、図4に示されるように、ステレオカメラ6の画角αと、ステレオカメラ6の路面4に対する高さhとに従い決定される。 FIG. 4 is a diagram for explaining an imaging range (referred to as a traveling direction visual field Vp) in the traveling direction of the vehicle by the stereo camera according to the first embodiment. 4, the direction toward the left end of the drawing is the direction of travel of the vehicle 1, as in FIG. 1 described above. The traveling direction visual field Vp is determined according to the angle of view α of the stereo camera 6 and the height h of the stereo camera 6 with respect to the road surface 4, as shown in FIG.

図5は、第1の実施形態に係るステレオカメラによる車両の道路幅方向の撮像範囲を説明するための図である。図5は、車両1を後部側から見た図であり、図3(b)と共通する部分には同一の符号を付して、詳細な説明を省略する。 FIG. 5 is a diagram for explaining an imaging range of the vehicle in the road width direction by the stereo camera according to the first embodiment. FIG. 5 is a view of the vehicle 1 viewed from the rear side, and parts common to those in FIG.

図5(a)において、ステレオカメラ6Lは、2つの撮像レンズ6Lおよび6Lを備える。撮像レンズ6Lおよび6Lを結ぶ線を基線、その長さを基線長と呼び、ステレオカメラ6Lは、基線が車両1の進行方向に対して垂直になるように配置される。ステレオカメラ6Rも同様に、基線長だけ離れた2つの撮像レンズ6Rおよび6Rを備え、基線が車両1の進行方向に対して垂直になるように配置される。 In FIG. 5(a), the stereo camera 6L comprises two imaging lenses 6L- L and 6L- R . A line connecting the imaging lenses 6L L and 6L R is called a base line, and its length is called a base line length. Similarly, the stereo camera 6R also has two imaging lenses 6R L and 6R R separated by the base line length, and is arranged so that the base line is perpendicular to the traveling direction of the vehicle 1 .

図5(b)は、第1の実施形態のステレオカメラ6Lおよび6Rの撮像範囲の例を示す。ステレオカメラ6Lにおいて、撮像レンズ6Lおよび6Lそれぞれの撮像範囲60Lおよび60Lは、基線長および高さhに応じてずれて重ねられる。ステレオカメラ6Rについても同様に、撮像レンズ6Rおよび6Rそれぞれによる、撮像範囲60Rおよび60Rは、基線長および高さhに応じてずれて重ねられる。 FIG. 5(b) shows an example of the imaging range of the stereo cameras 6L and 6R of the first embodiment. In the stereo camera 6L, the imaging ranges 60L L and 60L R of the imaging lenses 6L L and 6L R are overlapped with a shift according to the baseline length and height h. Similarly for the stereo camera 6R, imaging ranges 60R- L and 60R- R respectively by the imaging lenses 6R -L and 6R- R are overlapped with a shift according to the base line length and the height h.

以下、特に記載のない限り、これら撮像範囲60Lおよび60L、ならびに、撮像範囲60Rおよび60Rを、それぞれ纏めてステレオ撮像範囲60Lおよび60Rと呼ぶ。ステレオカメラ6Lおよび6Rは、図5(b)に示されるように、ステレオ撮像範囲60Lおよび60Rが、ステレオ撮像範囲60Lの車両1の幅方向の一端側の一部の領域と、ステレオ撮像範囲60Rの当該幅方向の他端側の一部の領域とが、領域61において所定の重複率で重複するように、配置される。 Hereinafter, unless otherwise specified, these imaging ranges 60L L and 60L R and imaging ranges 60R L and 60R R are collectively referred to as stereo imaging ranges 60L and 60R, respectively. As shown in FIG. 5(b), the stereo cameras 6L and 6R have the stereo imaging ranges 60L and 60R, which are a part of the stereo imaging range 60L on one end side in the width direction of the vehicle 1 and the stereo imaging range 60R. are arranged so as to overlap with a part of the region on the other end side in the width direction of the region 61 at a predetermined overlap rate.

図6は、第1の実施形態に適用可能な、ステレオカメラ6Lによるステレオ撮像範囲60Lの、車両1の進行方向における重複を示す図である。なお、図6において、左カメラ視野Vおよび右カメラ視野Vは、それぞれステレオカメラ6Lにおける撮像レンズ6Lおよび6Lの視野(撮像範囲)を示している。移動中の車両1において、ステレオカメラ6Lにより2回の撮像を行ったものとする。ステレオカメラ6Lは、1回目は、ステレオ撮像範囲60L(撮像範囲60Lおよび60L)の撮像を行い、2回目は、ステレオ撮像範囲60Lに対して、車両1の進行方向に、車両1の移動距離に応じた距離だけ移動したステレオ撮像範囲60L’(撮像範囲60L’および60L’)の撮像を行う。 FIG. 6 is a diagram showing overlap in the traveling direction of the vehicle 1 of the stereo imaging range 60L by the stereo camera 6L, which is applicable to the first embodiment. In FIG. 6, the left camera field of view V L and the right camera field of view V R respectively indicate the fields of view (imaging ranges) of the imaging lenses 6L L and 6L R in the stereo camera 6L. Assume that the stereo camera 6L takes two images of the moving vehicle 1 . The stereo camera 6L takes an image of the stereo imaging range 60L (imaging ranges 60LL and 60LR ) for the first time, and moves the vehicle 1 in the traveling direction of the vehicle 1 with respect to the stereo imaging range 60L for the second time. The imaging of the stereo imaging range 60L' (imaging ranges 60L L ' and 60L R ') moved by a distance corresponding to the distance is performed.

このとき、ステレオ撮像範囲60Lとステレオ撮像範囲60L’とが、進行方向視野Vpに対して予め定められた進行方向重複率Dr以上の重複率で重複するように、ステレオカメラ6Lの撮像タイミングを制御する。このように、時間軸に沿ってステレオ撮像範囲60Lおよび60L’を順次撮像することで、ステレオ撮像範囲60Lおよび60L’を撮像した2枚のステレオ撮像画像を繋ぎ合わせる処理を容易とすることができる。 At this time, the imaging timing of the stereo camera 6L is controlled so that the stereo imaging range 60L and the stereo imaging range 60L' overlap with the traveling direction visual field Vp at an overlap rate equal to or greater than a predetermined travel direction overlap rate Dr. do. In this way, by sequentially imaging the stereo imaging ranges 60L and 60L' along the time axis, it is possible to facilitate the process of joining two stereo imaging images obtained by imaging the stereo imaging ranges 60L and 60L'. .

なお、上述では、第1の実施形態に係る撮像システムが2台のステレオカメラ6Lおよび6Rを用いるものとして説明したが、これはこの例に限定されない。例えば、第1の実施形態に係る撮像システムは、図7(a)に示されるように、ステレオカメラ6Lおよび6Rに対してさらに1台のステレオカメラ6Cを加え、3台のステレオカメラ6L、6Rおよび6Cを用いて構成してもよい。 Although the imaging system according to the first embodiment uses the two stereo cameras 6L and 6R in the above description, the imaging system is not limited to this example. For example, as shown in FIG. 7(a), the imaging system according to the first embodiment further adds one stereo camera 6C to the stereo cameras 6L and 6R, resulting in three stereo cameras 6L and 6R. and 6C.

図7(a)の例では、ステレオカメラ6Lおよび6Rの間隔が、ステレオカメラ6Lおよび6Rのみを用いる場合に比べて広げられ、その中央部にステレオカメラ6Cが配置されている。図7(b)に示されるように、ステレオカメラ6Cの撮像レンズ6Cおよび6Cによる撮像範囲60Cおよび60Cにより、ステレオ撮像範囲60Cが構成される。ステレオカメラ6L、6Cおよび6Rは、それぞれによる各ステレオ撮像範囲60L、60Cおよび60Rが車両1の幅方向に所定の重複率で重複するように配置される。 In the example of FIG. 7(a), the distance between the stereo cameras 6L and 6R is wider than when only the stereo cameras 6L and 6R are used, and the stereo camera 6C is arranged in the center. As shown in FIG. 7B, imaging ranges 60C L and 60C R formed by imaging lenses 6C L and 6C R of the stereo camera 6C constitute a stereo imaging range 60C. Stereo cameras 6L, 6C and 6R are arranged such that respective stereo imaging ranges 60L, 60C and 60R overlap in the width direction of vehicle 1 at a predetermined overlap rate.

このように、1車線を撮像するために、3台のステレオカメラ6L、6Cおよび6Rを用いることで、車線の右側、中央および左側にそれぞれ撮像範囲を設定して撮像が可能となり、高画質(高解像)なステレオ撮像画像を、少ない台数のステレオカメラで撮像可能となる。ここで、特に道路幅は、一般的には、3.5[m]と規定されている。そこで、この道路幅の3.5[m]に対応して、ステレオカメラ6Lおよび6Rにより車線の道路幅方向の両端を撮像し、ステレオカメラ6Cにより中央部を撮像することが考えられる。 In this way, by using the three stereo cameras 6L, 6C and 6R to capture an image of one lane, it is possible to capture images by setting the image capturing ranges on the right side, the center and the left side of the lane, respectively, resulting in high image quality ( (high resolution) can be captured by a small number of stereo cameras. Here, especially the road width is generally defined as 3.5 [m]. Therefore, it is conceivable to image both ends of the lane in the road width direction with the stereo cameras 6L and 6R and image the central portion with the stereo camera 6C, corresponding to the road width of 3.5 [m].

なお、撮像範囲がこの規定される道路幅(3.5[m])を含むことが可能な画角を有するステレオカメラを1台のみ用いて、撮像システムを構成してもよい。 Note that the imaging system may be configured using only one stereo camera having an angle of view that allows the imaging range to include the defined road width (3.5 [m]).

(撮像システムの構成)
次に、第1の実施形態に係る撮像システムの構成について説明する。以下では、撮像システムが2台のステレオカメラを備えるものとして説明を行う。
(Configuration of imaging system)
Next, the configuration of the imaging system according to the first embodiment will be described. In the following description, it is assumed that the imaging system has two stereo cameras.

図8は、第1の実施形態に係る撮像システムの概略的な構成の例を示すブロック図である。図8において、撮像システム10は、撮像部100および100と、撮像制御部101および101と、速度取得部102と、生成部103と、を含む。 FIG. 8 is a block diagram showing an example of a schematic configuration of an imaging system according to the first embodiment; In FIG. 8, the imaging system 10 includes imaging units 100-1 and 100-2 , imaging control units 101-1 and 101-2 , a speed acquisition unit 102, and a generation unit 103.

撮像部100および100は、それぞれ上述したステレオカメラ6Lおよび6Rに対応する。撮像制御部101および101は、それぞれ撮像部100および100の撮像タイミング、露光、シャッタ速度等の撮像動作を制御する。速度取得部102は、撮像部100および100の、被写体(路面4)に対する速度を取得する。生成部103は、速度取得部102により取得された速度と、進行方向視野Vpとに基づき、撮像部100および100による撮像を指定するためのトリガ(撮像トリガ)を生成する。生成部103は、生成したトリガを、撮像制御部101および101に送る。撮像制御部101および101は、生成部103から送られたトリガに応じて、撮像部100および100に対して撮像動作を実行させる。 The imaging units 100-1 and 100-2 correspond to the stereo cameras 6L and 6R described above, respectively. The imaging control units 101-1 and 101-2 control imaging operations such as imaging timing, exposure, and shutter speed of the imaging units 100-1 and 100-2 , respectively. The velocity acquisition unit 102 acquires the velocity of the imaging units 100-1 and 100-2 with respect to the subject (road surface 4). The generation unit 103 generates a trigger (imaging trigger) for designating imaging by the imaging units 100 1 and 100 2 based on the speed acquired by the speed acquisition unit 102 and the traveling direction visual field Vp. The generation unit 103 sends the generated triggers to the imaging control units 101-1 and 101-2 . The imaging control units 101-1 and 101-2 cause the imaging units 100-1 and 100-2 to perform imaging operations in response to the trigger sent from the generation unit 103. FIG.

図9は、第1の実施形態に係る撮像システムの概略的なハードウェア構成の一例を示す図である。図9において、撮像システム10は、ステレオカメラ6Lおよび6Rと、図3のPC5に対応する情報処理装置50(計測装置の一例)と、を含む。情報処理装置50は、所定のタイミングでトリガを生成し、生成したトリガをステレオカメラ6Lおよび6Rに送る。ステレオカメラ6Lおよび6Rは、このトリガに応じて撮像を行う。ステレオカメラ6Lおよび6Rにより撮像された各ステレオ撮像画像は、情報処理装置50に送信される。情報処理装置50は、ステレオカメラ6Lおよび6Rから受信した各ステレオ撮像画像をストレージ等に記憶、蓄積する。情報処理装置50は、蓄積したステレオ撮像画像に基づき、デプスマップの生成、および生成したデプスマップの繋ぎ合わせ等の画像処理を実行する。 FIG. 9 is a diagram illustrating an example of a schematic hardware configuration of an imaging system according to the first embodiment; In FIG. 9, the imaging system 10 includes stereo cameras 6L and 6R, and an information processing device 50 (an example of a measuring device) corresponding to the PC 5 in FIG. Information processing device 50 generates a trigger at a predetermined timing and sends the generated trigger to stereo cameras 6L and 6R. The stereo cameras 6L and 6R take images in response to this trigger. Each stereo captured image captured by stereo cameras 6L and 6R is transmitted to information processing device 50 . The information processing device 50 stores and accumulates the stereo captured images received from the stereo cameras 6L and 6R in a storage or the like. The information processing device 50 performs image processing such as generation of a depth map and joining of the generated depth maps based on the accumulated stereo captured images.

図10は、第1の実施形態に係るステレオカメラ6Lのハードウェア構成の一例を示す図である。なお、ステレオカメラ6Rは、このステレオカメラ6Lと同様の構成にて実現可能である。 FIG. 10 is a diagram showing an example of the hardware configuration of the stereo camera 6L according to the first embodiment. Note that the stereo camera 6R can be realized with a configuration similar to that of the stereo camera 6L.

図10において、ステレオカメラ6Lは、撮像光学系600および600と、撮像素子601および601と、駆動部602および602と、信号処理部603および603と、出力部604と、を含む。これらのうち、撮像光学系600は、上述した撮像レンズ6Lに対応する構成である。同様に、撮像光学系600は、上述した撮像レンズ6Lに対応する構成である。 10, the stereo camera 6L includes imaging optical systems 600 L and 600 R , imaging elements 601 L and 601 R , driving units 602 L and 602 R , signal processing units 603 L and 603 R , and an output unit 604 and including. Among these, the imaging optical system 600L has a configuration corresponding to the imaging lens 6LL described above. Similarly, the imaging optical system 600 R has a configuration corresponding to the imaging lens 6L R described above.

撮像光学系600は、画角α、焦点距離fを有する光学系であって、被写体からの光を撮像素子601に投射する。撮像素子601は、例えばCMOS(Complementary Metal Oxide Semiconductor)を用いた光センサであって、投射された光に応じた信号を出力する。なお、撮像素子601に、CCD(Charge Coupled Device)による光センサを適用してもよい。駆動部602は、撮像素子601を駆動し、撮像素子601から出力された信号に対してノイズ除去、ゲイン調整等の所定の処理を施して出力する。信号処理部603は、駆動部602から出力された信号に対してA/D変換を施して、当該信号をディジタル方式の画像信号(撮像画像)に変換する。信号処理部603は、変換した画像信号に対してガンマ補正等所定の画像処理を施して出力する。信号処理部603Lから出力された撮像画像は、出力部604に送られる。 The imaging optical system 600L is an optical system having an angle of view α and a focal length f, and projects light from a subject onto the imaging element 601L . The imaging element 601 L is, for example, an optical sensor using a CMOS (Complementary Metal Oxide Semiconductor), and outputs a signal corresponding to projected light. Note that an optical sensor using a CCD (Charge Coupled Device) may be applied to the imaging element 601L . The drive unit 602L drives the image sensor 601L , performs predetermined processing such as noise removal and gain adjustment on the signal output from the image sensor 601L , and outputs the processed signal. The signal processing unit 603 L performs A/D conversion on the signal output from the driving unit 602 L to convert the signal into a digital image signal (captured image). The signal processing unit 603L performs predetermined image processing such as gamma correction on the converted image signal and outputs the processed image signal. The captured image output from the signal processing unit 603L is sent to the output unit 604. FIG.

撮像光学系600、撮像素子601、駆動部602、および、信号処理部603の動作は、上述の撮像光学系600、撮像素子601、駆動部602、および、信号処理部603と同様である。 The operations of the imaging optical system 600 R , the imaging device 601 R , the driving unit 602 R , and the signal processing unit 603 R are similar to those of the imaging optical system 600 L , the imaging device 601 L , the driving unit 602 L , and the signal processing unit described above. Similar to 603L .

駆動部602および602は、例えば情報処理装置50から出力されたトリガが送信される。駆動部602および602は、受信したトリガのタイミングで、撮像素子601および601から信号を取り込み、撮像を行う。 Triggers output from the information processing device 50, for example, are transmitted to the driving units 602L and 602R . The driving units 602 L and 602 R take in signals from the imaging elements 601 L and 601 R at the timing of the received triggers and perform imaging.

ここで、駆動部602および602は、撮像素子601および601における露光を、一括同時露光方式により行う。この方式は、グローバルシャッタと呼ばれる。これに対して、ローリングシャッタは、画素位置の上から順番(ライン順)に光を取り込んでいく方式であるため、フレーム中の各ラインは、厳密に同じ時刻の被写体を写したものではない。ローリングシャッタ方式の場合、1フレームの撮像信号を取り込んでいる間にカメラまたは被写体が高速に動いてしまうと、被写体の像がライン位置に応じてずれて撮像されてしまう。そのため、第1の実施形態に係るステレオカメラ6Lおよび6Rでは、グローバルシャッタを用いて、投影幾何的に正しく道路形状が撮像されるようにする。 Here, the drive units 602 L and 602 R perform exposure in the imaging elements 601 L and 601 R by a batch simultaneous exposure method. This method is called a global shutter. On the other hand, since the rolling shutter takes in light in order from the top of the pixel position (line order), each line in the frame does not exactly capture the subject at the same time. In the case of the rolling shutter method, if the camera or the subject moves at high speed while the imaging signal of one frame is captured, the image of the subject is captured shifted according to the line position. Therefore, in the stereo cameras 6L and 6R according to the first embodiment, a global shutter is used so that the road shape is captured correctly in terms of projection geometry.

出力部604は、信号処理部603および603から供給された各フレームの撮像画像を、1組のステレオ撮像画像として出力する。出力部604から出力されたステレオ撮像画像は、情報処理装置50に送られ、蓄積される。 The output unit 604 outputs the captured images of each frame supplied from the signal processing units 603L and 603R as a set of stereo captured images. The stereo captured images output from the output unit 604 are sent to the information processing device 50 and accumulated.

図11は、第1の実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。図11において、情報処理装置50は、それぞれバス5030に接続されたCPU(Central Processing Unit)5000と、ROM(Read Only Memory)5001と、RAM(Random Access Memory)5002と、グラフィクスI/F(インタフェース)5003と、ストレージ5004と、入力デバイス5005と、データI/F5006と、通信I/F5007と、を備える。さらに、情報処理装置50は、それぞれバス5030に接続されたカメラI/F5010と、速度取得部5021と、を備える。 11 is a diagram illustrating an example of a hardware configuration of an information processing apparatus according to the first embodiment; FIG. 11, the information processing device 50 includes a CPU (Central Processing Unit) 5000, a ROM (Read Only Memory) 5001, a RAM (Random Access Memory) 5002, and a graphics I/F (interface) connected to a bus 5030. ) 5003 , a storage 5004 , an input device 5005 , a data I/F 5006 and a communication I/F 5007 . Furthermore, the information processing apparatus 50 includes a camera I/F 5010 and a speed acquisition section 5021, which are connected to the bus 5030, respectively.

ストレージ5004は、データを不揮発に記憶する記憶媒体であって、ハードディスクドライブやフラッシュメモリを適用できる。ストレージ5004は、CPU5000が動作するためのプログラムおよびデータが記憶される。 The storage 5004 is a storage medium that stores data in a nonvolatile manner, and can be a hard disk drive or flash memory. Storage 5004 stores programs and data for CPU 5000 to operate.

CPU5000は、例えば、ROM5001またはストレージ5004のうち少なくともいずれかにに予め記憶されたプログラムに従い、RAM5002をワークメモリとして用い、この情報処理装置50の全体の動作を制御する。グラフィクスI/F5003は、CPU5000によりプログラムに従い生成された表示制御信号に基づき、ディスプレイ5020が対応可能な表示信号を生成する。ディスプレイ5020は、グラフィクスI/F5003から供給された表示信号に応じた画面を表示する。 The CPU 5000 controls the overall operation of the information processing apparatus 50 using the RAM 5002 as a work memory according to a program pre-stored in at least one of the ROM 5001 and the storage 5004, for example. The graphics I/F 5003 generates display signals that can be handled by the display 5020 based on display control signals generated by the CPU 5000 according to a program. A display 5020 displays a screen according to the display signal supplied from the graphics I/F 5003 .

入力デバイス5005は、ユーザ操作を受け付け、受け付けたユーザ操作に応じた制御信号を出力する。入力デバイス5005としては、マウスもしくはタブレットといったポインティングデバイス、またはキーボード等を適用できる。また、入力デバイス5005とディスプレイ5020とを一体的に形成し、いわゆるタッチパネル構成としてもよい。 The input device 5005 receives user operations and outputs control signals according to the received user operations. As the input device 5005, a pointing device such as a mouse or tablet, a keyboard, or the like can be applied. Further, the input device 5005 and the display 5020 may be integrally formed to form a so-called touch panel configuration.

データI/F5006は、外部の機器との間でデータの送受信を行う。データI/F5006としては、例えばUSB(Universal Serial Bus)を適用可能である。通信I/F5007は、CPU5000の指示に従い、外部のネットワークに対する通信を制御する。 A data I/F 5006 transmits and receives data to and from an external device. As the data I/F 5006, for example, USB (Universal Serial Bus) is applicable. A communication I/F 5007 controls communication with an external network according to instructions from the CPU 5000 .

カメラI/F5010は、各ステレオカメラ6Lおよび6Rに対するインタフェースである。各ステレオカメラ6Lおよび6Rから出力された各ステレオ撮像画像は、カメラI/F5010を介して、例えばCPU5000に渡される。また、カメラI/F5010は、CPU5000の指示に従い上述したトリガを生成し、生成したトリガを各ステレオカメラ6Lおよび6Rに送る。 A camera I/F 5010 is an interface for each of the stereo cameras 6L and 6R. Each stereo picked-up image output from each stereo camera 6L and 6R is passed to CPU5000 via camera I/F5010. In addition, the camera I/F 5010 generates the above-described triggers according to instructions from the CPU 5000, and sends the generated triggers to the stereo cameras 6L and 6R.

速度取得部5021は、車両1の速度を示す速度情報を取得する。車両1に各ステレオカメラ6Lおよび6Rが取り付けられている場合、速度取得部5021が取得する速度情報は、各ステレオカメラ6Lおよび6Rの、被写体(路面)に対する速度を示す。速度取得部5021は、例えば、GNSS(Global Navigation Satellite System)の信号を受信する機能を有し、受信したGNSSによる信号のドップラ効果に基づき車両1の速度を示す速度情報を取得する。これに限らず、速度取得部5021は、車両1から直接的に速度情報を取得することもできる。 The speed acquisition unit 5021 acquires speed information indicating the speed of the vehicle 1 . When the stereo cameras 6L and 6R are attached to the vehicle 1, the speed information obtained by the speed obtaining unit 5021 indicates the speed of the stereo cameras 6L and 6R with respect to the subject (road surface). The speed acquisition unit 5021 has, for example, a function of receiving a GNSS (Global Navigation Satellite System) signal, and acquires speed information indicating the speed of the vehicle 1 based on the Doppler effect of the received GNSS signal. The speed acquisition unit 5021 can also acquire the speed information directly from the vehicle 1 without being limited to this.

図12は、第1の実施形態に係る情報処理装置の機能を説明するための機能ブロックの構成の一例を示す図である。図12において、情報処理装置50は、撮像画像取得部500と、UI部501と、制御部502と、撮像制御部503と、を含む。情報処理装置50は、さらに、マッチング処理部510と、3D情報生成部511と、3D情報取得部520と、第1状態特性値算出部521と、第2状態特性値算出部522と、第3状態特性値算出部523と、調書作成部524と、記憶部530と、報知部531と、を含む。 FIG. 12 is a diagram showing an example of the configuration of functional blocks for explaining functions of the information processing apparatus according to the first embodiment. In FIG. 12 , the information processing apparatus 50 includes a captured image acquisition section 500 , a UI section 501 , a control section 502 and an imaging control section 503 . The information processing device 50 further includes a matching processing unit 510, a 3D information generation unit 511, a 3D information acquisition unit 520, a first state characteristic value calculation unit 521, a second state characteristic value calculation unit 522, and a third It includes a state characteristic value calculation unit 523 , a record creation unit 524 , a storage unit 530 and a notification unit 531 .

これら撮像画像取得部500、UI部501、制御部502、撮像制御部503、マッチング処理部510、3D情報生成部511、3D情報取得部520、第1状態特性値算出部521、第2状態特性値算出部522、第3状態特性値算出部523および調書作成部524は、CPU5000上で動作するプログラムにより実現される。これに限らず、これら撮像画像取得部500、UI部501、制御部502、撮像制御部503、マッチング処理部510、3D情報生成部511、3D情報取得部520、第1状態特性値算出部521、第2状態特性値算出部522、第3状態特性値算出部523および調書作成部524の一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。 These captured image acquisition unit 500, UI unit 501, control unit 502, imaging control unit 503, matching processing unit 510, 3D information generation unit 511, 3D information acquisition unit 520, first state characteristic value calculation unit 521, second state characteristic Value calculator 522 , third state characteristic value calculator 523 , and report preparation unit 524 are implemented by programs running on CPU 5000 . The captured image acquisition unit 500, the UI unit 501, the control unit 502, the imaging control unit 503, the matching processing unit 510, the 3D information generation unit 511, the 3D information acquisition unit 520, and the first state characteristic value calculation unit 521 are not limited to these. , the second state characteristic value calculation unit 522, the third state characteristic value calculation unit 523, and the report creation unit 524 may be partially or entirely configured by hardware circuits that operate in cooperation with each other.

撮像画像取得部500は、各ステレオカメラ6Lおよび6Rから、ステレオ撮像画像を取得する。撮像画像取得部500は、取得したステレオ撮像画像を、例えばストレージ5004に記憶する。また、撮像画像取得部500は、例えばストレージ5004から、記憶されたステレオ撮像画像を取得する。 The captured image acquisition unit 500 acquires stereo captured images from the stereo cameras 6L and 6R. The captured image acquisition unit 500 stores the acquired stereo captured images in the storage 5004, for example. Also, the captured image acquisition unit 500 acquires the stored stereo captured image from the storage 5004, for example.

UI部501は、入力デバイス5005やディスプレイ5020に対する表示によるユーザインタフェースを実現する。制御部502は、この情報処理装置50全体の動作を制御する。 The UI unit 501 implements a user interface by displaying on the input device 5005 and display 5020 . A control unit 502 controls the operation of the information processing apparatus 50 as a whole.

撮像制御部503は、上述した撮像制御部101および101、速度取得部102および生成部103に対応する。すなわち、撮像制御部503は、各ステレオカメラ6Lおよび6Rの被写体(路面4)に対する速度を示す速度情報を取得し、取得した速度情報と、予め設定される各ステレオカメラ6Lおよび6Rの画角αおよび高さhと、に基づき、各ステレオカメラ6Lおよび6Rの撮像を指示するためのトリガを生成する。 The imaging control unit 503 corresponds to the imaging control units 101 1 and 101 2 , the velocity acquisition unit 102 and the generation unit 103 described above. That is, the imaging control unit 503 acquires speed information indicating the speed of each of the stereo cameras 6L and 6R with respect to the subject (road surface 4), and combines the acquired speed information with the preset angle of view α of each of the stereo cameras 6L and 6R. and height h, a trigger is generated for instructing the imaging of each of the stereo cameras 6L and 6R.

マッチング処理部510は、撮像画像取得部500により取得されたステレオ撮像画像を構成する2枚の撮像画像を用いてマッチング処理を行う。3D情報生成部511は、3次元情報に係る処理を行う。例えば、3D情報生成部511は、マッチング処理部510によるマッチング処理の結果を用いて三角法等により深度情報を求め、求めた深度情報に基づき3次元点群情報(デプスマップ)を生成する。 The matching processing unit 510 performs matching processing using the two captured images forming the stereo captured image acquired by the captured image acquisition unit 500 . The 3D information generation unit 511 performs processing related to 3D information. For example, the 3D information generation unit 511 obtains depth information by trigonometry or the like using the result of matching processing by the matching processing unit 510, and generates 3D point cloud information (depth map) based on the obtained depth information.

3D情報取得部520は、3D情報生成部511によりステレオ撮像画像毎に求めた3次元点群情報を取得する。 The 3D information acquisition unit 520 acquires the 3D point cloud information obtained for each stereo image by the 3D information generation unit 511 .

第1状態特性値算出部521は、3D情報取得部520により取得された3次元点群情報と、撮像画像取得部500により取得された各ステレオ撮像画像とを用いて、MCIを求めるための状態特性値のうち、ひび割れ率Cを算出する。 The first state characteristic value calculation unit 521 uses the three-dimensional point cloud information acquired by the 3D information acquisition unit 520 and each stereo captured image acquired by the captured image acquisition unit 500 to determine the state for obtaining MCI. Among the characteristic values, the crack rate C is calculated.

第2状態特性値算出部522は、3D情報取得部520により取得された3次元点群情報と、撮像画像取得部500により取得された各ステレオ撮像画像とを用いて、MCIを求めるための状態特性値のうち、平坦性σを算出する。 The second state characteristic value calculation unit 522 uses the three-dimensional point cloud information acquired by the 3D information acquisition unit 520 and each stereo captured image acquired by the captured image acquisition unit 500 to determine the state for obtaining MCI. Among the characteristic values, flatness σ is calculated.

第3状態特性値算出部523は、3D情報取得部520により取得された3次元点群情報と、撮像画像取得部500により取得された各ステレオ撮像画像とを用いて、MCIを求めるための状態特性値のうち、わだち掘れ量D(物理量の一例)を算出する。第3状態特性値算出部523は、図12に示すように、入力部5231と、認識部5232と、決定部5233と、計測部5234と、出力部5235と、を有する。 The third state characteristic value calculation unit 523 uses the three-dimensional point cloud information acquired by the 3D information acquisition unit 520 and each stereo captured image acquired by the captured image acquisition unit 500 to determine the state for obtaining MCI. Among the characteristic values, a rutting amount D (an example of a physical quantity) is calculated. The third state characteristic value calculation unit 523 has an input unit 5231, a recognition unit 5232, a determination unit 5233, a measurement unit 5234, and an output unit 5235, as shown in FIG.

入力部5231は、3D情報取得部520により取得された3次元点群情報と、撮像画像取得部500により取得された各ステレオ撮像画像とを入力する。入力部5231が入力するステレオ撮像画像は、ステレオカメラ6Lおよび6Rにより撮像されたステレオ撮像画像のうち、いずれの画像であってもよい。 The input unit 5231 inputs the three-dimensional point cloud information acquired by the 3D information acquisition unit 520 and each stereo captured image acquired by the captured image acquisition unit 500 . The stereo captured image input by the input unit 5231 may be any of the stereo captured images captured by the stereo cameras 6L and 6R.

認識部5232は、予め付加された路面の異物情報についての学習データに基づく教師あり学習(深層学習または機械学習)によって得られた学習モデルである識別器を用いて、入力部5231により入力されたステレオ撮像画像が示す被写体に異物が含まれるか否かを認識する。このとき、認識部5232は、記憶部530から識別器のデータを読み出す。 The recognition unit 5232 uses a discriminator, which is a learning model obtained by supervised learning (deep learning or machine learning) based on learning data about the foreign matter information on the road surface added in advance. To recognize whether or not a foreign object is included in a subject indicated by a stereo image. At this time, the recognizing unit 5232 reads data of the classifier from the storage unit 530 .

決定部5233は、認識部5232によるステレオ撮像画像に対する異物の認識結果に基づいて、3次元点群情報(デプスマップ)上の車両1の進行方向におけるわだち掘れ量Dの計測位置を決定する。 The determining unit 5233 determines the measurement position of the rutting amount D in the traveling direction of the vehicle 1 on the three-dimensional point group information (depth map) based on the recognition result of the foreign matter in the stereo imaged image by the recognizing unit 5232 .

計測部5234は、決定部5233により決定された3次元点群情報における計測位置でわだち掘れ量Dを計測する。 The measurement unit 5234 measures the rutting amount D at the measurement position in the three-dimensional point group information determined by the determination unit 5233 .

出力部5235は、計測部5234により計測されたわだち掘れ量Dを、調書作成部524へ出力する。 The output unit 5235 outputs the rutting amount D measured by the measurement unit 5234 to the report creation unit 524 .

調書作成部524は、第1状態特性値算出部521、第2状態特性値算出部522および第3状態特性値算出部523により算出された各状態特性値に基づきMCIを求め、調書を作成する。 The record creation unit 524 obtains MCI based on each state characteristic value calculated by the first state characteristic value calculation unit 521, the second state characteristic value calculation unit 522, and the third state characteristic value calculation unit 523, and creates a record. .

記憶部530は、例えば、上述の認識部5232が用いる学習モデルである識別器のデータを記憶する。記憶部530は、図11に示すRAM5002またはストレージ5004により実現される。 The storage unit 530 stores, for example, classifier data that is a learning model used by the recognition unit 5232 described above. Storage unit 530 is realized by RAM 5002 or storage 5004 shown in FIG.

報知部531は、ディスプレイ5020に各種情報を表示して報知する。報知部531は、例えば、決定部5233により決定された計測位置ではわだち掘れ量が計測できない旨、または、未だ最終的な計測位置が定まっていない旨等を報知する。なお、報知部531は、ディスプレイ5020における表示により報知することに限定されるものではなく、例えば、音声、または警告音等の電子音等の聴覚に働きかける手段によって報知するものとしてもよい。 Notification unit 531 displays and notifies various information on display 5020 . The notification unit 531 notifies, for example, that the rutting amount cannot be measured at the measurement position determined by the determination unit 5233, or that the final measurement position has not yet been determined. Note that the notification unit 531 is not limited to the notification by the display on the display 5020, and may be notified by, for example, sound or electronic sound such as an alarm sound.

情報処理装置50における第1の実施形態に係る各機能を実現するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、当該プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供してもよい。また、当該プログラムをインターネット等のネットワークを経由して提供または配布するように構成してもよい。なお、上述のプログラムの提供または配布については、後述の第2の実施形態および第3の実施形態でも同様である。 A program for realizing each function in the information processing apparatus 50 according to the first embodiment is stored as an installable or executable file on a CD (Compact Disk), a flexible disk (FD), or a DVD (Digital Versatile). Disk) or other computer-readable recording medium. Alternatively, the program may be provided by storing it on a computer connected to a network such as the Internet and downloading it via the network. Also, the program may be configured to be provided or distributed via a network such as the Internet. It should be noted that the provision or distribution of the above-described program is the same in the second and third embodiments described later.

当該プログラムは、撮像画像取得部500、UI部501、制御部502、撮像制御部503、マッチング処理部510、3D情報生成部511、3D情報取得部520、第1状態特性値算出部521、第2状態特性値算出部522、第3状態特性値算出部523、調書作成部524および報知部531を含むモジュール構成となっている。実際のハードウェアとしては、CPU5000がストレージ5004等の記憶媒体から当該プログラムを読み出して実行することにより、上述した各部がRAM5002等の主記憶装置上にロードされ、撮像画像取得部500、UI部501、制御部502、撮像制御部503、マッチング処理部510、3D情報生成部511、3D情報取得部520、第1状態特性値算出部521、第2状態特性値算出部522、第3状態特性値算出部523、調書作成部524および報知部531が主記憶装置上に生成されるようになっている。なお、上述のプログラムの構成および主記憶装置上の生成の態様については、後述の第2の実施形態および第3の実施形態でも同様である。 The program includes a captured image acquisition unit 500, a UI unit 501, a control unit 502, an imaging control unit 503, a matching processing unit 510, a 3D information generation unit 511, a 3D information acquisition unit 520, a first state characteristic value calculation unit 521, a It has a module configuration including a 2-state characteristic value calculator 522 , a 3rd state characteristic value calculator 523 , a report preparation unit 524 and a notification unit 531 . As actual hardware, the CPU 5000 reads out the program from a storage medium such as the storage 5004 and executes it, thereby loading the above-described respective units onto the main storage device such as the RAM 5002 . , control unit 502, imaging control unit 503, matching processing unit 510, 3D information generation unit 511, 3D information acquisition unit 520, first state characteristic value calculation unit 521, second state characteristic value calculation unit 522, third state characteristic value A calculation unit 523, a report creation unit 524, and a notification unit 531 are generated on the main storage device. The configuration of the above program and the mode of generation on the main storage device are the same for the second and third embodiments described later.

(トリガ生成方法)
次に、第1の実施形態に係る、各ステレオカメラ6Lおよび6Rに対して撮像を指示するためのトリガの生成方法について、より詳細に説明する。第1の実施形態において、生成部103は、ステレオカメラ6Lおよび6Rの被測定物(路面4)に対するステレオ撮像範囲の、車両1の速度の方向の距離を、車両1が速度情報が示す速度で移動する時間に対して、当該時間より短い所定時間以下の時間間隔でトリガを生成する。
(Trigger generation method)
Next, a method of generating triggers for instructing imaging to the stereo cameras 6L and 6R according to the first embodiment will be described in more detail. In the first embodiment, the generation unit 103 calculates the distance in the direction of the speed of the vehicle 1 in the stereo imaging range of the object to be measured (road surface 4) of the stereo cameras 6L and 6R at the speed indicated by the speed information. Triggers are generated at time intervals equal to or less than a predetermined time shorter than the moving time.

すなわち、トリガは、ステレオカメラ6Lおよび6Rにおける路面4の撮影範囲が、車両1の進行方向に所定の重複率(進行方向重複率Dr)以上で重複することが保たれるように発生させる必要がある。これは、後述するように、各ステレオ撮像画像から撮像位置を算出する処理において、安定的に精度の高いカメラ位置を算出するため、十分な対応点を検出できるようにすることが目的である。進行方向重複率Drの下限値は、例えば実験的に「60[%]」のように決定される。 That is, the trigger needs to be generated so that the photographing ranges of the road surface 4 captured by the stereo cameras 6L and 6R overlap in the traveling direction of the vehicle 1 at a predetermined overlapping rate (traveling direction overlapping rate Dr) or more. be. As will be described later, the purpose of this is to detect sufficient corresponding points in order to stably and accurately calculate the camera position in the process of calculating the imaging position from each stereo imaged image. The lower limit of the traveling direction overlap rate Dr is experimentally determined, for example, as "60[%]".

第1の実施形態において、トリガの生成方法は、下記の3通りの方法を適用できる。
(1)一定時間間隔で生成する方法(第1の生成方法)
(2)カメラの移動速度を検出して生成する方法(第2の生成方法)
(3)撮像画像を用いて移動距離を算出して生成する方法(第3の生成方法)
In the first embodiment, the following three methods can be applied to the trigger generation method.
(1) Method of generating at regular time intervals (first generation method)
(2) A method of generating by detecting the movement speed of the camera (second generation method)
(3) A method of calculating and generating a movement distance using a captured image (third generation method)

<第1の生成方法>
先ず、トリガの第1の生成方法について説明する。第1の生成方法においては、撮像中の車両1の最高速度Speedと、撮像範囲の大きさ(撮像範囲の車両1の進行方向の長さ)と、からトリガの時間間隔を決める。速度取得部5021は、車両1におけるシステム設定値や、情報処理装置50に対するユーザ入力により、車両1の最高速度Speedを予め取得しておく。撮像制御部503は、速度取得部5021から最高速度Speedを取得し、トリガの時間間隔を、取得した最高速度Speedと、進行方向視野Vpおよび進行方向重複率Drと、を用いて、下記の式(4)により算出する。なお、進行方向重複率Drは、上述した下限値が適用される。
<First generation method>
First, the first trigger generation method will be described. In the first generation method, the trigger time interval is determined from the maximum speed Speed of the vehicle 1 during imaging and the size of the imaging range (the length of the imaging range in the traveling direction of the vehicle 1). The speed acquisition unit 5021 acquires the maximum speed Speed of the vehicle 1 in advance based on system setting values in the vehicle 1 and user input to the information processing device 50 . The imaging control unit 503 acquires the maximum speed Speed from the speed acquisition unit 5021, and uses the acquired maximum speed Speed, the traveling direction visual field Vp, and the traveling direction overlap rate Dr to obtain the trigger time interval by the following formula: Calculated by (4). Note that the above-described lower limit value is applied to the traveling direction overlapping rate Dr.

Figure 2023029441000007
Figure 2023029441000007

式(4)により、1秒間に生成すべきトリガ数fpsが算出される。トリガ数fpsの逆数が、生成すべき次のトリガまでの時間間隔となる。 The number of triggers fps to be generated per second is calculated by the formula (4). The reciprocal of the number of triggers fps is the time interval until the next trigger to be generated.

進行方向視野Vpは、模式的には、図4を用いて説明したように、各ステレオカメラ6Lおよび6Rの路面4からの高さhと、各ステレオカメラ6Lおよび6Rの画角αと、に基づき設定できる。実際は、さらに、各ステレオカメラ6Lおよび6Rの路面4に対する角度等も考慮して、進行方向視野Vpを設定する。 As described with reference to FIG. 4, the traveling direction field of view Vp is schematically defined by the height h of each of the stereo cameras 6L and 6R from the road surface 4 and the angle of view α of each of the stereo cameras 6L and 6R. can be set based on In practice, furthermore, the angles of the stereo cameras 6L and 6R with respect to the road surface 4 are taken into consideration when setting the traveling direction field of view Vp.

ここで、移動中の車両1が右または左にカーブした際には、ステレオカメラ6Lおよび6Rのうち外側にあるカメラの移動量が大きくなる。そのため、車両1の最高速度Speedをそのまま使うのではなく、外側カメラの位置に基づく回転移動の速度を使うと、より好ましい。 Here, when the moving vehicle 1 curves to the right or left, the amount of movement of the outer camera out of the stereo cameras 6L and 6R increases. Therefore, it is more preferable to use the speed of rotational movement based on the position of the outer camera instead of using the maximum speed Speed of the vehicle 1 as it is.

撮像制御部503は、生成したトリガに応じて撮像されたステレオ撮像画像を、すべて例えばストレージ5004やRAM5002に記憶し、蓄積する。 The imaging control unit 503 stores and accumulates all the stereo imaged images imaged according to the generated trigger in the storage 5004 or the RAM 5002, for example.

<第2の生成方法>
次に、トリガの第2の生成方法について説明する。上述した第1の方法は、シンプルである一方、車両1が停止している状態や、所定の速度よりも低速で移動している状態では、最高速度Speedに対して過剰に細かい間隔で撮像することになり、蓄積されるステレオ撮像画像の量が大きくなってしまう。第2の生成方法では、撮像制御部503は、カメラの移動速度を検出し、検出された移動速度に応じてトリガを生成する。
<Second generation method>
Next, a second trigger generation method will be described. While the above-described first method is simple, when the vehicle 1 is stopped or moving at a speed lower than a predetermined speed, images are captured at excessively fine intervals with respect to the maximum speed Speed. As a result, the amount of stereo imaged images to be accumulated becomes large. In the second generation method, the imaging control unit 503 detects the moving speed of the camera and generates a trigger according to the detected moving speed.

撮像制御部503は、速度取得部5021により取得された速度情報が示す現在の車両1の速度を、式(4)の最高速度Speedとして用いて、次のトリガまでの時間間隔を算出し、撮像を行う。第2の生成方法によれば、車両1の移動速度が小さいほど、トリガ生成の時間間隔が長くなり、無駄な撮像が行われることが抑制される。 The image capture control unit 503 uses the current speed of the vehicle 1 indicated by the speed information acquired by the speed acquisition unit 5021 as the maximum speed Speed in expression (4) to calculate the time interval until the next trigger, and captures the image. I do. According to the second generation method, the slower the moving speed of the vehicle 1 is, the longer the time interval of trigger generation is, thereby suppressing wasteful imaging.

撮像制御部503は、生成したトリガに応じて撮像されたステレオ撮像画像を、すべて例えばストレージ5004やRAM5002に記憶し、蓄積する。 The imaging control unit 503 stores and accumulates all the stereo imaged images imaged according to the generated trigger in the storage 5004 or the RAM 5002, for example.

なお、この第2の生成方法と、上述した第1の生成方法は、組み合わせて実施することが可能である。 Note that this second generation method and the above-described first generation method can be implemented in combination.

<第3の生成方法>
次に、トリガの第3の生成方法について説明する。第3の生成方法では、上述した第1の生成方法と同様に、車両1の最高速度Speedに基づいた一定時間間隔でトリガを生成する。ここで、第3の生成方法においては、トリガに応じて撮像されたステレオ撮像画像を、すべて蓄積するのではなく、最後に蓄積されたステレオ撮像画像と、直前に撮像されたステレオ撮像画像との重複率が予め設定された進行方向重複率Drを下回った場合にのみ蓄積する。
<Third generation method>
Next, a third trigger generation method will be described. In the third generation method, as in the first generation method described above, triggers are generated at regular time intervals based on the maximum speed Speed of the vehicle 1 . Here, in the third generation method, instead of accumulating all the stereo captured images captured in response to the trigger, the last accumulated stereo captured image and the immediately preceding stereo captured image are combined. Accumulation is performed only when the overlapping rate is less than the preset traveling direction overlapping rate Dr.

後述するが、車両1の進行方向に重複するように撮像されたステレオ撮像画像のみを用いて、カメラ(車両1)の移動距離を算出することが可能である。 As will be described later, it is possible to calculate the moving distance of the camera (vehicle 1) using only the stereo captured images captured so as to overlap with the traveling direction of the vehicle 1 .

撮像制御部503は、最後に蓄積されたステレオ撮像画像と、直前に撮像されたステレオ撮像画像とを用いてカメラの移動距離を算出する。撮像制御部503は、算出した距離が、進行方向重複率Drの下限値に対応した移動距離を超えたか否かを判定する。撮像制御部503は、超えたと判定した場合には、直前に撮像されたステレオ撮像画像を蓄積する。一方、撮像制御部503は、超えていないと判定した場合は、直前に撮像したステレオ撮像画像を破棄する。 The imaging control unit 503 calculates the moving distance of the camera using the last accumulated stereo image and the immediately preceding stereo image. The imaging control unit 503 determines whether or not the calculated distance exceeds the movement distance corresponding to the lower limit of the traveling direction overlapping rate Dr. When the image capturing control unit 503 determines that the time limit has been exceeded, the image capturing control unit 503 accumulates the stereo image captured immediately before. On the other hand, if it is determined that the imaging control unit 503 does not exceed the threshold, the imaging control unit 503 discards the stereo image captured immediately before.

これにより、車両1の現在速度を計測するためのセンサを用いずとも、移動速度が小さいときには無駄な画像蓄積が行われないことになる。 As a result, even without using a sensor for measuring the current speed of the vehicle 1, wasteful image accumulation is not performed when the moving speed is low.

なお、上述では、ステレオカメラ6Lおよび6Rに対して撮像を指示するためのトリガを、ステレオカメラ6Lおよび6Rの外部、例えば情報処理装置50において生成して、ステレオカメラ6Lおよび6Rに送信するものとしているが、これに限定されない。例えば、当該トリガをステレオカメラ6Lおよび6Rの一方で生成し、これによりステレオカメラ6Lおよび6Rに対して撮像を指示するようにしてもよい。 In the above description, it is assumed that triggers for instructing imaging to the stereo cameras 6L and 6R are generated outside the stereo cameras 6L and 6R, for example, in the information processing device 50, and transmitted to the stereo cameras 6L and 6R. Yes, but not limited to. For example, the trigger may be generated by one of the stereo cameras 6L and 6R to instruct the stereo cameras 6L and 6R to take an image.

(路面性状値の算出方法)
次に、第1の実施形態に係る路面性状値の算出方法について説明する。以下では、第1の実施形態に係る平坦性σ、ひび割れ率Cおよびわだち掘れ量Dの計測方法について説明する。
(Calculation method of road surface property value)
Next, a method for calculating road surface property values according to the first embodiment will be described. A method for measuring the flatness σ, the crack ratio C, and the rutting amount D according to the first embodiment will be described below.

<平坦性>
図13は、第1の実施形態の平坦性の算出処理の一例を示すフローチャートである。ステップS100で、撮像画像取得部500により、ステレオカメラ6Lおよび6Rにより撮像され、例えばストレージ5004に記憶されたステレオ撮像画像が取得される。ステレオ撮像画像が取得されると、処理は、並列して処理が可能なステップS101aおよびステップS101bに移行する。
<Flatness>
FIG. 13 is a flowchart illustrating an example of flatness calculation processing according to the first embodiment. In step S100, the captured image acquisition unit 500 acquires stereo captured images captured by the stereo cameras 6L and 6R and stored in the storage 5004, for example. When the stereo imaged images are acquired, the process moves to steps S101a and S101b, which can be processed in parallel.

ステップS101aでは、ステップS100で取得されたステレオ撮像画像に基づきデプスマップが生成される。図14および図15を用いて、第1の実施形態に適用可能なデプスマップの生成処理について説明する。図14は、第1の実施形態のデプスマップの生成処理の一例を示すフローチャートである。 In step S101a, a depth map is generated based on the stereo captured image acquired in step S100. Depth map generation processing applicable to the first embodiment will be described with reference to FIGS. 14 and 15 . FIG. 14 is a flowchart illustrating an example of depth map generation processing according to the first embodiment.

ステップS120で、マッチング処理部510は、撮像画像取得部500からステレオ撮像画像を取得する。次のステップS121で、マッチング処理部510は、取得したステレオ撮像画像を構成する2枚の撮像画像に基づきマッチング処理を行う。次のステップS122で、3D情報生成部511は、ステップS121のマッチング処理結果に基づき深度情報を計算し、3次元点群情報であるデプスマップを生成する。 In step S<b>120 , the matching processing unit 510 acquires stereo captured images from the captured image acquisition unit 500 . In the next step S121, the matching processing unit 510 performs matching processing based on the two captured images forming the acquired stereo captured image. In the next step S122, the 3D information generation unit 511 calculates depth information based on the matching processing result of step S121, and generates a depth map, which is three-dimensional point cloud information.

ステップS121およびステップS122の処理について、より具体的に説明する。第1の実施形態では、ステレオ撮像画像を構成する2枚の撮像画像を用いて、ステレオ法により深度情報を計算する。ここでいうステレオ法は、2つのカメラにより異なる視点から撮像された2枚の撮像画像を用い、一方の撮像画像のある画素(参照画素)に対して、他方の撮像画像内における対応する画素(対応画素)を求め、参照画素と対応画素とに基づき三角法により深度(奥行き値)を算出する方法である。 The processing of steps S121 and S122 will be described more specifically. In the first embodiment, depth information is calculated by a stereo method using two captured images that constitute a stereo captured image. The stereo method here uses two captured images captured from different viewpoints by two cameras, and for a certain pixel (reference pixel) in one captured image, a corresponding pixel (reference pixel) in the other captured image ( In this method, the corresponding pixel) is obtained, and the depth (depth value) is calculated by triangulation based on the reference pixel and the corresponding pixel.

ステップS121で、マッチング処理部510は、撮像画像取得部500から取得した、ステレオ撮像画像を構成する2枚の撮像画像を用い、基準となる一方の撮像画像における参照画素を中心とする所定サイズの領域に対応する、探索対象となる他方の撮像画像内の領域を、当該他方の撮像画像内で移動させて、探索を行う。 In step S121, the matching processing unit 510 uses the two captured images constituting the stereo captured image, which are acquired from the captured image acquisition unit 500, and a predetermined size centering on the reference pixel in one captured image serving as a reference. A search is performed by moving a region corresponding to the region in the other captured image to be searched within the other captured image.

対応画素の探索は、様々な方法が知られており、例えば、ブロックマッチング法を適用することができる。ブロックマッチング法は、一方の撮像画像において参照画素を中心としてM画素×N画素のブロックとして切り出される領域の画素値を取得する。また、他方の撮像画像において、対象画素を中心としてM画素×N画素のブロックとして切り出される領域の画素値を取得する。画素値に基づき、参照画素を含む領域と、対象画素を含む領域との類似度を計算する。探索対象の画像内でM画素×N画素のブロックを移動させながら類似度を比較し、最も類似度が高くなる位置のブロックにおける対象画素を、参照画素に対応する対応画素とする。 Various methods are known for searching for corresponding pixels, and for example, a block matching method can be applied. The block matching method acquires pixel values of a region cut out as a block of M pixels×N pixels centering on a reference pixel in one captured image. Also, in the other captured image, a pixel value of a region cut out as a block of M pixels×N pixels centering on the target pixel is acquired. Based on the pixel values, the degree of similarity between the area containing the reference pixel and the area containing the target pixel is calculated. The similarity is compared while moving blocks of M pixels×N pixels in the search target image, and the target pixel in the block at the position where the similarity is highest is taken as the corresponding pixel corresponding to the reference pixel.

類似度は、様々な計算方法により算出できる。例えば、下記の式(5)に示される、正規化相互相関(NCC:Normalized Cross-Correlation)は、コスト関数の1つであって、コストを示す数値CNCCの値が大きいほど、類似度が高いことを示す。式(5)において、値MおよびNは、探索を行うための画素ブロックのサイズを表す。また、値I(i,j)は、基準となる一方の撮像画像における画素ブロック内の画素の画素値を表し、値T(i,j)は、探索対象となる他方の撮像画像における画素ブロック内の画素値を表す。 Similarity can be calculated by various calculation methods. For example, the normalized cross-correlation (NCC) shown in the following formula (5) is one of the cost functions, and the larger the value of the numerical value C NCC indicating the cost, the higher the similarity. Indicates high. In equation (5), the values M and N represent the size of the pixel block to search. Also, the value I(i, j) represents the pixel value of a pixel in a pixel block in one of the reference captured images, and the value T(i, j) represents the pixel block in the other captured image to be searched. represents the pixel value in

Figure 2023029441000008
Figure 2023029441000008

マッチング処理部510は、上述したように、一方の撮像画像における、M画素×N画素の画素ブロックに対応する、他方の撮像画像における画素ブロックを、他方の撮像画像内で、例えば画素単位で移動させながら式(5)の計算を実行し、数値CNCCを算出する。他方の撮像画像において、数値CNCCが最大となる画素ブロックの中心画素を、参照画素に対応する対象画素とする。 As described above, the matching processing unit 510 moves a pixel block in the other captured image corresponding to a pixel block of M pixels×N pixels in the other captured image, for example, in units of pixels. Calculation of equation (5) is performed while allowing the value C_NCC to be calculated. In the other captured image, the center pixel of the pixel block with the largest numerical value C NCC is set as the target pixel corresponding to the reference pixel.

図14の説明に戻り、ステップS122で、3D情報生成部511は、ステップS121のマッチング処理により求められた、参照画素および対応画素とに基づき、三角法を用いて奥行き値(深度情報)を算出し、ステレオ撮像画像を構成する一方の撮像画像および他方の撮像画像に係る3次元点群情報を生成する。 Returning to the description of FIG. 14, in step S122, the 3D information generation unit 511 calculates a depth value (depth information) using trigonometry based on the reference pixels and corresponding pixels obtained by the matching processing in step S121. Then, three-dimensional point cloud information relating to one captured image and the other captured image that constitute the stereo captured image is generated.

図15は、三角法を説明するための図である。図中のターゲット物体403(例えば路面4上の1点)までの距離Sを、各撮像素子402(撮像素子601および601に対応)に撮像された画像内の撮像位置情報から算出することが処理の目的である。すなわち、この距離Sが、対象となる画素の深度情報に対応する。距離Sは、下記の式(6)により計算される。 FIG. 15 is a diagram for explaining trigonometry. Calculating the distance S to the target object 403 (for example, one point on the road surface 4) in the figure from the imaging position information in the image captured by each imaging element 402 (corresponding to the imaging elements 601 L and 601 R ). is the purpose of processing. That is, this distance S corresponds to the depth information of the target pixel. The distance S is calculated by Equation (6) below.

なお、式(6)において、値baselineは、カメラ400aおよび400b間の基線の長さ(基線長)を表す。これは、図5の例では、撮像レンズ6Lおよび6L(ステレオカメラ6Lの場合)による基線長に対応する。値fは、レンズ401(撮像レンズ6Lおよび6Lに対応)の焦点距離を表す。値qは、視差を表す。視差qは、参照画素と対応画素の座標値の差分に、撮像素子の画素ピッチを乗じた値である。対応画素の座標値は、ステップS121のマッチング処理の結果に基づき得られる。 In equation (6), the value baseline represents the length of the baseline (baseline length) between the cameras 400a and 400b. In the example of FIG. 5, this corresponds to the baseline length by the imaging lenses 6L L and 6L R (in the case of the stereo camera 6L). The value f represents the focal length of the lens 401 (corresponding to the imaging lenses 6L L and 6L R ). The value q represents parallax. The parallax q is a value obtained by multiplying the difference between the coordinate values of the reference pixel and the corresponding pixel by the pixel pitch of the imaging element. The coordinate values of the corresponding pixels are obtained based on the result of matching processing in step S121.

Figure 2023029441000009
Figure 2023029441000009

この式(6)が、2つのカメラ400aおよび400b、すなわち、撮像レンズ6Lおよび6Lを利用した場合の距離Sの算出方法となる。これは2つのカメラ400aおよび400b、すなわち、撮像レンズ6Lおよび6Lによりそれぞれ撮像された撮像画像から距離Sを算出するものである。第1の実施形態では、この式(6)による算出方法を、ステレオカメラ6Lの撮像レンズ6Lおよび6L、ならびに、ステレオカメラ6Rの撮像レンズ6Rおよび6Rにより撮像された各撮像画像に適用して、画素毎に距離Sを算出する。 This formula (6) is a method of calculating the distance S when the two cameras 400a and 400b, that is, the imaging lenses 6L L and 6L R are used. This is to calculate the distance S from the captured images captured by the two cameras 400a and 400b, that is, the imaging lenses 6L L and 6L R , respectively. In the first embodiment, the calculation method based on this equation (6) is applied to each captured image captured by the imaging lenses 6L L and 6L R of the stereo camera 6L and the imaging lenses 6R L and 6R R of the stereo camera 6R. applied to calculate the distance S for each pixel.

図13の説明に戻り、ステップS101bで、3D情報生成部511は、カメラ位置および向きを推定する。ここで、カメラ位置は、例えばステレオカメラ6Lを一体と捉えた場合のその中心座標を示す。ステップS101bの処理の詳細については、後述する。 Returning to the description of FIG. 13, in step S101b, the 3D information generation unit 511 estimates the camera position and orientation. Here, the camera position indicates, for example, the coordinates of the center of the stereo camera 6L when viewed as one unit. Details of the processing in step S101b will be described later.

ステップS101aおよびステップS101bの処理が終了すると、処理がステップS102に移行される。ステップS102で、3D情報生成部511は、時系列上で隣接する2つのデプスマップについて、ステップS101bで推定したカメラ位置および向きに基づき、前時刻のデプスマップの座標系に合うように、当該前時刻の次の次時刻のデプスマップの座標変換を行う。 When the processing of steps S101a and S101b ends, the processing moves to step S102. In step S102, the 3D information generating unit 511 converts two depth maps that are adjacent in time series to match the coordinate system of the depth map at the previous time based on the camera position and orientation estimated in step S101b. Coordinate transformation of the depth map of the next time after the time is performed.

なお、前時刻および次時刻は、ステレオカメラ6Lおよび6Rにおいてトリガに応じて時系列上で連続的に実行された1回目の撮像と、2回目の撮像とにおいて、1回目の撮像が行われた時刻を前時刻、2回目の撮像が行われた時刻を次時刻としている。すなわち、前時刻のデプスマップは、1回目の撮像によるステレオ撮像画像に基づき生成されたデプスマップであり、次時刻のデプスマップは、2回目の撮像によるステレオ撮像画像に基づき生成されたデプスマップである。 Note that the previous time and the next time are the first imaging and the second imaging that are continuously executed in chronological order in response to a trigger in the stereo cameras 6L and 6R. The time is the previous time, and the time when the second imaging is performed is the next time. That is, the depth map at the previous time is a depth map generated based on the stereo image captured by the first imaging, and the depth map at the next time is a depth map generated based on the stereo image captured by the second imaging. be.

次のステップS103で、3D情報生成部511は、ステップS102で座標変換された次時刻のデプスマップを、前時刻のデプスマップに統合する。すなわち、ステップS102の座標変換により、前時刻および次時刻の2つのデプスマップが共通の座標系に並ぶため、これら2つのデプスマップを統合することができる。この、ステップS102およびステップS103の処理を、すべての時刻で撮像されたステレオ撮像画像に対して実施する。 In the next step S103, the 3D information generation unit 511 integrates the depth map of the next time coordinate-transformed in step S102 into the depth map of the previous time. That is, the two depth maps of the previous time and the next time are arranged in a common coordinate system by the coordinate conversion in step S102, so that these two depth maps can be integrated. The processes of steps S102 and S103 are performed on stereo captured images captured at all times.

なお、図5や図7に示すように、ステレオカメラ6Lおよび6R、または、ステレオカメラ6L、6Cおよび6Rを道路幅方向に複数台並べて用いる場合、道路幅方向に並んだステレオカメラ同士(例えばステレオカメラ6Lおよび6R)においても、同様にしてカメラ位置および向きを推定し、その後、デプスマップ統合を行う。 As shown in FIGS. 5 and 7, when the stereo cameras 6L and 6R or the stereo cameras 6L, 6C and 6R are arranged side by side in the road width direction, the stereo cameras arranged in the road width direction (for example, the stereo cameras In the cameras 6L and 6R) as well, the camera position and orientation are similarly estimated, and depth map integration is then performed.

また、上述した第3の生成方法における、カメラ(車両1)の移動距離は、ステップS102の座標変換、および、ステップS103のデプスマップ統合処理において、算出が可能である。 Further, the moving distance of the camera (vehicle 1) in the above-described third generation method can be calculated in the coordinate conversion in step S102 and the depth map integration processing in step S103.

次のステップS104で、3D情報取得部520は、3D情報生成部511から、ステップS103で統合されたデプスマップを取得する。そして、第2状態特性値算出部522は、3D情報取得部520に取得されたデプスマップに基づき、平坦性σを算出する。すなわち、デプスマップが統合されると、計測した区間の道路について路面形状が、1つの3次元空間中の点群として復元される。点群が復元されると、路面上の各サンプリング地点について、規定に従い前後1.5m地点の座標を結んだ座標系を取り、中心部分の3次元点群までの距離を算出することで、式(2)と同様に変位量dを算出でき、式(3)に従い、この変位量dから平坦性σを算出できる。 In the next step S104, the 3D information acquisition unit 520 acquires the depth map integrated in step S103 from the 3D information generation unit 511. FIG. Then, the second state characteristic value calculator 522 calculates the flatness σ based on the depth map acquired by the 3D information acquirer 520 . That is, when the depth maps are integrated, the road surface shape of the road in the measured section is restored as a point group in one three-dimensional space. When the point cloud is restored, for each sampling point on the road surface, take a coordinate system that connects the coordinates of the 1.5m points before and after according to the regulations, and calculate the distance to the 3D point cloud at the center, using the formula The amount of displacement d can be calculated in the same manner as in (2), and the flatness σ can be calculated from the amount of displacement d according to equation (3).

また、わだち掘れ量Dについては、ステップS104で、第3状態特性値算出部523は、3D情報取得部520に取得されたデプスマップを道路幅方向にスキャンすることで、図1(a)および図1(b)に示されるような深さDおよびDを取得することができる。これら取得した深さDおよびDと、デプスマップをスキャンした断面の情報に基づき、わだち掘れ量Dを求めることができる。このわだち掘れ量Dの計測の詳細については、後述する。 Further, regarding the rutting amount D, in step S104, the third state characteristic value calculation unit 523 scans the depth map acquired by the 3D information acquisition unit 520 in the road width direction, Depths D1 and D2 as shown in FIG. 1(b) can be obtained. The rutting amount D can be obtained based on the obtained depths D1 and D2 and the cross-sectional information obtained by scanning the depth map. The details of the measurement of the rutting amount D will be described later.

<ひび割れ率>
第1状態特性値算出部521は、例えば、ステップS103において統合されたデプスマップに対し、ステップS100で取得されたステレオ撮像画像を適用する。すなわち、第1状態特性値算出部521は、車両1の進行方向に、進行方向重複率Dr以上の重複率でもって重複して撮像された各ステレオ撮像画像を統合する。第1状態特性値算出部521は、統合した画像に対して規定に従い50[cm]のメッシュを設定し、画像解析により各メッシュ内のひび、およびパッチング等の情報を取得し、取得した情報に基づき規定に従いひび割れ率Cを算出する。
<Crack rate>
The first state characteristic value calculator 521, for example, applies the stereo captured image acquired in step S100 to the depth map integrated in step S103. That is, the first state characteristic value calculation unit 521 integrates each stereo captured image that is redundantly captured in the direction of travel of the vehicle 1 with an overlap rate equal to or greater than the travel direction overlap rate Dr. The first state characteristic value calculation unit 521 sets a mesh of 50 [cm] according to regulations for the integrated image, acquires information such as cracks and patching in each mesh by image analysis, and uses the acquired information Calculate the crack rate C according to the regulations.

<カメラ位置および向きの推定処理>
次に、上述した図13のフローチャートにおけるステップS101bの、カメラ位置および向きの推定処理について、より詳細に説明する。図16は、第1の実施形態のカメラ位置および向きの推定処理の一例を示すフローチャートである。第1の実施形態では、カメラ位置および向きを、上述したSfMを用いて推定する。
<Processing for estimating camera position and orientation>
Next, the estimation processing of the camera position and direction in step S101b in the flowchart of FIG. 13 described above will be described in more detail. FIG. 16 is a flowchart illustrating an example of camera position and orientation estimation processing according to the first embodiment. In a first embodiment, the camera position and orientation are estimated using the SfM described above.

ステップS130で、3D情報生成部511は、撮像画像取得部500からステレオ撮像画像を取得する。ここで、3D情報生成部511は、時系列上で連続的に撮像された2枚のステレオ撮像画像(前時刻のステレオ撮像画像、次時刻のステレオ撮像画像、とする)を取得する。次に、ステップS131で、3D情報生成部511は、取得した各ステレオ撮像画像から特徴点を抽出する。この特徴点を抽出する処理は、各ステレオ撮像画像の対応点として検出しやすい点を見つける処理であって、典型的には、画像中の変化があり、かつ変化が一様でないコーナーと呼ばれる点を検出する。 In step S<b>130 , the 3D information generation unit 511 acquires stereo captured images from the captured image acquisition unit 500 . Here, the 3D information generation unit 511 acquires two stereo captured images (a stereo captured image at the previous time and a stereo captured image at the next time) continuously captured in time series. Next, in step S131, the 3D information generation unit 511 extracts feature points from each acquired stereo image. This process of extracting feature points is a process of finding points that can be easily detected as corresponding points in each stereoscopic image. to detect

次のステップS132で、3D情報生成部511は、前時刻のステレオ撮像画像内で特徴点として抽出された点と同じ場所を撮像した点を、次時刻のステレオ撮像画像内から検出する。この検出処理は、オプティカルフローと呼ばれる手法や、SIFT(Scale-Invariant Feature Transform)、SURF(Speed-Upped Robust Feature)等に代表される特徴点マッチングと呼ばれる手法を適用することができる。 In the next step S132, the 3D information generation unit 511 detects, from the stereo image of the next time, the point captured at the same place as the point extracted as the feature point in the stereo image of the previous time. For this detection processing, a technique called optical flow or a technique called feature point matching represented by SIFT (Scale-Invariant Feature Transform), SURF (Speed-Upped Robust Feature), and the like can be applied.

次のステップS133で、3D情報生成部511は、カメラの初期位置および向きを推定する。3D情報生成部511は、ステップS132において各ステレオ撮像画像で検出された対応点の座標を固定値とし、次時刻のステレオ撮像画像を撮像したカメラの位置および向きをパラメータとして連立方程式を解くことで、カメラの位置を推定し、3次元座標を算出する(ステップS134)。 At the next step S133, the 3D information generation unit 511 estimates the initial position and orientation of the camera. The 3D information generating unit 511 fixes the coordinates of the corresponding points detected in each stereoscopic image in step S132, and solves the simultaneous equations using the position and orientation of the camera that captured the stereoscopic image at the next time as parameters. , the position of the camera is estimated, and the three-dimensional coordinates are calculated (step S134).

図17を参照しながら、カメラの初期位置および向きの推定方法について説明する。下記の式(7)は、空間の点Xを、カメラ(視点)Pに投影した座標xijの関係を表している。なお、式(7)において、値nが3次元空間における点の数、値mは、カメラ(撮像画像)の数をそれぞれ表す。 A method for estimating the initial position and orientation of the camera will be described with reference to FIG. Equation (7) below expresses the relationship between the coordinates x ij of the space point X j projected onto the camera (viewpoint) P i . In equation (7), the value n represents the number of points in the three-dimensional space, and the value m represents the number of cameras (captured images).

Figure 2023029441000010
Figure 2023029441000010

各値Pは、それぞれのカメラについて、3次元空間の点の座標をその画像の2次元座標に変換する投影行列であって、下記の式(8)で表される。式(8)は、右辺に示す3次元座標の2行2列の変換行列と、3次元座標から2次元座標への射影変換fから成る。 Each value P is a projection matrix that transforms the coordinates of a point in the three-dimensional space into the two-dimensional coordinates of the image for each camera, and is represented by the following equation (8). Equation (8) consists of a 2-row, 2-column transformation matrix of the three-dimensional coordinates shown on the right side, and a projective transformation f i from the three-dimensional coordinates to the two-dimensional coordinates.

Figure 2023029441000011
Figure 2023029441000011

図17において、カメラに映った座標xijのみが与えられた連立方程式を用いて、値Xと値Pとを算出する。この連立方程式の解法には、線形最小二乗法を用いることができる。 In FIG. 17, the value X j and the value P i are calculated using simultaneous equations given only the coordinates x ij captured by the camera. A linear least-squares method can be used to solve this simultaneous equation.

次のステップS135で、3D情報生成部511は、ステップS134で算出されたカメラ位置を示す3次元座標を最適化する。連立方程式を解いて算出されたカメラの位置および向きは、十分な精度を有していない場合がある。そのため、算出された値を初期値として最適化処理を行うことで、精度を向上させる。 In the next step S135, the 3D information generation unit 511 optimizes the three-dimensional coordinates indicating the camera position calculated in step S134. The position and orientation of the camera calculated by solving the system of equations may not have sufficient accuracy. Therefore, the accuracy is improved by performing the optimization process using the calculated value as the initial value.

画像上探索により取得された対応点座標と、ステップS134で算出された3次元座標および式(8)の投影行列をパラメータとして上述した式(7)により算出される2次元座標xij(再投影座標と呼ばれる)と、の差は、残差と呼ばれる。カメラの位置および向きを算出するために用いたすべてのステレオ撮像画像中の、すべての対応点について、この残差の総和が最小になるように、パラメータを最適化演算によって調整する。これを、バンドル調整と呼ぶ。バンドル調整による全体最適化を行うことで、カメラの位置および向きの精度を向上させることができる。 Two-dimensional coordinates x ij (reprojection (called coordinates) and the difference is called the residual. For all corresponding points in all stereoscopic images used to calculate the position and orientation of the camera, the parameters are adjusted by an optimization operation so that the sum of residual errors is minimized. This is called bundle adjustment. Global optimization by bundle adjustment can improve the accuracy of camera position and orientation.

以上が、通常のSfMにおけるカメラ位置および向き推定のベース処理である。第1の実施形態では、基線長が既知のステレオカメラ6Lおよび6Rを使用しているため、車両1の移動に応じて撮像範囲を重複させて撮像されたステレオ撮像画像における対応点の検出に加えて、ステレオ撮像画像を構成する2枚の撮像画像における対応点の探索が容易である。したがって、空間での3次元座標Xjが実スケール(現実の大きさ)で確定し、移動後のカメラの位置および向きも安定的に算出できる。 The above is the base processing of camera position and orientation estimation in normal SfM. In the first embodiment, the stereo cameras 6L and 6R with known base lengths are used. Therefore, it is easy to search for corresponding points in two captured images that constitute a stereo captured image. Therefore, the three-dimensional coordinate Xj in the space is fixed on the actual scale (actual size), and the position and orientation of the camera after movement can be stably calculated.

<わだち掘れ量>
次に、上述した図13のフローチャートにおけるステップS104におけるわだち掘れ量Dの計測処理について、より詳細に説明する。図18は、第1の実施形態のわだち掘れ量の計測処理の一例を示すフローチャートである。図19は、第1の実施形態の異物の認識結果を示す画像の一例を示す図である。図20は、わだち掘れ量の計測位置を説明するための図である。図21は、わだち掘れ量の計測位置を示す図である。
<Amount of rutting>
Next, the process of measuring the amount of rutting D in step S104 in the flowchart of FIG. 13 described above will be described in more detail. FIG. 18 is a flow chart showing an example of a rutting amount measurement process according to the first embodiment. FIG. 19 is a diagram showing an example of an image showing a foreign substance recognition result according to the first embodiment. FIG. 20 is a diagram for explaining the measurement positions of the amount of rutting. FIG. 21 is a diagram showing measurement positions of the amount of rutting.

ステップS200で、第3状態特性値算出部523の入力部5231は、3D情報取得部520により取得されたデプスマップ(3次元点群情報)と、撮像画像取得部500により取得された各ステレオ撮像画像(以下、図18においては単に撮像画像と称する)とを入力する。 In step S200, the input unit 5231 of the third state characteristic value calculation unit 523 receives the depth map (three-dimensional point group information) acquired by the 3D information acquisition unit 520 and each stereo image acquired by the captured image acquisition unit 500. An image (hereinafter simply referred to as a captured image in FIG. 18) is input.

次のステップS201で、第3状態特性値算出部523の認識部5232は、予め付加された路面の異物情報についての学習データに基づく教師あり学習によって得られた学習モデルである識別器を用いて、入力部5231により入力された撮像画像が示す被写体に異物が含まれるか否かを認識する。このとき、認識部5232は、記憶部530から識別器のデータを読み出す。 In the next step S201, the recognizing unit 5232 of the third state characteristic value calculating unit 523 uses a discriminator, which is a learning model obtained by supervised learning based on learning data about foreign matter information on the road surface added in advance. , recognizes whether or not the object indicated by the captured image input by the input unit 5231 includes a foreign object. At this time, the recognizing unit 5232 reads data of the classifier from the storage unit 530 .

次のステップS202で、認識部5232は、入力部5231により入力されたすべての撮像画像について、識別器を用いた認識の処理が終了したか否かを判定する。最後の撮像画像まで終了した場合(ステップS202:Yes)、ステップS203へ移行し、終了していない場合(ステップS202:No)、ステップS200へ戻る。 In the next step S202, the recognition unit 5232 determines whether or not the recognition processing using the classifier has been completed for all the captured images input by the input unit 5231. FIG. If the final image has been captured (step S202: Yes), the process proceeds to step S203, and if not (step S202: No), the process returns to step S200.

次のステップS203で、認識部5232は、識別器を用いた撮像画像に対する認識結果を、決定部5233へ出力する。ここで、図19に、認識部5232による識別器を用いた撮像画像についての異物の認識結果を示す。図19の撮像画像に対する認識結果を示す識別画像CIは、6ラベル(色なし、マンホール、道路標識、白線、路肩、その他)についての認識結果を示す画像の例である識別画像CIでは、マンホール部901、白線部902、道路標識部903、路肩部904、および、その他905が異物として認識されている。逆に、識別画像CIにおいて、これらの異物として認識された領域以外の領域は異物がないものとして認識される。 In the next step S<b>203 , the recognition unit 5232 outputs the recognition result of the captured image using the classifier to the determination unit 5233 . Here, FIG. 19 shows the recognition result of a foreign substance in the captured image using the discriminator by the recognition unit 5232 . The identification image CI showing the recognition result for the captured image in FIG. 901, a white line portion 902, a road sign portion 903, a road shoulder portion 904, and others 905 are recognized as foreign substances. Conversely, in the identification image CI, regions other than these regions recognized as foreign matter are recognized as having no foreign matter.

次のステップS204で、第3状態特性値算出部523の決定部5233は、入力部5231により入力された撮像画像において、わだち掘れ量を計測するための初期の計測位置を決定する。そして、決定部5233は、決定した初期の各計測位置を車両1の進行方向での中央として、車両1の車幅方向および進行方向にそれぞれ所定の長さで囲われた計測区間(所定範囲)を設定する。 In the next step S204, the determination unit 5233 of the third state characteristic value calculation unit 523 determines an initial measurement position for measuring the amount of rutting in the captured image input by the input unit 5231. FIG. Then, the determining unit 5233 determines a measurement section (predetermined range) surrounded by a predetermined length in each of the vehicle width direction and the traveling direction of the vehicle 1, with each determined initial measurement position as the center in the traveling direction of the vehicle 1. set.

決定部5233は、例えば、進行方向における100[m]の範囲内で5箇所、適切な間隔で初期の計測位置を決定する。例えば、決定部5233は、図20に示すように、進行方向における100[m]の範囲内で、10[m]、30[m]、50[m]、70[m]、および90[m]の5箇所を初期の計測位置として決定する。そして、決定部5233は、図20に示すように、車両1の車幅方向に計測範囲線で規定される所定の計測幅、および、決定した初期の各計測位置を車両1の進行方向での中央として前後に5[m]の10[m]の長さを有する計測区間を設定する。図20では、10[m]、30[m]、50[m]、70[m]、および90[m]の初期の計測位置に、それぞれ計測区間A~Eが対応している。図20では、計測区間Aから計測区間Eへ向かう方向を、車両1の進行方向とし、後述の図21でも同様とする。 The determination unit 5233 determines initial measurement positions at appropriate intervals, for example, five locations within a range of 100 [m] in the traveling direction. For example, as shown in FIG. 20 , the determination unit 5233 determines 10 [m], 30 [m], 50 [m], 70 [m], and 90 [m] within a range of 100 [m] in the traveling direction. ] are determined as initial measurement positions. Then, as shown in FIG. 20, the determination unit 5233 determines the predetermined measurement width defined by the measurement range line in the vehicle width direction of the vehicle 1 and the determined initial measurement positions in the traveling direction of the vehicle 1. A measurement section having a length of 10 [m] and 5 [m] in front and rear is set as the center. In FIG. 20, measurement sections A to E correspond to initial measurement positions of 10 [m], 30 [m], 50 [m], 70 [m], and 90 [m], respectively. In FIG. 20, the direction from the measured section A to the measured section E is the traveling direction of the vehicle 1, and the same applies to FIG. 21 described later.

次のステップS205で、決定部5233は、撮像画像において決定した計測位置に対応する、認識結果を示す画像(識別画像)での位置において異物が避けられているか否かを判定する。異物が避けられている場合(ステップS205:Yes)、ステップS207へ移行し、異物が避けられていない場合(ステップS205:No)、ステップS206へ移行する。異物が避けられていない場合、報知部531は、当該計測位置ではわだち掘れ量Dを計測することができない旨を報知するものとしてもよい。 In the next step S205, the determination unit 5233 determines whether or not a foreign object is avoided at a position in the image (identification image) indicating the recognition result corresponding to the determined measurement position in the captured image. If the foreign matter is avoided (step S205: Yes), the process proceeds to step S207, and if the foreign matter is not avoided (step S205: No), the process proceeds to step S206. If the foreign object is not avoided, the notification unit 531 may notify that the rutting amount D cannot be measured at the measurement position.

ステップS206で、決定部5233は、撮像画像において決定した計測位置に対応する、認識結果を示す画像(識別画像)での位置において異物が存在する場合、計測位置を車両1の進行方向の前側、または後側に所定の長さ(例えば、特定のピクセル分)だけずらして、新たな計測位置として決定する(すなわち、計測位置を変更する)。例えば、決定部5233は、図21(a)に示すように、計測区間で決定した初期の計測位置に異物が存在する場合、図21(b)に示すように、車両1の進行方向の前側(左側)に所定の長さだけずらして、新たな計測位置として決定する。そして、図21(b)では、計測位置をずらした結果、新たな計測位置で異物を避けることができたことを示している。新たな計測位置の決定後、ステップS205へ戻る。 In step S206, if a foreign object exists at a position in the image (identification image) indicating the recognition result corresponding to the determined measurement position in the captured image, the determination unit 5233 sets the measurement position to the front side in the traveling direction of the vehicle 1, Alternatively, it is shifted backward by a predetermined length (for example, by a specific pixel) and determined as a new measurement position (that is, the measurement position is changed). For example, as shown in FIG. 21( a ), when a foreign object exists at the initial measurement position determined in the measurement section, the determination unit 5233 determines the front side of the traveling direction of the vehicle 1 as shown in FIG. 21( b ). (Left) is shifted by a predetermined length and determined as a new measurement position. And FIG.21(b) has shown that the foreign material was able to be avoided by the new measurement position as a result of shifting the measurement position. After determining the new measurement position, the process returns to step S205.

ここで、計測位置をずらす方法としては、例えば、車両1の進行方向の前側へ、異物を避ける位置まで所定の長さだけずらし続ける方法、車両1の進行方向の後側へ、異物を避ける位置まで所定の長さだけずらし続ける方法、または、進行方向の前後に交互に所定の長さだけずらし続ける方法等があるが、いずれの方法を採用するものとしてもよい。このうち、進行方向の前後に交互に所定の長さだけずらし続ける方法の場合、可能な限り初期位置付近において最終的な計測位置を決定することができ、他の計測区間との関係で、それぞれの決定した計測位置のばらつきを抑えることが可能となり、100[m]の区間内での正確な測定が可能となる。なお、この計測位置をずらす方法は、後述する第2の実施形態および第3の実施形態でも同様である。 Here, as a method of shifting the measurement position, for example, a method of continuously shifting a predetermined length forward in the traveling direction of the vehicle 1 to a position where the foreign object is avoided, or a method of continuing to shift the position to the rear in the traveling direction of the vehicle 1 to a position where the foreign object is avoided. There is a method of continuing to shift by a predetermined length up to, or a method of continuing to shift by a predetermined length alternately forward and backward in the direction of travel, but either method may be adopted. Of these methods, in the case of the method of continuing to shift by a predetermined length alternately forward and backward in the traveling direction, the final measurement position can be determined as close to the initial position as possible, and the relation with other measurement sections can be determined respectively. It is possible to suppress variations in the determined measurement positions, and accurate measurement within a 100 [m] section is possible. It should be noted that the method of shifting the measurement position is the same in the second and third embodiments, which will be described later.

なお、ステップS206において、決定部5233により決定された新たな計測位置が計測区間から外れた場合、計測部5234は、当該計測位置ではわだち掘れ量Dの計測を行わないものとすればよい。この場合、報知部531は、当該計測位置ではわだち掘れ量Dの計測を行わない旨を報知するものとしてもよい。 In step S206, if the new measurement position determined by the determination unit 5233 is out of the measurement section, the measurement unit 5234 may not measure the rutting amount D at the measurement position. In this case, the notification unit 531 may notify that the rutting amount D is not measured at the measurement position.

ステップS207で、決定部5233は、撮像画像において決定した計測位置に対応する、認識結果を示す画像(識別画像)での位置において異物が存在しない場合、当該計測位置をわだち掘れ量Dを計測する計測位置として決定する。決定部5233は、このように、設定した各計測区間において、ステップS205~S207の処理により、わだち掘れ量Dを計測するための計測位置を決定する。 In step S207, if there is no foreign object at the position in the image (identification image) indicating the recognition result corresponding to the measurement position determined in the captured image, the determination unit 5233 measures the rutting amount D at the measurement position. Determined as the measurement position. The determination unit 5233 thus determines the measurement position for measuring the rutting amount D in each of the set measurement sections through the processing of steps S205 to S207.

次のステップS208で、第3状態特性値算出部523の計測部5234は、決定部5233により決定された計測位置に対応するデプスマップ(3次元点群情報)の位置で、わだち掘れ量Dを計測する。具体的には、計測部5234は、上述したように、決定されたデプスマップ上の位置で道路幅方向にスキャンすることで、図1(a)および図1(b)に示すような深さDおよびDを取得し、深さDおよびDと、デプスマップをスキャンした断面の情報に基づき、わだち掘れ量Dを計測する。 In the next step S208, the measurement unit 5234 of the third state characteristic value calculation unit 523 calculates the rutting amount D at the position of the depth map (three-dimensional point group information) corresponding to the measurement position determined by the determination unit 5233. measure. Specifically, as described above, the measurement unit 5234 scans in the road width direction at the determined position on the depth map to obtain depths as shown in FIGS. D 1 and D 2 are acquired, and the rutting amount D is measured based on the depth D 1 and D 2 and the cross-sectional information obtained by scanning the depth map.

次のステップS209で、計測部5234は、計測したわだち掘れ量Dを、記憶部530に保存する。 In the next step S<b>209 , the measurement unit 5234 stores the measured rutting amount D in the storage unit 530 .

以上のように、本実施形態に係る情報処理装置50は、予め付加された路面の異物情報についての学習データに基づく教師あり学習(深層学習または機械学習)によって得られた学習モデルである識別器を用いて、撮像画像が示す被写体に異物が含まれるか否かを認識するものとしている。そして、情報処理装置50は、決定した計測位置において異物があると判定した場合、当該計測位置から、所定の長さだけずらした位置を新たな計測位置とし、さらに異物があるか否かを判定するものとしている。これによって、学習モデルである識別器により撮像画像での異物を自動で認識することができ、道路点検におけるわだち掘れ量等の計測処理を正確かつ早く行うことができる。 As described above, the information processing apparatus 50 according to the present embodiment uses a discriminator, which is a learning model obtained by supervised learning (deep learning or machine learning) based on previously added learning data about foreign matter information on a road surface. is used to recognize whether or not a foreign object is included in the subject indicated by the captured image. Then, when determining that there is a foreign object at the determined measurement position, the information processing device 50 sets a position shifted by a predetermined length from the measurement position as a new measurement position, and further determines whether or not there is a foreign object. It is assumed that As a result, the discriminator, which is a learning model, can automatically recognize a foreign object in the captured image, and the process of measuring the amount of rutting or the like in road inspection can be performed accurately and quickly.

なお、図19に示す識別画像CIの例では、異物の例として、わだち掘れ量Dを計測する際に、その塗装厚みにより計測結果を誤らせる原因となる道路標識、およびマンホール等を挙げているが、これらに限定されるものではなく、計測区間に存在する草、ポール、人、路上駐車中の車両等も異物として計測位置から避けるように対応してもよい。 Incidentally, in the example of the identification image CI shown in FIG. 19 , road signs, manholes, and the like, which cause an error in the measurement result due to the coating thickness when measuring the rutting amount D, are cited as examples of the foreign matter. , but not limited to these, grass, poles, people, vehicles parked on the road, and the like existing in the measurement section may also be treated as foreign objects and avoided from the measurement position.

また、記憶部530に記憶された識別器は、路面の異常情報についての新たな付加情報(学習データ)を用いた教師あり学習(深層学習または機械学習)により更新、または新規に生成されるものとしてもよい。ここで、学習を行う主体は、図12に示した機能ブロックには図示していないが、上述の学習を行う学習部として、情報処理装置50に含まれるものとしてもよく、または、外部装置によって学習データを用いた学習により生成された識別器(学習モデル)のデータを、記憶部530に記憶させて用いるものとしてもよい。 Further, the discriminators stored in the storage unit 530 are updated or newly generated by supervised learning (deep learning or machine learning) using new additional information (learning data) about road surface abnormality information. may be Here, although not shown in the functional blocks shown in FIG. 12, the entity that performs learning may be included in the information processing apparatus 50 as a learning unit that performs the above-described learning, or may be performed by an external device. The data of the discriminator (learning model) generated by learning using the learning data may be stored in the storage unit 530 and used.

また、上述したように、第1の実施形態に係る撮像システム10では、情報処理装置50においてトリガを生成し、生成したトリガを各ステレオカメラ6Lおよび6Rにすべてのカメラに分配することで、各ステレオカメラ6Lおよび6Rが同期して撮像を行う構成となっている。このとき、各ステレオカメラ6Lおよび6Rが有するクロック生成器や、情報処理装置50においてトリガを分配するためのトリガ分配部品、情報処理装置50や各ステレオカメラ6Lおよび6Rにおけるトリガ配線長の差異等の影響により、実際に各ステレオカメラ6Lおよび6Rがトリガを取り込んで撮像を実行するタイミングに僅かなズレが発生する可能性がある。この撮像タイミングのズレは、可能な限り抑制することが好ましい。 Further, as described above, in the imaging system 10 according to the first embodiment, the information processing device 50 generates triggers and distributes the generated triggers to all the stereo cameras 6L and 6R. The stereo cameras 6L and 6R are configured to perform imaging in synchronism. At this time, clock generators of the stereo cameras 6L and 6R, trigger distribution components for distributing triggers in the information processing device 50, differences in trigger wiring lengths in the information processing device 50 and the stereo cameras 6L and 6R, etc. Due to the influence, there is a possibility that a slight deviation may occur in the timing at which the stereo cameras 6L and 6R actually capture the trigger and perform imaging. It is preferable to suppress this imaging timing lag as much as possible.

特に基線長が既知であるステレオカメラ6Lおよび6Rの間では、撮像タイミングのズレを極力抑えることが望ましい。例えば、カメラI/F5010aから各ステレオカメラ6Lおよび6Rにトリガ供給の配線を行う際に、トリガの品質確保のための中継器や、静電ノイズ等から保護するためにフォトカプラを経由する場合がある。この場合に、ステレオカメラ6Lおよび6R間でこれら中継器やフォトカプラを共有することが望ましい。 Especially between the stereo cameras 6L and 6R whose baseline lengths are known, it is desirable to minimize the deviation of the imaging timing. For example, when wiring the trigger supply from the camera I/F 5010a to the stereo cameras 6L and 6R, there are cases where a repeater is used to ensure trigger quality, and a photocoupler is used to protect against electrostatic noise. be. In this case, it is desirable to share these repeaters and photocouplers between the stereo cameras 6L and 6R.

[第2の実施形態]
次に、第2の実施形態について、第1の実施形態と相違する点を中心に説明する。上述の第1の実施形態では、撮像画像(デプスマップ)での計測位置において異物が存在するか否かについて、予め付加された路面の異物情報についての学習データに基づく教師あり学習(深層学習または機械学習)によって得られた学習モデルを用いて認識するものとした。本実施形態では、計測位置で得られたわだち掘れ量が異常値であるか否かを判定し、異常値である場合、計測位置を変更する動作について説明する。なお、本実施形態に係る撮像システム10の構成、および情報処理装置のハードウェア構成は、第1の実施形態での構成と同様である。
[Second embodiment]
Next, the second embodiment will be described, focusing on the differences from the first embodiment. In the above-described first embodiment, supervised learning (deep learning or machine learning) is used for recognition. In this embodiment, the operation of determining whether or not the rutting amount obtained at the measurement position is an abnormal value, and changing the measurement position when it is an abnormal value will be described. The configuration of the imaging system 10 and the hardware configuration of the information processing apparatus according to this embodiment are the same as those of the first embodiment.

(情報処理装置の機能ブロックの構成)
図22は、第2の実施形態に係る情報処理装置の機能を説明するための機能ブロックの構成の一例を示す図である図22において、情報処理装置50a(計測装置の一例)は、撮像画像取得部500と、UI部501と、制御部502と、撮像制御部503と、を含む。情報処理装置50aは、さらに、マッチング処理部510と、3D情報生成部511と、3D情報取得部520と、第1状態特性値算出部521と、第2状態特性値算出部522と、第3状態特性値算出部523aと、調書作成部524と、記憶部530aと、報知部531とを含む。なお、撮像画像取得部500、UI部501、制御部502、撮像制御部503、マッチング処理部510、3D情報生成部511、3D情報取得部520、第1状態特性値算出部521、第2状態特性値算出部522および調書作成部524の動作は、第1の実施形態で説明した通りである。
(Configuration of functional blocks of information processing device)
FIG. 22 is a diagram showing an example of the configuration of functional blocks for explaining the functions of the information processing device according to the second embodiment. In FIG. It includes an acquisition unit 500 , a UI unit 501 , a control unit 502 and an imaging control unit 503 . The information processing device 50a further includes a matching processing unit 510, a 3D information generation unit 511, a 3D information acquisition unit 520, a first state characteristic value calculation unit 521, a second state characteristic value calculation unit 522, and a third It includes a state characteristic value calculation unit 523a, a record creation unit 524, a storage unit 530a, and a notification unit 531. Note that the captured image acquisition unit 500, UI unit 501, control unit 502, imaging control unit 503, matching processing unit 510, 3D information generation unit 511, 3D information acquisition unit 520, first state characteristic value calculation unit 521, second state The operations of the characteristic value calculation unit 522 and the report creation unit 524 are as described in the first embodiment.

これら撮像画像取得部500、UI部501、制御部502、撮像制御部503、マッチング処理部510、3D情報生成部511、3D情報取得部520、第1状態特性値算出部521、第2状態特性値算出部522、第3状態特性値算出部523aおよび調書作成部524は、CPU5000上で動作するプログラムにより実現される。これに限らず、これら撮像画像取得部500、UI部501、制御部502、撮像制御部503、マッチング処理部510、3D情報生成部511、3D情報取得部520、第1状態特性値算出部521、第2状態特性値算出部522、第3状態特性値算出部523aおよび調書作成部524の一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。 These captured image acquisition unit 500, UI unit 501, control unit 502, imaging control unit 503, matching processing unit 510, 3D information generation unit 511, 3D information acquisition unit 520, first state characteristic value calculation unit 521, second state characteristic The value calculation unit 522, the third state characteristic value calculation unit 523a, and the record creation unit 524 are implemented by programs operating on the CPU 5000. FIG. The captured image acquisition unit 500, the UI unit 501, the control unit 502, the imaging control unit 503, the matching processing unit 510, the 3D information generation unit 511, the 3D information acquisition unit 520, and the first state characteristic value calculation unit 521 are not limited to these. , the second state characteristic value calculation unit 522, the third state characteristic value calculation unit 523a, and the report creation unit 524 may be partially or entirely configured by hardware circuits that operate in cooperation with each other.

第3状態特性値算出部523aは、3D情報取得部520により取得された3次元点群情報と、撮像画像取得部500により取得された各ステレオ撮像画像とを用いて、MCIを求めるための状態特性値のうち、わだち掘れ量D(物理量の一例)を算出する。第3状態特性値算出部523aは、図22に示すように、入力部5231aと、決定部5233aと、計測部5234aと、出力部5235aと、を有する。 The third state characteristic value calculation unit 523a uses the three-dimensional point cloud information acquired by the 3D information acquisition unit 520 and each stereo captured image acquired by the captured image acquisition unit 500 to determine the state for obtaining MCI. Among the characteristic values, a rutting amount D (an example of a physical quantity) is calculated. As shown in FIG. 22, the third state characteristic value calculator 523a has an input section 5231a, a determination section 5233a, a measurement section 5234a, and an output section 5235a.

入力部5231aは、3D情報取得部520により取得された3次元点群情報と、撮像画像取得部500により取得された各ステレオ撮像画像とを入力する。入力部5231aが入力するステレオ撮像画像は、ステレオカメラ6Lおよび6Rにより撮像されたステレオ撮像画像のうち、いずれの画像であってもよい。 The input unit 5231a inputs the three-dimensional point cloud information acquired by the 3D information acquisition unit 520 and each stereo captured image acquired by the captured image acquisition unit 500 . The stereo captured image input by the input unit 5231a may be any of the stereo captured images captured by the stereo cameras 6L and 6R.

決定部5233aは、3次元点群情報(デプスマップ)上の車両1の進行方向におけるわだち掘れ量Dの計測位置を決定する。 The determination unit 5233a determines the measurement position of the rutting amount D in the traveling direction of the vehicle 1 on the three-dimensional point group information (depth map).

計測部5234aは、決定部5233aにより決定された計測位置でわだち掘れ量Dを計測する。そして、計測部5234aは、わだち掘れ量Dが正常に計測できたか否か、および、計測したわだち掘れ量Dが異常値であるか否かを判定する。 The measurement unit 5234a measures the rutting amount D at the measurement position determined by the determination unit 5233a. Then, the measurement unit 5234a determines whether or not the rutting amount D can be measured normally, and whether or not the measured rutting amount D is an abnormal value.

出力部5235aは、計測部5234aにより計測された、異常値でないわだち掘れ量Dを、調書作成部524へ出力する。 The output unit 5235a outputs the rutting amount D, which is not an abnormal value, measured by the measurement unit 5234a to the report creation unit 524.

記憶部530aは、例えば、計測部5234aにより計測されたわだち掘れ量が異常値であるか否かが判定される際に用いるデータを記憶する。記憶部530aは、図11に示すRAM5002またはストレージ5004により実現される。 The storage unit 530a stores, for example, data used when it is determined whether or not the rutting amount measured by the measuring unit 5234a is an abnormal value. Storage unit 530a is implemented by RAM 5002 or storage 5004 shown in FIG.

報知部531は、ディスプレイ5020に各種情報を表示して報知する。報知部531は、例えば、決定部5233aにより決定された計測位置ではわだち掘れ量が計測できない旨、または、未だ最終的な計測位置が定まっていない旨等を報知する。なお、報知部531は、ディスプレイ5020における表示により報知することに限定されるものではなく、例えば、音声、または警告音等の電子音等の聴覚に働きかける手段によって報知するものとしてもよい。 Notification unit 531 displays and notifies various information on display 5020 . The notification unit 531 notifies, for example, that the rutting amount cannot be measured at the measurement position determined by the determination unit 5233a, or that the final measurement position has not yet been determined. Note that the notification unit 531 is not limited to the notification by the display on the display 5020, and may be notified by, for example, sound or electronic sound such as an alarm sound.

(路面性状値のうちのわだち掘れ量の算出方法)
次に、上述の図13のフローチャートにおけるステップS104におけるわだち掘れ量Dの計測処理について、本実施形態に係る処理をより詳細に説明する。図23は、第2の実施形態のわだち掘れ量の計測処理の一例を示すフローチャートである。
(Calculation method of rutting amount among road surface property values)
Next, the processing according to the present embodiment will be described in more detail with respect to the processing for measuring the amount of rutting D in step S104 in the flowchart of FIG. 13 described above. FIG. 23 is a flow chart showing an example of a rutting amount measurement process according to the second embodiment.

ステップS210で、第3状態特性値算出部523aの入力部5231aは、3D情報取得部520により取得されたデプスマップ(3次元点群情報)と、撮像画像取得部500により取得された各ステレオ撮像画像(以下、図23においては単に撮像画像と称する)とを入力する。そして、第3状態特性値算出部523aの決定部5233aは、入力部5231aにより入力された撮像画像において、わだち掘れ量を計測するための初期の計測位置を決定する。そして、決定部5233aは、決定した初期の各計測位置を車両1の進行方向での中央として、車両1の車幅方向および進行方向にそれぞれ所定の長さで囲われた計測区間を設定する。具体的な計測区間の設定処理については、第1の実施形態で説明した通りである。 In step S210, the input unit 5231a of the third state characteristic value calculation unit 523a receives the depth map (three-dimensional point group information) acquired by the 3D information acquisition unit 520 and each stereo image acquired by the captured image acquisition unit 500. An image (hereinafter simply referred to as a captured image in FIG. 23) is input. Then, the determination unit 5233a of the third state characteristic value calculation unit 523a determines an initial measurement position for measuring the amount of rutting in the captured image input by the input unit 5231a. Then, the determination unit 5233a sets a measurement section surrounded by a predetermined length in each of the vehicle width direction and the traveling direction of the vehicle 1 with each determined initial measurement position as the center in the traveling direction of the vehicle 1 . The specific measurement section setting process is as described in the first embodiment.

次のステップS211で、第3状態特性値算出部523aの計測部5234aは、決定部5233aにより決定された計測位置に対応するデプスマップ(3次元点群情報)の位置で、わだち掘れ量Dを計測する。 In the next step S211, the measurement unit 5234a of the third state characteristic value calculation unit 523a calculates the rutting amount D at the position of the depth map (three-dimensional point group information) corresponding to the measurement position determined by the determination unit 5233a. measure.

次のステップS212で、計測部5234aは、わだち掘れ量Dが正常に計測できたか否かを判定する。例えば、わだち掘れ量Dが正常に計測できない場合とは、図1(a)および図1(b)に示すような、2本の「わだち」の間の部分が検出できず、深さDおよびDを取得できない場合等が挙げられる。わだち掘れ量Dが正常に計測できた場合(ステップS212:Yes)、ステップS213へ移行し、正常に計測できない場合(ステップS212:No)、ステップS214へ移行する。わだち掘れ量Dが正常に計測できない場合、報知部531は、当該計測位置ではわだち掘れ量Dを正常に計測することができない旨を報知するものとしてもよい。 In the next step S212, the measurement unit 5234a determines whether or not the rutting amount D has been measured normally. For example, when the rut amount D cannot be measured normally, the portion between the two "ruts" cannot be detected as shown in FIGS . and D2 cannot be obtained. If the rutting amount D can be measured normally (step S212: Yes), the process proceeds to step S213, and if it cannot be measured normally (step S212: No), the process proceeds to step S214. When the rutting amount D cannot be measured normally, the notification unit 531 may notify that the rutting amount D cannot be measured normally at the measurement position.

ステップS213で、計測部5234aは、わだち掘れ量Dが正常に計測できている場合、さらに、当該わだち掘れ量Dが異常値であるか否かを判定する。例えば、計測部5234aは、計測したわだち掘れ量Dと、過去に計測したわだち掘れ量D、もしくは平均的なわだち掘れ量等との比較、または、計測したわだち掘れ量Dが所定の正常範囲内にあるか否かを判定することによって、異常値であるか否かを判定するものとすればよい。この場合、過去に計測したわだち掘れ量D、平均的なわだち掘れ量、所定の正常範囲等に関するデータは、予め記憶部530aに記憶されているものとすればよい。わだち掘れ量Dが異常値でない場合(ステップS213:Yes)、ステップS215へ移行し、異常値である場合(ステップS213:No)、ステップS214へ移行する。 In step S213, when the rutting amount D can be measured normally, the measuring unit 5234a further determines whether or not the rutting amount D is an abnormal value. For example, the measurement unit 5234a compares the measured rutting amount D with the rutting amount D measured in the past or an average rutting amount, or compares the measured rutting amount D within a predetermined normal range. It is sufficient to determine whether or not the value is an abnormal value by determining whether or not the value is at . In this case, data relating to the rutting amount D measured in the past, the average rutting amount, the predetermined normal range, etc. may be stored in advance in the storage unit 530a. If the rutting amount D is not an abnormal value (step S213: Yes), the process proceeds to step S215, and if it is an abnormal value (step S213: No), the process proceeds to step S214.

ステップS214で、決定部5233aは、計測部5234aにより計測したわだち掘れ量Dが正常に計測できない場合、または異常値である場合、計測位置を車両1の進行方向の前側、または後側に所定の長さ(例えば、特定のピクセル分)だけずらして、新たな計測位置として決定する(すなわち、計測位置を変更する)。新たな計測値の具体的な決定方法は、第1の実施形態で説明した通りである。新たな計測位置の決定後、ステップS211へ戻る。 In step S214, if the rutting amount D measured by the measuring unit 5234a cannot be measured normally or is an abnormal value, the determination unit 5233a moves the measurement position forward or backward in the traveling direction of the vehicle 1 to a predetermined position. It is shifted by a length (for example, by a specific pixel) and determined as a new measurement position (that is, the measurement position is changed). A specific method for determining the new measured value is as described in the first embodiment. After determining the new measurement position, the process returns to step S211.

なお、ステップS214において、決定部5233aにより決定された新たな計測位置が計測区間から外れた場合、計測部5234aは、当該計測位置ではわだち掘れ量Dの計測を行わないものとすればよい。この場合、報知部531は、当該計測位置ではわだち掘れ量Dの計測を行わない旨を報知するものとしてもよい。 In step S214, when the new measurement position determined by the determination unit 5233a is out of the measurement section, the measurement unit 5234a may not measure the rutting amount D at the measurement position. In this case, the notification unit 531 may notify that the rutting amount D is not measured at the measurement position.

ステップS215で、計測部5234aは、計測したわだち掘れ量Dを正常に計測された値として決定する。また、決定部5233aは、計測部5234aによりわだち掘れ量Dが正常に計測された計測位置を、最終的な(正規の)計測位置として決定する。 In step S215, the measuring unit 5234a determines the measured rutting amount D as a normally measured value. Further, the determination unit 5233a determines the measurement position at which the rutting amount D is normally measured by the measurement unit 5234a as the final (regular) measurement position.

次のステップS216で、計測部5234aは、決定したわだち掘れ量Dを、記憶部530aに保存する。 In the next step S216, the measurement unit 5234a stores the determined rutting amount D in the storage unit 530a.

以上のように、本実施形態に係る情報処理装置50aは、決定した計測位置において計測したわだち掘れ量Dが正常に計測できたか否か、および異常値であるか否かを判定するものとしている。そして、情報処理装置50aは、計測したわだち掘れ量Dが正常に計測できていない場合、または、異常値である場合、現在の計測位置から、所定の長さだけずらした位置を新たな計測位置として、改めてわだち掘れ量Dを計測するものとしている。これによって、計測したわだち掘れ量Dが正常に計測されたものか否かを自動で認識することができ、道路点検におけるわだち掘れ量等の計測処理を正確かつ早く行うことができる。 As described above, the information processing apparatus 50a according to the present embodiment determines whether or not the rutting amount D measured at the determined measurement position is normally measured, and whether or not it is an abnormal value. . Then, when the measured rutting amount D is not measured normally or is an abnormal value, the information processing device 50a shifts a position by a predetermined length from the current measurement position to a new measurement position. , the rutting amount D is measured again. As a result, it is possible to automatically recognize whether or not the measured rutting amount D is normally measured, so that the measurement processing of the rutting amount and the like in road inspection can be performed accurately and quickly.

[第3の実施形態]
次に、第3の実施形態について、第1の実施形態と相違する点を中心に説明する。本実施形態では、異常情報データベース(以下、異常情報DBと称する)から取得した異常情報と、決定した計測位置との比較から、当該計測位置に異物があるか否かを判定し、異物がある場合、計測位置を変更する動作について説明する。なお、本実施形態に係る撮像システム10の構成、および情報処理装置のハードウェア構成は、第1の実施形態での構成と同様である。
[Third Embodiment]
Next, the third embodiment will be described, focusing on the points that are different from the first embodiment. In this embodiment, by comparing abnormality information acquired from an abnormality information database (hereinafter referred to as an abnormality information DB) with the determined measurement position, it is determined whether or not there is a foreign object at the measurement position. In this case, the operation of changing the measurement position will be described. The configuration of the imaging system 10 and the hardware configuration of the information processing apparatus according to this embodiment are the same as those of the first embodiment.

(情報処理装置の機能ブロックの構成)
図24は、第3の実施形態に係る情報処理装置の機能を説明するための機能ブロックの構成の一例を示す図である。図24において、情報処理装置50b(計測装置の一例)は、撮像画像取得部500と、UI部501と、制御部502と、撮像制御部503と、を含む。情報処理装置50bは、さらに、マッチング処理部510と、3D情報生成部511と、3D情報取得部520と、第1状態特性値算出部521と、第2状態特性値算出部522と、第3状態特性値算出部523bと、調書作成部524と、記憶部530bと、報知部531とを含む。なお、撮像画像取得部500、UI部501、制御部502、撮像制御部503、マッチング処理部510、3D情報生成部511、3D情報取得部520、第1状態特性値算出部521、第2状態特性値算出部522および調書作成部524の動作は、第1の実施形態で説明した通りである。
(Configuration of functional blocks of information processing device)
FIG. 24 is a diagram showing an example of the configuration of functional blocks for explaining the functions of the information processing apparatus according to the third embodiment. In FIG. 24 , an information processing device 50 b (an example of a measurement device) includes a captured image acquisition section 500 , a UI section 501 , a control section 502 and an imaging control section 503 . The information processing device 50b further includes a matching processing unit 510, a 3D information generation unit 511, a 3D information acquisition unit 520, a first state characteristic value calculation unit 521, a second state characteristic value calculation unit 522, and a third It includes a state characteristic value calculation unit 523b, a report creation unit 524, a storage unit 530b, and a notification unit 531. Note that the captured image acquisition unit 500, UI unit 501, control unit 502, imaging control unit 503, matching processing unit 510, 3D information generation unit 511, 3D information acquisition unit 520, first state characteristic value calculation unit 521, second state The operations of the characteristic value calculation unit 522 and the report creation unit 524 are as described in the first embodiment.

これら撮像画像取得部500、UI部501、制御部502、撮像制御部503、マッチング処理部510、3D情報生成部511、3D情報取得部520、第1状態特性値算出部521、第2状態特性値算出部522、第3状態特性値算出部523bおよび調書作成部524は、CPU5000上で動作するプログラムにより実現される。これに限らず、これら撮像画像取得部500、UI部501、制御部502、撮像制御部503、マッチング処理部510、3D情報生成部511、3D情報取得部520、第1状態特性値算出部521、第2状態特性値算出部522、第3状態特性値算出部523bおよび調書作成部524の一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。 These captured image acquisition unit 500, UI unit 501, control unit 502, imaging control unit 503, matching processing unit 510, 3D information generation unit 511, 3D information acquisition unit 520, first state characteristic value calculation unit 521, second state characteristic The value calculator 522, the third state characteristic value calculator 523b, and the report preparation unit 524 are implemented by programs operating on the CPU 5000. FIG. The captured image acquisition unit 500, the UI unit 501, the control unit 502, the imaging control unit 503, the matching processing unit 510, the 3D information generation unit 511, the 3D information acquisition unit 520, and the first state characteristic value calculation unit 521 are not limited to these. , the second state characteristic value calculation unit 522, the third state characteristic value calculation unit 523b, and the report creation unit 524 may be partially or entirely configured by hardware circuits that operate in cooperation with each other.

第3状態特性値算出部523bは、3D情報取得部520により取得された3次元点群情報と、撮像画像取得部500により取得された各ステレオ撮像画像とを用いて、MCIを求めるための状態特性値のうち、わだち掘れ量D(物理量の一例)を算出する。第3状態特性値算出部523bは、図24に示すように、入力部5231bと、決定部5233bと、計測部5234bと、出力部5235bと、を有する。 The third state characteristic value calculation unit 523b uses the three-dimensional point cloud information acquired by the 3D information acquisition unit 520 and each stereo captured image acquired by the captured image acquisition unit 500 to determine the state for obtaining MCI. Among the characteristic values, a rutting amount D (an example of a physical quantity) is calculated. As shown in FIG. 24, the third state characteristic value calculator 523b has an input section 5231b, a determination section 5233b, a measurement section 5234b, and an output section 5235b.

入力部5231bは、3D情報取得部520により取得された3次元点群情報と、撮像画像取得部500により取得された各ステレオ撮像画像とを入力する。入力部5231bが入力するステレオ撮像画像は、ステレオカメラ6Lおよび6Rにより撮像されたステレオ撮像画像のうち、いずれの画像であってもよい。 The input unit 5231b inputs the three-dimensional point cloud information acquired by the 3D information acquisition unit 520 and each stereo captured image acquired by the captured image acquisition unit 500 . The stereo captured image input by the input unit 5231b may be any of the stereo captured images captured by the stereo cameras 6L and 6R.

決定部5233bは、3次元点群情報(デプスマップ)上の車両1の進行方向におけるわだち掘れ量Dの計測位置を決定する。 The determination unit 5233b determines the measurement position of the rutting amount D in the traveling direction of the vehicle 1 on the three-dimensional point group information (depth map).

計測部5234bは、決定部5233bにより決定された計測位置でわだち掘れ量Dを計測する。 The measurement unit 5234b measures the rutting amount D at the measurement position determined by the determination unit 5233b.

出力部5235bは、計測部5234bにより計測されたわだち掘れ量Dを、調書作成部524へ出力する。 The output unit 5235b outputs the rutting amount D measured by the measurement unit 5234b to the report creation unit 524. FIG.

記憶部530bは、過去のデータや目視等で異物位置を特定したデータである異物情報を蓄積している異物情報DBを記憶する。記憶部530bは、図11に示すRAM5002またはストレージ5004により実現される。 The storage unit 530b stores a foreign substance information DB that stores past data and foreign substance information, which is data in which foreign substance positions are specified by visual inspection or the like. Storage unit 530b is implemented by RAM 5002 or storage 5004 shown in FIG.

報知部531は、ディスプレイ5020に各種情報を表示して報知する。報知部531は、例えば、決定部5233bにより決定された計測位置ではわだち掘れ量が計測できない旨、または、未だ最終的な計測位置が定まっていない旨等を報知する。なお、報知部531は、ディスプレイ5020における表示により報知することに限定されるものではなく、例えば、音声、または警告音等の電子音等の聴覚に働きかける手段によって報知するものとしてもよい。 Notification unit 531 displays and notifies various information on display 5020 . The notification unit 531 notifies, for example, that the rutting amount cannot be measured at the measurement position determined by the determination unit 5233b, or that the final measurement position has not yet been determined. Note that the notification unit 531 is not limited to the notification by the display on the display 5020, and may be notified by, for example, sound or electronic sound such as an alarm sound.

(路面性状値のうちのわだち掘れ量の算出方法)
次に、上述の図13のフローチャートにおけるステップS104におけるわだち掘れ量Dの計測処理について、本実施形態に係る処理をより詳細に説明する。図25は、第3の実施形態のわだち掘れ量の計測処理の一例を示すフローチャートである。
(Calculation method of rutting amount among road surface property values)
Next, the processing according to the present embodiment will be described in more detail with respect to the processing for measuring the amount of rutting D in step S104 in the flowchart of FIG. 13 described above. FIG. 25 is a flow chart showing an example of a rutting amount measurement process according to the third embodiment.

ステップS220で、第3状態特性値算出部523bの入力部5231bは、3D情報取得部520により取得されたデプスマップ(3次元点群情報)と、撮像画像取得部500により取得された各ステレオ撮像画像(以下、図25においては単に撮像画像と称する)とを入力する。そして、第3状態特性値算出部523bの決定部5233bは、入力部5231bにより入力された撮像画像において、わだち掘れ量を計測するための初期の計測位置を決定する。そして、決定部5233bは、決定した初期の各計測位置を車両1の進行方向での中央として、車両1の車幅方向および進行方向にそれぞれ所定の長さで囲われた計測区間を設定する。具体的な計測区間の設定処理については、第1の実施形態で説明した通りである。 In step S220, the input unit 5231b of the third state characteristic value calculation unit 523b receives the depth map (three-dimensional point group information) acquired by the 3D information acquisition unit 520 and each stereo image acquired by the captured image acquisition unit 500. An image (hereinafter simply referred to as a captured image in FIG. 25) is input. Then, the determination unit 5233b of the third state characteristic value calculation unit 523b determines an initial measurement position for measuring the amount of rutting in the captured image input by the input unit 5231b. Then, the determination unit 5233b sets a measurement section surrounded by a predetermined length in each of the vehicle width direction and the traveling direction of the vehicle 1 with each determined initial measurement position as the center in the traveling direction of the vehicle 1 . The specific measurement section setting process is as described in the first embodiment.

次のステップS221で、入力部5231bは、さらに、記憶部530bに記憶された異常情報DBから、入力した撮像画像に対応する異常情報を抽出して入力する。 In the next step S221, the input unit 5231b further extracts and inputs abnormality information corresponding to the input captured image from the abnormality information DB stored in the storage unit 530b.

次のステップS222で、決定部5233bは、入力部5231bにより入力された撮像画像と、異常情報DBから抽出した異常情報との比較結果から、決定した計測位置において異物が避けられているか否か判定する。異物が避けられている場合(ステップS222:Yes)、ステップS224へ移行し、異物が避けられていない場合(ステップS222:No)、ステップS223へ移行する。異物が避けられていない場合、報知部531は、当該計測位置ではわだち掘れ量Dを計測することができない旨を報知するものとしてもよい。 In the next step S222, the determination unit 5233b determines whether or not the foreign object is avoided at the determined measurement position based on the result of comparison between the captured image input by the input unit 5231b and the abnormality information extracted from the abnormality information DB. do. If the foreign matter is avoided (step S222: Yes), the process proceeds to step S224, and if the foreign matter is not avoided (step S222: No), the process proceeds to step S223. If the foreign object is not avoided, the notification unit 531 may notify that the rutting amount D cannot be measured at the measurement position.

ステップS223で、決定部5233bは、撮像画像において決定した計測位置において異物が存在する場合、計測位置を車両1の進行方向の前側、または後側に所定の長さ(例えば、特定のピクセル分)だけずらして、新たな計測位置として決定する(すなわち、計測位置を変更する)。新たな計測値の具体的な決定方法は、第1の実施形態で説明した通りである。新たな計測位置の決定後、ステップS222へ戻る。 In step S223, if a foreign object exists at the determined measurement position in the captured image, the determination unit 5233b moves the measurement position forward or backward in the traveling direction of the vehicle 1 by a predetermined length (for example, a specific pixel length). , and determined as a new measurement position (that is, change the measurement position). A specific method for determining the new measured value is as described in the first embodiment. After determining the new measurement position, the process returns to step S222.

なお、ステップS223において、決定部5233bにより決定された新たな計測位置が計測区間から外れた場合、計測部5234bは、当該計測位置ではわだち掘れ量Dの計測を行わないものとすればよい。この場合、報知部531は、当該計測位置ではわだち掘れ量Dの計測を行わない旨を報知するものとしてもよい。 In step S223, when the new measurement position determined by the determination unit 5233b is out of the measurement section, the measurement unit 5234b may not measure the rutting amount D at the measurement position. In this case, the notification unit 531 may notify that the rutting amount D is not measured at the measurement position.

ステップS224で、決定部5233bは、撮像画像において決定した計測位置において異物が存在しない場合、当該計測位置をわだち掘れ量Dを計測する正規の計測位置として決定する。決定部5233bは、このように、設定した各計測区間において、ステップS222~S224の処理により、わだち掘れ量Dを計測するための計測位置を決定する。 In step S224, the determination unit 5233b determines the measurement position as a normal measurement position for measuring the rutting amount D if no foreign matter exists at the measurement position determined in the captured image. The determination unit 5233b thus determines the measurement position for measuring the rutting amount D in each of the set measurement sections through the processing of steps S222 to S224.

次のステップS225で、第3状態特性値算出部523bの計測部5234bは、決定部5233bにより決定された計測位置に対応するデプスマップ(3次元点群情報)の位置で、わだち掘れ量Dを計測する。具体的には、計測部5234bは、上述したように、決定されたデプスマップ上の位置で道路幅方向にスキャンすることで、図1(a)および図1(b)に示すような深さDおよびDを取得し、深さDおよびDと、デプスマップをスキャンした断面の情報に基づき、わだち掘れ量Dを計測する。 In the next step S225, the measurement unit 5234b of the third state characteristic value calculation unit 523b calculates the rutting amount D at the position of the depth map (three-dimensional point group information) corresponding to the measurement position determined by the determination unit 5233b. measure. Specifically, as described above, the measurement unit 5234b scans in the road width direction at the determined position on the depth map to obtain depths as shown in FIGS. D 1 and D 2 are acquired, and the rutting amount D is measured based on the depth D 1 and D 2 and the cross-sectional information obtained by scanning the depth map.

次のステップS226で、計測部5234bは、計測したわだち掘れ量Dを、記憶部530bに保存する。 In the next step S226, the measurement unit 5234b saves the measured rutting amount D in the storage unit 530b.

以上のように、本実施形態に係る情報処理装置50bは、過去のデータや目視等で異物位置を特定したデータである異物情報を予め蓄積した異物情報DBから、撮像画像に対応する異常情報を抽出し、当該異常情報に基づいて、決定した計測位置において異物が避けられているか否か判定する。そして、情報処理装置50bは、決定した計測位置において異物があると判定した場合、当該計測位置から、所定の長さだけずらした位置を新たな計測位置とし、さらに異物があるか否かを判定するものとしている。これによって、異常情報DBに蓄積された異常情報により撮像画像での異物を自動で認識することができ、道路点検におけるわだち掘れ量等の計測処理を正確かつ早く行うことができる。 As described above, the information processing apparatus 50b according to the present embodiment extracts abnormality information corresponding to a captured image from a foreign substance information DB that stores in advance foreign substance information, which is past data or data in which the position of a foreign substance is identified by visual observation or the like. Based on the abnormality information, it is determined whether or not the foreign object is avoided at the determined measurement position. When the information processing device 50b determines that there is a foreign object at the determined measurement position, the information processing device 50b sets a position shifted by a predetermined length from the measurement position as a new measurement position, and further determines whether or not there is a foreign object. It is assumed that As a result, it is possible to automatically recognize a foreign object in a captured image based on the abnormality information accumulated in the abnormality information DB, and to accurately and quickly perform measurement processing such as the amount of rutting in a road inspection.

1 車両
2 取付部
3 取付部材
4 路面
5 PC
6、6C、6L、6R ステレオカメラ
6CL、6CR 撮像レンズ
6LL、6LR 撮像レンズ
6RL、6RR 撮像レンズ
10 撮像システム
50、50a、50b 情報処理装置
60C、60L、60R ステレオ撮像範囲
60L’、60R’ ステレオ撮像範囲
60CL、60CR 撮像範囲
60LL、60LR 撮像範囲
60LL’、60LR’ 撮像範囲
60RL、60RR 撮像範囲
61 領域
1001、1002 撮像部
1011、1012 撮像制御部
102 速度取得部
103 生成部
400a、400b カメラ
401 レンズ
402 撮像素子
403 ターゲット物体
500 撮像画像取得部
501 UI部
502 制御部
503 撮像制御部
510 マッチング処理部
511 3D情報生成部
520 3D情報取得部
521 第1状態特性値算出部
522 第2状態特性値算出部
523、523a、523b 第3状態特性値算出部
524 調書作成部
530、530a、530b 記憶部
531 報知部
600L、600R 撮像光学系
601L、601R 撮像素子
602L、602R 駆動部
603L、603R 信号処理部
604 出力部
901 マンホール部
902 白線部
903 道路標識部
904 路肩部
905 その他
5000 CPU
5001 ROM
5002 RAM
5003 グラフィクスI/F
5004 ストレージ
5005 入力デバイス
5006 データI/F
5007 通信I/F
5010 カメラI/F
5020 ディスプレイ
5021 速度取得部
5231、5231a、5231b 入力部
5232 認識部
5233、5233a、5233b 決定部
5234、5234a、5234b 計測部
5235、5235a、5235b 出力部
CI 識別画像
REFERENCE SIGNS LIST 1 vehicle 2 mounting portion 3 mounting member 4 road surface 5 PC
6, 6C, 6L , 6R Stereo camera 6CL, 6C R imaging lens 6L L , 6LR imaging lens 6RL , 6R R imaging lens 10 Imaging system 50, 50a, 50b Information processing device 60C, 60L, 60R Stereo imaging range 60L ', 60R ' Stereo imaging range 60CL , 60C R imaging range 60LL , 60LR R imaging range 60LL ', 60LR ' imaging range 60RL, 60RR R imaging range 61 area 1001 , 1002 imaging unit 1011 , 101 2 imaging control unit 102 velocity acquisition unit 103 generation unit 400a, 400b camera 401 lens 402 imaging element 403 target object 500 captured image acquisition unit 501 UI unit 502 control unit 503 imaging control unit 510 matching processing unit 511 3D information generation unit 520 3D information Acquisition unit 521 First state characteristic value calculation unit 522 Second state characteristic value calculation unit 523, 523a, 523b Third state characteristic value calculation unit 524 Record creation unit 530, 530a, 530b Storage unit 531 Notification unit 600L , 600R Imaging Optical system 601L , 601R Imaging device 602L , 602R Driving unit 603L , 603R Signal processing unit 604 Output unit 901 Manhole unit 902 White line unit 903 Road sign unit 904 Road shoulder 905 Others 5000 CPU
5001 ROMs
5002 RAMs
5003 Graphics I/F
5004 storage 5005 input device 5006 data I/F
5007 Communication I/F
5010 Camera I/F
5020 display 5021 speed acquisition unit 5231, 5231a, 5231b input unit 5232 recognition unit 5233, 5233a, 5233b determination unit 5234, 5234a, 5234b measurement unit 5235, 5235a, 5235b output unit CI identification image

特開2015-197804号公報JP 2015-197804 A

上述した課題を解決し、目的を達成するために、本発明は、撮像部により撮像された撮像画像に基づいて被計測物に対する所定の物理量を計測する計測位置を決定する決定部と、前記決定部により決定された前記計測位置で前記被計測物に対する前記物理量を計測する計測部と、を備え、前記決定部は、前記計測部により計測された前記物理量が異常でない場合、該物理量が計測された前記計測位置を正規の計測位置として決定することを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a determination unit that determines a measurement position for measuring a predetermined physical quantity with respect to an object to be measured based on an image captured by an imaging unit; a measurement unit that measures the physical quantity for the object to be measured at the measurement position determined by the determination unit, and the determination unit measures the physical quantity measured by the measurement unit if the physical quantity is not abnormal. and determining the measurement position as a regular measurement position .

Claims (6)

被計測物の状態に関する学習データを用いた学習により得られた識別器を用いて、撮像画像における前記被計測物の状態を認識する認識部と、
前記認識部による前記被計測物の状態の認識結果に基づいて、該被計測物に対する所定の物理量を計測する計測位置を決定する決定部と、
前記決定部により決定された前記計測位置で前記被計測物に対する前記物理量を計測する計測部と、
を備え、
前記計測部は、前記決定部により決定された前記計測位置が所定範囲を外れた場合、前記被計測物に対する前記物理量を計測しない計測装置。
a recognition unit that recognizes the state of the object to be measured in the captured image using a classifier obtained by learning using learning data related to the state of the object to be measured;
a determination unit that determines a measurement position for measuring a predetermined physical quantity with respect to the object to be measured based on the recognition result of the state of the object to be measured by the recognition unit;
a measurement unit that measures the physical quantity with respect to the object to be measured at the measurement position determined by the determination unit;
with
The measurement device, wherein the measurement unit does not measure the physical quantity of the object to be measured when the measurement position determined by the determination unit is out of a predetermined range.
前記決定部は、前記認識部による前記被計測物の状態の認識結果に基づいて、決定した前記計測位置に該被計測物とは異なる異物が存在することを判定した場合、前記異物を避けた位置を新たな計測位置に決定する請求項1に記載の計測装置。 The determination unit avoids the foreign object when determining that a foreign object different from the object to be measured exists at the determined measurement position based on the recognition result of the state of the object to be measured by the recognition unit. 2. The measuring device according to claim 1, wherein the position is determined to a new measuring position. 前記認識部は、新たな付加情報に基づく前記学習により得られた前記識別器を用いて、前記撮像画像における前記被計測物の状態を認識する請求項1または2に記載の計測装置。 The measuring device according to claim 1 or 2, wherein the recognition unit recognizes the state of the object in the captured image using the classifier obtained by the learning based on new additional information. 前記決定部により決定された前記計測位置が所定範囲を外れた場合に、前記計測部が前記被計測物に対する前記物理量を計測しない旨を報知する報知部を、さらに備えた請求項1~3のいずれか一項に記載の計測装置。 4. The method according to any one of claims 1 to 3, further comprising a notification unit that notifies that the measurement unit does not measure the physical quantity of the object to be measured when the measurement position determined by the determination unit is out of a predetermined range. A measuring device according to any one of the preceding paragraphs. 被計測物を撮像して撮像画像を得る撮像部と、
前記被計測物の状態に関する学習データを用いた学習により得られた識別器を用いて、前記撮像画像における前記被計測物の状態を認識する認識部と、
前記認識部による前記被計測物の状態の認識結果に基づいて、該被計測物に対する所定の物理量を計測する計測位置を決定する決定部と、
前記決定部により決定された前記計測位置で前記被計測物に対する前記物理量を計測する計測部と、
を有し、
前記計測部は、前記決定部により決定された前記計測位置が所定範囲を外れた場合、前記被計測物に対する前記物理量を計測しない計測システム。
an imaging unit that captures an image of an object to be measured to obtain a captured image;
a recognition unit that recognizes the state of the object to be measured in the captured image using a classifier obtained by learning using learning data on the state of the object to be measured;
a determination unit that determines a measurement position for measuring a predetermined physical quantity with respect to the object to be measured based on the recognition result of the state of the object to be measured by the recognition unit;
a measurement unit that measures the physical quantity with respect to the object to be measured at the measurement position determined by the determination unit;
has
The measurement system, wherein the measurement unit does not measure the physical quantity of the object to be measured when the measurement position determined by the determination unit is out of a predetermined range.
請求項1~4のいずれか一項に記載の計測装置と、
前記撮像画像を撮像する撮像部と、
を備え、
前記撮像部は、複数のステレオカメラである車両。
A measuring device according to any one of claims 1 to 4;
an imaging unit that captures the captured image;
with
The vehicle, wherein the imaging unit is a plurality of stereo cameras.
JP2022206374A 2018-09-14 2022-12-23 Measuring device, measuring system, and vehicle Pending JP2023029441A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022206374A JP2023029441A (en) 2018-09-14 2022-12-23 Measuring device, measuring system, and vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018172946A JP7206726B2 (en) 2018-09-14 2018-09-14 Measuring devices, measuring systems and vehicles
JP2022206374A JP2023029441A (en) 2018-09-14 2022-12-23 Measuring device, measuring system, and vehicle

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018172946A Division JP7206726B2 (en) 2018-09-14 2018-09-14 Measuring devices, measuring systems and vehicles

Publications (1)

Publication Number Publication Date
JP2023029441A true JP2023029441A (en) 2023-03-03

Family

ID=69901237

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018172946A Active JP7206726B2 (en) 2018-09-14 2018-09-14 Measuring devices, measuring systems and vehicles
JP2022206374A Pending JP2023029441A (en) 2018-09-14 2022-12-23 Measuring device, measuring system, and vehicle

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018172946A Active JP7206726B2 (en) 2018-09-14 2018-09-14 Measuring devices, measuring systems and vehicles

Country Status (1)

Country Link
JP (2) JP7206726B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276019A1 (en) * 2021-06-30 2023-01-05 日本電気株式会社 Road surface management device, road surface management method, and recording medium
WO2024062602A1 (en) * 2022-09-22 2024-03-28 日本電気株式会社 Three-dimensionalization system, three-dimensionalization method, and recording medium for recording program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6699230B2 (en) * 2016-02-25 2020-05-27 住友電気工業株式会社 Road abnormality warning system and in-vehicle device
JP6713368B2 (en) * 2016-07-29 2020-06-24 エヌ・ティ・ティ・コムウェア株式会社 Information processing device, display device, information processing method, and program
DE102016220127B4 (en) * 2016-10-14 2020-09-03 Carl Zeiss Industrielle Messtechnik Gmbh Method for operating a coordinate measuring machine

Also Published As

Publication number Publication date
JP2020046228A (en) 2020-03-26
JP7206726B2 (en) 2023-01-18

Similar Documents

Publication Publication Date Title
JP6551623B1 (en) Information processing apparatus, moving body, image processing system, and information processing method
CN108692719B (en) Object detection device
JP2023029441A (en) Measuring device, measuring system, and vehicle
JP4363295B2 (en) Plane estimation method using stereo images
JP2009041972A (en) Image processing device and method therefor
US11671574B2 (en) Information processing apparatus, image capture apparatus, image processing system, and method of processing a plurality of captured images of a traveling surface where a moveable apparatus travels
US10776937B2 (en) Image processing apparatus and image processing method for setting measuring point to calculate three-dimensional coordinates of subject image with high reliability
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP2008082870A (en) Image processing program, and road surface state measuring system using this
JP7163601B2 (en) Information processing device and information processing method
JP6524529B2 (en) Building limit judging device
EP3324359B1 (en) Image processing device and image processing method
JP6460700B2 (en) Method for diagnosing whether there is a defect on the inner wall of the tunnel and a program for diagnosing the presence of a defect on the inner wall of the tunnel
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP2010091426A (en) Distance measuring device and program
EP3690800A2 (en) Information processing apparatus, information processing method, and program
KR101090082B1 (en) System and method for automatic measuring of the stair dimensions using a single camera and a laser
JP2006012178A (en) Method and system for detecting parking vehicle
JP7119462B2 (en) Imaging system, imaging method, moving body equipped with imaging system, imaging device, and moving body equipped with imaging device
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
JP2009092551A (en) Method, apparatus and system for measuring obstacle
KR20160063039A (en) Method of Road Recognition using 3D Data
JP2005148784A (en) Detector for traveling lane on road surface
JP7114963B2 (en) Imaging system, imaging device, imaging method, and mobile object equipped with imaging system
KR100586815B1 (en) System and method for measuring position of threedimensions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326