JP6965536B2 - Information processing system, evaluation system, information processing method and program - Google Patents

Information processing system, evaluation system, information processing method and program Download PDF

Info

Publication number
JP6965536B2
JP6965536B2 JP2017050795A JP2017050795A JP6965536B2 JP 6965536 B2 JP6965536 B2 JP 6965536B2 JP 2017050795 A JP2017050795 A JP 2017050795A JP 2017050795 A JP2017050795 A JP 2017050795A JP 6965536 B2 JP6965536 B2 JP 6965536B2
Authority
JP
Japan
Prior art keywords
image
evaluation
distance
vehicle
mileage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017050795A
Other languages
Japanese (ja)
Other versions
JP2018154979A (en
Inventor
泉 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017050795A priority Critical patent/JP6965536B2/en
Publication of JP2018154979A publication Critical patent/JP2018154979A/en
Application granted granted Critical
Publication of JP6965536B2 publication Critical patent/JP6965536B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Road Repair (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、評価対象の評価区間を推定する情報処理システム、評価システム、情報処理方法および該評価区間を推定する処理をコンピュータに実行させるためのプログラムに関する。 The present invention relates to an information processing system for estimating an evaluation interval to be evaluated, an evaluation system, an information processing method, and a program for causing a computer to execute a process for estimating the evaluation interval.

道路、線路、トンネル等は、車両の通行、気候、外部からの圧力等によって損傷し、その損傷が拡大すると、重大な事故等の発生に繋がることから、その評価を行うために定期的な点検が必要とされている。道路路面については、代表的な損傷点検項目として、ひび割れ、わだち掘れ(道路の幅方向の凹凸)、平坦性(車両進行方向の凹凸)等がある。 Roads, railroad tracks, tunnels, etc. are damaged by vehicle traffic, climate, external pressure, etc., and if the damage spreads, it will lead to serious accidents, etc., so regular inspections will be conducted to evaluate it. Is needed. As for the road surface, typical damage inspection items include cracks, rutting (unevenness in the width direction of the road), flatness (unevenness in the vehicle traveling direction), and the like.

これらの項目を点検する際、ひび割れについては路面の撮影画像の取得、わだち掘れ、平坦性については三次元形状計測データの取得が必要とされている。このことから、ひび割れ撮影用のカメラ機材と、対象をレーザ照射し、カメラ撮影することで三次元形状計測を行う光切断計測機材と、車両の前後2箇所以上に設置した路面高さセンサとを備えたシステムが一般的に利用されている。 When inspecting these items, it is necessary to acquire captured images of the road surface for cracks, rutting, and three-dimensional shape measurement data for flatness. For this reason, camera equipment for crack photography, optical cutting measurement equipment that measures the three-dimensional shape by irradiating the target with a laser and taking a camera image, and road surface height sensors installed at two or more locations in front of and behind the vehicle are used. The equipped system is generally used.

道路の点検は年に一度、特定の路線を対象に行われ、上記のシステムを利用した撮影、計測に先立ち、事前調査が実施される。事前調査では、評価対象(路面)の評価区間(点検区間)の開始位置および終了位置、市町村の境界、車線構成、道路構造物(橋梁、トンネル、高架橋)等の位置、ルートの確認を行う。点検区間の開始位置および終了位置には、撮影画像から確認することができるように、路面にマーキングを施すことが必要とされている。この路面のマーキングは、検査コストを増加させ、検査の工数を増加させる。 Road inspections are conducted once a year for specific routes, and a preliminary survey is conducted prior to photography and measurement using the above system. In the preliminary survey, the start position and end position of the evaluation section (inspection section) of the evaluation target (road surface), the boundary of the municipality, the lane composition, the position of the road structure (bridge, tunnel, viaduct), etc., and the route are confirmed. It is necessary to mark the road surface at the start position and the end position of the inspection section so that they can be confirmed from the photographed image. This road surface marking increases the inspection cost and the inspection man-hours.

そこで、取得した位置データと加速度データに基づいて路面性状を示す路面指標を算出し、その路面指標と類似する事前測定路面指標に対応する車線を車両が走行した車線として特定する技術が提案されている(特許文献1参照)。 Therefore, a technique has been proposed in which a road surface index indicating road surface properties is calculated based on the acquired position data and acceleration data, and a lane corresponding to a pre-measured road surface index similar to the road surface index is specified as the lane in which the vehicle has traveled. (See Patent Document 1).

しかしながら、上記の技術では、路面の状態や経時的変化等によって、対応する区間であるにも関わらず、類似する事前測定路面指標と判断されない場合があるという問題があった。 However, the above technique has a problem that it may not be determined as a similar pre-measured road surface index even though it is a corresponding section, depending on the condition of the road surface, changes over time, and the like.

本発明は、上記の問題に鑑みてなされたものであり、評価対象の状態が異なる場合や、評価対象に経時的変化が生じた場合でも、高い精度で評価区間を推定することができるシステム、方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and is a system capable of estimating an evaluation interval with high accuracy even when the state of the evaluation target is different or the evaluation target changes with time. The purpose is to provide methods and programs.

上述した課題を解決するために、発明の一実施形態では、評価対象の評価区間を推定する情報処理システムであって、
評価対象上を走行する車両に搭載された撮像装置により撮像された評価対象を含む画像を取得する画像取得手段と、
画像取得手段により取得された画像を参照し、指定された特徴を有する基準物体を検知する検知手段と、
検知手段により基準物体が検知されたことを受けて、車両に搭載された距離計測装置に対して該車両の走行距離の計測を指示する指示手段と、
距離計測装置により計測された走行距離を取得する距離取得手段と、
評価区間の一端と他端とにつき距離取得手段により取得された各走行距離がそれぞれ指定された距離に達した位置に基づき、評価区間の一端と他端の位置を推定する位置推定手段とを含む、情報処理システムを提供する。
In order to solve the above-mentioned problems, in one embodiment of the invention, it is an information processing system that estimates an evaluation interval to be evaluated.
An image acquisition means for acquiring an image including an evaluation target imaged by an image pickup device mounted on a vehicle traveling on the evaluation target, and an image acquisition means.
A detection means that refers to an image acquired by an image acquisition means and detects a reference object having a specified feature, and a detection means.
In response to the detection of the reference object by the detection means, the instruction means for instructing the distance measuring device mounted on the vehicle to measure the mileage of the vehicle, and
A distance acquisition means for acquiring the mileage measured by the distance measuring device, and
Includes a position estimation means that estimates the positions of one end and the other end of the evaluation section based on the position where each mileage acquired by the distance acquisition means has reached the specified distance for one end and the other end of the evaluation section. , Provides an information processing system.

本発明によれば、評価対象の状態が異なる場合や、評価対象に経時的変化が生じた場合でも、高い精度で評価区間を推定することが可能となる。 According to the present invention, it is possible to estimate the evaluation interval with high accuracy even when the state of the evaluation target is different or the evaluation target changes with time.

評価システムの構成例を示した図。The figure which showed the configuration example of the evaluation system. 評価システムにより評価対象としての路面を点検しているところを例示した図。The figure which exemplifies the place where the road surface as an evaluation target is inspected by an evaluation system. 評価システムが備える路面を撮像する路面カメラのハードウェア構成の一例を示した図。The figure which showed an example of the hardware composition of the road surface camera which image | images the road surface provided in the evaluation system. 評価システムが備える情報処理装置のハードウェア構成の一例を示した図。The figure which showed an example of the hardware composition of the information processing apparatus provided in the evaluation system. 情報処理装置の機能構成の一例を示したブロック図。The block diagram which showed an example of the functional structure of an information processing apparatus. 評価システムにより実行される路面の点検処理の一例を示したフローチャート。A flowchart showing an example of a road surface inspection process executed by the evaluation system. 評価システムにより実行される点検区間の開始点を設定する処理の一例を示したフローチャート。A flowchart showing an example of the process of setting the start point of the inspection section executed by the evaluation system. 点検区間の開始点を特定する際の路面上の車両の位置と、周辺カメラで撮像される画像とを例示した図。The figure which illustrated the position of the vehicle on the road surface at the time of specifying the start point of an inspection section, and the image taken by the peripheral camera. 評価システムにより実行される点検区間の終了点を設定する処理の一例を示したフローチャート。A flowchart showing an example of the process of setting the end point of the inspection section executed by the evaluation system. 点検区間の終了点を特定する際の路面上の車両の位置と、周辺カメラで撮像される画像とを例示した図。The figure which illustrated the position of the vehicle on the road surface at the time of specifying the end point of an inspection section, and the image taken by a peripheral camera. 概要情報について説明する図。The figure explaining the summary information. 基準被写体の一例を示した図。The figure which showed an example of a reference subject. 基準被写体の別の例を示した図。The figure which showed another example of a reference subject. 基準被写体から離れた開始点または終了点を推定する処理を説明する図。The figure explaining the process of estimating the start point or the end point away from a reference subject. 区間長を推定する処理の一例を示したフローチャート。The flowchart which showed an example of the process of estimating the section length. 位置推定データおよび路面性状計測データの良否判定処理の一例を示したフローチャート。The flowchart which showed an example of the quality judgment process of the position estimation data and the road surface property measurement data.

図1は、評価システムの構成例を示した図である。評価システムは、評価対象の評価区間を推定し、推定した評価区間の表面性状を評価するシステムである。評価対象は、路面、線路、トンネルの内面等の一方に長く延びる構造物であれば、いかなる構造物であってもよい。この評価システムは、このような一方に長く延びる構造物を一定の区間に区切ってその表面性状を評価する場合に利用される。以下、評価対象を路面とし、評価区間を路面の点検区間とし、評価システムをその路面の点検を行い、損傷の有無やその程度を評価する路面点検システムとして説明する。 FIG. 1 is a diagram showing a configuration example of an evaluation system. The evaluation system is a system that estimates the evaluation section to be evaluated and evaluates the surface texture of the estimated evaluation section. The evaluation target may be any structure as long as it extends long to one of the road surface, the railroad track, the inner surface of the tunnel, and the like. This evaluation system is used to evaluate the surface properties of such a structure that extends long on one side by dividing it into certain sections. Hereinafter, the evaluation target will be the road surface, the evaluation section will be the road surface inspection section, and the evaluation system will be described as a road surface inspection system that inspects the road surface and evaluates the presence or absence of damage and its degree.

路面点検システムは、車両10に搭載され、路面11を撮像する撮像装置としての路面カメラ12と、路面11を含む路面11の周辺を撮像する撮像装置としての周辺カメラ13と、各種の情報を格納し、処理を行う情報処理装置14とを備えている。また、路面点検システムは、車両10に搭載され、車両10の位置を計測する位置計測装置としてのGPS(Global Positioning System)センサ15と、車両10の走行距離を計測する距離計測装置16とをさらに備えている。 The road surface inspection system stores various information such as a road surface camera 12 mounted on the vehicle 10 as an image pickup device for imaging the road surface 11, a peripheral camera 13 as an image pickup device for imaging the periphery of the road surface 11 including the road surface 11. It also includes an information processing device 14 that performs processing. Further, the road surface inspection system is mounted on the vehicle 10 and further includes a GPS (Global Positioning System) sensor 15 as a position measuring device for measuring the position of the vehicle 10 and a distance measuring device 16 for measuring the mileage of the vehicle 10. I have.

路面11は、多数の車両の通行等により、ひび割れやわだち掘れが発生し、平坦性が損なわれる。これらは、路面11の損傷として損傷点検項目に入れられている。わだち掘れは、道路の幅方向の凹凸である。平坦性が損なわれるとは、車両の進行方向の凹凸が発生したことを意味する。 The flatness of the road surface 11 is impaired due to cracks and rutting caused by the passage of a large number of vehicles. These are included in the damage inspection items as damage to the road surface 11. Rutting is unevenness in the width direction of the road. The impaired flatness means that unevenness occurs in the traveling direction of the vehicle.

路面カメラ12は、図1および図2(a)に示すように車両10の後方側に設置され、図2(b)に示すように2以上のカメラが斜め下方の路面11に向くように一列に並べて配置されたステレオカメラである。路面カメラ12は、図2(a)、(b)に示すように各カメラで評価対象の路面11の所定範囲17を撮像する。ステレオカメラは、例えば左右に並べた2つのカメラの視差情報を利用し、評価対象の路面11に形成された凹凸等の奥行き情報を得るためのカメラである。 The road surface cameras 12 are installed on the rear side of the vehicle 10 as shown in FIGS. 1 and 2 (a), and are arranged in a row so that two or more cameras face the road surface 11 diagonally downward as shown in FIG. 2 (b). It is a stereo camera arranged side by side. As shown in FIGS. 2A and 2B, the road surface camera 12 captures a predetermined range 17 of the road surface 11 to be evaluated by each camera. The stereo camera is a camera for obtaining depth information such as unevenness formed on the road surface 11 to be evaluated by using, for example, the parallax information of two cameras arranged side by side.

視差は、対象とする点(対象点)が見える方向で異なることをいい、視差を利用することで、三角測量の原理により対象点との距離を求めることができる。この距離がどの対象点でも一定であれば、路面11に凹凸がなく、一定でない場合、凹凸が存在することを検知することができる。また、その距離に応じて、どの程度の高さの山や深さの溝が存在するかを検出することができる。 Parallax means that the target point (target point) differs in the visible direction, and by using the parallax, the distance to the target point can be obtained by the principle of triangulation. If this distance is constant at any target point, the road surface 11 has no unevenness, and if it is not constant, it can be detected that the road surface 11 has unevenness. In addition, it is possible to detect the height of a mountain or a groove of a depth according to the distance.

この路面点検システムでは、図2に示すように、車両10で路面11上を走行しながら、路面カメラ12で路面11の所定範囲17を、進行方向にその一部が重なるように撮像していく。そして、撮像した各画像から路面11の凹凸等の表面性状を計測し、計測した表面性状に基づき、路面11の損傷の有無、損傷の度合いを評価する。なお、撮像した画像から上記の表面性状を計測し、その表面性状に基づき、損傷の有無を検出し、損傷の度合いを評価する処理は、情報処理装置14により行うことができる。 In this road surface inspection system, as shown in FIG. 2, while the vehicle 10 is traveling on the road surface 11, the road surface camera 12 takes an image of a predetermined range 17 of the road surface 11 so that a part thereof overlaps in the traveling direction. .. Then, the surface texture such as the unevenness of the road surface 11 is measured from each of the captured images, and the presence or absence of damage to the road surface 11 and the degree of damage are evaluated based on the measured surface texture. The information processing apparatus 14 can perform a process of measuring the above surface texture from the captured image, detecting the presence or absence of damage based on the surface texture, and evaluating the degree of damage.

図1および図2に示す例では、路面11の表面性状を計測するための情報を取得するために、路面カメラ12を用いているが、これに限られるものではない。例えば、レーザ照射装置とカメラから構成される光切断計測機材や、距離認識が可能な単眼カメラ等であってもよい。 In the examples shown in FIGS. 1 and 2, the road surface camera 12 is used to acquire information for measuring the surface texture of the road surface 11, but the present invention is not limited to this. For example, a light cutting measuring device composed of a laser irradiation device and a camera, a monocular camera capable of recognizing a distance, or the like may be used.

周辺カメラ13は、車両10に設置され、車両10の前方の路面11およびその周辺の、予め指定された特徴を有する基準物体を撮像する。基準物体は、点検区間の一端および他端をそれぞれ推定する際の基準となる物体であればいかなる物体であってもよい。基準物体としては、例えば信号機、標識、縁石、停止線、横断歩道線、マンホール、交差点中央瀬、郵便ポスト等を挙げることができる。 The peripheral camera 13 is installed in the vehicle 10 and images a reference object having a predetermined feature in the road surface 11 in front of the vehicle 10 and its surroundings. The reference object may be any object as long as it is a reference object when estimating one end and the other end of the inspection section, respectively. Examples of the reference object include a traffic light, a sign, a curb, a stop line, a pedestrian crossing line, a manhole, an intersection center, a mailbox, and the like.

情報処理装置14は、タブレット端末やノートPC等とされ、上記の表面性状の計測、評価のほか、周辺カメラ13で撮像された画像に基づき、路面11の点検区間の一端および他端を推定する処理を実行する。 The information processing device 14 is a tablet terminal, a notebook PC, or the like, and estimates one end and the other end of the inspection section of the road surface 11 based on the above-mentioned measurement and evaluation of the surface texture and the image captured by the peripheral camera 13. Execute the process.

GPSセンサ15は、GPS受信機を備え、複数のGPS衛星から発信された信号を受信し、その信号の到達時間の時間差から、GPS受信機の位置を緯度、経度の情報として測定する。したがって、GPSセンサ15でも車両10の現在位置を測定することができる。しかしながら、GPSセンサ15は、GPS受信機の位置を数mの精度で測定するため、測定誤差が数m程度あることを意味し、その精度が低い。 The GPS sensor 15 includes a GPS receiver, receives signals transmitted from a plurality of GPS satellites, and measures the position of the GPS receiver as latitude and longitude information from the time difference in arrival time of the signals. Therefore, the GPS sensor 15 can also measure the current position of the vehicle 10. However, since the GPS sensor 15 measures the position of the GPS receiver with an accuracy of several meters, it means that there is a measurement error of about several meters, and the accuracy is low.

距離計測装置16は、走行距離メータ等とされ、例えば車両10の車輪の円周の長さの情報を保持し、回転数を計測することで、走行距離を算出する。走行距離は、車輪の円周の長さと計測した回転数との積により算出することができる。これは一例であるため、その他の方法により距離を計測してもよい。 The distance measuring device 16 is a mileage meter or the like, and calculates the mileage by, for example, holding information on the circumference of the wheels of the vehicle 10 and measuring the number of rotations. The mileage can be calculated by multiplying the circumference of the wheel by the measured number of revolutions. Since this is an example, the distance may be measured by other methods.

路面点検システムは、周辺カメラ13と情報処理装置14とGPSセンサ15と距離計測装置16とを用いて、路面11の点検区間の一端および他端を、GPSセンサ15の位置測定精度より高い精度で推定する。一端は、点検区間の開始位置(開始点)であり、他端は、点検区間の終了位置(終了点)である。 The road surface inspection system uses a peripheral camera 13, an information processing device 14, a GPS sensor 15, and a distance measuring device 16 to cover one end and the other end of the inspection section of the road surface 11 with higher accuracy than the position measurement accuracy of the GPS sensor 15. presume. One end is the start position (start point) of the inspection section, and the other end is the end position (end point) of the inspection section.

車両10は、前方のエンジン部分と、それに連続する客室部分の2つの箱(ボックス)からなる2ボックス型、または1つの箱からなる1ボックス型の車体形式のものすることができる。そして、路面カメラ12および周辺カメラ13は、その車両10の屋根(ルーフ)上に取り付けることができ、車両10の後方の路面11および車両10の前方の周辺を撮像することができる。周辺カメラ13は、車内のフロントガラス付近に取り付けられてもよい。情報処理装置14は、車両10の室内に配置され、GPSセンサ15、距離計測装置は、車両10の室内、室外のいずれに設置されていてもよい。 The vehicle 10 may be of a two-box type consisting of two boxes (boxes) consisting of a front engine portion and a passenger compartment portion continuous thereto, or a one-box type vehicle body type consisting of one box. Then, the road surface camera 12 and the peripheral camera 13 can be mounted on the roof of the vehicle 10, and can image the road surface 11 behind the vehicle 10 and the periphery in front of the vehicle 10. The peripheral camera 13 may be mounted near the windshield in the vehicle. The information processing device 14 may be installed inside the vehicle 10, and the GPS sensor 15 and the distance measuring device may be installed inside or outside the vehicle 10.

図1に示す例では、表面性状の計測、評価、点検区間の推定を、情報処理装置14という1つの機器で行っているが、これに限られるものではなく、2以上の機器で各処理を実行する構成であってもよい。その際、各機器は、ケーブル等の有線で接続されていてもよいし、無線で接続されていてもよい。また、各機器は、機器同士が直接接続されていてもよいし、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続されていてもよい。 In the example shown in FIG. 1, the surface texture is measured, evaluated, and the inspection section is estimated by one device called the information processing device 14, but the present invention is not limited to this, and each process is performed by two or more devices. It may be a configuration to be executed. At that time, each device may be connected by a wire such as a cable, or may be connected wirelessly. In addition, each device may be directly connected to each other, or may be connected via a network such as LAN (Local Area Network) or WAN (Wide Area Network).

ネットワークを介して接続される場合、そのネットワークは、1つのネットワークであってもよいし、ルータやプロキシサーバ等の中継装置により接続された2以上からなるネットワークであってもよい。このため、1つの機器から構成される情報処理装置14や、2以上の機器から構成されるシステムのいずれをも含む情報処理システムを、上記処理を実行するシステムとして採用することができる。なお、情報処理システムは、1以上の機器から構成されるものに限らず、集積回路等の電子部品(モジュール)で構成されるものであってもよい。 When connected via a network, the network may be one network or a network consisting of two or more connected by a relay device such as a router or a proxy server. Therefore, an information processing system including any of an information processing device 14 composed of one device and a system composed of two or more devices can be adopted as a system for executing the above processing. The information processing system is not limited to one composed of one or more devices, and may be composed of electronic components (modules) such as integrated circuits.

路面カメラ12は、車両10の後方側に、進行方向とは反対の方向に向けて設置されることに限られるものではなく、車両10の前方側に、進行方向に向けて設置されてもよい。周辺カメラ13も、路面カメラ12と同様、車両10の前方側に、進行方向に向けて設置されることに限らず、車両10の後方側に、進行方向とは反対の方向に向けて設置されていてもよい。 The road surface camera 12 is not limited to being installed on the rear side of the vehicle 10 in the direction opposite to the traveling direction, and may be installed on the front side of the vehicle 10 in the traveling direction. .. Like the road surface camera 12, the peripheral camera 13 is not limited to being installed on the front side of the vehicle 10 in the direction of travel, but is also installed on the rear side of the vehicle 10 in the direction opposite to the direction of travel. You may be.

図3を参照して、路面カメラ12のハードウェア構成について説明する。路面カメラ12は、2以上の撮像手段から構成されている。図3に示す例では、路面カメラ12は、左右2つのカメラ20、21から構成され、カメラ20は、レンズ22、画像センサ23、センサコントローラ24を備え、カメラ21も、レンズ25、画像センサ26、センサコントローラ27を備えている。なお、レンズ22とレンズ25、画像センサ23と画像センサ26、センサコントローラ24とセンサコントローラ27は同一のものである。 The hardware configuration of the road surface camera 12 will be described with reference to FIG. The road surface camera 12 is composed of two or more imaging means. In the example shown in FIG. 3, the road surface camera 12 is composed of two left and right cameras 20 and 21, the camera 20 includes a lens 22, an image sensor 23, and a sensor controller 24, and the camera 21 also has a lens 25 and an image sensor 26. , The sensor controller 27 is provided. The lens 22 and the lens 25, the image sensor 23 and the image sensor 26, and the sensor controller 24 and the sensor controller 27 are the same.

左右の2つのカメラ20、21は、平行に組み付けられて構成されており、路面11を2つのカメラ20、21で同時に撮像する。撮像して得られた2つの画像上の物体は、各画像上での位置が異なるため、その位置の違い(視差)から、その物体の位置や立体的な形状を求めることができる。その方法については良く知られているため、ここでは詳述しない。 The two left and right cameras 20 and 21 are configured to be assembled in parallel, and the road surface 11 is simultaneously imaged by the two cameras 20 and 21. Since the positions on the two images obtained by imaging are different from each other, the position and the three-dimensional shape of the object can be obtained from the difference in the positions (parallax). The method is well known and will not be described in detail here.

画像センサ23は、レンズ22を通して入射された光を電気信号に変換し、画像データとして出力する。画像センサ23としては、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)で構成されるイメージセンサを用いることができる。 The image sensor 23 converts the light incident through the lens 22 into an electric signal and outputs it as image data. As the image sensor 23, for example, an image sensor composed of a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) can be used.

センサコントローラ24は、画像センサ23の露光制御、画像の読み出し制御、外部機器との通信および画像データの送信制御等を行う。露光とは、レンズ22を通した入射された光に画像センサ23をさらすことをいう。露光制御は、例えばシャッターの開閉により露光時間を制御することにより実現することができる。センサコントローラ24は、外部機器としての情報処理装置14と通信を行い、情報処理装置14に対して撮像した画像の画像データを送信する。 The sensor controller 24 performs exposure control of the image sensor 23, image readout control, communication with an external device, image data transmission control, and the like. Exposure refers to exposing the image sensor 23 to incident light that has passed through the lens 22. The exposure control can be realized by controlling the exposure time by opening and closing the shutter, for example. The sensor controller 24 communicates with the information processing device 14 as an external device, and transmits image data of the captured image to the information processing device 14.

周辺カメラ13は、路面カメラ12を構成する左右2つのカメラ20、21のうちの1つのカメラと同様の構成を採用することができる。また、周辺カメラ13は、路面カメラ12と同様、左右2つのカメラから構成されるステレオカメラとすることもできる。なお、路面カメラ12および周辺カメラ13は、1台ずつに限られるものではなく、複数台であってもよい。 The peripheral camera 13 can adopt the same configuration as one of the two left and right cameras 20 and 21 constituting the road surface camera 12. Further, the peripheral camera 13 may be a stereo camera composed of two left and right cameras, like the road surface camera 12. The road surface camera 12 and the peripheral cameras 13 are not limited to one each, and may be a plurality of cameras.

図4を参照して、情報処理装置14のハードウェア構成について説明する。情報処理装置14は、ハードウェアとして、CPU(Central Processing Unit)30、ROM(Read Only Memory)31、RAM(Random Access Memory)32、HDD(Hard Disk Drive)33、通信I/F34、入出力I/F35、表示装置36、入力装置37を備える。これらは、バス38に接続され、バス38を介して互いに情報のやりとりを行う。 The hardware configuration of the information processing apparatus 14 will be described with reference to FIG. The information processing device 14 has a CPU (Central Processing Unit) 30, a ROM (Read Only Memory) 31, a RAM (Random Access Memory) 32, an HDD (Hard Disk Drive) 33, a communication I / F 34, and an input / output I as hardware. It includes / F35, a display device 36, and an input device 37. These are connected to the bus 38 and exchange information with each other via the bus 38.

CPU30は、情報処理装置14全体を制御し、路面11の損傷の有無の検出や損傷の評価等の処理を実行する。また、CPU30は、周辺カメラ13で撮像された画像に基づき、路面11の点検区間の一端および他端を推定する処理を実行する。ROM31は、情報処理装置14を起動させるためのブートプログラムや、HDD33や通信I/F34等を制御するためのファームウェア等を格納する。RAM32は、CPU30に対して作業領域を提供する。 The CPU 30 controls the entire information processing device 14, and executes processing such as detecting the presence or absence of damage to the road surface 11 and evaluating the damage. Further, the CPU 30 executes a process of estimating one end and the other end of the inspection section of the road surface 11 based on the image captured by the peripheral camera 13. The ROM 31 stores a boot program for activating the information processing device 14, firmware for controlling the HDD 33, the communication I / F 34, and the like. The RAM 32 provides a work area for the CPU 30.

HDD33は、OS(Operating System)、受信した画像、上記の処理を実行させるためのプログラム等を格納する。通信I/F34は、路面カメラ12、周辺カメラ13、GPSセンサ15、距離計測装置16と接続し、それらの機器との間で通信を行う。 The HDD 33 stores an OS (Operating System), a received image, a program for executing the above processing, and the like. The communication I / F 34 connects to the road surface camera 12, the peripheral camera 13, the GPS sensor 15, and the distance measuring device 16, and communicates with these devices.

入出力I/F35は、表示装置36および入力装置37をバス38に接続し、CPU30で処理した情報を表示装置36に表示させ、入力装置37から入力された情報をCPU30に対して提供し、情報の入出力を制御する。表示装置36は、液晶ディスプレイ等の情報を表示する機器で、入力装置37は、マウスやキーボード等の情報の入力を受け付けるための機器である。 The input / output I / F 35 connects the display device 36 and the input device 37 to the bus 38, displays the information processed by the CPU 30 on the display device 36, and provides the information input from the input device 37 to the CPU 30. Controls the input and output of information. The display device 36 is a device for displaying information such as a liquid crystal display, and the input device 37 is a device for receiving input of information such as a mouse and a keyboard.

情報処理装置14は、これらのほか、外付けHDD等の外部記憶装置と接続し、外部記憶装置への情報の格納や読み出しを制御するための外部記憶I/F、音声入力装置、音声出力装置、カメラ等の撮像装置等を備えることもできる。 In addition to these, the information processing device 14 is connected to an external storage device such as an external HDD, and has an external storage I / F, a voice input device, and a voice output device for controlling storage and reading of information in the external storage device. , An image pickup device such as a camera may be provided.

図5を参照して、情報処理装置14の機能構成について説明する。情報処理装置14は、CPU30がHDD33に格納されたプログラムを実行することにより1以上の機能部を生成し、それらの機能部を備えることができる。 The functional configuration of the information processing apparatus 14 will be described with reference to FIG. The information processing device 14 can generate one or more functional units by the CPU 30 executing a program stored in the HDD 33, and can include those functional units.

情報処理装置14は、機能部として、路面カメラ12により同時に撮像された2つの画像を取得する路面画像取得部40と、路面画像取得部40により取得された2つの画像を画像データとして格納する格納部41を備える。また、情報処理装置14は、格納部41により格納された2つの画像を用いて、路面カメラ12から路面11の各位置までの距離を計算して表面性状を計測し、そのデータを路面性状計測データとして出力する計測部42を備える。さらに、情報処理装置14は、計測部42が計測した表面性状、すなわち計測部42が出力した路面性状計測データに基づき、路面11の損傷の有無を検出し、損傷の度合いを評価した評価結果を出力する評価部43とを備える。この例では、計測部42が出力した路面性状計測データは一旦、格納部41に格納され、評価部43が格納部41から路面性状計測データを取得する構成とされている。 As a functional unit, the information processing device 14 stores a road surface image acquisition unit 40 that acquires two images simultaneously captured by the road surface camera 12 and two images acquired by the road surface image acquisition unit 40 as image data. A unit 41 is provided. Further, the information processing device 14 calculates the distance from the road surface camera 12 to each position of the road surface 11 by using the two images stored by the storage unit 41 to measure the surface texture, and measures the surface texture of the data. A measurement unit 42 that outputs data is provided. Further, the information processing device 14 detects the presence or absence of damage to the road surface 11 based on the surface property measured by the measuring unit 42, that is, the road surface property measurement data output by the measuring unit 42, and evaluates the degree of damage. It includes an evaluation unit 43 for output. In this example, the road surface property measurement data output by the measurement unit 42 is temporarily stored in the storage unit 41, and the evaluation unit 43 acquires the road surface property measurement data from the storage unit 41.

情報処理装置14は、点検区間を推定する機能を有し、そのための機能部として、周辺画像取得部44と、物体検知部45と、指示部46と、距離取得部47と、位置推定部48とを備える。周辺画像取得部44は、周辺カメラ13により撮像された画像を、周辺カメラ13から取得する。 The information processing device 14 has a function of estimating an inspection section, and as functional units for that purpose, a peripheral image acquisition unit 44, an object detection unit 45, an instruction unit 46, a distance acquisition unit 47, and a position estimation unit 48. And. The peripheral image acquisition unit 44 acquires an image captured by the peripheral camera 13 from the peripheral camera 13.

物体検知部45は、周辺画像取得部44により取得された画像を参照し、指定された特徴を有する基準物体、すなわち点検区間の開始点または終了点を推定する際の基準となる基準被写体を検知する。物体検知部45は、周辺画像取得部44により取得された画像を順に参照し、その画像内に基準被写体が存在するかどうかを確認する。 The object detection unit 45 refers to the image acquired by the peripheral image acquisition unit 44, and detects a reference object having the specified characteristics, that is, a reference subject that serves as a reference when estimating the start point or end point of the inspection section. do. The object detection unit 45 sequentially refers to the images acquired by the peripheral image acquisition unit 44, and confirms whether or not a reference subject exists in the image.

指示部46は、物体検知部45により基準被写体が検知されたことを受けて、車両10に搭載された距離計測装置16に対して車両10の走行距離の計測開始を指示する。距離計測装置16は、この指示を受けて、車両10の走行距離の計測を開始する。距離取得部47は、指示部46から走行距離の計測を開始した旨の通知を受け、距離計測装置16から計測された走行距離を取得する。距離取得部47は、上記の通知を受けた後、一定の時間間隔で走行距離を取得することができる。 In response to the detection of the reference subject by the object detection unit 45, the instruction unit 46 instructs the distance measuring device 16 mounted on the vehicle 10 to start measuring the mileage of the vehicle 10. In response to this instruction, the distance measuring device 16 starts measuring the mileage of the vehicle 10. The distance acquisition unit 47 receives a notification from the instruction unit 46 that the measurement of the mileage has started, and acquires the mileage measured from the distance measuring device 16. After receiving the above notification, the distance acquisition unit 47 can acquire the mileage at regular time intervals.

位置推定部48は、距離取得部47により取得された走行距離が予め計測され指定された距離に達したかどうかを確認し、その距離に達した場合、その距離に達した位置に基づき、点検区間の開始点を推定する。位置推定部48は、終了点についても同様にして推定する。 The position estimation unit 48 confirms whether or not the mileage acquired by the distance acquisition unit 47 has reached a predetermined distance measured in advance, and if the distance is reached, an inspection is performed based on the position where the distance is reached. Estimate the starting point of the interval. The position estimation unit 48 estimates the end point in the same manner.

なお、物体検知部45により最初の基準被写体を検知し、走行距離を計測して推定した位置が開始点である。その開始点を通過し、次に物体検知部45により基準被写体を検知し、走行距離を計測して推定した位置が終了点である。開始点および終了点の推定は、指定された距離に達した位置を開始点および終了点として推定してもよいし、指定された距離に達した位置から予め決められた距離だけ離れた位置を開始点および終了点として推定してもよい。また、開始点および終了点のいずれか一方を、指定された距離に達した位置とし、他方を指定された距離に達した位置から予め決められた距離だけ離れた位置としてもよい。 The starting point is a position estimated by detecting the first reference subject by the object detection unit 45 and measuring the mileage. The end point is a position that has passed the start point, then the object detection unit 45 detects the reference subject, and the mileage is measured and estimated. The start point and end point may be estimated by estimating the position where the specified distance is reached as the start point and the end point, or the position separated from the position where the specified distance is reached by a predetermined distance. It may be estimated as a start point and an end point. Further, either one of the start point and the end point may be set as a position where the designated distance is reached, and the other may be set as a position separated by a predetermined distance from the position where the designated distance is reached.

情報処理装置14は、GPSセンサ15から車両10の位置情報を取得する位置情報取得部49を備えることができる。また、情報処理装置14は、位置情報取得部49により取得された位置情報に基づき、車両10の進行方向の、点検区間の開始点または終了点の手前または奥側に存在する目標物体としての交差点を検知する交差点検知部50を備えることができる。目標物体としては、基準被写体を特定するための目標となる物体であればいかなる物体であってもよく、交差点のほか、T字路等を挙げることができる。以下、目標物体を交差点として説明する。 The information processing device 14 can include a position information acquisition unit 49 that acquires the position information of the vehicle 10 from the GPS sensor 15. Further, the information processing device 14 is an intersection as a target object existing in front of or behind the start point or end point of the inspection section in the traveling direction of the vehicle 10 based on the position information acquired by the position information acquisition unit 49. The intersection detection unit 50 for detecting the above can be provided. The target object may be any object as long as it is a target object for specifying the reference subject, and examples thereof include an intersection and a T-junction. Hereinafter, the target object will be described as an intersection.

交差点検知部50は、GPSセンサ15と交差点との距離が一定距離内となった場合に、交差点を検知する。交差点検知部50は、交差点を検知する際、交差点の位置情報を用いる。交差点の位置情報は、例えば交差点の中心位置のGPS位置情報とし、予め設定しておくことができる。交差点の中心位置は、一方に延びる路面の中心線(センターライン)と、それに対して垂直に延びる路面のセンターラインとの交点となる位置である。 The intersection detection unit 50 detects an intersection when the distance between the GPS sensor 15 and the intersection is within a certain distance. The intersection detection unit 50 uses the position information of the intersection when detecting the intersection. The position information of the intersection can be set in advance, for example, as GPS position information of the center position of the intersection. The center position of the intersection is a position that is an intersection of the center line of the road surface extending in one direction (center line) and the center line of the road surface extending perpendicular to the center line.

指示部46は、交差点検知部50により交差点を検知したことを受けて、周辺カメラ13に対して撮像を開始するように指示することができる。そして、指示部46は、周辺画像取得部44に対して周辺カメラ13による撮像を開始した旨を通知することができる。 Upon receiving the detection of the intersection by the intersection detection unit 50, the instruction unit 46 can instruct the peripheral camera 13 to start imaging. Then, the instruction unit 46 can notify the peripheral image acquisition unit 44 that the peripheral camera 13 has started imaging.

図6を参照して、路面点検システムにより実行される路面の点検処理について説明する。点検処理は、ステップ600から開始し、ステップ605で、点検区間の概要情報を設定する。概要情報は、点検区間の始終点に関するGPS位置情報である。GPS位置情報は、精度数m〜10mといった精度の低い情報である。GPS位置情報は、点検区間の開始点、終了点の手前に存在する交差点の位置情報である。 The road surface inspection process executed by the road surface inspection system will be described with reference to FIG. The inspection process starts from step 600, and in step 605, the outline information of the inspection section is set. The summary information is GPS position information regarding the start and end points of the inspection section. GPS position information is low-precision information with an accuracy of several meters to 10 m. The GPS position information is the position information of the intersection existing before the start point and the end point of the inspection section.

ステップ610では、点検区間の開始点を設定する。開始点は、基準被写体の付近にある交差点を検知した後、基準被写体を検知したところで、距離計測を開始し、指定された距離に達した位置に基づき推定される。その詳細については後述する。 In step 610, the start point of the inspection section is set. The starting point is estimated based on the position where the distance measurement is started when the reference subject is detected after detecting the intersection near the reference subject and the distance is reached. The details will be described later.

ステップ615で、点検区間の開始点を設定した位置から走行撮影を行い、撮像した路面画像の記録を開始する。路面画像は、車両10の進行方向に対して画像の一部が重なり合うタイミングで撮像が繰り返し行われる。路面カメラ12は、路面11の幅方向全体を撮像可能なように複数台設置されるため、幅方向に対しても画像の一部が重なり合うように複数台が同時に撮像を行う。このようにして路面画像の撮像を行い、ステップ620で、点検区間の終了点を設定する。終了点は、開始点と同様の方法により推定される。これも、詳細については後述する。 In step 615, traveling photography is performed from the position where the start point of the inspection section is set, and recording of the captured road surface image is started. The road surface image is repeatedly imaged at a timing when a part of the image overlaps with respect to the traveling direction of the vehicle 10. Since a plurality of road surface cameras 12 are installed so as to be able to take an image of the entire width direction of the road surface 11, a plurality of road surface cameras 12 simultaneously take an image so that a part of the image overlaps with the width direction. The road surface image is captured in this way, and the end point of the inspection section is set in step 620. The end point is estimated by the same method as the start point. This will also be described in detail later.

ステップ625で、点検区間の開始点から終了点まで計測した走行距離を、区間長として設定する。ステップ630では、設定した区間長について、最長100mの細分区間に区切り、ひび割れ率、わだち掘れ量、平坦性、MCI(Maintenance Control Index)を求め、それらを付記した帳票を区間評価結果として出力する。MCIは、舗装の維持管理指数で、ひび割れ率、わだち掘れ量、平坦性の3つの要因を組み合わせて舗装の破損程度を点数で表したものである。各細分区間について区間評価結果を出力したところで、ステップ635で処理を終了する。 In step 625, the mileage measured from the start point to the end point of the inspection section is set as the section length. In step 630, the set section length is divided into subdivided sections with a maximum length of 100 m, the crack rate, rutting amount, flatness, and MCI (Maintenance Control Index) are obtained, and the form with these is output as the section evaluation result. MCI is a pavement maintenance index that expresses the degree of pavement damage by combining three factors: crack rate, rutting amount, and flatness. When the section evaluation result is output for each subdivision section, the process ends in step 635.

区間評価結果は、上記の他、ひび割れの本数、部分的に補修した部分(パッチ)の面積、へこみ量を含むことができる。このようにして、区間位置設定を自動で行うことができ、一定期間経過後の再評価走行においても、概ね同一位置での評価と路面性状の時間経過に伴うモニタリングが可能となる。このモニタリングを実現するために、情報処理装置14は、表示部をさらに備えることができ、表示部に評価結果や路面カメラ12により撮像された画像等を表示させることができる。 In addition to the above, the section evaluation result can include the number of cracks, the area of the partially repaired part (patch), and the amount of dents. In this way, the section position can be set automatically, and even in the re-evaluation run after a certain period of time, it is possible to evaluate at almost the same position and monitor the road surface condition with the passage of time. In order to realize this monitoring, the information processing device 14 can be further provided with a display unit, and the display unit can display the evaluation result, the image captured by the road surface camera 12, and the like.

図7および図8を参照して、図6に示すステップ610の点検区間の開始点を設定する処理について説明する。図7に示すステップ700から開始し、この段階では、GPSセンサ15が既に車両10の位置の計測を開始しており、路面カメラ12、周辺カメラ13および距離計測装置16は、動作待機中(待機状態)である。 The process of setting the start point of the inspection section of step 610 shown in FIG. 6 will be described with reference to FIGS. 7 and 8. Starting from step 700 shown in FIG. 7, at this stage, the GPS sensor 15 has already started measuring the position of the vehicle 10, and the road surface camera 12, the peripheral cameras 13, and the distance measuring device 16 are waiting for operation (standby). State).

ステップ705では、位置情報取得部49がGPSセンサ15から車両10の位置情報を取得し、ステップ710で、交差点検知部50が、取得した位置情報に基づき、交差点を検知したかどうかを確認する。このときの状況は、図8(a)に示すような、車両10が交差点60に向けてその周辺を走行中である。交差点検知部50は、GPSセンサ15を中心として、例えば10m内に交差点60の中心位置が入っているかを確認する。 In step 705, the position information acquisition unit 49 acquires the position information of the vehicle 10 from the GPS sensor 15, and in step 710, it is confirmed whether or not the intersection detection unit 50 has detected the intersection based on the acquired position information. At this time, as shown in FIG. 8A, the vehicle 10 is traveling around the intersection 60 toward the intersection 60. The intersection detection unit 50 confirms whether or not the center position of the intersection 60 is within 10 m, for example, with the GPS sensor 15 as the center.

GPSセンサ15の検知範囲は、GPSセンサ15の位置検出精度と、GPSセンサ15の設置位置から路面カメラ12の撮像範囲の中央位置までの距離との和より長くなるように設定することが望ましい。なお、路面カメラ12の撮像範囲の中央位置については後述する。 It is desirable that the detection range of the GPS sensor 15 is set to be longer than the sum of the position detection accuracy of the GPS sensor 15 and the distance from the installation position of the GPS sensor 15 to the center position of the image pickup range of the road surface camera 12. The central position of the imaging range of the road surface camera 12 will be described later.

交差点を検知していない場合、ステップ705へ戻り、交差点を検知した場合、ステップ715へ進む。ステップ715では、指示部46が、周辺カメラ13に対して撮像を開始するように指示し、動作を開始した周辺カメラ13が、路面11とその路面11の周辺とを含む画像の撮像を開始する。このときに撮像された画像は、図8(b)に示すような、車両10の進行方向へ一方に延びる路面11の画像である。 If no intersection is detected, the process returns to step 705, and if an intersection is detected, the process proceeds to step 715. In step 715, the instruction unit 46 instructs the peripheral camera 13 to start imaging, and the peripheral camera 13 that has started the operation starts capturing an image including the road surface 11 and the periphery of the road surface 11. .. The image captured at this time is an image of the road surface 11 extending in one direction in the traveling direction of the vehicle 10, as shown in FIG. 8 (b).

ステップ720では、周辺画像取得部44が周辺カメラ13から画像を取得し、ステップ725で、物体検知部45が、その画像を参照し、まず、画像内に交差点が含まれているかを確認する。このため、物体検知部45は、物体として画像内の目標物体である交差点も検知することができる。含まれていない場合、ステップ720へ戻り、含まれている場合、交差点60を検知したとして、ステップ730へ進む。 In step 720, the peripheral image acquisition unit 44 acquires an image from the peripheral camera 13, and in step 725, the object detection unit 45 refers to the image and first confirms whether or not the intersection is included in the image. Therefore, the object detection unit 45 can also detect an intersection, which is a target object in the image, as an object. If it is not included, the process returns to step 720, and if it is included, it is assumed that the intersection 60 is detected, and the process proceeds to step 730.

交差点60を検知したときの画像は、図8(c)に示すような画像である。この画像では、一方にほぼ同じ車幅で延びる路面11が交差点60に差し掛かることで、交差点60の部分だけ、車幅が左右に広がった形になり、それが画像の左右の端部にまで延びている。なお、左右に延びる道路は、建物等で隠れ、画像の左右の端部にまで延びていないこともあるため、車幅が一定の長さ以上に左右に広がった部分を検知することで、交差点60を検知することができる。交差点60を検知した段階で、指示部46が、路面カメラ12に対して指示し、動作を開始した路面カメラ12が、路面11の撮像を開始する。 The image when the intersection 60 is detected is an image as shown in FIG. 8 (c). In this image, the road surface 11 extending with almost the same vehicle width on one side approaches the intersection 60, so that the vehicle width is widened to the left and right only at the intersection 60, and it extends to the left and right edges of the image. It is extending. The roads that extend to the left and right are hidden by buildings, etc., and may not extend to the left and right edges of the image. Therefore, by detecting the part where the vehicle width extends to the left and right beyond a certain length, an intersection 60 can be detected. When the intersection 60 is detected, the instruction unit 46 gives an instruction to the road surface camera 12, and the road surface camera 12 that has started the operation starts imaging the road surface 11.

ステップ730では、物体検知部45が、画像を参照し、その画像内に基準被写体が含まれているかを確認する。含まれていない場合、ステップ720へ戻り、含まれている場合、基準被写体を検知したとして、ステップ735へ進む。基準被写体を検知したときの画像は、図8(d)に示すような画像である。画像内に基準被写体61の少なくとも一部が含まれ、目的とする基準被写体61であると認識できる場合に、基準被写体61を検知することができる。この間、路面カメラ12による撮像は継続される。ただし、撮像された画像の記録は行われない。 In step 730, the object detection unit 45 refers to the image and confirms whether the reference subject is included in the image. If it is not included, the process returns to step 720, and if it is included, it is assumed that the reference subject has been detected, and the process proceeds to step 735. The image when the reference subject is detected is an image as shown in FIG. 8D. The reference subject 61 can be detected when at least a part of the reference subject 61 is included in the image and can be recognized as the target reference subject 61. During this time, the image pickup by the road surface camera 12 is continued. However, the captured image is not recorded.

ステップ735では、指示部46が、距離計測装置16に対して指示し、距離計測装置16が車両10の走行距離の計測を開始する。このときの状況は、図8(e)に示すような車両10に搭載された路面カメラ12の位置、詳細には路面カメラ12の撮像範囲の中央位置と、基準被写体61の、車両10に対向する最も近い端部との距離が、距離[D_1]である。このため、走行距離値[D_C1]=0として走行距離の計測を開始し、距離[D_1]に達するまで走行距離を計測する。 In step 735, the instruction unit 46 gives an instruction to the distance measuring device 16, and the distance measuring device 16 starts measuring the mileage of the vehicle 10. The situation at this time is the position of the road surface camera 12 mounted on the vehicle 10 as shown in FIG. 8 (e), specifically, the central position of the imaging range of the road surface camera 12 and the reference subject 61 facing the vehicle 10. The distance to the nearest end is the distance [D_1]. Therefore, the mileage measurement is started with the mileage value [D_C1] = 0, and the mileage is measured until the mileage [D_1] is reached.

ステップ740では、距離取得部47が距離計測装置16から計測された走行距離を取得する。ステップ745では、位置推定部48が、取得された走行距離に基づき、予め指定された距離に達したかを確認する。すなわち、図8(e)に示す距離[D_1]に達したかを確認する。達していない場合、ステップ740へ戻り、達した場合、ステップ750へ進む。距離[D_1]に達したとき、図8(f)に示すような、車両10に搭載された路面カメラ12の位置、詳細には路面カメラ12の撮像範囲の中央位置と、基準被写体61の上記端部とが、進行方向に対して一致した位置となる。 In step 740, the distance acquisition unit 47 acquires the mileage measured from the distance measuring device 16. In step 745, the position estimation unit 48 confirms whether or not the distance has reached a predetermined distance based on the acquired mileage. That is, it is confirmed whether or not the distance [D_1] shown in FIG. 8 (e) has been reached. If it has not been reached, the process returns to step 740, and if it has been reached, the process proceeds to step 750. When the distance [D_1] is reached, the position of the road surface camera 12 mounted on the vehicle 10 as shown in FIG. 8 (f), specifically, the central position of the imaging range of the road surface camera 12, and the above-mentioned reference subject 61. The end is at a position that coincides with the direction of travel.

ステップ750では、指定された距離に達した位置から点検区間の開始点を推定する。ここでは、指定された距離に達した位置を、点検区間の開始点と推定する。そして、ステップ755で、指定された距離に達した位置までに計測された走行距離の距離値と時刻とを記録し、点検区間の開始点を設定する。また、その時刻での撮像画像を撮像フレームとして記録し、路面カメラ12で撮像された画像の記録を開始する。 In step 750, the start point of the inspection section is estimated from the position where the designated distance is reached. Here, the position where the specified distance is reached is estimated as the start point of the inspection section. Then, in step 755, the distance value and the time of the mileage measured up to the position where the designated distance is reached are recorded, and the start point of the inspection section is set. Further, the captured image at that time is recorded as an imaging frame, and the recording of the image captured by the road surface camera 12 is started.

点検区間の開始点を設定したところで、指示部46が、周辺カメラ13に対して撮像を終了するように指示し、周辺カメラ13が待機状態に戻る。待機状態に戻ったところで、ステップ760で、開始点を設定する処理を終了する。このとき、指示部46は、距離計測装置16による走行距離の計測も終了するように指示することができる。 When the start point of the inspection section is set, the instruction unit 46 instructs the peripheral camera 13 to end the imaging, and the peripheral camera 13 returns to the standby state. When the state returns to the standby state, the process of setting the start point ends in step 760. At this time, the instruction unit 46 can instruct the distance measurement device 16 to end the measurement of the mileage.

点検区間内は、図6のステップ615の処理が行われ、路面カメラ12による路面11の同時撮像、同時撮像された画像の記録が行われる。また、距離の計測も実施される。距離の計測は、別途設けられる距離計測装置により行うことができる。なお、距離の計測は、距離計測装置16により点検区間の開始点の設定に引き続いて行うことも可能である。 In the inspection section, the process of step 615 of FIG. 6 is performed, and the road surface camera 12 simultaneously captures the road surface 11 and records the simultaneously captured images. Distance measurement is also carried out. The distance can be measured by a distance measuring device provided separately. The distance can be measured by the distance measuring device 16 following the setting of the start point of the inspection section.

図9および図10を参照して、図6に示すステップ620の点検区間の終了点を設定する処理について説明する。ステップ900から開始し、このとき、路面カメラ12で撮像された画像の記録を継続している。また、距離の計測も継続している。ステップ905では、位置情報取得部49がGPSセンサ15から車両10の位置情報を取得し、ステップ910で、交差点検知部50が、取得した位置情報に基づき、交差点を検知したかどうかを確認する。この交差点は、点検区間の終了点付近の交差点であり、上記の開始点付近の交差点60とは違う交差点62である。 A process of setting the end point of the inspection section of step 620 shown in FIG. 6 will be described with reference to FIGS. 9 and 10. Starting from step 900, the recording of the image captured by the road surface camera 12 is continued at this time. In addition, distance measurement is continuing. In step 905, the position information acquisition unit 49 acquires the position information of the vehicle 10 from the GPS sensor 15, and in step 910, it is confirmed whether or not the intersection detection unit 50 has detected the intersection based on the acquired position information. This intersection is an intersection near the end point of the inspection section, and is an intersection 62 different from the intersection 60 near the start point.

このときの状況は、図10(a)に示すような、車両10が交差点62に向けてその周辺を走行中である。交差点検知部50は、GPSセンサ15を中心として、例えば10m内に交差点62の中心位置が入っているかを確認する。この中心位置の位置情報も、GPS位置情報として予め設定されている。 At this time, as shown in FIG. 10A, the vehicle 10 is traveling around the intersection 62 toward the intersection 62. The intersection detection unit 50 confirms whether or not the center position of the intersection 62 is within 10 m, for example, with the GPS sensor 15 as the center. The position information of this center position is also preset as GPS position information.

ステップ910において交差点を検知していない場合、ステップ905へ戻り、交差点を検知した場合、ステップ915へ進む。ステップ915では、指示部46が、周辺カメラ13に対して撮像を開始するように指示し、動作を開始した周辺カメラ13が、路面11とその路面11の周辺とを含む画像を撮像する。このときに撮像された画像は、図10(b)に示すような、車両10の進行方向へ一方に延びる路面11の画像である。 If the intersection is not detected in step 910, the process returns to step 905, and if the intersection is detected, the process proceeds to step 915. In step 915, the instruction unit 46 instructs the peripheral camera 13 to start imaging, and the peripheral camera 13 that has started the operation captures an image including the road surface 11 and the periphery of the road surface 11. The image captured at this time is an image of the road surface 11 extending in one direction in the traveling direction of the vehicle 10 as shown in FIG. 10 (b).

ステップ920では、周辺画像取得部44が周辺カメラ13から画像を取得し、ステップ925で、物体検知部45が、その画像を参照し、まず、画像内に交差点が含まれているかを確認する。含まれていない場合、ステップ920へ戻り、含まれている場合、交差点62を検知したとして、ステップ930へ進む。 In step 920, the peripheral image acquisition unit 44 acquires an image from the peripheral camera 13, and in step 925, the object detection unit 45 refers to the image and first confirms whether or not the intersection is included in the image. If it is not included, the process returns to step 920, and if it is included, it is assumed that the intersection 62 is detected, and the process proceeds to step 930.

交差点62を検知したときの画像は、図10(c)に示すような画像である。この画像では、一方にほぼ同じ車幅で延びる路面11が交差点62に差し掛かることで、交差点62の部分だけ、車幅が左右に広がった形になり、それが画像の左右の端部にまで延びている。なお、左右に延びる道路は、建物等で隠れ、画像の左右の端部にまで延びていないこともあるため、車幅が一定の長さだけ左右に広がった部分を検知することで、交差点62を検知することができる。交差点62を検知した段階で、指示部46が、路面カメラ12に対して指示し、動作を開始した路面カメラ12が、路面11の撮像を開始する。 The image when the intersection 62 is detected is an image as shown in FIG. 10 (c). In this image, the road surface 11 extending with almost the same vehicle width on one side approaches the intersection 62, so that the vehicle width is widened to the left and right only at the intersection 62, which extends to the left and right edges of the image. It is extending. Note that the road extending to the left and right is hidden by a building or the like and may not extend to the left and right edges of the image. Therefore, by detecting the portion where the vehicle width extends to the left and right by a certain length, the intersection 62 Can be detected. When the intersection 62 is detected, the instruction unit 46 gives an instruction to the road surface camera 12, and the road surface camera 12 that has started the operation starts imaging the road surface 11.

ステップ930では、物体検知部45が、画像を参照し、その画像内に基準被写体が含まれているかを確認する。含まれていない場合、ステップ920へ戻り、含まれている場合、基準被写体を検知したとして、ステップ935へ進む。基準被写体を検知したときの画像は、図10(d)に示すような画像である。画像内に基準被写体63の少なくとも一部が含まれ、目的とする基準被写体63であると認識できる場合に、基準被写体63を検知することができる。この間、路面カメラ12による撮像および撮像画像の記録は継続される。 In step 930, the object detection unit 45 refers to the image and confirms whether the reference subject is included in the image. If it is not included, the process returns to step 920, and if it is included, it is assumed that the reference subject has been detected, and the process proceeds to step 935. The image when the reference subject is detected is an image as shown in FIG. 10 (d). The reference subject 63 can be detected when at least a part of the reference subject 63 is included in the image and can be recognized as the target reference subject 63. During this period, the image pickup by the road surface camera 12 and the recording of the captured image are continued.

ステップ935では、指示部46が、距離計測装置16に対して指示し、距離計測装置16が車両10の走行距離の計測を開始する。既に点検区間の走行距離の計測を行っている場合、距離の計測を引き続き実施し、計測を開始する走行距離の位置を記録しておく。ステップ940では、距離取得部47が距離計測装置16から計測された走行距離を取得する。基準被写体63を検知したときの状況は、図10(e)に示すような車両10に設置された路面カメラ12の位置、詳細には路面カメラ12の撮像範囲の中央位置と、基準被写体63の、車両10に対向する最も近い端部との距離が、距離[D_2]である。このため、現在の走行距離値[D_C2]を0とし、そこから距離[D_2]に達するまでの走行距離を計測する。 In step 935, the instruction unit 46 gives an instruction to the distance measuring device 16, and the distance measuring device 16 starts measuring the mileage of the vehicle 10. If the mileage of the inspection section has already been measured, continue to measure the distance and record the position of the mileage to start the measurement. In step 940, the distance acquisition unit 47 acquires the mileage measured from the distance measuring device 16. The situation when the reference subject 63 is detected is the position of the road surface camera 12 installed in the vehicle 10 as shown in FIG. 10 (e), specifically, the central position of the imaging range of the road surface camera 12 and the reference subject 63. , The distance to the nearest end facing the vehicle 10 is the distance [D_2]. Therefore, the current mileage value [D_C2] is set to 0, and the mileage from there until the distance [D_2] is reached is measured.

ステップ945では、位置推定部48が、取得された走行距離に基づき、予め指定された距離に達したかを確認する。すなわち、図10(e)に示す距離[D_2]に達したかを確認する。達していない場合、ステップ940へ戻り、達した場合、ステップ950へ進む。距離[D_2]に達したとき、図10(f)に示すような、車両10に設置された路面カメラ12の位置、詳細には路面カメラ12の撮像範囲の中央位置と、基準被写体63の上記端部とが、進行方向に対して一致した位置となる。 In step 945, the position estimation unit 48 confirms whether or not the distance has reached a predetermined distance based on the acquired mileage. That is, it is confirmed whether or not the distance [D_2] shown in FIG. 10 (e) has been reached. If it has not been reached, the process returns to step 940, and if it has been reached, the process proceeds to step 950. When the distance [D_2] is reached, the position of the road surface camera 12 installed on the vehicle 10 as shown in FIG. 10 (f), specifically the central position of the imaging range of the road surface camera 12, and the above-mentioned reference subject 63. The end is at a position that coincides with the direction of travel.

ステップ950では、指定された距離に達した位置から点検区間の終了点を推定する。ここでは、指定された距離に達した位置を、点検区間の終了点と推定する。そして、ステップ955で、指定された距離に達した位置までに計測された走行距離の距離値と時刻とを記録し、点検区間の終了点を設定する。また、その時刻での撮像画像をこの点検区間の最後の撮像フレームとして記録する。 In step 950, the end point of the inspection section is estimated from the position where the designated distance is reached. Here, the position where the specified distance is reached is estimated as the end point of the inspection section. Then, in step 955, the distance value and the time of the mileage measured up to the position where the designated distance is reached are recorded, and the end point of the inspection section is set. In addition, the captured image at that time is recorded as the last imaging frame of this inspection section.

点検区間の終了点を検出したところで、指示部46が、周辺カメラ13に対して撮像を終了するように指示し、周辺カメラ13が待機状態に戻る。また、指示部46が、距離計測装置16に対して走行距離の計測を終了するように指示し、距離計測装置16が待機状態に戻る。さらに、指示部46が、路面カメラ12に対して撮像を終了するように指示し、路面カメラ12が待機状態に戻る。これらが待機状態に戻ったところで、ステップ960で、終了点を推定する処理を終了する。 When the end point of the inspection section is detected, the instruction unit 46 instructs the peripheral camera 13 to end the imaging, and the peripheral camera 13 returns to the standby state. Further, the instruction unit 46 instructs the distance measuring device 16 to end the measurement of the mileage, and the distance measuring device 16 returns to the standby state. Further, the instruction unit 46 instructs the road surface camera 12 to end the imaging, and the road surface camera 12 returns to the standby state. When these have returned to the standby state, the process of estimating the end point ends in step 960.

ここで、事前に計測し、設定しておくべき概要情報について説明する。概要情報としては、目標物体としての交差点60、62のGPS位置情報がある。GPS位置情報は、緯度経度検出精度が数m〜10mと低く、精度が低い位置情報である。また、概要情報としては、開始点と終了点との間の距離の情報もあるが、この情報もGPS位置情報であるため、精度が低い距離情報である。 Here, the outline information that should be measured and set in advance will be described. As the summary information, there is GPS position information of intersections 60 and 62 as target objects. GPS position information is position information with low accuracy because the latitude / longitude detection accuracy is as low as several m to 10 m. Further, as the summary information, there is also information on the distance between the start point and the end point, but since this information is also GPS position information, it is distance information with low accuracy.

概要情報としては、図11に示す基準被写体61と、周辺カメラ13との間の距離[D_CS]がある。距離[D_CS]は、上記の距離[D_1]である。基準被写体63の場合も同様であり、この場合、距離[D_CS]は、上記の距離[D_2]である。距離[D_CS]は、周辺カメラ13、詳細には周辺カメラ13の画像センサの位置と、周辺カメラ13の撮像範囲内に基準被写体61の一部でも入るときの基準被写体61の位置との間の距離として決定することができる。なお、これに限られるものではなく、基準被写体61の全体が入るときの距離として決定してもよい。 As the summary information, there is a distance [D_CS] between the reference subject 61 shown in FIG. 11 and the peripheral camera 13. The distance [D_CS] is the above distance [D_1]. The same applies to the reference subject 63, in which case the distance [D_CS] is the above-mentioned distance [D_2]. The distance [D_CS] is between the position of the image sensor of the peripheral camera 13, specifically the peripheral camera 13, and the position of the reference subject 61 when even a part of the reference subject 61 is within the imaging range of the peripheral camera 13. It can be determined as a distance. The distance is not limited to this, and may be determined as the distance when the entire reference subject 61 enters.

また、概要情報としては、周辺カメラ13の画像センサの位置と、路面カメラ12の撮像範囲の中央位置との距離としての距離[D_CC]もある。撮像範囲の中央位置は、撮像された画像の中央位置となる路面11上の位置である。これらの距離の計測から、基準被写体61の位置と、路面カメラ12の撮像範囲の中央位置との距離を加算し、その距離を距離[D_*]として得ることができる。基準被写体63の場合も同様にして、距離[D_*]を求めることができる。 Further, as the outline information, there is also a distance [D_CC] as a distance between the position of the image sensor of the peripheral camera 13 and the central position of the image pickup range of the road surface camera 12. The central position of the imaging range is a position on the road surface 11 which is the central position of the captured image. From the measurement of these distances, the distance between the position of the reference subject 61 and the center position of the imaging range of the road surface camera 12 can be added, and the distance can be obtained as the distance [D_ *]. In the case of the reference subject 63, the distance [D_ * ] can be obtained in the same manner.

これらの概要情報を予め設定しておき、図7および図9に示した処理を実行することで、点検区間の開始点および終了点の位置精度を、GPS情報の数m〜10mから0.05m〜0.1mに向上させることができる。 By setting these summary information in advance and executing the processes shown in FIGS. 7 and 9, the position accuracy of the start point and the end point of the inspection section can be adjusted from several meters to 0.05 m of GPS information. It can be improved to ~ 0.1 m.

図12を参照して、基準被写体61、63について説明する。基準被写体61、63は、図12(a)の信号機や標識ポール70、図12(b)の縁石71、図12(c)の白線停止線72、図12(d)の横断歩道線73、図12(e)のマンホール74、図12(f)の交差点中央瀬75等を採用することができる。なお、図12(f)の交差点中央瀬75等の路面標識は消失する可能性があるため、経年において破損や移動、消失する可能性が低い、図12(a)〜(e)に示すものが望ましい。図12(a)〜(e)の中で、基準被写体61、63として使用することが望ましい優先順位は、破損や移動、消失の可能性が低い順に、信号機や標識ポール70、マンホール74、縁石71、白線停止線72、横断歩道線73とすることができる。 Reference subjects 61 and 63 will be described with reference to FIG. Reference subjects 61 and 63 include a traffic light and a sign pole 70 in FIG. 12 (a), a curb 71 in FIG. 12 (b), a white line stop line 72 in FIG. 12 (c), and a pedestrian crossing line 73 in FIG. 12 (d). The manhole 74 of FIG. 12 (e), the intersection center of FIG. 12 (f), and the like can be adopted. Note that the road markings such as the intersection Chuose 75 in FIG. 12 (f) may disappear, so that they are unlikely to be damaged, moved, or disappear over time, as shown in FIGS. 12 (a) to 12 (e). Is desirable. In FIGS. 12 (a) to 12 (e), the order of priority that it is desirable to use as the reference subjects 61 and 63 is the traffic light, the sign pole 70, the manhole 74, and the curb in the order of low possibility of damage, movement, or disappearance. It can be 71, a white line stop line 72, and a pedestrian crossing line 73.

これらの基準被写体61、63を採用し、走行距離を計測する上で、下記の点に留意することが望ましい。すなわち、走行距離の計測精度を確保するために、信号機や標識ポール70では、進行方向の、車両10に対向する曲面の最も車両10に近い側の端部や、最も車両10から遠い曲面の端部を基準とすることが望ましい。縁石71、白線停止線72、横断歩道線73、マンホール74については、進行方向の、車両10に最も近い側の端部や車両10から最も遠い側の端部を基準とすることが望ましい。 It is desirable to pay attention to the following points when measuring the mileage by adopting these reference subjects 61 and 63. That is, in order to ensure the measurement accuracy of the mileage, in the traffic light or the sign pole 70, the end of the curved surface facing the vehicle 10 on the side closest to the vehicle 10 or the end of the curved surface farthest from the vehicle 10 in the traveling direction. It is desirable to use the part as a reference. For the curb 71, the white line stop line 72, the pedestrian crossing line 73, and the manhole 74, it is desirable to refer to the end on the side closest to the vehicle 10 or the end on the side farthest from the vehicle 10 in the traveling direction.

また、距離計測装置16により計測を開始し、指定された距離に達した位置を、点検区間の開始点または終了点として推定しているが、その計測は、基準被写体61、63に充分に近づいた状態から開始することが望ましい。すなわち、指定された距離が短い方が望ましい。距離が長くなればなるほど、距離計測装置16による計測誤差が大きくなるからである。図12に示した距離[D_CS]は、例えば3m未満であることが望ましい。 Further, the distance measuring device 16 starts the measurement, and the position where the specified distance is reached is estimated as the start point or the end point of the inspection section, but the measurement is sufficiently close to the reference subjects 61 and 63. It is desirable to start from the state where it is. That is, it is desirable that the specified distance is short. This is because the longer the distance, the larger the measurement error by the distance measuring device 16. The distance [D_CS] shown in FIG. 12 is preferably less than, for example, 3 m.

点検区間によっては、被写体が2以上存在する場合がある。その場合、上記の優先順位に従って被写体を選択することができる。基準被写体61、63は、交差点60、62の手前側にあってもよいし、奥側にあってもよいし、交差点60、62内にあってもよい。図12に示した例では、図12(c)の白線停止線72が手前側にあり、図12(f)の交差点中央瀬75が交差点60、62内にあり、それ以外が奥側にある。 Depending on the inspection section, there may be two or more subjects. In that case, the subject can be selected according to the above priority. The reference subjects 61 and 63 may be on the front side of the intersections 60 and 62, may be on the back side, and may be inside the intersections 60 and 62. In the example shown in FIG. 12, the white line stop line 72 of FIG. 12 (c) is on the front side, the intersection center of FIG. 12 (f) is inside the intersections 60 and 62, and the others are on the back side. ..

図12に示したような被写体が存在しない場合や、存在しても、他の車両に被写体が隠れる等して被写体の検知精度が充分でない場合、図13(a)、(b)に示す交差点60の路面端76を、基準被写体61として採用してもよい。路面端76は、進行方向に延びる路面11aではなく、路面11aに対してほぼ垂直方向に延びる路面11bの手前側または奥側のいずれか一方の路面端部である。図13(a)、(b)では、奥側の路面端76を採用している。ちなみに、図13(a)は、撮像した画像で、図13(b)は、上空から路面11を見た場合の図である。基準被写体63も同様に、路面端76を採用することができる。 If the subject as shown in FIG. 12 does not exist, or if the subject is hidden by another vehicle and the detection accuracy of the subject is not sufficient, the intersection shown in FIGS. 13 (a) and 13 (b). The road surface edge 76 of 60 may be adopted as the reference subject 61. The road surface end 76 is not a road surface 11a extending in the traveling direction, but a road surface end portion on either the front side or the back side of the road surface 11b extending in a direction substantially perpendicular to the road surface 11a. In FIGS. 13A and 13B, the road surface end 76 on the back side is adopted. Incidentally, FIG. 13 (a) is an image taken, and FIG. 13 (b) is a view when the road surface 11 is viewed from the sky. Similarly, the road surface edge 76 can be adopted as the reference subject 63.

これまでは、点検区間の開始点および終了点を、基準被写体61、63の位置、詳細には基準被写体61、63の車両10に近い側の端部とし、その端部と同一の位置とし、その位置を推定している。しかしながら、開始点および終了点と、基準被写体61、63の位置とは異なっていてもよく、例えば基準被写体61、63の位置から予め決められた距離だけ離間した位置を開始点、終了点とすることも可能である。 Until now, the start and end points of the inspection section were set to the positions of the reference subjects 61 and 63, specifically, the ends of the reference subjects 61 and 63 on the side closer to the vehicle 10, and were set to the same positions as the ends. The position is estimated. However, the start point and the end point may be different from the positions of the reference subjects 61 and 63. For example, a position separated from the positions of the reference subjects 61 and 63 by a predetermined distance is set as the start point and the end point. It is also possible.

これは、図14(a)に示すような交差点60の奥側の路面端76から基準被写体61の車両10に最も近い側の端部までの距離が3mを超えている場合や、検出精度が充分に得られない場合(精度0.1mより大きい場合)に有効である。 This is because the distance from the road surface end 76 on the back side of the intersection 60 to the end on the side of the reference subject 61 closest to the vehicle 10 as shown in FIG. 14A exceeds 3 m, or the detection accuracy is high. It is effective when it is not sufficiently obtained (when the accuracy is larger than 0.1 m).

この場合、例えば交差点検知部50が交差点60を検知したところで、指示部46が距離計測装置16に対して指示して距離の計測を開始させ、路面カメラ12に対して指示して路面11の撮像を開始させる。その後、物体検知部45が基準被写体61を検知したところで、図14(b)に示すように、概要情報として設定された距離[D_SS]を使用し、交差点60の路面端76から3m未満の任意の位置を、仮想の開始点として推定し、その位置を開始点として設定することができる。終了点も同様に、概要情報として設定された距離[D_SE]を使用して推定し、その位置を終了点として設定することができる。なお、路面端76から3m未満であれば、路面端76から1mや2m等、いかなる距離であってもよい。 In this case, for example, when the intersection detection unit 50 detects the intersection 60, the instruction unit 46 instructs the distance measuring device 16 to start the distance measurement, and instructs the road surface camera 12 to take an image of the road surface 11. To start. After that, when the object detection unit 45 detects the reference subject 61, as shown in FIG. 14 (b), the distance [D_SS] set as the summary information is used, and the road surface edge 76 at the intersection 60 is arbitrarily less than 3 m. The position of is estimated as a virtual start point, and that position can be set as the start point. Similarly, the end point can be estimated using the distance [D_SE] set as the summary information, and the position can be set as the end point. As long as it is less than 3 m from the road surface edge 76, it may be any distance such as 1 m or 2 m from the road surface edge 76.

以上のようにして、点検区間の開始点および終了点を推定し、開始点から終了点までの距離を区間長として設定することができる。区間長は、距離取得部47が、別途設けられる距離計測装置により計測された開始点から終了点までの距離から、あるいは距離計測装置16により計測された計測開始位置から開始点および終了点までの走行距離の情報を用いて計算することにより得ることができる。 As described above, the start point and end point of the inspection section can be estimated, and the distance from the start point to the end point can be set as the section length. The section length is from the distance from the start point to the end point measured by the distance acquisition device 47 separately provided, or from the measurement start position to the start point and the end point measured by the distance measurement device 16. It can be obtained by calculating using the mileage information.

点検区間の区間長は、道路の幅や形状、車両10が走行する位置によって変化する。このため、これらの条件を考慮した上で、区間長を設定することが望ましい。 The section length of the inspection section changes depending on the width and shape of the road and the position where the vehicle 10 travels. Therefore, it is desirable to set the section length in consideration of these conditions.

図15は、上記の条件を考慮して区間長を推定する処理の一例を示したフローチャートである。上記の方法により点検区間の開始点を推定し、記録することにより設定した後、ステップ1500から開始する。ステップ1505では、周辺画像取得部44が、周辺カメラ13から車道の幅方向の一端から他端までを含むように撮像された画像を取得する。ここでは、周辺カメラ13を路面11の幅を計測する幅計測装置として用い、周辺画像取得部44を路面11の幅情報を取得する幅情報取得部として用いているが、これに限られるものではなく、別途幅計測装置や幅情報取得部を設けてもよい。 FIG. 15 is a flowchart showing an example of a process of estimating the section length in consideration of the above conditions. After setting the start point of the inspection section by estimating and recording it by the above method, the process starts from step 1500. In step 1505, the peripheral image acquisition unit 44 acquires an image captured from the peripheral camera 13 so as to include one end to the other end in the width direction of the roadway. Here, the peripheral camera 13 is used as a width measuring device for measuring the width of the road surface 11, and the peripheral image acquisition unit 44 is used as a width information acquisition unit for acquiring the width information of the road surface 11, but the present invention is not limited to this. Alternatively, a width measuring device and a width information acquisition unit may be provided separately.

ステップ1510では、別途設けられる間隔推定部は、取得された画像に基づき、対向車線を含めた車道幅とセンターラインの位置(車道幅中央位置)を推定する。また、間隔推定部は、取得された画像に基づき、走行位置とセンターラインとの間隔を推定する。例えば、画像を構成する画素の画素数から車道幅、センターラインの位置、間隔を計算することができる。なお、位置推定部48を使用し、これらの推定処理を実行してもよい。 In step 1510, the separately provided interval estimation unit estimates the width of the road including the oncoming lane and the position of the center line (center position of the width of the road) based on the acquired image. In addition, the interval estimation unit estimates the interval between the traveling position and the center line based on the acquired image. For example, the width of the road, the position of the center line, and the interval can be calculated from the number of pixels constituting the image. The position estimation unit 48 may be used to execute these estimation processes.

路面点検システムは、車両10に走行経路の曲率半径を計測する曲率半径計測装置をさらに含む。ステップ1515では、指示部46が曲率半径計測装置に対して指示し、曲率半径計測装置が走行経路の曲率半径を計測する。曲率半径計測装置としては、GPSセンサ15等の計測器を用いることができる。そして、別途設けられる曲率半径取得部が、計測された曲率半径情報(曲率半径の値)を取得する。 The road surface inspection system further includes a radius of curvature measuring device for measuring the radius of curvature of the traveling path in the vehicle 10. In step 1515, the indicating unit 46 gives an instruction to the radius of curvature measuring device, and the radius of curvature measuring device measures the radius of curvature of the traveling path. As the radius of curvature measuring device, a measuring instrument such as a GPS sensor 15 can be used. Then, a separately provided radius of curvature acquisition unit acquires the measured radius of curvature information (value of the radius of curvature).

ここでは、走行経路の曲率半径を、曲率半径計測装置により計測するものとして説明しているが、これに限られるものではなく、路面カメラ12により撮像された画像に基づき得られる路面性状計測データから求めてもよい。具体的には、路面性状計測データを使用し、路面11の進行方向に合成接続した三次元データの曲率から推定することができる。 Here, the radius of curvature of the traveling path is described as being measured by the radius of curvature measuring device, but the present invention is not limited to this, and the road surface property measurement data obtained based on the image captured by the road surface camera 12 is used. You may ask. Specifically, it can be estimated from the curvature of the three-dimensional data synthetically connected in the traveling direction of the road surface 11 by using the road surface property measurement data.

ステップ1520では、ステップ1510で推定された走行位置とセンターラインとの間隔値と、ステップ1515で計測された曲率半径の値とを用い、センターラインの区間長を推定する。この区間長の推定は、別途設けられる区間長推定部により行うことができる。この計算が終了したところで、ステップ1525へ進み、区間長を推定する処理を終了する。このような処理により、道路幅やカーブ状況に対しても、高い精度で区間長を設定することが可能となる。 In step 1520, the section length of the center line is estimated using the distance value between the traveling position and the center line estimated in step 1510 and the value of the radius of curvature measured in step 1515. This section length can be estimated by a separately provided section length estimation unit. When this calculation is completed, the process proceeds to step 1525 and the process of estimating the section length is completed. By such processing, it is possible to set the section length with high accuracy even for the road width and the curve condition.

区間長を設定した後、ひび割れ率等を求め、それらを付記した帳票を出力することができるが、区間長を正しく計算できていない場合や路面11の画像を正しく取得できていない場合、正しい区間評価結果を出力することができない。そこで、区間長を設定した後であって、区間評価結果を出力する前に、区間長を計算するために使用される開始点や終了点の推定結果等の良否判定を行うことが望ましい。この良否判定処理について、図16を参照して説明する。 After setting the section length, the crack rate etc. can be calculated and the form with them can be output, but if the section length cannot be calculated correctly or the image of the road surface 11 cannot be acquired correctly, the correct section The evaluation result cannot be output. Therefore, it is desirable to judge the quality of the estimation results of the start point and the end point used for calculating the section length after setting the section length and before outputting the section evaluation result. This pass / fail determination process will be described with reference to FIG.

区間長を設定した後、ステップ1600からこの良否判定処理を開始する。ステップ1605では、周辺カメラ13により撮像された画像において、物体検知部45が交差点を検知できているかを判定する。この判定処理は、別途設けられる判定部により行うことができる。交差点を検知できている場合は、ステップ1610へ進み、交差点を検知できていない場合は、ステップ1630へ進む。 After setting the section length, this pass / fail determination process is started from step 1600. In step 1605, it is determined whether or not the object detection unit 45 can detect the intersection in the image captured by the peripheral camera 13. This determination process can be performed by a determination unit provided separately. If the intersection can be detected, the process proceeds to step 1610, and if the intersection cannot be detected, the process proceeds to step 1630.

交差点を検知できていない例としては、路端に他の車両等の障害物があってその障害物を回避蛇行する必要があり、交差点の、進行方向に対して左右の一方に広がる路面の画像を撮像しきれていない場合が挙げられる。すなわち、交差点と判定するのに必要な画像部分に欠損がある場合である。 As an example where the intersection cannot be detected, there is an obstacle such as another vehicle on the roadside, and it is necessary to meander to avoid the obstacle. There is a case where the image is not completely captured. That is, there is a defect in the image portion necessary for determining the intersection.

このことから、交差点を検知できているか否かは、その欠損割合が閾値以下かどうかにより判定することができる。欠損割合は、障害物が存在しないときの交差点の左右に広がる路面部分の面積を予め計測しておき、その面積に対する、周辺カメラ13により撮像された画像におけるその路面部分のうちの障害物で隠された部分の面積の比として算出することができる。 From this, whether or not the intersection can be detected can be determined by whether or not the defect ratio is equal to or less than the threshold value. The defect ratio is determined by measuring in advance the area of the road surface portion extending to the left and right of the intersection when there is no obstacle, and hiding the area with an obstacle in the road surface portion in the image captured by the peripheral camera 13. It can be calculated as the ratio of the area of the divided parts.

ステップ1610では、周辺カメラ13により撮像された画像において、物体検知部45が基準被写体を検知できているかを判定する。基準被写体は、信号機、マンホール、縁石、横断歩道線、白線停止線等である。基準被写体を検知できている場合は、ステップ1615へ進み、基準被写体を検知できていない場合は、ステップ1630へ進む。 In step 1610, it is determined whether or not the object detection unit 45 can detect the reference subject in the image captured by the peripheral camera 13. Reference subjects are traffic lights, manholes, curbs, pedestrian crossings, white line stop lines, and the like. If the reference subject can be detected, the process proceeds to step 1615, and if the reference subject cannot be detected, the process proceeds to step 1630.

基準被写体を検知できていない例としては、交差点の場合と同様の、路端に他の車両が駐車している場合や、路上に異物が存在し、基準被写体の一部を覆っている場合が挙げられる。この基準被写体も、交差点と同様、基準被写体を検知できているか否かは、その欠損割合が閾値以下かどうかにより判定することができる。 Examples of cases where the reference subject cannot be detected include the case where another vehicle is parked on the roadside or the case where a foreign object is present on the road and covers a part of the reference subject, as in the case of an intersection. Can be mentioned. Similar to the intersection, whether or not the reference subject can be detected can be determined by whether or not the defect ratio is equal to or less than the threshold value.

物体検知部45は、交差点や基準被写体の検知のほか、路端に駐車されている他の車両等の障害物、路上の異物、水溜まり、積雪等を検知することができる。路上の異物としては、落ち葉や土砂、落下物等を挙げることができる。 In addition to detecting intersections and reference subjects, the object detection unit 45 can detect obstacles such as other vehicles parked on the roadside, foreign substances on the road, puddles, and snow cover. Examples of foreign substances on the road include fallen leaves, earth and sand, and falling objects.

ステップ1615では、路面カメラ12により撮像された画像において、物体検知部45が路上の異物や障害物等を検知したかを判定する。検知した場合、ステップ1620で、設定した区間長の路面11の面積に対する、その路面11を覆う異物や障害物等の面積(評価が無効となる領域(無効領域)の面積)の比が、閾値以下かどうかを判定する。閾値以下と判定された場合、ステップ1625へ進み、良と判定し、ステップ1635でこの良否判定処理を終了する。ステップ1615で異物等を検知していない場合も同様に、ステップ1625へ進み、良と判定する。なお、良と判定された場合、設定された区間長でひび割れ率等を求め、区間評価結果を出力することができる。 In step 1615, it is determined whether the object detection unit 45 has detected a foreign object, an obstacle, or the like on the road in the image captured by the road surface camera 12. When detected, the ratio of the area of foreign matter or obstacles covering the road surface 11 (the area of the area where the evaluation is invalid (invalid area)) to the area of the road surface 11 of the section length set in step 1620 is the threshold value. Determine if it is less than or equal to: If it is determined that the value is equal to or less than the threshold value, the process proceeds to step 1625, the determination is made as good, and the good / bad determination process ends in step 1635. Similarly, when no foreign matter or the like is detected in step 1615, the process proceeds to step 1625 and the determination is good. If it is determined to be good, the crack rate and the like can be obtained from the set section length, and the section evaluation result can be output.

一方、ステップ1605、ステップ1610で検知できていないと判定された場合、ステップ1620で閾値を超えると判定された場合、ステップ1630で、否と判定し、ステップ1635でこの良否判定処理を終了する。なお、否と判定された場合、区間評価は行わない。 On the other hand, if it is determined that the detection has not been performed in steps 1605 and 1610, and if it is determined that the threshold value is exceeded in step 1620, it is determined in step 1630 that the quality is not detected, and the quality determination process is terminated in step 1635. If it is determined to be negative, the section evaluation will not be performed.

上記の各閾値は、それぞれ異なる値であってもよいし、同じ値であってもよい。各閾値は、例えば許容閾値として同じ値とし、3/100(3%)とすることができる。これにより、人の手を介さない自動判断が可能となる。 Each of the above threshold values may have a different value or may have the same value. Each threshold value can be set to, for example, the same value as the allowable threshold value, and can be set to 3/100 (3%). This enables automatic judgment without human intervention.

このような良否判定処理を行う機能をもつことで、撮像と同時に、もしくは数秒後または数分後に即時に判定を行い、再走行を行う等、評価作業における手戻りを最小限に抑えることができる。 By having a function to perform such a pass / fail judgment process, it is possible to minimize rework in the evaluation work, such as making a judgment at the same time as imaging, or immediately after a few seconds or minutes, and re-running. ..

これまで本発明を、情報処理システム、評価システム、情報処理方法およびプログラムとして上述した実施の形態をもって説明してきた。しかしながら、本発明は上述した実施の形態に限定されるものではなく、他の実施の形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができるものである。また、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 So far, the present invention has been described with the above-described embodiments as an information processing system, an evaluation system, an information processing method, and a program. However, the present invention is not limited to the above-described embodiment, and can be modified within the range conceivable by those skilled in the art, such as other embodiments, additions, changes, and deletions. .. Further, any aspect is included in the scope of the present invention as long as the action / effect of the present invention is exhibited.

したがって、上記プログラムが記録された記録媒体、上記プログラムを提供する外部機器等も提供することができるものである。 Therefore, a recording medium on which the program is recorded, an external device that provides the program, and the like can also be provided.

10…車両、11、11a、11b…路面、12…路面カメラ、13…周辺カメラ、14…情報処理装置、15…GPSセンサ、16…距離計測装置、20、21…カメラ、22、25…レンズ、23、26…画像センサ、24、27…センサコントローラ、30…CPU、31…ROM、32…RAM、33…HDD、34…通信I/F、35…入出力I/F、36…表示装置、37…入力装置、38…バス、40…路面画像取得部、41…格納部、42…計測部、43…評価部、44…周辺画像取得部、45…物体検知部、46…指示部、47…距離取得部、48…位置推定部、49…位置情報取得部、50…交差点検知部、60、62…交差点、61、63…基準被写体、70…信号機や標識ポール、71…縁石、72…白線停止線、73…横断歩道線、74…マンホール、75…交差点中央瀬、76…路面端 10 ... Vehicle, 11, 11a, 11b ... Road surface, 12 ... Road surface camera, 13 ... Peripheral camera, 14 ... Information processing device, 15 ... GPS sensor, 16 ... Distance measuring device, 20, 21 ... Camera, 22, 25 ... Lens , 23, 26 ... Image sensor, 24, 27 ... Sensor controller, 30 ... CPU, 31 ... ROM, 32 ... RAM, 33 ... HDD, 34 ... Communication I / F, 35 ... Input / output I / F, 36 ... Display device , 37 ... Input device, 38 ... Bus, 40 ... Road surface image acquisition unit, 41 ... Storage unit, 42 ... Measurement unit, 43 ... Evaluation unit, 44 ... Peripheral image acquisition unit, 45 ... Object detection unit, 46 ... Indicator unit, 47 ... Distance acquisition unit, 48 ... Position estimation unit, 49 ... Position information acquisition unit, 50 ... Intersection detection unit, 60, 62 ... Intersection, 61, 63 ... Reference subject, 70 ... Signals and sign poles, 71 ... Edge stone, 72 ... white line stop line, 73 ... crossing pedestrian line, 74 ... manhole, 75 ... intersection Chuose, 76 ... roadside

特開2016−045063号公報Japanese Unexamined Patent Publication No. 2016-045063

Claims (10)

評価対象の評価区間を推定する情報処理システムであって、
前記評価対象上を走行する車両に搭載された撮像装置により撮像された前記評価対象を含む画像を取得する画像取得手段と、
前記画像取得手段により取得された前記画像を参照し、指定された特徴を有する基準物体を検知する検知手段と、
前記検知手段により前記基準物体が検知されたことを受けて、前記車両に搭載された距離計測装置に対して該車両の走行距離の計測を指示する指示手段と、
前記距離計測装置により計測された前記走行距離を取得する距離取得手段と、
前記評価区間の一端と他端とにつき前記距離取得手段により取得された前記指示手段から指示を受けてからの各走行距離がそれぞれ指定された距離に達した位置に基づき、前記評価区間の一端と他端の位置を推定する位置推定手段とを含む、情報処理システム。
An information processing system that estimates the evaluation section to be evaluated.
An image acquisition means for acquiring an image including the evaluation target captured by an image pickup device mounted on a vehicle traveling on the evaluation target, and an image acquisition means.
A detection means for detecting a reference object having a specified feature by referring to the image acquired by the image acquisition means, and
Upon receiving the detection of the reference object by the detection means, the instruction means for instructing the distance measuring device mounted on the vehicle to measure the mileage of the vehicle, and
A distance acquisition means for acquiring the mileage measured by the distance measuring device, and
With respect to one end and the other end of the evaluation section , based on the position where each mileage after receiving an instruction from the instruction means acquired by the distance acquisition means reaches a designated distance, the one end of the evaluation section and the other end. An information processing system including a position estimating means for estimating the position of the other end.
前記車両に搭載された位置計測装置により計測された該車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報に基づき、指定された目標物体を検知する第2の検知手段とを含み、
前記指示手段は、前記第2の検知手段により前記目標物体が検知されたことを受けて、前記撮像装置に対して撮像を開始するように指示する、請求項1に記載の情報処理システム。
A position information acquisition means for acquiring the position information of the vehicle measured by the position measurement device mounted on the vehicle, and
Including a second detecting means for detecting a designated target object based on the position information acquired by the position information acquiring means.
The information processing system according to claim 1, wherein the instruction means instructs the image pickup apparatus to start imaging in response to the detection of the target object by the second detection means.
前記位置推定手段は、前記距離取得手段により取得された各走行距離に達した位置を該評価区間の一端の位置と他端の位置として、もしくは前記距離取得手段により取得された一方の走行距離に達した位置を該評価区間の一端の位置と他端の位置のいずれか一方とし、他方の走行距離に達した位置から一定距離離間した位置を該評価区間の一端の位置と他端の位置の他方の位置として、または前記距離取得手段により取得された各走行距離に達した位置から一定距離離間した位置を一端の位置と他端の位置として推定する、請求項2に記載の情報処理システム。 The position estimating means sets the position reached by each mileage acquired by the distance acquiring means as the position of one end and the other end of the evaluation section, or the mileage acquired by the distance acquiring means. The reached position is one of the position of one end and the position of the other end of the evaluation section, and the position separated by a certain distance from the position where the other mileage is reached is the position of one end and the position of the other end of the evaluation section. The information processing system according to claim 2, wherein the position separated by a certain distance from the position reached by each mileage acquired by the distance acquisition means is estimated as the position of one end and the position of the other end. 前記評価対象の幅を計測する幅計測装置により計測された幅情報を取得する幅情報取得手段と、
前記評価対象の曲率半径を計測する曲率半径計測装置により計測された曲率半径を取得する曲率半径取得手段と、
前記幅情報取得手段により計測された幅情報と前記曲率半径取得手段により計測された曲率半径とを用いて、前記位置推定手段により推定された前記評価区間の前記一端の位置と他端の位置とにより決定される区間長を推定する区間長推定手段とを含む、請求項1〜3のいずれか1項に記載の情報処理システム。
Width information acquisition means for acquiring width information measured by the width measuring device for measuring the width of the evaluation target, and
A radius of curvature acquisition means for acquiring the radius of curvature measured by the radius of curvature measuring device for measuring the radius of curvature of the evaluation target, and
Using the width information measured by the width information acquisition means and the radius of curvature measured by the radius of curvature acquisition means, the position of one end and the position of the other end of the evaluation section estimated by the position estimation means. The information processing system according to any one of claims 1 to 3, further comprising a section length estimating means for estimating the section length determined by.
前記車両は、前記評価対象を撮像する第2の撮像装置を搭載し、
前記情報処理システムは、
前記第2の撮像装置により撮像された画像を取得する第2の画像取得手段と、
前記第2の画像取得手段により取得された画像を用いて、前記評価区間内の前記評価対象の表面性状を計測する計測手段と、
前記計測手段により計測された前記表面性状に基づき、前記評価区間内の前記評価対象を評価する評価手段とを含む、請求項1〜4のいずれか1項に記載の情報処理システム。
The vehicle is equipped with a second imaging device that images the evaluation target.
The information processing system
A second image acquisition means for acquiring an image captured by the second image pickup device, and
Using the image acquired by the second image acquisition means, a measuring means for measuring the surface texture of the evaluation target in the evaluation section, and a measuring means.
The information processing system according to any one of claims 1 to 4, which includes an evaluation means for evaluating the evaluation target in the evaluation section based on the surface texture measured by the measuring means.
前記画像取得手段により取得された前記画像に基づき、前記検知手段が前記基準物体を検知することが可能であるかを判定する判定手段を含む、請求項1〜5のいずれか1項に記載の情報処理システム。 The invention according to any one of claims 1 to 5, further comprising a determination means for determining whether or not the detection means can detect the reference object based on the image acquired by the image acquisition means. Information processing system. 前記画像取得手段により取得された前記画像に基づき、前記検知手段が前記基準物体および前記目標物体を検知することが可能であるかを判定する判定手段を含む、請求項2に記載の情報処理システム。 The information processing system according to claim 2, further comprising a determination means for determining whether or not the detection means can detect the reference object and the target object based on the image acquired by the image acquisition means. .. 評価対象上を走行する車両に搭載された第1の撮像装置と、該車両に搭載され、該車両の走行距離を計測する距離計測装置と、前記評価対象の評価区間を推定する情報処理システムと、前記評価対象を撮像する第2の撮像装置とを含む評価システムであって、
前記情報処理システムが、
前記第1の撮像装置により撮像された前記評価対象を含む画像を取得する第1の画像取得手段と、
前記第1の画像取得手段により取得された前記画像を参照し、指定された特徴を有する基準物体を検知する検知手段と、
前記検知手段により前記基準物体が検知されたことを受けて、前記距離計測装置に対して前記車両の走行距離の計測を指示する指示手段と、
前記距離計測装置により計測された前記走行距離を取得する距離取得手段と、
前記評価区間の一端と他端とにつき前記距離取得手段により取得された前記指示手段から指示を受けてからの各走行距離がそれぞれ指定された距離に達した位置に基づき、前記評価区間の一端と他端の位置を推定する位置推定手段と、
前記第2の撮像装置により撮像された画像を取得する第2の画像取得手段と、
前記第2の画像取得手段により取得された画像を用いて、前記評価区間内の前記評価対象の表面性状を計測する計測手段と、
前記計測手段により計測された前記表面性状に基づき、前記評価区間内の前記評価対象を評価する評価手段とを含む、評価システム。
A first imaging device mounted on a vehicle traveling on an evaluation target, a distance measuring device mounted on the vehicle and measuring the mileage of the vehicle, and an information processing system for estimating an evaluation section of the evaluation target. An evaluation system including a second imaging device that images the evaluation target.
The information processing system
A first image acquisition means for acquiring an image including the evaluation target captured by the first image pickup apparatus, and
A detection means for detecting a reference object having a specified feature by referring to the image acquired by the first image acquisition means, and
Upon receiving the detection of the reference object by the detection means, the instruction means for instructing the distance measuring device to measure the mileage of the vehicle, and
A distance acquisition means for acquiring the mileage measured by the distance measuring device, and
With respect to one end and the other end of the evaluation section , based on the position where each mileage after receiving an instruction from the instruction means acquired by the distance acquisition means reaches a designated distance, the one end of the evaluation section and the other end. A position estimating means for estimating the position of the other end,
A second image acquisition means for acquiring an image captured by the second image pickup device, and
Using the image acquired by the second image acquisition means, a measuring means for measuring the surface texture of the evaluation target in the evaluation section, and a measuring means.
An evaluation system including an evaluation means for evaluating the evaluation target in the evaluation section based on the surface texture measured by the measuring means.
評価対象の評価区間を推定する情報処理方法であって、
前記評価対象上を走行する車両に搭載された撮像装置により撮像された前記評価対象の画像を取得するステップと、
取得された前記画像を参照し、指定された特徴を有する基準物体を検知するステップと、
前記基準物体が検知されたことを受けて、前記車両に搭載された距離計測装置に対して該車両の走行距離の計測を指示するステップと、
前記距離計測装置により計測された前記走行距離を取得するステップと、
前記評価区間の一端と他端とにつき取得された計測の指示を受けてからの各走行距離がそれぞれ指定された距離に達した位置に基づき、前記評価区間の一端と他端の位置を推定するステップとを含む、情報処理方法。
An information processing method that estimates the evaluation section to be evaluated.
A step of acquiring an image of the evaluation target captured by an imaging device mounted on a vehicle traveling on the evaluation target, and a step of acquiring the image of the evaluation target.
A step of detecting a reference object having a specified feature by referring to the acquired image, and
In response to the detection of the reference object, a step of instructing the distance measuring device mounted on the vehicle to measure the mileage of the vehicle, and
A step of acquiring the mileage measured by the distance measuring device, and
The positions of one end and the other end of the evaluation section are estimated based on the positions where each mileage after receiving the measurement instruction acquired for one end and the other end of the evaluation section reaches the specified distance. Information processing methods, including steps.
評価対象の評価区間を推定する処理をコンピュータに実行させるためのプログラムであって、
前記評価対象上を走行する車両に搭載された撮像装置により撮像された前記評価対象を含む画像を取得するステップと、
取得された前記画像を参照し、指定された特徴を有する基準物体を検知するステップと、
前記基準物体が検知されたことを受けて、前記車両に搭載された距離計測装置に対して該車両の走行距離の計測を指示するステップと、
前記距離計測装置により計測された前記走行距離を取得するステップと、
前記評価区間の一端と他端とにつき取得された計測の指示を受けてからの各走行距離がそれぞれ指定された距離に達した位置に基づき、前記評価区間の一端と他端の位置を推定するステップとを実行させる、プログラム。
A program for causing a computer to execute a process of estimating an evaluation interval to be evaluated.
A step of acquiring an image including the evaluation target captured by an imaging device mounted on a vehicle traveling on the evaluation target, and a step of acquiring the image including the evaluation target.
A step of detecting a reference object having a specified feature by referring to the acquired image, and
In response to the detection of the reference object, a step of instructing the distance measuring device mounted on the vehicle to measure the mileage of the vehicle, and
A step of acquiring the mileage measured by the distance measuring device, and
The positions of one end and the other end of the evaluation section are estimated based on the positions where each mileage after receiving the measurement instruction acquired for one end and the other end of the evaluation section reaches the specified distance. A program that executes steps and.
JP2017050795A 2017-03-16 2017-03-16 Information processing system, evaluation system, information processing method and program Active JP6965536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017050795A JP6965536B2 (en) 2017-03-16 2017-03-16 Information processing system, evaluation system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017050795A JP6965536B2 (en) 2017-03-16 2017-03-16 Information processing system, evaluation system, information processing method and program

Publications (2)

Publication Number Publication Date
JP2018154979A JP2018154979A (en) 2018-10-04
JP6965536B2 true JP6965536B2 (en) 2021-11-10

Family

ID=63715615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017050795A Active JP6965536B2 (en) 2017-03-16 2017-03-16 Information processing system, evaluation system, information processing method and program

Country Status (1)

Country Link
JP (1) JP6965536B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7115263B2 (en) * 2018-11-30 2022-08-09 株式会社リコー Evaluation device, investigation system, evaluation method and program
JP7156527B2 (en) * 2019-06-28 2022-10-19 日本電気株式会社 Road surface inspection device, road surface inspection method, and program
JP7067852B1 (en) 2022-02-01 2022-05-16 株式会社ファンクリエイト Calculation method of road surface damage position

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260141A (en) * 1997-03-18 1998-09-29 Hitachi Denshi Ltd Defect inspection apparatus
JP5014464B2 (en) * 2010-05-19 2012-08-29 阪神高速技術株式会社 Road inspection method and road inspection vehicle
JP5803723B2 (en) * 2012-02-14 2015-11-04 富士通株式会社 Structure inspection support method, structure inspection support program, and structure inspection support device
JP2015162228A (en) * 2014-02-28 2015-09-07 スズキ株式会社 vehicle control device
JP6349814B2 (en) * 2014-03-18 2018-07-04 富士通株式会社 Road surface state measuring method, road surface deterioration point identifying method, information processing apparatus, and program

Also Published As

Publication number Publication date
JP2018154979A (en) 2018-10-04

Similar Documents

Publication Publication Date Title
JP6713505B2 (en) Pavement information collection and inspection system, pavement information collection and inspection method, and program
KR101032160B1 (en) System and method for road visibility measurement using camera
JP2014528063A (en) A method using a 3D camera for determining whether a vehicle can pass through an object
JP2023036624A (en) Data collection device, road status evaluation support device, and program
JP5602324B1 (en) Road measurement system
US20130173208A1 (en) Road surface inspection device and recording medium
CN111932901B (en) Road vehicle tracking detection apparatus, method and storage medium
JP6965536B2 (en) Information processing system, evaluation system, information processing method and program
JP7314693B2 (en) Road surface condition investigation system, road surface condition investigation method, and road surface condition investigation program
US20190026568A1 (en) Systems and methods for augmentating upright object detection
CN109074727A (en) Safe driving assistant system, vehicle and program
JP5433525B2 (en) Vehicle travel support device and road marking creation method
US20240167962A1 (en) System and method for automatic monitoring of pavement condition
CN102663352A (en) Track identification method
JP4940177B2 (en) Traffic flow measuring device
EP3315998B1 (en) Apparatus and method for determining a speed of a vehicle
JP2022155303A (en) Measurement method of damage of road surface
CN114729806A (en) System and method for detecting vehicle wheel slip
JP6614229B2 (en) Lane recognition device and lane recognition method
JP6419260B1 (en) Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program
KR20200002257A (en) Corner detection-based road sign detecting method and apparatus
JP5677281B2 (en) Vehicle detection device
JP2016085105A (en) Moving entity speed estimation system, method, and program
JP6220322B2 (en) HOME DETECTING METHOD, HOME DETECTING DEVICE, AND TRAIN OPENING SUPPORT DEVICE
BR112018071020B1 (en) MOBILE BODY SURROUNDINGS DISPLAY METHOD AND MOVABLE SURROUNDINGS DISPLAY DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R151 Written notification of patent or utility model registration

Ref document number: 6965536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151