JP2018154979A - Information processing system, evaluation system, and information processing method and program - Google Patents

Information processing system, evaluation system, and information processing method and program Download PDF

Info

Publication number
JP2018154979A
JP2018154979A JP2017050795A JP2017050795A JP2018154979A JP 2018154979 A JP2018154979 A JP 2018154979A JP 2017050795 A JP2017050795 A JP 2017050795A JP 2017050795 A JP2017050795 A JP 2017050795A JP 2018154979 A JP2018154979 A JP 2018154979A
Authority
JP
Japan
Prior art keywords
distance
evaluation
image
vehicle
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017050795A
Other languages
Japanese (ja)
Other versions
JP6965536B2 (en
Inventor
伊藤 泉
Izumi Ito
泉 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017050795A priority Critical patent/JP6965536B2/en
Publication of JP2018154979A publication Critical patent/JP2018154979A/en
Application granted granted Critical
Publication of JP6965536B2 publication Critical patent/JP6965536B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a system and method and the like, with which it is possible to detect an evaluation section with high accuracy even when the state of an evaluation object is different or when temporal changes occur in an evaluation object.SOLUTION: An information processing system for estimating an evaluation section of an evaluation object includes: image acquisition means for acquiring an image including an evaluation object imaged by an imaging device installed in a vehicle traveling on the evaluation object; detection means for referring to the acquired image and detecting a reference object having designated characteristics; instruction means for instructing a distance measuring apparatus installed in the vehicle to measure the travel distance of the vehicle in response to the detection of the reference object; distance acquisition means for acquiring the travel distance measured by the distance measuring apparatus; and position estimating means for estimating the positions of one end and the other end of an evaluation section based on the positions at which each travel distance acquired by the distance acquisition means reaches the designated distances for the one end and the other end of the evaluation section.SELECTED DRAWING: Figure 5

Description

本発明は、評価対象の評価区間を推定する情報処理システム、評価システム、情報処理方法および該評価区間を推定する処理をコンピュータに実行させるためのプログラムに関する。   The present invention relates to an information processing system for estimating an evaluation section to be evaluated, an evaluation system, an information processing method, and a program for causing a computer to execute processing for estimating the evaluation section.

道路、線路、トンネル等は、車両の通行、気候、外部からの圧力等によって損傷し、その損傷が拡大すると、重大な事故等の発生に繋がることから、その評価を行うために定期的な点検が必要とされている。道路路面については、代表的な損傷点検項目として、ひび割れ、わだち掘れ(道路の幅方向の凹凸)、平坦性(車両進行方向の凹凸)等がある。   Roads, railways, tunnels, etc. are damaged by vehicle traffic, climate, external pressure, etc., and if the damage expands, it will lead to the occurrence of serious accidents. Is needed. For road surfaces, typical damage inspection items include cracks, rutting (unevenness in the width direction of the road), flatness (unevenness in the vehicle traveling direction), and the like.

これらの項目を点検する際、ひび割れについては路面の撮影画像の取得、わだち掘れ、平坦性については三次元形状計測データの取得が必要とされている。このことから、ひび割れ撮影用のカメラ機材と、対象をレーザ照射し、カメラ撮影することで三次元形状計測を行う光切断計測機材と、車両の前後2箇所以上に設置した路面高さセンサとを備えたシステムが一般的に利用されている。   When inspecting these items, it is necessary to acquire a photographed image of the road surface for cracks, and to acquire three-dimensional shape measurement data for rubbing and flatness. From this, the camera equipment for shooting cracks, the light cutting measurement equipment that measures the three-dimensional shape by irradiating the subject with laser and taking the camera, and the road surface height sensor installed at two or more places in the front and back of the vehicle The equipped system is generally used.

道路の点検は年に一度、特定の路線を対象に行われ、上記のシステムを利用した撮影、計測に先立ち、事前調査が実施される。事前調査では、評価対象(路面)の評価区間(点検区間)の開始位置および終了位置、市町村の境界、車線構成、道路構造物(橋梁、トンネル、高架橋)等の位置、ルートの確認を行う。点検区間の開始位置および終了位置には、撮影画像から確認することができるように、路面にマーキングを施すことが必要とされている。この路面のマーキングは、検査コストを増加させ、検査の工数を増加させる。   Road inspections are conducted once a year on specific routes, and a preliminary survey is conducted prior to photography and measurement using the above system. In the preliminary survey, the start position and end position of the evaluation section (inspection section) of the evaluation target (road surface), the boundaries of municipalities, the lane configuration, the position of road structures (bridges, tunnels, viaducts), and the route are confirmed. It is necessary to mark the road surface at the start position and the end position of the inspection section so that they can be confirmed from the captured image. This marking on the road surface increases the inspection cost and increases the number of inspection steps.

そこで、取得した位置データと加速度データに基づいて路面性状を示す路面指標を算出し、その路面指標と類似する事前測定路面指標に対応する車線を車両が走行した車線として特定する技術が提案されている(特許文献1参照)。   Therefore, a technique has been proposed in which a road surface index indicating road surface properties is calculated based on the acquired position data and acceleration data, and the lane corresponding to the pre-measured road surface index similar to the road surface index is identified as the lane on which the vehicle has traveled. (See Patent Document 1).

しかしながら、上記の技術では、路面の状態や経時的変化等によって、対応する区間であるにも関わらず、類似する事前測定路面指標と判断されない場合があるという問題があった。   However, the above-described technique has a problem in that it may not be determined as a similar pre-measured road surface index due to a road surface condition, a change with time, or the like even though the corresponding section is a corresponding section.

本発明は、上記の問題に鑑みてなされたものであり、評価対象の状態が異なる場合や、評価対象に経時的変化が生じた場合でも、高い精度で評価区間を推定することができるシステム、方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and a system that can estimate an evaluation interval with high accuracy even when the state of an evaluation object is different or when a change with time occurs in the evaluation object, An object is to provide a method and a program.

上述した課題を解決するために、発明の一実施形態では、評価対象の評価区間を推定する情報処理システムであって、
評価対象上を走行する車両に搭載された撮像装置により撮像された評価対象を含む画像を取得する画像取得手段と、
画像取得手段により取得された画像を参照し、指定された特徴を有する基準物体を検知する検知手段と、
検知手段により基準物体が検知されたことを受けて、車両に搭載された距離計測装置に対して該車両の走行距離の計測を指示する指示手段と、
距離計測装置により計測された走行距離を取得する距離取得手段と、
評価区間の一端と他端とにつき距離取得手段により取得された各走行距離がそれぞれ指定された距離に達した位置に基づき、評価区間の一端と他端の位置を推定する位置推定手段とを含む、情報処理システムを提供する。
In order to solve the above-described problem, an embodiment of the invention is an information processing system that estimates an evaluation section of an evaluation target,
Image acquisition means for acquiring an image including an evaluation object imaged by an imaging device mounted on a vehicle traveling on the evaluation object;
Detecting means for detecting a reference object having a specified feature with reference to the image acquired by the image acquiring means;
Instructing means for instructing the distance measuring device mounted on the vehicle to measure the travel distance of the vehicle in response to the detection of the reference object by the detecting means,
Distance acquisition means for acquiring a travel distance measured by the distance measuring device;
Position estimation means for estimating the positions of one end and the other end of the evaluation section based on the positions at which the respective travel distances acquired by the distance acquisition means reach the designated distance for one end and the other end of the evaluation section An information processing system is provided.

本発明によれば、評価対象の状態が異なる場合や、評価対象に経時的変化が生じた場合でも、高い精度で評価区間を推定することが可能となる。   According to the present invention, it is possible to estimate the evaluation interval with high accuracy even when the state of the evaluation target is different or when the evaluation target changes with time.

評価システムの構成例を示した図。The figure which showed the example of a structure of the evaluation system. 評価システムにより評価対象としての路面を点検しているところを例示した図。The figure which illustrated the place which is checking the road surface as evaluation object by the evaluation system. 評価システムが備える路面を撮像する路面カメラのハードウェア構成の一例を示した図。The figure which showed an example of the hardware constitutions of the road surface camera which images the road surface with which an evaluation system is provided. 評価システムが備える情報処理装置のハードウェア構成の一例を示した図。The figure which showed an example of the hardware constitutions of the information processing apparatus with which an evaluation system is provided. 情報処理装置の機能構成の一例を示したブロック図。The block diagram which showed an example of the function structure of information processing apparatus. 評価システムにより実行される路面の点検処理の一例を示したフローチャート。The flowchart which showed an example of the road surface inspection process performed by an evaluation system. 評価システムにより実行される点検区間の開始点を設定する処理の一例を示したフローチャート。The flowchart which showed an example of the process which sets the starting point of the inspection area performed by an evaluation system. 点検区間の開始点を特定する際の路面上の車両の位置と、周辺カメラで撮像される画像とを例示した図。The figure which illustrated the position of the vehicle on the road surface at the time of specifying the starting point of an inspection section, and the picture picturized with a peripheral camera. 評価システムにより実行される点検区間の終了点を設定する処理の一例を示したフローチャート。The flowchart which showed an example of the process which sets the end point of the inspection area performed by an evaluation system. 点検区間の終了点を特定する際の路面上の車両の位置と、周辺カメラで撮像される画像とを例示した図。The figure which illustrated the position of the vehicle on the road surface at the time of specifying the end point of an inspection section, and the picture picturized with a peripheral camera. 概要情報について説明する図。The figure explaining summary information. 基準被写体の一例を示した図。The figure which showed an example of the reference | standard subject. 基準被写体の別の例を示した図。The figure which showed another example of the reference | standard subject. 基準被写体から離れた開始点または終了点を推定する処理を説明する図。The figure explaining the process which estimates the start point or end point away from the reference | standard subject. 区間長を推定する処理の一例を示したフローチャート。The flowchart which showed an example of the process which estimates area length. 位置推定データおよび路面性状計測データの良否判定処理の一例を示したフローチャート。The flowchart which showed an example of the quality determination process of position estimation data and road surface property measurement data.

図1は、評価システムの構成例を示した図である。評価システムは、評価対象の評価区間を推定し、推定した評価区間の表面性状を評価するシステムである。評価対象は、路面、線路、トンネルの内面等の一方に長く延びる構造物であれば、いかなる構造物であってもよい。この評価システムは、このような一方に長く延びる構造物を一定の区間に区切ってその表面性状を評価する場合に利用される。以下、評価対象を路面とし、評価区間を路面の点検区間とし、評価システムをその路面の点検を行い、損傷の有無やその程度を評価する路面点検システムとして説明する。   FIG. 1 is a diagram illustrating a configuration example of an evaluation system. The evaluation system is a system that estimates an evaluation section to be evaluated and evaluates the surface properties of the estimated evaluation section. The evaluation object may be any structure as long as it is a structure that extends long in one of the road surface, the track, the inner surface of the tunnel, and the like. This evaluation system is used when a surface structure is evaluated by dividing a structure extending in one direction into a certain section. Hereinafter, the evaluation target is a road surface, the evaluation section is a road surface inspection section, and the evaluation system is described as a road surface inspection system that inspects the road surface and evaluates the presence or absence of damage.

路面点検システムは、車両10に搭載され、路面11を撮像する撮像装置としての路面カメラ12と、路面11を含む路面11の周辺を撮像する撮像装置としての周辺カメラ13と、各種の情報を格納し、処理を行う情報処理装置14とを備えている。また、路面点検システムは、車両10に搭載され、車両10の位置を計測する位置計測装置としてのGPS(Global Positioning System)センサ15と、車両10の走行距離を計測する距離計測装置16とをさらに備えている。   The road surface inspection system is mounted on the vehicle 10 and stores a road camera 12 as an imaging device that images the road surface 11, a peripheral camera 13 as an imaging device that images the periphery of the road surface 11 including the road surface 11, and various types of information. And an information processing device 14 that performs processing. The road surface inspection system further includes a GPS (Global Positioning System) sensor 15 that is mounted on the vehicle 10 and measures the position of the vehicle 10, and a distance measurement device 16 that measures the travel distance of the vehicle 10. I have.

路面11は、多数の車両の通行等により、ひび割れやわだち掘れが発生し、平坦性が損なわれる。これらは、路面11の損傷として損傷点検項目に入れられている。わだち掘れは、道路の幅方向の凹凸である。平坦性が損なわれるとは、車両の進行方向の凹凸が発生したことを意味する。   The road surface 11 is cracked or ruched due to the passage of a large number of vehicles, and the flatness is impaired. These are included in the damage inspection items as damage to the road surface 11. Rutting is an unevenness in the width direction of the road. That flatness is impaired means that the unevenness | corrugation of the advancing direction of the vehicle generate | occur | produced.

路面カメラ12は、図1および図2(a)に示すように車両10の後方側に設置され、図2(b)に示すように2以上のカメラが斜め下方の路面11に向くように一列に並べて配置されたステレオカメラである。路面カメラ12は、図2(a)、(b)に示すように各カメラで評価対象の路面11の所定範囲17を撮像する。ステレオカメラは、例えば左右に並べた2つのカメラの視差情報を利用し、評価対象の路面11に形成された凹凸等の奥行き情報を得るためのカメラである。   The road surface camera 12 is installed on the rear side of the vehicle 10 as shown in FIGS. 1 and 2A, and as shown in FIG. 2B, the two or more cameras are arranged in a row so as to face the road surface 11 obliquely below. Stereo cameras arranged side by side. The road surface camera 12 images the predetermined range 17 of the road surface 11 to be evaluated with each camera as shown in FIGS. The stereo camera is a camera for obtaining depth information such as unevenness formed on the road surface 11 to be evaluated using, for example, parallax information of two cameras arranged side by side.

視差は、対象とする点(対象点)が見える方向で異なることをいい、視差を利用することで、三角測量の原理により対象点との距離を求めることができる。この距離がどの対象点でも一定であれば、路面11に凹凸がなく、一定でない場合、凹凸が存在することを検知することができる。また、その距離に応じて、どの程度の高さの山や深さの溝が存在するかを検出することができる。   Parallax means that the target point (target point) is different in the direction in which it can be seen. By using parallax, the distance to the target point can be obtained by the principle of triangulation. If this distance is constant at any target point, the road surface 11 has no unevenness, and if it is not constant, it can be detected that there is unevenness. In addition, it is possible to detect how high a mountain or a deep groove exists according to the distance.

この路面点検システムでは、図2に示すように、車両10で路面11上を走行しながら、路面カメラ12で路面11の所定範囲17を、進行方向にその一部が重なるように撮像していく。そして、撮像した各画像から路面11の凹凸等の表面性状を計測し、計測した表面性状に基づき、路面11の損傷の有無、損傷の度合いを評価する。なお、撮像した画像から上記の表面性状を計測し、その表面性状に基づき、損傷の有無を検出し、損傷の度合いを評価する処理は、情報処理装置14により行うことができる。   In this road surface inspection system, as shown in FIG. 2, while traveling on the road surface 11 with the vehicle 10, the road surface camera 12 images the predetermined range 17 of the road surface 11 so that a part thereof overlaps in the traveling direction. . Then, surface properties such as irregularities of the road surface 11 are measured from each captured image, and the presence or absence of the road surface 11 and the degree of damage are evaluated based on the measured surface properties. Note that the information processing apparatus 14 can perform the process of measuring the surface property from the captured image, detecting the presence or absence of damage based on the surface property, and evaluating the degree of damage.

図1および図2に示す例では、路面11の表面性状を計測するための情報を取得するために、路面カメラ12を用いているが、これに限られるものではない。例えば、レーザ照射装置とカメラから構成される光切断計測機材や、距離認識が可能な単眼カメラ等であってもよい。   In the example shown in FIGS. 1 and 2, the road surface camera 12 is used to acquire information for measuring the surface property of the road surface 11. However, the present invention is not limited to this. For example, it may be a light cutting measuring instrument composed of a laser irradiation device and a camera, a monocular camera capable of distance recognition, or the like.

周辺カメラ13は、車両10に設置され、車両10の前方の路面11およびその周辺の、予め指定された特徴を有する基準物体を撮像する。基準物体は、点検区間の一端および他端をそれぞれ推定する際の基準となる物体であればいかなる物体であってもよい。基準物体としては、例えば信号機、標識、縁石、停止線、横断歩道線、マンホール、交差点中央瀬、郵便ポスト等を挙げることができる。   The peripheral camera 13 is installed in the vehicle 10 and images a reference object having a predesignated characteristic on the road surface 11 in front of the vehicle 10 and its periphery. The reference object may be any object as long as it is a reference object for estimating one end and the other end of the inspection section. Examples of the reference object include a traffic light, a sign, a curb, a stop line, a pedestrian crossing line, a manhole, an intersection central set, and a post box.

情報処理装置14は、タブレット端末やノートPC等とされ、上記の表面性状の計測、評価のほか、周辺カメラ13で撮像された画像に基づき、路面11の点検区間の一端および他端を推定する処理を実行する。   The information processing apparatus 14 is a tablet terminal, a notebook PC, or the like, and estimates one end and the other end of the inspection section of the road surface 11 based on the image captured by the peripheral camera 13 in addition to the measurement and evaluation of the surface properties. Execute the process.

GPSセンサ15は、GPS受信機を備え、複数のGPS衛星から発信された信号を受信し、その信号の到達時間の時間差から、GPS受信機の位置を緯度、経度の情報として測定する。したがって、GPSセンサ15でも車両10の現在位置を測定することができる。しかしながら、GPSセンサ15は、GPS受信機の位置を数mの精度で測定するため、測定誤差が数m程度あることを意味し、その精度が低い。   The GPS sensor 15 includes a GPS receiver, receives signals transmitted from a plurality of GPS satellites, and measures the position of the GPS receiver as latitude and longitude information from the time difference between arrival times of the signals. Accordingly, the GPS sensor 15 can also measure the current position of the vehicle 10. However, since the GPS sensor 15 measures the position of the GPS receiver with an accuracy of several meters, it means that the measurement error is about several meters, and the accuracy is low.

距離計測装置16は、走行距離メータ等とされ、例えば車両10の車輪の円周の長さの情報を保持し、回転数を計測することで、走行距離を算出する。走行距離は、車輪の円周の長さと計測した回転数との積により算出することができる。これは一例であるため、その他の方法により距離を計測してもよい。   The distance measuring device 16 is a travel distance meter or the like, for example, holds information on the circumferential length of the wheel of the vehicle 10 and calculates the travel distance by measuring the number of rotations. The travel distance can be calculated by the product of the circumference of the wheel and the measured rotational speed. Since this is an example, the distance may be measured by other methods.

路面点検システムは、周辺カメラ13と情報処理装置14とGPSセンサ15と距離計測装置16とを用いて、路面11の点検区間の一端および他端を、GPSセンサ15の位置測定精度より高い精度で推定する。一端は、点検区間の開始位置(開始点)であり、他端は、点検区間の終了位置(終了点)である。   The road surface inspection system uses the peripheral camera 13, the information processing device 14, the GPS sensor 15, and the distance measurement device 16, so that one end and the other end of the inspection section of the road surface 11 are higher in accuracy than the position measurement accuracy of the GPS sensor 15. presume. One end is the start position (start point) of the inspection section, and the other end is the end position (end point) of the inspection section.

車両10は、前方のエンジン部分と、それに連続する客室部分の2つの箱(ボックス)からなる2ボックス型、または1つの箱からなる1ボックス型の車体形式のものすることができる。そして、路面カメラ12および周辺カメラ13は、その車両10の屋根(ルーフ)上に取り付けることができ、車両10の後方の路面11および車両10の前方の周辺を撮像することができる。周辺カメラ13は、車内のフロントガラス付近に取り付けられてもよい。情報処理装置14は、車両10の室内に配置され、GPSセンサ15、距離計測装置は、車両10の室内、室外のいずれに設置されていてもよい。   The vehicle 10 can be of a two-box type consisting of two boxes (boxes) of a front engine part and a passenger compartment part following it, or a one-box type body type consisting of one box. The road surface camera 12 and the peripheral camera 13 can be mounted on the roof of the vehicle 10, and the road surface 11 behind the vehicle 10 and the periphery around the front of the vehicle 10 can be imaged. The peripheral camera 13 may be attached near the windshield inside the vehicle. The information processing device 14 is arranged in the room of the vehicle 10, and the GPS sensor 15 and the distance measurement device may be installed either in the room of the vehicle 10 or outdoors.

図1に示す例では、表面性状の計測、評価、点検区間の推定を、情報処理装置14という1つの機器で行っているが、これに限られるものではなく、2以上の機器で各処理を実行する構成であってもよい。その際、各機器は、ケーブル等の有線で接続されていてもよいし、無線で接続されていてもよい。また、各機器は、機器同士が直接接続されていてもよいし、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続されていてもよい。   In the example shown in FIG. 1, measurement of surface properties, evaluation, and estimation of an inspection section are performed by one device called the information processing device 14, but the present invention is not limited to this, and each process is performed by two or more devices. It may be configured to execute. In that case, each apparatus may be connected by wire, such as a cable, and may be connected by radio | wireless. The devices may be directly connected to each other, or may be connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network).

ネットワークを介して接続される場合、そのネットワークは、1つのネットワークであってもよいし、ルータやプロキシサーバ等の中継装置により接続された2以上からなるネットワークであってもよい。このため、1つの機器から構成される情報処理装置14や、2以上の機器から構成されるシステムのいずれをも含む情報処理システムを、上記処理を実行するシステムとして採用することができる。なお、情報処理システムは、1以上の機器から構成されるものに限らず、集積回路等の電子部品(モジュール)で構成されるものであってもよい。   When connected via a network, the network may be a single network or a network composed of two or more connected by a relay device such as a router or a proxy server. For this reason, an information processing system including any of the information processing apparatus 14 configured by one device and a system configured by two or more devices can be employed as a system for executing the above-described processing. The information processing system is not limited to one constituted by one or more devices, and may be constituted by electronic components (modules) such as an integrated circuit.

路面カメラ12は、車両10の後方側に、進行方向とは反対の方向に向けて設置されることに限られるものではなく、車両10の前方側に、進行方向に向けて設置されてもよい。周辺カメラ13も、路面カメラ12と同様、車両10の前方側に、進行方向に向けて設置されることに限らず、車両10の後方側に、進行方向とは反対の方向に向けて設置されていてもよい。   The road surface camera 12 is not limited to being installed on the rear side of the vehicle 10 in a direction opposite to the traveling direction, and may be installed on the front side of the vehicle 10 in the traveling direction. . Similarly to the road surface camera 12, the peripheral camera 13 is not limited to being installed on the front side of the vehicle 10 in the traveling direction, but is installed on the rear side of the vehicle 10 in the direction opposite to the traveling direction. It may be.

図3を参照して、路面カメラ12のハードウェア構成について説明する。路面カメラ12は、2以上の撮像手段から構成されている。図3に示す例では、路面カメラ12は、左右2つのカメラ20、21から構成され、カメラ20は、レンズ22、画像センサ23、センサコントローラ24を備え、カメラ21も、レンズ25、画像センサ26、センサコントローラ27を備えている。なお、レンズ22とレンズ25、画像センサ23と画像センサ26、センサコントローラ24とセンサコントローラ27は同一のものである。   A hardware configuration of the road surface camera 12 will be described with reference to FIG. The road surface camera 12 is composed of two or more imaging means. In the example illustrated in FIG. 3, the road surface camera 12 includes two left and right cameras 20 and 21. The camera 20 includes a lens 22, an image sensor 23, and a sensor controller 24, and the camera 21 also includes a lens 25 and an image sensor 26. The sensor controller 27 is provided. The lens 22 and the lens 25, the image sensor 23 and the image sensor 26, and the sensor controller 24 and the sensor controller 27 are the same.

左右の2つのカメラ20、21は、平行に組み付けられて構成されており、路面11を2つのカメラ20、21で同時に撮像する。撮像して得られた2つの画像上の物体は、各画像上での位置が異なるため、その位置の違い(視差)から、その物体の位置や立体的な形状を求めることができる。その方法については良く知られているため、ここでは詳述しない。   The two left and right cameras 20 and 21 are assembled in parallel, and the road surface 11 is simultaneously imaged by the two cameras 20 and 21. Since the object on the two images obtained by imaging has different positions on each image, the position and three-dimensional shape of the object can be obtained from the difference in position (parallax). The method is well known and will not be described in detail here.

画像センサ23は、レンズ22を通して入射された光を電気信号に変換し、画像データとして出力する。画像センサ23としては、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)で構成されるイメージセンサを用いることができる。   The image sensor 23 converts light incident through the lens 22 into an electrical signal and outputs it as image data. As the image sensor 23, for example, an image sensor constituted by a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) can be used.

センサコントローラ24は、画像センサ23の露光制御、画像の読み出し制御、外部機器との通信および画像データの送信制御等を行う。露光とは、レンズ22を通した入射された光に画像センサ23をさらすことをいう。露光制御は、例えばシャッターの開閉により露光時間を制御することにより実現することができる。センサコントローラ24は、外部機器としての情報処理装置14と通信を行い、情報処理装置14に対して撮像した画像の画像データを送信する。   The sensor controller 24 performs exposure control of the image sensor 23, image readout control, communication with an external device, image data transmission control, and the like. Exposure refers to exposing the image sensor 23 to incident light that has passed through the lens 22. The exposure control can be realized, for example, by controlling the exposure time by opening / closing a shutter. The sensor controller 24 communicates with the information processing apparatus 14 as an external device, and transmits image data of the captured image to the information processing apparatus 14.

周辺カメラ13は、路面カメラ12を構成する左右2つのカメラ20、21のうちの1つのカメラと同様の構成を採用することができる。また、周辺カメラ13は、路面カメラ12と同様、左右2つのカメラから構成されるステレオカメラとすることもできる。なお、路面カメラ12および周辺カメラ13は、1台ずつに限られるものではなく、複数台であってもよい。   The peripheral camera 13 can employ the same configuration as that of one of the two left and right cameras 20 and 21 constituting the road surface camera 12. The peripheral camera 13 can also be a stereo camera composed of two left and right cameras, like the road surface camera 12. Note that the road surface camera 12 and the peripheral camera 13 are not limited to one each, and may be a plurality.

図4を参照して、情報処理装置14のハードウェア構成について説明する。情報処理装置14は、ハードウェアとして、CPU(Central Processing Unit)30、ROM(Read Only Memory)31、RAM(Random Access Memory)32、HDD(Hard Disk Drive)33、通信I/F34、入出力I/F35、表示装置36、入力装置37を備える。これらは、バス38に接続され、バス38を介して互いに情報のやりとりを行う。   The hardware configuration of the information processing apparatus 14 will be described with reference to FIG. The information processing apparatus 14 includes, as hardware, a CPU (Central Processing Unit) 30, a ROM (Read Only Memory) 31, a RAM (Random Access Memory) 32, an HDD (Hard Disk Drive) 33, a communication I / F 34, an input / output I / F 35, display device 36, and input device 37. These are connected to the bus 38 and exchange information with each other via the bus 38.

CPU30は、情報処理装置14全体を制御し、路面11の損傷の有無の検出や損傷の評価等の処理を実行する。また、CPU30は、周辺カメラ13で撮像された画像に基づき、路面11の点検区間の一端および他端を推定する処理を実行する。ROM31は、情報処理装置14を起動させるためのブートプログラムや、HDD33や通信I/F34等を制御するためのファームウェア等を格納する。RAM32は、CPU30に対して作業領域を提供する。   The CPU 30 controls the entire information processing apparatus 14 and executes processing such as detection of the presence or absence of damage to the road surface 11 and evaluation of damage. Further, the CPU 30 executes processing for estimating one end and the other end of the inspection section of the road surface 11 based on the image captured by the peripheral camera 13. The ROM 31 stores a boot program for starting the information processing apparatus 14, firmware for controlling the HDD 33, the communication I / F 34, and the like. The RAM 32 provides a work area for the CPU 30.

HDD33は、OS(Operating System)、受信した画像、上記の処理を実行させるためのプログラム等を格納する。通信I/F34は、路面カメラ12、周辺カメラ13、GPSセンサ15、距離計測装置16と接続し、それらの機器との間で通信を行う。   The HDD 33 stores an OS (Operating System), received images, a program for executing the above processing, and the like. The communication I / F 34 is connected to the road surface camera 12, the peripheral camera 13, the GPS sensor 15, and the distance measuring device 16 and communicates with these devices.

入出力I/F35は、表示装置36および入力装置37をバス38に接続し、CPU30で処理した情報を表示装置36に表示させ、入力装置37から入力された情報をCPU30に対して提供し、情報の入出力を制御する。表示装置36は、液晶ディスプレイ等の情報を表示する機器で、入力装置37は、マウスやキーボード等の情報の入力を受け付けるための機器である。   The input / output I / F 35 connects the display device 36 and the input device 37 to the bus 38, displays the information processed by the CPU 30 on the display device 36, and provides the information input from the input device 37 to the CPU 30. Control input and output of information. The display device 36 is a device that displays information such as a liquid crystal display, and the input device 37 is a device that accepts input of information such as a mouse and a keyboard.

情報処理装置14は、これらのほか、外付けHDD等の外部記憶装置と接続し、外部記憶装置への情報の格納や読み出しを制御するための外部記憶I/F、音声入力装置、音声出力装置、カメラ等の撮像装置等を備えることもできる。   In addition to these, the information processing device 14 is connected to an external storage device such as an external HDD, and an external storage I / F, a voice input device, and a voice output device for controlling storage and reading of information in the external storage device. An imaging device such as a camera can also be provided.

図5を参照して、情報処理装置14の機能構成について説明する。情報処理装置14は、CPU30がHDD33に格納されたプログラムを実行することにより1以上の機能部を生成し、それらの機能部を備えることができる。   The functional configuration of the information processing apparatus 14 will be described with reference to FIG. The information processing apparatus 14 can generate one or more functional units when the CPU 30 executes a program stored in the HDD 33, and can include these functional units.

情報処理装置14は、機能部として、路面カメラ12により同時に撮像された2つの画像を取得する路面画像取得部40と、路面画像取得部40により取得された2つの画像を画像データとして格納する格納部41を備える。また、情報処理装置14は、格納部41により格納された2つの画像を用いて、路面カメラ12から路面11の各位置までの距離を計算して表面性状を計測し、そのデータを路面性状計測データとして出力する計測部42を備える。さらに、情報処理装置14は、計測部42が計測した表面性状、すなわち計測部42が出力した路面性状計測データに基づき、路面11の損傷の有無を検出し、損傷の度合いを評価した評価結果を出力する評価部43とを備える。この例では、計測部42が出力した路面性状計測データは一旦、格納部41に格納され、評価部43が格納部41から路面性状計測データを取得する構成とされている。   The information processing apparatus 14 stores, as function units, a road surface image acquisition unit 40 that acquires two images simultaneously captured by the road surface camera 12 and two images acquired by the road surface image acquisition unit 40 as image data. The unit 41 is provided. Further, the information processing device 14 calculates the distance from the road camera 12 to each position of the road surface 11 by using the two images stored by the storage unit 41, measures the surface property, and measures the data to measure the road surface property. A measurement unit 42 that outputs data is provided. Furthermore, the information processing apparatus 14 detects the presence or absence of damage to the road surface 11 based on the surface property measured by the measurement unit 42, that is, the road surface property measurement data output from the measurement unit 42, and evaluates the evaluation result of the degree of damage. And an evaluation unit 43 for outputting. In this example, the road surface property measurement data output from the measurement unit 42 is temporarily stored in the storage unit 41, and the evaluation unit 43 acquires the road surface property measurement data from the storage unit 41.

情報処理装置14は、点検区間を推定する機能を有し、そのための機能部として、周辺画像取得部44と、物体検知部45と、指示部46と、距離取得部47と、位置推定部48とを備える。周辺画像取得部44は、周辺カメラ13により撮像された画像を、周辺カメラ13から取得する。   The information processing apparatus 14 has a function of estimating an inspection section, and as functional units therefor, a peripheral image acquisition unit 44, an object detection unit 45, an instruction unit 46, a distance acquisition unit 47, and a position estimation unit 48. With. The peripheral image acquisition unit 44 acquires an image captured by the peripheral camera 13 from the peripheral camera 13.

物体検知部45は、周辺画像取得部44により取得された画像を参照し、指定された特徴を有する基準物体、すなわち点検区間の開始点または終了点を推定する際の基準となる基準被写体を検知する。物体検知部45は、周辺画像取得部44により取得された画像を順に参照し、その画像内に基準被写体が存在するかどうかを確認する。   The object detection unit 45 refers to the image acquired by the peripheral image acquisition unit 44 and detects a reference object having a specified feature, that is, a reference subject serving as a reference when estimating the start point or end point of the inspection section. To do. The object detection unit 45 sequentially refers to the images acquired by the peripheral image acquisition unit 44, and confirms whether or not the reference subject exists in the images.

指示部46は、物体検知部45により基準被写体が検知されたことを受けて、車両10に搭載された距離計測装置16に対して車両10の走行距離の計測開始を指示する。距離計測装置16は、この指示を受けて、車両10の走行距離の計測を開始する。距離取得部47は、指示部46から走行距離の計測を開始した旨の通知を受け、距離計測装置16から計測された走行距離を取得する。距離取得部47は、上記の通知を受けた後、一定の時間間隔で走行距離を取得することができる。   In response to the detection of the reference subject by the object detection unit 45, the instruction unit 46 instructs the distance measurement device 16 mounted on the vehicle 10 to start measuring the travel distance of the vehicle 10. In response to this instruction, the distance measuring device 16 starts measuring the travel distance of the vehicle 10. The distance acquisition unit 47 receives a notification that the measurement of the travel distance has been started from the instruction unit 46 and acquires the travel distance measured from the distance measurement device 16. The distance acquisition unit 47 can acquire the travel distance at regular time intervals after receiving the above notification.

位置推定部48は、距離取得部47により取得された走行距離が予め計測され指定された距離に達したかどうかを確認し、その距離に達した場合、その距離に達した位置に基づき、点検区間の開始点を推定する。位置推定部48は、終了点についても同様にして推定する。   The position estimation unit 48 confirms whether or not the travel distance acquired by the distance acquisition unit 47 has been measured in advance and has reached a specified distance. If the travel distance has been reached, the position estimation unit 48 checks based on the position that has reached the distance. Estimate the start point of the interval. The position estimation unit 48 similarly estimates the end point.

なお、物体検知部45により最初の基準被写体を検知し、走行距離を計測して推定した位置が開始点である。その開始点を通過し、次に物体検知部45により基準被写体を検知し、走行距離を計測して推定した位置が終了点である。開始点および終了点の推定は、指定された距離に達した位置を開始点および終了点として推定してもよいし、指定された距離に達した位置から予め決められた距離だけ離れた位置を開始点および終了点として推定してもよい。また、開始点および終了点のいずれか一方を、指定された距離に達した位置とし、他方を指定された距離に達した位置から予め決められた距離だけ離れた位置としてもよい。   Note that a position estimated by detecting the first reference subject by the object detection unit 45 and measuring the travel distance is a starting point. A position that passes through the start point, then detects the reference subject by the object detection unit 45, and measures and estimates the travel distance is the end point. For the estimation of the start point and the end point, the position that has reached the specified distance may be estimated as the start point and the end point, or a position that is separated from the position that has reached the specified distance by a predetermined distance. You may estimate as a start point and an end point. Further, either one of the start point and the end point may be a position that has reached a specified distance, and the other may be a position that is separated from a position that has reached a specified distance by a predetermined distance.

情報処理装置14は、GPSセンサ15から車両10の位置情報を取得する位置情報取得部49を備えることができる。また、情報処理装置14は、位置情報取得部49により取得された位置情報に基づき、車両10の進行方向の、点検区間の開始点または終了点の手前または奥側に存在する目標物体としての交差点を検知する交差点検知部50を備えることができる。目標物体としては、基準被写体を特定するための目標となる物体であればいかなる物体であってもよく、交差点のほか、T字路等を挙げることができる。以下、目標物体を交差点として説明する。   The information processing apparatus 14 can include a position information acquisition unit 49 that acquires position information of the vehicle 10 from the GPS sensor 15. Further, the information processing apparatus 14 is based on the position information acquired by the position information acquisition unit 49, and is an intersection as a target object that exists in the traveling direction of the vehicle 10 before or at the back of the start point or end point of the inspection section. The intersection detection part 50 which detects can be provided. The target object may be any object as long as it is a target object for specifying the reference subject, and includes a T-junction as well as an intersection. Hereinafter, the target object will be described as an intersection.

交差点検知部50は、GPSセンサ15と交差点との距離が一定距離内となった場合に、交差点を検知する。交差点検知部50は、交差点を検知する際、交差点の位置情報を用いる。交差点の位置情報は、例えば交差点の中心位置のGPS位置情報とし、予め設定しておくことができる。交差点の中心位置は、一方に延びる路面の中心線(センターライン)と、それに対して垂直に延びる路面のセンターラインとの交点となる位置である。   The intersection detection unit 50 detects an intersection when the distance between the GPS sensor 15 and the intersection is within a certain distance. When detecting the intersection, the intersection detection unit 50 uses the position information of the intersection. The position information of the intersection can be set in advance as GPS position information of the center position of the intersection, for example. The center position of the intersection is a position that is the intersection of the center line (center line) of the road surface extending in one direction and the center line of the road surface extending perpendicularly thereto.

指示部46は、交差点検知部50により交差点を検知したことを受けて、周辺カメラ13に対して撮像を開始するように指示することができる。そして、指示部46は、周辺画像取得部44に対して周辺カメラ13による撮像を開始した旨を通知することができる。   The instruction unit 46 can instruct the peripheral camera 13 to start imaging in response to the detection of the intersection by the intersection detection unit 50. Then, the instruction unit 46 can notify the peripheral image acquisition unit 44 that imaging by the peripheral camera 13 has started.

図6を参照して、路面点検システムにより実行される路面の点検処理について説明する。点検処理は、ステップ600から開始し、ステップ605で、点検区間の概要情報を設定する。概要情報は、点検区間の始終点に関するGPS位置情報である。GPS位置情報は、精度数m〜10mといった精度の低い情報である。GPS位置情報は、点検区間の開始点、終了点の手前に存在する交差点の位置情報である。   The road surface inspection process executed by the road surface inspection system will be described with reference to FIG. The inspection process starts from step 600, and in step 605, outline information of the inspection section is set. The summary information is GPS position information regarding the start and end points of the inspection section. The GPS position information is information with low accuracy such as an accuracy of several meters to 10 meters. The GPS position information is position information of an intersection existing before the start point and end point of the inspection section.

ステップ610では、点検区間の開始点を設定する。開始点は、基準被写体の付近にある交差点を検知した後、基準被写体を検知したところで、距離計測を開始し、指定された距離に達した位置に基づき推定される。その詳細については後述する。   In step 610, the start point of the inspection section is set. The start point is estimated based on the position at which the distance measurement is started and the specified distance is reached when an intersection near the reference subject is detected and then the reference subject is detected. Details thereof will be described later.

ステップ615で、点検区間の開始点を設定した位置から走行撮影を行い、撮像した路面画像の記録を開始する。路面画像は、車両10の進行方向に対して画像の一部が重なり合うタイミングで撮像が繰り返し行われる。路面カメラ12は、路面11の幅方向全体を撮像可能なように複数台設置されるため、幅方向に対しても画像の一部が重なり合うように複数台が同時に撮像を行う。このようにして路面画像の撮像を行い、ステップ620で、点検区間の終了点を設定する。終了点は、開始点と同様の方法により推定される。これも、詳細については後述する。   In step 615, traveling shooting is performed from the position where the start point of the inspection section is set, and recording of the captured road surface image is started. The road surface image is repeatedly captured at a timing at which a part of the image overlaps the traveling direction of the vehicle 10. Since a plurality of road surface cameras 12 are installed so that the entire width direction of the road surface 11 can be imaged, a plurality of road surface images are simultaneously imaged so that a part of the images overlap in the width direction. In this way, the road surface image is taken, and in step 620, the end point of the inspection section is set. The end point is estimated by the same method as the start point. Details of this will also be described later.

ステップ625で、点検区間の開始点から終了点まで計測した走行距離を、区間長として設定する。ステップ630では、設定した区間長について、最長100mの細分区間に区切り、ひび割れ率、わだち掘れ量、平坦性、MCI(Maintenance Control Index)を求め、それらを付記した帳票を区間評価結果として出力する。MCIは、舗装の維持管理指数で、ひび割れ率、わだち掘れ量、平坦性の3つの要因を組み合わせて舗装の破損程度を点数で表したものである。各細分区間について区間評価結果を出力したところで、ステップ635で処理を終了する。   In step 625, the travel distance measured from the start point to the end point of the inspection section is set as the section length. In step 630, the set section length is divided into sub-sections with a maximum length of 100 m, the cracking rate, rutting amount, flatness, and MCI (Maintenance Control Index) are obtained, and a form with these added is output as the section evaluation result. MCI is a pavement maintenance management index, which indicates the degree of pavement damage in terms of points by combining three factors: cracking rate, rutting, and flatness. When the section evaluation result is output for each subdivision section, the process ends at step 635.

区間評価結果は、上記の他、ひび割れの本数、部分的に補修した部分(パッチ)の面積、へこみ量を含むことができる。このようにして、区間位置設定を自動で行うことができ、一定期間経過後の再評価走行においても、概ね同一位置での評価と路面性状の時間経過に伴うモニタリングが可能となる。このモニタリングを実現するために、情報処理装置14は、表示部をさらに備えることができ、表示部に評価結果や路面カメラ12により撮像された画像等を表示させることができる。   In addition to the above, the section evaluation result can include the number of cracks, the area of a partially repaired part (patch), and the amount of dents. In this way, the section position can be automatically set, and even in the reevaluation running after a certain period of time, evaluation at substantially the same position and monitoring with the passage of time of road surface properties are possible. In order to realize this monitoring, the information processing apparatus 14 can further include a display unit, and can display an evaluation result, an image captured by the road surface camera 12, or the like on the display unit.

図7および図8を参照して、図6に示すステップ610の点検区間の開始点を設定する処理について説明する。図7に示すステップ700から開始し、この段階では、GPSセンサ15が既に車両10の位置の計測を開始しており、路面カメラ12、周辺カメラ13および距離計測装置16は、動作待機中(待機状態)である。   With reference to FIG. 7 and FIG. 8, the process which sets the starting point of the inspection area of step 610 shown in FIG. 6 is demonstrated. Starting from step 700 shown in FIG. 7, at this stage, the GPS sensor 15 has already started measuring the position of the vehicle 10, and the road surface camera 12, the peripheral camera 13, and the distance measuring device 16 are on standby (standby). State).

ステップ705では、位置情報取得部49がGPSセンサ15から車両10の位置情報を取得し、ステップ710で、交差点検知部50が、取得した位置情報に基づき、交差点を検知したかどうかを確認する。このときの状況は、図8(a)に示すような、車両10が交差点60に向けてその周辺を走行中である。交差点検知部50は、GPSセンサ15を中心として、例えば10m内に交差点60の中心位置が入っているかを確認する。   In step 705, the position information acquisition unit 49 acquires the position information of the vehicle 10 from the GPS sensor 15, and in step 710, the intersection detection unit 50 confirms whether or not an intersection has been detected based on the acquired position information. The situation at this time is that the vehicle 10 is traveling around the intersection 60 toward the intersection 60 as shown in FIG. The intersection detection unit 50 confirms whether the center position of the intersection 60 is within 10 m, for example, with the GPS sensor 15 as the center.

GPSセンサ15の検知範囲は、GPSセンサ15の位置検出精度と、GPSセンサ15の設置位置から路面カメラ12の撮像範囲の中央位置までの距離との和より長くなるように設定することが望ましい。なお、路面カメラ12の撮像範囲の中央位置については後述する。   The detection range of the GPS sensor 15 is desirably set to be longer than the sum of the position detection accuracy of the GPS sensor 15 and the distance from the installation position of the GPS sensor 15 to the center position of the imaging range of the road surface camera 12. The center position of the imaging range of the road surface camera 12 will be described later.

交差点を検知していない場合、ステップ705へ戻り、交差点を検知した場合、ステップ715へ進む。ステップ715では、指示部46が、周辺カメラ13に対して撮像を開始するように指示し、動作を開始した周辺カメラ13が、路面11とその路面11の周辺とを含む画像の撮像を開始する。このときに撮像された画像は、図8(b)に示すような、車両10の進行方向へ一方に延びる路面11の画像である。   If an intersection is not detected, the process returns to step 705. If an intersection is detected, the process proceeds to step 715. In step 715, the instruction unit 46 instructs the peripheral camera 13 to start imaging, and the peripheral camera 13 that has started the operation starts capturing an image including the road surface 11 and the periphery of the road surface 11. . The image captured at this time is an image of the road surface 11 extending in one direction in the traveling direction of the vehicle 10 as shown in FIG.

ステップ720では、周辺画像取得部44が周辺カメラ13から画像を取得し、ステップ725で、物体検知部45が、その画像を参照し、まず、画像内に交差点が含まれているかを確認する。このため、物体検知部45は、物体として画像内の目標物体である交差点も検知することができる。含まれていない場合、ステップ720へ戻り、含まれている場合、交差点60を検知したとして、ステップ730へ進む。   In step 720, the peripheral image acquisition unit 44 acquires an image from the peripheral camera 13, and in step 725, the object detection unit 45 refers to the image, and first confirms whether an intersection is included in the image. For this reason, the object detection part 45 can also detect the intersection which is a target object in an image as an object. If not included, the process returns to step 720. If included, the intersection 60 is detected and the process proceeds to step 730.

交差点60を検知したときの画像は、図8(c)に示すような画像である。この画像では、一方にほぼ同じ車幅で延びる路面11が交差点60に差し掛かることで、交差点60の部分だけ、車幅が左右に広がった形になり、それが画像の左右の端部にまで延びている。なお、左右に延びる道路は、建物等で隠れ、画像の左右の端部にまで延びていないこともあるため、車幅が一定の長さ以上に左右に広がった部分を検知することで、交差点60を検知することができる。交差点60を検知した段階で、指示部46が、路面カメラ12に対して指示し、動作を開始した路面カメラ12が、路面11の撮像を開始する。   The image when the intersection 60 is detected is an image as shown in FIG. In this image, the road surface 11 extending with substantially the same vehicle width on one side reaches the intersection 60, so that only the intersection 60 has a vehicle width that expands to the left and right. It extends. Note that roads that extend to the left and right are hidden by buildings, etc., and may not extend to the left and right edges of the image.Therefore, by detecting the part where the vehicle width extends to the left and right beyond a certain length, 60 can be detected. When the intersection 60 is detected, the instruction unit 46 instructs the road camera 12, and the road camera 12 that has started the operation starts imaging the road surface 11.

ステップ730では、物体検知部45が、画像を参照し、その画像内に基準被写体が含まれているかを確認する。含まれていない場合、ステップ720へ戻り、含まれている場合、基準被写体を検知したとして、ステップ735へ進む。基準被写体を検知したときの画像は、図8(d)に示すような画像である。画像内に基準被写体61の少なくとも一部が含まれ、目的とする基準被写体61であると認識できる場合に、基準被写体61を検知することができる。この間、路面カメラ12による撮像は継続される。ただし、撮像された画像の記録は行われない。   In step 730, the object detection unit 45 refers to the image and confirms whether the reference subject is included in the image. If it is not included, the process returns to step 720. If it is included, it is determined that the reference subject is detected, and the process proceeds to step 735. The image when the reference subject is detected is an image as shown in FIG. The reference subject 61 can be detected when at least a part of the reference subject 61 is included in the image and can be recognized as the target reference subject 61. During this time, imaging by the road surface camera 12 is continued. However, the captured image is not recorded.

ステップ735では、指示部46が、距離計測装置16に対して指示し、距離計測装置16が車両10の走行距離の計測を開始する。このときの状況は、図8(e)に示すような車両10に搭載された路面カメラ12の位置、詳細には路面カメラ12の撮像範囲の中央位置と、基準被写体61の、車両10に対向する最も近い端部との距離が、距離[D_1]である。このため、走行距離値[D_C1]=0として走行距離の計測を開始し、距離[D_1]に達するまで走行距離を計測する。   In step 735, the instruction unit 46 instructs the distance measuring device 16, and the distance measuring device 16 starts measuring the travel distance of the vehicle 10. The situation at this time is as follows. The position of the road surface camera 12 mounted on the vehicle 10 as shown in FIG. 8E, specifically the center position of the imaging range of the road surface camera 12, and the reference subject 61 facing the vehicle 10. The distance from the closest end to be the distance [D_1]. Therefore, the measurement of the travel distance is started with the travel distance value [D_C1] = 0, and the travel distance is measured until the distance [D_1] is reached.

ステップ740では、距離取得部47が距離計測装置16から計測された走行距離を取得する。ステップ745では、位置推定部48が、取得された走行距離に基づき、予め指定された距離に達したかを確認する。すなわち、図8(e)に示す距離[D_1]に達したかを確認する。達していない場合、ステップ740へ戻り、達した場合、ステップ750へ進む。距離[D_1]に達したとき、図8(f)に示すような、車両10に搭載された路面カメラ12の位置、詳細には路面カメラ12の撮像範囲の中央位置と、基準被写体61の上記端部とが、進行方向に対して一致した位置となる。   In step 740, the distance acquisition unit 47 acquires the travel distance measured from the distance measurement device 16. In step 745, the position estimation unit 48 confirms whether a predetermined distance has been reached based on the acquired travel distance. That is, it is confirmed whether the distance [D_1] shown in FIG. If not, the process returns to step 740. If reached, the process proceeds to step 750. When the distance [D_1] is reached, the position of the road surface camera 12 mounted on the vehicle 10, as shown in FIG. 8 (f), specifically, the center position of the imaging range of the road surface camera 12, and the reference object 61 described above. The end portion is a position coincident with the traveling direction.

ステップ750では、指定された距離に達した位置から点検区間の開始点を推定する。ここでは、指定された距離に達した位置を、点検区間の開始点と推定する。そして、ステップ755で、指定された距離に達した位置までに計測された走行距離の距離値と時刻とを記録し、点検区間の開始点を設定する。また、その時刻での撮像画像を撮像フレームとして記録し、路面カメラ12で撮像された画像の記録を開始する。   In step 750, the starting point of the inspection section is estimated from the position that has reached the specified distance. Here, the position that has reached the specified distance is estimated as the start point of the inspection section. In step 755, the distance value and time of the travel distance measured up to the position where the designated distance is reached are recorded, and the start point of the inspection section is set. The captured image at that time is recorded as an imaging frame, and recording of an image captured by the road surface camera 12 is started.

点検区間の開始点を設定したところで、指示部46が、周辺カメラ13に対して撮像を終了するように指示し、周辺カメラ13が待機状態に戻る。待機状態に戻ったところで、ステップ760で、開始点を設定する処理を終了する。このとき、指示部46は、距離計測装置16による走行距離の計測も終了するように指示することができる。   When the start point of the inspection section is set, the instruction unit 46 instructs the peripheral camera 13 to end the imaging, and the peripheral camera 13 returns to the standby state. When returning to the standby state, in step 760, the process of setting the start point is terminated. At this time, the instruction unit 46 can instruct the distance measurement device 16 to end the measurement of the travel distance.

点検区間内は、図6のステップ615の処理が行われ、路面カメラ12による路面11の同時撮像、同時撮像された画像の記録が行われる。また、距離の計測も実施される。距離の計測は、別途設けられる距離計測装置により行うことができる。なお、距離の計測は、距離計測装置16により点検区間の開始点の設定に引き続いて行うことも可能である。   In the inspection section, the process of step 615 in FIG. 6 is performed, and the road surface camera 12 simultaneously captures the road surface 11 and records the simultaneously captured image. Also, distance measurement is performed. The distance can be measured by a distance measuring device provided separately. The distance measurement can be performed following the setting of the start point of the inspection section by the distance measuring device 16.

図9および図10を参照して、図6に示すステップ620の点検区間の終了点を設定する処理について説明する。ステップ900から開始し、このとき、路面カメラ12で撮像された画像の記録を継続している。また、距離の計測も継続している。ステップ905では、位置情報取得部49がGPSセンサ15から車両10の位置情報を取得し、ステップ910で、交差点検知部50が、取得した位置情報に基づき、交差点を検知したかどうかを確認する。この交差点は、点検区間の終了点付近の交差点であり、上記の開始点付近の交差点60とは違う交差点62である。   With reference to FIG. 9 and FIG. 10, the process which sets the end point of the inspection area of step 620 shown in FIG. 6 is demonstrated. Starting from step 900, at this time, recording of an image captured by the road surface camera 12 is continued. In addition, distance measurement continues. In step 905, the position information acquisition unit 49 acquires the position information of the vehicle 10 from the GPS sensor 15, and in step 910, the intersection detection unit 50 confirms whether or not an intersection has been detected based on the acquired position information. This intersection is an intersection near the end point of the inspection section, and is an intersection 62 different from the intersection 60 near the start point.

このときの状況は、図10(a)に示すような、車両10が交差点62に向けてその周辺を走行中である。交差点検知部50は、GPSセンサ15を中心として、例えば10m内に交差点62の中心位置が入っているかを確認する。この中心位置の位置情報も、GPS位置情報として予め設定されている。   The situation at this time is that the vehicle 10 is traveling around the intersection 62 toward the intersection 62 as shown in FIG. The intersection detection unit 50 confirms whether the center position of the intersection 62 is within 10 m, for example, with the GPS sensor 15 as the center. The position information of the center position is also set in advance as GPS position information.

ステップ910において交差点を検知していない場合、ステップ905へ戻り、交差点を検知した場合、ステップ915へ進む。ステップ915では、指示部46が、周辺カメラ13に対して撮像を開始するように指示し、動作を開始した周辺カメラ13が、路面11とその路面11の周辺とを含む画像を撮像する。このときに撮像された画像は、図10(b)に示すような、車両10の進行方向へ一方に延びる路面11の画像である。   If no intersection is detected in step 910, the process returns to step 905. If an intersection is detected, the process proceeds to step 915. In step 915, the instruction unit 46 instructs the peripheral camera 13 to start imaging, and the peripheral camera 13 that has started the operation captures an image including the road surface 11 and the periphery of the road surface 11. The image captured at this time is an image of the road surface 11 extending in one direction in the traveling direction of the vehicle 10 as shown in FIG.

ステップ920では、周辺画像取得部44が周辺カメラ13から画像を取得し、ステップ925で、物体検知部45が、その画像を参照し、まず、画像内に交差点が含まれているかを確認する。含まれていない場合、ステップ920へ戻り、含まれている場合、交差点62を検知したとして、ステップ930へ進む。   In step 920, the peripheral image acquisition unit 44 acquires an image from the peripheral camera 13, and in step 925, the object detection unit 45 refers to the image, and first confirms whether an intersection is included in the image. If not included, the process returns to step 920. If included, the intersection 62 is detected, and the process proceeds to step 930.

交差点62を検知したときの画像は、図10(c)に示すような画像である。この画像では、一方にほぼ同じ車幅で延びる路面11が交差点62に差し掛かることで、交差点62の部分だけ、車幅が左右に広がった形になり、それが画像の左右の端部にまで延びている。なお、左右に延びる道路は、建物等で隠れ、画像の左右の端部にまで延びていないこともあるため、車幅が一定の長さだけ左右に広がった部分を検知することで、交差点62を検知することができる。交差点62を検知した段階で、指示部46が、路面カメラ12に対して指示し、動作を開始した路面カメラ12が、路面11の撮像を開始する。   The image when the intersection 62 is detected is an image as shown in FIG. In this image, the road surface 11 that extends with substantially the same vehicle width on one side reaches the intersection 62, so that only the intersection 62 has a vehicle width that expands to the left and right, and that reaches the left and right ends of the image. It extends. The road extending left and right is hidden by a building or the like and may not extend to the left and right ends of the image. Therefore, the intersection 62 is detected by detecting a portion where the vehicle width extends to the left and right by a certain length. Can be detected. When the intersection 62 is detected, the instruction unit 46 instructs the road camera 12, and the road camera 12 that has started the operation starts imaging the road surface 11.

ステップ930では、物体検知部45が、画像を参照し、その画像内に基準被写体が含まれているかを確認する。含まれていない場合、ステップ920へ戻り、含まれている場合、基準被写体を検知したとして、ステップ935へ進む。基準被写体を検知したときの画像は、図10(d)に示すような画像である。画像内に基準被写体63の少なくとも一部が含まれ、目的とする基準被写体63であると認識できる場合に、基準被写体63を検知することができる。この間、路面カメラ12による撮像および撮像画像の記録は継続される。   In step 930, the object detection unit 45 refers to the image and confirms whether the reference subject is included in the image. If it is not included, the process returns to step 920. If it is included, it is determined that the reference subject has been detected, and the process proceeds to step 935. The image when the reference subject is detected is an image as shown in FIG. The reference subject 63 can be detected when at least a part of the reference subject 63 is included in the image and can be recognized as the target reference subject 63. During this time, the imaging by the road surface camera 12 and the recording of the captured image are continued.

ステップ935では、指示部46が、距離計測装置16に対して指示し、距離計測装置16が車両10の走行距離の計測を開始する。既に点検区間の走行距離の計測を行っている場合、距離の計測を引き続き実施し、計測を開始する走行距離の位置を記録しておく。ステップ940では、距離取得部47が距離計測装置16から計測された走行距離を取得する。基準被写体63を検知したときの状況は、図10(e)に示すような車両10に設置された路面カメラ12の位置、詳細には路面カメラ12の撮像範囲の中央位置と、基準被写体63の、車両10に対向する最も近い端部との距離が、距離[D_2]である。このため、現在の走行距離値[D_C2]を0とし、そこから距離[D_2]に達するまでの走行距離を計測する。   In step 935, the instruction unit 46 instructs the distance measuring device 16, and the distance measuring device 16 starts measuring the travel distance of the vehicle 10. When the travel distance of the inspection section has already been measured, the distance measurement is continued and the position of the travel distance at which the measurement is started is recorded. In step 940, the distance acquisition unit 47 acquires the travel distance measured from the distance measurement device 16. The situation when the reference subject 63 is detected is as follows. The position of the road camera 12 installed in the vehicle 10 as shown in FIG. 10E, specifically, the center position of the imaging range of the road camera 12 and the reference subject 63 The distance from the nearest end facing the vehicle 10 is the distance [D_2]. Therefore, the current travel distance value [D_C2] is set to 0, and the travel distance until reaching the distance [D_2] is measured.

ステップ945では、位置推定部48が、取得された走行距離に基づき、予め指定された距離に達したかを確認する。すなわち、図10(e)に示す距離[D_2]に達したかを確認する。達していない場合、ステップ940へ戻り、達した場合、ステップ950へ進む。距離[D_2]に達したとき、図10(f)に示すような、車両10に設置された路面カメラ12の位置、詳細には路面カメラ12の撮像範囲の中央位置と、基準被写体63の上記端部とが、進行方向に対して一致した位置となる。   In step 945, the position estimation unit 48 confirms whether or not a predetermined distance has been reached based on the acquired travel distance. That is, it is confirmed whether the distance [D_2] shown in FIG. If not, the process returns to step 940. If reached, the process proceeds to step 950. When the distance [D_2] is reached, as shown in FIG. 10 (f), the position of the road camera 12 installed on the vehicle 10, more specifically, the center position of the imaging range of the road camera 12 and the reference object 63 described above. The end portion is a position coincident with the traveling direction.

ステップ950では、指定された距離に達した位置から点検区間の終了点を推定する。ここでは、指定された距離に達した位置を、点検区間の終了点と推定する。そして、ステップ955で、指定された距離に達した位置までに計測された走行距離の距離値と時刻とを記録し、点検区間の終了点を設定する。また、その時刻での撮像画像をこの点検区間の最後の撮像フレームとして記録する。   In step 950, the end point of the inspection section is estimated from the position that has reached the specified distance. Here, the position that has reached the specified distance is estimated as the end point of the inspection section. In step 955, the distance value and time of the travel distance measured up to the position where the designated distance is reached are recorded, and the end point of the inspection section is set. Also, the captured image at that time is recorded as the last captured frame of this inspection section.

点検区間の終了点を検出したところで、指示部46が、周辺カメラ13に対して撮像を終了するように指示し、周辺カメラ13が待機状態に戻る。また、指示部46が、距離計測装置16に対して走行距離の計測を終了するように指示し、距離計測装置16が待機状態に戻る。さらに、指示部46が、路面カメラ12に対して撮像を終了するように指示し、路面カメラ12が待機状態に戻る。これらが待機状態に戻ったところで、ステップ960で、終了点を推定する処理を終了する。   When the end point of the inspection section is detected, the instruction unit 46 instructs the peripheral camera 13 to end the imaging, and the peripheral camera 13 returns to the standby state. Further, the instruction unit 46 instructs the distance measuring device 16 to end the measurement of the travel distance, and the distance measuring device 16 returns to the standby state. Further, the instruction unit 46 instructs the road surface camera 12 to end the imaging, and the road surface camera 12 returns to the standby state. When these return to the standby state, in step 960, the process of estimating the end point ends.

ここで、事前に計測し、設定しておくべき概要情報について説明する。概要情報としては、目標物体としての交差点60、62のGPS位置情報がある。GPS位置情報は、緯度経度検出精度が数m〜10mと低く、精度が低い位置情報である。また、概要情報としては、開始点と終了点との間の距離の情報もあるが、この情報もGPS位置情報であるため、精度が低い距離情報である。   Here, summary information to be measured and set in advance will be described. The summary information includes GPS position information of the intersections 60 and 62 as target objects. The GPS position information is position information with low latitude and longitude detection accuracy as low as several m to 10 m and low accuracy. The summary information includes information on the distance between the start point and the end point. Since this information is also GPS position information, it is distance information with low accuracy.

概要情報としては、図11に示す基準被写体61と、周辺カメラ13との間の距離[D_CS]がある。距離[D_CS]は、上記の距離[D_1]である。基準被写体63の場合も同様であり、この場合、距離[D_CS]は、上記の距離[D_2]である。距離[D_CS]は、周辺カメラ13、詳細には周辺カメラ13の画像センサの位置と、周辺カメラ13の撮像範囲内に基準被写体61の一部でも入るときの基準被写体61の位置との間の距離として決定することができる。なお、これに限られるものではなく、基準被写体61の全体が入るときの距離として決定してもよい。   The summary information includes the distance [D_CS] between the reference subject 61 shown in FIG. The distance [D_CS] is the above distance [D_1]. The same applies to the reference subject 63. In this case, the distance [D_CS] is the distance [D_2] described above. The distance [D_CS] is between the position of the peripheral camera 13, specifically the image sensor of the peripheral camera 13, and the position of the reference subject 61 when even a part of the reference subject 61 falls within the imaging range of the peripheral camera 13. It can be determined as a distance. The distance is not limited to this, and may be determined as a distance when the entire reference subject 61 enters.

また、概要情報としては、周辺カメラ13の画像センサの位置と、路面カメラ12の撮像範囲の中央位置との距離としての距離[D_CC]もある。撮像範囲の中央位置は、撮像された画像の中央位置となる路面11上の位置である。これらの距離の計測から、基準被写体61の位置と、路面カメラ12の撮像範囲の中央位置との距離を加算し、その距離を距離[D_*]として得ることができる。基準被写体63の場合も同様にして、距離[D_*]を求めることができる。 The summary information includes a distance [D_CC] as a distance between the position of the image sensor of the peripheral camera 13 and the center position of the imaging range of the road surface camera 12. The center position of the imaging range is a position on the road surface 11 that is the center position of the captured image. From these distance measurements, the distance between the position of the reference subject 61 and the center position of the imaging range of the road surface camera 12 can be added to obtain the distance as the distance [D_ * ]. In the case of the reference subject 63, the distance [D_ * ] can be obtained in the same manner.

これらの概要情報を予め設定しておき、図7および図9に示した処理を実行することで、点検区間の開始点および終了点の位置精度を、GPS情報の数m〜10mから0.05m〜0.1mに向上させることができる。   By setting these summary information in advance and executing the processing shown in FIGS. 7 and 9, the position accuracy of the start point and end point of the inspection section can be changed from several m to 10 m of GPS information to 0.05 m. It can be improved to ˜0.1 m.

図12を参照して、基準被写体61、63について説明する。基準被写体61、63は、図12(a)の信号機や標識ポール70、図12(b)の縁石71、図12(c)の白線停止線72、図12(d)の横断歩道線73、図12(e)のマンホール74、図12(f)の交差点中央瀬75等を採用することができる。なお、図12(f)の交差点中央瀬75等の路面標識は消失する可能性があるため、経年において破損や移動、消失する可能性が低い、図12(a)〜(e)に示すものが望ましい。図12(a)〜(e)の中で、基準被写体61、63として使用することが望ましい優先順位は、破損や移動、消失の可能性が低い順に、信号機や標識ポール70、マンホール74、縁石71、白線停止線72、横断歩道線73とすることができる。   The reference subjects 61 and 63 will be described with reference to FIG. Reference subjects 61 and 63 include a traffic light and a sign pole 70 in FIG. 12A, a curb 71 in FIG. 12B, a white line stop line 72 in FIG. 12C, a pedestrian crossing line 73 in FIG. The manhole 74 in FIG. 12E, the intersection central point 75 in FIG. 12F, and the like can be employed. In addition, since road surface signs such as the intersection Chuose 75 in FIG. 12 (f) may disappear, the possibility of breakage, movement, or disappearance over time is low, as shown in FIGS. 12 (a) to 12 (e). Is desirable. In FIGS. 12A to 12E, the priority order preferably used as the reference subjects 61 and 63 is the traffic light, the sign pole 70, the manhole 74, and the curb in descending order of the possibility of breakage, movement and disappearance. 71, white line stop line 72, and pedestrian crossing line 73.

これらの基準被写体61、63を採用し、走行距離を計測する上で、下記の点に留意することが望ましい。すなわち、走行距離の計測精度を確保するために、信号機や標識ポール70では、進行方向の、車両10に対向する曲面の最も車両10に近い側の端部や、最も車両10から遠い曲面の端部を基準とすることが望ましい。縁石71、白線停止線72、横断歩道線73、マンホール74については、進行方向の、車両10に最も近い側の端部や車両10から最も遠い側の端部を基準とすることが望ましい。   In adopting these reference subjects 61 and 63 and measuring the travel distance, it is desirable to pay attention to the following points. That is, in order to ensure the measurement accuracy of the travel distance, at the traffic light or the sign pole 70, the end of the curved surface facing the vehicle 10 closest to the vehicle 10 or the end of the curved surface farthest from the vehicle 10 in the traveling direction. It is desirable to use the part as a reference. Regarding the curbstone 71, the white line stop line 72, the pedestrian crossing line 73, and the manhole 74, it is desirable to use the end of the traveling direction closest to the vehicle 10 or the end farthest from the vehicle 10 as a reference.

また、距離計測装置16により計測を開始し、指定された距離に達した位置を、点検区間の開始点または終了点として推定しているが、その計測は、基準被写体61、63に充分に近づいた状態から開始することが望ましい。すなわち、指定された距離が短い方が望ましい。距離が長くなればなるほど、距離計測装置16による計測誤差が大きくなるからである。図12に示した距離[D_CS]は、例えば3m未満であることが望ましい。   Further, the distance measurement device 16 starts measurement and estimates the position that has reached the specified distance as the start point or end point of the inspection section, but the measurement is sufficiently close to the reference subjects 61 and 63. It is desirable to start from the state. That is, it is desirable that the specified distance is shorter. This is because the longer the distance, the greater the measurement error by the distance measuring device 16. The distance [D_CS] shown in FIG. 12 is preferably less than 3 m, for example.

点検区間によっては、被写体が2以上存在する場合がある。その場合、上記の優先順位に従って被写体を選択することができる。基準被写体61、63は、交差点60、62の手前側にあってもよいし、奥側にあってもよいし、交差点60、62内にあってもよい。図12に示した例では、図12(c)の白線停止線72が手前側にあり、図12(f)の交差点中央瀬75が交差点60、62内にあり、それ以外が奥側にある。   Depending on the inspection section, there may be two or more subjects. In that case, the subject can be selected in accordance with the above priority order. The reference subjects 61 and 63 may be on the near side of the intersections 60 and 62, may be on the back side, or may be in the intersections 60 and 62. In the example shown in FIG. 12, the white line stop line 72 in FIG. 12 (c) is on the near side, the intersection central point 75 in FIG. 12 (f) is in the intersections 60 and 62, and the others are on the back side. .

図12に示したような被写体が存在しない場合や、存在しても、他の車両に被写体が隠れる等して被写体の検知精度が充分でない場合、図13(a)、(b)に示す交差点60の路面端76を、基準被写体61として採用してもよい。路面端76は、進行方向に延びる路面11aではなく、路面11aに対してほぼ垂直方向に延びる路面11bの手前側または奥側のいずれか一方の路面端部である。図13(a)、(b)では、奥側の路面端76を採用している。ちなみに、図13(a)は、撮像した画像で、図13(b)は、上空から路面11を見た場合の図である。基準被写体63も同様に、路面端76を採用することができる。   When the subject as shown in FIG. 12 does not exist, or even when the subject is present, the subject is hidden by another vehicle and the subject detection accuracy is not sufficient, the intersections shown in FIGS. 13 (a) and 13 (b) 60 road surface edges 76 may be adopted as the reference subject 61. The road surface end 76 is not the road surface 11a extending in the traveling direction, but is a road surface end portion on either the front side or the back side of the road surface 11b extending in a direction substantially perpendicular to the road surface 11a. 13 (a) and 13 (b), a rear road surface end 76 is employed. Incidentally, FIG. 13A is a captured image, and FIG. 13B is a diagram when the road surface 11 is viewed from above. Similarly, the road surface end 76 can be adopted for the reference subject 63.

これまでは、点検区間の開始点および終了点を、基準被写体61、63の位置、詳細には基準被写体61、63の車両10に近い側の端部とし、その端部と同一の位置とし、その位置を推定している。しかしながら、開始点および終了点と、基準被写体61、63の位置とは異なっていてもよく、例えば基準被写体61、63の位置から予め決められた距離だけ離間した位置を開始点、終了点とすることも可能である。   Until now, the start and end points of the inspection section are the positions of the reference subjects 61 and 63, specifically the end portions of the reference subjects 61 and 63 closer to the vehicle 10, and the same positions as the end portions, The position is estimated. However, the start point and the end point may be different from the positions of the reference subjects 61 and 63. For example, a position separated from the position of the reference subjects 61 and 63 by a predetermined distance is set as the start point and the end point. It is also possible.

これは、図14(a)に示すような交差点60の奥側の路面端76から基準被写体61の車両10に最も近い側の端部までの距離が3mを超えている場合や、検出精度が充分に得られない場合(精度0.1mより大きい場合)に有効である。   This is because the distance from the road surface end 76 on the back side of the intersection 60 as shown in FIG. 14A to the end of the reference subject 61 closest to the vehicle 10 exceeds 3 m, or the detection accuracy is high. It is effective when it is not sufficiently obtained (when accuracy is greater than 0.1 m).

この場合、例えば交差点検知部50が交差点60を検知したところで、指示部46が距離計測装置16に対して指示して距離の計測を開始させ、路面カメラ12に対して指示して路面11の撮像を開始させる。その後、物体検知部45が基準被写体61を検知したところで、図14(b)に示すように、概要情報として設定された距離[D_SS]を使用し、交差点60の路面端76から3m未満の任意の位置を、仮想の開始点として推定し、その位置を開始点として設定することができる。終了点も同様に、概要情報として設定された距離[D_SE]を使用して推定し、その位置を終了点として設定することができる。なお、路面端76から3m未満であれば、路面端76から1mや2m等、いかなる距離であってもよい。   In this case, for example, when the intersection detection unit 50 detects the intersection 60, the instruction unit 46 instructs the distance measurement device 16 to start distance measurement, and instructs the road surface camera 12 to image the road surface 11. To start. Thereafter, when the object detection unit 45 detects the reference subject 61, as shown in FIG. 14B, the distance [D_SS] set as the summary information is used, and an arbitrary distance less than 3 m from the road surface end 76 of the intersection 60 Can be estimated as a virtual starting point, and that position can be set as the starting point. Similarly, the end point can be estimated using the distance [D_SE] set as the summary information, and the position can be set as the end point. In addition, as long as it is less than 3 m from the road surface end 76, any distance such as 1 m or 2 m from the road surface end 76 may be used.

以上のようにして、点検区間の開始点および終了点を推定し、開始点から終了点までの距離を区間長として設定することができる。区間長は、距離取得部47が、別途設けられる距離計測装置により計測された開始点から終了点までの距離から、あるいは距離計測装置16により計測された計測開始位置から開始点および終了点までの走行距離の情報を用いて計算することにより得ることができる。   As described above, the start point and end point of the inspection section can be estimated, and the distance from the start point to the end point can be set as the section length. The section length is calculated by the distance acquisition unit 47 from the distance from the start point to the end point measured by a separately provided distance measurement device or from the measurement start position to the start point and end point measured by the distance measurement device 16. It can be obtained by calculating using information on travel distance.

点検区間の区間長は、道路の幅や形状、車両10が走行する位置によって変化する。このため、これらの条件を考慮した上で、区間長を設定することが望ましい。   The section length of the inspection section varies depending on the width and shape of the road and the position where the vehicle 10 travels. For this reason, it is desirable to set the section length in consideration of these conditions.

図15は、上記の条件を考慮して区間長を推定する処理の一例を示したフローチャートである。上記の方法により点検区間の開始点を推定し、記録することにより設定した後、ステップ1500から開始する。ステップ1505では、周辺画像取得部44が、周辺カメラ13から車道の幅方向の一端から他端までを含むように撮像された画像を取得する。ここでは、周辺カメラ13を路面11の幅を計測する幅計測装置として用い、周辺画像取得部44を路面11の幅情報を取得する幅情報取得部として用いているが、これに限られるものではなく、別途幅計測装置や幅情報取得部を設けてもよい。   FIG. 15 is a flowchart illustrating an example of a process for estimating the section length in consideration of the above conditions. After the start point of the inspection section is estimated and recorded by the above method and set, the process starts from step 1500. In step 1505, the peripheral image acquisition unit 44 acquires images captured from the peripheral camera 13 so as to include from one end to the other end in the width direction of the roadway. Here, the peripheral camera 13 is used as a width measuring device that measures the width of the road surface 11, and the peripheral image acquisition unit 44 is used as a width information acquisition unit that acquires the width information of the road surface 11. However, the present invention is not limited to this. Alternatively, a width measuring device and a width information acquiring unit may be provided separately.

ステップ1510では、別途設けられる間隔推定部は、取得された画像に基づき、対向車線を含めた車道幅とセンターラインの位置(車道幅中央位置)を推定する。また、間隔推定部は、取得された画像に基づき、走行位置とセンターラインとの間隔を推定する。例えば、画像を構成する画素の画素数から車道幅、センターラインの位置、間隔を計算することができる。なお、位置推定部48を使用し、これらの推定処理を実行してもよい。   In step 1510, the separately provided interval estimation unit estimates the road width including the opposite lane and the position of the center line (the center position of the road width) based on the acquired image. The interval estimation unit estimates the interval between the travel position and the center line based on the acquired image. For example, the roadway width, the position of the center line, and the interval can be calculated from the number of pixels constituting the image. Note that the position estimation unit 48 may be used to execute these estimation processes.

路面点検システムは、車両10に走行経路の曲率半径を計測する曲率半径計測装置をさらに含む。ステップ1515では、指示部46が曲率半径計測装置に対して指示し、曲率半径計測装置が走行経路の曲率半径を計測する。曲率半径計測装置としては、GPSセンサ15等の計測器を用いることができる。そして、別途設けられる曲率半径取得部が、計測された曲率半径情報(曲率半径の値)を取得する。   The road surface inspection system further includes a curvature radius measurement device that measures the curvature radius of the travel route in the vehicle 10. In step 1515, the instruction unit 46 instructs the curvature radius measurement device, and the curvature radius measurement device measures the curvature radius of the travel route. As the curvature radius measuring device, a measuring instrument such as the GPS sensor 15 can be used. And the curvature radius acquisition part provided separately acquires the measured curvature radius information (value of a curvature radius).

ここでは、走行経路の曲率半径を、曲率半径計測装置により計測するものとして説明しているが、これに限られるものではなく、路面カメラ12により撮像された画像に基づき得られる路面性状計測データから求めてもよい。具体的には、路面性状計測データを使用し、路面11の進行方向に合成接続した三次元データの曲率から推定することができる。   Here, although it has been described that the radius of curvature of the travel route is measured by the curvature radius measurement device, the present invention is not limited to this, and is based on road surface property measurement data obtained based on an image captured by the road surface camera 12. You may ask for it. Specifically, it can be estimated from the curvature of three-dimensional data synthesized and connected in the traveling direction of the road surface 11 using road surface property measurement data.

ステップ1520では、ステップ1510で推定された走行位置とセンターラインとの間隔値と、ステップ1515で計測された曲率半径の値とを用い、センターラインの区間長を推定する。この区間長の推定は、別途設けられる区間長推定部により行うことができる。この計算が終了したところで、ステップ1525へ進み、区間長を推定する処理を終了する。このような処理により、道路幅やカーブ状況に対しても、高い精度で区間長を設定することが可能となる。   In step 1520, the interval length between the travel position estimated in step 1510 and the center line and the radius of curvature measured in step 1515 are used to estimate the section length of the center line. This section length estimation can be performed by a section length estimation unit provided separately. When this calculation is finished, the process proceeds to step 1525, and the process of estimating the section length is finished. By such processing, it becomes possible to set the section length with high accuracy even for the road width and the curve situation.

区間長を設定した後、ひび割れ率等を求め、それらを付記した帳票を出力することができるが、区間長を正しく計算できていない場合や路面11の画像を正しく取得できていない場合、正しい区間評価結果を出力することができない。そこで、区間長を設定した後であって、区間評価結果を出力する前に、区間長を計算するために使用される開始点や終了点の推定結果等の良否判定を行うことが望ましい。この良否判定処理について、図16を参照して説明する。   After setting the section length, the crack rate etc. can be obtained and a report with these added can be output, but if the section length cannot be calculated correctly or the image of the road surface 11 cannot be acquired correctly, the correct section The evaluation result cannot be output. Therefore, it is desirable to perform pass / fail judgments such as the estimation result of the start point and end point used for calculating the section length after setting the section length and before outputting the section evaluation result. This quality determination process will be described with reference to FIG.

区間長を設定した後、ステップ1600からこの良否判定処理を開始する。ステップ1605では、周辺カメラ13により撮像された画像において、物体検知部45が交差点を検知できているかを判定する。この判定処理は、別途設けられる判定部により行うことができる。交差点を検知できている場合は、ステップ1610へ進み、交差点を検知できていない場合は、ステップ1630へ進む。   After setting the section length, the pass / fail judgment process is started from step 1600. In step 1605, it is determined whether or not the object detection unit 45 can detect the intersection in the image captured by the peripheral camera 13. This determination process can be performed by a determination unit provided separately. If the intersection can be detected, the process proceeds to step 1610. If the intersection cannot be detected, the process proceeds to step 1630.

交差点を検知できていない例としては、路端に他の車両等の障害物があってその障害物を回避蛇行する必要があり、交差点の、進行方向に対して左右の一方に広がる路面の画像を撮像しきれていない場合が挙げられる。すなわち、交差点と判定するのに必要な画像部分に欠損がある場合である。   As an example where the intersection is not detected, there is an obstacle such as another vehicle on the road edge and it is necessary to meander around the obstacle, and the image of the road surface of the intersection spreading to the left or right with respect to the traveling direction This may be the case where the image has not been captured. In other words, this is a case where there is a defect in an image portion necessary to determine an intersection.

このことから、交差点を検知できているか否かは、その欠損割合が閾値以下かどうかにより判定することができる。欠損割合は、障害物が存在しないときの交差点の左右に広がる路面部分の面積を予め計測しておき、その面積に対する、周辺カメラ13により撮像された画像におけるその路面部分のうちの障害物で隠された部分の面積の比として算出することができる。   From this, whether or not an intersection can be detected can be determined by whether or not the loss ratio is equal to or less than a threshold value. The loss ratio is obtained by measuring in advance the area of the road surface portion that spreads to the left and right of the intersection when no obstacle is present, and hiding the obstacle with the obstacle in the road surface portion in the image captured by the peripheral camera 13 for that area. It can be calculated as a ratio of the areas of the obtained portions.

ステップ1610では、周辺カメラ13により撮像された画像において、物体検知部45が基準被写体を検知できているかを判定する。基準被写体は、信号機、マンホール、縁石、横断歩道線、白線停止線等である。基準被写体を検知できている場合は、ステップ1615へ進み、基準被写体を検知できていない場合は、ステップ1630へ進む。   In step 1610, it is determined whether or not the object detection unit 45 can detect the reference subject in the image captured by the peripheral camera 13. The reference subject is a traffic light, a manhole, a curb, a pedestrian crossing line, a white line stop line, or the like. If the reference subject has been detected, the process proceeds to step 1615. If the reference subject has not been detected, the process proceeds to step 1630.

基準被写体を検知できていない例としては、交差点の場合と同様の、路端に他の車両が駐車している場合や、路上に異物が存在し、基準被写体の一部を覆っている場合が挙げられる。この基準被写体も、交差点と同様、基準被写体を検知できているか否かは、その欠損割合が閾値以下かどうかにより判定することができる。   Examples of cases where the reference subject has not been detected include cases where other vehicles are parked on the road edge, as in the case of an intersection, or when there is a foreign object on the road and covers a part of the reference subject. Can be mentioned. Whether or not the reference subject can be detected as well as the intersection can be determined based on whether or not the deficiency ratio is equal to or less than a threshold value.

物体検知部45は、交差点や基準被写体の検知のほか、路端に駐車されている他の車両等の障害物、路上の異物、水溜まり、積雪等を検知することができる。路上の異物としては、落ち葉や土砂、落下物等を挙げることができる。   In addition to detecting intersections and reference subjects, the object detection unit 45 can detect obstacles such as other vehicles parked on the roadside, foreign objects on the road, water pools, snow accumulation, and the like. Examples of the foreign matter on the road include fallen leaves, earth and sand, and fallen objects.

ステップ1615では、路面カメラ12により撮像された画像において、物体検知部45が路上の異物や障害物等を検知したかを判定する。検知した場合、ステップ1620で、設定した区間長の路面11の面積に対する、その路面11を覆う異物や障害物等の面積(評価が無効となる領域(無効領域)の面積)の比が、閾値以下かどうかを判定する。閾値以下と判定された場合、ステップ1625へ進み、良と判定し、ステップ1635でこの良否判定処理を終了する。ステップ1615で異物等を検知していない場合も同様に、ステップ1625へ進み、良と判定する。なお、良と判定された場合、設定された区間長でひび割れ率等を求め、区間評価結果を出力することができる。   In step 1615, it is determined whether or not the object detection unit 45 has detected a foreign object or an obstacle on the road in the image captured by the road surface camera 12. If detected, in step 1620, the ratio of the area of a foreign object or obstacle covering the road surface 11 to the area of the set section length of the road surface 11 (area of an area where the evaluation is invalid (invalid area)) is a threshold value. It is determined whether or not: If it is determined that the threshold value is equal to or less than the threshold value, the process proceeds to step 1625, where it is determined to be good. Similarly, if no foreign matter or the like is detected in step 1615, the process proceeds to step 1625, where it is determined to be good. In addition, when it determines with it being favorable, a crack rate etc. can be calculated | required with the set area length, and an area evaluation result can be output.

一方、ステップ1605、ステップ1610で検知できていないと判定された場合、ステップ1620で閾値を超えると判定された場合、ステップ1630で、否と判定し、ステップ1635でこの良否判定処理を終了する。なお、否と判定された場合、区間評価は行わない。   On the other hand, if it is determined in steps 1605 and 1610 that detection is not possible, if it is determined in step 1620 that the threshold value is exceeded, it is determined NO in step 1630, and this pass / fail determination process is terminated in step 1635. In addition, when it determines with no, area evaluation is not performed.

上記の各閾値は、それぞれ異なる値であってもよいし、同じ値であってもよい。各閾値は、例えば許容閾値として同じ値とし、3/100(3%)とすることができる。これにより、人の手を介さない自動判断が可能となる。   Each of the above threshold values may be a different value or the same value. Each threshold may be the same value as an allowable threshold, for example, and may be 3/100 (3%). As a result, automatic determination without human intervention is possible.

このような良否判定処理を行う機能をもつことで、撮像と同時に、もしくは数秒後または数分後に即時に判定を行い、再走行を行う等、評価作業における手戻りを最小限に抑えることができる。   By having such a function to perform pass / fail determination processing, it is possible to minimize rework in evaluation work, such as performing determination immediately after imaging, or immediately after several seconds or minutes, and rerunning. .

これまで本発明を、情報処理システム、評価システム、情報処理方法およびプログラムとして上述した実施の形態をもって説明してきた。しかしながら、本発明は上述した実施の形態に限定されるものではなく、他の実施の形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができるものである。また、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   The present invention has been described with the embodiments described above as an information processing system, an evaluation system, an information processing method, and a program. However, the present invention is not limited to the above-described embodiments, and other embodiments, additions, modifications, deletions, and the like can be modified within a range that can be conceived by those skilled in the art. . In addition, any aspect is included in the scope of the present invention as long as the operations and effects of the present invention are exhibited.

したがって、上記プログラムが記録された記録媒体、上記プログラムを提供する外部機器等も提供することができるものである。   Therefore, a recording medium on which the program is recorded, an external device that provides the program, and the like can also be provided.

10…車両、11、11a、11b…路面、12…路面カメラ、13…周辺カメラ、14…情報処理装置、15…GPSセンサ、16…距離計測装置、20、21…カメラ、22、25…レンズ、23、26…画像センサ、24、27…センサコントローラ、30…CPU、31…ROM、32…RAM、33…HDD、34…通信I/F、35…入出力I/F、36…表示装置、37…入力装置、38…バス、40…路面画像取得部、41…格納部、42…計測部、43…評価部、44…周辺画像取得部、45…物体検知部、46…指示部、47…距離取得部、48…位置推定部、49…位置情報取得部、50…交差点検知部、60、62…交差点、61、63…基準被写体、70…信号機や標識ポール、71…縁石、72…白線停止線、73…横断歩道線、74…マンホール、75…交差点中央瀬、76…路面端 DESCRIPTION OF SYMBOLS 10 ... Vehicle, 11, 11a, 11b ... Road surface, 12 ... Road surface camera, 13 ... Peripheral camera, 14 ... Information processing apparatus, 15 ... GPS sensor, 16 ... Distance measuring device, 20, 21 ... Camera, 22, 25 ... Lens , 23, 26 ... Image sensor, 24, 27 ... Sensor controller, 30 ... CPU, 31 ... ROM, 32 ... RAM, 33 ... HDD, 34 ... Communication I / F, 35 ... Input / output I / F, 36 ... Display device 37 ... Input device, 38 ... Bus, 40 ... Road surface image acquisition unit, 41 ... Storage unit, 42 ... Measurement unit, 43 ... Evaluation unit, 44 ... Ambient image acquisition unit, 45 ... Object detection unit, 46 ... Instruction unit, 47 ... Distance acquisition unit, 48 ... Position estimation unit, 49 ... Position information acquisition unit, 50 ... Intersection detection unit, 60, 62 ... Intersection, 61, 63 ... Reference subject, 70 ... Traffic light or sign pole, 71 ... Curbstone, 72 ... white line stop line, 73 ... pedestrian crossing line, 74 ... man Lumpur, 75 ... crossing the central Seto, 76 ... the road ends

特開2016−045063号公報JP, 2006-045063, A

Claims (10)

評価対象の評価区間を推定する情報処理システムであって、
前記評価対象上を走行する車両に搭載された撮像装置により撮像された前記評価対象を含む画像を取得する画像取得手段と、
前記画像取得手段により取得された前記画像を参照し、指定された特徴を有する基準物体を検知する検知手段と、
前記検知手段により前記基準物体が検知されたことを受けて、前記車両に搭載された距離計測装置に対して該車両の走行距離の計測を指示する指示手段と、
前記距離計測装置により計測された前記走行距離を取得する距離取得手段と、
前記評価区間の一端と他端とにつき前記距離取得手段により取得された各走行距離がそれぞれ指定された距離に達した位置に基づき、前記評価区間の一端と他端の位置を推定する位置推定手段とを含む、情報処理システム。
An information processing system for estimating an evaluation section to be evaluated,
Image acquisition means for acquiring an image including the evaluation object imaged by an imaging device mounted on a vehicle traveling on the evaluation object;
Detecting means for detecting a reference object having a specified characteristic with reference to the image acquired by the image acquiring means;
Instructing means for instructing the distance measuring device mounted on the vehicle to measure the travel distance of the vehicle in response to detection of the reference object by the detecting means;
Distance acquisition means for acquiring the travel distance measured by the distance measuring device;
Position estimation means for estimating the positions of one end and the other end of the evaluation section based on the positions at which the travel distances acquired by the distance acquisition means reach the specified distance for one end and the other end of the evaluation section, respectively. And an information processing system.
前記車両に搭載された位置計測装置により計測された該車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段により取得された前記位置情報に基づき、指定された目標物体を検知する第2の検知手段とを含み、
前記指示手段は、前記第2の検知手段により前記目標物体が検知されたことを受けて、前記撮像装置に対して撮像を開始するように指示する、請求項1に記載の情報処理システム。
Position information acquisition means for acquiring position information of the vehicle measured by a position measurement device mounted on the vehicle;
Second detection means for detecting a designated target object based on the position information acquired by the position information acquisition means,
2. The information processing system according to claim 1, wherein the instruction unit instructs the imaging apparatus to start imaging in response to detection of the target object by the second detection unit.
前記位置推定手段は、前記距離取得手段により取得された各走行距離に達した位置を該評価区間の一端の位置と他端の位置として、もしくは前記距離取得手段により取得された一方の走行距離に達した位置を該評価区間の一端の位置と他端の位置のいずれか一方とし、他方の走行距離に達した位置から一定距離離間した位置を該評価区間の一端の位置と他端の位置の他方の位置として、または前記距離取得手段により取得された各走行距離に達した位置から一定距離離間した位置を一端の位置と他端の位置として推定する、請求項2に記載の情報処理システム。   The position estimation means uses the position that has reached each travel distance acquired by the distance acquisition means as the position of one end and the other end of the evaluation section, or the one travel distance acquired by the distance acquisition means. The reached position is set as one of the positions of the one end and the other end of the evaluation section, and the position separated by a certain distance from the position where the other travel distance is reached is the position of one end and the other end of the evaluation section. The information processing system according to claim 2, wherein a position separated by a certain distance from the position that has reached each travel distance acquired by the distance acquisition unit is estimated as the position of one end and the position of the other end as the other position. 前記評価対象の幅を計測する幅計測装置により計測された幅情報を取得する幅情報取得手段と、
前記評価対象の曲率半径を計測する曲率半径計測装置により計測された曲率半径を取得する曲率半径取得手段と、
前記幅情報取得手段により計測された幅情報と前記曲率半径取得手段により計測された曲率半径とを用いて、前記位置推定手段により推定された前記評価区間の前記一端の位置と他端の位置とにより決定される区間長を推定する区間長推定手段とを含む、請求項1〜3のいずれか1項に記載の情報処理システム。
Width information acquisition means for acquiring width information measured by a width measuring device that measures the width of the evaluation target;
A radius-of-curvature acquisition means for acquiring a radius of curvature measured by a radius-of-curvature measuring device that measures the radius of curvature of the evaluation target;
Using the width information measured by the width information acquisition means and the curvature radius measured by the curvature radius acquisition means, the position of the one end and the position of the other end of the evaluation section estimated by the position estimation means The information processing system according to any one of claims 1 to 3, further comprising: a section length estimation unit that estimates a section length determined by.
前記車両は、前記評価対象を撮像する第2の撮像装置を搭載し、
前記情報処理システムは、
前記第2の撮像装置により撮像された画像を取得する第2の画像取得手段と、
前記第2の画像取得手段により取得された画像を用いて、前記評価区間内の前記評価対象の表面性状を計測する計測手段と、
前記計測手段により計測された前記表面性状に基づき、前記評価区間内の前記評価対象を評価する評価手段とを含む、請求項1〜4のいずれか1項に記載の情報処理システム。
The vehicle is equipped with a second imaging device that images the evaluation object,
The information processing system includes:
Second image acquisition means for acquiring an image captured by the second imaging device;
Measuring means for measuring the surface property of the evaluation object in the evaluation section using the image acquired by the second image acquisition means;
The information processing system according to claim 1, further comprising: an evaluation unit that evaluates the evaluation object in the evaluation section based on the surface property measured by the measurement unit.
前記画像取得手段により取得された前記画像に基づき、前記検知手段が前記基準物体を検知することが可能であるかを判定する判定手段を含む、請求項1〜5のいずれか1項に記載の情報処理システム。   The determination unit according to claim 1, further comprising: a determination unit that determines whether the detection unit can detect the reference object based on the image acquired by the image acquisition unit. Information processing system. 前記画像取得手段により取得された前記画像に基づき、前記検知手段が前記基準物体および前記目標物体を検知することが可能であるかを判定する判定手段を含む、請求項2に記載の情報処理システム。   The information processing system according to claim 2, further comprising a determination unit that determines whether the detection unit can detect the reference object and the target object based on the image acquired by the image acquisition unit. . 評価対象上を走行する車両に搭載された第1の撮像装置と、該車両に搭載され、該車両の走行距離を計測する距離計測装置と、前記評価対象の評価区間を推定する情報処理システムと、前記評価対象を撮像する第2の撮像装置とを含む評価システムであって、
前記情報処理システムが、
前記第1の撮像装置により撮像された前記評価対象を含む画像を取得する第1の画像取得手段と、
前記第1の画像取得手段により取得された前記画像を参照し、指定された特徴を有する基準物体を検知する検知手段と、
前記検知手段により前記基準物体が検知されたことを受けて、前記距離計測装置に対して前記車両の走行距離の計測を指示する指示手段と、
前記距離計測装置により計測された前記走行距離を取得する距離取得手段と、
前記評価区間の一端と他端とにつき前記距離取得手段により取得された各走行距離がそれぞれ指定された距離に達した位置に基づき、前記評価区間の一端と他端の位置を推定する位置推定手段と、
前記第2の撮像装置により撮像された画像を取得する第2の画像取得手段と、
前記第2の画像取得手段により取得された画像を用いて、前記評価区間内の前記評価対象の表面性状を計測する計測手段と、
前記計測手段により計測された前記表面性状に基づき、前記評価区間内の前記評価対象を評価する評価手段とを含む、評価システム。
A first imaging device mounted on a vehicle traveling on an evaluation target, a distance measuring device mounted on the vehicle and measuring a travel distance of the vehicle, and an information processing system for estimating an evaluation section of the evaluation target; An evaluation system including a second imaging device that images the evaluation object,
The information processing system is
First image acquisition means for acquiring an image including the evaluation object imaged by the first imaging device;
Detection means for detecting a reference object having a specified characteristic with reference to the image acquired by the first image acquisition means;
Instructing means for instructing the distance measuring device to measure the travel distance of the vehicle in response to detection of the reference object by the detecting means;
Distance acquisition means for acquiring the travel distance measured by the distance measuring device;
Position estimation means for estimating the positions of one end and the other end of the evaluation section based on the positions at which the travel distances acquired by the distance acquisition means reach the specified distance for one end and the other end of the evaluation section, respectively. When,
Second image acquisition means for acquiring an image captured by the second imaging device;
Measuring means for measuring the surface property of the evaluation object in the evaluation section using the image acquired by the second image acquisition means;
An evaluation system including evaluation means for evaluating the evaluation object in the evaluation section based on the surface property measured by the measurement means.
評価対象の評価区間を推定する情報処理方法であって、
前記評価対象上を走行する車両に搭載された撮像装置により撮像された前記評価対象の画像を取得するステップと、
取得された前記画像を参照し、指定された特徴を有する基準物体を検知するステップと、
前記基準物体が検知されたことを受けて、前記車両に搭載された距離計測装置に対して該車両の走行距離の計測を指示するステップと、
前記距離計測装置により計測された前記走行距離を取得するステップと、
前記評価区間の一端と他端とにつき取得された各走行距離がそれぞれ指定された距離に達した位置に基づき、前記評価区間の一端と他端の位置を推定するステップとを含む、情報処理方法。
An information processing method for estimating an evaluation section to be evaluated,
Obtaining an image of the evaluation object imaged by an imaging device mounted on a vehicle traveling on the evaluation object;
Referring to the acquired image and detecting a reference object having a specified feature;
Instructing the distance measuring device mounted on the vehicle to measure the travel distance of the vehicle in response to the detection of the reference object;
Obtaining the travel distance measured by the distance measuring device;
An information processing method including a step of estimating positions of one end and the other end of the evaluation section based on positions at which the travel distances acquired for one end and the other end of the evaluation section reach a specified distance, respectively. .
評価対象の評価区間を推定する処理をコンピュータに実行させるためのプログラムであって、
前記評価対象上を走行する車両に搭載された撮像装置により撮像された前記評価対象を含む画像を取得するステップと、
取得された前記画像を参照し、指定された特徴を有する基準物体を検知するステップと、
前記基準物体が検知されたことを受けて、前記車両に搭載された距離計測装置に対して該車両の走行距離の計測を指示するステップと、
前記距離計測装置により計測された前記走行距離を取得するステップと、
前記評価区間の一端と他端とにつき取得された各走行距離がそれぞれ指定された距離に達した位置に基づき、前記評価区間の一端と他端の位置を推定するステップとを実行させる、プログラム。
A program for causing a computer to execute a process for estimating an evaluation interval to be evaluated,
Obtaining an image including the evaluation object imaged by an imaging device mounted on a vehicle traveling on the evaluation object;
Referring to the acquired image and detecting a reference object having a specified feature;
Instructing the distance measuring device mounted on the vehicle to measure the travel distance of the vehicle in response to the detection of the reference object;
Obtaining the travel distance measured by the distance measuring device;
The program which performs the step which estimates the position of the one end and the other end of the said evaluation area based on the position where each traveling distance acquired about the one end and the other end of the said evaluation area respectively reached the designated distance.
JP2017050795A 2017-03-16 2017-03-16 Information processing system, evaluation system, information processing method and program Active JP6965536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017050795A JP6965536B2 (en) 2017-03-16 2017-03-16 Information processing system, evaluation system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017050795A JP6965536B2 (en) 2017-03-16 2017-03-16 Information processing system, evaluation system, information processing method and program

Publications (2)

Publication Number Publication Date
JP2018154979A true JP2018154979A (en) 2018-10-04
JP6965536B2 JP6965536B2 (en) 2021-11-10

Family

ID=63715615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017050795A Active JP6965536B2 (en) 2017-03-16 2017-03-16 Information processing system, evaluation system, information processing method and program

Country Status (1)

Country Link
JP (1) JP6965536B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020085852A (en) * 2018-11-30 2020-06-04 株式会社リコー Evaluation device, investigation system, and evaluation method, and program
WO2020261568A1 (en) * 2019-06-28 2020-12-30 日本電気株式会社 Road surface inspection device, road surface inspection method, and program
JP7067852B1 (en) * 2022-02-01 2022-05-16 株式会社ファンクリエイト Calculation method of road surface damage position

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260141A (en) * 1997-03-18 1998-09-29 Hitachi Denshi Ltd Defect inspection apparatus
JP2011242293A (en) * 2010-05-19 2011-12-01 Hanshin Expressway Engineering Co Ltd Road inspection method and road inspection vehicle
JP2013167494A (en) * 2012-02-14 2013-08-29 Fujitsu Ltd Structure inspection support method, structure inspection support program, and structure inspection support apparatus
JP2015162228A (en) * 2014-02-28 2015-09-07 スズキ株式会社 vehicle control device
JP2015176540A (en) * 2014-03-18 2015-10-05 富士通株式会社 Measuring method of road surface state, identify method of degraded point of road surface, information processor and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260141A (en) * 1997-03-18 1998-09-29 Hitachi Denshi Ltd Defect inspection apparatus
JP2011242293A (en) * 2010-05-19 2011-12-01 Hanshin Expressway Engineering Co Ltd Road inspection method and road inspection vehicle
JP2013167494A (en) * 2012-02-14 2013-08-29 Fujitsu Ltd Structure inspection support method, structure inspection support program, and structure inspection support apparatus
JP2015162228A (en) * 2014-02-28 2015-09-07 スズキ株式会社 vehicle control device
JP2015176540A (en) * 2014-03-18 2015-10-05 富士通株式会社 Measuring method of road surface state, identify method of degraded point of road surface, information processor and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020085852A (en) * 2018-11-30 2020-06-04 株式会社リコー Evaluation device, investigation system, and evaluation method, and program
JP7115263B2 (en) 2018-11-30 2022-08-09 株式会社リコー Evaluation device, investigation system, evaluation method and program
WO2020261568A1 (en) * 2019-06-28 2020-12-30 日本電気株式会社 Road surface inspection device, road surface inspection method, and program
JPWO2020261568A1 (en) * 2019-06-28 2020-12-30
JP7156527B2 (en) 2019-06-28 2022-10-19 日本電気株式会社 Road surface inspection device, road surface inspection method, and program
JP7067852B1 (en) * 2022-02-01 2022-05-16 株式会社ファンクリエイト Calculation method of road surface damage position

Also Published As

Publication number Publication date
JP6965536B2 (en) 2021-11-10

Similar Documents

Publication Publication Date Title
JP6713505B2 (en) Pavement information collection and inspection system, pavement information collection and inspection method, and program
JP7302934B2 (en) System and method for anonymizing navigation information
JP7195021B2 (en) Data collection device, road condition evaluation support device, and program
JP6451844B2 (en) Vehicle position determination device and vehicle position determination method
US20210073557A1 (en) Systems and methods for augmenting upright object detection
CN109709961B (en) Road obstacle detection method and device and automatic driving automobile
US8624717B2 (en) Image processor, storage medium storing an image processing program and vehicle-mounted terminal
JP2014528063A (en) A method using a 3D camera for determining whether a vehicle can pass through an object
KR101032160B1 (en) System and method for road visibility measurement using camera
CN111932901B (en) Road vehicle tracking detection apparatus, method and storage medium
JP2017041070A (en) Vehicle control apparatus, vehicle control method, information processing apparatus, and traffic information providing system
CN109074727A (en) Safe driving assistant system, vehicle and program
JP2006209511A (en) Image recognition device and method, position specification device using it, vehicle controller, and navigation device
JP7028066B2 (en) Detection device and detection system
JP7314693B2 (en) Road surface condition investigation system, road surface condition investigation method, and road surface condition investigation program
JP6965536B2 (en) Information processing system, evaluation system, information processing method and program
CN102663352A (en) Track identification method
EP3315998B1 (en) Apparatus and method for determining a speed of a vehicle
Bassani et al. Experimental analysis of operational data for roundabouts through advanced image processing
KR101544854B1 (en) Method for providing real time traffic information around vehicle and traffic information system using the same
JP6488913B2 (en) Vehicle position determination device and vehicle position determination method
KR20200002257A (en) Corner detection-based road sign detecting method and apparatus
WO2022190204A1 (en) Occurrence risk calculation device, occurrence risk display system, occurrence risk calculation method, and non-transitory computer-readable medium having occurrence risk calculation program stored thereon
JP7347502B2 (en) Traffic jam information providing device, traffic jam information processing method and program
CN113852925A (en) Vehicle command method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R151 Written notification of patent or utility model registration

Ref document number: 6965536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151