JP2018036769A - Image processing apparatus, image processing method, and program for image processing - Google Patents

Image processing apparatus, image processing method, and program for image processing Download PDF

Info

Publication number
JP2018036769A
JP2018036769A JP2016167990A JP2016167990A JP2018036769A JP 2018036769 A JP2018036769 A JP 2018036769A JP 2016167990 A JP2016167990 A JP 2016167990A JP 2016167990 A JP2016167990 A JP 2016167990A JP 2018036769 A JP2018036769 A JP 2018036769A
Authority
JP
Japan
Prior art keywords
image
shadow
coordinate system
point cloud
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016167990A
Other languages
Japanese (ja)
Other versions
JP6797607B2 (en
Inventor
陽 佐々木
Akira Sasaki
陽 佐々木
忠之 伊藤
Tadayuki Ito
忠之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2016167990A priority Critical patent/JP6797607B2/en
Publication of JP2018036769A publication Critical patent/JP2018036769A/en
Application granted granted Critical
Publication of JP6797607B2 publication Critical patent/JP6797607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology to specify the position of a shadow caused by the sunlight in a photographed image.SOLUTION: An image processing apparatus 200 comprises: an image data acquisition part 201 that acquires image data of an image of an object photographed with a camera; a point group data acquisition part 202 that acquires point group data acquired with a laser scanner; a shadow area point group calculation part 204 that calculates, on the basis of the position of the sun, a shadow area point group obtained by projecting the point group data to the object from the sun; and a shadow area point group projection part 205 that projects the shadow area point group to the image.SELECTED DRAWING: Figure 3

Description

本発明は、画像内に写り込む影の位置を特定する技術に関する。   The present invention relates to a technique for specifying a position of a shadow reflected in an image.

例えば、道路を動画または静止画像で撮影し、その撮影画像をソフトウェアにより解析することで、道路のヒビ割れ、劣化等の検査を行う技術がある(例えば、特許文献1を参照)。   For example, there is a technique for inspecting roads for cracks, deterioration, and the like by capturing a road as a moving image or a still image and analyzing the captured image with software (see, for example, Patent Document 1).

特開2011−179874号公報JP 2011-179874 A

ところで、上記の技術において、太陽光が当たることによる建物の影およびその縁(影と影でない部分の境界部分)が画像解析に障害となる問題がある。まず、影の部分は、明度が低いので、画像解析の分解能や精度が低下する。そこが影の部分であることが判っていれば、影の部分の解析に適した画像の調整や解析を行うことで精度を確保した解析が行なえる。しかしながら、そこが影かどうかをソフトウェアで判定することは困難である。人が視認することで、影かどうかを判定することは可能であるが、人が視認しての作業を行うのは、作業量が増え、画像解析技術を用いる意味が低下する。   By the way, in the above technique, there is a problem that the shadow of the building and the edge thereof (the boundary part between the shadow and the non-shadow) are obstructed in the image analysis due to sunlight. First, since the shadow portion has low brightness, the resolution and accuracy of image analysis are reduced. If it is known that this is a shadow portion, an analysis with accuracy can be performed by adjusting and analyzing an image suitable for the analysis of the shadow portion. However, it is difficult to determine with software whether or not this is a shadow. It is possible for a person to visually recognize whether or not it is a shadow. However, if a person visually recognizes the work, the amount of work increases and the meaning of using image analysis technology decreases.

また、影の縁の部分を道路面に形成されたヒビ割れと誤検出する問題がある。この問題も人の目で確認すれば誤検出を避けられるが、それでは画像解析技術を用いる意味が低下する。ソフトウェア処理による画像解析を行うのは、極力人が行う作業を少なくし、作業を効率化する点にある。よって、人が見て判断する作業を極力少なくすることが望まれる。   In addition, there is a problem of erroneously detecting the edge portion of the shadow as a crack formed on the road surface. If this problem is also confirmed by human eyes, erroneous detection can be avoided, but this makes the meaning of using image analysis technology lower. The purpose of image analysis by software processing is to reduce the work performed by humans as much as possible and improve the work efficiency. Therefore, it is desirable to minimize the work that humans see and judge.

このような背景において、本発明は、撮影した画像中における太陽光に起因する影の位置を特定する技術を提供することを目的とする。   In such a background, an object of the present invention is to provide a technique for specifying the position of a shadow caused by sunlight in a captured image.

請求項1に記載の発明は、カメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、レーザスキャナが取得した点群データを取得する点群データ取得部と、太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、前記影領域点群を前記画像に投影する影領域点群投影部とを備えることを特徴とする画像処理装置である。   The invention according to claim 1 is an image data acquisition unit that acquires image data of an image of an object photographed by a camera, a point cloud data acquisition unit that acquires point cloud data acquired by a laser scanner, and a sun position. A shadow region point group calculation unit that calculates a shadow region point group obtained by projecting the point group data from the sun onto the object, and a shadow region point group projection unit that projects the shadow region point group onto the image. An image processing apparatus comprising:

請求項2に記載の発明は、請求項1に記載の発明において、前記レーザスキャナが取得した前記点群データの地上座標系への座標変換、および前記地上座標系で記述された前記点群データをカメラ座標系に座標変換する座標変換部を更に備え、前記影領域点群の算出は、前記地上座標系で行われることを特徴とする。ここで、レーザスキャナが取得した点群データの地上座標系への座標変換は、レーザスキャナが扱う座標系(スキャナ座標系)から直接地上座標系への座標変換を行う場合と、スキャナ座標系からIMU座標系等の他の座標系への座標変換を行った後で、地上座標系に座標変換する場合の両方を含む。   The invention according to claim 2 is the invention according to claim 1, wherein the point cloud data acquired by the laser scanner is converted into a ground coordinate system and the point cloud data described in the ground coordinate system. Is further provided with a coordinate conversion unit that performs coordinate conversion into a camera coordinate system, and the calculation of the shadow area point group is performed in the ground coordinate system. Here, the coordinate conversion of the point cloud data acquired by the laser scanner to the ground coordinate system is performed when the coordinate system (scanner coordinate system) handled by the laser scanner is directly converted to the ground coordinate system, and from the scanner coordinate system. It includes both cases in which coordinate conversion to another coordinate system such as an IMU coordinate system is performed and then coordinate conversion to the ground coordinate system is performed.

請求項3に記載の発明は、請求項1または2に記載の発明において、前記画像において、位置による画素の輝度値の違いに基づき前記影領域点群の周囲に影領域を拡張する影領域拡張部を備えることを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the present invention, in the image according to the first aspect, a shadow area expansion is performed to extend a shadow area around the shadow area point group based on a difference in luminance value of a pixel depending on a position. It comprises a part.

請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、前記画像における前記画像に投影された前記影領域のコントラストを調整するコントラスト調整部を備えることを特徴とする。   The invention according to claim 4 is the invention according to any one of claims 1 to 3, further comprising a contrast adjusting unit that adjusts a contrast of the shadow region projected on the image in the image. And

請求項5に記載の発明は、請求項3に記載の発明において、前記拡張された影領域に基づき、前記画像中の影の境界線を特定する影境界線特定部を備えることを特徴とする。   The invention according to claim 5 is the invention according to claim 3, further comprising a shadow boundary specifying unit that specifies a boundary of a shadow in the image based on the extended shadow region. .

請求項6に記載の発明は、請求項5に記載の発明において、前記画像中から撮影対象のひび割れ部分を検出するひび割れ部分検出部と、前記画像中における前記境界部分の位置に基づき、前記ひび割れ部分検出部が検出したひび割れ部分の誤検出を判定する誤検出判定部とを備えることを特徴とする。   According to a sixth aspect of the present invention, in the fifth aspect of the present invention, the crack portion detection unit that detects a crack portion to be photographed from the image, and the position of the boundary portion in the image. And an erroneous detection determination unit that determines erroneous detection of a crack portion detected by the partial detection unit.

請求項7に記載の発明は、請求項3に記載の発明において、前記点群データに基づき架空線を検出する架空線検出部を備え、前記影領域点群算出部は、前記検出された架空線の影となる部分の点群を算出することを特徴とする。   The invention according to claim 7 is the invention according to claim 3, further comprising an overhead line detection unit that detects an overhead line based on the point cloud data, wherein the shadow region point group calculation unit is configured to detect the detected overhead line. The point cloud of the part used as the shadow of a line is calculated.

請求項8に記載の発明は、前記架空線検出部において、前記架空線の点群に基づき、前記架空線が連続して存在する位置を予想する処理が行われることを特徴とする。   The invention according to claim 8 is characterized in that the overhead line detection unit performs a process of predicting a position where the overhead lines continuously exist based on a point group of the overhead lines.

請求項9に記載の発明は、カメラが撮影した対象物の画像の画像データを取得する画像データ取得ステップと、レーザスキャナが取得した点群データを取得する点群データ取得ステップと、太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出ステップと、前記影領域点群を前記画像に投影する影領域点群投影ステップとを備えることを特徴とする画像処理方法である。   The invention according to claim 9 is an image data acquisition step for acquiring image data of an image of an object photographed by a camera, a point cloud data acquisition step for acquiring point cloud data acquired by a laser scanner, and a sun position. A shadow area point group calculating step for calculating a shadow area point group obtained by projecting the point cloud data from the sun onto the object, and a shadow area point group projecting step for projecting the shadow area point group onto the image. It is an image processing method characterized by comprising.

請求項10に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータをカメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、レーザスキャナが取得した点群データを取得する点群データ取得部と、太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、前記影領域点群を前記画像に投影する影領域点群投影部として機能させることを特徴とする画像処理用プログラムである。   The invention according to claim 10 is a program to be read and executed by a computer, an image data acquisition unit for acquiring image data of an image of an object photographed by the camera by the computer, and a point cloud acquired by the laser scanner A point cloud data acquisition unit that acquires data, a shadow region point cloud calculation unit that calculates a shadow region point cloud obtained by projecting the point cloud data from the sun onto the object based on the position of the sun, and the shadow region point An image processing program that causes a group to function as a shadow area point group projection unit that projects a group onto the image.

本発明によれば、撮影した画像中における太陽光に起因する影の位置を特定する技術が得られる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which pinpoints the position of the shadow resulting from sunlight in the image | photographed image is obtained.

実施形態の概念図である。It is a conceptual diagram of embodiment. 実施形態の原理の説明図である。It is explanatory drawing of the principle of embodiment. 実施形態のブロック図である。It is a block diagram of an embodiment. 処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of a process. 影領域点群を説明する説明図である。It is explanatory drawing explaining a shadow area | region point group. 影領域点群を投影したカメラ画像のイメージ図である。It is an image figure of the camera image which projected the shadow area | region point group.

(全体の概要)
図1には、車両100が示されている。車両100は、レーザスキャナ101、カメラ102、IMU(慣性計測装置:Inertial Measurement Unit)103、GNSS装置104、記憶装置105を備えている。レーザスキャナ101は、周囲環境のレーザスキャンを行い、点群データを取得する。レーザスキャナ101としては、特開2010−151682号公報、特開2008―268004号公報、米国特許8767190号公報の記載されている技術を利用できる。
(Overall overview)
FIG. 1 shows a vehicle 100. The vehicle 100 includes a laser scanner 101, a camera 102, an IMU (Inertial Measurement Unit) 103, a GNSS device 104, and a storage device 105. The laser scanner 101 performs laser scanning of the surrounding environment and acquires point cloud data. As the laser scanner 101, the techniques described in JP 2010-151682 A, JP 2008-268004 A, and US Pat. No. 8,767,190 can be used.

カメラ102は、特定の時間間隔で画像の撮影を行い、撮影した画像の画像データを得る。カメラ102として動画を撮影するタイプのものを用いることもできる。この場合、フレーム画像を撮影画像として用いる。IMU103は、3軸加速度、3軸角速度、3軸地磁気の9軸モーションセンサを搭載し、姿勢や傾きの変化を計測する。GNSS装置104は、GPS衛星等の航法衛星からの航法信号を受信し、それに基づき位置の計測を行う。また、GNSS装置104は、航法衛星からの航法信号に基づき精度の高い時刻情報を出力する時計機能を備えている。   The camera 102 captures images at specific time intervals and obtains image data of the captured images. A camera 102 that captures moving images can also be used. In this case, a frame image is used as a captured image. The IMU 103 is equipped with a three-axis acceleration, three-axis angular velocity, three-axis geomagnetic nine-axis motion sensor, and measures changes in posture and inclination. The GNSS device 104 receives a navigation signal from a navigation satellite such as a GPS satellite and measures a position based on the received navigation signal. The GNSS device 104 has a clock function that outputs highly accurate time information based on a navigation signal from a navigation satellite.

記憶装置105は、ハードディスク装置や半導体メモリにより構成されたデータ記憶装置である。記憶装置105は、レーザスキャナ101が取得する点群データ、カメラ102が撮影した画像の画像データ、IMU103が計測した姿勢や傾きの変化のデータ、GNSS装置104が計測した位置と時刻のデータを互いに関連付けした状態で記憶する。レーザスキャナ101、カメラ102、IMU103およびGNSS装置104の車両100に対する外部標定要素(姿勢と位置)は予め計測されており既知である。   The storage device 105 is a data storage device configured by a hard disk device or a semiconductor memory. The storage device 105 receives the point cloud data acquired by the laser scanner 101, the image data of the image captured by the camera 102, the attitude and tilt change data measured by the IMU 103, and the position and time data measured by the GNSS device 104. Store in the associated state. The external orientation elements (posture and position) of the laser scanner 101, the camera 102, the IMU 103, and the GNSS device 104 with respect to the vehicle 100 are measured in advance and are known.

(原理の説明)
図1のシステムは、コンクリートで舗装された路面のひび割れを画像解析により検出するために用いられる。この例では、太陽光が当たらない影の影響でひび割れの誤検出が生じる問題を低減する技術を説明する。
(Description of principle)
The system of FIG. 1 is used to detect cracks in a road paved with concrete by image analysis. In this example, a technique for reducing the problem of erroneous detection of cracks due to the influence of shadows not exposed to sunlight will be described.

本明細書における影とは、太陽光が建物等に当たることで形成される太陽光が直接当たらない部分のことをいう。図2に示すように、建物の影が路面に映ると、線状の境界ラインが生じる。この境界ラインが路面のひび割れとして誤検出される。この例では、建物の三次元位置をレーザスキャンにより把握し、その三次元情報(点群データ)から太陽光が当たらない影となる領域を算出する。特定の時刻における太陽の天球上における位置は、天文データや計算式から精密に求まるので、幾何的な計算により、路面に映りこむ影の位置を求めることができる。   The shadow in this specification refers to a portion that is not directly exposed to sunlight, which is formed when sunlight strikes a building or the like. As shown in FIG. 2, when the shadow of a building is reflected on the road surface, a linear boundary line is generated. This boundary line is erroneously detected as a crack on the road surface. In this example, the three-dimensional position of the building is grasped by laser scanning, and a shadowed area that is not exposed to sunlight is calculated from the three-dimensional information (point cloud data). Since the position of the sun on the celestial sphere at a specific time can be precisely obtained from astronomical data and calculation formulas, the position of the shadow reflected on the road surface can be obtained by geometric calculation.

そして、路面における影の位置をカメラ102が撮影した画像中に投影することで、画像中のどこに影が映っているのかが判る画像データを作成し、ひび割れの誤検出を判定できるようにする。また、予め画像中の影の部分を特定できるので、その部分のコントラストを調整することで、影となった部分にあるひび割れの検出精度を高めることができる。   Then, by projecting the position of the shadow on the road surface in the image taken by the camera 102, image data that shows where the shadow is reflected in the image is created, and it is possible to determine erroneous detection of cracks. In addition, since a shadow portion in the image can be specified in advance, the detection accuracy of a crack in the shadow portion can be increased by adjusting the contrast of the portion.

(画像処理部の構成)
図3に画像処理装置のブロック図を示す。図3には、画像処理装置200が示されている。画像処理装置200は、コンピュータとしての基本機能を有する。画像処理装置200は、画像解析により路面のひび割れを検出する装置であり、特に図2に示す原理を用いて画像中の影の部分を特定し、更に影の存在による路面のひび割れ検出の精度低下を抑える処理を行う。
(Configuration of image processing unit)
FIG. 3 shows a block diagram of the image processing apparatus. FIG. 3 shows an image processing apparatus 200. The image processing apparatus 200 has a basic function as a computer. The image processing apparatus 200 is an apparatus for detecting a crack on the road surface by image analysis. In particular, the shadow portion in the image is specified using the principle shown in FIG. 2, and further, the accuracy of detecting the crack on the road surface due to the presence of the shadow is reduced. The process which suppresses is performed.

画像処理装置200は、画像データ取得部201、点群データ取得部202、座標変換部203、影領域点群算出部204、影領域点群投影部205、影領域拡張部206、影領域特定部207、コントラスト調整部208、影境界線特定部209、ひび割れ部分検出部210、誤検出判定部211、架空線検出部212、記憶部213および車両位置特定部214を備えている。   The image processing apparatus 200 includes an image data acquisition unit 201, a point group data acquisition unit 202, a coordinate conversion unit 203, a shadow region point group calculation unit 204, a shadow region point group projection unit 205, a shadow region expansion unit 206, and a shadow region specification unit. 207, a contrast adjusting unit 208, a shadow boundary line specifying unit 209, a cracked part detecting unit 210, an erroneous detection determining unit 211, an overhead line detecting unit 212, a storage unit 213, and a vehicle position specifying unit 214.

上述した画像処理装置200が備える機能部は、ソフトウェア的に構成されていてもよいし、専用の演算回路によって構成されていてもよい。また、ソフトウェア的に構成された機能部と、専用の演算回路によって構成された機能部が混在していてもよい。例えば、図示する各機能部は、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などのPLD(Programmable Logic Device)などの電子回路により構成される。   The functional unit included in the image processing apparatus 200 described above may be configured as software, or may be configured as a dedicated arithmetic circuit. Moreover, the function part comprised by software and the function part comprised by the dedicated arithmetic circuit may be mixed. For example, each functional unit shown in the figure is configured by an electronic circuit such as a PLD (Programmable Logic Device) such as a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array).

各機能部を専用のハードウェアで構成するのか、CPUにおけるプログラムの実行によりソフトウェア的に構成するのかは、要求される演算速度、コスト、消費電力等を勘案して決定される。例えば、特定の機能部をFPGAで構成すれば、処理速度の上では優位であるが高コストとなる。他方で、CPUでプログラムを実行することで特定の機能部を実現する構成は、ハードウェア資源を節約できるので、コスト的に優位となる。しかしながら、CPUで機能部を実現する場合、処理速度は、専用のハードウェアに比較して見劣りする。また、CPUで機能部を実現する場合、複雑な演算に対応できない場合もあり得る。なお、機能部を専用のハードウェアで構成することとソフトウェア的に構成することは、上述した違いはあるが、特定の機能を実現するという観点からは、等価である。   Whether each functional unit is configured by dedicated hardware or by software by executing a program in the CPU is determined in consideration of required calculation speed, cost, power consumption, and the like. For example, if a specific functional unit is configured with FPGA, it is advantageous in terms of processing speed but is expensive. On the other hand, a configuration in which a specific functional unit is realized by executing a program by the CPU can save hardware resources, and is advantageous in terms of cost. However, when the functional unit is realized by the CPU, the processing speed is inferior to that of dedicated hardware. Further, when the functional unit is realized by the CPU, it may not be able to cope with complicated calculations. It should be noted that the configuration of the functional unit with dedicated hardware and the configuration with software are equivalent from the viewpoint of realizing a specific function, although there are the differences described above.

この例において、画像処理装置200は、ワークステーション等の大容量のデータを高速で処理できるコンピュータにより構成されている。勿論、処理能力に問題がなければ、市販のパーソナルコンピュータを用いて画像処理装置200を構成することもできる。また、画像処理装置200の機能を複数のコンピュータで分散して処理するシステムとする構成も可能である。   In this example, the image processing apparatus 200 is configured by a computer such as a workstation that can process a large amount of data at high speed. Of course, if there is no problem in processing capability, the image processing apparatus 200 can be configured using a commercially available personal computer. Further, a configuration in which the function of the image processing apparatus 200 is distributed and processed by a plurality of computers is also possible.

画像データ取得部201は、カメラ102が撮影した画像の画像データを取得する。画像データは、特定の時間間隔で撮影された静止画または動画を構成するフレーム画像のデータである。点群データ取得部202は、レーザスキャナ101が取得した点群データを取得する。点群データは、三次元座標を取得した点の集まりとしてスキャン対象を捉えたデータである。   The image data acquisition unit 201 acquires image data of an image captured by the camera 102. The image data is frame image data constituting a still image or a moving image taken at a specific time interval. The point cloud data acquisition unit 202 acquires the point cloud data acquired by the laser scanner 101. Point cloud data is data that captures a scan target as a collection of points from which three-dimensional coordinates have been acquired.

座標変換部203は、点群データを記述する座標系に係り、スキャナ座標系からIMU座標系への座標変換、IMU座標系から地上座標系への座標変換、地上座標系からIMU座標系への座標変換、IMU座標系からカメラ座標系への座標変換を行う。スキャナ座標系は、レーザスキャナ101を原点する座標系である。IMU座標系は、IMU103を原点とする座標系である。地上座標系は、地上に固定された座標系である。カメラ座標系は、カメラ102を原点とする座標系である。   The coordinate conversion unit 203 relates to a coordinate system that describes point cloud data, coordinate conversion from the scanner coordinate system to the IMU coordinate system, coordinate conversion from the IMU coordinate system to the ground coordinate system, and conversion from the ground coordinate system to the IMU coordinate system. Coordinate transformation, coordinate transformation from IMU coordinate system to camera coordinate system is performed. The scanner coordinate system is a coordinate system with the laser scanner 101 as the origin. The IMU coordinate system is a coordinate system having the IMU 103 as an origin. The ground coordinate system is a coordinate system fixed on the ground. The camera coordinate system is a coordinate system with the camera 102 as the origin.

スキャナ座標系、IMU座標系およびカメラ座標系は、車両100の移動に従って、その原点の位置と座標軸の向きが刻々と変化する。勿論、車両100が移動しなければ、座標の原点の移動はなく、車両100の向きに変化がなければ、座標系の座標軸の向きの変化もない。   In the scanner coordinate system, the IMU coordinate system, and the camera coordinate system, as the vehicle 100 moves, the position of the origin and the direction of the coordinate axis change every moment. Of course, if the vehicle 100 does not move, there is no movement of the origin of coordinates, and if there is no change in the direction of the vehicle 100, there is no change in the direction of the coordinate axes of the coordinate system.

スキャナ座標系からIMU座標系への座標変換は、レーザスキャナ101とIMU103の車両100に対する外部標定要素に基づいて行われる。より詳細にいうと、スキャナ座標系からIMU座標系への座標変換は、以下のようにして行われる。まず、ある特定の時刻tを考える。この時刻tにおけるスキャナ座標系とIMU座標系の相対関係は、レーザスキャナ101とIMU103の車両100に対する外部標定要素から判る。すなわち、時刻tにおけるスキャナ座標系を平行移動および回転させることで、スキャナ座標系をIMU座標系に変換できる。この際の変換係数は、レーザスキャナ101とIMU103の車両100に対する外部標定要素から得られる。よって、時刻tのスキャナ座標系における特定の点AのIMU座標系における座標値が計算できる。同様の処理を任意の時刻で行うことで、当該時刻におけるスキャナ座標系からIMU座標系への座標変換が行われる。   Coordinate conversion from the scanner coordinate system to the IMU coordinate system is performed based on external orientation elements of the laser scanner 101 and the IMU 103 with respect to the vehicle 100. More specifically, the coordinate conversion from the scanner coordinate system to the IMU coordinate system is performed as follows. First, consider a specific time t. The relative relationship between the scanner coordinate system and the IMU coordinate system at time t can be determined from the external orientation elements of the laser scanner 101 and the IMU 103 with respect to the vehicle 100. That is, the scanner coordinate system can be converted to the IMU coordinate system by translating and rotating the scanner coordinate system at time t. The conversion coefficient at this time is obtained from external orientation elements of the laser scanner 101 and the IMU 103 with respect to the vehicle 100. Therefore, the coordinate value in the IMU coordinate system of the specific point A in the scanner coordinate system at time t can be calculated. By performing the same process at an arbitrary time, coordinate conversion from the scanner coordinate system to the IMU coordinate system at the time is performed.

IMU座標系から地上座標系への変換は車両軌跡の情報を用いて行う。車両軌跡の情報は、IMU103とGNSS装置104から得られる。より詳細にいうと、IMU座標系から地上座標系への座標変換は、以下のようにして行われる。まず、ある特定の時刻tを考える。この時刻tにおけるIMU座標系と地上座標系の相対関係は、IMU103の車両100に対する外部標定要素および時刻tにおける車両100の位置と向きから得られる。なお、車両100の位置の情報はGNSS装置104から得られ、車両100の向きの情報はIMU103から得られる。この場合、時刻tにおけるIMU座標系を平行移動および回転させることで、IMU座標系を地上座標系に変換できる。   Conversion from the IMU coordinate system to the ground coordinate system is performed using information on the vehicle trajectory. Information on the vehicle trajectory is obtained from the IMU 103 and the GNSS device 104. More specifically, coordinate conversion from the IMU coordinate system to the ground coordinate system is performed as follows. First, consider a specific time t. The relative relationship between the IMU coordinate system and the ground coordinate system at time t is obtained from the external orientation elements of the IMU 103 with respect to the vehicle 100 and the position and orientation of the vehicle 100 at time t. Information on the position of the vehicle 100 is obtained from the GNSS device 104, and information on the direction of the vehicle 100 is obtained from the IMU 103. In this case, the IMU coordinate system can be converted to the ground coordinate system by translating and rotating the IMU coordinate system at time t.

この際の変換係数は、IMU103の車両100に対する外部標定要素および時刻tにおける車両100の位置と向きから得られる。よって、時刻tのIMU座標系における特定の点Aの地上座標系における座標値が計算できる。そして上記の処理を時刻t、t、t・・・において行うことで、時刻t、t、t・・・の各時刻において取得された点(この点の集まりによって点群データが構成される)を地上座標系に変換できる。 The conversion coefficient at this time is obtained from the external orientation element of the IMU 103 with respect to the vehicle 100 and the position and orientation of the vehicle 100 at time t. Therefore, the coordinate value in the ground coordinate system of the specific point A in the IMU coordinate system at time t can be calculated. Then, by performing the above processing at times t 1 , t 2 , t 3 ..., Points acquired at each time at times t 1 , t 2 , t 3. Data can be converted to the ground coordinate system.

なお、スキャナ座標系→IMU座標系→地上座標系の座標変換における時刻の間隔は、レーザスキャナ101のスキャン速度によって決まる。レーザスキャナ101のスキャン速度は、例えば、1kHz〜10kHz程度である。上記の時刻の間隔は、狭い(短い)程、精度が高くなるが、演算量は多くなる。   Note that the time interval in the coordinate conversion of the scanner coordinate system → IMU coordinate system → ground coordinate system is determined by the scanning speed of the laser scanner 101. The scanning speed of the laser scanner 101 is, for example, about 1 kHz to 10 kHz. The narrower (shorter) the time interval, the higher the accuracy, but the greater the amount of computation.

点群データの地上座標系からIMU座標系への変換は、以下のようにして行われる。この変換は、時刻T、T、T・・・と刻まれる各時刻において行われる。この際の時刻Tnは、カメラ102の撮影時刻である。カメラ102の撮影間隔は、例えば、0.1秒〜0.5秒程度である。勿論、これより短い時間間隔で撮影を行ってもよいが、演算に要する負担が増大する。 Conversion of the point cloud data from the ground coordinate system to the IMU coordinate system is performed as follows. This conversion is performed at each time marked as times T 1 , T 2 , T 3 . The time Tn at this time is the shooting time of the camera 102. The shooting interval of the camera 102 is, for example, about 0.1 seconds to 0.5 seconds. Of course, the image may be taken at a time interval shorter than this, but the burden required for calculation increases.

まず、IMU103の外部標定要素と時刻Tにおける車両の位置と向き(このデータは、IMU103から得られる)から時刻Tにおける地上座標系とIMU座標系の関係を得る。これにより、時刻Tにおける点群データの地上座標系からIMU座標系への座標変換が可能となり、時刻TにおけるIMU座標系で記述した点群データが得られる。この処理を他の時刻においても行うことで、撮影時刻TnでのIMU座標系における点群データが得られる。 First, the relationship between the ground coordinate system and the IMU coordinate system at time T 1 is obtained from the external orientation element of the IMU 103 and the position and orientation of the vehicle at time T 1 (this data is obtained from the IMU 103). Thereby, the coordinate conversion of the point cloud data at the time T 1 from the ground coordinate system to the IMU coordinate system becomes possible, and the point cloud data described in the IMU coordinate system at the time T 1 is obtained. By performing this processing also at other times, point cloud data in the IMU coordinate system at the photographing time Tn can be obtained.

点群データのIMU座標系からカメラ座標系への座標変換は、スキャナ座標系からIMU座標系への座標変換の場合と同様な原理により、カメラ102とIMU102の外部標定要素に基づいて行われる。なお、IMU座標系とカメラ座標系は、車両100と共に動くので、IMU座標系からカメラ座標系への座標変換は、時刻Tnを指定して行い、指定した時刻Tnにおけるものとして得る。   The coordinate conversion of the point cloud data from the IMU coordinate system to the camera coordinate system is performed based on the external orientation elements of the camera 102 and the IMU 102 according to the same principle as the coordinate conversion from the scanner coordinate system to the IMU coordinate system. Since the IMU coordinate system and the camera coordinate system move together with the vehicle 100, coordinate conversion from the IMU coordinate system to the camera coordinate system is performed by designating the time Tn and obtained at the designated time Tn.

スキャナ座標系→IMU座標系→地上座標系と変換するのではなく、IMU座標系を介さず、スキャナ座標系→地上座標系と変換する形態も可能である。いずれの場合も結果として、スキャナ座標系から地上座標系への変換となる。また、地上座標系→IMU座標系→カメラ座標系と変換するのではなく、IMU座標系を介さず、地上座標系→カメラ座標系と変換する形態も可能である。この場合、結果として、地上座標系からカメラ座標系への変換となる。   Instead of converting the scanner coordinate system → the IMU coordinate system → the ground coordinate system, it is possible to convert the scanner coordinate system → the ground coordinate system without going through the IMU coordinate system. In either case, the result is a conversion from the scanner coordinate system to the ground coordinate system. Further, instead of converting from the ground coordinate system → IMU coordinate system → camera coordinate system, it is possible to convert from the ground coordinate system → camera coordinate system without going through the IMU coordinate system. In this case, the result is a transformation from the ground coordinate system to the camera coordinate system.

スキャナ座標系は地上座標系内で車両の動きに応じて時々刻々と変化しているため、各点を地上座標系に変換することでひとつのまとまったデータ(点群)に出来、地上座標系の点群になってはじめて太陽方向から路面点群へビル点群(ビルの影を構成する影領域点群)を投影できる。そうして得られた地上座標系での影領域点群を撮影が行われた時刻TnのIMU座標系に変換し、それをカメラ座標系に変換してカメラの撮影画像上に投影する。この一旦地上座標系に変換する方法では、レーザスキャナ101のスキャンタイミングとカメラ102の撮影時刻が同期していなくても、点群データの取り扱いが容易に行える。このため、レーザスキャナ101とカメラ102の機種の選定や動作タイミングの設定の自由度が高く、低コストでシステムを構成できる。   Since the scanner coordinate system changes every moment in the ground coordinate system according to the movement of the vehicle, by converting each point to the ground coordinate system, it can be made into a single data (point cloud), and the ground coordinate system It is possible to project a building point group (a shadow region point group constituting the shadow of the building) from the sun direction to the road surface point group only after the point group becomes. The shadow area point group in the ground coordinate system obtained in this way is converted into the IMU coordinate system at the time Tn when the image was taken, and it is converted into the camera coordinate system and projected onto the captured image of the camera. In this method of once converting to the ground coordinate system, the point cloud data can be easily handled even if the scan timing of the laser scanner 101 and the shooting time of the camera 102 are not synchronized. Therefore, the degree of freedom in selecting the models of the laser scanner 101 and the camera 102 and setting the operation timing is high, and the system can be configured at low cost.

以下、座標変換部203で行われる処理の一例を説明する。まず、点群データの座標系として、レーザスキャナ101を原点とする3次元座標系(第1の座標系:スキャナ座標系)を考える。他方で、カメラ102を原点とする3次元座標系(第2の座標系:カメラ座標系)を考える。ここで、レーザスキャナ101の外部標定要素(IMU103が扱う座標系における位置と向き)とカメラ102の外部標定要素(IMU103が扱う座標系における位置と向き)が既知であるとする。また、IMU103が扱う三次元座標系を第3の座標系(IMU座標系)とする。   Hereinafter, an example of processing performed by the coordinate conversion unit 203 will be described. First, a three-dimensional coordinate system (first coordinate system: scanner coordinate system) having the laser scanner 101 as the origin is considered as the coordinate system of the point cloud data. On the other hand, a three-dimensional coordinate system (second coordinate system: camera coordinate system) with the camera 102 as the origin is considered. Here, it is assumed that the external orientation elements (position and orientation in the coordinate system handled by the IMU 103) of the laser scanner 101 and the external orientation elements (position and orientation in the coordinate system handled by the IMU 103) of the camera 102 are known. A three-dimensional coordinate system handled by the IMU 103 is a third coordinate system (IMU coordinate system).

レーザスキャナ101の外部標定要素が既知であるので、第1の座標系を回転および平行移動させることで、第1の座標系を第3の座標系(IMU座標系)に変換できる。更にレーザスキャナで取得した各点の取得時刻におけるIMU103の位置と姿勢が第4の座標系(地上座標系)において既知であれば、第4の座標系上で点群データを記述できるようになる。他方で、カメラ101の外部標定要素が既知であるので、第2の座標系を回転および平行移動させることで、第2の座標系を第3の座標系に変換できる。更に撮影時刻におけるIMU103の位置と姿勢が第4の座標系において既知であれば、当該時刻におけるカメラ102の位置と姿勢を第4の座標系(地上座標系)に変換できる。この結果、第4の座標系(地上座標系)上で例えばカメラ102の光軸の方向や画角(撮影視野)を記述することが可能となる。なお、数学的な操作により、地上座標系における点群を第2の座標系(カメラ座標系)に変換する操作は、当然可能である。   Since the external orientation element of the laser scanner 101 is known, the first coordinate system can be converted into the third coordinate system (IMU coordinate system) by rotating and translating the first coordinate system. Further, if the position and orientation of the IMU 103 at the time of acquisition of each point acquired by the laser scanner are known in the fourth coordinate system (ground coordinate system), the point cloud data can be described on the fourth coordinate system. . On the other hand, since the external orientation element of the camera 101 is known, the second coordinate system can be converted into the third coordinate system by rotating and translating the second coordinate system. Further, if the position and orientation of the IMU 103 at the photographing time are known in the fourth coordinate system, the position and orientation of the camera 102 at the time can be converted to the fourth coordinate system (ground coordinate system). As a result, it is possible to describe, for example, the direction of the optical axis of the camera 102 and the angle of view (imaging field of view) on the fourth coordinate system (ground coordinate system). Of course, an operation of converting a point group in the ground coordinate system to the second coordinate system (camera coordinate system) by mathematical operation is possible.

影領域点群算出部204は、太陽の位置に基づき、前記点群データが存在することで、太陽光が当たらない影となる領域の点群を影領域点群として算出する。この処理は、地上座標系上で行われる。この処理を地上座標系上で行うことで、点群データをまとまったデータとして扱うことができ、処理時間が短縮化され、また処理を行うハードウェアの負担が軽減される。太陽は動くので、影も動く。よって、影領域点群の算出は、特定の時間間隔で繰り返し行う。具体的には、カメラ102の撮影のタイミング(例えば、0.1秒毎)に同期させて、影領域点群の算出を行う。なお演算の負担を軽減するために、カメラ102の撮影のタイミングの複数回に一回の割合で影領域点群の算出を行う態様も可能である。例えば、撮影の間隔が0.1秒間隔である場合に、0.5秒経過毎に影領域点群の算出を行うような態様も可能である。   Based on the position of the sun, the shadow area point group calculation unit 204 calculates, as the shadow area point group, a point group of a shadow area that does not receive sunlight due to the presence of the point cloud data. This process is performed on the ground coordinate system. By performing this processing on the ground coordinate system, the point cloud data can be handled as a set of data, the processing time is shortened, and the burden of hardware for processing is reduced. As the sun moves, so does the shadow. Therefore, the calculation of the shadow area point group is repeated at specific time intervals. Specifically, the shadow area point group is calculated in synchronization with the shooting timing of the camera 102 (for example, every 0.1 second). In order to reduce the burden of calculation, a mode is also possible in which the shadow area point group is calculated at a rate of once per a plurality of shooting timings of the camera 102. For example, when the shooting interval is 0.1 seconds, it is possible to calculate the shadow area point group every 0.5 seconds.

以下、影領域点群の算出を行う一例を説明する。例えば、路面上のある視点Aから太陽の方向を見た場合に、その方向に建物があり、太陽が直接見えない場合を考える。この場合、視点Aと太陽を結ぶ線上に建物を構成する点Bがあり、この点Bが当該視点からレーザスキャンを行った場合の点群の一つとして取得される。そして太陽を視点(原点)としてこの点Bを路面に投影した点が影領域点群の一つとなる。この投影点は、先の路面上の視点Aと一致する。図5には、レーザスキャンで得た点群と影領域点群の関係の一例が示されている。   Hereinafter, an example of calculating the shadow area point group will be described. For example, when the sun direction is seen from a certain viewpoint A on the road surface, a case is considered in which there is a building in that direction and the sun cannot be directly seen. In this case, there is a point B constituting the building on the line connecting the viewpoint A and the sun, and this point B is acquired as one of the point groups when laser scanning is performed from the viewpoint. A point obtained by projecting this point B onto the road surface with the sun as the viewpoint (origin) is one of the shadow area point groups. This projection point coincides with the viewpoint A on the previous road surface. FIG. 5 shows an example of the relationship between the point group obtained by laser scanning and the shadow area point group.

影領域点群を算出する処理では、まず無限遠にある太陽を光源として、点群データ取得部202が取得した点群(レーザスキャナ101が計測した点群)を地上(路面)に投影する。この投影により、レーザスキャナ101が計測した点群各点に対応する地上への投影点の集まりが影投影点群として得られる。影投影点群は、点状の影により構成される点群である。   In the process of calculating the shadow area point cloud, first, the sun at infinity is used as a light source, and the point cloud acquired by the point cloud data acquisition unit 202 (the point cloud measured by the laser scanner 101) is projected on the ground (road surface). By this projection, a group of projection points on the ground corresponding to each point group measured by the laser scanner 101 is obtained as a shadow projection point group. The shadow projection point group is a point group composed of point-like shadows.

太陽の位置に関するデータやその計算プログラムは、例えば、NASAのジェット推進研究所のサイト等から入手したものを用いる。勿論、独自の計測値や計算プログラムを用いて太陽の位置を特定してもよい。例えば、理科年表等に太陽の位置に関するデータは記載されており、それに基づく計算方法や計算プログラムは多数公開されている。これらの情報に基づき、視点の位置と時刻が判れば、天球面上における太陽の位置は計算により正確に求めることができる。   For example, data obtained from the NASA's Jet Propulsion Laboratory site is used as the data relating to the position of the sun and its calculation program. Of course, the position of the sun may be specified using a unique measurement value or calculation program. For example, data related to the position of the sun is described in science chronology, and many calculation methods and calculation programs based on the data are disclosed. Based on this information, if the position and time of the viewpoint are known, the position of the sun on the celestial sphere can be accurately obtained by calculation.

以下、影領域点群を算出する処理の一例を説明する。まず、レーザスキャナ101で取得した各点について各点の取得時刻に基づきスキャナ座標系(上記第1の座標系)から地上座標系に変換することにより、地上座標系における点群データを生成する。次にカメラ102で取得した画像の取得時刻における第2の座標系(カメラ座標系)の原点の第4の座標系(地上座標系)における位置(カメラ102の位置)と当該時刻を太陽の位置を求めるデータテーブルやプログラムに入力し、当該時刻における太陽の天球面における位置、すなわち第4の座標系(地上座標系)における太陽光が降り注ぐ方向を求める。   Hereinafter, an example of processing for calculating a shadow area point group will be described. First, point cloud data in the ground coordinate system is generated by converting each point acquired by the laser scanner 101 from the scanner coordinate system (the first coordinate system) to the ground coordinate system based on the acquisition time of each point. Next, the position (the position of the camera 102) in the fourth coordinate system (ground coordinate system) of the origin of the second coordinate system (camera coordinate system) at the acquisition time of the image acquired by the camera 102 and the time are the sun position. To the data table or program for obtaining the position of the sun on the celestial sphere at the time, that is, the direction in which sunlight falls in the fourth coordinate system (ground coordinate system).

次に、第4の座標系(地上座標系)における点群データにおいて、路面(地上面)の太陽光が当たらず、影が形成される点状の部分が算出される。この処理は、太陽を投影原点として、レーザスキャナ101が取得した点群を地上に投影する処理を行うことで実行される。例えば、太陽光線の光軸と地上面のある点との間に点群があれば、当該地上面上の点は影の部分となる。この影となる点の集まりが影領域点群となる。この処理を点群データ取得部202が得たすべての点群に対して行うことで、地上面の影となる領域を確定できる。図5にレーザスキャナがレーザスキャンによって取得した点群と、この点群を路面の投影することで得た影領域点群の例が示されている。   Next, in the point group data in the fourth coordinate system (ground coordinate system), a point-like portion where a shadow is formed without being exposed to sunlight on the road surface (the ground surface) is calculated. This process is executed by performing a process of projecting the point cloud acquired by the laser scanner 101 on the ground with the sun as the projection origin. For example, if there is a point group between the optical axis of sunlight and a point on the ground surface, the point on the ground surface becomes a shadow portion. A group of points that become shadows becomes a shadow area point group. By performing this process on all the point clouds obtained by the point cloud data acquisition unit 202, it is possible to determine an area that is a shadow on the ground surface. FIG. 5 shows an example of a point cloud acquired by a laser scanner by a laser scanner and a shadow area point cloud obtained by projecting this point cloud onto a road surface.

影領域点群投影部205は、座標変換部203で行われる座標変換の結果を用いて、影領域点群算出部204が算出した影領域点群をカメラ102が撮影した画像に投影する。この処理により、カメラ102が撮影した画像中で、レーザスキャナ101が計測した点群および地上座標系において求めた影領域点群がどのように見えるのかを視覚的に把握できるようになる。   The shadow area point group projection unit 205 projects the shadow area point group calculated by the shadow area point group calculation unit 204 on the image captured by the camera 102 using the result of the coordinate conversion performed by the coordinate conversion unit 203. This process makes it possible to visually grasp how the point group measured by the laser scanner 101 and the shadow area point group obtained in the ground coordinate system look in the image captured by the camera 102.

以下、影領域点群投影部205で行われる処理の一例を説明する。まず、上述した第1〜第4の座標系間における座標変換の結果から、第4の座標系(地上座標系)上でカメラ102の光軸の方向や画角(撮影視野)を記述することが可能となる。他方で、上述した影領域点群は、第4の座標系(地上座標系)上で記述可能である。したがって、カメラ102の撮影範囲(撮影した画面)における影領域点群の位置は特定できる。すなわち、カメラ102の撮影範囲(撮影した画面)に影領域点群を投影し、当該撮影範囲の中に影領域点群を表示できる。   Hereinafter, an example of processing performed by the shadow area point group projection unit 205 will be described. First, the direction of the optical axis and the angle of view (imaging field of view) of the camera 102 are described on the fourth coordinate system (ground coordinate system) from the result of the coordinate conversion between the first to fourth coordinate systems. Is possible. On the other hand, the shadow area point group described above can be described on the fourth coordinate system (ground coordinate system). Therefore, the position of the shadow area point group in the shooting range (captured screen) of the camera 102 can be specified. That is, it is possible to project a shadow area point group on the shooting range (captured screen) of the camera 102 and display the shadow area point group in the shooting range.

カメラ102が撮影した画像中に影領域点群を投影することで、点群データに基づいたどの部分が影になるのかに関する画像情報が、カメラ102が撮影した画像中に表示される。図6に影領域点群を投影したカメラ画像のイメージ図を示す。図6には、建物の影となる部分を構成する影領域点群が路面を撮影した画像中に投影された状態が示されている。図6の場合、太陽は画面の左上の方向にあり、太陽光が建物に遮られることで生成される影に対応する領域に影領域点群が形成される様子が示されている。影領域点群は、レーザスキャンで得た建物の点群データと計算上の太陽の位置に基づくもので、実際に影がどのように画像中に写っているのかは関係ない。よって、画面中で建物の影がどのように写っているのかに関わりなく、影領域点群により、撮影画面(カメラ画像)中における影の位置が特定される。   By projecting the shadow area point cloud in the image photographed by the camera 102, image information regarding which part becomes a shadow based on the point cloud data is displayed in the image photographed by the camera 102. FIG. 6 shows an image diagram of a camera image in which a shadow area point group is projected. FIG. 6 shows a state in which a shadow area point group constituting a shadowed part of a building is projected in an image obtained by photographing a road surface. In the case of FIG. 6, the sun is in the upper left direction of the screen, and a state in which a shadow area point group is formed in an area corresponding to a shadow generated when the sunlight is blocked by a building is shown. The shadow area point cloud is based on the point cloud data of the building obtained by laser scanning and the calculated sun position, and it does not matter how the shadow is actually reflected in the image. Therefore, the position of the shadow in the shooting screen (camera image) is specified by the shadow area point group regardless of how the shadow of the building is reflected in the screen.

影領域拡張部206は、カメラ102が撮影した画像(カメラ画像)において、画像を構成する画素の輝度値に基づき、影領域点群の周囲に影領域を拡張する。一般に点群の点密度は、画像の画素に比較して粗い。影領域点群は、点状の影により構成される点群であるので、画像の画素に比較して密度は粗い。よって、影と影でない部分との境界の部分を高い精度で確定するには、影領域点群の隣接する領域に影領域を拡張する必要がある。この処理が影領域拡張部206で行われる。   The shadow area expanding unit 206 extends a shadow area around a shadow area point group in an image (camera image) captured by the camera 102 based on the luminance value of the pixels constituting the image. In general, the point density of a point group is coarser than that of an image pixel. Since the shadow area point group is a point group composed of point-like shadows, the density is coarse compared to the pixels of the image. Therefore, in order to determine the boundary portion between the shadow and the non-shadow portion with high accuracy, it is necessary to extend the shadow region to an adjacent region of the shadow region point group. This process is performed by the shadow area expansion unit 206.

以下、影領域拡張部206で行われる処理の一例を説明する。まず、影領域点群の縁の部分にある点(この点を着目点とする)を抽出する。次に、この点から周囲に向かって(放射方向に沿って)画像を構成する画素の輝度値を調べる。調べる範囲は、周囲360°で、隣接する着目点までの距離の2倍程度の範囲とする。   Hereinafter, an example of processing performed by the shadow area expansion unit 206 will be described. First, a point at the edge of the shadow area point group (this point is the point of interest) is extracted. Next, the luminance value of the pixels constituting the image is examined from this point toward the periphery (along the radial direction). The range to be examined is 360 ° around and is about twice the distance to the adjacent point of interest.

ここで、線状に並ぶ位置にある複数の画素の輝度値の変化の勾配を調べる。この勾配が閾値を超えた位置を影の境界点として取得する。例えば、直線状に並ぶ3画素の輝度値の勾配を調べた場合に、その勾配が最大の3画素の組の中央の画素部分を境界点として取得する。この境界点の取得を一つの着目点に関して1以上、更にそれを対象となる着目点の全ておいて行う。そして、得られた複数の境界点を結ぶことで、影領域の輪郭を確定する。なお、影領域の輪郭の内側は、影として塗りつぶす。   Here, the gradient of the change in the luminance value of a plurality of pixels located in a linear array is examined. The position where the gradient exceeds the threshold value is acquired as a shadow boundary point. For example, when the gradient of the luminance values of three pixels arranged in a straight line is examined, the central pixel portion of the group of three pixels having the maximum gradient is acquired as a boundary point. This boundary point is acquired for one or more points of interest, and for all the points of interest as targets. Then, the outline of the shadow region is determined by connecting the obtained plurality of boundary points. The inside of the outline of the shadow area is painted as a shadow.

影特定部207は、影領域拡張部206での処理によって画定した影の部分(太陽光が当たらない地上面(路面)の部分)を特定する。コントラスト調整部208は、路面の影の部分のコントラストを調整する。具体的には、影であり暗い画像であることを前提に、コントラストを強調した表示となるようにコントラストを調整する。影の部分であり、暗い画像であること前提したコントラスト処理を行うことで、影の部分における路面のひび割れ部分の検出精度を高めることができる。   The shadow specifying unit 207 specifies a shadow part (a part of the ground surface (road surface) that is not exposed to sunlight) defined by the processing in the shadow area extending unit 206. The contrast adjustment unit 208 adjusts the contrast of the shadow portion on the road surface. Specifically, on the premise that the image is a shadow and a dark image, the contrast is adjusted so that the display is enhanced. By performing contrast processing on the assumption that the image is a shadow portion and a dark image, the detection accuracy of a cracked portion of the road surface in the shadow portion can be increased.

影境界線特定部209は、影領域拡張部206での処理によって画定した影の部分の縁(影と影でない部分との境界)を特定する。影の縁の部分は、線状であり、この線状の部分が路面のひび割れた部分であると誤検出される場合がある。この誤検出される可能性のある線状の影の縁の部分を予め特定しておくことで、最終的に得られるデータの信頼性を高めることができる。   The shadow boundary line specifying unit 209 specifies the edge of the shadow part (boundary between the shadow and the non-shadow part) defined by the process in the shadow area extending unit 206. The edge portion of the shadow is linear, and it may be erroneously detected that this linear portion is a cracked portion of the road surface. By specifying the edge portion of the linear shadow that may be erroneously detected in advance, the reliability of the finally obtained data can be improved.

ひび割れ部分検出部210は、画像解析により、カメラ102が撮影した画像中から路面のひび割れ部分を検出する。この処理は、通常の画像認識技術を用いて行われる。この技術としては、「従来技術」の欄で述べた特許文献1等に記載された技術を利用することができる。   The crack portion detection unit 210 detects a crack portion on the road surface from the image captured by the camera 102 by image analysis. This process is performed using a normal image recognition technique. As this technique, the technique described in Patent Document 1 described in the “Prior Art” column can be used.

誤検出判定部211は、影境界線特定部209で得られた影の境界線(影の縁)に基づき、ひび割れ部分検出部210が検出したひび割れ部分の正誤を判定する。この処理では、影の境界線の撮影画面中での位置と、ひび割れ部分検出部210が検出したひび割れ部分の撮影画面中での位置とを比較し、両者が一致または一致していると見なせる場合(誤差の範囲で一致と認められる場合)に、ひび割れ部分検出部210の検出が誤りであったと判定する。この処理により、検査データの信頼性を高めることができる。   The error detection determination unit 211 determines the correctness of the crack portion detected by the crack portion detection unit 210 based on the shadow boundary line (shadow edge) obtained by the shadow boundary line specifying unit 209. In this process, the position of the shadow boundary line on the shooting screen is compared with the position of the cracked portion detected by the cracked portion detection unit 210 on the shooting screen, and the two can be regarded as matching or matching. When it is recognized that there is a match in the error range, it is determined that the detection by the cracked portion detection unit 210 was an error. By this processing, the reliability of the inspection data can be improved.

架空線検出部212は、上空に設置された架空線を検出する。架空線としては、電線、電話線、光ファイバーケーブル、ケーブルTVの信号線、電柱の支線(ステー線)等が挙げられる。レーザスキャナ101のスキャン密度にもよるが、架空線は、その一部が点群データとして取得される場合がある。架空線は、上空にあるので、近接して他の建物等の点群は存在せず、孤立して線状に延在している。そこで、孤立した空間に離れた2以上の点群が検出された場合、それを結んで架空線として特定する。孤立して存在しているか否か、建物等から離れているか否かは、閾値を用いて判定する。また、上述したレーザスキャンデータから得られた架空線と推測される点群データの特定に、上空を画像撮影した画像のデータを利用することもできる。ただし、この場合も架空線の一部の検出が行われていなければならない。   The overhead line detection unit 212 detects an overhead line installed in the sky. Examples of overhead lines include electric wires, telephone lines, optical fiber cables, cable TV signal lines, utility pole branch lines (stay lines), and the like. Depending on the scan density of the laser scanner 101, some of the overhead lines may be acquired as point cloud data. Since the overhead line is in the sky, there is no point group such as another building in the vicinity, and the line is isolated and extends linearly. Therefore, when two or more point groups separated in an isolated space are detected, they are connected and specified as an overhead line. It is determined using a threshold value whether or not it is present in isolation or away from a building or the like. In addition, image data obtained by capturing an image of the sky can also be used to identify point cloud data that is assumed to be an overhead line obtained from the laser scan data described above. In this case, however, a part of the overhead line must be detected.

架空線検出部212は、架空線の位置のデータを地上座標等の適当な座標系上において計算で求める。例えば、孤立した2点の点群が得られた場合、その2点を結ぶ架空線を設定してその直線または曲線の方程式を求め、その座標を取得する。すなわち、架空線は線状であり、スキャン光が当たらず、点群を取りこぼす場合がある。あるいは、架空線の一部しか点群データが取れない場合がある。この場合、架空線が線状に延在することに着目し、欠落した部分の点群を予想する。例えば、直線の方程式や緩いカーブを描く曲線の方程式を複数用意し、それらに部分的に得られた架空線の点群を代入することで、得られた点群にフィッティングする線の方程式を見出し、その線の方程式によって当該架空線の位置を特定する。この架空線の位置のデータは、影領域点群算出部204で行われる演算で利用され、架空線に対応した影領域点群が得られる。すなわち、架空線があることで生じる影に対応する影領域点群が得られる。   The overhead line detection unit 212 obtains the position data of the overhead line by calculation on an appropriate coordinate system such as ground coordinates. For example, when an isolated point group of two points is obtained, an overhead line connecting the two points is set, an equation of the straight line or a curve is obtained, and the coordinates are obtained. That is, the overhead line is linear, and the scan light is not applied, and the point cloud may be missed. Alternatively, there are cases where point cloud data can be obtained only for a part of the overhead line. In this case, paying attention to the fact that the overhead line extends linearly, the point cloud of the missing part is predicted. For example, by preparing multiple straight line equations or curve equations that draw loose curves, and substituting the partially obtained overhead line point group into them, the line equation to be fitted to the obtained point group can be found. The position of the overhead line is specified by the equation of the line. The data of the position of the overhead line is used in the calculation performed by the shadow area point group calculation unit 204, and a shadow area point group corresponding to the overhead line is obtained. That is, a shadow area point group corresponding to a shadow caused by the presence of an overhead line is obtained.

架空線の影は、線状であり、路面に投影された場合、路面のひび割れとして検出されやすい(画像解析処理では、識別が困難な場合が多々ある)。架空線に起因する影領域点群を得ることで、架空線に起因する誤検出を低減でき、得られる路面のひび割れに係るデータの信頼性を高めることができる。   The shadow of the overhead line is linear and is likely to be detected as a crack on the road surface when projected onto the road surface (it is often difficult to identify in image analysis processing). By obtaining the shadow area point group caused by the overhead line, it is possible to reduce false detection caused by the overhead line, and to improve the reliability of the data related to the cracks on the road surface obtained.

記憶部213は、画像処理装置200で扱うデータや画像処理装置200を動作させるプログラムのデータが記憶される。また、演算に必要な基礎データ等が記憶部213に記憶される。   The storage unit 213 stores data handled by the image processing apparatus 200 and program data for operating the image processing apparatus 200. In addition, basic data necessary for calculation is stored in the storage unit 213.

車両位置姿勢算出部214は、指定された時刻tにおける車両100の位置と姿勢を算出する。レーザスキャナ101とカメラ102の車両100に対する外部標定要素(位置と姿勢)は既知であるので、時刻tにおける車両の位置と姿勢が求まれば、時刻tにおけるレーザスキャナ101とカメラ102の位置と姿勢も求まる。   The vehicle position / orientation calculation unit 214 calculates the position and orientation of the vehicle 100 at the designated time t. Since the external orientation elements (position and orientation) of the laser scanner 101 and the camera 102 with respect to the vehicle 100 are known, if the position and orientation of the vehicle at the time t are obtained, the positions and orientations of the laser scanner 101 and the camera 102 at the time t are obtained. It is also obtained.

車両100の移動の軌跡は、GNSSデータおよびIMUデータにより刻々と記録されている。このデータから、指定された時刻tにおける車両100の位置と姿勢は、計算により求めることができる。この処理が車両位置特定部214で行われる。時刻tにおける車両100の位置を特定することで、時刻tにおける太陽の位置、スキャナ座標系の原点の位置、カメラ座標系の原点の位置が決まる。また、姿勢が求まることで、各座標系の向きが決まる。   The trajectory of the movement of the vehicle 100 is recorded momentarily by GNSS data and IMU data. From this data, the position and orientation of the vehicle 100 at the designated time t can be obtained by calculation. This process is performed by the vehicle position specifying unit 214. By specifying the position of the vehicle 100 at time t, the position of the sun at time t, the position of the origin of the scanner coordinate system, and the position of the origin of the camera coordinate system are determined. In addition, the orientation of each coordinate system is determined by obtaining the posture.

(動作の一例)
図4に画像処理装置200で実行される処理の手順の一例を示す。図4の処理を実行するプログラムは、記憶部213または適当な記憶媒体に記憶され、そこから読み出されて実行される。当該プログラムは、適当な回線を介して、サーバや離れた場所にある記憶装置から取得することもできる。
(Example of operation)
FIG. 4 shows an example of a processing procedure executed by the image processing apparatus 200. The program for executing the processing of FIG. 4 is stored in the storage unit 213 or an appropriate storage medium, and is read from and executed. The program can also be acquired from a server or a storage device at a remote location via an appropriate line.

図4の処理において、ステップS101〜S102の処理が車両100の側で行われ、ステップS103〜S112の処理が画像処理装置200で行われる。まず、車両を走行させながらカメラ102を用いて特定の時間間隔(例えば、0.1秒間隔)で路面の撮影を行う。この際、カメラ102の撮影に同期させて、レーザスキャナ101によるレーザスキャンを行い、周囲環境の点群データを得る。レーザスキャンでは、路面に影を形成する可能性のある建物および上空の架空線がスキャンされるようにスキャン範囲が設定される。画像データおよび点群データ、それらのデータを得た時刻、その時刻における車両の姿勢と位置(IMU103の姿勢と位置)は、関連付けされて記憶装置105に記憶される(ステップS101およびS102)。   In the process of FIG. 4, the processes of steps S <b> 101 to S <b> 102 are performed on the vehicle 100 side, and the processes of steps S <b> 103 to S <b> 112 are performed on the image processing apparatus 200. First, the road surface is photographed at a specific time interval (for example, every 0.1 second) using the camera 102 while the vehicle is running. At this time, the laser scanning by the laser scanner 101 is performed in synchronization with the photographing of the camera 102 to obtain point cloud data of the surrounding environment. In laser scanning, a scan range is set so that a building that may form a shadow on a road surface and an overhead overhead line are scanned. The image data and the point cloud data, the time when these data were obtained, and the attitude and position of the vehicle at that time (the attitude and position of the IMU 103) are associated and stored in the storage device 105 (steps S101 and S102).

一連のデータを得たら、記憶装置105から画像処理装置200にデータを移し、ステップS103以下の処理を実行する。まず、時刻tにおけるレーザスキャナ101とカメラ102の位置と姿勢を取得する(ステップS103)。ここで、位置と姿勢のデータは車両位置姿勢算出部214で算出される。このデータは、スキャナ座標系とカメラ座標系をIMU座標系に変換する際に利用される。次に、時刻tにおける太陽の位置を取得し(ステップS104)、時刻tにおける影領域点群を算出する(ステップS105)。この際、架空線の影に関しても影領域点群を算出する。 When a series of data is obtained, the data is transferred from the storage device 105 to the image processing device 200, and the processing from step S103 onward is executed. First, to obtain the position and orientation of the laser scanner 101 and the camera 102 at time t 1 (step S103). Here, the position and orientation data is calculated by the vehicle position and orientation calculation unit 214. This data is used when converting the scanner coordinate system and the camera coordinate system to the IMU coordinate system. Then, to get the position of the sun at the time t 1 (step S104), and calculates the shadow area point group at time t 1 (step S105). At this time, a shadow area point group is also calculated for the shadow of the overhead line.

影領域点群を得たら、それを時刻tに撮影したカメラ画像上に投影する(ステップS106)。次に、時刻tにおけるカメラ画像上における影領域点群を拡張し(ステップS107)、当該カメラ画像中における影の領域を確定する(ステップS108)。 After obtaining the shadow region point group is projected on the camera image captured it at time t 1 (step S106). Next, extend the shadow area point group on the camera image at time t 1 (step S107), and determine the area of the shadow in the relevant camera image (step S108).

次に、影領域として確定した画像部分のコントラストを強調する調整を行う(ステップS109)。このコントラストの調整を行うことで、影となり暗い画像となった部分からのひび割れの検出精度が高まる。その後、路面のひび割れ部分を検出する画像解析処理が行われ(ステップS110)、その結果をステップS108で得た影領域の情報と比較することで、正誤判定が行われる(ステップS111)。正誤判定を行うことで、影の縁をひび割れとして認定する不都合が回避される。   Next, adjustment for enhancing the contrast of the image portion determined as the shadow region is performed (step S109). By adjusting the contrast, the detection accuracy of cracks from a portion that becomes a shadow and becomes a dark image increases. Thereafter, image analysis processing for detecting a cracked portion of the road surface is performed (step S110), and the result is compared with the information on the shadow area obtained in step S108, and correct / incorrect determination is performed (step S111). By performing correct / incorrect determination, the inconvenience of identifying the edge of the shadow as a crack is avoided.

以上の処理を時刻t、時刻t、時刻t・・・・において繰り返し行い、対象となる全てのカメラ画像に対して行う(ステップS112)。 The above processing is repeated at time t 2 , time t 3 , time t 4 ... And performed for all target camera images (step S 112).

図4の処理をリアルタイムに行うことも可能である。この場合、画像処理装置200を車両100に乗せ、車両を走行させながら、図4の処理を行う。   It is also possible to perform the processing of FIG. 4 in real time. In this case, the processing of FIG. 4 is performed while the image processing apparatus 200 is placed on the vehicle 100 and the vehicle is running.

(優位性)
以上述べた技術では、点群データと太陽の位置を用いて、太陽光が建物等の影となって当たらない路面の領域を算出する。画像解析では、影の縁なのか路面のひび割れなのかの判定が困難であっても、予め影の部分が判っていれば、正誤判定処理により、影の縁の部分をひび割れ部分として認定する問題が回避される。また、影の部分は暗く、ひび割れの検出精度が低下するが、点群データから予め影の部分を得ていれば、その部分のコントラストを調整することで、ひび割れの検出精度を高めることができる。
(Superiority)
In the technology described above, the area of the road surface where the sunlight does not become a shadow of a building or the like is calculated using the point cloud data and the position of the sun. In image analysis, even if it is difficult to determine whether it is a shadow edge or a crack on the road surface, if the shadow part is known in advance, the problem is that the edge part of the shadow is recognized as a crack part by the correctness determination process. Is avoided. In addition, the shadow portion is dark and the crack detection accuracy decreases. However, if the shadow portion is obtained in advance from the point cloud data, the crack detection accuracy can be increased by adjusting the contrast of the portion. .

また、電線等の架空線の影が路面に写りこむことで、架空線の影をひび割れと誤検出する問題が生じるが、点群データから予め架空線の影の部分の情報を得ていれば、その部分のデータを排除することで、架空線の影をひび割れとして認定する問題を避けることができる。   In addition, the shadows of overhead lines such as electric wires are reflected on the road surface, which causes a problem of erroneously detecting the shadows of overhead lines as cracks, but if the information about the shadows of overhead lines is obtained in advance from point cloud data By eliminating the data of that part, the problem of identifying the shadow of the overhead line as a crack can be avoided.

(その他)
本発明は、路面のひび割れの検出の場合に限定されず、コンクリートやモルタルで固められた斜面や崖におけるひび割れの検出、橋の橋脚におけるひび割れの検出等に利用することもできる。
(Other)
The present invention is not limited to the detection of cracks on the road surface, but can also be used for detection of cracks on slopes and cliffs hardened with concrete or mortar, detection of cracks on bridge piers, and the like.

Claims (10)

カメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、
レーザスキャナが取得した点群データを取得する点群データ取得部と、
太陽の位置に基づき、前記太陽から対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、
前記影領域点群を前記画像に投影する影領域点群投影部と
を備えることを特徴とする画像処理装置。
An image data acquisition unit for acquiring image data of an image of an object photographed by the camera;
A point cloud data acquisition unit for acquiring the point cloud data acquired by the laser scanner;
A shadow area point cloud calculation unit for calculating a shadow area point cloud obtained by projecting the point cloud data from the sun onto the object based on the position of the sun;
An image processing apparatus comprising: a shadow region point group projection unit that projects the shadow region point group onto the image.
前記レーザスキャナが取得した前記点群データの地上座標系への座標変換、および前記地上座標系で記述された前記点群データをカメラ座標系に座標変換する座標変換部を更に備え、
前記影領域点群の算出は、前記地上座標系で行われることを特徴とする請求項1に記載の画像処理装置。
A coordinate conversion unit for converting the point cloud data acquired by the laser scanner into a ground coordinate system, and converting the point cloud data described in the ground coordinate system into a camera coordinate system;
The image processing apparatus according to claim 1, wherein the calculation of the shadow area point group is performed in the ground coordinate system.
前記画像において、位置による画素の輝度値の違いに基づき前記影領域点群の周囲に影領域を拡張する影領域拡張部を備えることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a shadow area extending unit that extends a shadow area around the shadow area point group based on a difference in luminance value of a pixel depending on a position in the image. 前記画像における前記画像に投影された前記影領域のコントラストを調整するコントラスト調整部を備えることを特徴とする請求項1〜3のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a contrast adjustment unit that adjusts a contrast of the shadow area projected on the image in the image. 前記拡張された影領域に基づき、前記画像中の影の境界線を特定する影境界線特定部を備えることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, further comprising a shadow boundary line specifying unit that specifies a boundary line of a shadow in the image based on the extended shadow region. 前記画像中から撮影対象のひび割れ部分を検出するひび割れ部分検出部と、
前記画像中における前記境界部分の位置に基づき、前記ひび割れ部分検出部が検出したひび割れ部分の誤検出を判定する誤検出判定部と
を備えることを特徴とする請求項5に記載の画像処理装置。
A cracked part detecting unit for detecting a cracked part to be photographed from the image;
The image processing apparatus according to claim 5, further comprising: an erroneous detection determination unit that determines erroneous detection of a crack portion detected by the crack portion detection unit based on a position of the boundary portion in the image.
前記点群データに基づき架空線を検出する架空線検出部を備え、
前記影領域点群算出部は、前記検出された架空線の影となる部分の点群を算出することを特徴とする請求項3に記載の画像処理装置。
An overhead line detection unit that detects an overhead line based on the point cloud data,
The image processing apparatus according to claim 3, wherein the shadow region point group calculation unit calculates a point group of a portion that is a shadow of the detected overhead line.
前記架空線検出部において、前記架空線の点群に基づき、前記架空線が連続して存在する位置を予想する処理が行われることを特徴とする請求項7に記載の画像処理装置   The image processing apparatus according to claim 7, wherein the overhead line detection unit performs processing for predicting a position where the overhead lines continuously exist based on a point cloud of the overhead lines. カメラが撮影した対象物の画像の画像データを取得する画像データ取得ステップと、
レーザスキャナが取得した点群データを取得する点群データ取得ステップと、
太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出ステップと、
前記影領域点群を前記画像に投影する影領域点群投影ステップと
を備えることを特徴とする画像処理方法。
An image data acquisition step of acquiring image data of an image of the object photographed by the camera;
A point cloud data acquisition step for acquiring the point cloud data acquired by the laser scanner;
A shadow area point cloud calculating step for calculating a shadow area point cloud obtained by projecting the point cloud data from the sun onto the object based on the position of the sun;
An image processing method comprising: a shadow region point group projecting step of projecting the shadow region point group onto the image.
コンピュータに読み取らせて実行させるプログラムであって、
コンピュータを
カメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、
レーザスキャナが取得した点群データを取得する点群データ取得部と、
太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、
前記影領域点群を前記画像に投影する影領域点群投影部と
して機能させることを特徴とする画像処理用プログラム。
A program that is read and executed by a computer,
An image data acquisition unit for acquiring image data of an image of an object captured by a camera of a computer;
A point cloud data acquisition unit for acquiring the point cloud data acquired by the laser scanner;
A shadow area point cloud calculation unit that calculates a shadow area point cloud obtained by projecting the point cloud data from the sun onto the object based on the position of the sun;
An image processing program that functions as a shadow region point group projection unit that projects the shadow region point group onto the image.
JP2016167990A 2016-08-30 2016-08-30 Image processing device, image processing method and program for image processing Active JP6797607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016167990A JP6797607B2 (en) 2016-08-30 2016-08-30 Image processing device, image processing method and program for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167990A JP6797607B2 (en) 2016-08-30 2016-08-30 Image processing device, image processing method and program for image processing

Publications (2)

Publication Number Publication Date
JP2018036769A true JP2018036769A (en) 2018-03-08
JP6797607B2 JP6797607B2 (en) 2020-12-09

Family

ID=61567559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167990A Active JP6797607B2 (en) 2016-08-30 2016-08-30 Image processing device, image processing method and program for image processing

Country Status (1)

Country Link
JP (1) JP6797607B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038171A (en) * 2018-09-05 2020-03-12 株式会社リコー Movement measuring device and measuring device
JP2020052035A (en) * 2018-09-21 2020-04-02 株式会社トプコン Measuring device and control method of measuring device
JP2020060497A (en) * 2018-10-12 2020-04-16 パイオニア株式会社 Information processing device
JP2020061049A (en) * 2018-10-12 2020-04-16 パイオニア株式会社 Point group data structure
CN113012039A (en) * 2021-03-30 2021-06-22 北京市商汤科技开发有限公司 Image processing method, image processing device, electronic equipment and storage medium
JPWO2021200038A1 (en) * 2020-03-31 2021-10-07
WO2022014327A1 (en) * 2020-07-14 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043324A (en) * 2003-07-25 2005-02-17 Matsushita Electric Ind Co Ltd Method of checking defective condition of road surface, and method of specifying defective position of the road surface
JP2008269218A (en) * 2007-04-19 2008-11-06 Mitsubishi Electric Corp Image processor, image processing method, and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043324A (en) * 2003-07-25 2005-02-17 Matsushita Electric Ind Co Ltd Method of checking defective condition of road surface, and method of specifying defective position of the road surface
JP2008269218A (en) * 2007-04-19 2008-11-06 Mitsubishi Electric Corp Image processor, image processing method, and image processing program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038171A (en) * 2018-09-05 2020-03-12 株式会社リコー Movement measuring device and measuring device
JP7243088B2 (en) 2018-09-05 2023-03-22 株式会社リコー Mobile measurement device and measurement device
JP2020052035A (en) * 2018-09-21 2020-04-02 株式会社トプコン Measuring device and control method of measuring device
JP7311353B2 (en) 2018-09-21 2023-07-19 株式会社トプコン Measuring device and control method for measuring device
JP2020060497A (en) * 2018-10-12 2020-04-16 パイオニア株式会社 Information processing device
JP2020061049A (en) * 2018-10-12 2020-04-16 パイオニア株式会社 Point group data structure
JPWO2021200038A1 (en) * 2020-03-31 2021-10-07
WO2021200038A1 (en) * 2020-03-31 2021-10-07 日本電気株式会社 Road deteriotation diagnosing device, road deterioration diagnosing method, and recording medium
JP7480838B2 (en) 2020-03-31 2024-05-10 日本電気株式会社 Road deterioration diagnosis device, road deterioration diagnosis method, and program
WO2022014327A1 (en) * 2020-07-14 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
CN113012039A (en) * 2021-03-30 2021-06-22 北京市商汤科技开发有限公司 Image processing method, image processing device, electronic equipment and storage medium
CN113012039B (en) * 2021-03-30 2023-04-07 北京市商汤科技开发有限公司 Image processing method, image processing device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP6797607B2 (en) 2020-12-09

Similar Documents

Publication Publication Date Title
JP6797607B2 (en) Image processing device, image processing method and program for image processing
US10810734B2 (en) Computer aided rebar measurement and inspection system
US7733342B2 (en) Method of extracting 3D building information using shadow analysis
CA2526105C (en) Image display method and image display apparatus
US8326021B2 (en) Measurement apparatus and control method
JP5586765B2 (en) Camera calibration result verification apparatus and method
JP6251142B2 (en) Non-contact detection method and apparatus for measurement object
JPWO2018143263A1 (en) Imaging control apparatus, imaging control method, and program
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
KR101011813B1 (en) Installaion for displaying overlap line of adjoined digital aerial photograph
JP6479296B2 (en) Position / orientation estimation apparatus and position / orientation estimation method
EP2476999A1 (en) Method for measuring displacement, device for measuring displacement, and program for measuring displacement
KR101255461B1 (en) Position Measuring Method for street facility
JP2010190647A (en) Vehicle position measuring instrument and vehicle position measuring program
CN116772730B (en) Crack size measurement method, computer storage medium and system
JP2006309450A (en) Image recognition device and image recognition method
JP2010145219A (en) Movement estimation device and program
CN116228974A (en) Three-dimensional model construction method, three-dimensional model construction device, computer equipment and storage medium
JP5230354B2 (en) POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE
CN114266835A (en) Deformation monitoring control method and system for non-measuring camera
KR100745105B1 (en) Image display method and image display apparatus
JP5409451B2 (en) 3D change detector
KR100586815B1 (en) System and method for measuring position of threedimensions
NAKAGAWA et al. Study on making city model with image and laser range data
Chang et al. Remote Crack Measurement Using Android Camera with Laser-Positioning Technique

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201118

R150 Certificate of patent or registration of utility model

Ref document number: 6797607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250