JP2018036769A - Image processing apparatus, image processing method, and program for image processing - Google Patents
Image processing apparatus, image processing method, and program for image processing Download PDFInfo
- Publication number
- JP2018036769A JP2018036769A JP2016167990A JP2016167990A JP2018036769A JP 2018036769 A JP2018036769 A JP 2018036769A JP 2016167990 A JP2016167990 A JP 2016167990A JP 2016167990 A JP2016167990 A JP 2016167990A JP 2018036769 A JP2018036769 A JP 2018036769A
- Authority
- JP
- Japan
- Prior art keywords
- image
- shadow
- coordinate system
- point cloud
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000004364 calculation method Methods 0.000 claims abstract description 29
- 238000001514 detection method Methods 0.000 claims description 32
- 238000006243 chemical reaction Methods 0.000 claims description 30
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 33
- 238000010191 image analysis Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 239000004570 mortar (masonry) Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、画像内に写り込む影の位置を特定する技術に関する。 The present invention relates to a technique for specifying a position of a shadow reflected in an image.
例えば、道路を動画または静止画像で撮影し、その撮影画像をソフトウェアにより解析することで、道路のヒビ割れ、劣化等の検査を行う技術がある(例えば、特許文献1を参照)。 For example, there is a technique for inspecting roads for cracks, deterioration, and the like by capturing a road as a moving image or a still image and analyzing the captured image with software (see, for example, Patent Document 1).
ところで、上記の技術において、太陽光が当たることによる建物の影およびその縁(影と影でない部分の境界部分)が画像解析に障害となる問題がある。まず、影の部分は、明度が低いので、画像解析の分解能や精度が低下する。そこが影の部分であることが判っていれば、影の部分の解析に適した画像の調整や解析を行うことで精度を確保した解析が行なえる。しかしながら、そこが影かどうかをソフトウェアで判定することは困難である。人が視認することで、影かどうかを判定することは可能であるが、人が視認しての作業を行うのは、作業量が増え、画像解析技術を用いる意味が低下する。 By the way, in the above technique, there is a problem that the shadow of the building and the edge thereof (the boundary part between the shadow and the non-shadow) are obstructed in the image analysis due to sunlight. First, since the shadow portion has low brightness, the resolution and accuracy of image analysis are reduced. If it is known that this is a shadow portion, an analysis with accuracy can be performed by adjusting and analyzing an image suitable for the analysis of the shadow portion. However, it is difficult to determine with software whether or not this is a shadow. It is possible for a person to visually recognize whether or not it is a shadow. However, if a person visually recognizes the work, the amount of work increases and the meaning of using image analysis technology decreases.
また、影の縁の部分を道路面に形成されたヒビ割れと誤検出する問題がある。この問題も人の目で確認すれば誤検出を避けられるが、それでは画像解析技術を用いる意味が低下する。ソフトウェア処理による画像解析を行うのは、極力人が行う作業を少なくし、作業を効率化する点にある。よって、人が見て判断する作業を極力少なくすることが望まれる。 In addition, there is a problem of erroneously detecting the edge portion of the shadow as a crack formed on the road surface. If this problem is also confirmed by human eyes, erroneous detection can be avoided, but this makes the meaning of using image analysis technology lower. The purpose of image analysis by software processing is to reduce the work performed by humans as much as possible and improve the work efficiency. Therefore, it is desirable to minimize the work that humans see and judge.
このような背景において、本発明は、撮影した画像中における太陽光に起因する影の位置を特定する技術を提供することを目的とする。 In such a background, an object of the present invention is to provide a technique for specifying the position of a shadow caused by sunlight in a captured image.
請求項1に記載の発明は、カメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、レーザスキャナが取得した点群データを取得する点群データ取得部と、太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、前記影領域点群を前記画像に投影する影領域点群投影部とを備えることを特徴とする画像処理装置である。
The invention according to
請求項2に記載の発明は、請求項1に記載の発明において、前記レーザスキャナが取得した前記点群データの地上座標系への座標変換、および前記地上座標系で記述された前記点群データをカメラ座標系に座標変換する座標変換部を更に備え、前記影領域点群の算出は、前記地上座標系で行われることを特徴とする。ここで、レーザスキャナが取得した点群データの地上座標系への座標変換は、レーザスキャナが扱う座標系(スキャナ座標系)から直接地上座標系への座標変換を行う場合と、スキャナ座標系からIMU座標系等の他の座標系への座標変換を行った後で、地上座標系に座標変換する場合の両方を含む。
The invention according to
請求項3に記載の発明は、請求項1または2に記載の発明において、前記画像において、位置による画素の輝度値の違いに基づき前記影領域点群の周囲に影領域を拡張する影領域拡張部を備えることを特徴とする。 According to a third aspect of the present invention, in the first or second aspect of the present invention, in the image according to the first aspect, a shadow area expansion is performed to extend a shadow area around the shadow area point group based on a difference in luminance value of a pixel depending on a position. It comprises a part.
請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、前記画像における前記画像に投影された前記影領域のコントラストを調整するコントラスト調整部を備えることを特徴とする。
The invention according to claim 4 is the invention according to any one of
請求項5に記載の発明は、請求項3に記載の発明において、前記拡張された影領域に基づき、前記画像中の影の境界線を特定する影境界線特定部を備えることを特徴とする。
The invention according to claim 5 is the invention according to
請求項6に記載の発明は、請求項5に記載の発明において、前記画像中から撮影対象のひび割れ部分を検出するひび割れ部分検出部と、前記画像中における前記境界部分の位置に基づき、前記ひび割れ部分検出部が検出したひび割れ部分の誤検出を判定する誤検出判定部とを備えることを特徴とする。 According to a sixth aspect of the present invention, in the fifth aspect of the present invention, the crack portion detection unit that detects a crack portion to be photographed from the image, and the position of the boundary portion in the image. And an erroneous detection determination unit that determines erroneous detection of a crack portion detected by the partial detection unit.
請求項7に記載の発明は、請求項3に記載の発明において、前記点群データに基づき架空線を検出する架空線検出部を備え、前記影領域点群算出部は、前記検出された架空線の影となる部分の点群を算出することを特徴とする。
The invention according to claim 7 is the invention according to
請求項8に記載の発明は、前記架空線検出部において、前記架空線の点群に基づき、前記架空線が連続して存在する位置を予想する処理が行われることを特徴とする。 The invention according to claim 8 is characterized in that the overhead line detection unit performs a process of predicting a position where the overhead lines continuously exist based on a point group of the overhead lines.
請求項9に記載の発明は、カメラが撮影した対象物の画像の画像データを取得する画像データ取得ステップと、レーザスキャナが取得した点群データを取得する点群データ取得ステップと、太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出ステップと、前記影領域点群を前記画像に投影する影領域点群投影ステップとを備えることを特徴とする画像処理方法である。 The invention according to claim 9 is an image data acquisition step for acquiring image data of an image of an object photographed by a camera, a point cloud data acquisition step for acquiring point cloud data acquired by a laser scanner, and a sun position. A shadow area point group calculating step for calculating a shadow area point group obtained by projecting the point cloud data from the sun onto the object, and a shadow area point group projecting step for projecting the shadow area point group onto the image. It is an image processing method characterized by comprising.
請求項10に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータをカメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、レーザスキャナが取得した点群データを取得する点群データ取得部と、太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、前記影領域点群を前記画像に投影する影領域点群投影部として機能させることを特徴とする画像処理用プログラムである。
The invention according to
本発明によれば、撮影した画像中における太陽光に起因する影の位置を特定する技術が得られる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which pinpoints the position of the shadow resulting from sunlight in the image | photographed image is obtained.
(全体の概要)
図1には、車両100が示されている。車両100は、レーザスキャナ101、カメラ102、IMU(慣性計測装置:Inertial Measurement Unit)103、GNSS装置104、記憶装置105を備えている。レーザスキャナ101は、周囲環境のレーザスキャンを行い、点群データを取得する。レーザスキャナ101としては、特開2010−151682号公報、特開2008―268004号公報、米国特許8767190号公報の記載されている技術を利用できる。
(Overall overview)
FIG. 1 shows a
カメラ102は、特定の時間間隔で画像の撮影を行い、撮影した画像の画像データを得る。カメラ102として動画を撮影するタイプのものを用いることもできる。この場合、フレーム画像を撮影画像として用いる。IMU103は、3軸加速度、3軸角速度、3軸地磁気の9軸モーションセンサを搭載し、姿勢や傾きの変化を計測する。GNSS装置104は、GPS衛星等の航法衛星からの航法信号を受信し、それに基づき位置の計測を行う。また、GNSS装置104は、航法衛星からの航法信号に基づき精度の高い時刻情報を出力する時計機能を備えている。
The
記憶装置105は、ハードディスク装置や半導体メモリにより構成されたデータ記憶装置である。記憶装置105は、レーザスキャナ101が取得する点群データ、カメラ102が撮影した画像の画像データ、IMU103が計測した姿勢や傾きの変化のデータ、GNSS装置104が計測した位置と時刻のデータを互いに関連付けした状態で記憶する。レーザスキャナ101、カメラ102、IMU103およびGNSS装置104の車両100に対する外部標定要素(姿勢と位置)は予め計測されており既知である。
The
(原理の説明)
図1のシステムは、コンクリートで舗装された路面のひび割れを画像解析により検出するために用いられる。この例では、太陽光が当たらない影の影響でひび割れの誤検出が生じる問題を低減する技術を説明する。
(Description of principle)
The system of FIG. 1 is used to detect cracks in a road paved with concrete by image analysis. In this example, a technique for reducing the problem of erroneous detection of cracks due to the influence of shadows not exposed to sunlight will be described.
本明細書における影とは、太陽光が建物等に当たることで形成される太陽光が直接当たらない部分のことをいう。図2に示すように、建物の影が路面に映ると、線状の境界ラインが生じる。この境界ラインが路面のひび割れとして誤検出される。この例では、建物の三次元位置をレーザスキャンにより把握し、その三次元情報(点群データ)から太陽光が当たらない影となる領域を算出する。特定の時刻における太陽の天球上における位置は、天文データや計算式から精密に求まるので、幾何的な計算により、路面に映りこむ影の位置を求めることができる。 The shadow in this specification refers to a portion that is not directly exposed to sunlight, which is formed when sunlight strikes a building or the like. As shown in FIG. 2, when the shadow of a building is reflected on the road surface, a linear boundary line is generated. This boundary line is erroneously detected as a crack on the road surface. In this example, the three-dimensional position of the building is grasped by laser scanning, and a shadowed area that is not exposed to sunlight is calculated from the three-dimensional information (point cloud data). Since the position of the sun on the celestial sphere at a specific time can be precisely obtained from astronomical data and calculation formulas, the position of the shadow reflected on the road surface can be obtained by geometric calculation.
そして、路面における影の位置をカメラ102が撮影した画像中に投影することで、画像中のどこに影が映っているのかが判る画像データを作成し、ひび割れの誤検出を判定できるようにする。また、予め画像中の影の部分を特定できるので、その部分のコントラストを調整することで、影となった部分にあるひび割れの検出精度を高めることができる。
Then, by projecting the position of the shadow on the road surface in the image taken by the
(画像処理部の構成)
図3に画像処理装置のブロック図を示す。図3には、画像処理装置200が示されている。画像処理装置200は、コンピュータとしての基本機能を有する。画像処理装置200は、画像解析により路面のひび割れを検出する装置であり、特に図2に示す原理を用いて画像中の影の部分を特定し、更に影の存在による路面のひび割れ検出の精度低下を抑える処理を行う。
(Configuration of image processing unit)
FIG. 3 shows a block diagram of the image processing apparatus. FIG. 3 shows an
画像処理装置200は、画像データ取得部201、点群データ取得部202、座標変換部203、影領域点群算出部204、影領域点群投影部205、影領域拡張部206、影領域特定部207、コントラスト調整部208、影境界線特定部209、ひび割れ部分検出部210、誤検出判定部211、架空線検出部212、記憶部213および車両位置特定部214を備えている。
The
上述した画像処理装置200が備える機能部は、ソフトウェア的に構成されていてもよいし、専用の演算回路によって構成されていてもよい。また、ソフトウェア的に構成された機能部と、専用の演算回路によって構成された機能部が混在していてもよい。例えば、図示する各機能部は、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などのPLD(Programmable Logic Device)などの電子回路により構成される。
The functional unit included in the
各機能部を専用のハードウェアで構成するのか、CPUにおけるプログラムの実行によりソフトウェア的に構成するのかは、要求される演算速度、コスト、消費電力等を勘案して決定される。例えば、特定の機能部をFPGAで構成すれば、処理速度の上では優位であるが高コストとなる。他方で、CPUでプログラムを実行することで特定の機能部を実現する構成は、ハードウェア資源を節約できるので、コスト的に優位となる。しかしながら、CPUで機能部を実現する場合、処理速度は、専用のハードウェアに比較して見劣りする。また、CPUで機能部を実現する場合、複雑な演算に対応できない場合もあり得る。なお、機能部を専用のハードウェアで構成することとソフトウェア的に構成することは、上述した違いはあるが、特定の機能を実現するという観点からは、等価である。 Whether each functional unit is configured by dedicated hardware or by software by executing a program in the CPU is determined in consideration of required calculation speed, cost, power consumption, and the like. For example, if a specific functional unit is configured with FPGA, it is advantageous in terms of processing speed but is expensive. On the other hand, a configuration in which a specific functional unit is realized by executing a program by the CPU can save hardware resources, and is advantageous in terms of cost. However, when the functional unit is realized by the CPU, the processing speed is inferior to that of dedicated hardware. Further, when the functional unit is realized by the CPU, it may not be able to cope with complicated calculations. It should be noted that the configuration of the functional unit with dedicated hardware and the configuration with software are equivalent from the viewpoint of realizing a specific function, although there are the differences described above.
この例において、画像処理装置200は、ワークステーション等の大容量のデータを高速で処理できるコンピュータにより構成されている。勿論、処理能力に問題がなければ、市販のパーソナルコンピュータを用いて画像処理装置200を構成することもできる。また、画像処理装置200の機能を複数のコンピュータで分散して処理するシステムとする構成も可能である。
In this example, the
画像データ取得部201は、カメラ102が撮影した画像の画像データを取得する。画像データは、特定の時間間隔で撮影された静止画または動画を構成するフレーム画像のデータである。点群データ取得部202は、レーザスキャナ101が取得した点群データを取得する。点群データは、三次元座標を取得した点の集まりとしてスキャン対象を捉えたデータである。
The image
座標変換部203は、点群データを記述する座標系に係り、スキャナ座標系からIMU座標系への座標変換、IMU座標系から地上座標系への座標変換、地上座標系からIMU座標系への座標変換、IMU座標系からカメラ座標系への座標変換を行う。スキャナ座標系は、レーザスキャナ101を原点する座標系である。IMU座標系は、IMU103を原点とする座標系である。地上座標系は、地上に固定された座標系である。カメラ座標系は、カメラ102を原点とする座標系である。
The coordinate
スキャナ座標系、IMU座標系およびカメラ座標系は、車両100の移動に従って、その原点の位置と座標軸の向きが刻々と変化する。勿論、車両100が移動しなければ、座標の原点の移動はなく、車両100の向きに変化がなければ、座標系の座標軸の向きの変化もない。
In the scanner coordinate system, the IMU coordinate system, and the camera coordinate system, as the
スキャナ座標系からIMU座標系への座標変換は、レーザスキャナ101とIMU103の車両100に対する外部標定要素に基づいて行われる。より詳細にいうと、スキャナ座標系からIMU座標系への座標変換は、以下のようにして行われる。まず、ある特定の時刻tを考える。この時刻tにおけるスキャナ座標系とIMU座標系の相対関係は、レーザスキャナ101とIMU103の車両100に対する外部標定要素から判る。すなわち、時刻tにおけるスキャナ座標系を平行移動および回転させることで、スキャナ座標系をIMU座標系に変換できる。この際の変換係数は、レーザスキャナ101とIMU103の車両100に対する外部標定要素から得られる。よって、時刻tのスキャナ座標系における特定の点AのIMU座標系における座標値が計算できる。同様の処理を任意の時刻で行うことで、当該時刻におけるスキャナ座標系からIMU座標系への座標変換が行われる。
Coordinate conversion from the scanner coordinate system to the IMU coordinate system is performed based on external orientation elements of the
IMU座標系から地上座標系への変換は車両軌跡の情報を用いて行う。車両軌跡の情報は、IMU103とGNSS装置104から得られる。より詳細にいうと、IMU座標系から地上座標系への座標変換は、以下のようにして行われる。まず、ある特定の時刻tを考える。この時刻tにおけるIMU座標系と地上座標系の相対関係は、IMU103の車両100に対する外部標定要素および時刻tにおける車両100の位置と向きから得られる。なお、車両100の位置の情報はGNSS装置104から得られ、車両100の向きの情報はIMU103から得られる。この場合、時刻tにおけるIMU座標系を平行移動および回転させることで、IMU座標系を地上座標系に変換できる。
Conversion from the IMU coordinate system to the ground coordinate system is performed using information on the vehicle trajectory. Information on the vehicle trajectory is obtained from the IMU 103 and the
この際の変換係数は、IMU103の車両100に対する外部標定要素および時刻tにおける車両100の位置と向きから得られる。よって、時刻tのIMU座標系における特定の点Aの地上座標系における座標値が計算できる。そして上記の処理を時刻t1、t2、t3・・・において行うことで、時刻t1、t2、t3・・・の各時刻において取得された点(この点の集まりによって点群データが構成される)を地上座標系に変換できる。
The conversion coefficient at this time is obtained from the external orientation element of the IMU 103 with respect to the
なお、スキャナ座標系→IMU座標系→地上座標系の座標変換における時刻の間隔は、レーザスキャナ101のスキャン速度によって決まる。レーザスキャナ101のスキャン速度は、例えば、1kHz〜10kHz程度である。上記の時刻の間隔は、狭い(短い)程、精度が高くなるが、演算量は多くなる。
Note that the time interval in the coordinate conversion of the scanner coordinate system → IMU coordinate system → ground coordinate system is determined by the scanning speed of the
点群データの地上座標系からIMU座標系への変換は、以下のようにして行われる。この変換は、時刻T1、T2、T3・・・と刻まれる各時刻において行われる。この際の時刻Tnは、カメラ102の撮影時刻である。カメラ102の撮影間隔は、例えば、0.1秒〜0.5秒程度である。勿論、これより短い時間間隔で撮影を行ってもよいが、演算に要する負担が増大する。
Conversion of the point cloud data from the ground coordinate system to the IMU coordinate system is performed as follows. This conversion is performed at each time marked as times T 1 , T 2 , T 3 . The time Tn at this time is the shooting time of the
まず、IMU103の外部標定要素と時刻T1における車両の位置と向き(このデータは、IMU103から得られる)から時刻T1における地上座標系とIMU座標系の関係を得る。これにより、時刻T1における点群データの地上座標系からIMU座標系への座標変換が可能となり、時刻T1におけるIMU座標系で記述した点群データが得られる。この処理を他の時刻においても行うことで、撮影時刻TnでのIMU座標系における点群データが得られる。 First, the relationship between the ground coordinate system and the IMU coordinate system at time T 1 is obtained from the external orientation element of the IMU 103 and the position and orientation of the vehicle at time T 1 (this data is obtained from the IMU 103). Thereby, the coordinate conversion of the point cloud data at the time T 1 from the ground coordinate system to the IMU coordinate system becomes possible, and the point cloud data described in the IMU coordinate system at the time T 1 is obtained. By performing this processing also at other times, point cloud data in the IMU coordinate system at the photographing time Tn can be obtained.
点群データのIMU座標系からカメラ座標系への座標変換は、スキャナ座標系からIMU座標系への座標変換の場合と同様な原理により、カメラ102とIMU102の外部標定要素に基づいて行われる。なお、IMU座標系とカメラ座標系は、車両100と共に動くので、IMU座標系からカメラ座標系への座標変換は、時刻Tnを指定して行い、指定した時刻Tnにおけるものとして得る。
The coordinate conversion of the point cloud data from the IMU coordinate system to the camera coordinate system is performed based on the external orientation elements of the
スキャナ座標系→IMU座標系→地上座標系と変換するのではなく、IMU座標系を介さず、スキャナ座標系→地上座標系と変換する形態も可能である。いずれの場合も結果として、スキャナ座標系から地上座標系への変換となる。また、地上座標系→IMU座標系→カメラ座標系と変換するのではなく、IMU座標系を介さず、地上座標系→カメラ座標系と変換する形態も可能である。この場合、結果として、地上座標系からカメラ座標系への変換となる。 Instead of converting the scanner coordinate system → the IMU coordinate system → the ground coordinate system, it is possible to convert the scanner coordinate system → the ground coordinate system without going through the IMU coordinate system. In either case, the result is a conversion from the scanner coordinate system to the ground coordinate system. Further, instead of converting from the ground coordinate system → IMU coordinate system → camera coordinate system, it is possible to convert from the ground coordinate system → camera coordinate system without going through the IMU coordinate system. In this case, the result is a transformation from the ground coordinate system to the camera coordinate system.
スキャナ座標系は地上座標系内で車両の動きに応じて時々刻々と変化しているため、各点を地上座標系に変換することでひとつのまとまったデータ(点群)に出来、地上座標系の点群になってはじめて太陽方向から路面点群へビル点群(ビルの影を構成する影領域点群)を投影できる。そうして得られた地上座標系での影領域点群を撮影が行われた時刻TnのIMU座標系に変換し、それをカメラ座標系に変換してカメラの撮影画像上に投影する。この一旦地上座標系に変換する方法では、レーザスキャナ101のスキャンタイミングとカメラ102の撮影時刻が同期していなくても、点群データの取り扱いが容易に行える。このため、レーザスキャナ101とカメラ102の機種の選定や動作タイミングの設定の自由度が高く、低コストでシステムを構成できる。
Since the scanner coordinate system changes every moment in the ground coordinate system according to the movement of the vehicle, by converting each point to the ground coordinate system, it can be made into a single data (point cloud), and the ground coordinate system It is possible to project a building point group (a shadow region point group constituting the shadow of the building) from the sun direction to the road surface point group only after the point group becomes. The shadow area point group in the ground coordinate system obtained in this way is converted into the IMU coordinate system at the time Tn when the image was taken, and it is converted into the camera coordinate system and projected onto the captured image of the camera. In this method of once converting to the ground coordinate system, the point cloud data can be easily handled even if the scan timing of the
以下、座標変換部203で行われる処理の一例を説明する。まず、点群データの座標系として、レーザスキャナ101を原点とする3次元座標系(第1の座標系:スキャナ座標系)を考える。他方で、カメラ102を原点とする3次元座標系(第2の座標系:カメラ座標系)を考える。ここで、レーザスキャナ101の外部標定要素(IMU103が扱う座標系における位置と向き)とカメラ102の外部標定要素(IMU103が扱う座標系における位置と向き)が既知であるとする。また、IMU103が扱う三次元座標系を第3の座標系(IMU座標系)とする。
Hereinafter, an example of processing performed by the coordinate
レーザスキャナ101の外部標定要素が既知であるので、第1の座標系を回転および平行移動させることで、第1の座標系を第3の座標系(IMU座標系)に変換できる。更にレーザスキャナで取得した各点の取得時刻におけるIMU103の位置と姿勢が第4の座標系(地上座標系)において既知であれば、第4の座標系上で点群データを記述できるようになる。他方で、カメラ101の外部標定要素が既知であるので、第2の座標系を回転および平行移動させることで、第2の座標系を第3の座標系に変換できる。更に撮影時刻におけるIMU103の位置と姿勢が第4の座標系において既知であれば、当該時刻におけるカメラ102の位置と姿勢を第4の座標系(地上座標系)に変換できる。この結果、第4の座標系(地上座標系)上で例えばカメラ102の光軸の方向や画角(撮影視野)を記述することが可能となる。なお、数学的な操作により、地上座標系における点群を第2の座標系(カメラ座標系)に変換する操作は、当然可能である。
Since the external orientation element of the
影領域点群算出部204は、太陽の位置に基づき、前記点群データが存在することで、太陽光が当たらない影となる領域の点群を影領域点群として算出する。この処理は、地上座標系上で行われる。この処理を地上座標系上で行うことで、点群データをまとまったデータとして扱うことができ、処理時間が短縮化され、また処理を行うハードウェアの負担が軽減される。太陽は動くので、影も動く。よって、影領域点群の算出は、特定の時間間隔で繰り返し行う。具体的には、カメラ102の撮影のタイミング(例えば、0.1秒毎)に同期させて、影領域点群の算出を行う。なお演算の負担を軽減するために、カメラ102の撮影のタイミングの複数回に一回の割合で影領域点群の算出を行う態様も可能である。例えば、撮影の間隔が0.1秒間隔である場合に、0.5秒経過毎に影領域点群の算出を行うような態様も可能である。
Based on the position of the sun, the shadow area point
以下、影領域点群の算出を行う一例を説明する。例えば、路面上のある視点Aから太陽の方向を見た場合に、その方向に建物があり、太陽が直接見えない場合を考える。この場合、視点Aと太陽を結ぶ線上に建物を構成する点Bがあり、この点Bが当該視点からレーザスキャンを行った場合の点群の一つとして取得される。そして太陽を視点(原点)としてこの点Bを路面に投影した点が影領域点群の一つとなる。この投影点は、先の路面上の視点Aと一致する。図5には、レーザスキャンで得た点群と影領域点群の関係の一例が示されている。 Hereinafter, an example of calculating the shadow area point group will be described. For example, when the sun direction is seen from a certain viewpoint A on the road surface, a case is considered in which there is a building in that direction and the sun cannot be directly seen. In this case, there is a point B constituting the building on the line connecting the viewpoint A and the sun, and this point B is acquired as one of the point groups when laser scanning is performed from the viewpoint. A point obtained by projecting this point B onto the road surface with the sun as the viewpoint (origin) is one of the shadow area point groups. This projection point coincides with the viewpoint A on the previous road surface. FIG. 5 shows an example of the relationship between the point group obtained by laser scanning and the shadow area point group.
影領域点群を算出する処理では、まず無限遠にある太陽を光源として、点群データ取得部202が取得した点群(レーザスキャナ101が計測した点群)を地上(路面)に投影する。この投影により、レーザスキャナ101が計測した点群各点に対応する地上への投影点の集まりが影投影点群として得られる。影投影点群は、点状の影により構成される点群である。
In the process of calculating the shadow area point cloud, first, the sun at infinity is used as a light source, and the point cloud acquired by the point cloud data acquisition unit 202 (the point cloud measured by the laser scanner 101) is projected on the ground (road surface). By this projection, a group of projection points on the ground corresponding to each point group measured by the
太陽の位置に関するデータやその計算プログラムは、例えば、NASAのジェット推進研究所のサイト等から入手したものを用いる。勿論、独自の計測値や計算プログラムを用いて太陽の位置を特定してもよい。例えば、理科年表等に太陽の位置に関するデータは記載されており、それに基づく計算方法や計算プログラムは多数公開されている。これらの情報に基づき、視点の位置と時刻が判れば、天球面上における太陽の位置は計算により正確に求めることができる。 For example, data obtained from the NASA's Jet Propulsion Laboratory site is used as the data relating to the position of the sun and its calculation program. Of course, the position of the sun may be specified using a unique measurement value or calculation program. For example, data related to the position of the sun is described in science chronology, and many calculation methods and calculation programs based on the data are disclosed. Based on this information, if the position and time of the viewpoint are known, the position of the sun on the celestial sphere can be accurately obtained by calculation.
以下、影領域点群を算出する処理の一例を説明する。まず、レーザスキャナ101で取得した各点について各点の取得時刻に基づきスキャナ座標系(上記第1の座標系)から地上座標系に変換することにより、地上座標系における点群データを生成する。次にカメラ102で取得した画像の取得時刻における第2の座標系(カメラ座標系)の原点の第4の座標系(地上座標系)における位置(カメラ102の位置)と当該時刻を太陽の位置を求めるデータテーブルやプログラムに入力し、当該時刻における太陽の天球面における位置、すなわち第4の座標系(地上座標系)における太陽光が降り注ぐ方向を求める。
Hereinafter, an example of processing for calculating a shadow area point group will be described. First, point cloud data in the ground coordinate system is generated by converting each point acquired by the
次に、第4の座標系(地上座標系)における点群データにおいて、路面(地上面)の太陽光が当たらず、影が形成される点状の部分が算出される。この処理は、太陽を投影原点として、レーザスキャナ101が取得した点群を地上に投影する処理を行うことで実行される。例えば、太陽光線の光軸と地上面のある点との間に点群があれば、当該地上面上の点は影の部分となる。この影となる点の集まりが影領域点群となる。この処理を点群データ取得部202が得たすべての点群に対して行うことで、地上面の影となる領域を確定できる。図5にレーザスキャナがレーザスキャンによって取得した点群と、この点群を路面の投影することで得た影領域点群の例が示されている。
Next, in the point group data in the fourth coordinate system (ground coordinate system), a point-like portion where a shadow is formed without being exposed to sunlight on the road surface (the ground surface) is calculated. This process is executed by performing a process of projecting the point cloud acquired by the
影領域点群投影部205は、座標変換部203で行われる座標変換の結果を用いて、影領域点群算出部204が算出した影領域点群をカメラ102が撮影した画像に投影する。この処理により、カメラ102が撮影した画像中で、レーザスキャナ101が計測した点群および地上座標系において求めた影領域点群がどのように見えるのかを視覚的に把握できるようになる。
The shadow area point
以下、影領域点群投影部205で行われる処理の一例を説明する。まず、上述した第1〜第4の座標系間における座標変換の結果から、第4の座標系(地上座標系)上でカメラ102の光軸の方向や画角(撮影視野)を記述することが可能となる。他方で、上述した影領域点群は、第4の座標系(地上座標系)上で記述可能である。したがって、カメラ102の撮影範囲(撮影した画面)における影領域点群の位置は特定できる。すなわち、カメラ102の撮影範囲(撮影した画面)に影領域点群を投影し、当該撮影範囲の中に影領域点群を表示できる。
Hereinafter, an example of processing performed by the shadow area point
カメラ102が撮影した画像中に影領域点群を投影することで、点群データに基づいたどの部分が影になるのかに関する画像情報が、カメラ102が撮影した画像中に表示される。図6に影領域点群を投影したカメラ画像のイメージ図を示す。図6には、建物の影となる部分を構成する影領域点群が路面を撮影した画像中に投影された状態が示されている。図6の場合、太陽は画面の左上の方向にあり、太陽光が建物に遮られることで生成される影に対応する領域に影領域点群が形成される様子が示されている。影領域点群は、レーザスキャンで得た建物の点群データと計算上の太陽の位置に基づくもので、実際に影がどのように画像中に写っているのかは関係ない。よって、画面中で建物の影がどのように写っているのかに関わりなく、影領域点群により、撮影画面(カメラ画像)中における影の位置が特定される。
By projecting the shadow area point cloud in the image photographed by the
影領域拡張部206は、カメラ102が撮影した画像(カメラ画像)において、画像を構成する画素の輝度値に基づき、影領域点群の周囲に影領域を拡張する。一般に点群の点密度は、画像の画素に比較して粗い。影領域点群は、点状の影により構成される点群であるので、画像の画素に比較して密度は粗い。よって、影と影でない部分との境界の部分を高い精度で確定するには、影領域点群の隣接する領域に影領域を拡張する必要がある。この処理が影領域拡張部206で行われる。
The shadow
以下、影領域拡張部206で行われる処理の一例を説明する。まず、影領域点群の縁の部分にある点(この点を着目点とする)を抽出する。次に、この点から周囲に向かって(放射方向に沿って)画像を構成する画素の輝度値を調べる。調べる範囲は、周囲360°で、隣接する着目点までの距離の2倍程度の範囲とする。
Hereinafter, an example of processing performed by the shadow
ここで、線状に並ぶ位置にある複数の画素の輝度値の変化の勾配を調べる。この勾配が閾値を超えた位置を影の境界点として取得する。例えば、直線状に並ぶ3画素の輝度値の勾配を調べた場合に、その勾配が最大の3画素の組の中央の画素部分を境界点として取得する。この境界点の取得を一つの着目点に関して1以上、更にそれを対象となる着目点の全ておいて行う。そして、得られた複数の境界点を結ぶことで、影領域の輪郭を確定する。なお、影領域の輪郭の内側は、影として塗りつぶす。 Here, the gradient of the change in the luminance value of a plurality of pixels located in a linear array is examined. The position where the gradient exceeds the threshold value is acquired as a shadow boundary point. For example, when the gradient of the luminance values of three pixels arranged in a straight line is examined, the central pixel portion of the group of three pixels having the maximum gradient is acquired as a boundary point. This boundary point is acquired for one or more points of interest, and for all the points of interest as targets. Then, the outline of the shadow region is determined by connecting the obtained plurality of boundary points. The inside of the outline of the shadow area is painted as a shadow.
影特定部207は、影領域拡張部206での処理によって画定した影の部分(太陽光が当たらない地上面(路面)の部分)を特定する。コントラスト調整部208は、路面の影の部分のコントラストを調整する。具体的には、影であり暗い画像であることを前提に、コントラストを強調した表示となるようにコントラストを調整する。影の部分であり、暗い画像であること前提したコントラスト処理を行うことで、影の部分における路面のひび割れ部分の検出精度を高めることができる。
The
影境界線特定部209は、影領域拡張部206での処理によって画定した影の部分の縁(影と影でない部分との境界)を特定する。影の縁の部分は、線状であり、この線状の部分が路面のひび割れた部分であると誤検出される場合がある。この誤検出される可能性のある線状の影の縁の部分を予め特定しておくことで、最終的に得られるデータの信頼性を高めることができる。
The shadow boundary
ひび割れ部分検出部210は、画像解析により、カメラ102が撮影した画像中から路面のひび割れ部分を検出する。この処理は、通常の画像認識技術を用いて行われる。この技術としては、「従来技術」の欄で述べた特許文献1等に記載された技術を利用することができる。
The crack
誤検出判定部211は、影境界線特定部209で得られた影の境界線(影の縁)に基づき、ひび割れ部分検出部210が検出したひび割れ部分の正誤を判定する。この処理では、影の境界線の撮影画面中での位置と、ひび割れ部分検出部210が検出したひび割れ部分の撮影画面中での位置とを比較し、両者が一致または一致していると見なせる場合(誤差の範囲で一致と認められる場合)に、ひび割れ部分検出部210の検出が誤りであったと判定する。この処理により、検査データの信頼性を高めることができる。
The error detection determination unit 211 determines the correctness of the crack portion detected by the crack
架空線検出部212は、上空に設置された架空線を検出する。架空線としては、電線、電話線、光ファイバーケーブル、ケーブルTVの信号線、電柱の支線(ステー線)等が挙げられる。レーザスキャナ101のスキャン密度にもよるが、架空線は、その一部が点群データとして取得される場合がある。架空線は、上空にあるので、近接して他の建物等の点群は存在せず、孤立して線状に延在している。そこで、孤立した空間に離れた2以上の点群が検出された場合、それを結んで架空線として特定する。孤立して存在しているか否か、建物等から離れているか否かは、閾値を用いて判定する。また、上述したレーザスキャンデータから得られた架空線と推測される点群データの特定に、上空を画像撮影した画像のデータを利用することもできる。ただし、この場合も架空線の一部の検出が行われていなければならない。
The overhead
架空線検出部212は、架空線の位置のデータを地上座標等の適当な座標系上において計算で求める。例えば、孤立した2点の点群が得られた場合、その2点を結ぶ架空線を設定してその直線または曲線の方程式を求め、その座標を取得する。すなわち、架空線は線状であり、スキャン光が当たらず、点群を取りこぼす場合がある。あるいは、架空線の一部しか点群データが取れない場合がある。この場合、架空線が線状に延在することに着目し、欠落した部分の点群を予想する。例えば、直線の方程式や緩いカーブを描く曲線の方程式を複数用意し、それらに部分的に得られた架空線の点群を代入することで、得られた点群にフィッティングする線の方程式を見出し、その線の方程式によって当該架空線の位置を特定する。この架空線の位置のデータは、影領域点群算出部204で行われる演算で利用され、架空線に対応した影領域点群が得られる。すなわち、架空線があることで生じる影に対応する影領域点群が得られる。
The overhead
架空線の影は、線状であり、路面に投影された場合、路面のひび割れとして検出されやすい(画像解析処理では、識別が困難な場合が多々ある)。架空線に起因する影領域点群を得ることで、架空線に起因する誤検出を低減でき、得られる路面のひび割れに係るデータの信頼性を高めることができる。 The shadow of the overhead line is linear and is likely to be detected as a crack on the road surface when projected onto the road surface (it is often difficult to identify in image analysis processing). By obtaining the shadow area point group caused by the overhead line, it is possible to reduce false detection caused by the overhead line, and to improve the reliability of the data related to the cracks on the road surface obtained.
記憶部213は、画像処理装置200で扱うデータや画像処理装置200を動作させるプログラムのデータが記憶される。また、演算に必要な基礎データ等が記憶部213に記憶される。
The storage unit 213 stores data handled by the
車両位置姿勢算出部214は、指定された時刻tにおける車両100の位置と姿勢を算出する。レーザスキャナ101とカメラ102の車両100に対する外部標定要素(位置と姿勢)は既知であるので、時刻tにおける車両の位置と姿勢が求まれば、時刻tにおけるレーザスキャナ101とカメラ102の位置と姿勢も求まる。
The vehicle position /
車両100の移動の軌跡は、GNSSデータおよびIMUデータにより刻々と記録されている。このデータから、指定された時刻tにおける車両100の位置と姿勢は、計算により求めることができる。この処理が車両位置特定部214で行われる。時刻tにおける車両100の位置を特定することで、時刻tにおける太陽の位置、スキャナ座標系の原点の位置、カメラ座標系の原点の位置が決まる。また、姿勢が求まることで、各座標系の向きが決まる。
The trajectory of the movement of the
(動作の一例)
図4に画像処理装置200で実行される処理の手順の一例を示す。図4の処理を実行するプログラムは、記憶部213または適当な記憶媒体に記憶され、そこから読み出されて実行される。当該プログラムは、適当な回線を介して、サーバや離れた場所にある記憶装置から取得することもできる。
(Example of operation)
FIG. 4 shows an example of a processing procedure executed by the
図4の処理において、ステップS101〜S102の処理が車両100の側で行われ、ステップS103〜S112の処理が画像処理装置200で行われる。まず、車両を走行させながらカメラ102を用いて特定の時間間隔(例えば、0.1秒間隔)で路面の撮影を行う。この際、カメラ102の撮影に同期させて、レーザスキャナ101によるレーザスキャンを行い、周囲環境の点群データを得る。レーザスキャンでは、路面に影を形成する可能性のある建物および上空の架空線がスキャンされるようにスキャン範囲が設定される。画像データおよび点群データ、それらのデータを得た時刻、その時刻における車両の姿勢と位置(IMU103の姿勢と位置)は、関連付けされて記憶装置105に記憶される(ステップS101およびS102)。
In the process of FIG. 4, the processes of steps S <b> 101 to S <b> 102 are performed on the
一連のデータを得たら、記憶装置105から画像処理装置200にデータを移し、ステップS103以下の処理を実行する。まず、時刻t1におけるレーザスキャナ101とカメラ102の位置と姿勢を取得する(ステップS103)。ここで、位置と姿勢のデータは車両位置姿勢算出部214で算出される。このデータは、スキャナ座標系とカメラ座標系をIMU座標系に変換する際に利用される。次に、時刻t1における太陽の位置を取得し(ステップS104)、時刻t1における影領域点群を算出する(ステップS105)。この際、架空線の影に関しても影領域点群を算出する。
When a series of data is obtained, the data is transferred from the
影領域点群を得たら、それを時刻t1に撮影したカメラ画像上に投影する(ステップS106)。次に、時刻t1におけるカメラ画像上における影領域点群を拡張し(ステップS107)、当該カメラ画像中における影の領域を確定する(ステップS108)。 After obtaining the shadow region point group is projected on the camera image captured it at time t 1 (step S106). Next, extend the shadow area point group on the camera image at time t 1 (step S107), and determine the area of the shadow in the relevant camera image (step S108).
次に、影領域として確定した画像部分のコントラストを強調する調整を行う(ステップS109)。このコントラストの調整を行うことで、影となり暗い画像となった部分からのひび割れの検出精度が高まる。その後、路面のひび割れ部分を検出する画像解析処理が行われ(ステップS110)、その結果をステップS108で得た影領域の情報と比較することで、正誤判定が行われる(ステップS111)。正誤判定を行うことで、影の縁をひび割れとして認定する不都合が回避される。 Next, adjustment for enhancing the contrast of the image portion determined as the shadow region is performed (step S109). By adjusting the contrast, the detection accuracy of cracks from a portion that becomes a shadow and becomes a dark image increases. Thereafter, image analysis processing for detecting a cracked portion of the road surface is performed (step S110), and the result is compared with the information on the shadow area obtained in step S108, and correct / incorrect determination is performed (step S111). By performing correct / incorrect determination, the inconvenience of identifying the edge of the shadow as a crack is avoided.
以上の処理を時刻t2、時刻t3、時刻t4・・・・において繰り返し行い、対象となる全てのカメラ画像に対して行う(ステップS112)。 The above processing is repeated at time t 2 , time t 3 , time t 4 ... And performed for all target camera images (step S 112).
図4の処理をリアルタイムに行うことも可能である。この場合、画像処理装置200を車両100に乗せ、車両を走行させながら、図4の処理を行う。
It is also possible to perform the processing of FIG. 4 in real time. In this case, the processing of FIG. 4 is performed while the
(優位性)
以上述べた技術では、点群データと太陽の位置を用いて、太陽光が建物等の影となって当たらない路面の領域を算出する。画像解析では、影の縁なのか路面のひび割れなのかの判定が困難であっても、予め影の部分が判っていれば、正誤判定処理により、影の縁の部分をひび割れ部分として認定する問題が回避される。また、影の部分は暗く、ひび割れの検出精度が低下するが、点群データから予め影の部分を得ていれば、その部分のコントラストを調整することで、ひび割れの検出精度を高めることができる。
(Superiority)
In the technology described above, the area of the road surface where the sunlight does not become a shadow of a building or the like is calculated using the point cloud data and the position of the sun. In image analysis, even if it is difficult to determine whether it is a shadow edge or a crack on the road surface, if the shadow part is known in advance, the problem is that the edge part of the shadow is recognized as a crack part by the correctness determination process. Is avoided. In addition, the shadow portion is dark and the crack detection accuracy decreases. However, if the shadow portion is obtained in advance from the point cloud data, the crack detection accuracy can be increased by adjusting the contrast of the portion. .
また、電線等の架空線の影が路面に写りこむことで、架空線の影をひび割れと誤検出する問題が生じるが、点群データから予め架空線の影の部分の情報を得ていれば、その部分のデータを排除することで、架空線の影をひび割れとして認定する問題を避けることができる。 In addition, the shadows of overhead lines such as electric wires are reflected on the road surface, which causes a problem of erroneously detecting the shadows of overhead lines as cracks, but if the information about the shadows of overhead lines is obtained in advance from point cloud data By eliminating the data of that part, the problem of identifying the shadow of the overhead line as a crack can be avoided.
(その他)
本発明は、路面のひび割れの検出の場合に限定されず、コンクリートやモルタルで固められた斜面や崖におけるひび割れの検出、橋の橋脚におけるひび割れの検出等に利用することもできる。
(Other)
The present invention is not limited to the detection of cracks on the road surface, but can also be used for detection of cracks on slopes and cliffs hardened with concrete or mortar, detection of cracks on bridge piers, and the like.
Claims (10)
レーザスキャナが取得した点群データを取得する点群データ取得部と、
太陽の位置に基づき、前記太陽から対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、
前記影領域点群を前記画像に投影する影領域点群投影部と
を備えることを特徴とする画像処理装置。 An image data acquisition unit for acquiring image data of an image of an object photographed by the camera;
A point cloud data acquisition unit for acquiring the point cloud data acquired by the laser scanner;
A shadow area point cloud calculation unit for calculating a shadow area point cloud obtained by projecting the point cloud data from the sun onto the object based on the position of the sun;
An image processing apparatus comprising: a shadow region point group projection unit that projects the shadow region point group onto the image.
前記影領域点群の算出は、前記地上座標系で行われることを特徴とする請求項1に記載の画像処理装置。 A coordinate conversion unit for converting the point cloud data acquired by the laser scanner into a ground coordinate system, and converting the point cloud data described in the ground coordinate system into a camera coordinate system;
The image processing apparatus according to claim 1, wherein the calculation of the shadow area point group is performed in the ground coordinate system.
前記画像中における前記境界部分の位置に基づき、前記ひび割れ部分検出部が検出したひび割れ部分の誤検出を判定する誤検出判定部と
を備えることを特徴とする請求項5に記載の画像処理装置。 A cracked part detecting unit for detecting a cracked part to be photographed from the image;
The image processing apparatus according to claim 5, further comprising: an erroneous detection determination unit that determines erroneous detection of a crack portion detected by the crack portion detection unit based on a position of the boundary portion in the image.
前記影領域点群算出部は、前記検出された架空線の影となる部分の点群を算出することを特徴とする請求項3に記載の画像処理装置。 An overhead line detection unit that detects an overhead line based on the point cloud data,
The image processing apparatus according to claim 3, wherein the shadow region point group calculation unit calculates a point group of a portion that is a shadow of the detected overhead line.
レーザスキャナが取得した点群データを取得する点群データ取得ステップと、
太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出ステップと、
前記影領域点群を前記画像に投影する影領域点群投影ステップと
を備えることを特徴とする画像処理方法。 An image data acquisition step of acquiring image data of an image of the object photographed by the camera;
A point cloud data acquisition step for acquiring the point cloud data acquired by the laser scanner;
A shadow area point cloud calculating step for calculating a shadow area point cloud obtained by projecting the point cloud data from the sun onto the object based on the position of the sun;
An image processing method comprising: a shadow region point group projecting step of projecting the shadow region point group onto the image.
コンピュータを
カメラが撮影した対象物の画像の画像データを取得する画像データ取得部と、
レーザスキャナが取得した点群データを取得する点群データ取得部と、
太陽の位置に基づき、前記太陽から前記対象物に前記点群データを投影した影領域点群を算出する影領域点群算出部と、
前記影領域点群を前記画像に投影する影領域点群投影部と
して機能させることを特徴とする画像処理用プログラム。 A program that is read and executed by a computer,
An image data acquisition unit for acquiring image data of an image of an object captured by a camera of a computer;
A point cloud data acquisition unit for acquiring the point cloud data acquired by the laser scanner;
A shadow area point cloud calculation unit that calculates a shadow area point cloud obtained by projecting the point cloud data from the sun onto the object based on the position of the sun;
An image processing program that functions as a shadow region point group projection unit that projects the shadow region point group onto the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016167990A JP6797607B2 (en) | 2016-08-30 | 2016-08-30 | Image processing device, image processing method and program for image processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016167990A JP6797607B2 (en) | 2016-08-30 | 2016-08-30 | Image processing device, image processing method and program for image processing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018036769A true JP2018036769A (en) | 2018-03-08 |
JP6797607B2 JP6797607B2 (en) | 2020-12-09 |
Family
ID=61567559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016167990A Active JP6797607B2 (en) | 2016-08-30 | 2016-08-30 | Image processing device, image processing method and program for image processing |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6797607B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020038171A (en) * | 2018-09-05 | 2020-03-12 | 株式会社リコー | Movement measuring device and measuring device |
JP2020052035A (en) * | 2018-09-21 | 2020-04-02 | 株式会社トプコン | Measuring device and control method of measuring device |
JP2020060497A (en) * | 2018-10-12 | 2020-04-16 | パイオニア株式会社 | Information processing device |
JP2020061049A (en) * | 2018-10-12 | 2020-04-16 | パイオニア株式会社 | Point group data structure |
CN113012039A (en) * | 2021-03-30 | 2021-06-22 | 北京市商汤科技开发有限公司 | Image processing method, image processing device, electronic equipment and storage medium |
JPWO2021200038A1 (en) * | 2020-03-31 | 2021-10-07 | ||
WO2022014327A1 (en) * | 2020-07-14 | 2022-01-20 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005043324A (en) * | 2003-07-25 | 2005-02-17 | Matsushita Electric Ind Co Ltd | Method of checking defective condition of road surface, and method of specifying defective position of the road surface |
JP2008269218A (en) * | 2007-04-19 | 2008-11-06 | Mitsubishi Electric Corp | Image processor, image processing method, and image processing program |
-
2016
- 2016-08-30 JP JP2016167990A patent/JP6797607B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005043324A (en) * | 2003-07-25 | 2005-02-17 | Matsushita Electric Ind Co Ltd | Method of checking defective condition of road surface, and method of specifying defective position of the road surface |
JP2008269218A (en) * | 2007-04-19 | 2008-11-06 | Mitsubishi Electric Corp | Image processor, image processing method, and image processing program |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020038171A (en) * | 2018-09-05 | 2020-03-12 | 株式会社リコー | Movement measuring device and measuring device |
JP7243088B2 (en) | 2018-09-05 | 2023-03-22 | 株式会社リコー | Mobile measurement device and measurement device |
JP2020052035A (en) * | 2018-09-21 | 2020-04-02 | 株式会社トプコン | Measuring device and control method of measuring device |
JP7311353B2 (en) | 2018-09-21 | 2023-07-19 | 株式会社トプコン | Measuring device and control method for measuring device |
JP2020060497A (en) * | 2018-10-12 | 2020-04-16 | パイオニア株式会社 | Information processing device |
JP2020061049A (en) * | 2018-10-12 | 2020-04-16 | パイオニア株式会社 | Point group data structure |
JPWO2021200038A1 (en) * | 2020-03-31 | 2021-10-07 | ||
WO2021200038A1 (en) * | 2020-03-31 | 2021-10-07 | 日本電気株式会社 | Road deteriotation diagnosing device, road deterioration diagnosing method, and recording medium |
JP7480838B2 (en) | 2020-03-31 | 2024-05-10 | 日本電気株式会社 | Road deterioration diagnosis device, road deterioration diagnosis method, and program |
WO2022014327A1 (en) * | 2020-07-14 | 2022-01-20 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and program |
CN113012039A (en) * | 2021-03-30 | 2021-06-22 | 北京市商汤科技开发有限公司 | Image processing method, image processing device, electronic equipment and storage medium |
CN113012039B (en) * | 2021-03-30 | 2023-04-07 | 北京市商汤科技开发有限公司 | Image processing method, image processing device, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6797607B2 (en) | 2020-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6797607B2 (en) | Image processing device, image processing method and program for image processing | |
US10810734B2 (en) | Computer aided rebar measurement and inspection system | |
US7733342B2 (en) | Method of extracting 3D building information using shadow analysis | |
CA2526105C (en) | Image display method and image display apparatus | |
US8326021B2 (en) | Measurement apparatus and control method | |
JP5586765B2 (en) | Camera calibration result verification apparatus and method | |
JP6251142B2 (en) | Non-contact detection method and apparatus for measurement object | |
JPWO2018143263A1 (en) | Imaging control apparatus, imaging control method, and program | |
JP4132068B2 (en) | Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus | |
KR101011813B1 (en) | Installaion for displaying overlap line of adjoined digital aerial photograph | |
JP6479296B2 (en) | Position / orientation estimation apparatus and position / orientation estimation method | |
EP2476999A1 (en) | Method for measuring displacement, device for measuring displacement, and program for measuring displacement | |
KR101255461B1 (en) | Position Measuring Method for street facility | |
JP2010190647A (en) | Vehicle position measuring instrument and vehicle position measuring program | |
CN116772730B (en) | Crack size measurement method, computer storage medium and system | |
JP2006309450A (en) | Image recognition device and image recognition method | |
JP2010145219A (en) | Movement estimation device and program | |
CN116228974A (en) | Three-dimensional model construction method, three-dimensional model construction device, computer equipment and storage medium | |
JP5230354B2 (en) | POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE | |
CN114266835A (en) | Deformation monitoring control method and system for non-measuring camera | |
KR100745105B1 (en) | Image display method and image display apparatus | |
JP5409451B2 (en) | 3D change detector | |
KR100586815B1 (en) | System and method for measuring position of threedimensions | |
NAKAGAWA et al. | Study on making city model with image and laser range data | |
Chang et al. | Remote Crack Measurement Using Android Camera with Laser-Positioning Technique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6797607 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |