JP6568722B2 - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP6568722B2
JP6568722B2 JP2015111219A JP2015111219A JP6568722B2 JP 6568722 B2 JP6568722 B2 JP 6568722B2 JP 2015111219 A JP2015111219 A JP 2015111219A JP 2015111219 A JP2015111219 A JP 2015111219A JP 6568722 B2 JP6568722 B2 JP 6568722B2
Authority
JP
Japan
Prior art keywords
image
unit
images
imaging unit
indices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015111219A
Other languages
Japanese (ja)
Other versions
JP2016223935A (en
Inventor
政志 馬場
政志 馬場
典和 竹内
典和 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Facilities Inc
Original Assignee
NTT Facilities Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Facilities Inc filed Critical NTT Facilities Inc
Priority to JP2015111219A priority Critical patent/JP6568722B2/en
Publication of JP2016223935A publication Critical patent/JP2016223935A/en
Application granted granted Critical
Publication of JP6568722B2 publication Critical patent/JP6568722B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本発明は、画像処理システム、画像処理方法及びプログラムに関する。   The present invention relates to an image processing system, an image processing method, and a program.

画像処理システムを利用して、建物や施設などの構造物(以下、建物等という。)を非破壊で検査することが試みられている。関連する技術に、施設を撮像した画像を基に当該施設の面の状態を取得するものが有る(例えば、特許文献1参照)。特許文献1の技術では、撮像された画像から鉄塔を成す鋼材の面を検出して、検出した面の辺の位置を基準にして面内の劣化箇所の位置を特定している。   Attempts have been made to nondestructively inspect structures such as buildings and facilities (hereinafter referred to as buildings) using an image processing system. As a related technique, there is one that acquires the state of the surface of the facility based on an image of the facility (see, for example, Patent Document 1). In the technique of Patent Document 1, a surface of a steel material that forms a steel tower is detected from a captured image, and the position of a degraded portion in the surface is specified based on the position of a side of the detected surface.

特開平11−132962号公報Japanese Patent Laid-Open No. 11-132962

しかしながら、建物等を評価対象にする場合、窓のような構造物が無い壁面や、単調で広範囲の壁面が点検の対象になることがある。このような壁面の画像からその面内の位置を特定可能な構造物等を抽出することは困難である。特許文献1の技術では、撮像された画像に、鉄塔を成す鋼材の面の辺が含まれていることが必要とされるが、建物の壁面の状態を検出するために特許文献1の手法を適用しても、辺から比較的離れた位置の状態を検出することは困難である。   However, when a building or the like is an object to be evaluated, a wall surface without a structure such as a window or a monotonous wide-area wall surface may be an object of inspection. It is difficult to extract a structure or the like that can specify the position in the surface from the image of the wall surface. In the technique of Patent Document 1, it is necessary that the imaged image includes a side of the surface of the steel material forming the steel tower, but the method of Patent Document 1 is used to detect the state of the wall surface of the building. Even if it is applied, it is difficult to detect the state at a position relatively far from the side.

本発明は、このような事情に鑑みてなされたもので、撮像部により対象物を撮像し、当該対象物の検出対象の面の状態を検出可能な画像を得る画像処理システム、画像処理方法及びプログラムを提供することを一つの目的とする。   The present invention has been made in view of such circumstances. An image processing system, an image processing method, and an image processing system that capture an image of an object by an imaging unit and obtain an image capable of detecting the state of a detection target surface of the object. One purpose is to provide a program.

上述した課題を解決するための本発明の一態様は、互いに異なる位置から撮像部により撮像される対象物の面には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による1又は複数の指標が描かれており、前記撮像部により撮像された画像から前記1又は複数の指標と前記対象物の面の特徴点とを抽出する抽出部と、前記対象物の面に沿うように前記対象物の位置に対して前記互いに異なる位置に位置を変える前記撮像部が前記互いに異なる位置から撮像して複数の画像を得て、前記得られた複数の画像のそれぞれから前記抽出された1又は複数の指標と前記対象物の面の特徴点とを基準にして、前記複数の画像の相対位置を検出する検出部とを備え、前記投光部は、前記撮像部とは独立して形成され、前記投光部の位置が前記対象物の位置に対して相対的に固定されることを特徴とする画像処理システムである。
また、本発明の一態様は、互いに異なる位置から撮像部により撮像される対象物の面には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による1又は複数の指標が描かれており、前記撮像部により撮像された画像から、前記画像に線状に描かれた前記1又は複数の指標と前記対象物の面の特徴点とを抽出する抽出部と、前記対象物の面に沿うように位置を変える前記撮像部が前記互いに異なる位置から撮像して複数の画像を得て、前記得られた複数の画像のそれぞれから前記抽出された1又は複数の指標と前記対象物の面の特徴点とを基準にして、前記複数の画像の相対位置を検出する検出部とを備え、前記対象物の面の前記特徴点に基づく第1データと、前記線状に描かれた前記1又は複数の指標の幾何学的特徴に基づく第2データとが生成され、前記第1データと前記第2データとに基づいて画像を調整するためのデータを生成することを特徴とする画像処理システムである。
One aspect of the present invention for solving the above problems, on the surface of the object to be imaged by the imaging unit from different positions, the light projecting from the light emitting portion provided in not affected position the movement of the imaging unit One or a plurality of indexes based on the captured image, an extraction unit for extracting the one or more indexes and feature points of the surface of the target object from the image captured by the image capturing unit; and the target object of the imaging unit for changing the position in the different positions relative to the position of the object in along Migihitsuji the surface is captured from the different positions to obtain a plurality of images, the plurality of images the resulting A detection unit that detects relative positions of the plurality of images based on one or more of the extracted indices and feature points of the surface of the object, and the light projecting unit includes the imaging unit Formed independently of the light emitting portion, and An image processing system, characterized in that location is fixed relative to the position of the object.
Further, according to one aspect of the present invention, the surface of the object imaged by the imaging unit from different positions is 1 or by the image projected from the light projecting unit provided at a position not affected by the movement of the imaging unit. A plurality of indices are drawn, and from the image captured by the imaging section, an extraction unit that extracts the one or more indices drawn linearly in the image and feature points of the surface of the object; The imaging unit that changes the position along the surface of the object captures images from the different positions to obtain a plurality of images, and the one or more extracted from each of the obtained plurality of images A detection unit configured to detect a relative position of the plurality of images based on an index and a feature point of the surface of the object; and first data based on the feature point of the surface of the object; Geometric features of the one or more indicators drawn in a shape A second data is generated based, an image processing system and generating data for adjusting the image on the basis the first data into the second data.

また、上記発明の一態様は、前記抽出された指標と前記対象物の面の特徴点との距離、又は、前記抽出された指標と前記対象物の面の特徴点の大きさに基づいて、前記複数の画像の尺度が合うように一又は複数の画像を調整する補正部を備えることを特徴とする。   Further, according to one aspect of the present invention, based on the distance between the extracted index and the feature point of the surface of the object, or the size of the feature point of the extracted index and the surface of the object, The image processing apparatus includes a correction unit that adjusts one or a plurality of images so that the scales of the plurality of images match.

また、上記発明の一態様は、少なくとも前記抽出された指標に基づいて、前記画像の歪を補正する補正部を備えることを特徴とする。   One embodiment of the present invention includes a correction unit that corrects distortion of the image based on at least the extracted index.

また、上記発明の一態様は、前記検出部は、前記撮像された画像の歪を調整可能な前記前記1又は複数の指標を前記撮像された画像から抽出し、前記抽出した1又は複数の指標に基づいて前記対象物の面に対する前記撮像部の光軸の向きを検出することを特徴とする。 In the aspect of the invention described above, the detection unit may extract the one or more indices that can adjust distortion of the captured image from the captured image, and the extracted one or more indices. The direction of the optical axis of the imaging unit with respect to the surface of the object is detected based on the above.

また、上記発明の一態様は、前記補正部は、前記対象物の面に対する前記撮像部の光軸の向きの検出結果に基づいて、前記撮像部によって撮像された画像の歪を補正することを特徴とする。 Another embodiment of the invention, the correcting unit based on the orientation of the detection result of the optical axis of the imaging unit with respect to the plane of the object, to correct the distortion of an image captured by the imaging unit Features.

また、本発明の一態様は、互いに異なる位置から撮像部により撮像される対象物の面には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による1又は複数の指標が描かれており、前記撮像部により撮像された画像から前記1又は複数の指標と前記対象物の面の特徴点とを抽出部が抽出するステップと、前記対象物の面にうように前記対象物の位置に対して前記互いに異なる位置に位置を変える前記撮像部が前記互いに異なる位置から撮像して複数の画像を得て、前記得られた複数の画像のそれぞれから前記抽出された1又は複数の指標と前記対象物の面の特徴点とを基準にして、前記複数の画像の相対位置を検出するステップとを含み、前記投光部は、前記撮像部とは独立して形成され、前記投光部の位置が前記対象物の位置に対して相対的に固定されることを特徴とする画像処理方法である。
また、本発明の一態様は、互いに異なる位置から撮像部により撮像される対象物の面には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による1又は複数の指標が描かれており、前記撮像部により撮像された画像から、前記画像に線状に描かれた前記1又は複数の指標と前記対象物の面の特徴点とを抽出部が抽出するステップと、前記対象物の面に沿うように位置を変える前記撮像部が前記互いに異なる位置から撮像して複数の画像を得て、前記得られた複数の画像のそれぞれから前記抽出された1又は複数の指標と前記対象物の面の特徴点とを基準にして、前記複数の画像の相対位置を検出するステップと、前記対象物の面の前記特徴点に基づく第1データと、前記線状に描かれた前記指標の幾何学的特徴に基づく第2データとを生成し、前記第1データと前記第2データとに基づいて画像を調整するためのデータを生成するステップとを含むことを特徴とする画像処理方法である。
Another embodiment of the present invention, the surface of the object to be imaged by the imaging unit from different positions, 1 by projected by image from the light projecting portion provided in not affected position the movement of the imaging unit or a plurality of indices are drawn, a step of extracting section extracts the feature points of the surface of the one or the object with a plurality of indicators from the image captured by the imaging unit, earthenware pots on a surface of the object As described above, the image capturing unit that changes the position to the position different from the position of the object captures images from the positions different from each other to obtain a plurality of images, and is extracted from each of the obtained plurality of images. and one or more indicators and on the basis of the feature points of the surface of the object, viewed including the steps of detecting the relative positions of the plurality of images, the light projecting unit, independently from said image pickup unit And the position of the light projecting portion is the pair. An image processing method characterized in that it is fixed relative position of the object.
Further, according to one aspect of the present invention, the surface of the object imaged by the imaging unit from different positions is 1 or by the image projected from the light projecting unit provided at a position not affected by the movement of the imaging unit. A plurality of indices are drawn, and the extraction unit extracts the one or more indices drawn in a line shape on the image and the feature points of the surface of the object from the image captured by the imaging unit. And the imaging unit that changes the position along the surface of the object captures images from the different positions to obtain a plurality of images, and the extracted one or each of the plurality of obtained images Detecting relative positions of the plurality of images based on a plurality of indices and feature points of the surface of the object; first data based on the feature points of the surface of the object; and the linear shape Based on the geometric features of the indicators drawn in Generating a second data, an image processing method which comprises the steps of generating data for adjusting an image on the basis of the first data into the second data.

また、本発明の一態様は、互いに異なる位置から撮像部により撮像される対象物の面には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による1又は複数の指標が描かれており、前記撮像部により撮像された画像から、前記画像に線状に描かれた前記1又は複数の指標と前記対象物の面の特徴点とを抽出部が抽出するステップと、前記対象物の面に沿うように位置を変える前記撮像部が前記互いに異なる位置から撮像して複数の画像を得て、前記得られた複数の画像のそれぞれから前記抽出された1又は複数の指標と前記対象物の面の特徴点とを基準にして、前記複数の画像の相対位置を検出するステップと、前記対象物の面の前記特徴点に基づく第1データと、前記線状に描かれた前記1又は複数の指標の幾何学的特徴に基づく第2データとを生成するステップと、前記第1データと前記第2データとに基づいて画像を調整するためのデータを生成するステップとを画像処理システムのコンピュータに実行させるためのプログラムである。 Another embodiment of the present invention, the surface of the object to be imaged by the imaging unit from different positions, 1 by projected by image from the light projecting portion provided in not affected position the movement of the imaging unit or A plurality of indices are drawn, and the extraction unit extracts the one or more indices drawn in a line shape on the image and the feature points of the surface of the object from the image captured by the imaging unit. a step to obtain a plurality of images the image pickup unit to change the position in along Migihitsuji the surface of the object is imaged from the different positions, which is the extracted from each of the plurality of images the resulting 1 Or detecting a relative position of the plurality of images based on a plurality of indices and feature points of the surface of the object; first data based on the feature points of the surface of the object; and the line The geometry of the one or more indicators drawn in a shape Program for executing the steps of generating a second data based on the feature, and generating data for adjusting an image on the basis of the first data and the second data to the computer of the image processing system It is.

以上説明したように、本発明によれば、撮像部により対象物を撮像し、当該対象物の検出対象の面の状態を検出可能な画像を得る画像処理システム、画像処理方法及びプログラムを提供することができる。   As described above, according to the present invention, there are provided an image processing system, an image processing method, and a program for capturing an image of an object by an image capturing unit and obtaining an image capable of detecting the state of the detection target surface of the object. be able to.

本発明の第1の実施形態における画像処理システムの概略を示す説明図である。It is explanatory drawing which shows the outline of the image processing system in the 1st Embodiment of this invention. 本実施形態における画像処理システム1(1A)の構成図である。It is a block diagram of the image processing system 1 (1A) in this embodiment. 本実施形態の複数の画像の相対位置の調整について示す説明図である。It is explanatory drawing shown about adjustment of the relative position of the several image of this embodiment. 本実施形態の複数の画像の尺度の調整について示す説明図である。It is explanatory drawing shown about adjustment of the scale of the several image of this embodiment. 本実施形態における本実施形態の画像処理システムにおける処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process in the image processing system of this embodiment in this embodiment. 第2の実施形態における画像処理システムの概略を示す説明図である。It is explanatory drawing which shows the outline of the image processing system in 2nd Embodiment. 本実施形態における複数の画像の尺度の調整について示す説明図である。It is explanatory drawing shown about adjustment of the scale of the some image in this embodiment. 本実施形態における画像の台形歪の補正について示す説明図である。It is explanatory drawing shown about the correction | amendment of the trapezoid distortion of the image in this embodiment. 本実施形態の画像処理システムにおける処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process in the image processing system of this embodiment. 第3の実施形態における画像処理システムの概略を示す説明図である。It is explanatory drawing which shows the outline of the image processing system in 3rd Embodiment. 上記実施形態に示す画像処理システムの変形例の概略を示す説明図である。It is explanatory drawing which shows the outline of the modification of the image processing system shown to the said embodiment.

本発明の実施形態における画像処理システムの概要について説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態における画像処理システムの概略を示す説明図である。同図に示す画像処理システム1は一例を例示するものであり、以下の説明において建物2の壁面21の状況を点検する場合を例に挙げて説明する。なお、本実施形態の画像処理システム1は、建物2の壁面21の状況を点検する以外の用途に用いることもできる。
An overview of an image processing system according to an embodiment of the present invention will be described.
<First Embodiment>
FIG. 1 is an explanatory diagram showing an outline of an image processing system according to the first embodiment of the present invention. The image processing system 1 shown in the figure is an example. In the following description, the case of checking the situation of the wall surface 21 of the building 2 will be described as an example. Note that the image processing system 1 of the present embodiment can also be used for purposes other than checking the condition of the wall surface 21 of the building 2.

本実施形態に示す撮像部220は、例えば、飛行体200に搭載され、飛行体200の移動により対象物の面に対して所望の位置に移動可能に構成されている。対象物には、建物や施設などの構造物が含まれる。以下、建物2を対象物とする場合を例示して説明する。建物2の壁面(面)21の近傍には、飛行体200と異なる位置、例えば、建物2の壁面21の位置に対し相対的に固定された位置から投光する投光部31が設けられている。飛行体200に搭載された撮像部220により撮像される建物2の壁面21(対象物の面)には、飛行体200の移動に影響されないように設けた投光部31から投光された像による指標41が描かれている。   The imaging unit 220 shown in the present embodiment is mounted on the flying object 200, for example, and configured to be movable to a desired position with respect to the surface of the object by the movement of the flying object 200. The objects include structures such as buildings and facilities. Hereinafter, the case where the building 2 is used as an object will be described as an example. In the vicinity of the wall surface (surface) 21 of the building 2, a light projecting unit 31 that projects light from a position different from that of the flying object 200, for example, a position fixed relative to the position of the wall surface 21 of the building 2 is provided. Yes. An image projected from the light projecting unit 31 provided on the wall surface 21 (surface of the object) of the building 2 captured by the imaging unit 220 mounted on the flying object 200 so as not to be affected by the movement of the flying object 200. An index 41 is drawn.

画像処理システム1(画像処理装置100、抽出部)は、撮像部220により撮像された画像から指標41と建物2の壁面21(対象物の面)の特徴点5とを抽出する。撮像部220は、建物2の壁面21(対象物の面)に沿って位置を変えて異なる位置から複数の画像を撮像する。画像処理装置100は、撮像部220が撮像した複数の画像を取得する。画像処理装置100(検出部)は、取得した複数の画像のそれぞれから抽出された指標41と建物2の壁面21(対象物の面)の特徴点5とを基準にして、前記複数の画像の相対位置を検出する。   The image processing system 1 (image processing apparatus 100, extraction unit) extracts the index 41 and the feature point 5 of the wall surface 21 (surface of the object) of the building 2 from the image captured by the imaging unit 220. The imaging unit 220 captures a plurality of images from different positions by changing the position along the wall surface 21 (surface of the object) of the building 2. The image processing apparatus 100 acquires a plurality of images captured by the imaging unit 220. The image processing apparatus 100 (detection unit) uses the index 41 extracted from each of the acquired plurality of images and the feature point 5 of the wall surface 21 (the surface of the object) of the building 2 as a reference, and Detect relative position.

なお、上記の指標は、線(線分を含む)、点、円又は多角形のように面積を有する図形にしてもよい。例えば、投光部31は、光学式墨だし装置のように鉛直の線を対象物の面に描くものとしてもよい。本実施形態の以下の説明では、指標を線にした場合を例示して説明する。   The index may be a figure having an area such as a line (including a line segment), a point, a circle, or a polygon. For example, the light projecting unit 31 may draw a vertical line on the surface of the object like an optical blackout device. In the following description of the present embodiment, a case where the index is a line will be described as an example.

図2を参照して、本実施形態における画像処理システム1(1A)の構成について説明する。同図は、本実施形態における画像処理システム1(1A)の構成図である。
画像処理システム1(1A)は、画像処理装置100と飛行体200を備える。
画像処理装置100は、取得部111、抽出部112、検出部113、補正部114、入出力部115、及び記憶部120を備える。
With reference to FIG. 2, the configuration of the image processing system 1 (1A) in the present embodiment will be described. FIG. 1 is a configuration diagram of the image processing system 1 (1A) in the present embodiment.
The image processing system 1 (1A) includes an image processing apparatus 100 and a flying object 200.
The image processing apparatus 100 includes an acquisition unit 111, an extraction unit 112, a detection unit 113, a correction unit 114, an input / output unit 115, and a storage unit 120.

なお、画像処理装置100は、飛行体200を制御する場合には、飛行制御部119を備えて構成するようにしてもよい。例えば、飛行制御部119は、飛行体200に対し、地理座標の2次元の位置を指定して、その位置を基準に鉛直方向に移動するように指令する。なお、地理座標の2次元の位置は、建物2の壁面21の状態を検出するのに適した位置とする。   Note that the image processing apparatus 100 may be configured to include the flight control unit 119 when controlling the flying object 200. For example, the flight control unit 119 instructs the flying object 200 to specify a two-dimensional position of geographic coordinates and move in the vertical direction based on the position. Note that the two-dimensional position of the geographic coordinates is a position suitable for detecting the state of the wall surface 21 of the building 2.

記憶部120は、撮像部220から取得した画像、所得した画像から生成した画像(合成画像)、各処理の過程で生成されるデータなどを記憶する。記憶部120は、撮像部220から取得した画像に、対象とする建物を識別する識別情報、画像の撮影日時、撮影順を示す画像の識別情報等のデータを関連付けて記憶する。   The storage unit 120 stores an image acquired from the imaging unit 220, an image (composite image) generated from an acquired image, data generated in the course of each process, and the like. The storage unit 120 stores the image acquired from the image capturing unit 220 in association with data such as identification information for identifying a target building, image shooting date and time, and image identification information indicating the shooting order.

入出力部115は、画像処理装置100の各処理の実施を指示する操作を受けつけて、画像処理装置100を構成する各部に対して、前記受け付けた操作に応じて実施させる処理を指令する。入出力部115は、撮像部220から取得した画像、所得した画像から生成した画像(合成画像)などを備える表示部に表示する。
例えば、画像処理装置100は、パーソナルコンピュータなどを含めて構成してもよく、その場合の入出力部115は、入力部としてキーボード、マウス、タッチパネルなどを備え、出力部として液晶表示パネルなどの表示デバイスを備えるものであってもよい。
The input / output unit 115 accepts an operation for instructing the execution of each process of the image processing apparatus 100 and instructs each part of the image processing apparatus 100 to perform a process to be performed according to the received operation. The input / output unit 115 displays the image on the display unit including an image acquired from the imaging unit 220, an image (composite image) generated from the acquired image, and the like.
For example, the image processing apparatus 100 may be configured to include a personal computer. In this case, the input / output unit 115 includes a keyboard, a mouse, a touch panel, and the like as an input unit, and a display such as a liquid crystal display panel as an output unit. A device may be provided.

画像処理装置100を構成する各部の説明を続ける。
取得部111は、飛行体200を飛行させて、撮像部220により撮像された画像を取得する。取得部111が画像を取得する際に利用する媒体等に制限はなく、通信回線を利用する手段、記憶媒体に記憶させて読み込む手段などの手段を適宜選択することができる。なお、取得部111が画像を取得する際には、画像を識別する識別情報を撮像順に応じた順に附しておき、当該識別情報により画像を識別するようにしてもよい。取得部111は、取得した画像を記憶部120に記憶させる。記憶部120に記憶させた画像は、以下に説明する各部から参照される。なお、以下の説明において、各部から記憶部120を参照する処理についての説明を省略する場合がある。
The description of each part constituting the image processing apparatus 100 will be continued.
The acquisition unit 111 acquires the image captured by the imaging unit 220 by causing the flying object 200 to fly. There is no limitation on the medium or the like used when the acquisition unit 111 acquires an image, and means such as a means for using a communication line and a means for storing and reading in a storage medium can be appropriately selected. Note that when the acquisition unit 111 acquires an image, identification information for identifying the image may be attached in the order according to the imaging order, and the image may be identified by the identification information. The acquisition unit 111 stores the acquired image in the storage unit 120. The image stored in the storage unit 120 is referred to from each unit described below. In the following description, description of processing for referring to the storage unit 120 from each unit may be omitted.

抽出部112は、撮像部220により撮像された画像から指標41と建物2の壁面21(対象物の面)の特徴点5とを抽出する。上記の概要の説明で示したように、建物2の壁面21には、飛行体200と異なる位置に設けた投光部31から投光された像による指標41が描かれている。撮像部220の光学系は、上記の指標41が画角に入るように設定されており、所望の状況で撮影されて取得した画像には、上記の指標41が映り込んでいるものとする。例えば、建物2の壁面21の特徴点5とは、壁面21に存在する構造物(ベランダ、庇、梁など)、壁面21に設けられた窓等の付帯物、壁面21を保護するタイルや塗装、などの形状や色などが挙げられる。恒久的なものではないが、建物2の壁面21の特徴点5として、壁面21の汚れ、劣化や損傷が画像から識別できる部分などを利用してもよい。上記のとおり、建物2の壁面21の特徴点5を、建物2の壁面21内の特徴を示す点としてもよい。   The extraction unit 112 extracts the index 41 and the feature point 5 of the wall surface 21 (the surface of the object) of the building 2 from the image captured by the imaging unit 220. As shown in the description of the outline above, on the wall surface 21 of the building 2, an index 41 based on an image projected from the light projecting unit 31 provided at a position different from the flying object 200 is drawn. The optical system of the imaging unit 220 is set so that the index 41 falls within the angle of view, and the index 41 is reflected in an image captured and acquired in a desired situation. For example, the feature point 5 of the wall surface 21 of the building 2 includes a structure (a veranda, a fence, a beam, etc.) existing on the wall surface 21, an accessory such as a window provided on the wall surface 21, tiles or paint for protecting the wall surface 21. , Etc. The shape and color etc. are mentioned. Although not permanent, as the feature point 5 of the wall surface 21 of the building 2, a portion where dirt, deterioration or damage of the wall surface 21 can be identified from the image may be used. As described above, the feature point 5 of the wall surface 21 of the building 2 may be a point indicating the feature in the wall surface 21 of the building 2.

検出部113は、撮像部220が撮像して得た複数の画像のそれぞれから抽出された指標41と建物2の壁面21(対象物の面)の特徴点5とを基準にして、前記複数の画像の相対位置を検出する。撮像部220が撮像して得た複数の画像は、建物2の壁面21(対象物の面)に沿って飛行体200が移動して、前記移動した位置から撮像部220が撮像して得たものである。なお、検出部113は、画像に含まれている複数の指標を前記画像から抽出し、前記抽出した複数の指標41に基づいて建物2の壁面21(対象物の面)に対する撮像部220の光軸の向きを検出するようにしてもよい。   The detection unit 113 uses the index 41 extracted from each of the plurality of images obtained by the imaging unit 220 and the feature point 5 of the wall surface 21 (surface of the object) of the building 2 as a reference, and the plurality of the plurality of the plurality of images. Detect the relative position of the image. A plurality of images obtained by the imaging unit 220 are obtained by the imaging unit 220 capturing images from the moved position when the flying object 200 moves along the wall surface 21 (surface of the object) of the building 2. Is. The detection unit 113 extracts a plurality of indexes included in the image from the image, and the light of the imaging unit 220 with respect to the wall surface 21 (surface of the object) of the building 2 based on the extracted plurality of indexes 41. You may make it detect the direction of an axis | shaft.

補正部114は、取得した画像に対する補正処理を実施する。補正部114は、補正した画像を組み合わせて合成画像を生成してもよい。補正処理の詳細は後述する。   The correction unit 114 performs correction processing on the acquired image. The correction unit 114 may generate a composite image by combining the corrected images. Details of the correction processing will be described later.

(指標(線)と対象物の面の特徴点とを用いる複数の画像の相対位置の調整について)
図3を参照して、本実施形態の複数の画像の相対位置の調整について説明する。
同図は、本実施形態の複数の画像の相対位置の調整について示す説明図である。
(Adjustment of relative position of multiple images using index (line) and feature points of target surface)
With reference to FIG. 3, the adjustment of the relative positions of a plurality of images according to the present embodiment will be described.
This figure is an explanatory view showing the adjustment of the relative positions of a plurality of images of this embodiment.

前述の図1に示したように、壁面21に指標41が描かれている。壁面21を撮像部220が異なる位置から撮影した際に、その画角に収まる範囲を符号611と符号612で示す。符号611と符号612とで示される範囲には互いに重なる領域がある。少なくとも上記の重なる領域に特徴点5がある。また、符号611と符号612とで示される範囲に、指標41が描かれた部分がそれぞれ含まれる。
図3(a)は、符号611で示された範囲を撮像して得られた画像P611を示す。図3(b)は、符号612で示された範囲を撮像して得られた画像P612を示す。図3(a)と図3(b)に示す画像には、対象物の面(建物2の壁面21)にある共通する特徴点が映っている。図3(c)は、上記の複数の画像から生成される合成画像P631を示す。
As shown in FIG. 1 described above, the index 41 is drawn on the wall surface 21. Reference numerals 611 and 612 denote ranges that fall within the angle of view when the imaging unit 220 captures the wall surface 21 from different positions. There are overlapping areas in the range indicated by reference numerals 611 and 612. There is a feature point 5 at least in the overlapping region. In addition, the range indicated by reference numeral 611 and reference numeral 612 includes portions where the index 41 is drawn.
FIG. 3A shows an image P611 obtained by imaging the range indicated by reference numeral 611. FIG. 3B shows an image P612 obtained by imaging the range indicated by reference numeral 612. In the images shown in FIGS. 3A and 3B, common feature points on the surface of the object (the wall surface 21 of the building 2) are shown. FIG. 3C shows a composite image P631 generated from the plurality of images.

補正部114は、指標41(線)と対象物の面(建物2の壁面21)の特徴点とを用いて、複数の画像(画像P611と画像P612)の相対位置を調整する。例えば、補正部114は、複数の画像(画像P611と画像P612)の相対位置を調整して、図3(c)に示す合成画像P631を生成する。相対位置を調整は、画像P611と画像P612から抽出した指標41と特徴点5とに基づいて、それぞれが重なるように画像の尺度の調整、回転歪の調整などを必要に応じて実施して、上記の各画像の相対位置を調整する。画像処理システム1では、上記のように互いの画像に指標41が含まれていることにより、指標41が示す位置と方向を基準にして調整することにより、調整の実施を容易にしている。   The correcting unit 114 adjusts the relative positions of the plurality of images (the images P611 and P612) using the index 41 (line) and the feature points of the surface of the object (the wall surface 21 of the building 2). For example, the correction unit 114 adjusts the relative positions of the plurality of images (image P611 and image P612) to generate a composite image P631 illustrated in FIG. The relative position is adjusted based on the index 41 and the feature point 5 extracted from the images P611 and P612, as necessary, by adjusting the scale of the image and adjusting the rotational distortion as necessary, The relative position of each image is adjusted. In the image processing system 1, since the index 41 is included in each image as described above, adjustment is facilitated by adjusting the position and direction indicated by the index 41 as a reference.

(複数の画像の尺度の調整について)
次に、上記の図3と図4とを参照して、本実施形態の複数の画像の尺度の調整について説明する。図4は、本実施形態の複数の画像の尺度の調整について示す説明図である。
図4(a)と図4(b)と図4(c)は、前述の図3(a)と図3(b)と図3(c)とにそれぞれ対応するものであるが、図4(a)に示す画像P611と図4(b)に示す画像P612Aは互いの尺度が異なっている。図4(b)に、図4(a)に示す画像P611と同じ尺度の画像として所得していた画像の範囲、例えば図3(b)に示した画像P612の範囲を点線です。
(About adjusting the scale of multiple images)
Next, with reference to FIG. 3 and FIG. 4 described above, adjustment of scales of a plurality of images according to the present embodiment will be described. FIG. 4 is an explanatory diagram showing adjustment of the scales of a plurality of images according to the present embodiment.
4 (a), FIG. 4 (b), and FIG. 4 (c) correspond to FIG. 3 (a), FIG. 3 (b), and FIG. 3 (c), respectively. The image P611 shown in FIG. 4A and the image P612A shown in FIG. In FIG. 4B, the range of the image that has been obtained as an image of the same scale as the image P611 shown in FIG. 4A, for example, the range of the image P612 shown in FIG. 3B is a dotted line.

ここで、補正部114は、各画像から抽出された指標41と特徴点5との距離d1に基づいて、前記複数の画像(画像P611と画像P612A)の尺度が合うように、画像P611又は/及び画像P612Aの画像の尺度を調整する。
或いは、補正部114は、各画像から抽出された指標41と特徴点5の大きさW1に基づいて、前記複数の画像(画像P611と画像P612A)の尺度が合うように、画像P611又は/及び画像P612Aの画像の尺度を調整する。
補正部114は、上記に示す方法で、例えば画像P612Aの尺度を調整して、画像P613Aを生成する。
Here, based on the distance d1 between the index 41 and the feature point 5 extracted from each image, the correcting unit 114 adjusts the image P611 or / And the scale of the image of the image P612A is adjusted.
Alternatively, the correcting unit 114 may adjust the scale of the plurality of images (image P611 and image P612A) based on the index 41 extracted from each image and the size W1 of the feature point 5, and / or the image P611 and / or The scale of the image P612A is adjusted.
For example, the correction unit 114 adjusts the scale of the image P612A by the method described above to generate the image P613A.

(画像の回転歪の補正について)
上記の図3を参照して、画像の回転歪の補正について説明する。
図3(a)に示す画像P611と図3(b)に示す画像P612において、それぞれの画像における指標41の延伸方向が異なっている。壁面21が平面であれば、指標41は直線になるように壁面21上に描かれる。撮像部220が壁面21に沿って、指標41の延伸方向に移動して、移動により定められる異なる位置から撮像した画像を合成する場合であれば、上記の指標41の延伸方向を揃えるようにそれぞれの画像の相対角度を調整するとよい。
上記のように、補正部114は、少なくとも前記抽出された指標に基づいて、前記画像の歪(回転歪)を補正する。
(About correction of image rotation distortion)
With reference to FIG. 3 described above, correction of rotational distortion of an image will be described.
In the image P611 shown in FIG. 3A and the image P612 shown in FIG. 3B, the extending direction of the index 41 in each image is different. If the wall surface 21 is a plane, the index 41 is drawn on the wall surface 21 so as to be a straight line. If the imaging unit 220 moves in the extending direction of the index 41 along the wall surface 21 and combines images captured from different positions determined by the movement, the extending direction of the index 41 is aligned with each other. The relative angle of the image may be adjusted.
As described above, the correction unit 114 corrects distortion (rotational distortion) of the image based on at least the extracted index.

図5を参照して、本実施形態の画像処理システムにおける処理について説明する。同図は、本実施形態の画像処理システムにおける処理の手順を示すフローチャートである。   With reference to FIG. 5, the process in the image processing system of this embodiment will be described. FIG. 5 is a flowchart showing a processing procedure in the image processing system of the present embodiment.

まず、取得部111は、撮像部220が撮像した画像を取得する(ステップS11)。抽出部112は、撮像部220により撮像された画像から指標を抽出し(ステップS12)、更に特徴点を抽出する(ステップS13)。   First, the acquisition unit 111 acquires an image captured by the imaging unit 220 (step S11). The extraction unit 112 extracts an index from the image captured by the imaging unit 220 (step S12), and further extracts feature points (step S13).

検出部113は、複数の画像の尺度が不揃いか否かを判定する(ステップS14)。ステップS14における判定により、複数の画像の尺度が不揃いではないと判定した場合(ステップS14:No)、ステップS17に進む。一方、ステップS14における判定により、複数の画像の尺度が不揃いであると判定した場合(ステップS14:No)、補正部114は、複数の画像の尺度を調整する(ステップS15)。   The detection unit 113 determines whether or not the scales of the plurality of images are uneven (step S14). If it is determined in step S14 that the scales of the plurality of images are not irregular (step S14: No), the process proceeds to step S17. On the other hand, when it is determined in step S14 that the scales of the plurality of images are not uniform (step S14: No), the correction unit 114 adjusts the scales of the plurality of images (step S15).

上記ステップS14における判定の後、又は、ステップS15の処理を終えた後、補正部114は、複数の画像の相対位置を検出する(ステップS17)。補正部114は、検出した相対位置に基づいて複数の画像の位置を調整して、調整した画像から新たな画像P613(合成画像)を生成する(ステップS18)。   After the determination in step S14 or after finishing the process in step S15, the correction unit 114 detects the relative positions of the plurality of images (step S17). The correcting unit 114 adjusts the positions of the plurality of images based on the detected relative positions, and generates a new image P613 (composite image) from the adjusted images (step S18).

以上に示したように、本実施形態の画像処理システム1は、撮像部220により建物2(対象物)を撮像し、当該建物2(対象物)の検出対象の壁面21(面)の状態を検出可能な画像(合成画像)を得ることができる。   As described above, in the image processing system 1 according to the present embodiment, the imaging unit 220 images the building 2 (target object), and the state of the wall surface 21 (surface) that is the detection target of the building 2 (target object). A detectable image (composite image) can be obtained.

なお、上記の説明では、説明を簡素化するために、撮像部220の光軸を壁面21に対して略直交する場合を例示した。画像処理システム1は、飛行体200の飛行状況を示す情報、撮像部220の光軸の方向を示す情報等を収集し、収集したそれぞれの情報を基に上記の画像を調整する処理を実施してもよく、或いは、上記の処理と分けた処理にして、それぞれの処理を組み合わせて実施するようにしてもよい。例えば、画像処理システム1は、飛行体200の飛行状況を示す情報、撮像部220の光軸の方向を示す情報等を収集し、それぞれの情報を基に上記の画像を調整する処理を実施する。この場合、上記の画像を調整する処理では、飛行体200に搭載されたジャイロや加速度センサなどの情報を用いて飛行体200の飛行状況を特定し、特定した状況から撮像部220の光軸の方向を特定する。特定した結果の飛行体200の飛行状況(位置)や撮像部220の光軸の方向に基づいた空間座標系を用いた演算を通して、上記の画像を補正する処理を実施することができる。このような処理を実施することにより、台形歪が生じた画像も補正することができる。   In the above description, in order to simplify the description, the case where the optical axis of the imaging unit 220 is substantially orthogonal to the wall surface 21 is illustrated. The image processing system 1 collects information indicating the flight status of the flying object 200, information indicating the direction of the optical axis of the imaging unit 220, and the like, and performs a process of adjusting the image based on the collected information. Alternatively, the processes may be performed separately from the above processes, and the processes may be combined. For example, the image processing system 1 collects information indicating the flight status of the flying object 200, information indicating the direction of the optical axis of the imaging unit 220, and the like, and performs a process of adjusting the image based on each information. . In this case, in the process of adjusting the above image, the flight state of the flying object 200 is specified using information such as a gyro mounted on the flying object 200 and an acceleration sensor, and the optical axis of the imaging unit 220 is determined from the specified condition. Identify the direction. Through the calculation using the spatial coordinate system based on the flight status (position) of the flying object 200 and the direction of the optical axis of the imaging unit 220 as a result of the identification, the above-described image correction process can be performed. By performing such processing, it is possible to correct an image having trapezoidal distortion.

<第2の実施形態>
図6から図9を参照して、第2の実施形態について説明する。
図6は、第2の実施形態における画像処理システムの概略を示す説明図である。同図に示す構成は、画像処理システム1Aを適用した一例を示すものであり、前述の画像処理システム1に相当する。前述の画像処理システム1と異なる点を中心に説明する。
<Second Embodiment>
The second embodiment will be described with reference to FIGS.
FIG. 6 is an explanatory diagram illustrating an outline of an image processing system according to the second embodiment. The configuration shown in the figure shows an example to which the image processing system 1A is applied, and corresponds to the image processing system 1 described above. The description will focus on the differences from the image processing system 1 described above.

建物2の壁面(面)21の近傍には、飛行体200と異なる位置、例えば、建物2の壁面21の位置に対し相対的に固定された位置から投光する投光部31と投光部32が設けられている。   In the vicinity of the wall surface (surface) 21 of the building 2, a light projecting unit 31 and a light projecting unit that project light from a position different from the flying object 200, for example, a position fixed relative to the position of the wall surface 21 of the building 2. 32 is provided.

飛行体200に搭載された撮像部220により、異なる位置から撮像される建物2の壁面21(対象物の面)には、飛行体200の移動に影響されないように設けた投光部31から投光された像による指標41が描かれ、同様に飛行体200の移動に影響されないように設けた投光部32から投光された像による指標42が描かれている。
画像処理システム1A(画像処理装置100A、抽出部)は、撮像部220により撮像された画像から指標41と指標42と建物2の壁面21(対象物の面)の特徴点5とを抽出する。
撮像部220は、建物2の壁面21(対象物の面)に沿って位置を変えて異なる位置から複数の画像を撮像する。画像処理装置100Aは、撮像部220が撮像した複数の画像を取得する。画像処理装置100A(検出部)は、取得した複数の画像のそれぞれから抽出された指標41と建物2の壁面21(対象物の面)の特徴点5とを基準にして、前記複数の画像の相対位置を検出する。
なお、上記の指標は、線(線分を含む)、点、円又は多角形のように面積を有する図形にしてもよい。例えば、投光部31と投光部32のそれぞれは、光学式墨だし装置のように鉛直の線を対象物の面に描くものとしてもよい。また、投光部31と投光部32がそれぞれ異なる特徴を有する指標を投光することにより、1つの画像内に複数の指標が含まれていたとしても、何れの投光部が投稿したものかを特定することが容易になる。さらに、3つ以上の指標が1つの画像に含まれる場合には、それぞれが異なるようにするほかに、壁面21に沿って複数の投光部を並べた順に周期性を持って繰り返すように構成してもよい。
或いは、3つ以上の指標(線)が1つの画像に含まれる場合に、壁面21に沿って複数の投光部を並べた順において、奇数番目の線と偶数番目の線で、線の特徴を変えるようにしてもよい。例えば、線の特徴には、線の色、明るさ、線種(実線、破線、一点鎖線など)、形(二重線、太さ、波線など)等のうちの何れか、又は、複数を組み合わせたものが挙げられる。本実施形態の以下の説明では、指標を同一の特徴を有する線にした場合を例示して説明する。
The light projecting unit 31 provided on the wall surface 21 (surface of the object) of the building 2 that is imaged from a different position by the imaging unit 220 mounted on the flying object 200 so as not to be affected by the movement of the flying object 200. An index 41 based on the illuminated image is drawn, and similarly, an index 42 based on the image projected from the light projecting unit 32 provided so as not to be affected by the movement of the flying object 200 is drawn.
The image processing system 1A (the image processing apparatus 100A, the extraction unit) extracts the index 41, the index 42, and the feature point 5 of the wall surface 21 (the surface of the object) of the building 2 from the image captured by the imaging unit 220.
The imaging unit 220 captures a plurality of images from different positions by changing the position along the wall surface 21 (surface of the object) of the building 2. The image processing apparatus 100A acquires a plurality of images captured by the imaging unit 220. The image processing apparatus 100A (detection unit) uses the index 41 extracted from each of the acquired plurality of images and the feature point 5 of the wall surface 21 (the surface of the object) of the building 2 as a reference, and Detect relative position.
The index may be a figure having an area such as a line (including a line segment), a point, a circle, or a polygon. For example, each of the light projecting unit 31 and the light projecting unit 32 may draw a vertical line on the surface of the object, like an optical blackout device. Moreover, even if a plurality of indexes are included in one image by projecting indexes having different characteristics, the light projecting unit 31 and the light projecting unit 32 may post any of the projecting units. It becomes easy to specify whether or not. In addition, when three or more indicators are included in one image, in addition to making them different from each other, it is configured to repeat with a periodicity in the order in which a plurality of light projecting units are arranged along the wall surface 21. May be.
Alternatively, when three or more indicators (lines) are included in one image, the feature of the line is an odd-numbered line and an even-numbered line in the order in which a plurality of light projecting units are arranged along the wall surface 21. May be changed. For example, the line characteristics include one or more of line color, brightness, line type (solid line, broken line, dash-dot line, etc.), shape (double line, thickness, wavy line, etc.), etc. The combination is mentioned. In the following description of the present embodiment, a case where the index is a line having the same characteristics will be described as an example.

(指標(線)と対象物の面の特徴点とを用いる複数の画像の相対位置の調整について)
前述の図3と図6とを参照して、本実施形態の複数の画像の相対位置の調整について説明する。
(Adjustment of relative position of multiple images using index (line) and feature points of target surface)
With reference to FIG. 3 and FIG. 6 described above, adjustment of the relative positions of a plurality of images according to the present embodiment will be described.

前述の図6に示したように、壁面21に指標41と指標42とが描かれている。壁面21を撮像部220が異なる位置から撮影した際に、その画角に収まる範囲を符号621と符号622で示す。符号621と符号622とで示される範囲には互いに重なる領域がある。少なくとも上記の重なる領域に特徴点5がある。また、符号621と符号622とで示される範囲に、指標41と指標42とが描かれた部分がそれぞれ含まれる。   As shown in FIG. 6, the index 41 and the index 42 are drawn on the wall surface 21. Reference numerals 621 and 622 denote ranges that fall within the angle of view when the imaging unit 220 images the wall surface 21 from different positions. There are overlapping areas in the range indicated by reference numerals 621 and 622. There is a feature point 5 at least in the overlapping region. In addition, the range indicated by the reference numerals 621 and 622 includes portions where the index 41 and the index 42 are drawn.

本実施形態では、複数の画像の相対位置の調整に先立って、後述する方法で画像の尺度の調整を実施する。また、この段階で、後述する方法で画像の台形歪の補正処理を必要に応じて実施してもよい。先に尺度の調整等を行った上で、尺度の調整等を実施した後の画像から、特徴点5を抽出する。
その後、前述の図3に示した処理と同様の処理により、複数の画像の相対位置を調整する。なお、複数の画像の相対位置を調整では、指標41と指標42の少なくとも何れかを用いることができる。
画像処理システム1Aでは、上記のように互いの画像に指標41と指標42とが含まれていることにより、指標41又は指標42の何れかが示す位置と方向を基準にして調整することにより、調整の実施を容易にしている。
In this embodiment, prior to the adjustment of the relative positions of a plurality of images, the scale of the image is adjusted by a method described later. Further, at this stage, a correction process for the trapezoidal distortion of the image may be performed as necessary by a method described later. The feature point 5 is extracted from the image after the scale adjustment and the like after the scale adjustment and the like.
Thereafter, the relative positions of the plurality of images are adjusted by a process similar to the process shown in FIG. In adjusting the relative positions of the plurality of images, at least one of the index 41 and the index 42 can be used.
In the image processing system 1A, since the index 41 and the index 42 are included in each other image as described above, by adjusting the position and direction indicated by either the index 41 or the index 42 as a reference, Making adjustments easier.

(複数の画像の尺度の調整について)
次に、図7を参照して、本実施形態の複数の画像の尺度の調整について説明する。同図は、本実施形態の複数の画像の尺度の調整について示す説明図である。
図7(a)は、符号621で示された範囲を撮像して得られた画像P621を示す。図7(b)は、図7(a)を撮影した位置より壁面21に近い位置から同様に撮像して得られた画像P621Nを示す。図7(c)は、図7(a)を撮影した位置より壁面21から遠い位置から同様に撮像して得られた画像P621Fを示す。
図7(a)と図7(b)と図7(c)とに示す画像には、指標41と指標42とが描かれた部分がそれぞれ含まれる。
(About adjusting the scale of multiple images)
Next, with reference to FIG. 7, the adjustment of the scale of a plurality of images according to the present embodiment will be described. This figure is an explanatory view showing the adjustment of the scale of a plurality of images of the present embodiment.
FIG. 7A shows an image P621 obtained by imaging the range indicated by reference numeral 621. FIG. FIG. 7B shows an image P621N obtained by similarly imaging from the position closer to the wall surface 21 than the position where FIG. FIG.7 (c) shows the image P621F obtained by image-capturing similarly from the position far from the wall surface 21 from the position which image | photographed Fig.7 (a).
The images shown in FIG. 7A, FIG. 7B, and FIG. 7C include portions where the index 41 and the index 42 are drawn, respectively.

補正部114は、指標41(線)と指標42(線)とを用いて、各画像の尺度が一律になるように、各画像の尺度を調整する。例えば、補正部114は、複数の画像における指標41(線)と指標42(線)の間隔が一律になるように各画像の拡大又は縮小する処理をする。例えば、上記の画像P621N(図7(b))のように指標41(線)と指標42(線)の間隔が比較的広い画像であれば、画像P621のような指標41(線)と指標42(線)の間隔(基準間隔)になるように調整する。一方、上記の画像P621F(図7(c))のように指標41(線)と指標42(線)の間隔が比較的狭い画像であれば、画像P621のような指標41(線)と指標42(線)の間隔(基準間隔)になるように調整する。上記の拡大又は縮小の処理により、指標41(線)と指標42(線)の間隔を、基準として定めた所望の間隔(基準間隔)に揃った画像が得られる。上記の処理により、画像処理装置100は、複数の画像の尺度を補正することができる。   The correcting unit 114 uses the index 41 (line) and the index 42 (line) to adjust the scale of each image so that the scale of each image is uniform. For example, the correction unit 114 performs a process of enlarging or reducing each image so that the interval between the index 41 (line) and the index 42 (line) in a plurality of images is uniform. For example, if the interval between the index 41 (line) and the index 42 (line) is relatively wide as in the image P621N (FIG. 7B), the index 41 (line) and the index like the image P621 are used. 42 (line) interval (reference interval) is adjusted. On the other hand, if the interval between the index 41 (line) and the index 42 (line) is relatively narrow as in the image P621F (FIG. 7C), the index 41 (line) and the index like the image P621 are used. 42 (line) interval (reference interval) is adjusted. By the above enlargement or reduction process, an image in which the interval between the index 41 (line) and the index 42 (line) is aligned with a desired interval (reference interval) determined as a reference is obtained. With the above processing, the image processing apparatus 100 can correct the scales of a plurality of images.

(撮像部の光軸の向きに応じて生じる画像の台形歪の補正について)
図8を参照して、本実施形態における画像の台形歪の補正について説明する。
同図は、本実施形態における画像の台形歪の補正について示す説明図である。
撮像部220の光軸の方向が壁面21の法線方向に一致するとは限らない。また、複数の指標(指標41又は指標42)が壁面21上に所望の間隔で描かれている。それゆえ、撮像部220の光軸と線状に描かれた指標とがねじれの位置にあれば、撮像部220の光軸に俯角又は迎角が生じると、得られた画像における指標が斜めの線として描かれる。
また、撮像部220自体が光軸周りに回転すると、得られた画像も回転したものとなり、上記のように得られた画像における指標が斜めの線として描かれる。後者の場合は、例えば指標が上下方向になるように補正することで、回転により生じた歪を解消できる。
(Regarding correction of trapezoidal distortion of the image that occurs according to the direction of the optical axis of the imaging unit)
With reference to FIG. 8, correction of trapezoidal distortion of an image in the present embodiment will be described.
This figure is an explanatory diagram showing correction of trapezoidal distortion of an image in the present embodiment.
The direction of the optical axis of the imaging unit 220 does not necessarily coincide with the normal direction of the wall surface 21. A plurality of indices (index 41 or index 42) are drawn on the wall surface 21 at desired intervals. Therefore, if the optical axis of the imaging unit 220 and the linearly drawn index are in a twisted position, when the depression angle or the angle of attack occurs on the optical axis of the imaging unit 220, the index in the obtained image is oblique. Drawn as a line.
Further, when the imaging unit 220 itself rotates around the optical axis, the obtained image is also rotated, and the index in the obtained image is drawn as an oblique line. In the latter case, for example, the distortion caused by the rotation can be eliminated by correcting the index so that it is in the vertical direction.

前者の場合、撮像部220により撮像された画像が、図8(a)と図8(b)とに示すように2つの指標(指標41と指標42)と画像の上辺TLと下辺BLとで囲まれる図形(4角形)になる。図8(a)は、撮像部220の光軸に俯角が生じた場合に取得された画像P621Lを示す。図8(b)は、撮像部220の光軸に俯角が生じた場合に取得された画像P621Uを示す。補正部114は、上記の図形を台形として扱い、その台形を長方形に補正するように画面全体を補正する。上記の処理により、画像処理装置100は、撮像部220の光軸の向きに応じて生じる画像の台形歪を補正することができる。   In the former case, as shown in FIGS. 8A and 8B, the image captured by the imaging unit 220 includes two indices (index 41 and index 42), an upper side TL, and a lower side BL of the image. It becomes an enclosed figure (quadrangle). FIG. 8A shows an image P621L acquired when a depression angle occurs on the optical axis of the imaging unit 220. FIG. FIG. 8B shows an image P621U acquired when a depression angle occurs on the optical axis of the imaging unit 220. The correction unit 114 treats the above figure as a trapezoid and corrects the entire screen so as to correct the trapezoid to a rectangle. With the above processing, the image processing apparatus 100 can correct the trapezoidal distortion of the image that occurs according to the direction of the optical axis of the imaging unit 220.

図9を参照して、本実施形態の画像処理システムにおける処理について説明する。同図は、本実施形態の画像処理システムにおける処理の手順を示すフローチャートである。   With reference to FIG. 9, the process in the image processing system of this embodiment will be described. FIG. 5 is a flowchart showing a processing procedure in the image processing system of the present embodiment.

まず、取得部111は、撮像部220が撮像した画像を取得する(ステップS21)。抽出部112は、撮像部220により撮像された画像から指標を抽出する(ステップS22)。   First, the acquisition unit 111 acquires an image captured by the imaging unit 220 (step S21). The extraction unit 112 extracts an index from the image captured by the imaging unit 220 (step S22).

検出部113は、複数の画像の尺度が不揃いか否かを判定する(ステップS24)。ステップS24における判定により、複数の画像の尺度が不揃いではないと判定した場合(ステップS24:No)、ステップS26に進む。一方、ステップS24における判定により、複数の画像の尺度が不揃いであると判定した場合(ステップS24:No)、補正部114は、複数の画像の尺度を調整する(ステップS25)。   The detection unit 113 determines whether or not the scales of the plurality of images are uneven (step S24). If it is determined in step S24 that the scales of the plurality of images are not irregular (step S24: No), the process proceeds to step S26. On the other hand, when it is determined in step S24 that the scales of the plurality of images are not uniform (step S24: No), the correction unit 114 adjusts the scales of the plurality of images (step S25).

上記ステップS24における判定の後、又は、ステップS25の処理を終えた後、抽出部112は、撮像部220により撮像された画像から特徴点を抽出する(ステップS26)。   After the determination in step S24 or after finishing the process in step S25, the extraction unit 112 extracts feature points from the image captured by the imaging unit 220 (step S26).

補正部114は、複数の画像の相対位置を検出する(ステップS27)。補正部114は、検出した相対位置に基づいて複数の画像の位置を調整して、調整した画像から新たな画像P613(合成画像)を生成する(ステップS28)。   The correcting unit 114 detects the relative positions of the plurality of images (step S27). The correcting unit 114 adjusts the positions of the plurality of images based on the detected relative positions, and generates a new image P613 (composite image) from the adjusted images (step S28).

以上に示したように、本実施形態の画像処理システム1は、撮像部220により建物2(対象物)を撮像し、当該建物2(対象物)の検出対象の壁面21(面)の状態を検出可能な画像(合成画像)を得ることができる。   As described above, in the image processing system 1 according to the present embodiment, the imaging unit 220 images the building 2 (target object), and the state of the wall surface 21 (surface) that is the detection target of the building 2 (target object). A detectable image (composite image) can be obtained.

このように、複数の指標を用いる画像処理システム1Aは、前述の画像処理システム1の処理と異なる手順で上記の処理を実施するものであるが、画像処理システム1の処理と同様に、撮像部220により建物2(対象物)を撮像し、当該建物2(対象物)の検出対象の壁面21(面)の状態を検出可能な画像(合成画像)を得ることができる。   As described above, the image processing system 1A using a plurality of indices performs the above-described processing in a procedure different from the processing of the above-described image processing system 1, but as with the processing of the image processing system 1, the imaging unit The building 2 (object) can be imaged by 220, and an image (composite image) that can detect the state of the wall surface 21 (surface) to be detected of the building 2 (object) can be obtained.

<第3の実施形態>
図10を参照して、第3の実施形態について説明する。同図は、第3の実施形態における画像処理システムの概略を示す説明図である。同図に示す構成は、画像処理システム1Bを適用した一例を示すものであり、前述の画像処理システム1と画像処理システム1Aに相当する。前述の画像処理システム1と画像処理システム1Aと異なる点を中心に説明する。
<Third Embodiment>
The third embodiment will be described with reference to FIG. FIG. 10 is an explanatory diagram showing an outline of an image processing system in the third embodiment. The configuration shown in the figure shows an example to which the image processing system 1B is applied, and corresponds to the image processing system 1 and the image processing system 1A described above. The description will focus on the differences between the image processing system 1 and the image processing system 1A.

建物2の壁面21の位置に対し相対的に固定された位置から投光する投光部31Aが設けられている。飛行体200に搭載された撮像部220により、異なる位置から撮像される建物2の壁面21(対象物の面)には、飛行体200の移動に影響されないように設けた投光部31Aから投光された像による指標43と指標44とが描かれている。
上記のとおり、本実施形態の1つの投光部31Aから投稿された像は、壁面21(面)において複数に分離するように描かれている。それらの像を指標43と指標44とする。
例えば、投光部31Aは、指標43から指標44をみなす方向を鉛直方向にするように投光する。
撮像部220は、上記の複数の指標を画角に含むように撮像する。
本実施形態の場合、撮像部220により撮像された画像には第1の実施形態等に示したような線状の指標を得ることはない。ただし、撮像された画像における指標43と指標44の像の位置から鉛直方向を読み取ることができる。このように、指標の特徴が上記の実施形態の構成と異なるものとして構成された場合であっても、画像処理システム1Bは、前述の画像処理システム1(1A)と同様に、撮像部220により建物2(対象物)を撮像し、当該建物2(対象物)の検出対象の壁面21(面)の状態を検出可能な画像(合成画像)を得ることができる。
A light projecting portion 31A that projects light from a position fixed relative to the position of the wall surface 21 of the building 2 is provided. The light projecting unit 31A provided on the wall surface 21 (surface of the object) of the building 2 that is imaged from different positions by the imaging unit 220 mounted on the flying object 200 so as not to be affected by the movement of the flying object 200. An index 43 and an index 44 based on the illuminated image are drawn.
As described above, the image posted from one light projecting unit 31A of the present embodiment is drawn so as to be separated into a plurality on the wall surface 21 (surface). These images are referred to as an index 43 and an index 44.
For example, the light projecting unit 31A projects light so that the direction from the index 43 to the index 44 is the vertical direction.
The imaging unit 220 captures an image so as to include the plurality of indices in the angle of view.
In the case of the present embodiment, a linear index as shown in the first embodiment or the like is not obtained in the image captured by the imaging unit 220. However, the vertical direction can be read from the positions of the indices 43 and 44 in the captured image. As described above, even when the feature of the index is configured differently from the configuration of the above-described embodiment, the image processing system 1B uses the imaging unit 220 in the same manner as the image processing system 1 (1A) described above. The building 2 (object) can be imaged, and an image (composite image) that can detect the state of the wall surface 21 (surface) that is the detection target of the building 2 (object) can be obtained.

<第1から第3の実施形態の変形例>
図11を参照して、上記の第1から第3の実施形態の変形例としての画像処理システムについて説明する。同図は、画像処理システム1の変形例の概略を示す説明図である。本変形例は、本発明の第1から第3の実施形態に示した構成と異なり、飛行体200を構成に含まずに構成する。例えば、同図に示すように、建物2の近傍に、建物の高さが建物2と同等又は建物2より高く、複数階からなる建物7が立っているものとする。
上記のように構成された建物2であれば、撮像部220は、建物7の各階又は一部の階から建物2の壁面21を撮像することができる。撮像部220は、飛行体200に依らずに建物2の高さ方向に移動して、建物2の壁面21の画像を撮影する。また、建物7の同一階で当該階を水平方向に移動可能であれば、撮像部220は、建物7の同一階を水平方向に移動して画像を取得してもよい。
以上の変形例は、第1の実施形態の変形例として適用することに限られず、第2の実施形態と第3の実施形態の変形例として適用することができる。
<Modification of the first to third embodiments>
With reference to FIG. 11, an image processing system as a modified example of the first to third embodiments will be described. FIG. 1 is an explanatory diagram showing an outline of a modification of the image processing system 1. Unlike the configurations shown in the first to third embodiments of the present invention, the present modification is configured without including the flying body 200 in the configuration. For example, as shown in the figure, it is assumed that a building 7 having a plurality of floors stands in the vicinity of the building 2 where the height of the building is equal to or higher than the building 2.
If it is the building 2 comprised as mentioned above, the imaging part 220 can image the wall surface 21 of the building 2 from each floor of the building 7, or a one part floor. The imaging unit 220 moves in the height direction of the building 2 without depending on the flying body 200 and captures an image of the wall surface 21 of the building 2. Further, if the floor can be moved in the horizontal direction on the same floor of the building 7, the imaging unit 220 may acquire the image by moving the same floor of the building 7 in the horizontal direction.
The above modifications are not limited to being applied as modifications of the first embodiment, but can be applied as modifications of the second embodiment and the third embodiment.

以上に示したように、上記変形例の画像処理システムは、撮像部220により建物2(対象物)を撮像し、当該建物2(対象物)の検出対象の壁面21(面)の状態を検出可能な画像(合成画像)を得ることができる。   As described above, in the image processing system according to the modified example, the imaging unit 220 images the building 2 (target object) and detects the state of the wall surface 21 (surface) that is the detection target of the building 2 (target object). Possible images (composite images) can be obtained.

以上、本発明の実施形態について説明したが、画像処理システム1は、内部にコンピュータシステムを有している。そして、上述した処理に関する一連の処理の過程は、プログラムの形式でコンピュータ読み取り可能な記憶媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここで、コンピュータ読み取り可能な記憶媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。また、ここでいう「コンピュータシステム」とは、OS等も含むものとする。   Although the embodiment of the present invention has been described above, the image processing system 1 has a computer system inside. A series of processes related to the above-described process is stored in a computer-readable storage medium in the form of a program, and the above-described process is performed by the computer reading and executing this program. Here, the computer-readable storage medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program. The “computer system” here includes an OS and the like.

そして、画像処理システム1における画像処理装置100、飛行体200、撮像部220における各処理の全部又は一部の処理は、CPU等の中央演算処理装置がROMやRAM等の主記憶装置に上記プログラムを読み出して、情報の加工、演算処理を実行することにより、実現されるものである。勿論、画像処理システム1を構成する各処理部は専用のハードウェアにより実現されるものであってもよい。   Then, all or a part of each processing in the image processing apparatus 100, the flying object 200, and the imaging unit 220 in the image processing system 1 is performed by a central processing unit such as a CPU in the main storage device such as a ROM or a RAM. Is read out and information processing and calculation processing are executed. Of course, each processing unit constituting the image processing system 1 may be realized by dedicated hardware.

以上、本発明の実施の形態について説明したが、本発明の画像処理システムは、上述の図示例にのみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。   Although the embodiments of the present invention have been described above, the image processing system of the present invention is not limited to the illustrated examples described above, and various modifications can be made without departing from the scope of the present invention. Of course.

(1)なお、本実施形態に示す画像処理システム1において、異なる位置から撮像部により撮像される対象物の面(壁面21)には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による指標が描かれている。抽出部112が、撮像部220により撮像された画像から指標41と前記対象物の面(壁面21)の特徴点5とを抽出する。検出部113が、対象物の面(壁面21)に沿って位置を変える前記撮像部が前記異なる位置から撮像して得た複数の画像のそれぞれから前記抽出された指標と前記対象物の面の特徴点とを基準にして、前記複数の画像の相対位置を検出する。
これにより、画像処理システム1は、撮像部220により対象物を撮像し、当該対象物の検出対象の壁面21(面)の状態を検出可能な画像(合成画像)を得ることができる。
(1) In the image processing system 1 shown in the present embodiment, the light projection provided on the surface (wall surface 21) of the object imaged by the imaging unit from different positions at a position not affected by the movement of the imaging unit. The index by the image projected from the part is drawn. The extraction unit 112 extracts the index 41 and the feature point 5 of the surface (wall surface 21) of the object from the image captured by the imaging unit 220. The detection unit 113 changes the position along the surface (wall surface 21) of the object. The index extracted from each of the plurality of images obtained by the imaging unit imaging from the different positions and the surface of the object The relative positions of the plurality of images are detected with reference to the feature points.
Thereby, the image processing system 1 can capture an image of the object by the image capturing unit 220 and obtain an image (composite image) that can detect the state of the wall surface 21 (surface) of the detection target of the object.

(2)また、上記の画像処理システム1によれば、補正部114は、前記抽出された指標(指標41)と前記対象物の面(壁面21)の特徴点5との距離d1、又は、前記抽出された指標(指標41)と前記対象物の面(壁面21)の特徴点5の大きさW1に基づいて、前記複数の画像の尺度が合うように一又は複数の画像を調整する。
これにより、画像処理システム1は、撮像部220により対象物を撮像し、撮像された画像の尺度を調整して、当該対象物の検出対象の壁面21(面)の状態を検出可能な画像(合成画像)を得ることができる。
(2) Moreover, according to said image processing system 1, the correction | amendment part 114 is the distance d1 between the extracted parameter | index (index | index 41) and the feature point 5 of the surface (wall surface 21) of the said object, or Based on the extracted index (index 41) and the size W1 of the feature point 5 of the surface (wall surface 21) of the object, one or a plurality of images are adjusted so that the scales of the plurality of images match.
Thereby, the image processing system 1 images an object by the imaging unit 220, adjusts the scale of the captured image, and can detect the state of the wall surface 21 (surface) of the detection target of the object ( Composite image) can be obtained.

(3)また、上記の画像処理システム1によれば、補正部114は、少なくとも前記抽出された指標に基づいて、前記画像の歪を補正する。
これにより、画像処理システム1は、撮像部220により対象物を撮像し、撮像された画像の歪が補正されて、当該対象物の検出対象の壁面21(面)の状態を検出可能な画像(合成画像)を得ることができる。
(3) Moreover, according to said image processing system 1, the correction | amendment part 114 correct | amends the distortion of the said image based on the said extracted parameter | index at least.
As a result, the image processing system 1 captures an object by the image capturing unit 220, corrects the distortion of the captured image, and can detect the state of the wall surface 21 (surface) of the detection target of the object ( Composite image) can be obtained.

(4)また、上記の画像処理システム1によれば、検出部113は、前記複数の指標(指標41と指標42、又は、指標43と指標44)を前記画像から抽出し、前記抽出した複数の指標に基づいて前記対象物の面(壁面21)に対する撮像部220の光軸の向きを検出する。   (4) Further, according to the image processing system 1 described above, the detection unit 113 extracts the plurality of indexes (the index 41 and the index 42, or the index 43 and the index 44) from the image, and the extracted plurality of the indexes. The direction of the optical axis of the imaging unit 220 with respect to the surface (wall surface 21) of the object is detected based on the index.

(5)また、上記の画像処理システム1によれば、補正部114は、前記対象物の面(壁面21)に対する撮像部220の光軸の向きの検出結果に基づいて、撮像部220が撮像した画像の歪を補正する。
これにより、画像処理システム1は、撮像部220により対象物を撮像し、撮像された画像の歪を補正して、当該対象物の検出対象の壁面21(面)の状態を検出可能な画像(合成画像)を得ることができる。
(5) According to the image processing system 1 described above, the correction unit 114 causes the imaging unit 220 to capture images based on the detection result of the direction of the optical axis of the imaging unit 220 with respect to the surface (wall surface 21) of the object. Correct the distortion of the image.
As a result, the image processing system 1 captures an object with the image capturing unit 220, corrects distortion of the captured image, and detects an image (the surface) of the detection target wall surface 21 (surface). Composite image) can be obtained.

1 画像処理システム、2 建物(対象物)、21 壁面(面)、7 建物、
31、32 投光部、41、42 指標、5 特徴点、
100 画像処理装置、111 取得部、112 抽出部、113 検出部、114 補正部、115 入出力部、120 記憶部、
200 飛行体、220 撮像部、
611、612 画角、
P611、P612、P612A、P612F、P612L、P612N、P612U、P613、P613A 画像
1 image processing system, 2 building (object), 21 wall surface (surface), 7 building,
31, 32 Projection unit, 41, 42 Index, 5 Feature points,
100 image processing apparatus, 111 acquisition unit, 112 extraction unit, 113 detection unit, 114 correction unit, 115 input / output unit, 120 storage unit,
200 aircraft, 220 imaging unit,
611, 612 angle of view,
P611, P612, P612A, P612F, P612L, P612N, P612U, P613, P613A images

Claims (9)

互いに異なる位置から撮像部により撮像される対象物の面には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による1又は複数の指標が描かれており、前記撮像部により撮像された画像から前記1又は複数の指標と前記対象物の面の特徴点とを抽出する抽出部と、
前記対象物の面に沿うように前記対象物の位置に対して前記互いに異なる位置に位置を変える前記撮像部が前記互いに異なる位置から撮像して複数の画像を得て、前記得られた複数の画像のそれぞれから前記抽出された1又は複数の指標と前記対象物の面の特徴点とを基準にして、前記複数の画像の相対位置を検出する検出部と
を備え
前記投光部は、前記撮像部とは独立して形成され、前記投光部の位置が前記対象物の位置に対して相対的に固定される
ことを特徴とする画像処理システム。
On the surface of the object imaged by the imaging unit from different positions, one or a plurality of indices are drawn by the image projected from the light projecting unit provided at a position not affected by the movement of the imaging unit, An extraction unit that extracts the one or more indices and feature points of the surface of the object from an image captured by the imaging unit;
To obtain a plurality of images the image pickup unit for changing the position in the different positions relative to the position of the object in along Migihitsuji the surface of the object is imaged from the different positions, a plurality of the obtained A detection unit that detects relative positions of the plurality of images based on the one or more indices extracted from each of the images and feature points of the surface of the object ,
The light projecting unit is formed independently of the imaging unit, and the position of the light projecting unit is fixed relative to the position of the object .
互いに異なる位置から撮像部により撮像される対象物の面には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による1又は複数の指標が描かれており、
前記撮像部により撮像された画像から、前記画像に線状に描かれた前記1又は複数の指標と前記対象物の面の特徴点とを抽出する抽出部と、
前記対象物の面に沿うように位置を変える前記撮像部が前記互いに異なる位置から撮像して複数の画像を得て、前記得られた複数の画像のそれぞれから前記抽出された1又は複数の指標と前記対象物の面の特徴点とを基準にして、前記複数の画像の相対位置を検出する検出部と
を備え、
前記対象物の面の前記特徴点に基づく第1データと、前記線状に描かれた前記1又は複数の指標の幾何学的特徴に基づく第2データとが生成され、前記第1データと前記第2データとに基づいて画像を調整するためのデータを生成する
ことを特徴とする画像処理システム。
On the surface of the object imaged by the imaging unit from different positions, one or a plurality of indices are drawn by the image projected from the light projecting unit provided at a position not affected by the movement of the imaging unit,
An extraction unit that extracts the one or more indices drawn linearly in the image and feature points of the surface of the object from an image captured by the imaging unit;
To obtain a plurality of images the image pickup unit to change the position in along Migihitsuji the surface of the object is imaged from the different positions, from each of the plurality of images the obtained one or more of which is the extraction A detection unit that detects relative positions of the plurality of images on the basis of an index and a feature point of the surface of the object; and
First data based on the feature points of the surface of the object and second data based on geometric features of the one or more indices drawn in a line are generated, and the first data and the An image processing system for generating data for adjusting an image based on the second data .
前記抽出された1又は複数の指標と前記対象物の面の特徴点との距離、又は、前記抽出された1又は複数の指標と前記対象物の面の特徴点の大きさに基づいて、前記複数の画像の尺度が合うように一又は複数の画像を調整する補正部
を備えることを特徴とする請求項1又は請求項2に記載の画像処理システム。
The distance between the feature points of the face of said extracted one or more indicators and the object, or, based on the size of the feature points of the face of said extracted one or more indicators and the object, wherein the image processing system according to claim 1 or claim 2, characterized in that it comprises a correction unit for adjusting the one or more images to fit the measures of the plurality of images.
少なくとも前記抽出された1又は複数の指標に基づいて、前記画像の歪を補正する補正部
を備えることを特徴とする請求項1又は請求項2に記載の画像処理システム。
Based on one or more indicators is at least the extracted image processing system according to claim 1 or claim 2, characterized in that it comprises a correction unit for correcting the distortion of the image.
前記検出部は、
前記撮像された画像の歪を調整可能な前記1又は複数の指標を前記撮像された画像から抽出し、前記抽出した1又は複数の指標に基づいて前記対象物の面に対する前記撮像部の光軸の向きを検出する
ことを特徴とする請求項又は請求項に記載の画像処理システム。
The detector is
The one or more indices that can adjust the distortion of the captured image are extracted from the captured image, and the optical axis of the imaging unit with respect to the surface of the object based on the extracted one or more indices The image processing system according to claim 3 or 4 , wherein the direction of the image is detected.
前記補正部は、
前記対象物の面に対する前記撮像部の光軸の向きの検出結果に基づいて、前記撮像部が撮像した画像の歪を補正する
ことを特徴とする請求項に記載の画像処理システム。
The correction unit is
The image processing system according to claim 5 , wherein distortion of an image captured by the imaging unit is corrected based on a detection result of an optical axis direction of the imaging unit with respect to the surface of the object.
互いに異なる位置から撮像部により撮像される対象物の面には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による1又は複数の指標が描かれており、前記撮像部により撮像された画像から前記1又は複数の指標と前記対象物の面の特徴点とを抽出部が抽出するステップと、
前記対象物の面にうように前記対象物の位置に対して前記互いに異なる位置に位置を変える前記撮像部が前記互いに異なる位置から撮像して複数の画像を得て、前記得られた複数の画像のそれぞれから前記抽出された1又は複数の指標と前記対象物の面の特徴点とを基準にして、
前記複数の画像の相対位置を検出するステップと
を含み、
前記投光部は、前記撮像部とは独立して形成され、
前記投光部の位置が前記対象物の位置に対して相対的に固定される
ことを特徴とする画像処理方法。
On the surface of the object imaged by the imaging unit from different positions, one or a plurality of indices are drawn by the image projected from the light projecting unit provided at a position not affected by the movement of the imaging unit, An extraction unit extracting the one or more indices and feature points of the surface of the object from an image captured by the imaging unit;
To obtain a plurality of images the image pickup unit for changing the position in the different positions relative to the position of the object to Migihitsuji the surface of the object is imaged from the different positions, the resulting plurality of Based on the one or more indices extracted from each of the images and the feature points of the surface of the object,
Look including the step of detecting the relative positions of the plurality of images,
The light projecting unit is formed independently of the imaging unit,
An image processing method, wherein the position of the light projecting unit is fixed relative to the position of the object .
互いに異なる位置から撮像部により撮像される対象物の面には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による1又は複数の指標が描かれており、
前記撮像部により撮像された画像から、前記画像に線状に描かれた前記1又は複数の指標と前記対象物の面の特徴点とを抽出部が抽出するステップと、
前記対象物の面に沿うように位置を変える前記撮像部が前記互いに異なる位置から撮像して複数の画像を得て、前記得られた複数の画像のそれぞれから前記抽出された1又は複数の指標と前記対象物の面の特徴点とを基準にして、前記複数の画像の相対位置を検出するステップと、
前記対象物の面の前記特徴点に基づく第1データと、前記線状に描かれた前記指標の幾何学的特徴に基づく第2データとを生成し、前記第1データと前記第2データとに基づいて画像を調整するためのデータを生成するステップと
を含むことを特徴とする画像処理方法。
On the surface of the object imaged by the imaging unit from different positions, one or a plurality of indices are drawn by the image projected from the light projecting unit provided at a position not affected by the movement of the imaging unit,
An extraction unit extracting the one or more indices drawn linearly in the image and feature points of the surface of the object from an image captured by the imaging unit;
To obtain a plurality of images the image pickup unit to change the position in along Migihitsuji the surface of the object is imaged from the different positions, from each of the plurality of images the obtained one or more of which is the extraction Detecting relative positions of the plurality of images based on an index and a feature point of the surface of the object;
Generating first data based on the feature point of the surface of the object and second data based on a geometric feature of the index drawn in a line, the first data and the second data; Generating data for adjusting the image based on the image processing method.
互いに異なる位置から撮像部により撮像される対象物の面には、前記撮像部の移動に影響されない位置に設けた投光部から投光された像による1又は複数の指標が描かれており、
前記撮像部により撮像された画像から、前記画像に線状に描かれた前記1又は複数の指標と前記対象物の面の特徴点とを抽出部が抽出するステップと、
前記対象物の面に沿うように位置を変える前記撮像部が前記互いに異なる位置から撮像して複数の画像を得て、前記得られた複数の画像のそれぞれから前記抽出された1又は複数の指標と前記対象物の面の特徴点とを基準にして、前記複数の画像の相対位置を検出するステップと
前記対象物の面の前記特徴点に基づく第1データと、前記線状に描かれた前記1又は複数の指標の幾何学的特徴に基づく第2データとを生成するステップと、
前記第1データと前記第2データとに基づいて画像を調整するためのデータを生成するステップと
を画像処理システムのコンピュータに実行させるためのプログラム。
On the surface of the object imaged by the imaging unit from different positions, one or a plurality of indices are drawn by the image projected from the light projecting unit provided at a position not affected by the movement of the imaging unit,
An extraction unit extracting the one or more indices drawn linearly in the image and feature points of the surface of the object from an image captured by the imaging unit;
To obtain a plurality of images the image pickup unit to change the position in along Migihitsuji the surface of the object is imaged from the different positions, from each of the plurality of images the obtained one or more of which is the extraction Detecting relative positions of the plurality of images based on an index and a feature point of the surface of the object ;
Generating first data based on the feature points of the surface of the object and second data based on geometric features of the one or more indices drawn in a line;
A program for causing a computer of an image processing system to execute a step of generating data for adjusting an image based on the first data and the second data .
JP2015111219A 2015-06-01 2015-06-01 Image processing system, image processing method, and program Active JP6568722B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015111219A JP6568722B2 (en) 2015-06-01 2015-06-01 Image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015111219A JP6568722B2 (en) 2015-06-01 2015-06-01 Image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2016223935A JP2016223935A (en) 2016-12-28
JP6568722B2 true JP6568722B2 (en) 2019-08-28

Family

ID=57748062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015111219A Active JP6568722B2 (en) 2015-06-01 2015-06-01 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6568722B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198634A1 (en) 2017-04-28 2018-11-01 ソニー株式会社 Information processing device, information processing method, information processing program, image processing device, and image processing system
JP7142280B2 (en) * 2017-10-30 2022-09-27 株式会社フジタ Condition evaluation device for inspection objects

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09161068A (en) * 1995-12-12 1997-06-20 Furukawa Electric Co Ltd:The Picture photographing method and picture edition device using the method
JPH09284749A (en) * 1996-04-12 1997-10-31 Furukawa Electric Co Ltd:The Photographing method for wall surface inside tunnel and photographing device using the method
JP2004046772A (en) * 2002-05-13 2004-02-12 3D Media Co Ltd Method, system and apparatus for processing image
JP2006132973A (en) * 2004-11-02 2006-05-25 Fujimitsu Komuten:Kk Crack inspection device and method of concrete structure
US9952316B2 (en) * 2010-12-13 2018-04-24 Ikegps Group Limited Mobile measurement devices, instruments and methods
JP5840909B2 (en) * 2011-10-14 2016-01-06 日立Geニュークリア・エナジー株式会社 Inspection apparatus and method

Also Published As

Publication number Publication date
JP2016223935A (en) 2016-12-28

Similar Documents

Publication Publication Date Title
US11893721B2 (en) Defect detection apparatus and medium
KR101924191B1 (en) Image processing device and method of image processing device
JP5650942B2 (en) Inspection system and inspection method
JP2017514117A (en) Aligning non-integrated surrounding spaces to clusters using visualized clusters
JP6734583B2 (en) Image processing system, image processing method and program for inspecting structures such as bridges
WO2008133315A1 (en) Multiple-point measuring method and survey instrument
JP6296206B2 (en) Shape measuring apparatus and shape measuring method
JP5447516B2 (en) Image processing apparatus, image processing method, program, and microscope
JP2015536468A (en) Profile measuring method and apparatus
WO2021117793A1 (en) Survey system and survey method
JP6568722B2 (en) Image processing system, image processing method, and program
JP2018036769A (en) Image processing apparatus, image processing method, and program for image processing
WO2011118476A1 (en) Three dimensional distance measuring device and method
JP2017005353A (en) Imaging system, imaging method and program
JP2014006188A (en) Radar monitoring system, image acquiring method, image acquiring program
JP2011101265A (en) Method and device for calculation of calibration information, and wide angle image processing apparatus
JP6564693B2 (en) Imaging apparatus, imaging apparatus control method, and determination program
CN111527517A (en) Image processing apparatus and control method thereof
JP6869880B2 (en) Inspection image compositing device, inspection image compositing system, inspection image compositing method and program
JP7357717B2 (en) Image processing device and its control method
JP4598881B1 (en) Crack investigation device, crack investigation method and crack investigation program
JP6722000B2 (en) Surveying support device
JP7044331B2 (en) Image processing systems, image processing methods and programs for efficiently inspecting structures such as bridges
JP2009069114A (en) Stereo image adjusting method, stereo image adjusting system, and stereo image adjusting program
JP6022330B2 (en) Camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190805

R150 Certificate of patent or registration of utility model

Ref document number: 6568722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250