JP7153264B2 - Image analysis system, image analysis method and image analysis program - Google Patents

Image analysis system, image analysis method and image analysis program Download PDF

Info

Publication number
JP7153264B2
JP7153264B2 JP2018146124A JP2018146124A JP7153264B2 JP 7153264 B2 JP7153264 B2 JP 7153264B2 JP 2018146124 A JP2018146124 A JP 2018146124A JP 2018146124 A JP2018146124 A JP 2018146124A JP 7153264 B2 JP7153264 B2 JP 7153264B2
Authority
JP
Japan
Prior art keywords
attribute
imaging
image data
shape information
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018146124A
Other languages
Japanese (ja)
Other versions
JP2020021368A (en
Inventor
聡 飯尾
喜一 杉本
健太 中尾
知浩 松本
信一 円谷
静香 高橋
弘亘 藤吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Chubu University Educational Foundation
Original Assignee
Mitsubishi Heavy Industries Ltd
Chubu University Educational Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd, Chubu University Educational Foundation filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2018146124A priority Critical patent/JP7153264B2/en
Publication of JP2020021368A publication Critical patent/JP2020021368A/en
Application granted granted Critical
Publication of JP7153264B2 publication Critical patent/JP7153264B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、撮像装置によって撮像された画像データを解析することで属性判定を行う画像解析システム、画像解析方法及び画像解析プログラムに関する。 The present disclosure relates to an image analysis system, an image analysis method, and an image analysis program that perform attribute determination by analyzing image data captured by an imaging device.

対象エリアを撮像して取得した画像を解析することにより、画像に含まれる要素の属性
を判定する技術が知られている。ここで属性とは、画像に含まれる要素が属する性質又は特徴をいい、属性の判定とは、予め定義されている複数の属性の中から要素が属する属性を判定することをいう。このような属性は、例えば、植物や動物等の植生、人工物、水、空、道路及び土壌などがある。
2. Description of the Related Art Techniques for determining attributes of elements included in an image by analyzing an image obtained by imaging a target area are known. Here, an attribute refers to a property or feature to which an element included in an image belongs, and determination of an attribute refers to determination of an attribute to which an element belongs from a plurality of predefined attributes. Such attributes include, for example, vegetation such as plants and animals, man-made objects, water, sky, roads and soil.

例えば特許文献1には、このような属性判定技術を利用することにより、撮像された画像データから自然災害や人的災害の被害域を自動抽出する被害域自動抽出システムが開示されている。このシステムでは、読み込んだ画像データを構成する画素の輝度によって属性判定することにより被害域の特定が行われている。 For example, Patent Literature 1 discloses a damage area automatic extraction system that automatically extracts a damage area of a natural disaster or man-made disaster from captured image data by using such an attribute determination technique. In this system, a damaged area is identified by attribute determination based on the brightness of pixels forming read image data.

特許第3924569号公報Japanese Patent No. 3924569

上記特許文献1では、単一の画像データを対象として属性判定が行われている。そのため、対象となる画像データの状態によっては十分な属性判定ができないおそれがある。例えば、撮像時の照明条件によって、画像データ中にハレーション領域が発生していたり、照度不足による低コントラスト領域が発生している場合には、これらの領域における属性判定が困難になってしまう場合がある。また対象エリアに対して所定角度から撮像した画像データには、対象エリアの地形や障害物(樹木や建物など)の存在によって一部領域が死角になってしまい、対象エリアの広範囲における属性判定が困難になってしまう場合がある。 In Patent Document 1, attribute determination is performed on single image data. Therefore, depending on the state of the target image data, there is a possibility that sufficient attribute determination cannot be made. For example, depending on the lighting conditions at the time of shooting, if halation areas occur in the image data, or if low-contrast areas occur due to insufficient illuminance, it may be difficult to determine attributes in these areas. be. In addition, in the image data captured from a predetermined angle of the target area, some areas become blind spots due to the terrain of the target area and the presence of obstacles (trees, buildings, etc.). It can get difficult.

本発明の少なくとも一実施形態は上述の事情に鑑みなされたものであり、対象エリアの広い範囲にわたって精度のよい属性判定が可能な画像解析システム、画像解析方法及び画像解析プログラムを提供することを目的とする。 At least one embodiment of the present invention has been made in view of the above circumstances, and an object thereof is to provide an image analysis system, an image analysis method, and an image analysis program capable of accurately determining attributes over a wide range of a target area. and

(1)本発明の少なくとも一実施形態に係る画像解析システムは上記課題を解決するために、
異なる角度から対象エリアを撮像した複数の画像データを取得する画像データ取得部と、
前記複数の画像データの各々について画素毎に属性を判定する属性判定部と、
前記複数の画像データに含まれる各画素を互いに関連付けることにより、前記対象エリアにおける形状情報を作成する形状情報作成部と、
前記形状情報に含まれる各点について前記属性判定部による判定結果を集計することにより前記対象エリアにおける属性分布を算出する属性分布算出部と、
を備える。
(1) In order to solve the above problems, the image analysis system according to at least one embodiment of the present invention
an image data acquisition unit that acquires a plurality of image data obtained by imaging a target area from different angles;
an attribute determination unit that determines an attribute for each pixel of each of the plurality of image data;
a shape information creation unit that creates shape information in the target area by associating each pixel included in the plurality of image data with each other;
an attribute distribution calculation unit that calculates an attribute distribution in the target area by summing up determination results by the attribute determination unit for each point included in the shape information;
Prepare.

上記(1)の構成によれば、異なる角度から対象エリアを撮像した複数の画像データにおいて、互いに対応する画素同士を関連付けることにより形状情報が作成される。形状情報に含まれる各点に対して各画像データにおける属性の判定結果を集計することにより、単一の画像データでは属性判定が困難な領域が存在する場合であっても、当該領域を補間し、広い範囲にわたって属性判定を行うことができる。また複数の画像データにおける属性の判定結果を集計することで、単一の画像データによる属性判定に比べて精度の高い判定結果が得られる。 According to the configuration (1) above, shape information is created by associating corresponding pixels in a plurality of image data obtained by imaging the target area from different angles. By aggregating the attribute determination results for each image data for each point included in the shape information, even if there is an area where attribute determination is difficult with a single image data, the area can be interpolated. , attribute determination can be performed over a wide range. In addition, by aggregating the attribute determination results for a plurality of image data, it is possible to obtain a highly accurate determination result compared to attribute determination based on single image data.

(2)幾つかの実施形態では上記(1)の構成において、
前記属性分布算出部は、前記形状情報の各点について前記属性の種類毎に判定回数をカウントし、前記判定回数が最大となる種類の前記属性を採用することによって、前記属性分布を算出する。
(2) In some embodiments, in the configuration of (1) above,
The attribute distribution calculation unit calculates the attribute distribution by counting the number of determinations for each type of the attribute for each point of the shape information and adopting the attribute of the type with the maximum number of determinations.

上記(2)の構成によれば、形状情報に含まれる各点について各画像データにおける属性の判定結果を集計する際に、各点において判定回数が最大となった属性が採用される。これにより、判定頻度が最も高い属性の判定結果に基づいて信頼性の高い属性分布が得られる。 According to the above configuration (2), when summarizing the attribute determination results in each image data for each point included in the shape information, the attribute with the largest number of times of determination at each point is adopted. As a result, a highly reliable attribute distribution can be obtained based on the determination result of the attribute with the highest determination frequency.

(3)幾つかの実施形態では上記(1)の構成において、
前記属性判定分類部は、前記属性の種類毎にスコアを求め、
前記属性分布算出部は、前記形状情報の各点について前記属性の種類毎に前記スコアの合計値を算出し、前記合計値が最大となる種類の前記属性を採用することにより、前記属性分布を算出する。
(3) In some embodiments, in the configuration of (1) above,
The attribute determination and classification unit obtains a score for each attribute type,
The attribute distribution calculation unit calculates the total value of the scores for each type of the attribute for each point of the shape information, and adopts the attribute of the type having the maximum total value, thereby calculating the attribute distribution. calculate.

上記(3)の構成によれば、画像データに含まれる各画素について属性の種類毎にスコア(例えば属性種類毎の確率値)を求めることで属性判定が行われる。そして、集計時には形状情報に含まれる各点について、各画像データで求められたスコアの合計値が算出され、最終的に合計値が最大となる種類の属性を採用することで属性分布が求められる。 With configuration (3) above, attribute determination is performed by obtaining a score for each attribute type (for example, a probability value for each attribute type) for each pixel included in image data. Then, at the time of aggregation, for each point included in the shape information, the total value of the scores obtained from each image data is calculated, and finally the attribute distribution is obtained by adopting the type of attribute with the maximum total value. .

(4)幾つかの実施形態では上記(2)又は(3)の構成において、
前記複数の画像データの各々について画素毎に撮像点からの距離を算出する距離算出部を備え、
前記属性分布算出部は、前記形状情報に含まれる各点について前記距離に応じた重み付け係数を設定する。
(4) In some embodiments, in the configuration of (2) or (3) above,
A distance calculation unit that calculates a distance from the imaging point for each pixel of each of the plurality of image data,
The attribute distribution calculator sets a weighting factor according to the distance for each point included in the shape information.

上記(3)の構成によれば、属性分布を算出する際に形状情報の各点について属性の判定結果を集計する際に、各画像データにおいて撮像点と各画素との距離に応じた重み付け係数が考慮される。重み付け係数は、例えば撮像点からの距離が近い画素に関する判定結果は、撮像点からの距離が遠い画素に関する判定結果に比べて信頼性が高いことに鑑みて、距離に応じて可変に設定される。このような重み付け係数を考慮した集計を行うことで、より信頼性の高い属性分布が得られる。 According to the configuration (3) above, when summing the attribute determination results for each point of the shape information when calculating the attribute distribution, a weighting coefficient corresponding to the distance between the imaging point and each pixel in each image data is considered. The weighting factor is variably set according to the distance, considering that the determination results for pixels closer to the imaging point are more reliable than the determination results for pixels farther from the imaging point, for example. . A more reliable attribute distribution can be obtained by aggregating in consideration of such weighting coefficients.

(5)幾つかの実施形態では上記(1)から(4)のいずれか一構成において、
前記属性分布に基づいて前記対象エリアにおける特異地点を特定する特異地点特定部と、
を備える。
(5) In some embodiments, in any one configuration of (1) to (4) above,
a peculiar point identifying unit that identifies a peculiar point in the target area based on the attribute distribution;
Prepare.

上記(5)の構成によれば、上述の構成によって算出される属性分布に基づいて、対象エリアにおける特異地点の有無や範囲を容易に特定できる。 With configuration (5) above, it is possible to easily specify the presence or absence and range of a singular point in the target area based on the attribute distribution calculated by the above configuration.

(6)幾つかの実施形態では上記(5)の構成において、
前記属性分布をデジタル地図に重畳表示可能な出力装置を備える。
(6) In some embodiments, in the configuration of (5) above,
An output device capable of superimposing and displaying the attribute distribution on a digital map is provided.

上記(6)の構成によれば、上述の構成によって算出される属性分布をデジタル地図に重畳表示することで、オペレータによる属性分布の状況把握を容易にすることができる。 According to the above configuration (6), the attribute distribution calculated by the above configuration is displayed superimposed on the digital map, so that the operator can easily grasp the attribute distribution situation.

(7)幾つかの実施形態では上記(6)の構成において、
前記出力装置は、前記特異地点を周辺領域と区別して表示する。
(7) In some embodiments, in the configuration of (6) above,
The output device displays the singular point by distinguishing it from the surrounding area.

上記(7)の構成によれば、対象エリアにおける特異地点の有無及び範囲のオペレータによる認識を容易にできる。 With configuration (7) above, it is possible for the operator to easily recognize the existence and range of the peculiar point in the target area.

(8)幾つかの実施形態では上記(1)から(7)のいずれか一構成において、
前記形状情報は、前記複数の画像データに基づいて作成される三次元情報である。
(8) In some embodiments, in any one configuration of (1) to (7) above,
The shape information is three-dimensional information created based on the plurality of image data.

上記(8)の構成によれば、複数の画像データに含まれる各画素を関連付けることで、対象エリアにおける凹凸地形を三次元情報として把握できる。 According to the configuration (8) above, by associating each pixel included in a plurality of image data, the uneven terrain in the target area can be grasped as three-dimensional information.

(9)幾つかの実施形態では上記(1)から(8)のいずれか一構成において、
前記属性分布算出部は、前記形状情報に基づいて求められるオクルージョンを考慮して前記属性分布を算出する。
(9) In some embodiments, in any one configuration of (1) to (8) above,
The attribute distribution calculation unit calculates the attribute distribution in consideration of occlusion obtained based on the shape information.

上記(9)の構成によれば、形状情報に基づいて対象エリアにおける凹凸地形からオクルージョン(隠れ)が求められる。このようなオクルージョンを考慮することにより、明らかにエラーである属性判定を排除することができ、属性分布の精度向上を図ることができる。 With configuration (9) above, occlusion (hiding) is obtained from the uneven topography in the target area based on the shape information. By taking such occlusion into account, it is possible to eliminate attribute determinations that are clearly erroneous, and to improve the accuracy of attribute distribution.

(10)幾つかの実施形態では上記(1)から(9)のいずれか一構成において、
前記複数の画像を撮像可能な撮像装置を搭載する移動体と、
前記移動体を制御するための移動制御部と、
前記撮像装置を制御するための撮像制御部と、
を備える。
(10) In some embodiments, in any one configuration of (1) to (9) above,
a moving body equipped with an imaging device capable of imaging the plurality of images;
a movement control unit for controlling the moving body;
an imaging control unit for controlling the imaging device;
Prepare.

上記(10)の構成によれば、移動制御部によって対象エリアに対する移動体の位置を変更させながら、撮像制御部によって撮像装置による撮像動作が制御される。これにより、対象エリアに対して異なる角度から複数の画像データを取得することが可能となる。 With configuration (10) above, the imaging operation of the imaging device is controlled by the imaging controller while the position of the moving body relative to the target area is changed by the movement controller. This makes it possible to acquire a plurality of image data from different angles with respect to the target area.

(11)幾つかの実施形態では上記(10)の構成において、
前記撮像制御部は、各撮像点において異なる複数の撮像条件下で撮像が行われるように前記撮像装置を制御し、
前記画像データ取得部は、前記撮像装置で撮像された前記複数の画像データから所定の品質基準を満たす画像データを選択的に取得する。
(11) In some embodiments, in the configuration of (10) above,
The imaging control unit controls the imaging device so that imaging is performed under a plurality of different imaging conditions at each imaging point,
The image data acquisition unit selectively acquires image data that satisfies a predetermined quality standard from the plurality of image data captured by the imaging device.

上記(11)の構成によれば、各撮像点において異なる複数の撮像条件下で撮像を行うことで、品質のよい撮像データの取得可能性を効果的に向上させることができる。画像データ取得部では、このように撮像された複数の撮像データから所定の品質基準を満たす画像データを選択的に取得することで、属性判定精度をより向上・処理時間をより短縮させられる。 With configuration (11) above, by performing imaging under a plurality of different imaging conditions at each imaging point, it is possible to effectively improve the possibility of obtaining high-quality imaging data. The image data acquisition unit selectively acquires image data that satisfies a predetermined quality standard from a plurality of captured image data, thereby further improving the attribute determination accuracy and shortening the processing time.

(12)幾つかの実施形態では上記(11)の構成において、
前記複数の撮像条件は、前記撮像装置の撮影位置/角度、露光時間、焦点距離、絞り値或いは環境条件を含む少なくとも一つの撮像パラメータが異なるように設定される。
(12) In some embodiments, in the configuration of (11) above,
The plurality of imaging conditions are set such that at least one imaging parameter including the imaging position/angle of the imaging device, exposure time, focal length, aperture value, or environmental condition is different.

上記(12)の構成によれば、各撮像地点において、これらの撮像パラメータの少なくとも一つが異なる複数の撮像条件下で撮像が行われることで、属性判定精度をより向上・処理時間をより短縮させられる。 According to the configuration (12) above, at each imaging point, imaging is performed under a plurality of imaging conditions in which at least one of these imaging parameters is different, thereby further improving the attribute determination accuracy and shortening the processing time. be done.

(13)幾つかの実施形態では上記(12)の構成において、
前記複数の撮像条件は、前記撮像パラメータの差分が所定値以上に設定される。
(13) In some embodiments, in the configuration of (12) above,
The plurality of imaging conditions are set such that the difference between the imaging parameters is equal to or greater than a predetermined value.

上記(13)の構成によれば、複数の撮像条件では、各撮像条件に含まれる撮像パラメータの差分が所定値以上に設定されることで、より幅広い撮像条件で撮像データが取得されるため、各撮像点において品質のよい撮像データの取得確率をより効果的に向上できる。 According to the above configuration (13), in a plurality of imaging conditions, the difference in the imaging parameters included in each imaging condition is set to be equal to or greater than a predetermined value, so that imaging data can be acquired under a wider range of imaging conditions. It is possible to more effectively improve the acquisition probability of high-quality imaging data at each imaging point.

(14)本発明の少なくとも一実施形態に係る画像解析方法は上記課題を解決するために、
異なる角度から対象エリアを撮像した複数の画像データを取得する工程と、
前記複数の画像データの各々について画素毎に属性を判定する工程と、
前記複数の画像データに含まれる各画素を互いに関連付けることにより、前記対象エリアにおける形状情報を作成する工程と、
前記形状情報に含まれる各点について前記属性の判定結果を集計することにより前記対象エリアにおける属性分布を算出する工程と、
を備える。
(14) In order to solve the above problems, the image analysis method according to at least one embodiment of the present invention includes:
Acquiring a plurality of image data obtained by imaging the target area from different angles;
determining an attribute for each pixel of each of the plurality of image data;
creating shape information in the target area by associating each pixel included in the plurality of image data with each other;
a step of calculating an attribute distribution in the target area by aggregating the attribute determination results for each point included in the shape information;
Prepare.

上記(14)の方法によれば、異なる角度から対象エリアを撮像した複数の画像データにおいて、互いに対応する画素同士を関連付けることにより形状情報が作成される。形状情報に含まれる各点に対して各画像データにおける属性の判定結果を集計することにより、単一の画像データでは属性判定が困難な領域が存在する場合であっても、当該領域を補間し、広い範囲にわたって属性判定を行うことができる。また複数の画像データにおける属性の判定結果を集計することで、単一の画像データによる属性判定に比べて精度の高い判定結果が得られる。 According to the method (14) above, shape information is created by associating corresponding pixels in a plurality of image data obtained by imaging the target area from different angles. By aggregating the attribute determination results for each image data for each point included in the shape information, even if there is an area where attribute determination is difficult with a single image data, the area can be interpolated. , attribute determination can be performed over a wide range. In addition, by aggregating the attribute determination results for a plurality of image data, it is possible to obtain a highly accurate determination result compared to attribute determination based on single image data.

(15)本発明の少なくとも一実施形態に係る画像解析プログラムは上記課題を解決するために、
異なる角度から対象エリアを撮像した複数の画像データを取得する工程と、
前記複数の画像データの各々について画素毎に属性を判定する工程と、
前記複数の画像データに含まれる各画素を互いに関連付けることにより、前記対象エリアにおける形状情報を作成する工程と、
前記形状情報に含まれる各点について前記属性の判定結果を集計することにより前記対象エリアにおける属性分布を算出する工程と、
をコンピュータに実行させる。
(15) In order to solve the above problems, an image analysis program according to at least one embodiment of the present invention
Acquiring a plurality of image data obtained by imaging the target area from different angles;
determining an attribute for each pixel of each of the plurality of image data;
creating shape information in the target area by associating each pixel included in the plurality of image data with each other;
a step of calculating an attribute distribution in the target area by aggregating the attribute determination results for each point included in the shape information;
run on the computer.

上記(15)のプログラムは、コンピュータによって実行されることにより上述の画像解析システムの少なくとも一部を構成し、また、上述の画像解析方法を好適に実施できる。 The program of (15) above constitutes at least a part of the above-described image analysis system by being executed by a computer, and can preferably implement the above-described image analysis method.

本発明の少なくとも一実施形態によれば、対象エリアの広い範囲にわたって精度のよい属性判定が可能な画像解析システム、画像解析方法及び画像解析プログラムを提供できる。 According to at least one embodiment of the present invention, it is possible to provide an image analysis system, an image analysis method, and an image analysis program capable of accurately determining attributes over a wide range of target areas.

本発明の少なくとも一実施形態に係る画像解析システムの全体構成を示す模式図である。1 is a schematic diagram showing the overall configuration of an image analysis system according to at least one embodiment of the present invention; FIG. 図1のメインサーバのハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the main server of FIG. 1; FIG. 本発明の少なくとも一実施形態に係るメインサーバの内部構成を機能的に示すブロック図である。3 is a block diagram functionally showing the internal configuration of a main server according to at least one embodiment of the present invention; FIG. 本発明の少なくとも一実施形態に係る画像解析方法を工程毎に示すフローチャートである。4 is a flow chart showing steps of an image analysis method according to at least one embodiment of the present invention. 図4のステップS100で取得される複数の画像データの一例である。5 is an example of a plurality of image data acquired in step S100 of FIG. 4; 図4のステップS101における各画素に対応する属性判定結果の一例である。It is an example of the attribute determination result corresponding to each pixel in step S101 of FIG. 図4のステップS103における属性分布の算出を概念的に示す模式図である。5 is a schematic diagram conceptually showing calculation of attribute distribution in step S103 of FIG. 4. FIG. 図4のステップS103で算出される属性分布を比較例と共に示す図である。5 is a diagram showing the attribute distribution calculated in step S103 of FIG. 4 together with a comparative example; FIG. 本発明の少なくとも一実施形態に係るメインサーバの内部構成を機能的に示すブロック図である。3 is a block diagram functionally showing the internal configuration of a main server according to at least one embodiment of the present invention; FIG. 本発明の少なくとも一実施形態に係る撮像データの取得方法を工程毎に示すフローチャートである。4 is a flow chart showing each step of an imaging data acquisition method according to at least one embodiment of the present invention.

以下、添付図面を参照して本発明の幾つかの実施形態について説明する。ただし、実施形態として記載されている又は図面に示されている構成部品の寸法、材質、形状、その相対的配置等は、本発明の範囲をこれに限定する趣旨ではなく、単なる説明例にすぎない。 Several embodiments of the present invention will now be described with reference to the accompanying drawings. However, the dimensions, materials, shapes, relative arrangements, etc. of the components described as embodiments or shown in the drawings are not intended to limit the scope of the present invention, and are merely illustrative examples. do not have.

図1は本発明の少なくとも一実施形態に係る画像解析システム1の全体構成を示す模式図である。
画像解析システム1は、対象エリア2における被災箇所を画像解析によって特定するためのシステムであって、対象エリア2を撮像するための撮像装置4を搭載した移動体6を備える。移動体6は、搭載された撮像装置4の対象エリア2に対する相対的位置関係を変更可能なように対象エリア2上を移動可能に構成される。本実施形態では、移動体6の一例として、遠隔操作によって対象エリア2の上空を無人飛行することにより移動可能なUAV(無人航空機:Unmanned Aerial Vehicle)が示されている。
FIG. 1 is a schematic diagram showing the overall configuration of an image analysis system 1 according to at least one embodiment of the invention.
The image analysis system 1 is a system for identifying damaged areas in a target area 2 by image analysis, and includes a mobile body 6 equipped with an imaging device 4 for capturing an image of the target area 2 . The moving body 6 is configured to be movable on the target area 2 so as to be able to change the relative positional relationship of the mounted imaging device 4 with respect to the target area 2 . In this embodiment, as an example of the moving body 6, a UAV (Unmanned Aerial Vehicle) capable of moving by unmanned flight over the target area 2 by remote control is shown.

移動体6に搭載される撮像装置4は、対象エリア2を含む画像データを撮像するためのカメラであり、例えばCMOS(Complementary Metal Oxide Semiconductor Image Sensor)やCCD(Charge Coupled Device Image Sensor)のようなイメージセンサを含む。撮像装置4は、移動体6に対して一定の姿勢で搭載されており、移動体6が対象エリア2上を移動するに従って、対象エリア2を異なる角度から撮像可能に構成されている。
尚、撮像装置4は、移動体6に対して姿勢を可変に搭載されてもよい。
The imaging device 4 mounted on the moving body 6 is a camera for capturing image data including the target area 2, and is, for example, a CMOS (Complementary Metal Oxide Semiconductor Image Sensor) or a CCD (Charge Coupled Device Image Sensor). Including image sensor. The imaging device 4 is mounted in a fixed posture with respect to the moving body 6 and is configured to be able to capture images of the target area 2 from different angles as the moving body 6 moves over the target area 2 .
Note that the imaging device 4 may be mounted on the moving body 6 such that its attitude is variable.

画像解析システム1は、撮像装置4が搭載された移動体6から地理的に離れた基地局に配置されたメインサーバ10を備える。メインサーバ10は、撮像装置4及び移動体6と通信ネットワーク7を介して通信可能なコンピュータ等の演算処理装置から構成される。 The image analysis system 1 includes a main server 10 arranged in a base station geographically separated from a mobile body 6 on which an imaging device 4 is mounted. The main server 10 is composed of an arithmetic processing device such as a computer capable of communicating with the imaging device 4 and the mobile body 6 via the communication network 7 .

ここで図2は図1のメインサーバ10のハードウェア構成を示すブロック図である。メインサーバ10は、演算装置12と、記憶装置14と、ドライブ装置16と、入力装置18と、出力装置20と、を備える。 2 is a block diagram showing the hardware configuration of the main server 10 of FIG. 1. As shown in FIG. The main server 10 includes an arithmetic device 12 , a storage device 14 , a drive device 16 , an input device 18 and an output device 20 .

演算装置12は、CPU(Central Processing Unit)のようなプロセッサである。演算装置12は、記憶装置14に記憶されたコンピュータプログラム22を実行することにより、本発明の少なくとも一実施形態に係る画像解析方法を実施可能に構成される。尚、記憶装置14は、ROM(Read Only Memory)のような不揮発性メモリであってもよいし、RAM(Random Access Memory)のような揮発性メモリであってもよい。 The computing device 12 is a processor such as a CPU (Central Processing Unit). The computing device 12 is configured to be able to implement the image analysis method according to at least one embodiment of the present invention by executing the computer program 22 stored in the storage device 14 . The storage device 14 may be a non-volatile memory such as ROM (Read Only Memory) or a volatile memory such as RAM (Random Access Memory).

記憶装置14に記憶されるコンピュータプログラム22は、本発明の少なくとも一実施形態に係る画像解析プログラムの一例であり、ドライブ装置16を介して、記録媒体24からインストールされてもよい。記録媒体24は、CD-ROM、フレキシブルディスク、又は光磁気ディスクのような、光学的、電気的、又は磁気的に情報を記録する記録媒体でもよいし、ROM又はフラッシュメモリのような、電気的に情報を記録する半導体メモリでもよい。 The computer program 22 stored in the storage device 14 is an example of an image analysis program according to at least one embodiment of the invention, and may be installed from the recording medium 24 via the drive device 16 . The recording medium 24 may be a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk, or an electrical recording medium such as a ROM or flash memory. A semiconductor memory that records information in the memory may also be used.

入力装置18は、メインサーバ10の動作に必要な各種情報を外部から入力するためのインターフェースである。本実施形態では特に、入力装置18は、遠隔地にある撮像装置4及び移動体6から送信される各種情報を通信ネットワーク7を介して受信するための受信部18aを含む。また入力装置18は、オペレータが操作することによりデータ入力をするための入力手段(例えばコンピュータ用キーボード、マウス、及びタッチパネル等)を含んでもよい。 The input device 18 is an interface for inputting various kinds of information necessary for the operation of the main server 10 from the outside. Particularly in this embodiment, the input device 18 includes a receiving section 18 a for receiving various information transmitted from the imaging device 4 and the mobile object 6 at a remote location via the communication network 7 . The input device 18 may also include input means (for example, computer keyboard, mouse, touch panel, etc.) for inputting data by operator's operation.

出力装置20は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electrolumimnescence Display)のようなフラットパネルディスプレイを含み、演算装置12で生成された表示データを表示する。表示データは、画像データでもよいし文字データでもよい。尚、出力装置20は、印刷装置及び音声データを出力するスピーカ装置の少なくとも一方を含んでもよい。 The output device 20 includes a flat panel display such as a liquid crystal display (LCD) or an organic electroluminescence display (OELD), and displays display data generated by the arithmetic device 12 . The display data may be image data or character data. The output device 20 may include at least one of a printing device and a speaker device that outputs audio data.

また出力装置20は、遠隔地にある撮像装置4及び移動体6に対して通信ネットワーク7を介して各種制御信号を送信するための送信部20aを含む。これにより、メインサーバ10は撮像装置4及び移動体6を遠隔制御可能に構成されている。 The output device 20 also includes a transmission unit 20a for transmitting various control signals to the imaging device 4 and the mobile object 6 at remote locations via the communication network 7. FIG. Thereby, the main server 10 is configured to be able to remotely control the imaging device 4 and the moving object 6 .

<第1実施形態>
図3は本発明の少なくとも一実施形態に係るメインサーバ10の内部構成を機能的に示すブロック図である。メインサーバ10は、通信ネットワーク7を介して撮像装置4及び移動体6をそれぞれ遠隔制御するためのコントローラ26と、通信ネットワーク7を介して取得した画像を解析するための画像解析装置28と、を含む。
<First embodiment>
FIG. 3 is a block diagram functionally showing the internal configuration of the main server 10 according to at least one embodiment of the present invention. The main server 10 includes a controller 26 for remotely controlling the imaging device 4 and the mobile body 6 via the communication network 7, and an image analysis device 28 for analyzing images acquired via the communication network 7. include.

コントローラ26は、撮像装置4及び移動体6に対して通信ネットワーク7(図3では省略)を介して制御信号を送受信することによって、撮像装置4及び移動体6を遠隔制御するための制御装置であり、移動体6を制御するための移動制御部30と、撮像装置4を制御するための撮像制御部32と、を含む。 The controller 26 is a control device for remotely controlling the imaging device 4 and the moving object 6 by transmitting and receiving control signals to the imaging device 4 and the moving object 6 via the communication network 7 (not shown in FIG. 3). It includes a movement control unit 30 for controlling the moving body 6 and an imaging control unit 32 for controlling the imaging device 4 .

移動制御部30は、移動体6に対して通信ネットワーク7(図3では省略)を介して制御信号を送受信することにより、移動体6の移動状態(例えば速度、傾斜角度など)を制御することにより、対象エリア2の上空における移動体6の位置を管理可能に構成されている。撮像制御部32は、撮像装置4に対して通信ネットワーク7(図3では省略)を介して制御信号を送受信することにより、撮像装置4による撮像動作を制御することで、所定の撮像条件で画像データの作成が行われるように構成される。 The movement control unit 30 controls the movement state (for example, speed, tilt angle, etc.) of the moving body 6 by transmitting and receiving control signals to the moving body 6 via the communication network 7 (not shown in FIG. 3). Therefore, the position of the moving object 6 in the sky above the target area 2 can be managed. The imaging control unit 32 controls the imaging operation of the imaging device 4 by transmitting and receiving control signals to and from the imaging device 4 via the communication network 7 (not shown in FIG. 3), thereby capturing an image under predetermined imaging conditions. Data creation is configured to occur.

コントローラ26を構成する移動制御部30及び撮像制御部32は、互いに同期制御可能に構成されている。これにより、移動体6が対象エリア2の上空を移動させながら撮像装置4によって所定タイミングで撮像が実施されることにより、対象エリア2に対して異なる角度からの画像データの作成が行われる。 The movement control unit 30 and the imaging control unit 32 that constitute the controller 26 are configured to be synchronously controllable with each other. As a result, image data is created with respect to the target area 2 from different angles by capturing images at predetermined timings with the imaging device 4 while the moving body 6 is moving over the target area 2 .

画像解析装置28は、画像データ取得部36と、属性判定部38と、形状情報作成部40と、属性分布算出部42と、特異地点特定部44と、を備える。 The image analysis device 28 includes an image data acquisition section 36 , an attribute determination section 38 , a shape information creation section 40 , an attribute distribution calculation section 42 , and a singular point identification section 44 .

画像データ取得部36は、撮像装置4で撮像された画像データを取得する。撮像装置4では、撮像制御部32による制御信号に従って所定の撮像条件のもとで撮像が行われることにより、画像データの作成が行われる。撮像装置4で作成された画像データは、通信ネットワーク7を介してメインサーバ10に送信され、画像データ取得部36によって取得される。 The image data acquisition unit 36 acquires image data captured by the imaging device 4 . In the imaging device 4 , image data is created by performing imaging under predetermined imaging conditions in accordance with the control signal from the imaging control section 32 . The image data created by the imaging device 4 is transmitted to the main server 10 via the communication network 7 and acquired by the image data acquisition section 36 .

属性判定部38は、画像データ取得部36で取得された画像データについて画素毎に属性を判定する。ここで画素の属性とは、画素が属する性質又は特徴をいう。また属性の判定とは、予め複数の属性を定義する属性ライブラリの中から画素が属する属性を判定することをいう。本実施形態では、属性の種類として、「植生」、「道路」、「土壌」及び「不明(属性判定不能)」を例示するが、他の種類を含んでいてもよい。 The attribute determining section 38 determines the attribute of each pixel of the image data acquired by the image data acquiring section 36 . Here, the attributes of a pixel refer to properties or characteristics to which the pixel belongs. Determining an attribute means determining an attribute to which a pixel belongs from an attribute library that defines a plurality of attributes in advance. In this embodiment, "vegetation", "road", "soil", and "unknown (attribute cannot be determined)" are exemplified as attribute types, but other types may be included.

属性判定部38による属性判定は、例えばランダムフォレストアルゴリズムを用いて、次のようなプロセスによって行われる。まず属性判定部38は、画像データ取得部36で取得された画像データを取り込み、画像データを画素単位で認識する。そして、属性判定部38は、画像データから認識した各画素について特徴量を特定する。画素の特徴量は、例えば、輝度、明度、色相及び質感のような各種パラメータを採用可能である。このような特徴量の特定は、例えばHOG(Histograms of Oriented Gradients)のような公知の特徴量算出方法を用いて行うことができる。属性判定部38は、予め複数の属性を定義する属性ライブラリを有しており、画像データから認識された各画素を属性ライブラリと比較することにより、属性の判定を行う。 Attribute determination by the attribute determining unit 38 is performed by the following process using, for example, a random forest algorithm. First, the attribute determination unit 38 takes in the image data acquired by the image data acquisition unit 36 and recognizes the image data on a pixel-by-pixel basis. Then, the attribute determination unit 38 specifies a feature amount for each pixel recognized from the image data. Various parameters such as brightness, lightness, hue, and texture can be used as pixel feature amounts. Specification of such a feature amount can be performed using a known feature amount calculation method such as HOG (Histograms of Oriented Gradients), for example. The attribute determination unit 38 has an attribute library that defines a plurality of attributes in advance, and performs attribute determination by comparing each pixel recognized from the image data with the attribute library.

尚、以下の説明では、画素を単位とした属性判定を行う場合について述べるが、複数の画素を単位とした属性判定を行ってもよい。この場合、例えば、画像データから複数の画素からなるパッチ画像を作成し、当該パッチ画像を属性ライブラリと比較することで属性判定が行われる。 In the following description, a case where attribute determination is performed in units of pixels will be described, but attribute determination may be performed in units of a plurality of pixels. In this case, for example, a patch image made up of a plurality of pixels is created from image data, and attribute determination is performed by comparing the patch image with an attribute library.

形状情報作成部40は、画像データ取得部36で取得された複数の画像に含まれる各画素を互いに関連付けることにより、形状情報を作成する。形状情報は、例えば、撮像対象である対象エリア2の三次元形状であり、例えば、SfM(Structure from Motion)によって算出される。SfMでは、複数の二次元的な画像データに基づいて、各画像データの撮像点(カメラ位置)、及び、撮像対象(対象エリア2)の三次元形状が点群データとして演算的に算出される。 The shape information creation unit 40 creates shape information by associating each pixel included in the plurality of images acquired by the image data acquisition unit 36 with each other. The shape information is, for example, the three-dimensional shape of the target area 2 to be imaged, and is calculated by, for example, SfM (Structure from Motion). In SfM, based on a plurality of two-dimensional image data, the imaging point (camera position) of each image data and the three-dimensional shape of the imaging target (target area 2) are arithmetically calculated as point cloud data. .

属性分布算出部42は、形状情報に含まれる各点について属性判定部38による属性判定結果を集計することにより対象エリア2における属性分布を算出する。属性判定部38では、上述したように各画像において画素毎に属性の判定を行う。このような属性判定は、画像データ取得部36で取得された複数の画像データについてそれぞれ行われるため、形状情報作成部40によって作成される形状情報の各点には、複数の属性判定結果が割り当てられることとなる。属性分布算出部42は、形状情報の各点において、各画像データに基づく属性の判定結果を集計することで、各点において最も確からしい属性を特定することができる。 The attribute distribution calculation unit 42 calculates the attribute distribution in the target area 2 by totalizing the attribute determination results of the attribute determination unit 38 for each point included in the shape information. The attribute determining unit 38 determines the attribute of each pixel in each image as described above. Since such attribute determination is performed for each of the plurality of image data acquired by the image data acquisition unit 36, each point of the shape information created by the shape information creation unit 40 is assigned a plurality of attribute determination results. will be The attribute distribution calculator 42 can specify the most probable attribute at each point by summing up the attribute determination results based on each image data at each point of the shape information.

尚、上述の属性の判定結果の集計では、任意の統計的手法を用いることができる。ここではその一例として、属性分布算出部42は、形状情報の各点について属性の種類毎に判定回数をカウントし、判定回数が最大となる種類の属性を最終的に採用する。すなわち、形状情報の各点において、判定回数のカウントが最も多かった種類の属性が特定される。このような属性判定を形状情報の各点について行うことにより、対象エリア2における属性分布が算出される。このように形状情報の各点で特定された属性判定結果の分布は、単一の画像データによる属性判定結果に比べて精度がよいものとなる。 Note that any statistical method can be used for aggregating the attribute determination results described above. Here, as an example, the attribute distribution calculation unit 42 counts the number of determinations for each type of attribute for each point of the shape information, and finally adopts the attribute of the type with the maximum number of determinations. That is, at each point of the shape information, the attribute of the type with the largest count of the number of determinations is specified. By performing such attribute determination for each point of the shape information, the attribute distribution in the target area 2 is calculated. The distribution of the attribute determination results specified by each point of the shape information in this manner has higher accuracy than the attribute determination result based on single image data.

特異地点特定部44は、属性分布算出部42で算出された属性分布に基づいて特異地点を特定する。このような特異地点の特定は、属性分布の任意領域について、特定種類の属性判定がなされた画素の割合が閾値以上であるか否かに基づいて行われる。例えば、所定領域における「土壌」の属性判定がなされた画素の割合が閾値以上である場合、当該領域では土壌による侵食が生じており、特異地点として被災箇所が特定される。 The peculiar point identification unit 44 identifies peculiar points based on the attribute distribution calculated by the attribute distribution calculation unit 42 . Identification of such a peculiar point is performed based on whether or not the ratio of pixels for which a specific type of attribute determination is made is equal to or greater than a threshold value for an arbitrary area of the attribute distribution. For example, when the ratio of pixels for which the attribute determination of "soil" is made in a predetermined area is equal to or greater than a threshold, the area is eroded by soil, and the affected area is specified as a peculiar point.

尚、特異地点は、本来想定される属性とは異なる属性がある地点であってもよい。本実施形態では、本来「道路」の属性である地点に対して「土壌」の属性判定がなされた場合に特異地点であると特定される場合が例示されている。本実施形態では「道路」「土壌」「植生」「その他」で属性分類しているが、これに「水域」「建物」を追加して分類した場合、「土壌」であれば土壌による浸食(土砂崩れ)や地盤沈下による特異地点が特定され、「植生」であれば地滑りによる特異地点が特定され、「建物」があれば家屋の倒壊による特異地点が特定される。 Incidentally, the peculiar point may be a point having an attribute different from the originally assumed attribute. In the present embodiment, a case is exemplified in which a spot that originally has the attribute of "road" is identified as a peculiar spot when the attribute of "soil" is determined. In this embodiment, attributes are classified by "road", "soil", "vegetation", and "other". Landslides) and ground subsidence are specified, if it is "vegetation", then landslides are specified, and if there are "buildings", then singular points are specified by collapsed houses.

続いて上記構成を有する画像解析システム1によって実施される画像解析方法について説明する。図4は本発明の少なくとも一実施形態に係る画像解析方法を工程毎に示すフローチャートである。 Next, an image analysis method performed by the image analysis system 1 having the above configuration will be described. FIG. 4 is a flow chart showing steps of an image analysis method according to at least one embodiment of the present invention.

まず画像データ取得部36は、移動体6に搭載された撮像装置4から複数の画像データを取得する(ステップS100)。画像データ取得部36で取得される複数の画像データは、コントローラ26によって撮像装置4及び移動体6が制御されることにより、対象エリア2を異なる角度から撮像することにより作成されたものである。言い換えるとステップS100では、コントローラ26によって対象エリア2の上空を移動体6が所定経路に沿って移動するように制御しながら、撮像装置4によって所定タイミングで撮像されることにより、異なる角度から対象エリア2を撮像した複数の画像データが取得される。 First, the image data acquisition unit 36 acquires a plurality of image data from the imaging device 4 mounted on the mobile body 6 (step S100). The plurality of image data acquired by the image data acquisition unit 36 are created by imaging the target area 2 from different angles by controlling the imaging device 4 and the moving body 6 by the controller 26 . In other words, in step S100, while the controller 26 controls the moving object 6 to move along a predetermined path over the target area 2, the imaging device 4 captures images at predetermined timings, thereby capturing images of the target area from different angles. 2 is acquired.

ここで図5は図4のステップS100で取得される複数の画像データの一例である。図5では、樹木が存在する植生領域2aのなかを一本の道路2bが存在している対象エリア2を、互いに異なる角度から撮像することで作成された複数の画像データが示されている。 Here, FIG. 5 is an example of a plurality of image data acquired in step S100 of FIG. FIG. 5 shows a plurality of image data created by imaging a target area 2 in which a single road 2b exists in a vegetation area 2a in which trees exist from different angles.

続いて属性判定部38は、画像データ取得部36で取得された複数の画像データの各々について画素毎に属性を判定する(ステップS101)。属性判定部38による属性判定は、ステップS100で取得された画像毎に独立的に実施される。ここで図6は図4のステップS101における各画像に対応する属性判定結果の一例である。図6では、属性判定が「植生」、「土壌」、「道路」及び「不明」の画素を、それぞれ異なるパターンのハッチングで示されている。 Subsequently, the attribute determination unit 38 determines the attribute of each pixel of each of the plurality of image data acquired by the image data acquisition unit 36 (step S101). Attribute determination by the attribute determining unit 38 is performed independently for each image acquired in step S100. Here, FIG. 6 is an example of the attribute determination result corresponding to each image in step S101 of FIG. In FIG. 6, the pixels whose attribute determination is "vegetation", "soil", "road" and "unknown" are indicated by hatching with different patterns.

続いて形状情報作成部40は、画像データ取得部36によって取得された複数の画像データに含まれる各画素を互いに関連付けることにより、対象エリア2における形状情報を作成する(ステップS102)。すなわち、複数のデータの各画素について三次元空間における座標を特定し、互いに対応する画素同士が関連付けられることで、形状情報が構築される。このような形状情報は、上述したように例えばSfMによって三次元点群データとして作成される。 Subsequently, the shape information creation unit 40 creates shape information in the target area 2 by associating each pixel included in the plurality of image data acquired by the image data acquisition unit 36 (step S102). That is, the shape information is constructed by identifying the coordinates in the three-dimensional space for each pixel of a plurality of data and by associating the corresponding pixels with each other. Such shape information is created as three-dimensional point cloud data by SfM, for example, as described above.

続いて属性分布算出部42は、形状情報に含まれる各点について属性の判定結果を集計することにより対象エリア2における属性分布を算出する(ステップS103)。ここで図7は図4のステップS103における属性分布の算出を概念的に示す模式図である。図7(a)~(d)には、ステップS101における各画像データに対応する属性判定結果が示されている(ここでは図6の最上段の3つの画像と上から2段目左側の1つの画像における属性判定結果が図7(a)~(d)として代表的に示されている)。また図7(e)には、ステップS102で作成された形状情報が示されている。ここで図7(a)~(e)に示される複数の属性判定結果は、互いの表示領域が共通するように予め拡大・縮小・回転されることで調整されており、属性判定結果の各点と形状情報の各点とが互いに一対一に対応づけられる。属性分布算出部42は、このように互いに対応付けられた各点について、属性判定結果の各々を集計することにより、属性の最終的な特定を行い、属性分布(図7(f)を参照)を求める。 Subsequently, the attribute distribution calculation unit 42 calculates the attribute distribution in the target area 2 by totalizing the attribute determination results for each point included in the shape information (step S103). FIG. 7 is a schematic diagram conceptually showing calculation of the attribute distribution in step S103 of FIG. FIGS. 7A to 7D show the attribute determination results corresponding to each image data in step S101 (here, the three images on the top of FIG. 6 and the image on the second left from the top). Attribute determination results for one image are representatively shown in FIGS. 7(a) to (d)). Further, FIG. 7(e) shows the shape information created in step S102. Here, the plurality of attribute determination results shown in FIGS. 7A to 7E are adjusted in advance by being enlarged/reduced/rotated so that the display areas are shared with each other. A point and each point of the shape information are associated with each other on a one-to-one basis. The attribute distribution calculation unit 42 aggregates each of the attribute determination results for each point that is associated with each other in this way, thereby finally specifying the attribute and calculating the attribute distribution (see FIG. 7(f)). Ask for

また、上述の属性分布の算出手法では、属性判定部38で各画素の属性が属性ライブラリに含まれる「植生」、「土壌」、「道路」又は「不明」のいずれであるかを特定し、その結果を集計しているが、属性判定部38で属性の種類毎にスコアを求め、そのスコア値を集計することで属性分布を算出してもよい。この場合、属性判定部38では、例えば、各画像データに含まれる各画素について「植生:○○%、土壌:○○%、道路○○%、不明○○%」のようにスコア値として、属性判定がなされる。そして属性分布算出部42は、形状情報の各点について属性の種類毎にスコアの合計値を算出し、合計値が最大となるものを属性判定結果として採用する。これにより、最もスコア値が高い属性以外の属性についてもスコア値を加味した集計を行うことができるので、より精度の高い属性分布の算出が可能となる。 Further, in the attribute distribution calculation method described above, the attribute determination unit 38 specifies which of the attributes of each pixel is “vegetation”, “soil”, “road” or “unknown” included in the attribute library, Although the results are totaled, the attribute distribution may be calculated by calculating the score for each type of attribute by the attribute determination unit 38 and totaling the score values. In this case, the attribute determination unit 38, for example, for each pixel included in each image data, as a score value such as "vegetation: XX%, soil: XX%, road XX%, unknown XX%", Attribute determination is made. Then, the attribute distribution calculation unit 42 calculates the total score value for each type of attribute for each point of the shape information, and adopts the score with the maximum total value as the attribute determination result. As a result, the attribute distribution can be calculated with higher accuracy because the score value can be added to the attributes other than the attribute with the highest score value.

尚、上述のようにスコア値に基づく集計を行う場合、集計の結果、合計値が最大になる属性と、次に合計値が大きな属性とのスコア差が小さい場合、正確な属性判定が困難である可能性が高い。そのため、当該スコア差が所定の閾値未満である場合には、属性分布算出部42は、当該画素に関する判定結果を「不明」にして、属性分布を算出してもよい。 When performing aggregation based on score values as described above, if the score difference between the attribute with the largest total value and the attribute with the next largest total value is small, accurate attribute determination is difficult. Very likely. Therefore, when the score difference is less than a predetermined threshold, the attribute distribution calculation unit 42 may calculate the attribute distribution with the determination result regarding the pixel set to "unknown".

また属性分布算出部42は、形状情報に基づいて各画像データの撮像点におけるオクルージョン(隠れ)を求めることにより、属性判定部38による属性判定結果から明らかにエラーと特定される属性判定結果を除外して集計することで、属性分布を算出してもよい。形状情報では、対象エリア2における凹凸地形や障害物を含めた三次元的構造が特定される。そのため、属性分布算出部42は、当該三次元的構造を考慮することで、各画像データの撮像点と各画素との位置関係から、撮像装置4の光軸上において判定され得ない属性が判定されている場合、当該判定結果をエラーとして集計対象から除外する。属性判定部38では二次元画像に基づいた属性判定がなされるため撮像点と対象エリア2との間の中間情報が含まれていないが、形状情報から求められるオクルージョンを考慮することで実質的に中間情報を考慮することができるようになる。このように、属性分布算出部42では形状情報から求められるオクルージョンを用いることで、明らかにエラーである属性判定を除外し、属性分布の算出精度をより高めることができる。
尚、オクルージョン(occlusion;隠れ)とは、3次元空間において上下・左右の他に前後関係があるため、手前にある物体が背後にある物体を隠れて見えない状態が発生する事象をいう。
Further, the attribute distribution calculation unit 42 obtains occlusion (hiding) at the imaging point of each image data based on the shape information, thereby excluding attribute determination results clearly identified as errors from the attribute determination results by the attribute determination unit 38. Attribute distribution may be calculated by summing up. The shape information specifies a three-dimensional structure including uneven topography and obstacles in the target area 2 . Therefore, by considering the three-dimensional structure, the attribute distribution calculation unit 42 determines attributes that cannot be determined on the optical axis of the imaging device 4 from the positional relationship between the imaging point of each image data and each pixel. If so, the determination result is treated as an error and excluded from the aggregation target. Since the attribute determination unit 38 performs attribute determination based on the two-dimensional image, intermediate information between the imaging point and the target area 2 is not included. It becomes possible to consider intermediate information. In this manner, the attribute distribution calculation unit 42 uses the occlusion obtained from the shape information, thereby excluding attribute determinations that are clearly erroneous, and can further improve the calculation accuracy of the attribute distribution.
Note that occlusion is a phenomenon in which an object in the foreground hides an object in the background and cannot be seen because there is a front-to-back relationship in addition to up/down and left/right in a three-dimensional space.

また形状情報作成部40は、外部からデジタル地図のような既成情報を地形情報として取り込んでもよい。このようなデジタル地図には、地形情報に加えて予め設定された属性情報が含まれてもよい。この場合、属性分布算出部42は、デジタル地図に含まれる属性情報と、属性判定部38による判定結果とがマッチングしているか否かに基づいて集計時の重み付け係数を設定してもよい。具体的には、属性判定部38による判定結果がデジタル地図に含まれる属性情報にマッチングしている場合には、信頼性が高いとして重み付け係数を大きく設定してもよい。これにより、地形情報の各点における属性判定結果を、デジタル地図とのマッチング度に応じて重み付けて集計することができ、より精度のよい属性分布を算出することができる。 Also, the shape information creating section 40 may take in ready-made information such as a digital map from the outside as the topography information. Such a digital map may include preset attribute information in addition to terrain information. In this case, the attribute distribution calculation unit 42 may set the weighting coefficients for aggregation based on whether or not the attribute information included in the digital map and the determination result by the attribute determination unit 38 match. Specifically, when the determination result by the attribute determining unit 38 matches the attribute information included in the digital map, the reliability may be considered to be high, and a large weighting factor may be set. As a result, the attribute determination results at each point of the terrain information can be weighted according to the degree of matching with the digital map, and the attribute distribution can be calculated with higher accuracy.

図8は図4のステップS103で算出される属性分布を比較例と共に示す図である。図8(a)は図4のステップS103で複数の画像データの属性判定結果に基づいて算出される属性分布を示し、図8(b)はステップS100で取得された複数の画像データに含まれる単一の画像データに基づいて算出される属性分布(ステップS101で算出される属性判定結果の一つ)を示す比較例である。 FIG. 8 is a diagram showing the attribute distribution calculated in step S103 of FIG. 4 together with a comparative example. FIG. 8A shows the attribute distribution calculated based on the attribute determination results of the multiple image data in step S103 of FIG. 4, and FIG. 8B shows the attribute distribution included in the multiple image data acquired in step S100. It is a comparative example showing an attribute distribution (one of the attribute determination results calculated in step S101) calculated based on single image data.

図8(a)及び図8(b)を比較して明らかなように、本実施形態で算出される属性分布は、属性が不明である領域が消滅しており、比較例に比べて精度のよい結果が得られている。これは、本実施形態では、異なる角度で撮像された複数の画像データから得られる属性判定結果を形状情報の各点について集計することで、単一の画像データだけでは属性判定が困難な領域(例えば特定の撮像点から樹木等によって死角となる領域や、ハレーション発生によって属性判定が困難な領域など)についても、補間的に属性判定が可能となっているためである。これにより、対象エリア2の広範囲にわたって精度のよい属性判定が可能となる。 As is clear from a comparison of FIGS. 8A and 8B, in the attribute distribution calculated in this embodiment, regions with unknown attributes have disappeared, and the accuracy is lower than in the comparative example. Good results have been obtained. In this embodiment, attribute determination results obtained from a plurality of image data captured at different angles are aggregated for each point of the shape information. This is because it is possible to perform attribute determination in an interpolative manner, for example, even in areas where attribute determination is difficult due to occurrence of halation, and areas that are blind spots due to trees or the like from a specific imaging point. This enables accurate attribute determination over a wide range of the target area 2 .

続いて特異地点特定部44は、属性分布算出部42によって算出された属性分布に基づいて対象エリア2における特異地点を特定する(ステップS104)。特異地点は、周辺領域に対して特定種類の属性に関する特徴を有する領域であり、本実施形態では特異地点の一例として、対象エリア2のうち地震、大雨又は土砂崩れのような災害による被災箇所が特定される。このような被災箇所は、土壌による浸食によって特定されるため、特異地点特定部44は属性分布のうち属性が「土壌」であると判定された画素の割合が閾値以上になる領域が特異地点として特定する。 Subsequently, the peculiar point identifying unit 44 identifies peculiar points in the target area 2 based on the attribute distribution calculated by the attribute distribution calculating unit 42 (step S104). A peculiar point is an area having characteristics related to a specific type of attribute with respect to the surrounding area. be done. Since such a disaster site is identified by erosion by soil, the peculiar point identification unit 44 selects an area where the percentage of pixels determined to have the attribute "soil" in the attribute distribution is equal to or greater than a threshold value as a peculiar point. Identify.

図8では属性分布から特定された特異地点が破線で囲まれて表示されるとともに、その拡大図が示されている。このように特異地点特定部44によって特定される特異地点では、予め指定された特定属性「土壌」の割合が多くなっており、土壌による道路の侵食領域が特定されている。図8(a)及び図8(b)を比較して明らかなように、特異地点特定部44によって特定される特異地点においても、本実施形態では比較例にくらべて属性が「土壌」と判定される画素の割合が多くなっており、道路への土壌の侵食の様子がより鮮明に捕らえられている。 In FIG. 8, the peculiar points specified from the attribute distribution are displayed surrounded by dashed lines, and an enlarged view thereof is shown. At the peculiar points identified by the peculiar point identification unit 44 in this way, the ratio of the predetermined specific attribute "soil" is high, and the erosion area of the road by the soil is identified. As is clear from a comparison of FIGS. 8(a) and 8(b), even in the peculiar point specified by the peculiar point specifying unit 44, the attribute is determined to be "soil" in the present embodiment compared to the comparative example. The ratio of the pixels that are displayed has increased, and the state of soil erosion on the road is captured more clearly.

続いて属性分布算出部42で算出された属性分布、及び、特異地点特定部44で特定された特異地点は、予め用意された対象エリア2に対応するデジタル地図に対して重畳表示されるように出力用画像データに加工され(ステップS105)、出力装置20に出力表示される(ステップS106)。オペレータは出力装置20の表示画面を視認することで、対象エリア2における特異地点の有無や範囲を容易に特定できる。 Subsequently, the attribute distribution calculated by the attribute distribution calculation unit 42 and the peculiar points identified by the peculiar point identification unit 44 are superimposed on the digital map corresponding to the target area 2 prepared in advance. The image data for output is processed (step S105), and output and displayed on the output device 20 (step S106). By visually recognizing the display screen of the output device 20, the operator can easily identify the presence or absence and range of the peculiar point in the target area 2. FIG.

以上説明したように第1実施形態によれば、異なる角度から対象エリアを撮像した複数の画像データにおいて、互いに対応する画素同士を関連付けることにより形状情報が作成される。形状情報に含まれる各点に対して各画像データにおける属性の判定結果を集計することにより、単一の画像データでは属性判定が困難な領域が存在する場合であっても、当該領域を補間し、広い範囲にわたって属性判定を行うことができる。また複数の画像データにおける属性の判定結果を集計することで、単一の画像データによる属性判定に比べて精度の高い判定結果が得られる。そして、このように得られた属性分布に基づいて、対象エリアにおける特異地点の有無や範囲を容易に特定できる。 As described above, according to the first embodiment, shape information is created by associating corresponding pixels in a plurality of image data obtained by imaging a target area from different angles. By aggregating the attribute determination results for each image data for each point included in the shape information, even if there is an area where attribute determination is difficult with a single image data, the area can be interpolated. , attribute determination can be performed over a wide range. In addition, by aggregating the attribute determination results for a plurality of image data, it is possible to obtain a highly accurate determination result compared to attribute determination based on single image data. Then, based on the attribute distribution obtained in this way, it is possible to easily identify the presence or absence and range of the peculiar point in the target area.

<第2実施形態>
図9は本発明の少なくとも一実施形態に係るメインサーバ10の内部構成を機能的に示すブロック図である。本実施形態のメインサーバ10は、上述の実施形態に比べて、距離算出部46を更に備える点で異なる。
<Second embodiment>
FIG. 9 is a block diagram functionally showing the internal configuration of the main server 10 according to at least one embodiment of the present invention. The main server 10 of this embodiment differs from the above-described embodiments in that it further includes a distance calculator 46 .

尚、本実施形態では上述の他の実施形態と共通する構成については共通の符号を用いることとし、重複する説明は適宜省略する。 In addition, in the present embodiment, common reference numerals are used for configurations common to the above-described other embodiments, and duplicate descriptions are appropriately omitted.

距離算出部46は、画像データ取得部36によって取得された複数の画像データの各々について画素毎に撮像点からの距離を算出する。このような画素毎の距離算出は、形状情報作成部によって作成された形状情報に基づいて行われてもよい。形状情報では、三次元空間における対象エリア2を構成する各点及び撮像点の座標がそれぞれ特定されているため、撮像点と各画素の座標に基づいて、各距離を幾何学的に算出することができる。 The distance calculation unit 46 calculates the distance from the imaging point for each pixel of each of the plurality of image data acquired by the image data acquisition unit 36 . Such distance calculation for each pixel may be performed based on the shape information created by the shape information creation unit. Since the shape information specifies the coordinates of each point and the imaging point that constitute the target area 2 in the three-dimensional space, each distance can be geometrically calculated based on the coordinates of the imaging point and each pixel. can be done.

属性分布算出部42は、距離算出部46で算出された各画像における撮像点から各画素までの距離に応じて重み付け係数を設定する。このような重み付け係数は、撮像点から画素までの距離が短くなるに従って大きくなるように設定され、属性分布算出部42が形状情報の各点について属性判定結果を集計するときに乗算される。これにより、撮像点から距離的に近い画素に関する属性判定結果を重視した集計が可能となる。つまり、撮像点から距離的に近い画素は、撮像点から距離的に遠い画素に比べて撮像精度がよいため、その属性判定結果も信頼性が高いものとなる(逆に言えば、撮像点から距離的に遠い画素は、撮像点から距離的に近い画素に比べて撮像精度が低くなるため、その属性判定結果も信頼性が低いものとなる。)。本実施形態では、このような撮像点から各画素までの距離に応じた重み付け係数を設定することで、より信頼性の高い属性分布を算出することができる。 The attribute distribution calculator 42 sets a weighting factor according to the distance from the imaging point to each pixel in each image calculated by the distance calculator 46 . Such a weighting coefficient is set to increase as the distance from the imaging point to the pixel decreases, and is multiplied when the attribute distribution calculation unit 42 aggregates the attribute determination results for each point of the shape information. As a result, aggregation can be performed with an emphasis on attribute determination results for pixels that are close in distance from the imaging point. In other words, a pixel closer to the imaging point has higher imaging accuracy than a pixel farther from the imaging point. A pixel far from the imaging point has lower imaging accuracy than a pixel close to the imaging point, so the reliability of the attribute determination result is also low.). In this embodiment, by setting a weighting factor according to the distance from such an imaging point to each pixel, a more reliable attribute distribution can be calculated.

<第3実施形態>
続く実施形態では、コントローラ26によって撮像装置4及び移動体6を制御することにより、画像データ取得部36で取得される複数の画像データの撮像方法に特徴がある。図10は本発明の少なくとも一実施形態における撮像データの取得方法を工程毎に示すフローチャートである。尚、本実施形態における画像解析システム1の構造に関しては前述の実施形態と同様であってもよい。
<Third Embodiment>
The following embodiments are characterized by a method of capturing a plurality of image data acquired by the image data acquiring unit 36 by controlling the imaging device 4 and the moving body 6 by the controller 26 . FIG. 10 is a flow chart showing each step of a method for acquiring imaging data according to at least one embodiment of the present invention. Note that the structure of the image analysis system 1 in this embodiment may be the same as in the above-described embodiments.

一般的に、撮像装置4による撮像は、撮像対象にとって画像処理を実施しやすい照明条件で行われるべきであるが、対象エリア2は広範囲にわたるため、対象エリア2に対する撮像装置4の位置関係や、太陽などの光源との位置関係によって、撮像装置4の照明条件が時々刻々と変化する。そのため前述の第1及び第2実施形態では、撮像装置4は画像全体の明るさが一定になるように調整されることが基本となる。 In general, imaging by the imaging device 4 should be performed under lighting conditions that facilitate image processing for the object to be imaged. The lighting conditions of the imaging device 4 change from moment to moment depending on the positional relationship with the light source such as the sun. Therefore, in the above-described first and second embodiments, the imaging device 4 is basically adjusted so that the brightness of the entire image is constant.

その一方で、対象エリア2には道路、土壌及び植生を含む様々な要素が含まれているため、画像全体の明るさが一定になるように調整された撮像装置4で撮像した場合、比較的輝度が低い植生を基準に撮像条件を調整すると、比較的輝度が高い道路や土壌がハレーション気味に撮像されてしまう。そのため、一定の撮像条件で撮像を行った場合、撮像データにハレーション等が発生し、画素毎に属性判定が困難な領域が生じてしまうことがある。 On the other hand, the target area 2 includes various elements including roads, soil, and vegetation. If the imaging conditions are adjusted based on vegetation with low brightness, roads and soil with relatively high brightness will be imaged with a slight halation. Therefore, when an image is captured under certain imaging conditions, halation or the like may occur in the captured data, and an area in which it is difficult to determine the attribute of each pixel may occur.

そこで本実施形態では、対象エリア2の上空を移動体6で移動しながら撮像装置4で撮像する際に、撮像制御部32は、各撮像点において複数の撮像条件で撮像が行われるように撮像装置4を制御する(ステップS200)。つまり、各撮像点において異なる撮像条件で複数回の撮像がなされる。複数の撮像条件は、例えば、撮影位置/角度、露光時間、焦点距離、絞り値あるいは環境条件などの撮像パラメータの少なくとも一つが異なるように設定される。これにより、照明条件が時々刻々と変化する場合であっても、各撮像点において品質のよい撮像データの取得確率を効果的に向上できる。 Therefore, in the present embodiment, when an image is captured by the imaging device 4 while the mobile body 6 is moving over the target area 2, the imaging control unit 32 performs imaging under a plurality of imaging conditions at each imaging point. The device 4 is controlled (step S200). In other words, multiple images are captured under different imaging conditions at each imaging point. A plurality of imaging conditions are set such that at least one of imaging parameters such as imaging position/angle, exposure time, focal length, aperture value, or environmental conditions is different. As a result, even when the lighting conditions change from moment to moment, the acquisition probability of high-quality imaging data at each imaging point can be effectively improved.

尚、ステップS200における複数の撮像条件は、上述の撮像パラメータの差分が所定値以上に設定されてもよい。つまり、複数の撮像条件は、各撮像条件を規定する撮像パラメータが大きく異なるように設定されてもよい。これにより、より幅広い撮像条件で撮像データが取得されるため、各撮像点において品質のよい撮像データの取得確率をより効果的に向上できる。 Note that the plurality of imaging conditions in step S200 may be set such that the difference between the above-described imaging parameters is equal to or greater than a predetermined value. In other words, a plurality of imaging conditions may be set such that the imaging parameters that define each imaging condition are significantly different. As a result, imaging data can be acquired under a wider range of imaging conditions, so that the probability of acquiring high-quality imaging data at each imaging point can be more effectively improved.

続いて画像データ取得部36は、撮像装置4で作成された複数の画像データを取得する(ステップS201)。ここで画像データ取得部36で取得される複数の画像データには、対象エリア2の異なる撮像点の各々において異なる撮像条件で撮像された画像データが含まれる。 Subsequently, the image data acquisition unit 36 acquires a plurality of image data created by the imaging device 4 (step S201). Here, the plurality of image data acquired by the image data acquisition unit 36 includes image data captured under different imaging conditions at different imaging points of the target area 2 .

続いて画像データ取得部36は、取得した画像データを解析することにより、撮像装置4で撮像された複数の画像データから所定の品質基準を満たす画像データを選択的に取得する。すなわち、画像データ取得部36で取得された画像データから低品質の画像データを排除することで、以降の画像解析に用いる画像データの選別を行う(ステップS202)。ステップS202における画像データの選別は、属性判定が適切に実施し得るだけの品質基準を有するか否かによって行われる。これにより、複数の画像データの中からハレーション発生等によって属性判定に適さない画像データを排除し、属性判定に適した画像データを選択することができる。 Subsequently, the image data acquisition unit 36 selectively acquires image data that satisfies a predetermined quality standard from the plurality of image data captured by the imaging device 4 by analyzing the acquired image data. That is, by excluding low-quality image data from the image data acquired by the image data acquiring unit 36, image data to be used for subsequent image analysis is selected (step S202). Selection of the image data in step S202 is performed depending on whether or not the image data has a quality standard that enables appropriate attribute determination. This makes it possible to eliminate image data unsuitable for attribute determination due to occurrence of halation or the like from among a plurality of image data, and select image data suitable for attribute determination.

属性判定部38及び形状情報作成部40では、画像データ取得部36で選別された画像データに基づいて、属性判定や形状情報の作成が行われる。すなわち第3実施形態では、図10の方法によって取得された複数の画像データは、図4のステップS101以降と同じ処理が実施されることで、前述の実施形態と同様に解析され、属性分布の算出や特異地点の特定が行われる。 The attribute determination unit 38 and the shape information creation unit 40 perform attribute determination and shape information creation based on the image data selected by the image data acquisition unit 36 . That is, in the third embodiment, the plurality of image data acquired by the method of FIG. 10 are analyzed in the same manner as in the above-described embodiment by performing the same processing as in step S101 and subsequent steps of FIG. Calculations and identification of singular points are performed.

このように第3実施形態では、品質のよい複数の画像データに基づいて属性判定及び形状情報作成が行われるため、より精度のよい属性分布の算出が可能となる。また、各撮像点において複数の撮像条件で撮像データを取得する場合、撮像データの数量が増加するため処理データが膨大になりがちであるが、このように処理対象の画像データを品質基準に基づいて選別することで、良好な解析精度を確保しつつ、処理負荷や処理時間を効果的に低減することができる。すなわち、各撮像点において異なる複数の撮像条件下で撮像を行うことで、品質のよい撮像データの取得可能性を効果的に向上させることができる。画像データ取得部36では、このように撮像された複数の撮像データから所定の品質基準を満たす画像データを選択的に取得することで、属性判定精度をより向上・処理時間をより短縮させられる。 As described above, in the third embodiment, attribute determination and shape information creation are performed based on a plurality of high-quality image data, so attribute distribution can be calculated with higher accuracy. In addition, when imaging data is acquired under a plurality of imaging conditions at each imaging point, the amount of imaging data increases and the amount of processing data tends to become enormous. By sorting by using the above method, it is possible to effectively reduce the processing load and the processing time while ensuring good analysis accuracy. That is, by performing imaging under a plurality of different imaging conditions at each imaging point, it is possible to effectively improve the possibility of obtaining high-quality imaging data. The image data acquisition unit 36 selectively acquires image data that satisfies a predetermined quality standard from a plurality of captured image data, thereby further improving the attribute determination accuracy and shortening the processing time.

以上説明したように上記各実施形態によれば、対象エリアの広い範囲にわたって精度のよい属性判定が可能な画像解析システム、画像解析方法及び画像解析プログラムを提供できる。 As described above, according to the above embodiments, it is possible to provide an image analysis system, an image analysis method, and an image analysis program capable of accurately determining attributes over a wide range of target areas.

本発明の少なくとも一実施形態は、画像に含まれる要素を属性判定することにより画像解析が可能な画像解析システム、画像解析方法及び画像解析プログラムに利用可能である。 At least one embodiment of the present invention can be used for an image analysis system, an image analysis method, and an image analysis program capable of image analysis by attribute determination of elements included in an image.

1 画像解析システム
2 対象エリア
4 撮像装置
6 移動体
7 通信ネットワーク
10 メインサーバ
12 演算装置
14 記憶装置
16 ドライブ装置
18 入力装置
20 出力装置
22 コンピュータプログラム(画像解析プログラム)
24 記録媒体
26 コントローラ
28 画像解析装置
30 移動制御部
32 撮像制御部
36 画像データ取得部
38 属性判定部
40 形状情報作成部
42 属性分布算出部
44 特異地点特定部
46 距離算出部
1 Image analysis system 2 Target area 4 Imaging device 6 Mobile object 7 Communication network 10 Main server 12 Arithmetic device 14 Storage device 16 Drive device 18 Input device 20 Output device 22 Computer program (image analysis program)
24 recording medium 26 controller 28 image analysis device 30 movement control unit 32 imaging control unit 36 image data acquisition unit 38 attribute determination unit 40 shape information creation unit 42 attribute distribution calculation unit 44 peculiar point identification unit 46 distance calculation unit

Claims (17)

異なる角度から対象エリアを撮像した複数の画像データを取得する画像データ取得部と、
前記複数の画像データの各々について画素毎に属性を判定する属性判定部と、
前記複数の画像データに含まれる各画素を互いに関連付けることにより、前記対象エリアにおける形状情報を作成する形状情報作成部と、
前記形状情報に含まれる各点について前記属性判定部による判定結果を集計することにより前記対象エリアにおける属性分布を算出する属性分布算出部と、
前記属性分布に基づいて前記対象エリアにおける特異地点を特定する特異地点特定部と、
を備える、画像解析システム。
an image data acquisition unit that acquires a plurality of image data obtained by imaging a target area from different angles;
an attribute determination unit that determines an attribute for each pixel of each of the plurality of image data;
a shape information creation unit that creates shape information in the target area by associating each pixel included in the plurality of image data with each other;
an attribute distribution calculation unit that calculates an attribute distribution in the target area by summing up determination results by the attribute determination unit for each point included in the shape information;
a peculiar point identifying unit that identifies a peculiar point in the target area based on the attribute distribution;
An image analysis system.
前記属性分布算出部は、前記形状情報の各点について前記属性の種類毎に判定回数をカウントし、前記判定回数が最大となる種類の前記属性を採用することによって、前記属性分布を算出する、請求項1に記載の画像解析システム。 The attribute distribution calculation unit counts the number of determinations for each type of the attribute for each point of the shape information, and calculates the attribute distribution by adopting the attribute of the type with the maximum number of determinations. The image analysis system according to claim 1. 前記属性判定部は、前記属性の種類毎にスコアを求め、
前記属性分布算出部は、前記形状情報の各点について前記属性の種類毎に前記スコアの合計値を算出し、前記合計値が最大となる種類の前記属性を採用することにより、前記属性分布を算出する、請求項1に記載の画像解析システム。
The attribute determination unit obtains a score for each attribute type,
The attribute distribution calculation unit calculates the total value of the scores for each type of the attribute for each point of the shape information, and adopts the attribute of the type having the maximum total value, thereby calculating the attribute distribution. 2. The image analysis system of claim 1, wherein the image analysis system calculates
前記複数の画像データの各々について画素毎に撮像点からの距離を算出する距離算出部を備え、
前記属性分布算出部は、前記形状情報に含まれる各点について前記距離に応じた重み付け係数を設定する、請求項2又は3に記載の画像解析システム。
A distance calculation unit that calculates a distance from the imaging point for each pixel of each of the plurality of image data,
4. The image analysis system according to claim 2, wherein said attribute distribution calculator sets a weighting factor according to said distance for each point included in said shape information.
前記属性分布をデジタル地図に重畳表示可能な出力装置を備える、請求項に記載の画像解析システム。 2. The image analysis system according to claim 1 , further comprising an output device capable of displaying said attribute distribution superimposed on a digital map. 前記出力装置は、前記特異地点を周辺領域と区別して表示する、請求項に記載の画像解析システム。 6. The image analysis system according to claim 5 , wherein said output device displays said peculiar point by distinguishing it from surrounding areas. 前記形状情報は、前記複数の画像データに基づいて作成される三次元情報である、請求項1からのいずれか一項に記載の画像解析システム。 7. The image analysis system according to any one of claims 1 to 6 , wherein said shape information is three-dimensional information created based on said plurality of image data. 前記属性分布算出部は、前記形状情報に基づいて求められるオクルージョンを考慮して前記属性分布を算出する、請求項1からのいずれか一項に記載の画像解析システム。 The image analysis system according to any one of claims 1 to 7 , wherein said attribute distribution calculation unit calculates said attribute distribution in consideration of occlusion obtained based on said shape information. 前記複数の画像を撮像可能な撮像装置を搭載する移動体と、
前記移動体を制御するための移動制御部と、
前記撮像装置を制御するための撮像制御部と、
を備える、請求項1からのいずれか一項に記載の画像解析システム。
a moving body equipped with an imaging device capable of imaging the plurality of images;
a movement control unit for controlling the moving body;
an imaging control unit for controlling the imaging device;
The image analysis system according to any one of claims 1 to 8 , comprising:
前記撮像制御部は、各撮像点において異なる複数の撮像条件下で撮像が行われるように前記撮像装置を制御し、
前記画像データ取得部は、前記撮像装置で撮像された前記複数の画像データから所定の品質基準を満たす画像データを選択的に取得する、請求項に記載の画像解析システム。
The imaging control unit controls the imaging device so that imaging is performed under a plurality of different imaging conditions at each imaging point,
10. The image analysis system according to claim 9 , wherein said image data acquisition unit selectively acquires image data satisfying a predetermined quality standard from said plurality of image data captured by said imaging device.
前記複数の撮像条件は、前記撮像装置の撮影位置/角度、露光時間、焦点距離、絞り値或いは環境条件を含む少なくとも一つの撮像パラメータが異なるように設定される、請求項10に記載の画像解析システム。 11. The image analysis according to claim 10 , wherein the plurality of imaging conditions are set such that at least one imaging parameter including the imaging position/angle, exposure time, focal length, aperture value, or environmental conditions of the imaging device is set differently. system. 前記複数の撮像条件は、前記撮像パラメータの差分が所定値以上に設定される、請求項11に記載の画像解析システム。 12. The image analysis system according to claim 11 , wherein said plurality of imaging conditions are set such that the difference between said imaging parameters is equal to or greater than a predetermined value. 異なる角度から対象エリアを撮像した複数の画像データを取得する画像データ取得部と、 an image data acquisition unit that acquires a plurality of image data obtained by imaging a target area from different angles;
前記複数の画像データの各々について画素毎に属性を判定する属性判定部と、 an attribute determination unit that determines an attribute for each pixel of each of the plurality of image data;
前記複数の画像データに含まれる各画素を互いに関連付けることにより、前記対象エリアにおける形状情報を作成する形状情報作成部と、 a shape information creation unit that creates shape information in the target area by associating each pixel included in the plurality of image data with each other;
前記形状情報に含まれる各点について前記属性判定部による判定結果を集計することにより前記対象エリアにおける属性分布を算出する属性分布算出部と、 an attribute distribution calculation unit that calculates an attribute distribution in the target area by summing up determination results by the attribute determination unit for each point included in the shape information;
を備え、with
前記属性分布算出部は、前記形状情報の各点について前記属性の種類毎に判定回数をカウントし、前記判定回数が最大となる種類の前記属性を採用することによって、前記属性分布を算出する、画像解析システム。 The attribute distribution calculation unit counts the number of determinations for each type of the attribute for each point of the shape information, and calculates the attribute distribution by adopting the attribute of the type with the maximum number of determinations. Image analysis system.
異なる角度から対象エリアを撮像した複数の画像データを取得する画像データ取得部と、 an image data acquisition unit that acquires a plurality of image data obtained by imaging a target area from different angles;
前記複数の画像データの各々について画素毎に属性を判定する属性判定部と、 an attribute determination unit that determines an attribute for each pixel of each of the plurality of image data;
前記複数の画像データに含まれる各画素を互いに関連付けることにより、前記対象エリアにおける形状情報を作成する形状情報作成部と、 a shape information creation unit that creates shape information in the target area by associating each pixel included in the plurality of image data with each other;
前記形状情報に含まれる各点について前記属性判定部による判定結果を集計することにより前記対象エリアにおける属性分布を算出する属性分布算出部と、 an attribute distribution calculation unit that calculates an attribute distribution in the target area by summing up determination results by the attribute determination unit for each point included in the shape information;
を備え、with
前記属性判定部は、前記属性の種類毎にスコアを求め、 The attribute determination unit obtains a score for each attribute type,
前記属性分布算出部は、前記形状情報の各点について前記属性の種類毎に前記スコアの合計値を算出し、前記合計値が最大となる種類の前記属性を採用することにより、前記属性分布を算出する、画像解析システム。 The attribute distribution calculation unit calculates the total value of the scores for each type of the attribute for each point of the shape information, and adopts the attribute of the type having the maximum total value, thereby calculating the attribute distribution. Image analysis system to calculate.
異なる角度から対象エリアを撮像した複数の画像データを取得する画像データ取得部と、 an image data acquisition unit that acquires a plurality of image data obtained by imaging a target area from different angles;
前記複数の画像データの各々について画素毎に属性を判定する属性判定部と、 an attribute determination unit that determines an attribute for each pixel of each of the plurality of image data;
前記複数の画像データに含まれる各画素を互いに関連付けることにより、前記対象エリアにおける形状情報を作成する形状情報作成部と、 a shape information creation unit that creates shape information in the target area by associating each pixel included in the plurality of image data with each other;
前記形状情報に含まれる各点について前記属性判定部による判定結果を集計することにより前記対象エリアにおける属性分布を算出する属性分布算出部と、 an attribute distribution calculation unit that calculates an attribute distribution in the target area by summing up determination results by the attribute determination unit for each point included in the shape information;
前記複数の画像を撮像可能な撮像装置を搭載する移動体と、 a moving body equipped with an imaging device capable of imaging the plurality of images;
前記移動体を制御するための移動制御部と、 a movement control unit for controlling the moving body;
前記撮像装置を制御するための撮像制御部と、 an imaging control unit for controlling the imaging device;
を備え、with
前記撮像制御部は、各撮像点において異なる複数の撮像条件下で撮像が行われるように前記撮像装置を制御し、 The imaging control unit controls the imaging device so that imaging is performed under a plurality of different imaging conditions at each imaging point,
前記画像データ取得部は、前記撮像装置で撮像された前記複数の画像データから所定の品質基準を満たす画像データを選択的に取得し、 The image data acquisition unit selectively acquires image data that satisfies a predetermined quality standard from the plurality of image data captured by the imaging device,
前記複数の撮像条件は、前記撮像装置の撮影位置/角度、露光時間、焦点距離、絞り値或いは環境条件を含む少なくとも一つの撮像パラメータが異なるように設定され、 The plurality of imaging conditions are set so that at least one imaging parameter including the imaging position/angle of the imaging device, exposure time, focal length, aperture value, or environmental conditions is different,
前記複数の撮像条件は、前記撮像パラメータの差分が所定値以上に設定される、画像解析システム。 The image analysis system, wherein the plurality of imaging conditions are such that a difference between the imaging parameters is set to be equal to or greater than a predetermined value.
異なる角度から対象エリアを撮像した複数の画像データを取得する工程と、
前記複数の画像データの各々について画素毎に属性を判定する工程と、
前記複数の画像データに含まれる各画素を互いに関連付けることにより、前記対象エリアにおける形状情報を作成する工程と、
前記形状情報に含まれる各点について前記属性の判定結果を集計することにより前記対象エリアにおける属性分布を算出する工程と、
前記属性分布に基づいて前記対象エリアにおける特異地点を特定する工程と、
を備える、画像解析方法。
Acquiring a plurality of image data obtained by imaging the target area from different angles;
determining an attribute for each pixel of each of the plurality of image data;
creating shape information in the target area by associating each pixel included in the plurality of image data with each other;
a step of calculating an attribute distribution in the target area by aggregating the attribute determination results for each point included in the shape information;
Identifying a singular point in the target area based on the attribute distribution;
An image analysis method comprising:
異なる角度から対象エリアを撮像した複数の画像データを取得する工程と、
前記複数の画像データの各々について画素毎に属性を判定する工程と、
前記複数の画像データに含まれる各画素を互いに関連付けることにより、前記対象エリアにおける形状情報を作成する工程と、
前記形状情報に含まれる各点について前記属性の判定結果を集計することにより前記対象エリアにおける属性分布を算出する工程と、
前記属性分布に基づいて前記対象エリアにおける特異地点を特定する工程と、
をコンピュータに実行させる画像解析プログラム。
Acquiring a plurality of image data obtained by imaging the target area from different angles;
determining an attribute for each pixel of each of the plurality of image data;
creating shape information in the target area by associating each pixel included in the plurality of image data with each other;
a step of calculating an attribute distribution in the target area by aggregating the attribute determination results for each point included in the shape information;
Identifying a singular point in the target area based on the attribute distribution;
An image analysis program that causes a computer to execute
JP2018146124A 2018-08-02 2018-08-02 Image analysis system, image analysis method and image analysis program Active JP7153264B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018146124A JP7153264B2 (en) 2018-08-02 2018-08-02 Image analysis system, image analysis method and image analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018146124A JP7153264B2 (en) 2018-08-02 2018-08-02 Image analysis system, image analysis method and image analysis program

Publications (2)

Publication Number Publication Date
JP2020021368A JP2020021368A (en) 2020-02-06
JP7153264B2 true JP7153264B2 (en) 2022-10-14

Family

ID=69588585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018146124A Active JP7153264B2 (en) 2018-08-02 2018-08-02 Image analysis system, image analysis method and image analysis program

Country Status (1)

Country Link
JP (1) JP7153264B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494221A (en) * 2020-07-14 2022-05-13 上海商汤智能科技有限公司 Image processing method and device, electronic equipment and storage medium
CN115082772B (en) * 2022-07-19 2022-11-11 小米汽车科技有限公司 Location identification method, location identification device, vehicle, storage medium and chip
CN115273078A (en) * 2022-09-30 2022-11-01 南通炜秀环境技术服务有限公司 Sewage treatment method and system based on image data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069235A (en) 2011-09-26 2013-04-18 Asia Air Survey Co Ltd Apparatus for associating object with multiple images, data reproduction device thereof, and image processing system
JP2016151414A (en) 2015-02-16 2016-08-22 国立研究開発法人防災科学技術研究所 Analysis system for land surface change
JP2018101404A (en) 2016-09-13 2018-06-28 ダッソー システムズDassault Systemes Compressing signal that represents physical attribute
JP2018133063A (en) 2017-02-17 2018-08-23 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069235A (en) 2011-09-26 2013-04-18 Asia Air Survey Co Ltd Apparatus for associating object with multiple images, data reproduction device thereof, and image processing system
JP2016151414A (en) 2015-02-16 2016-08-22 国立研究開発法人防災科学技術研究所 Analysis system for land surface change
JP2018101404A (en) 2016-09-13 2018-06-28 ダッソー システムズDassault Systemes Compressing signal that represents physical attribute
JP2018133063A (en) 2017-02-17 2018-08-23 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method

Also Published As

Publication number Publication date
JP2020021368A (en) 2020-02-06

Similar Documents

Publication Publication Date Title
US20210390329A1 (en) Image processing method, device, movable platform, unmanned aerial vehicle, and storage medium
CN109102537B (en) Three-dimensional modeling method and system combining two-dimensional laser radar and dome camera
WO2021120455A1 (en) Image processing method and apparatus, device, and storage medium
CN110493527B (en) Body focusing method and device, electronic equipment and storage medium
JP7153264B2 (en) Image analysis system, image analysis method and image analysis program
WO2018196000A1 (en) Methods and associated systems for grid analysis
WO2020103110A1 (en) Image boundary acquisition method and device based on point cloud map and aircraft
US20210383166A1 (en) Method and apparatus for context-embedding and region-based object detection
CN112947419B (en) Obstacle avoidance method, device and equipment
CN112241976A (en) Method and device for training model
CN111246098B (en) Robot photographing method and device, computer equipment and storage medium
WO2020066456A1 (en) Image processing device, image processing method, and program
JP2015201209A (en) Method for detecting points of interest in digital image
CN113132717A (en) Data processing method, terminal and server
JP6817742B2 (en) Information processing device and its control method
JP2014211718A (en) Image processor and image processing method
CN110516731B (en) Visual odometer feature point detection method and system based on deep learning
KR101026778B1 (en) Vehicle image detection apparatus
WO2021056501A1 (en) Feature point extraction method, movable platform and storage medium
Xiang et al. Measuring stem diameter of sorghum plants in the field using a high-throughput stereo vision system
WO2021217403A1 (en) Method and apparatus for controlling movable platform, and device and storage medium
US11113871B1 (en) Scene crop via adaptive view-depth discontinuity
KR20220168875A (en) A device for estimating the lodging area in rice using AI and a method for same
CN114693799A (en) Parameter calibration method, target object tracking method, device and system
CN117523428B (en) Ground target detection method and device based on aircraft platform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R150 Certificate of patent or registration of utility model

Ref document number: 7153264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150