JP7450182B2 - Ground object detection system, ground object detection method and program - Google Patents

Ground object detection system, ground object detection method and program Download PDF

Info

Publication number
JP7450182B2
JP7450182B2 JP2020016303A JP2020016303A JP7450182B2 JP 7450182 B2 JP7450182 B2 JP 7450182B2 JP 2020016303 A JP2020016303 A JP 2020016303A JP 2020016303 A JP2020016303 A JP 2020016303A JP 7450182 B2 JP7450182 B2 JP 7450182B2
Authority
JP
Japan
Prior art keywords
bird
eye view
view image
unit
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020016303A
Other languages
Japanese (ja)
Other versions
JP2020144855A (en
Inventor
泰隆 倉本
真貴 榎本
善太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SkymatiX Inc
Original Assignee
SkymatiX Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SkymatiX Inc filed Critical SkymatiX Inc
Publication of JP2020144855A publication Critical patent/JP2020144855A/en
Priority to JP2024025053A priority Critical patent/JP2024051007A/en
Application granted granted Critical
Publication of JP7450182B2 publication Critical patent/JP7450182B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、地上物体検出システム、地上物体検出方法及びプログラムに関する。 The present invention relates to a ground object detection system, a ground object detection method, and a program.

防災を目的として、例えば河原の石礫のような地上物体を検出してその大きさと個数とを記した報告書を作成することが行われている。特に、洪水で流されると下流に被害を生じかねないメートルオーダーの岩石を検出することの重要性は非常に高い。 BACKGROUND ART For the purpose of disaster prevention, for example, objects on the ground such as stones and gravel on a riverbed are detected and a report is created in which the size and number of objects are recorded. In particular, it is extremely important to detect rocks on the order of meters, which could cause damage downstream if washed away by floods.

一般的に、石礫の検出は、まず、空撮により河原の写真を撮影し、この写真に撮影された石礫を検査員が目視で抽出、特定し、検査員が危険と判断した石礫についてはその大きさを目分量で特定し、その個数を数えて報告書を作成していた。さらに、石礫の場所を特定する必要があるときは、河原に検査員が出向いて石礫の場所を測量していた。 Generally, stone and gravel detection is done by first taking an aerial photograph of the riverbed, and having inspectors visually extract and identify the stones and stones that are captured in the photograph. The size of the pieces was determined visually, the number was counted, and a report was created. Furthermore, when it was necessary to identify the location of stones and gravels, inspectors would go to the riverbed and survey the location of stones and gravels.

特許文献1には、高精度な3次元画像の生成処理に利用することのできる航空測量映像を、無人飛行体を使用して正確且つ効率的に収集できる技術が開示されている。また、特許文献2には、被写体が遠方にあって被写体までの距離が大きい場合でも、その被写体距離を正確に測定し、測距データや該測距データに基づくスケールデータを正確に写真画面に写し込むようにした技術が開示されている。 Patent Document 1 discloses a technology that allows an unmanned flying vehicle to accurately and efficiently collect aerial survey images that can be used to generate highly accurate three-dimensional images. Furthermore, Patent Document 2 discloses that even if the subject is far away and the distance to the subject is large, the distance to the subject is accurately measured, and distance measurement data and scale data based on the distance measurement data are accurately displayed on the photo screen. A technique for imprinting has been disclosed.

特開2006-27331号公報Japanese Patent Application Publication No. 2006-27331 特開平10-281765号公報Japanese Patent Application Publication No. 10-281765

しかし、上述した石礫の大きさと個数とを記した報告書を作成する手法は人力によるものであり、手間と時間を要するとともに、報告書作成までの費用も高額になっていた。 However, the above-mentioned method of creating a report that describes the size and number of stones and gravels is manual, which requires time and effort, and the cost of creating the report is also high.

また、人力で報告書を作成する作業の場合、石礫の大きさの判定などの判断基準が作業者によって差異が生じてしまう可能性があった。 Furthermore, in the case of manually creating a report, there is a possibility that the criteria for determining the size of stones and gravel may differ depending on the worker.

加えて、報告書を作成する作業者の訓練にも時間を要する。 In addition, it takes time to train the workers who create the reports.

本発明は上記の課題に鑑みてなされたもので、地上物体の大きさと個数とを記した報告書の作成作業を簡略かつ短時間に行い、結果として報告書作成作業を安価に行うことが可能な地上物体検出システム、地上物体検出方法及びプログラムを提供することにある。 The present invention has been made in view of the above-mentioned problems, and it is possible to easily and quickly create a report that describes the size and number of objects on the ground, and as a result, the report can be created at a low cost. The object of the present invention is to provide a ground object detection system, a ground object detection method, and a program.

上記課題を解決すべく、本発明の一つの観点に従う地上物体検出システムは、地上物体を含む地面を撮影した複数の撮影画像を結合して、上空から俯瞰した状態の俯瞰画像を生成する画像結合部と、俯瞰画像に撮影された前記地上物体の位置を検出する機械学習部と、俯瞰画像に、機械学習部により検出された地上物体の位置を重畳して表示する画面を表示するための表示制御信号を生成する地図・画像表示部と、地上物体の位置が重畳された俯瞰画像に対する関心領域の設定入力を受け入れる処理要求受付部と、関心領域の設定入力に基づいて、地上物体の位置が重畳された俯瞰画像に空間的なフィルタリング処理を行う空間フィルタ部と、俯瞰画像の土地被覆を推定して、俯瞰画像を同一の土地被覆を有する領域に分類する土地被覆分類部と、関心領域内における土地被覆の分類及び領域を解析する土地被覆解析部と、土地被覆解析部の解析結果に基づいて、設定入力をまだ受け入れていない地上物体の位置が重畳された俯瞰画像に対して関心領域を推定し、俯瞰画像に空間的なフィルタリング処理を行う空間フィルタ推論部とを有する。 In order to solve the above problems, a ground object detection system according to one aspect of the present invention combines a plurality of captured images of the ground including ground objects to generate an overhead image viewed from above. a machine learning unit that detects the position of the ground object photographed in the bird's-eye view image; and a display for displaying a screen that superimposes and displays the position of the ground object detected by the machine learning unit on the bird's-eye view image. A map/image display unit that generates a control signal, a processing request reception unit that accepts an input to set a region of interest for an overhead image on which the position of a ground object is superimposed, and a processing request reception unit that receives a setting input for a region of interest, and determines the position of a ground object based on the input to set a region of interest. a spatial filter section that performs spatial filtering processing on the superimposed bird's-eye view image; a land cover classification section that estimates the land cover of the bird's-eye view image and classifies the bird's-eye view image into regions having the same land cover; Based on the analysis results of the land cover analysis unit, which analyzes the classification and area of land cover in and a spatial filter inference unit that performs spatial filtering processing on the bird's-eye view image.

本発明によれば、地上物体の大きさと個数とを記した報告書の作成作業を簡略かつ短時間に行い、結果として報告書作成作業を安価に行うことが可能となる。 According to the present invention, it is possible to easily and quickly create a report that describes the size and number of objects on the ground, and as a result, the report can be created at low cost.

本発明の一実施例である地上物体検出システムの全体構成を示す図である。1 is a diagram showing the overall configuration of a ground object detection system that is an embodiment of the present invention. 地上物体検出システムにおけるデータ処理サーバとユーザとの間の基本的な通信の流れを示す図である。FIG. 2 is a diagram showing a basic communication flow between a data processing server and a user in a ground object detection system. データ処理サーバの3次元データ生成部が生成したオルソ画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an orthoimage generated by a three-dimensional data generation unit of a data processing server. ユーザ端末に表示される、石礫の検出結果の画面表示の一例を示す図である。It is a figure which shows an example of the screen display of the detection result of stone and gravel displayed on a user terminal. データ処理サーバの機械学習部が機械学習モデルを生成する手順を示す図である。FIG. 3 is a diagram illustrating a procedure in which the machine learning unit of the data processing server generates a machine learning model. 関心領域の設定入力の一例を示す図である。FIG. 6 is a diagram illustrating an example of setting input for a region of interest. 関心領域の設定入力の他の例を示す図である。FIG. 7 is a diagram illustrating another example of setting input for a region of interest. 関心領域の設定入力のまた他の例を示す図である。FIG. 7 is a diagram showing still another example of setting input of a region of interest. 関心領域の設定入力のさらに他の例を示す図である。FIG. 7 is a diagram showing still another example of setting input of a region of interest. 誤認識領域の設定入力の一例を示す図である。FIG. 6 is a diagram illustrating an example of setting input for a misrecognition area. データ処理サーバのヒストグラム生成部により生成されるヒストグラムの一例を示す図である。FIG. 3 is a diagram illustrating an example of a histogram generated by a histogram generation unit of a data processing server. データ処理サーバの報告書生成部により作成された調査報告書の一例を示す図である。FIG. 3 is a diagram showing an example of an investigation report created by a report generation unit of a data processing server.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。 Embodiments of the present invention will be described below with reference to the drawings. The embodiments described below do not limit the claimed invention, and all of the elements and combinations thereof described in the embodiments are essential to the solution of the invention. is not limited.

本実施例の地上物体検出システムは、河原の石礫のような地上物体を画像を用いて検出し、この地上物体の大きさと個数とを計測して報告書を作成するシステムである。本実施例の地上物体検出システムは、河原の石礫を検出するシステムに適用されるが、地上物体検出システムにより検出する地上物体は石礫に限定されない。 The ground object detection system of this embodiment is a system that uses images to detect ground objects such as stones and gravel on a riverbed, measures the size and number of these ground objects, and creates a report. Although the ground object detection system of this embodiment is applied to a system for detecting stones and gravel on a riverbed, the ground objects detected by the ground object detection system are not limited to stones and gravel.

<システムの全体構成>
図1は、本発明の一実施例である地上物体検出システムの全体構成を示す図である。
<Overall system configuration>
FIG. 1 is a diagram showing the overall configuration of a ground object detection system that is an embodiment of the present invention.

図1に示すように、地上物体検出システム1はデータ処理サーバ3を有し、データ処理サーバ3は1台又は複数台のサーバコンピュータマシンにより構成され得る。データ処理サーバ3は一人又は複数人のユーザのそれぞれに対して、それぞれのユーザにより指定される対象物を画像を用いて検査する作業と、その検査結果を報告書にまとめる作業とを手伝うサービスを提供する。 As shown in FIG. 1, the ground object detection system 1 has a data processing server 3, and the data processing server 3 may be constituted by one or more server computer machines. The data processing server 3 provides a service to each of one or more users to help them inspect objects specified by each user using images and compile the inspection results into a report. provide.

データ処理サーバ3は、Webサーバ5を介して、それぞれのユーザの使用するパーソナルコンピュータやスマートフォンなどの情報処理端末(以下、ユーザ端末)7のウェブブラウザとデータ通信を行うことができる。図1では、便宜上、一つのユーザ端末7だけが図示されており、以下では、一人のユーザがデータ処理サーバ3を利用する場合を例にとり、本システムの詳細を説明する。 The data processing server 3 can perform data communication via the web server 5 with a web browser of an information processing terminal (hereinafter referred to as user terminal) 7 such as a personal computer or a smartphone used by each user. In FIG. 1, only one user terminal 7 is illustrated for convenience, and the details of this system will be described below by taking as an example a case where one user uses the data processing server 3.

データ処理サーバ3は、処理要求受付部11、データ保存・検索部13及び解析・演算部15などの処理コンポーネントを有する。 The data processing server 3 includes processing components such as a processing request reception section 11, a data storage/search section 13, and an analysis/calculation section 15.

処理要求受付部11は、ユーザからの種々の処理要求(例えば、検査を行うための種々の処理要求、又は、報告書を作成するための種々の処理要求など)を受け付けて、要求された処理を行う処理コンポーネントにその要求を渡す。 The processing request receiving unit 11 receives various processing requests from users (for example, various processing requests for performing an inspection, various processing requests for creating a report, etc.), and performs the requested processing. Pass the request to a processing component that does the following:

データ保存・検索部13は、様々な検査対象の地図、画像、検査結果及び報告書などのデータを保存し、他の処理コンポーネントからのデータ要求に応じて、要求された地図、画像又は検査結果データを読み出してその処理コンポーネントに渡す。また、データ保存・検索部13には、データ処理サーバ3の起動時に実行されるファームウェア、データ処理サーバ3の基本的動作を制御するオペレーティングシステムなどのプログラムが格納されている。 The data storage/retrieval unit 13 stores data such as maps, images, test results, and reports of various inspection targets, and stores data such as maps, images, test results, and reports of various inspection targets, and stores data such as maps, images, test results, and other data in response to data requests from other processing components. Read data and pass it to its processing component. Further, the data storage/retrieval unit 13 stores programs such as firmware executed when the data processing server 3 is started, and an operating system that controls the basic operations of the data processing server 3.

解析・演算部15はデータ処理サーバ3全体の制御を行う。また、データ処理サーバ3の起動時にデータ保存・検索部13に格納されたファームウェアが解析・演算部15により実行されることで、この解析・演算部15は、次に説明する処理コンポーネントとしての機能を実行する。 The analysis/calculation unit 15 controls the entire data processing server 3. Furthermore, when the data processing server 3 is started, the firmware stored in the data storage/retrieval unit 13 is executed by the analysis/calculation unit 15, so that the analysis/calculation unit 15 functions as a processing component described below. Execute.

解析・演算部15は、画像登録部17、画像結合部19、3次元データ生成部21、機械学習部23、空間フィルタ部25、長径・短径計算部27、ヒストグラム生成部29、地図・画像表示部31、報告書生成部33、報告書表示部35、報告書出力部37、土地被覆分類部39、土地被覆解析部41、空間フィルタ推論部43、報告書様式登録部45、報告書様式解析部47などの処理コンポーネントを有する。 The analysis/calculation section 15 includes an image registration section 17, an image combination section 19, a three-dimensional data generation section 21, a machine learning section 23, a spatial filter section 25, a major axis/minor axis calculation section 27, a histogram generation section 29, and a map/image generation section 29. Display section 31, report generation section 33, report display section 35, report output section 37, land cover classification section 39, land cover analysis section 41, spatial filter inference section 43, report format registration section 45, report format It has processing components such as an analysis unit 47.

画像登録部17は、ユーザ端末7から検出対象物である地上物体(本実施例では石礫)を含む地面を撮影した撮影画像(それには、一般的な可視光の写真画像だけでなく、赤外線などの非可視光を用いた写真画像や、その他の種類の画像なども含まれ得る)を受け入れて、それらの画像を、その画像の地理的情報(緯度、経度など)とそのユーザに関連付けてデータ保存・検索部13に登録する。 The image registration unit 17 stores an image taken from the user terminal 7 of the ground including a ground object (in this embodiment, stones) to be detected (this includes not only a general visible light photographic image but also an infrared photographic image). (which may also include non-visible light photographic images such as Register in the data storage/search section 13.

通常、検出対象物である地上物体(石礫)は地面上に多数存在する。従って、河原などの検出対象空間について多数の撮影画像が登録される。例えば、無人飛行体に搭載されたカメラで河原のような広大な検出対象空間の写真を撮影した場合、その河原の一部をそれぞれ撮影した多数の高画質撮影画像がカメラにより撮影される。カメラは河原の一部を撮影した際の地理的情報を撮影画像に紐付けて記憶する。 Usually, there are many ground objects (pebbles) on the ground to be detected. Therefore, a large number of captured images are registered for a detection target space such as a riverbed. For example, when a camera mounted on an unmanned flying vehicle takes a picture of a vast detection target space such as a riverbed, the camera takes a large number of high-quality images, each of which captures a portion of the riverbed. The camera stores geographic information when photographing a part of the riverbed, linking it to the photographed image.

従って、画像登録部17は、それぞれの撮影画像を、撮影したときの地理的情報に紐付けて登録する。この際、画像登録部17は、それぞれの撮影画像に紐付けられた地理的情報のうち、いずれかの地理的情報を、検出対象空間である河原を代表する地理的情報として紐付けて登録してもよい。 Therefore, the image registration unit 17 registers each photographed image in association with the geographical information at the time of photographing. At this time, the image registration unit 17 associates and registers one of the geographic information linked to each captured image as geographic information representative of the riverbed that is the detection target space. You can.

画像結合部19は、登録された多数の撮影画像を結合することで、検出対象空間全体のモザイク画像を生成する。 The image combining unit 19 generates a mosaic image of the entire detection target space by combining a large number of registered captured images.

3次元データ生成部21は、画像結合部19がモザイク画像を生成する際に使用した入力データ(画像)が所定の条件を満たした場合、この入力データに対してSfM(Structure from motion)処理を行って、撮影された検出対象空間の3次元データを生成し、この3次元データからオルソ画像を生成する。このオルソ画像は、検出対象空間(河原)を上空から俯瞰した状態の俯瞰画像である。オルソ画像とは、写真測量技術に基づき、カメラの傾きや比高等による歪みを補正して正射投影とした画像である。SfM及びSfMにより3次元データを生成し、この3次元データに基づいてオルソ画像を生成する手法は公知であるため、ここでの説明は省略する。 If the input data (image) used by the image combination unit 19 to generate a mosaic image satisfies a predetermined condition, the three-dimensional data generation unit 21 performs SfM (Structure from motion) processing on this input data. Then, three-dimensional data of the captured detection target space is generated, and an orthoimage is generated from this three-dimensional data. This ortho image is a bird's-eye view of the detection target space (river bed) from above. An ortho image is an image that is orthographically projected by correcting distortions caused by camera tilt and relative height based on photogrammetry technology. Since the method of generating three-dimensional data using SfM and SfM and generating an orthoimage based on this three-dimensional data is well known, a description thereof will be omitted here.

オルソ画像は、後述する地上物体検出精度(特に大きさとその位置の検出精度)を確保するために生成される。以降、このオルソ画像(俯瞰画像)に基づいて、検出対象空間に存在する検出対象物である地上物体(石礫)の検査を行う。3次元データ及びオルソ画像はデータ保存・検索部13に保存される。 The orthogonal image is generated to ensure ground object detection accuracy (especially detection accuracy of size and position), which will be described later. Thereafter, based on this ortho image (overhead image), a ground object (pebbles) that is a detection target existing in the detection target space is inspected. The three-dimensional data and ortho image are stored in the data storage/retrieval section 13.

機械学習部23は、オルソ画像に撮影された石礫の位置を検出する。より詳細には、機械学習部23は、機械学習モデルを用いて、オルソ画像から石礫が撮影されている位置を検出する。機械学習モデルの生成方法は公知であるため、ここでの説明は省略する。 The machine learning unit 23 detects the position of the stone gravel photographed in the orthoimage. More specifically, the machine learning unit 23 uses a machine learning model to detect the position where the stone gravel is photographed from the orthoimage. Since the method for generating a machine learning model is well known, a description thereof will be omitted here.

空間フィルタ部25は、ユーザ端末7を介してユーザが設定入力した関心領域に基づいて、3次元データ生成部21が生成したオルソ画像に対して空間的なフィルタリング処理を行う。関心領域とは、後述する長径・短径計算部27及びヒストグラム生成部29による石礫の長径・短径の計算処理及び石礫の個数算出処理を行う領域であり、オルソ画像の少なくとも一部に設定される。空間的なフィルタリング処理とは、オルソ画像に対して関心領域を設定して、長径・短径計算部27等による計算処理をすべき領域を限定することである。 The spatial filter section 25 performs spatial filtering processing on the orthoimage generated by the three-dimensional data generation section 21 based on the region of interest set and input by the user via the user terminal 7. The region of interest is an area in which the long axis/breadth axis calculation unit 27 and the histogram generation unit 29, which will be described later, calculate the long axis and short axis of stones and the number of stones. Set. Spatial filtering processing means setting a region of interest in the orthoimage to limit the region to be subjected to calculation processing by the major axis/minor axis calculation unit 27 or the like.

長径・短径計算部27は、空間フィルタ部25により設定された関心領域内におけるオルソ画像から、機械学習部23の出力結果、つまり石礫の検出結果に基づいて、この機械学習部23により検出された石礫の長径及び短径を計算する。 The major axis/minor axis calculating unit 27 calculates the detection by the machine learning unit 23 based on the output result of the machine learning unit 23, that is, the stone and gravel detection result from the ortho image within the region of interest set by the spatial filter unit 25. Calculate the major axis and minor axis of the gravel.

ヒストグラム生成部29は、長径・短径計算部27により計算された石礫の長径及び短径の計算結果に基づいて、石礫のサイズのヒストグラム、及び、石礫のサイズの累計ヒストグラムを生成する。 The histogram generation unit 29 generates a histogram of the size of stones and a cumulative histogram of the sizes of stones based on the calculation results of the long axis and short axis of the stones calculated by the long axis/breadth axis calculation unit 27. .

地図・画像表示部31は、ユーザからの処理要求に応じて、ユーザ端末7のスクリーンに表示されるオルソ画像等をWebサーバ5に送る。Webサーバ5は、オルソ画像を組み込んだ作業画面をユーザ端末7に送出し、ユーザ端末7はこの作業画面をウェブブラウザのスクリーン上に表示する。 The map/image display unit 31 sends an ortho image displayed on the screen of the user terminal 7 to the Web server 5 in response to a processing request from the user. The web server 5 sends a work screen incorporating the orthoimage to the user terminal 7, and the user terminal 7 displays this work screen on the screen of a web browser.

特に、地図・画像表示部31は、機械学習部23により検出された石礫の位置をオルソ画像に重畳して表示する画面を表示するための表示制御信号を生成することができる。 In particular, the map/image display section 31 can generate a display control signal for displaying a screen that displays the position of the stone gravel detected by the machine learning section 23 superimposed on the orthoimage.

報告書生成部33は、ユーザからの要求に応じて、オルソ画像、石礫の位置検出結果、石礫のサイズのヒストグラム、石礫のサイズの累計ヒストグラム等のデータを用いて、関心領域における石礫の調査報告書を作成する。この際、報告書生成部33は、ユーザがユーザ端末7を介して入力したコメントを処理要求受付部11を介して受け入れ、このコメントを含めた調査報告書を作成する。 In response to a request from a user, the report generation unit 33 uses data such as an ortho image, a stone and gravel position detection result, a histogram of stone and gravel sizes, and a cumulative histogram of stone and gravel sizes to determine the size of stones in the region of interest. Create a gravel investigation report. At this time, the report generating section 33 accepts a comment input by the user via the user terminal 7 via the processing request receiving section 11, and creates an investigation report including this comment.

報告書表示部35は、ユーザからの要求に応じて、報告書生成部33が作成した調査報告書をWebサーバ5に送る。Webサーバ5は調査報告書をユーザ端末7に送出し、ユーザ端末7はこの作業画面をウェブブラウザのスクリーン上に表示する。 The report display section 35 sends the investigation report created by the report generation section 33 to the Web server 5 in response to a request from a user. The web server 5 sends the investigation report to the user terminal 7, and the user terminal 7 displays this work screen on the screen of the web browser.

報告書出力部37は、ユーザからの要求に応じて、報告書生成部33が作成した調査報告書をWebサーバ5に送る。Webサーバ5は、調査報告書をユーザがユーザ端末7にダウンロードすることを可能にする。 The report output unit 37 sends the investigation report created by the report generation unit 33 to the Web server 5 in response to a request from a user. The web server 5 allows the user to download the investigation report to the user terminal 7.

土地被覆分類部39は、オルソ画像の各画素が持つ分光放射特性やサブビクセルのテクスチャ情報から、オルソ画像中の各領域または各画素の土地被覆を推測する。土地被覆分類部39の処理自体は既知であり、例えば特開平8-320930号公報に開示された技術等が適用可能である。 The land cover classification unit 39 estimates the land cover of each region or each pixel in the orthogonal image from the spectral radiation characteristics and sub-vixel texture information of each pixel in the orthogonal image. The processing itself of the land cover classification unit 39 is known, and for example, the technique disclosed in Japanese Patent Application Laid-Open No. 8-320930 can be applied.

土地被覆解析部41は、ユーザが設定入力した関心領域である空間フィルタと、土地被覆分類部39による分類された土地被覆分類結果との相関を調べる。一例として、土地被覆解析部41は、空間フィルタ内におけるオルソ画像中の各領域または各画素の土地被覆の推定結果を抽出する。 The land cover analysis unit 41 examines the correlation between the spatial filter, which is the region of interest set and input by the user, and the land cover classification result classified by the land cover classification unit 39. As an example, the land cover analysis unit 41 extracts the land cover estimation result of each region or each pixel in the orthoimage within the spatial filter.

空間フィルタ推論部43は、地上物体検出システム1においてまだ解析が行われていない検出対象空間についての調査報告書を作成する際に、土地被覆解析部41による土地被覆解析結果に基づいて、最適と思われる空間フィルタを設定する。 When creating a survey report for a detection target space that has not yet been analyzed in the ground object detection system 1, the spatial filter inference unit 43 selects the optimal one based on the land cover analysis result by the land cover analysis unit 41. Set up a spatial filter that seems to work.

報告書様式登録部45は、ユーザがユーザ端末7を介して入力した、ユーザが作成を希望する調査報告書の様式(サンプル)を登録する。登録した調査報告書の様式はデータ保存・検索部13に格納される。 The report format registration unit 45 registers the format (sample) of the investigation report that the user desires to create, which is input by the user via the user terminal 7 . The registered investigation report format is stored in the data storage/retrieval section 13.

報告書様式解析部47は、報告書様式登録部45により登録され、データ保存・検索部13に格納された調査報告書の様式を解析して、様式を文字部、グラフ部、写真部などに分類して、この分類結果と略同一の比率を有する調査報告書のテンプレートを生成する。 The report format analysis section 47 analyzes the format of the investigation report registered by the report format registration section 45 and stored in the data storage/retrieval section 13, and converts the format into a text section, a graph section, a photograph section, etc. The information is classified and an investigation report template having substantially the same ratio as the classification result is generated.

<システムの動作>
図2は、地上物体検出システム1におけるデータ処理サーバ3とユーザとの間の基本的な通信の流れを示す。
<System operation>
FIG. 2 shows the basic flow of communication between the data processing server 3 and the user in the ground object detection system 1.

図2において、ステップ51で、ユーザ9が、調査報告書作成の際の基礎となる撮影画像をユーザ端末7を介してデータ処理サーバ3にアップロードする。ステップ53で、データ処理サーバ3の画像登録部17が、アップロードされた撮影画像を登録し、データ保存・検索部13に格納する。 In FIG. 2, in step 51, the user 9 uploads a captured image, which will be the basis for creating an investigation report, to the data processing server 3 via the user terminal 7. In step 53, the image registration unit 17 of the data processing server 3 registers the uploaded photographed image and stores it in the data storage/search unit 13.

ステップ55で、画像結合部19が、ステップ53で登録された撮影画像を結合して、検出対象空間のモザイク画像を生成する。この後、3次元データ生成部21が、画像結合部19が生成したモザイク画像に対してSfM処理を行って、3次元データ及びオルソ画像を生成する。図3は、3次元データ生成部21が生成したオルソ画像Pの一例を示す。 In step 55, the image combining unit 19 combines the captured images registered in step 53 to generate a mosaic image of the detection target space. Thereafter, the three-dimensional data generation section 21 performs SfM processing on the mosaic image generated by the image combination section 19 to generate three-dimensional data and an orthoimage. FIG. 3 shows an example of an orthoimage P generated by the three-dimensional data generation unit 21.

ステップ57で、3次元データ生成部21が生成したオルソ画像に基づいて、機械学習部23がオルソ画像に撮影された石礫の位置を検出する。そして、ステップ59で、地図・画像表示部31が、オルソ画像に検出された石礫の位置を重畳した画面をユーザ端末7に表示させる。 In step 57, based on the orthoimage generated by the three-dimensional data generation unit 21, the machine learning unit 23 detects the position of the stone gravel photographed in the orthoimage. Then, in step 59, the map/image display unit 31 causes the user terminal 7 to display a screen in which the position of the detected gravel is superimposed on the orthoimage.

図4は、ユーザ端末7に表示される、石礫の検出結果の画面表示の一例を示す。オルソ画像Pに重畳して、機械学習部23が検出した石礫Tの位置がバーBとして表示されている。バーBの長さは、機械学習部23が検出した石礫Tのおおよその大きさに比例している。 FIG. 4 shows an example of a screen display of the stone and gravel detection results displayed on the user terminal 7. The position of the gravel T detected by the machine learning unit 23 is displayed as a bar B superimposed on the orthoimage P. The length of the bar B is proportional to the approximate size of the gravel T detected by the machine learning unit 23.

図5は、機械学習部23が機械学習モデルを生成する手順を示す。モデル生成指示者(教師)は、オルソ画像Pにおいて石礫が撮影されている位置を矩形領域Rにより指定する。機械学習部23は、矩形領域Rの特徴量に基づいて機械学習モデルを生成する。 FIG. 5 shows a procedure in which the machine learning unit 23 generates a machine learning model. The model generation instructor (teacher) specifies the position where the stone gravel is photographed in the orthoimage P using the rectangular area R. The machine learning unit 23 generates a machine learning model based on the feature amount of the rectangular region R.

ステップ61で、ユーザ9は、ユーザ端末7に表示された画面を見ながら、石礫の位置及びその大きさを計算すべき関心領域の設定入力を行う。ステップ61における関心領域の設定入力は、例えば、ユーザ端末7に設けられたマウス等の入力機器を用いて行われる。 In step 61, the user 9, while looking at the screen displayed on the user terminal 7, inputs settings for the region of interest in which the position and size of the gravel should be calculated. The region of interest setting input in step 61 is performed using, for example, an input device such as a mouse provided on the user terminal 7.

図6は、ステップ61において行われる関心領域の設定入力の一例を示す。まず、ユーザ9は、検出対象空間である河原における工事予定地80から上流及び下流にnメートル(一例として200m)の長さ81を指定する。次いで、ユーザ9は、関心領域の幅を設定する。この際、川沿いの道路など、石礫の計数を行わない領域を除外して指定する。さらに、ユーザ9は、コンクリートブロック群のように、石礫の計数を行わない領域(除外領域)82を指定する。これにより、関心領域83の設定入力が行われる。加えて、ユーザ9は、関心領域83内において機械学習部23による検出漏れがあった石礫が撮影されている領域84を追記する。 FIG. 6 shows an example of the region of interest setting input performed in step 61. First, the user 9 specifies a length 81 of n meters (200 m as an example) upstream and downstream from the planned construction site 80 in the riverbed, which is the detection target space. Next, the user 9 sets the width of the region of interest. At this time, areas such as roads along rivers and other areas where stone and gravel are not to be counted are excluded and specified. Furthermore, the user 9 specifies an area (exclusion area) 82, such as a group of concrete blocks, in which stones and gravels are not counted. As a result, the setting input for the region of interest 83 is performed. In addition, the user 9 additionally notes a region 84 in the region of interest 83 where stones and gravels that were not detected by the machine learning unit 23 are photographed.

ステップ63で、空間フィルタ部25は、ユーザが設定入力した関心領域83に基づいて、オルソ画像に対して空間的なフィルタリング処理を行う。ステップ65で、長径・短径計算部27が、関心領域83内にある石礫の長径・短径を計数し、さらに、石礫の個数を計数する。 In step 63, the spatial filter unit 25 performs spatial filtering processing on the orthoimage based on the region of interest 83 set and input by the user. In step 65, the major axis and minor axis calculation unit 27 counts the major axis and minor axis of the stones within the region of interest 83, and further counts the number of stones.

ユーザ9は、ステップ61において設定入力をした関心領域83を、ステップS66において修正することができる。以下、図7~図10を参照して、関心領域83の修正手法について説明する。 The user 9 can modify the region of interest 83 for which the settings were input in step 61 in step S66. Hereinafter, a method for correcting the region of interest 83 will be described with reference to FIGS. 7 to 10.

図7に示すように、ユーザ9は、河川を横切るように、工事予定地80である線分を空撮画像上に引くことができる。(この線分は砂防ダムの建設予定位置を模擬し得る。)すると、関心領域83として、その線分の上流側と下流側にその線分を一辺としてもつ、長さ81の規定サイズ(例えば、それぞれ長さ200m、幅は線分の長さ)の2つの長方形領域が自動的に設定される。これら2つの長方形領域が関心領域83として設定される。 As shown in FIG. 7, the user 9 can draw a line segment representing the planned construction site 80 on the aerial image so as to cross the river. (This line segment can simulate the planned construction location of the sabo dam.) Then, as the region of interest 83, a specified size of length 81 (for example, , each having a length of 200 m and a width equal to the length of a line segment) are automatically set. These two rectangular areas are set as the region of interest 83.

そして、ステップS65において、その関心領域83内に存在する石礫の複数のサイズレベル毎の個数と個数割合が自動計算され、その集計結果が画面上に表示される(図7の右下表参照)。この集計結果には、石礫のサイズレベルに固有の色マークが表示される。 Then, in step S65, the number and number ratio of stones and gravels existing in the region of interest 83 for each of the plurality of size levels are automatically calculated, and the tabulated results are displayed on the screen (see the table at the bottom right of FIG. 7). ). This tally result displays a color mark specific to the size level of the gravel.

さらに、空撮画像上にも、関心領域83内に存在する石礫の各々が、それが該当するサイズレベルの固有の色を付されて表示される。ユーザ9は、どのレベルのサイズの石礫が、関心領域内にどのように分布しているかを、視覚的に把握できる。 Furthermore, each stone and gravel existing within the region of interest 83 is displayed on the aerial image with a unique color corresponding to the size level to which it corresponds. The user 9 can visually grasp how the level and size of stones are distributed within the region of interest.

ユーザ9は、集計結果と、空撮画像上での砂防ダム建設予定位置、関心領域83内の石礫のサイズ別の分布などを見ることで、砂防ダム建設予定位置の適否を判断しやすい。 The user 9 can easily judge the suitability of the planned erosion control dam construction location by looking at the tabulation results, the planned erosion control dam construction location on the aerial photographed image, the size distribution of stones and gravel within the region of interest 83, and the like.

ユーザは関心領域83を次のように変更できる。 The user can change the region of interest 83 as follows.

例えば、図8に示すように、砂防ダム建設予定位置(線分80)を固定したまま、その上流側と下流側の関心領域83の方向を個別に変えることができる(長方形領域が平行四辺形領域に変わる)。河川の折れ曲がりに対応できる。 For example, as shown in FIG. 8, while the planned erosion control dam construction position (line segment 80) is fixed, the directions of the regions of interest 83 on the upstream and downstream sides can be changed individually (the rectangular region is a parallelogram). area). It can accommodate bends in the river.

また、図9に示すように、砂防ダム建設予定位置(線分80)を固定したまま、その上流側と下流側の関心領域の方向に関心領域の長さ81を個別に変えることができる。砂防ダムが近くに存在したり、河川や河原の幅が変化している場合に対応しやすい。 Further, as shown in FIG. 9, while the planned erosion control dam construction position (line segment 80) is fixed, the length 81 of the region of interest can be changed individually in the directions of the region of interest on the upstream and downstream sides thereof. This is easy to deal with when there is a check dam nearby or when the width of a river or riverbed is changing.

さらに、図8、図9に示すように、空撮画像上で除外領域82を指定することで、除外領域82を関心領域83から除外することができる。 Furthermore, as shown in FIGS. 8 and 9, by specifying the exclusion area 82 on the aerial photographed image, the exclusion area 82 can be excluded from the region of interest 83.

さらに、図示は省略するが、ダム建設予定位置(線分80)の長さや位置を変えることもできる。 Furthermore, although not shown, the length and position of the planned dam construction position (line segment 80) can also be changed.

さらに、図10に示すように、ユーザ9は、空撮画像上で石礫に該当しない領域が石礫と自動認識されて表示されていた場合、その誤認識された表示(例えば囲み枠84)を指定して、これを石礫から除外する修正を行うことができる。逆に、図示は省略するが、石礫に該当する領域が自動では認識漏れになっていた場合、その領域を指定して(例えば枠線で囲むことで)それを石礫に加える修正を行うことができる。 Furthermore, as shown in FIG. 10, when an area that does not correspond to gravel on the aerial photographed image is automatically recognized and displayed as gravel, the user 9 can check the display of the erroneously recognized area (for example, the surrounding frame 84). You can specify this and make a modification to exclude it from the gravel. Conversely, although not shown, if an area corresponding to gravel is not recognized automatically, specify that area (for example, by surrounding it with a frame) and make corrections to add it to the gravel. be able to.

ユーザ9が上記の関心領域83変更や誤認識修正を行なうと、その都度、ステップ63、65において集計が再度行われ、集計結果の表示と、関心領域の表示と、関心領域内の石礫の表示とが更新される。そして、石礫のサイズに応じた色分け表示がされ、関心領域83内に存在する石礫のサイズレベルごとの石礫の個数と個数割合が計算され、画面に表示される。 When the user 9 changes the above-mentioned region of interest 83 or corrects misrecognition, the aggregation is performed again in steps 63 and 65 each time, and the aggregation results are displayed, the region of interest is displayed, and the stones and gravel within the region of interest are displayed. The display is updated. Then, the stones are displayed in different colors according to their sizes, and the number and number ratio of the stones existing in the region of interest 83 for each size level are calculated and displayed on the screen.

関心領域83の更新が行われた後、ヒストグラム生成部29が、長径・短径計算部27により計算された石礫の長径及び短径の計算結果に基づいて、石礫のサイズのヒストグラム、及び、石礫のサイズの累計ヒストグラムを生成する。 After the region of interest 83 is updated, the histogram generation unit 29 generates a histogram of the size of the gravel based on the calculation results of the major axis and minor axis of the gravel calculated by the major axis/minor axis calculation unit 27. , generate a cumulative histogram of gravel sizes.

図7は、ヒストグラム生成部29により生成されるヒストグラムの一例を示す。図11は、ヒストグラム生成部29によりヒストグラムが生成された後に、ユーザ9からの指示に基づいてユーザ端末7に表示される画面の一例である。 FIG. 7 shows an example of a histogram generated by the histogram generation unit 29. FIG. 11 is an example of a screen displayed on the user terminal 7 based on an instruction from the user 9 after the histogram generation unit 29 generates a histogram.

この画面には、石礫のサイズのヒストグラム90及び石礫のサイズの累計ヒストグラム91が表示されている。また、画面には、機械学習部23により検出された石礫の個数を表示する領域92、長径・短径計算部27により計算された石礫の径の平均を表示する領域93、検出された石礫全体の個数の50%に相当する石礫の径(D50)を表示する領域94、及び、検出された石礫全体の個数の95%に相当する石礫の径(D95)を表示する領域95が設けられている。 This screen displays a histogram 90 of stone and gravel sizes and a cumulative histogram 91 of stone and gravel sizes. The screen also includes an area 92 for displaying the number of stones and gravels detected by the machine learning unit 23, an area 93 for displaying the average diameter of the stones calculated by the major axis/short axis calculation unit 27, and an area 93 for displaying the average diameter of the stones and gravels detected by the machine learning unit 23. An area 94 that displays the diameter (D50) of stones and gravels corresponding to 50% of the total number of stones and gravels, and a region 94 that displays the diameter (D95) of stones and gravels that corresponds to 95% of the total number of stones and gravels detected. A region 95 is provided.

ステップ67で、報告書生成部33が調査報告書を作成する。図12は、報告書生成部33により作成された調査報告書の一例を示す。調査報告書は、書誌的事項及び検出結果が記載された文字部100、オルソ画像に石礫の検出結果が重畳された画像が表示された写真部101、及び、2種類のヒストグラムが表示されたグラフ部102を有する。 In step 67, the report generation unit 33 creates an investigation report. FIG. 12 shows an example of an investigation report created by the report generation unit 33. The investigation report includes a text section 100 in which bibliographic information and detection results are described, a photograph section 101 in which an image in which the stone and gravel detection results are superimposed on an ortho image, and two types of histograms are displayed. It has a graph section 102.

ステップ69で、報告書表示部35がユーザ端末7の画面に調査報告書を表示する。ステップ71で、ユーザ9がユーザ端末7を介して、調査報告書のコメントを入力することでこの調査報告書を編集する。ユーザ9が入力したコメントは文字部100に追記される。 In step 69, the report display unit 35 displays the investigation report on the screen of the user terminal 7. In step 71, the user 9 edits the investigation report by inputting comments on the investigation report via the user terminal 7. The comment input by the user 9 is added to the text section 100.

ステップ73で、報告書生成部33が調査報告書をデータ保存・検索部13に格納する。ステップ75で、報告書出力部37が調査報告書をダウンロード可能な状態でWebサーバ5に送出し、ユーザ9は調査報告書をダウンロードする。 At step 73, the report generation section 33 stores the investigation report in the data storage/retrieval section 13. In step 75, the report output unit 37 sends the investigation report in a downloadable state to the Web server 5, and the user 9 downloads the investigation report.

<システムの効果>
このように構成される本実施例によれば、撮影画像に基づいて石礫の位置を検出し、設定入力された関心領域に撮影されている石礫の大きさと個数とを計数し、さらに、石礫のサイズのヒストグラムを生成して、これらに基づいて調査報告書を作成することができる。
<System effect>
According to this embodiment configured in this way, the position of the stones is detected based on the photographed image, the size and number of stones photographed in the region of interest that has been inputted is counted, and further, A histogram of gravel sizes can be generated and a survey report can be created based on these.

従って、本実施例によれば、石礫の大きさと個数とを記した報告書の作成作業を簡略かつ短時間に行い、結果として報告書作成作業を安価に行うことが可能となる。 Therefore, according to this embodiment, it is possible to easily and quickly create a report describing the size and number of stones and gravels, and as a result, the report can be created at low cost.

<システムの他の機能>
本実施例の地上物体検出システム1は、上述した機能、動作に加えて、次のような機能、動作を有する。
<Other functions of the system>
The ground object detection system 1 of this embodiment has the following functions and operations in addition to the functions and operations described above.

まず、撮影画像に地理的情報が紐付けられていることから、関心領域についても地理的情報を紐付けることができる。空間フィルタ部25は、関心領域の設定入力があったら、この関心領域に対応する空間的なフィルタリング処理を行う際に、空間的なフィルタリング処理を行った関心領域と、この関心領域に紐付けられた地理的情報とをデータ保存・検索部13に格納する。 First, since geographical information is linked to a photographed image, it is possible to link geographical information to a region of interest as well. When the spatial filter section 25 receives a setting input for a region of interest, when performing spatial filtering processing corresponding to this region of interest, the spatial filter section 25 selects the region of interest that has undergone spatial filtering processing and the region of interest linked to this region of interest. The geographical information obtained is stored in the data storage/retrieval unit 13.

そして、空間フィルタ部25は、同一と判断できる(地理的情報が重複する撮影画像が多数を占める)俯瞰画像が入力されたら、俯瞰画像の地理的情報を検索キーとしてデータ保存・検索部13内を検索し、対応する関心領域に関する情報を読み出す。この後、空間フィルタ部25は、関心領域の設定入力を待つことなく、既に格納されている関心領域に基づいて空間的なフィルタリング処理を行う。 Then, when the bird's-eye view images that can be determined to be the same (the majority of captured images have overlapping geographical information) are input, the spatial filter unit 25 uses the geographical information of the bird's-eye view image as a search key to store the data in the data storage/search unit 13. and retrieve information about the corresponding region of interest. Thereafter, the spatial filter unit 25 performs spatial filtering processing based on the already stored regions of interest without waiting for input of setting the region of interest.

また、土地被覆分類部39は、オルソ画像中の各領域または各画素の土地被覆を推測し、土地被覆解析部41は、関心領域と土地被覆分類結果との相関を調べる。そして、土地被覆解析部41は、空間フィルタ内の土地被覆分類上の特徴を学習する。 Further, the land cover classification unit 39 estimates the land cover of each region or each pixel in the orthoimage, and the land cover analysis unit 41 examines the correlation between the region of interest and the land cover classification result. Then, the land cover analysis unit 41 learns the land cover classification features within the spatial filter.

さらに、画像登録部17により登録された撮影画像が、既にデータ保存・検索部13に格納されている地理的情報に紐付けられていない撮影画像であるとき、空間フィルタ推論部43は、土地被覆解析部41の学習結果に基づいて、土地被覆分類部39による土地被覆分類結果から、ユーザ9が入力するであろう関心領域を推測する。加えて、機械学習部23は、空間フィルタ推論部43により推測された空間フィルタ内の石礫の検出結果と、オルソ画像全体における石礫の検出結果とを提示する。 Furthermore, when the captured image registered by the image registration unit 17 is a captured image that is not linked to geographic information already stored in the data storage/retrieval unit 13, the spatial filter inference unit 43 Based on the learning results of the analysis unit 41 and the land cover classification results of the land cover classification unit 39, the region of interest that the user 9 would input is estimated. In addition, the machine learning unit 23 presents the detection results of stones and gravels in the spatial filter estimated by the spatial filter inference unit 43 and the detection results of stones and gravels in the entire orthoimage.

このような動作により、一度調査報告書を作成した検出対象空間については、関心領域の設定入力を省略することができ、調査報告書作成作業をさらに高速に行うことができる。 With such an operation, it is possible to omit setting input of a region of interest for a detection target space for which an investigation report has been created, and the work of creating an investigation report can be performed even faster.

また、調査報告書を繰り返し作成していれば、土地被覆解析部41の学習結果に基づいて空間フィルタを推測することができ、同様に関心領域の設定入力を省略することができ、調査報告書作成作業をさらに高速に行うことができる。特に、撮影画像はユーザにも紐付けられているので、土地被覆解析部41の学習結果をユーザに紐付けておけば、ユーザの関心領域の設定の好みや癖を学習してユーザ毎に最適な関心領域を推測することができる。 Furthermore, if survey reports are repeatedly created, spatial filters can be estimated based on the learning results of the land cover analysis unit 41, and inputting settings for regions of interest can be omitted as well. Creation work can be done even faster. In particular, since the captured image is also linked to the user, if the learning results of the land cover analysis unit 41 are linked to the user, the user's preference and habit of setting the area of interest can be learned and optimized for each user. The area of interest can be inferred.

そして、報告書様式解析部47は、報告書様式登録部45により登録された調査報告書を解析して、様式の中を文字部100、グラフ部102、写真部101などに分類して調査報告書のテンプレートを作成する。従って、報告書生成部33は、報告書様式解析部47により作成されたテンプレートに従って調査報告書を作成することができる。 Then, the report format analysis section 47 analyzes the investigation report registered by the report format registration section 45, classifies the format into a text section 100, a graph section 102, a photograph section 101, etc., and reports the investigation report. Create a template for your book. Therefore, the report generation section 33 can create an investigation report according to the template created by the report format analysis section 47.

これにより、予め様式が定められている調査報告書の様式に基づいて調査報告書を作成する場合でも、予め定められている様式に基づいてコーディングを行ったりGUI(Graphic User Interface)に基づいて様式を指定する手間をかけることなく、予め定められている様式に準拠した様式で調査報告書を作成することができる。しかも、報告書様式登録部45により異なる調査報告書の様式を登録すれば、登録された様式に基づいて調査報告書を簡易に作成することができる。 As a result, even when creating an investigation report based on a predetermined format, it is possible to code based on the predetermined format or format it based on the GUI (Graphic User Interface). It is possible to create an investigation report in a format that conforms to a predetermined format without having to take the trouble of specifying the format. Furthermore, by registering different investigation report formats using the report format registration section 45, it is possible to easily create an investigation report based on the registered formats.

変形例Variations

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Note that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add, delete, or replace a part of the configuration of each embodiment with other configurations.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Moreover, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be partially or entirely realized in hardware by designing, for example, an integrated circuit. Further, each of the above-mentioned configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, files, etc. that realize each function can be stored in a memory, a recording device such as a hard disk, an SSD, or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines are shown to be necessary for explanation purposes, and not all control lines and information lines are necessarily shown in the product. In reality, almost all components may be considered to be interconnected.

1…地上物体検出システム 3…データ処理サーバ 5…Webサーバ 7…ユーザ端末 9…ユーザ 11…処理要求受付部 13…データ保存・検索部 15…解析・演算部 17…画像登録部 19…画像結合部 21…3次元データ生成部 23…機械学習部 25…空間フィルタ部 27…長径・短径計算部 29…ヒストグラム生成部 31…画像表示部 33…報告書生成部 35…報告書表示部 37…報告書出力部 39…土地被覆分類部 41…土地被覆解析部 43…空間フィルタ推論部 45…報告書様式登録部 47…報告書様式解析部 83…関心領域 90…ヒストグラム 91…累計ヒストグラム 100…文字部 101…写真部 102…グラフ部 P…オルソ画像 T…石礫 1...Ground object detection system 3...Data processing server 5...Web server 7...User terminal 9...User 11...Processing request reception section 13...Data storage/search section 15...Analysis/calculation section 17...Image registration section 19...Image combination Section 21...Three-dimensional data generation section 23...Machine learning section 25...Spatial filter section 27...Long axis/breadth axis calculation section 29...Histogram generation section 31...Image display section 33...Report generation section 35...Report display section 37... Report output section 39...Land cover classification section 41...Land cover analysis section 43...Spatial filter inference section 45...Report format registration section 47...Report format analysis section 83...Region of interest 90...Histogram 91...Cumulative histogram 100...Character Section 101... Photograph section 102... Graph section P... Ortho image T... Stone gravel

Claims (3)

地上物体を含む地面を撮影した複数の撮影画像を結合して、上空から俯瞰した状態の俯瞰画像を生成する画像結合部と、
前記俯瞰画像に撮影された前記地上物体の位置を検出する機械学習部と、
前記俯瞰画像に、前記機械学習部により検出された前記地上物体の位置を重畳して表示する画面を表示するための表示制御信号を生成する地図・画像表示部と、
前記地上物体の位置が重畳された前記俯瞰画像に対する関心領域の設定入力を受け入れる処理要求受付部と、
前記関心領域の前記設定入力に基づいて、前記地上物体の位置が重畳された前記俯瞰画像に空間的なフィルタリング処理を行う空間フィルタ部と、
前記俯瞰画像の土地被覆を推定して、前記俯瞰画像を同一の前記土地被覆を有する領域に分類する土地被覆分類部と、
前記関心領域内における前記土地被覆の分類及び前記領域を解析する土地被覆解析部と、
前記土地被覆解析部の解析結果に基づいて、前記設定入力をまだ受け入れていない前記地上物体の位置が重畳された前記俯瞰画像に対して前記関心領域を推定し、前記俯瞰画像に空間的なフィルタリング処理を行う空間フィルタ推論部と
を有する地上物体検出システム。
an image combining unit that combines a plurality of captured images of the ground including ground objects to generate an overhead image viewed from above;
a machine learning unit that detects the position of the ground object captured in the bird's-eye view image;
a map/image display unit that generates a display control signal for displaying a screen that superimposes the position of the ground object detected by the machine learning unit on the bird's-eye view image;
a processing request reception unit that accepts an input for setting a region of interest for the bird's-eye view image on which the position of the ground object is superimposed;
a spatial filter unit that performs spatial filtering processing on the bird's-eye view image on which the position of the ground object is superimposed based on the setting input of the region of interest;
a land cover classification unit that estimates the land cover of the bird's-eye view image and classifies the bird's-eye view image into regions having the same land cover;
a land cover analysis unit that analyzes the classification of the land cover within the region of interest and the area;
Based on the analysis result of the land cover analysis unit, the region of interest is estimated for the bird's-eye view image on which the position of the ground object for which the setting input has not yet been accepted is superimposed, and spatial filtering is performed on the bird's-eye view image. A ground object detection system having a spatial filter inference unit that performs processing.
地上物体検出システムにより実行される地上物体検出方法であって、
地上物体を含む地面を撮影した複数の撮影画像を結合して、上空から俯瞰した状態の俯瞰画像を生成し、
前記俯瞰画像に撮影された前記地上物体の位置を検出し、
前記俯瞰画像に、検出された前記地上物体の位置を重畳して表示する画面を表示するための表示制御信号を生成し、
前記地上物体の位置が重畳された前記俯瞰画像に対する関心領域の設定入力を受け入れ、
前記関心領域の前記設定入力に基づいて、前記地上物体の位置が重畳された前記俯瞰画像に空間的なフィルタリング処理を行い、
前記俯瞰画像の土地被覆を推定して、前記俯瞰画像を同一の前記土地被覆を有する領域に分類し、
前記関心領域内における前記土地被覆の分類及び前記領域を解析し、
前記解析の結果に基づいて、前記設定入力をまだ受け入れていない前記地上物体の位置が重畳された前記俯瞰画像に対して前記関心領域を推定し、前記俯瞰画像に空間的なフィルタリング処理を行う
地上物体検出方法。
A ground object detection method performed by a ground object detection system, the method comprising:
Combines multiple captured images of the ground, including objects on the ground, to generate a bird's-eye view of the ground from above,
detecting the position of the ground object photographed in the bird's-eye view image;
generating a display control signal for displaying a screen that superimposes and displays the position of the detected ground object on the bird's-eye view image;
accepting an input for setting a region of interest for the overhead image on which the position of the ground object is superimposed;
performing spatial filtering processing on the bird's-eye view image on which the position of the ground object is superimposed based on the setting input of the region of interest;
estimating the land cover of the bird's-eye view image and classifying the bird's-eye view image into regions having the same land cover;
analyzing the land cover classification and the area within the region of interest;
Based on the results of the analysis, the area of interest is estimated for the bird's-eye view image on which the position of the ground object for which the setting input has not been accepted is superimposed, and the ground plane performs a spatial filtering process on the bird's-eye view image. Object detection method.
コンピュータにより実行されるコンピュータプログラムであって、
このコンピュータプログラムが実行されると、前記コンピュータを
地上物体を含む地面を撮影した複数の撮影画像を結合して、上空から俯瞰した状態の俯瞰画像を生成する画像結合部と、
前記俯瞰画像に撮影された前記地上物体の位置を検出する機械学習部と、
前記俯瞰画像に、前記機械学習部により検出された前記地上物体の位置を重畳して表示する画面を表示するための表示制御信号を生成する地図・画像表示部と、
前記地上物体の位置が重畳された前記俯瞰画像に対する関心領域の設定入力を受け入れる処理要求受付部と、
前記関心領域の前記設定入力に基づいて、前記地上物体の位置が重畳された前記俯瞰画像に空間的なフィルタリング処理を行う空間フィルタ部と、
前記俯瞰画像の土地被覆を推定して、前記俯瞰画像を同一の前記土地被覆を有する領域に分類する土地被覆分類部と、
前記関心領域内における前記土地被覆の分類及び前記領域を解析する土地被覆解析部と、
前記土地被覆解析部の解析結果に基づいて、前記設定入力をまだ受け入れていない前記地上物体の位置が重畳された前記俯瞰画像に対して前記関心領域を推定し、前記俯瞰画像に空間的なフィルタリング処理を行う空間フィルタ推論部と
して機能させるコンピュータプログラム。
A computer program executed by a computer,
When this computer program is executed, the computer program includes: an image combining unit that combines a plurality of captured images of the ground including ground objects to generate a bird's-eye view of the ground from above;
a machine learning unit that detects the position of the ground object captured in the bird's-eye view image;
a map/image display unit that generates a display control signal for displaying a screen that superimposes the position of the ground object detected by the machine learning unit on the bird's-eye view image;
a processing request reception unit that accepts an input for setting a region of interest for the bird's-eye view image on which the position of the ground object is superimposed;
a spatial filter unit that performs spatial filtering processing on the bird's-eye view image on which the position of the ground object is superimposed based on the setting input of the region of interest;
a land cover classification unit that estimates the land cover of the bird's-eye view image and classifies the bird's-eye view image into regions having the same land cover;
a land cover analysis unit that analyzes the classification of the land cover within the region of interest and the area;
Based on the analysis result of the land cover analysis unit, the region of interest is estimated for the bird's-eye view image on which the position of the ground object for which the setting input has not yet been accepted is superimposed, and spatial filtering is performed on the bird's-eye view image. A computer program that functions as a spatial filter inference unit that performs processing.
JP2020016303A 2019-03-01 2020-02-03 Ground object detection system, ground object detection method and program Active JP7450182B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024025053A JP2024051007A (en) 2019-03-01 2024-02-22 Ground object detection system, ground object detection method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019037240 2019-03-01
JP2019037240 2019-03-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024025053A Division JP2024051007A (en) 2019-03-01 2024-02-22 Ground object detection system, ground object detection method and program

Publications (2)

Publication Number Publication Date
JP2020144855A JP2020144855A (en) 2020-09-10
JP7450182B2 true JP7450182B2 (en) 2024-03-15

Family

ID=72353681

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020016303A Active JP7450182B2 (en) 2019-03-01 2020-02-03 Ground object detection system, ground object detection method and program
JP2024025053A Pending JP2024051007A (en) 2019-03-01 2024-02-22 Ground object detection system, ground object detection method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024025053A Pending JP2024051007A (en) 2019-03-01 2024-02-22 Ground object detection system, ground object detection method and program

Country Status (1)

Country Link
JP (2) JP7450182B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293558A (en) 2006-04-25 2007-11-08 Hitachi Ltd Program and device for object recognition
JP2008111725A (en) 2006-10-30 2008-05-15 Tokyo Electric Power Co Inc:The Leaf area index calculator, leaf area index calculation method, and its program
JP2014100099A (en) 2012-11-20 2014-06-05 Kodaira Associates Kk Forest information management apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293558A (en) 2006-04-25 2007-11-08 Hitachi Ltd Program and device for object recognition
JP2008111725A (en) 2006-10-30 2008-05-15 Tokyo Electric Power Co Inc:The Leaf area index calculator, leaf area index calculation method, and its program
JP2014100099A (en) 2012-11-20 2014-06-05 Kodaira Associates Kk Forest information management apparatus

Also Published As

Publication number Publication date
JP2020144855A (en) 2020-09-10
JP2024051007A (en) 2024-04-10

Similar Documents

Publication Publication Date Title
JP7155321B2 (en) Crack analysis data editing device, crack analysis data editing method, and crack analysis data editing program
CN102084398B (en) Registration of street-level imagery to 3D building models
Duque et al. Bridge deterioration quantification protocol using UAV
CN101617197B (en) Feature identification apparatus, measurement apparatus and measuring method
JP2018021375A (en) Pavement crack analyzer, pavement crack analysis method, and pavement crack analysis program
US20150345955A1 (en) Detecting Common Geographic Features in Images Based on Invariant Components
JP6678267B1 (en) Road defect detecting device, road defect detecting method, and road defect detecting program
JP2018512672A (en) Method and system for automatically recognizing parking zones
JP2016138788A (en) Survey data processing device, survey data processing method and program
Pérez et al. Accuracy and effectiveness of orthophotos obtained from low cost UASs video imagery for traffic accident scenes documentation
JP7372616B2 (en) Stone and gravel detection system, stone and gravel detection method and program
JP2020144079A (en) Road surface property measurement device, road surface property measurement system, road surface property measurement method and road surface property measurement program
Pepe et al. Data for 3D reconstruction and point cloud classification using machine learning in cultural heritage environment
CN108932273A (en) Picture screening technique and device
Javadnejad et al. BridgeDex: Proposed web GIS platform for managing and interrogating multiyear and multiscale bridge-inspection images
US20220215576A1 (en) Information processing device, information processing method, and computer program product
JP7450182B2 (en) Ground object detection system, ground object detection method and program
JP2008276613A (en) Mobile body determination device, computer program and mobile body determination method
Adnan et al. Preliminary assessment of joint roughness coefficient of rock slope using close-range photogrammetry technique
Pérez-Alvárez et al. A protocol for mapping archaeological sites through aerial 4k videos
JP2016021725A (en) Camera for damage diagnosis of civil engineering structure
KR102586175B1 (en) Apparatus for visualizing the result of detecting pothole in aerial image based on deep-learning and method thereof
Symington et al. SpotCard: an optical mark recognition tool to improve field data collection speed and accuracy
US20220128433A1 (en) Imaging parameter output method and imaging parameter output device
Huang et al. Image analysis of measuring building configuration for seismic damage estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240222

R150 Certificate of patent or registration of utility model

Ref document number: 7450182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150