JP2022011411A - Inference device - Google Patents

Inference device Download PDF

Info

Publication number
JP2022011411A
JP2022011411A JP2020112536A JP2020112536A JP2022011411A JP 2022011411 A JP2022011411 A JP 2022011411A JP 2020112536 A JP2020112536 A JP 2020112536A JP 2020112536 A JP2020112536 A JP 2020112536A JP 2022011411 A JP2022011411 A JP 2022011411A
Authority
JP
Japan
Prior art keywords
image
learning
superimposed
map image
inference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020112536A
Other languages
Japanese (ja)
Inventor
淳一 竹田
Junichi Takeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Geotechnologies Inc
Original Assignee
Pioneer Electronic Corp
Increment P Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp, Increment P Corp filed Critical Pioneer Electronic Corp
Priority to JP2020112536A priority Critical patent/JP2022011411A/en
Publication of JP2022011411A publication Critical patent/JP2022011411A/en
Pending legal-status Critical Current

Links

Images

Abstract

To increase the generalization when updating a map image for detecting a change point of a house shape or reading a transfer of a house.SOLUTION: In an inference device 1, an input unit 2 receives an input of a map image MP and an aircraft picture Ap corresponding to the region of the map image MP for updating the map image MP, and a generation unit 3 generates an overlapped image SI in which the map image MP and the aircraft picture AP corresponding to the region of the map image MP are overlapped with each other. An inference unit 4 infers a change area in the region by applying a learned model 4a obtained by a mechanical learning using as input data a learning overlapped image formed by overlapping a learning map image and a learning aircraft image corresponding to the region of the learning map image and using a change area in the region of the learning map image as teacher data, to an overlapped image SI.SELECTED DRAWING: Figure 2

Description

本発明は、機械学習して得られた学習済みモデルに基づいて推論をする推論装置に関する。 The present invention relates to an inference device that makes inferences based on a trained model obtained by machine learning.

地図上の家形変化点検出や家屋異動判読の自動化はこれまで画像処理により行われていた。例えば特許文献1に記載の家屋異動判読支援装置は、異動候補検出部が、新/旧の2時期におけるDSMデータ及び空中撮影画像からなる空間情報計測データに基づいて2時期間での家屋異動を検出し当該異動が検出された場所を候補領域として抽出し、実体視画像生成部が、空間情報計測データに基づいて対象領域の実体視画像を生成する。そして、表示画面生成部が、平面視画像取得部による平面視画像上に異動候補検出部による検出結果を示した画像と実体視画像生成部による実体視画像とを表示部の画面に表示する。このようにすることにより、判読作業者は画面に表示された実体視画像を観察することで、判定対象領域における高さの情報を立体画像から容易に把握することができ、新築や滅失等の高さ変化を伴う家屋の異動を効率的に判定することができる。 Until now, image processing has been used to detect changes in the shape of a house on a map and to automate the interpretation of house changes. For example, in the house change interpretation support device described in Patent Document 1, the change candidate detection unit performs a house change in a 2 hour period based on spatial information measurement data consisting of DSM data and aerial photographed images in the new / old two periods. The location where the transfer is detected is extracted as a candidate region, and the stereoscopic image generation unit generates a stereoscopic image of the target region based on the spatial information measurement data. Then, the display screen generation unit displays on the screen of the display unit an image showing the detection result by the transfer candidate detection unit and the stereoscopic image by the stereoscopic image generation unit on the stereoscopic image by the stereoscopic image acquisition unit. By doing so, the interpreter can easily grasp the height information in the determination target area from the stereoscopic image by observing the physical image displayed on the screen, and new construction, loss, etc. It is possible to efficiently determine the change of a house that accompanies a change in height.

特許文献1に記載したような画像処理による方法は、形や色などの特徴から建物の形状を特定し、地図データ等と差分を取る事で変化点を検出するものである。しかしながら、画像処理だけでは汎化性・ロバスト性が低く、未知の建物や撮影条件などによっては検出精度が低下するという問題があった。 The image processing method as described in Patent Document 1 identifies the shape of a building from features such as shape and color, and detects a change point by taking a difference from map data or the like. However, there is a problem that the generalization and robustness are low only by image processing, and the detection accuracy is lowered depending on an unknown building or shooting conditions.

特開2012-146050号公報Japanese Unexamined Patent Publication No. 2012-146050

近年の機械学習、深層学習技術の検出性能向上に伴い、深層学習を用いた家形変化点検出や家屋異動判読等の地図の更新作業の自動化が試みられている。深層学習では建物の形状や周辺の状況を膨大な教師データから学習し、高い汎化性が得られることが知られている。変化点の検出は、推論された建物の形状と更新前の地図データとの差分をとることで実現している。 With the recent improvement in the detection performance of machine learning and deep learning technology, attempts are being made to automate map update work such as house shape change point detection and house change interpretation using deep learning. It is known that in deep learning, the shape of a building and the surrounding situation can be learned from a huge amount of teacher data, and high generalization can be obtained. The detection of the change point is realized by taking the difference between the inferred shape of the building and the map data before the update.

しかしながら、深層学習により建物の形状を推論し、更新前の地図データとの差分を取る方法では以下のような問題がある。まず、深層学習により推論した建物の形状が、大きい、小さい、歪んでいるといったように不安定となる。そのため、推論した形状と地図データとの差分をとっても、その差分が正しいか否かを判断する基準がルールベースとなり汎化性が落ちる。したがって、地図画像の更新の精度が低下してしまう。特に、建物の変更(2棟が1棟、L字建物が四角等)には正確な建物の形状を推論する必要があり、従来の方法では検出が困難であった。 However, the method of inferring the shape of the building by deep learning and taking the difference from the map data before the update has the following problems. First, the shape of the building inferred by deep learning becomes unstable, such as being large, small, or distorted. Therefore, even if the difference between the inferred shape and the map data is taken, the standard for judging whether or not the difference is correct becomes a rule base and generalization is reduced. Therefore, the accuracy of updating the map image is lowered. In particular, when changing a building (two buildings are one building, an L-shaped building is a square, etc.), it is necessary to infer an accurate building shape, which is difficult to detect by the conventional method.

本発明が解決しようとする課題としては、家形変化点検出や家屋異動判読等の地図画像の更新を行う際により精度良く更新することが一例として挙げられる。 As an example of the problem to be solved by the present invention, it is possible to update the map image more accurately when the map image such as the house shape change point detection and the house change interpretation is updated.

上記課題を解決するために、請求項1に記載の発明は、地図画像と、前記地図画像の領域に対応した前記地図画像を更新するための空中撮像画像とを入力する入力部と、前記地図画像と前記空中撮像画像とを重畳した重畳画像を生成する生成部と、学習用地図画像と、前記学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、前記学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを前記重畳画像に適用して、前記重畳画像領域における変化域を推論する推論部と、を備えることを特徴としている。 In order to solve the above problems, the invention according to claim 1 has an input unit for inputting a map image, an aerial captured image for updating the map image corresponding to the area of the map image, and the map. A learning superimposed image in which a generation unit that generates a superimposed image in which an image and the aerial captured image are superimposed, a learning map image, and a learning aerial captured image corresponding to a region of the learning map image are superimposed. Is used as input data, and a trained model obtained by machine learning using the change area in the region represented by the superimposed image for training as teacher data is applied to the superimposed image to infer the change region in the superimposed image region. It is characterized by having a part and.

請求項6に記載の発明は、機械学習して得られた学習済みモデルに基づいて推論をする推論装置で実行される推論方法であって、地図画像と、前記地図画像の領域に対応した前記地図画像を更新するための空中撮像画像とを入力する入力工程と、前記地図画像と前記空中撮像画像とを重畳した重畳画像を生成する生成工程と、学習用地図画像と、前記学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、前記学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを前記重畳画像に適用して、前記重畳画像が表す領域における変化域を推論する推論工程と、を含むことを特徴としている。 The invention according to claim 6 is an inference method executed by an inference device that makes inferences based on a trained model obtained by machine learning, and corresponds to a map image and a region of the map image. An input step for inputting an aerial captured image for updating a map image, a generation step for generating a superimposed image in which the map image and the aerial captured image are superimposed, a learning map image, and the learning map image. A trained model obtained by machine learning using an aerial image for learning corresponding to the area of the above and a superimposed image for learning superimposed as input data, and a change area in the area represented by the superimposed image for learning as teacher data. Is applied to the superimposed image to infer a change area in the region represented by the superimposed image, and the like.

請求項7に記載の発明は、請求項6に記載の推論方法を推論プログラムとしてコンピュータにより実行させることを特徴としている。 The invention according to claim 7 is characterized in that the inference method according to claim 6 is executed by a computer as an inference program.

請求項8に記載の発明は、請求項7に記載の推論プログラムをコンピュータにより読み取り可能な記憶媒体へ格納したことを特徴としている。 The invention according to claim 8 is characterized in that the inference program according to claim 7 is stored in a storage medium readable by a computer.

本発明の一実施例にかかる推論装置として機能するコンピュータの概略構成図である。It is a schematic block diagram of the computer which functions as the inference device which concerns on one Embodiment of this invention. 図1に示されたコンピュータが機能する推論装置の機能構成図である。FIG. 3 is a functional configuration diagram of an inference device in which a computer functions as shown in FIG. 1. 重畳画像の生成についての説明図である。It is explanatory drawing about the generation of a superimposition image. 本実施例にかかる学習済みモデルを生成する学習装置の機能構成図である。It is a functional block diagram of the learning apparatus which generates the trained model which concerns on this Example. 学習済みモデルに形成されるニューラルネットワークの例である。This is an example of a neural network formed in a trained model. 図4に示された学習装置の動作のフローチャートである。It is a flowchart of the operation of the learning apparatus shown in FIG. 教師データの生成についての説明図である。It is explanatory drawing about the generation of teacher data. 図2に示された推論装置の動作のフローチャートである。It is a flowchart of the operation of the inference device shown in FIG. 入力する重畳画像と、当該重畳画像に対応する教師データと、学習後の学習済みモデルを用いて行った推論結果を示した図である。It is a figure which showed the input superimposition image, the teacher data corresponding to the superimposed image, and the inference result performed using the trained model after learning. 図2に示された推論装置と従来技術との比較をした表である。It is a table which compared the inference device shown in FIG. 2 with the prior art.

以下、本発明の一実施形態にかかる推論装置を説明する。本発明の一実施形態にかかる推論装置は、入力部に、地図画像と、地図画像の領域に対応した地図画像を更新するための空中撮像画像とが入力され、生成部が、地図画像と空中撮像画像とを重畳した重畳画像を生成する。そして、推論部が、学習用地図画像と、学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを重畳画像に適用して、重畳画像が表す領域における変化域を推論する。このようにすることにより、地図画像と空中撮像画像とを重畳した重畳画像から、対象領域の変化域が学習された学習済みモデルによって変化域を推論することができるので、従来のように、建物の形状を推論する必要がなく、推論した形状の不安定さによる汎化性の低下が抑えられる。したがって、家形変化点検出や家屋異動判読等の地図画像の更新を行う際により精度良く更新することができる。 Hereinafter, the inference device according to the embodiment of the present invention will be described. In the inference device according to the embodiment of the present invention, a map image and an aerial captured image for updating the map image corresponding to the area of the map image are input to the input unit, and the generation unit is the map image and the air. Generates a superimposed image that is superimposed on the captured image. Then, the inference unit uses the learning superimposed image in which the learning map image and the learning aerial image captured corresponding to the area of the learning map image are superimposed as input data, and changes in the area represented by the learning superimposed image. The trained model obtained by machine learning using the region as teacher data is applied to the superimposed image, and the change region in the region represented by the superimposed image is inferred. By doing so, it is possible to infer the change area from the superimposed image in which the map image and the aerial image are superimposed by the trained model in which the change area of the target area is learned. It is not necessary to infer the shape of the inferred shape, and the decrease in generalization due to the instability of the inferred shape is suppressed. Therefore, it is possible to update the map image more accurately when the map image such as the house shape change point detection and the house change interpretation is updated.

また、学習済みモデルは、学習用重畳画像における新設、解体、変更のそれぞれに対応する建物外形を教師データとして機械学習しており、推論部は、空中撮像画像における新設、解体、変更のそれぞれに対応する変化域を推論してもよい。このようにすることにより、地図における建物の新設、解体、変更を推論することが可能となる。 In addition, the trained model is machine-learned using the building outline corresponding to each of the new installation, dismantling, and change in the superposed image for learning as teacher data, and the inference unit is used for each of the new installation, dismantling, and change in the aerial captured image. The corresponding range of change may be inferred. By doing so, it becomes possible to infer new construction, demolition, and changes of buildings on the map.

また、推論部は、学習済みモデルから出力された重畳画像の画素毎の変化点である確率に基づいて変化域を推論してもよい。このようにすることにより、画素毎に出力された確率に所定の閾値等を設定することで、例えば、建物の新設、解体、変更といった変化域を推論することができるようになる。 Further, the inference unit may infer the change area based on the probability of the change point for each pixel of the superimposed image output from the trained model. By doing so, by setting a predetermined threshold value or the like for the probability output for each pixel, it becomes possible to infer a change area such as new construction, demolition, or change of a building.

また、重畳画像は、RGBフォーマットのうちRチャネルとGチャネルに空中撮像画像のデータ、Bチャネルに地図画像のデータをそれぞれ設定することで構成され、学習用重畳画像は、RGBフォーマットのうちRチャネルとGチャネルに学習用空中撮像画像のデータ、Bチャネルに学習用地図画像のデータをそれぞれ設定することで構成されていてもよい。このようにすることにより、RGBフォーマットを利用して重畳画像等を構成することができる。また、Bチャネルを地図画像や学習用地図画像とすることで、重畳画像を人間が観察した場合であっても空中撮像画像や学習用空中撮像画像との識別が容易となる。 The superimposed image is configured by setting the data of the aerial image captured in the R channel and the G channel in the RGB format and the data of the map image in the B channel, respectively, and the superimposed image for learning is the R channel in the RGB format. It may be configured by setting the data of the aerial image for learning in the G channel and the data of the map image for learning in the B channel, respectively. By doing so, it is possible to construct a superimposed image or the like by using the RGB format. Further, by using the B channel as a map image or a learning map image, it becomes easy to distinguish the superimposed image from the aerial captured image and the learning aerial captured image even when the superimposed image is observed by a human.

また、教師データは、変化域の特性に対応したラベル情報が画素ごとに設定された画像であってもよい。このようにすることにより、教師データを画像とすることで、入力データとフォーマットを合わせることができ、学習効率や処理効率を向上させることができる。 Further, the teacher data may be an image in which label information corresponding to the characteristics of the changing region is set for each pixel. By doing so, by using the teacher data as an image, the input data and the format can be matched, and the learning efficiency and the processing efficiency can be improved.

また、本発明の一実施形態にかかる推論方法は、入力工程において、地図画像と、地図画像の領域に対応した地図画像を更新するための空中撮像画像とが入力され、生成工程で、地図画像と空中撮像画像とを重畳した重畳画像を生成する。そして、推論工程で、学習用地図画像と、学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを重畳画像に適用して、重畳画像が表す領域における変化域を推論する。このようにすることにより、地図画像と空中撮像画像とを重畳した重畳画像から、対象領域の変化域が学習された学習済みモデルによって変化域を推論することができるので、従来のように、建物の形状を推論する必要がなく、推論した形状の不安定さによる汎化性の低下が抑えられる。したがって、家形変化点検出や家屋異動判読等の地図画像の更新を行う際により精度良く更新することができる。 Further, in the inference method according to the embodiment of the present invention, the map image and the aerial captured image for updating the map image corresponding to the area of the map image are input in the input step, and the map image is generated in the generation step. And an aerial captured image are superimposed to generate a superimposed image. Then, in the inference process, the learning superimposed image obtained by superimposing the learning map image and the learning aerial image captured corresponding to the area of the learning map image is used as input data, and the change in the area represented by the learning superimposed image is used. The trained model obtained by machine learning using the region as teacher data is applied to the superimposed image, and the change region in the region represented by the superimposed image is inferred. By doing so, it is possible to infer the change area from the superimposed image in which the map image and the aerial image are superimposed by the trained model in which the change area of the target area is learned. It is not necessary to infer the shape of the inferred shape, and the decrease in generalization due to the instability of the inferred shape is suppressed. Therefore, it is possible to update the map image more accurately when the map image such as the house shape change point detection and the house change interpretation is updated.

また、上述した推論方法を、推論プログラムとしてコンピュータにより実行させてもよい。このようにすることにより、コンピュータを用いて、地図画像と空中撮像画像とを重畳した重畳画像から、対象領域の変化域が学習された学習済みモデルによって変化域を推論することができるので、従来のように、建物の形状を推論する必要がなく、推論した形状の不安定さによる汎化性の低下が抑えられる。したがって、家形変化点検出や家屋異動判読等の地図画像の更新を行う際により精度良く更新することができる。 Further, the above-mentioned inference method may be executed by a computer as an inference program. By doing so, it is possible to infer the change area by the trained model in which the change area of the target area is learned from the superimposed image in which the map image and the aerial image are superimposed by using a computer. As in the case, it is not necessary to infer the shape of the building, and the decrease in generalization due to the instability of the inferred shape can be suppressed. Therefore, it is possible to update the map image more accurately when the map image such as the house shape change point detection and the house change interpretation is updated.

また、上述した推論プログラムをコンピュータ読み取り可能な記憶媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。 Further, the above-mentioned inference program may be stored in a computer-readable storage medium. By doing so, the program can be distributed as a single unit in addition to being incorporated in the device, and version upgrades and the like can be easily performed.

本発明の一実施例にかかる推論装置を図1~図10を参照して説明する。図1は、本実施例にかかる推論装置として機能するコンピュータ10の概略構成図である。 An inference device according to an embodiment of the present invention will be described with reference to FIGS. 1 to 10. FIG. 1 is a schematic configuration diagram of a computer 10 that functions as an inference device according to this embodiment.

図1に示したように、コンピュータ10は、演算部11と、主記憶部12と、通信部13と、補助記憶部14と、を備えている。そして、演算部11と、主記憶部12と、通信部13と、補助記憶部14と、はバスBにより互いに接続されている。 As shown in FIG. 1, the computer 10 includes a calculation unit 11, a main storage unit 12, a communication unit 13, and an auxiliary storage unit 14. The arithmetic unit 11, the main storage unit 12, the communication unit 13, and the auxiliary storage unit 14 are connected to each other by the bus B.

演算部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラム等を読み出して実行することにより、コンピュータ10に係る種々の情報処理、制御処理等を行う。 The arithmetic unit 11 has an arithmetic processing unit such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), and a GPU (Graphics Processing Unit), and reads and executes a program or the like stored in the auxiliary storage unit 14. As a result, various information processing, control processing, and the like related to the computer 10 are performed.

主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)等の一時記憶領域であり、演算部11が演算処理を実行するために必要なデータを一時的に記憶する。 The main storage unit 12 is a temporary storage area such as a SRAM (Static Random Access Memory) and a DRAM (Dynamic Random Access Memory), and temporarily stores data necessary for the calculation unit 11 to execute a calculation process.

通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。 The communication unit 13 is a communication module for performing processing related to communication, and transmits / receives information to / from the outside.

補助記憶部14は大容量メモリ、ハードディスク等であり、演算部11が処理を実行するために必要なプログラムや、その他のデータ等を記憶している。また、補助記憶部14は、学習済みモデル4aを記憶している。学習済みモデル4aは、地図上の変更域を推論するためのモデルであり、機械学習により生成された学習済みモデルである。 The auxiliary storage unit 14 is a large-capacity memory, a hard disk, or the like, and stores programs and other data necessary for the arithmetic unit 11 to execute processing. Further, the auxiliary storage unit 14 stores the trained model 4a. The trained model 4a is a model for inferring the changed area on the map, and is a trained model generated by machine learning.

なお、コンピュータ10は、上記した構成要素の他にUSB(Universal Serial Bus)等の外部インターフェースや、キーボード、マウス、ディスプレイ等を必要に応じて備えていてもよい。 In addition to the above-mentioned components, the computer 10 may be provided with an external interface such as USB (Universal Serial Bus), a keyboard, a mouse, a display, and the like, if necessary.

図2に、上述したコンピュータ10が機能する推論装置1の機能構成図を示す。図2に示したように、推論装置1は、入力部2と、生成部3と、推論部4と、を備えている。 FIG. 2 shows a functional configuration diagram of the inference device 1 in which the computer 10 described above functions. As shown in FIG. 2, the inference device 1 includes an input unit 2, a generation unit 3, and an inference unit 4.

入力部2は、例えば通信部13が機能し、地図画像MPおよび航空写真APが入力される。本実施例における地図画像とは、道路や建物等を上空から平面視した状態で表現された地図の画像である。また、本実施例における航空写真は、周知のように、飛行中の飛行体からカメラにより地表面を撮影した写真をいう。また、航空写真は、地形に起因して生じる歪みを補正したオルソ画像を用いるのが好ましいが、歪み補正をしなくてもよい。また、本実施例では、空中撮像画像として航空写真で説明するが衛星写真でもよい。あるいは空中撮像画像として航空機から地上に向けてレーザ光を放射状に照射し、地上から反射されるレーザ光の時間差で地形等を計測する航空ライダにより得られた画像等であってもよい。 For example, the communication unit 13 functions as the input unit 2, and the map image MP and the aerial photograph AP are input. The map image in this embodiment is an image of a map represented in a state where a road, a building, or the like is viewed from the sky in a plan view. Further, as is well known, the aerial photograph in this embodiment refers to a photograph of the ground surface taken by a camera from an in-flight flying object. Further, for the aerial photograph, it is preferable to use an ortho image in which the distortion caused by the terrain is corrected, but the distortion correction may not be performed. Further, in this embodiment, an aerial photograph will be described as an aerial image, but a satellite photograph may be used. Alternatively, it may be an image obtained by an aeronautical rider that radiates a laser beam from an aircraft toward the ground as an aerial image and measures the terrain or the like by the time difference of the laser beam reflected from the ground.

生成部3は、入力部2に入力された地図画像MPと航空写真APとを重畳し、重畳画像SIを生成する。ここで、重畳画像SIの生成について図3を参照して説明する。 The generation unit 3 superimposes the map image MP and the aerial photograph AP input to the input unit 2 to generate the superposed image SI. Here, the generation of the superimposed image SI will be described with reference to FIG.

図3において地図画像MPは、更新前の地図画像であり、本実施例ではベクタデータ(ポリゴン画像)となっている。航空写真APは、本実施例ではRGBフォーマットのカラー画像となっている。また、地図画像MPと航空写真APとは、同じ領域(地域)を示すものとなっている。即ち、航空写真APは、地図画像MPの領域に対応した地図画像MPを更新するための空中撮像画像である。 In FIG. 3, the map image MP is a map image before updating, and is vector data (polygon image) in this embodiment. The aerial photograph AP is a color image in RGB format in this embodiment. Further, the map image MP and the aerial photograph AP indicate the same area (region). That is, the aerial photograph AP is an aerial captured image for updating the map image MP corresponding to the area of the map image MP.

航空写真APは、RGBの各成分に分解される。航空写真APのうちR(赤)成分を符号APrとし、航空写真APのうちG(緑)成分を符号APgとし、航空写真APのうちB(青)成分を符号APbとする。そして、R成分画像APrとG成分画像APgを合成してRG成分画像APrgを生成する。そして、RG成分画像APrgをR成分、B成分画像APbをG成分、地図画像MPをB成分にそれぞれ設定したRGBフォーマットの画像を重畳画像SIとして生成する。 The aerial photograph AP is decomposed into each component of RGB. The R (red) component of the aerial photograph AP is designated by the reference numeral APr, the G (green) component of the aerial photograph AP is designated by the reference numeral APg, and the B (blue) component of the aerial photograph AP is designated by the reference numeral APb. Then, the R component image APr and the G component image APg are combined to generate the RG component image APrg. Then, an RGB format image in which the RG component image APrg is set as the R component, the B component image APb is set as the G component, and the map image MP is set as the B component is generated as the superimposed image SI.

このようにして生成された重畳画像SIは、人間の目には地図画像MPによる建物等の家形は青系の色に見え、航空写真APの部分は黄系の色に見える。これは、人間の網膜を構成する視細胞の青錐体、緑錐体、赤錐体が感応する波長特性の差によるものである。具体的に、青錐体は約430nmの波長、つまり青に一番強く感応し、緑錐体は約530nmの波長、つまり緑に一番強く感応し、赤錐体は約560nmの波長、つまり赤に一番強く感応することが知られている。したがって、B成分に地図画像MPを挿入することで、地図画像MPが青系の色に視認できる。 In the superimposed image SI generated in this way, the house shape of the building or the like by the map image MP looks bluish to the human eye, and the aerial photograph AP part looks like a yellowish color. This is due to the difference in wavelength characteristics that the blue cones, green cones, and red cones of the photoreceptor cells that make up the human retina are sensitive to. Specifically, the blue cone is most sensitive to a wavelength of about 430 nm, or blue, the green cone is most sensitive to a wavelength of about 530 nm, that is, green, and the red cone is most sensitive to a wavelength of about 560 nm, that is. It is known to be the most sensitive to red. Therefore, by inserting the map image MP into the B component, the map image MP can be visually recognized as a bluish color.

推論部4は、学習済みモデル4aを重畳画像SIに適用して、重畳画像SIが表す領域における変化域を推論する。ここで、推論とは、AI(Artificial Intelligence)の分野で周知のように、学習して生成された推論(学習済み)モデルに当てはめて、その結果を導くことである。 The inference unit 4 applies the trained model 4a to the superimposed image SI to infer the change region in the region represented by the superimposed image SI. Here, inference is, as is well known in the field of AI (Artificial Intelligence), to apply to an inference (learned) model generated by learning and derive the result.

学習済みモデル4aは、学習用地図画像と、当該学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られたものである。即ち、学習済みモデル4aは、教師データに基づいて学習して推論可能となったものである。 The trained model 4a uses a learning superimposed image in which a learning map image and a learning aerial image captured corresponding to the area of the learning map image are superimposed as input data, and is used in a region represented by the learning superimposed image. It was obtained by machine learning using the change area as teacher data. That is, the trained model 4a can be inferred by learning based on the teacher data.

ここで、学習済みモデル4aについて説明する。本実施例にかかる学習済みモデル4aは、例えば図4に示したような機能構成を有する学習装置20によって生成される。学習装置20は、入力部22と、生成部23と、学習部24と、を備えている。また、学習装置20は、図1に示したコンピュータ10を機能させることで実現できる。 Here, the trained model 4a will be described. The trained model 4a according to this embodiment is generated by a learning device 20 having a functional configuration as shown in FIG. 4, for example. The learning device 20 includes an input unit 22, a generation unit 23, and a learning unit 24. Further, the learning device 20 can be realized by operating the computer 10 shown in FIG.

入力部22は、例えば通信部13が機能し、学習用地図画像MPLおよび学習用航空写真APLが入力される。生成部23は、入力部22に入力された学習用地図画像MPLと学習用航空写真APLとを重畳し、学習用重畳画像SILを生成する。入力部22及び生成部23は、基本的に入力部2及び生成部3と同様の動作をする。なお、学習用地図画像MPLは地図画像MPと用途が異なるのみで、データフォーマット等に違いはない。学習用航空写真APLも同様に航空画像APと用途が異なるのみで、データフォーマット等に違いはない。 For example, the communication unit 13 functions as the input unit 22, and the learning map image MPL and the learning aerial photograph APL are input. The generation unit 23 superimposes the learning map image MPL input to the input unit 22 and the learning aerial photograph APL, and generates a learning superposed image SIL. The input unit 22 and the generation unit 23 basically operate in the same manner as the input unit 2 and the generation unit 3. The learning map image MPL is different from the map image MP only in its usage, and there is no difference in the data format and the like. Similarly, the aerial photograph APL for learning has only a different purpose from the aerial image AP, and there is no difference in the data format and the like.

学習部24は、生成部23が生成した学習用重畳画像SILを入力データとし、学習用地図画像MPLと学習用航空写真APLとが示す領域における変化域を教師データとして機械学習して学習済みモデル4aを得る。変化域とは、本実施例では、後述するように建物の新設、解体、変更といった建物外形の更新された領域を示す。 The learning unit 24 uses the learning superimposed image SIL generated by the generation unit 23 as input data, and machine-learns the change area in the region indicated by the learning map image MPL and the learning aerial photograph APL as teacher data, and is a trained model. Obtain 4a. In this embodiment, the change area indicates an area where the outer shape of the building has been updated, such as new construction, demolition, or change of the building, as will be described later.

学習装置20は、学習済みモデル4aとして、学習用航空写真における学習用地図画像からの変化域(新設、解体、変更といった更新領域)を学習する深層学習(ディープラーニング)を行うことで、重畳画像SIを入力とし、変化域を出力するとするニューラルネットワークを構築(生成)する。例えばニューラルネットワークはCNN(Convolution Neural Network)であり、重畳画像SIの入力を受け付ける入力層と、変化域を示す情報を出力する出力層と、特徴量を抽出する中間層とを有する(図5を参照)。 The learning device 20 performs deep learning as a trained model 4a to learn a change area (update area such as new installation, disassembly, and change) from a learning map image in a learning aerial photograph, thereby performing a superposed image. A neural network is constructed (generated) that takes SI as an input and outputs a change area. For example, a neural network is a CNN (Convolution Neural Network), and has an input layer that accepts inputs of superimposed image SI, an output layer that outputs information indicating a change region, and an intermediate layer that extracts features (FIG. 5). reference).

なお、本実施例では学習済みモデル4aがCNNであるものとして説明するが、学習済みモデル4aはCNNに限定されず、CNN以外のニューラルネットワーク、セマンティックセグメンテーション、インスタンスセグメンテーションなど、他の学習アルゴリズムで構築された学習済みモデルであってよい。 In this embodiment, the trained model 4a is described as being a CNN, but the trained model 4a is not limited to the CNN and is constructed by other learning algorithms such as a neural network other than the CNN, semantic segmentation, and instance segmentation. It may be a trained model that has been trained.

学習装置20における動作(学習方法)を図6のフローチャートを参照して説明する。まず、教師データを生成する(ステップS11)。教師データの生成について図7を参照して説明する。 The operation (learning method) in the learning device 20 will be described with reference to the flowchart of FIG. First, teacher data is generated (step S11). The generation of teacher data will be described with reference to FIG. 7.

まず、予察を行って、編集前の地図データBEと編集後の地図データAEとに建物の新設、解体、変更の属性を付与する。予察とは、編集前の地図データBEと編集後の地図データAEとを作業者が比較して属性を付与する対象を抽出することである。 First, the prediction is performed, and the attributes of new construction, demolition, and change of the building are given to the map data BE before editing and the map data AE after editing. The prediction is to extract the target to which the attribute is given by the worker by comparing the map data BE before editing and the map data AE after editing.

予察を行って、属性を付与された地図データからは、新設データA、解体データD、変更データCがそれぞれ生成される。図7に示した新設データA、解体データD、変更データCは、地図データのおける対象となる領域内の新設、解体、変更のそれぞれの建物等の領域を白抜きで示している。つまり、同一の範囲において、新設された建物等が新設データAに示され、解体された建物等が解体データDに示され、変更された建物等が変更データCに示されている。ここで、変更とは、例えば2棟が1棟、L字建物が四角といったように建物等の形状が変更されたことを示す。 New data A, dismantling data D, and change data C are generated from the map data to which the attributes are given by performing the prediction. In the new construction data A, the dismantling data D, and the change data C shown in FIG. 7, the areas such as the newly constructed, demolished, and changed buildings in the target area of the map data are shown in white. That is, in the same range, the newly constructed building or the like is shown in the new construction data A, the dismantled building or the like is shown in the dismantling data D, and the changed building or the like is shown in the change data C. Here, the change means that the shape of the building or the like has been changed, for example, two buildings are one building and an L-shaped building is a square.

そして、新設データA、解体データD、変更データCを合成してラベル画像Lが生成される。ラベル画像Lは、新設、解体、変更のそれぞれの領域に対応する画素に予め定めた画素値がラベル情報として設定された画像である。図7の例では変更なしが画素値“0”、解体が画素値“1”、変更が画素値“2”、新設が画素値“3”がそれぞれ設定された8ビットグレースケール画像である。そのため、ラベル画像Lを人間が視認しても各ラベルを識別するには困難であるがデータとして識別可能であるので問題はない。このようにして、生成されたラベル画像Lが教師データとなる。即ち、教師データは、変化域の特性に対応したラベル情報が画素ごとに設定された画像である。そして、学習済みモデル4aは、学習用重畳画像SILにおける新設、解体、変更のそれぞれに対応する建物外形を教師データとして機械学習している。 Then, the label image L is generated by synthesizing the newly installed data A, the disassembled data D, and the changed data C. The label image L is an image in which predetermined pixel values are set as label information for the pixels corresponding to the areas of new installation, disassembly, and change. In the example of FIG. 7, it is an 8-bit grayscale image in which the pixel value “0” is set for no change, the pixel value “1” is set for disassembly, the pixel value “2” is set for change, and the pixel value “3” is set for new installation. Therefore, even if the label image L is visually recognized by a human, it is difficult to identify each label, but there is no problem because it can be identified as data. The label image L generated in this way becomes the teacher data. That is, the teacher data is an image in which label information corresponding to the characteristics of the changing region is set for each pixel. Then, the trained model 4a is machine-learned using the building outline corresponding to each of new construction, dismantling, and change in the superposed image SIL for learning as teacher data.

この教師データを生成するのは、コンピュータ10で行ってもよいし、他のコンピュータ等で行ってもよい。コンピュータ10で行う場合は図4に示した入力部22に予察を行った編集前の地図データと編集後の地図データを入力して、生成部23でラベル画像Lを生成すればよい。 The teacher data may be generated by the computer 10 or another computer or the like. When the computer 10 is used, the predicted map data before editing and the map data after editing may be input to the input unit 22 shown in FIG. 4, and the label image L may be generated by the generation unit 23.

図6のフローチャートに戻り、入力部22に学習用地図画像MPLと学習用航空写真APLとを入力する(ステップS12)。このステップで入力される学習用地図画像MPLと学習用航空写真APLは、ステップS11で生成した教師データ(ラベル画像L)に対応した領域を示すものである。 Returning to the flowchart of FIG. 6, the learning map image MPL and the learning aerial photograph APL are input to the input unit 22 (step S12). The learning map image MPL and the learning aerial photograph APL input in this step indicate a region corresponding to the teacher data (label image L) generated in step S11.

次に、生成部23で学習用重畳画像SILを生成する(ステップS13)。そして、学習用重畳画像SILと教師データにより学習を行う(ステップS14)。以上の動作を、学習用地図画像MPL、学習用航空写真APL及び教師データを変更して繰り返し、学習済みモデル4aを生成する。 Next, the generation unit 23 generates a learning superimposed image SIL (step S13). Then, learning is performed using the superposed image SIL for learning and the teacher data (step S14). The above operation is repeated by changing the learning map image MPL, the learning aerial photograph APL, and the teacher data, and the trained model 4a is generated.

即ち、学習装置20は、学習用地図画像MPLと、学習用地図画像MPLの領域に対応した学習用地図画像MPLを更新するための学習用航空写真APL(学習用空中撮像画像)とを入力する入力部22と、学習用地図画像MPLと学習用地図画像MPLの領域に対応した学習用航空写真APL(学習用空中撮像画像)とを重畳した学習用重畳画像SILを生成する生成部23と、学習用重畳画像SILを入力データとし、学習用地図画像MPLの領域における変化域を教師データとして機械学習して学習済みモデル4aを得る学習部24と、を備えている。 That is, the learning device 20 inputs a learning map image MPL and a learning aerial photograph APL (learning aerial captured image) for updating the learning map image MPL corresponding to the area of the learning map image MPL. The input unit 22, the generation unit 23 that generates the learning superimposed image SIL by superimposing the learning map image MPL and the learning aerial photograph APL (learning aerial image captured image) corresponding to the area of the learning map image MPL, and the generation unit 23. It includes a learning unit 24 that obtains a trained model 4a by machine learning using the learning superimposed image SIL as input data and the change area in the area of the learning map image MPL as teacher data.

上述した学習装置20によって、学習用地図画像MPLと学習用空中撮像画像APLとを重畳した学習用重畳画像SILにより、対象領域の変化域を直接学習することができるので、従来のように、建物の形状を推論する必要がなく、推論した形状の不安定さによる汎化性の低下が抑えられる。 With the learning device 20 described above, the change area of the target area can be directly learned by the learning superimposed image SIL in which the learning map image MPL and the learning aerial image captured image APL are superimposed. It is not necessary to infer the shape of the inferred shape, and the decrease in generalization due to the instability of the inferred shape is suppressed.

次に、図2に示された推論装置1の動作(推論方法)を図8のフローチャートを参照して説明する。図8のフローチャートは、コンピュータ10で実行されるプログラム(推論プログラム)として構成することができる。また、当該推論プログラムをメモリカード等の記録媒体に格納してもよい。 Next, the operation (inference method) of the inference device 1 shown in FIG. 2 will be described with reference to the flowchart of FIG. The flowchart of FIG. 8 can be configured as a program (inference program) executed by the computer 10. Further, the inference program may be stored in a recording medium such as a memory card.

まず、入力部2に地図画像MPと航空写真APとを入力する(ステップS21)。次に、生成部3で重畳画像SIを生成する(ステップS22)。そして、推論部4が、学習済みモデル4aにより新設、解体、変更のいずれかに対応する領域を推論する(ステップS23)。学習済みモデル4aからは、例えば重畳画像SIの画素ごとに新設、解体、変更のいずれかに該当するかの確率が出力される。つまり、重畳画像の画素毎の変化点である確率が出力される。つまり、対象画像が変化域に含まれる点(画像)であるかの確率が出力される。 First, the map image MP and the aerial photograph AP are input to the input unit 2 (step S21). Next, the generation unit 3 generates the superimposed image SI (step S22). Then, the inference unit 4 infers a region corresponding to any of new establishment, disassembly, and change by the trained model 4a (step S23). From the trained model 4a, for example, the probability of whether to correspond to new installation, disassembly, or change for each pixel of the superimposed image SI is output. That is, the probability that it is the change point for each pixel of the superimposed image is output. That is, the probability that the target image is a point (image) included in the change area is output.

即ち、ステップS21が入力工程、ステップS22が生成工程、ステップS23が推論工程として機能する。 That is, step S21 functions as an input process, step S22 functions as a generation process, and step S23 functions as an inference process.

そして、推論部4は、出力された確率に応じて当該領域が新設、解体、変更のいずれかを判定する。この判定は、予め確率に閾値を設け、その閾値以上となったことで行えばよい。例えば、新設と判定する閾値を50%とした場合、学習済みモデル4aから出力された新設の確率が50%以上の値となった領域が新設された建物の領域であると判定する。つまり、本実施例にかかる推論装置1は、建物の形状を推論するのではなく、変化した領域を直接推論するものである。 Then, the inference unit 4 determines whether the area is newly established, disassembled, or changed according to the output probability. This determination may be made by setting a threshold value for the probability in advance and determining that the threshold value is equal to or higher than the threshold value. For example, when the threshold value for determining new construction is 50%, it is determined that the area where the probability of new installation output from the trained model 4a is 50% or more is the area of the newly installed building. That is, the inference device 1 according to the present embodiment does not infer the shape of the building, but directly infers the changed region.

最後に上述した構成の推論装置1で推論を行った実験結果を示す。図9は、入力する重畳画像SIと、当該重畳画像SIに対応する教師データ(Ground Truth)と、学習後の学習済みモデル4aを用いて行った推論結果を示したものである。 Finally, the experimental results obtained by inference with the inference device 1 having the above-mentioned configuration are shown. FIG. 9 shows the input superposed image SI, the teacher data (Ground Truth) corresponding to the superposed image SI, and the inference result performed using the trained model 4a after training.

学習データとしては、8Tile×8Tileで構成された1km四方のメッシュを6つ(384Tile)用いた。学習時においては、Iterations=250,000、Batch size=8、Start Loss=0.43、End Loss=0.06、Training Time=26hとなった。 As the training data, six 1 km square meshes (384tiles) composed of 8tiles × 8tiles were used. At the time of learning, Iterations = 250,000, Batch size = 8, Start Loss = 0.43, End Loss = 0.06, Training Time = 26h.

図9に示したように、本実施例にかかる推論装置1により、教師データで示された領域に対応する領域を推論結果として略出力できていることが明らかとなった。 As shown in FIG. 9, it was clarified that the inference device 1 according to the present embodiment could substantially output the region corresponding to the region indicated by the teacher data as the inference result.

図10は、上述した構成の推論装置1を用いた場合と、従来技術のように、推論された建物の形状と地図データ等との差分をとる方法と、におけるPrecision(正解率)とRecall(適合率)との比較である。図10(a)は本実施例にかかる推論装置1、図10(b)は従来技術である。なお、推論装置1の学習等の条件は図9と同じである。 FIG. 10 shows Precision (correct answer rate) and Recall (correct answer rate) in the case of using the inference device 1 having the above-described configuration and the method of taking the difference between the inferred shape of the building and the map data as in the prior art. It is a comparison with the precision rate). FIG. 10 (a) is an inference device 1 according to this embodiment, and FIG. 10 (b) is a conventional technique. The conditions for learning and the like of the inference device 1 are the same as those in FIG.

図10に示したように、推論装置1の方が、新設、解体の場合のいずれもPrecisionとRecallが高い数値となった。特にPrecisionについては、著しい改善が見られた。なお、変更は、推論装置1のみが推論可能である。これは、従来技術では建物の形状を推論しているが、その形状が不安定なため変更したか否かの判定ができないからである。 As shown in FIG. 10, in the case of the inference device 1, both the precision and the precision were higher in both the case of new installation and the case of dismantling. In particular, there was a significant improvement in Precision. The change can be inferred only by the inference device 1. This is because the shape of the building is inferred in the prior art, but it cannot be determined whether or not the shape has been changed because the shape is unstable.

本実施例によれば、推論装置1は、入力部2に、地図画像MPと、地図画像MPの領域に対応した地図画像MPを更新するための航空写真APとが入力され、生成部3が、地図画像MPと地図画像MPの領域に対応した航空写真APとを重畳した重畳画像SIを生成する。そして、推論部4が、学習用地図画像と、学習用地図画像の領域に対応した学習用航空写真と、を重畳させた学習用重畳画像を入力データとし、学習用地図画像の領域における変化域を教師データとして機械学習して得られた学習済みモデル4aを重畳画像SIに適用して、前記した領域における変化域を推論する。このようにすることにより、地図画像MPと航空写真APとを重畳した重畳画像SIから、対象領域の変化域が学習された学習済みモデル4aによって変化域を推論することができるので、従来のように、建物の形状を推論する必要がなく、推論した形状の不安定さによる汎化性の低下が抑えられる。したがって、家形変化点検出や家屋異動判読等の地図画像の更新を行う際により精度良く更新することができる。 According to this embodiment, in the inference device 1, the map image MP and the aerial photograph AP for updating the map image MP corresponding to the area of the map image MP are input to the input unit 2, and the generation unit 3 is used. , A superposed image SI in which the map image MP and the aerial photograph AP corresponding to the area of the map image MP are superimposed is generated. Then, the inference unit 4 uses the learning superimposed image in which the learning map image and the learning aerial photograph corresponding to the area of the learning map image are superimposed as input data, and the change area in the area of the learning map image. The trained model 4a obtained by machine learning as teacher data is applied to the superimposed image SI to infer the change region in the above-mentioned region. By doing so, the change area can be inferred from the superposed image SI in which the map image MP and the aerial photograph AP are superimposed by the trained model 4a in which the change area of the target area is learned. In addition, it is not necessary to infer the shape of the building, and the decrease in generalization due to the instability of the inferred shape can be suppressed. Therefore, it is possible to update the map image more accurately when the map image such as the house shape change point detection and the house change interpretation is updated.

また、学習済みモデル4aは、学習用重畳画像における新設、解体、変更のそれぞれに対応する建物外形を教師データとして機械学習しており、推論部4は、航空写真APにおける新設、解体、変更のそれぞれに対応する変化域を推論している。このようにすることにより、地図における建物の新設、解体、変更を推論することが可能となる。 Further, the trained model 4a is machine-learned using the building outline corresponding to each of new installation, dismantling, and change in the superposed image for learning as teacher data, and the inference unit 4 is used for new installation, dismantling, and change in the aerial photography AP. The range of change corresponding to each is inferred. By doing so, it becomes possible to infer new construction, demolition, and changes of buildings on the map.

また、推論部4は、学習済みモデル4aから出力された重畳画像SIの画素毎の変化点である確率に基づいて変化域を推論している。このようにすることにより、画素毎に出力された確率に所定の閾値等を設定することで、例えば、建物の新設、解体、変更といった変化域を推論することができるようになる。 Further, the inference unit 4 infers the change area based on the probability of the change point for each pixel of the superimposed image SI output from the trained model 4a. By doing so, by setting a predetermined threshold value or the like for the probability output for each pixel, it becomes possible to infer a change area such as new construction, demolition, or change of a building.

また、重畳画像SIは、RGBフォーマットのうちRチャネルとGチャネルに航空写真APのデータ、Bチャネルに地図画像MPのデータをそれぞれ設定することで構成され、学習用重畳画像SILは、RGBフォーマットのうちRチャネルとGチャネルに学習用航空写真SPLのデータ、Bチャネルに学習用地図画像MPLのデータをそれぞれ設定することで構成されていてもよい。このようにすることにより、RGBフォーマットを利用して重畳画像SI等を形成することができる。また、Bチャネルを地図画像MPや学習用地図画像MPLとすることで、重畳画像SIを人間が観察した場合であっても空中撮像画像APや学習用空中撮像画像APLとの識別が容易となる。 Further, the superimposed image SI is configured by setting the aerial photograph AP data in the R channel and the G channel and the map image MP data in the B channel among the RGB formats, and the superimposed image SIL for learning is in the RGB format. Of these, the R channel and the G channel may be configured by setting the data of the aerial photograph SPL for learning, and the B channel may be configured by setting the data of the map image MPL for learning. By doing so, the superimposed image SI or the like can be formed by using the RGB format. Further, by using the map image MP or the learning map image MPL as the B channel, it becomes easy to distinguish the superimposed image SI from the aerial captured image AP and the learning aerial captured image APL even when the superimposed image SI is observed by a human. ..

また、教師データは、変化域の特性(新設、解体、変更)に対応したラベル情報が画素ごとに設定されたラベル画像Lである。このようにすることにより、教師データを画像とすることで、入力データとフォーマットを合わせることができ、学習効率や処理効率を向上させることができる。 Further, the teacher data is a label image L in which label information corresponding to the characteristics of the changing region (new installation, disassembly, change) is set for each pixel. By doing so, by using the teacher data as an image, the input data and the format can be matched, and the learning efficiency and the processing efficiency can be improved.

なお、上述した実施例では、重畳画像は、RGBフォーマットを利用していたが、カラー写真(RGB)に地図画像を重畳した4チャネルの画像としてもよい。 In the above-described embodiment, the superimposed image uses the RGB format, but it may be a 4-channel image in which a map image is superimposed on a color photograph (RGB).

また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の推論装置を具備する限り、勿論、本発明の範疇に含まれるものである。 Further, the present invention is not limited to the above examples. That is, those skilled in the art can carry out various modifications according to conventionally known knowledge within a range that does not deviate from the gist of the present invention. Even with such a modification, as long as the inference device of the present invention is provided, it is, of course, included in the category of the present invention.

1 推論装置
2 入力部
3 生成部
4 推論部
4a 学習済みモデル
MP 地図画像
AP 航空写真(空中撮像画像)
SI 重畳画像
MPL 学習用地図画像
APL 学習用航空写真(空中撮像画像)
SIL 学習用重畳画像
1 Inference device 2 Input unit 3 Generation unit 4 Inference unit 4a Trained model MP Map image AP Aerial photograph (aerial image)
SI superimposed image MPL learning map image APL learning aerial photograph (aerial image)
Superimposed image for SIL learning

Claims (8)

地図画像と、前記地図画像の領域に対応した前記地図画像を更新するための空中撮像画像とを入力する入力部と、
前記地図画像と前記空中撮像画像とを重畳した重畳画像を生成する生成部と、
学習用地図画像と、前記学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、前記学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを前記重畳画像に適用して、前記重畳画像が表す領域における変化域を推論する推論部と、
を備えることを特徴とする推論装置。
An input unit for inputting a map image and an aerial captured image for updating the map image corresponding to the area of the map image.
A generation unit that generates a superposed image in which the map image and the aerial captured image are superimposed,
The learning superimposed image in which the learning map image and the learning aerial image captured corresponding to the area of the learning map image are superimposed is used as input data, and the change area in the area represented by the learning superimposed image is the teacher data. The inference unit that infers the change area in the region represented by the superimposed image by applying the trained model obtained by machine learning as
An inference device characterized by comprising.
前記学習済みモデルは、前記学習用重畳画像における新設、解体、変更のそれぞれに対応する建物外形を前記教師データとして機械学習しており、
前記推論部は、前記空中撮像画像における新設、解体、変更のそれぞれに対応する前記変化域を推論する、
ことを特徴とする請求項1に記載の推論装置。
In the trained model, the building outline corresponding to each of new construction, dismantling, and change in the superposed image for learning is machine-learned as the teacher data.
The inference unit infers the change area corresponding to each of new installation, disassembly, and change in the aerial image.
The inference device according to claim 1.
前記推論部は、前記学習済みモデルから出力された前記重畳画像の画素毎の変化点である確率に基づいて前記変化域を推論することを特徴とする請求項1または2に記載の推論装置。 The inference device according to claim 1 or 2, wherein the inference unit infers the change area based on the probability of being a change point for each pixel of the superimposed image output from the trained model. 前記重畳画像は、RGBフォーマットのうちRチャネルとGチャネルに前記空中撮像画像のデータ、Bチャネルに前記地図画像のデータをそれぞれ設定することで構成され、
前記学習用重畳画像は、RGBフォーマットのうちRチャネルとGチャネルに前記学習用空中撮像画像のデータ、Bチャネルに前記学習用地図画像のデータをそれぞれ設定することで構成されていることを特徴とする請求項1から3のうちいずれか一項に記載の推論装置。
The superimposed image is configured by setting the data of the aerial captured image in the R channel and the G channel of the RGB format and the data of the map image in the B channel, respectively.
The superposed image for learning is characterized in that it is configured by setting the data of the aerial image for learning in the R channel and the G channel of the RGB format and the data of the map image for learning in the B channel, respectively. The inference device according to any one of claims 1 to 3.
前記教師データは、前記変化域の特性に対応したラベル情報が画素ごとに設定された画像であることを特徴とする請求項1から4のうちいずれか一項に記載の推論装置。 The inference device according to any one of claims 1 to 4, wherein the teacher data is an image in which label information corresponding to the characteristics of the change region is set for each pixel. 機械学習して得られた学習済みモデルに基づいて推論をする推論装置で実行される推論方法であって、
地図画像と、前記地図画像の領域に対応した前記地図画像を更新するための空中撮像画像とを入力する入力工程と、
前記地図画像と前記空中撮像画像とを重畳した重畳画像を生成する生成工程と、
学習用地図画像と、前記学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、前記学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを前記重畳画像に適用して、前記重畳画像が表す領域における変化域を推論する推論工程と、
を含むことを特徴とする推論方法。
It is an inference method executed by an inference device that makes inferences based on a trained model obtained by machine learning.
An input process for inputting a map image and an aerial captured image for updating the map image corresponding to the area of the map image, and
A generation step of generating a superimposed image in which the map image and the aerial captured image are superimposed,
The learning superimposed image in which the learning map image and the learning aerial image captured corresponding to the area of the learning map image are superimposed is used as input data, and the change area in the area represented by the learning superimposed image is the teacher data. The inference step of applying the trained model obtained by machine learning as a method to the superimposed image to infer the change region in the region represented by the superimposed image, and
An inference method characterized by including.
請求項6に記載の推論方法をコンピュータにより実行させることを特徴とする推論プログラム。 An inference program comprising executing the inference method according to claim 6 by a computer. 請求項7に記載の推論プログラムを格納したことを特徴とするコンピュータにより読み取り可能な記憶媒体。 A computer-readable storage medium comprising storing the inference program according to claim 7.
JP2020112536A 2020-06-30 2020-06-30 Inference device Pending JP2022011411A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020112536A JP2022011411A (en) 2020-06-30 2020-06-30 Inference device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020112536A JP2022011411A (en) 2020-06-30 2020-06-30 Inference device

Publications (1)

Publication Number Publication Date
JP2022011411A true JP2022011411A (en) 2022-01-17

Family

ID=80148164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020112536A Pending JP2022011411A (en) 2020-06-30 2020-06-30 Inference device

Country Status (1)

Country Link
JP (1) JP2022011411A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022044782A (en) * 2018-03-28 2022-03-17 株式会社三洋物産 Game machine
JP7368558B1 (en) * 2022-07-22 2023-10-24 株式会社パスコ Building geometry correction device, building geometry correction method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022044782A (en) * 2018-03-28 2022-03-17 株式会社三洋物産 Game machine
JP7368558B1 (en) * 2022-07-22 2023-10-24 株式会社パスコ Building geometry correction device, building geometry correction method and program

Similar Documents

Publication Publication Date Title
WO2022068487A1 (en) Styled image generation method, model training method, apparatus, device, and medium
CN101536078B (en) Improving image masks
JP2022011411A (en) Inference device
CN110622177A (en) Instance partitioning
WO2020000960A1 (en) Image separation method, apparatus, computer device and storage medium
WO2019041842A1 (en) Image processing method and device, storage medium and computer device
KR102207408B1 (en) Method, apparatus and computer readable medium for image processing
US20210217197A1 (en) Processing images to localize novel objects
TWI545963B (en) Gamut mapping method and the related device thereof
US9667833B2 (en) History generating apparatus and history generating method
JP7207846B2 (en) Information processing device, information processing method and program
WO2019206047A1 (en) Image data processing method and apparatus, image display method and apparatus, storage medium and display device
CA3154893A1 (en) Image color transferring method, device, computer equipment and storage medium
CN107730568B (en) Coloring method and device based on weight learning
JP7151742B2 (en) Image conversion device, image conversion method, and computer program for image conversion
WO2021136224A1 (en) Image segmentation method and device
CN115661597B (en) Visible light and infrared fusion target detection method based on dynamic weight positioning distillation
WO2023151299A1 (en) Data generation method and apparatus, device, and storage medium
US20210004699A1 (en) Learning apparatus, inferring apparatus, learning method, program, and inferring method
WO2021250850A1 (en) Training apparatus, control method, and non-transitory computer-readable storage medium
US20100245862A1 (en) Image-processing device, image-forming device, image-processing method, and computer readable medium
US8390907B2 (en) Image-processing device, image-forming device, image-processing method, and computer readable medium
WO2020066755A1 (en) Learning model generation device, ground object change determination device, learning model generation method, ground object change determination method, and computer-readable recording medium
WO2019224947A1 (en) Training device, image generation device, training method, image generation method and program
CN113129375B (en) Data processing method, device, equipment and storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210827

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240405