JP2022011411A - Inference device - Google Patents
Inference device Download PDFInfo
- Publication number
- JP2022011411A JP2022011411A JP2020112536A JP2020112536A JP2022011411A JP 2022011411 A JP2022011411 A JP 2022011411A JP 2020112536 A JP2020112536 A JP 2020112536A JP 2020112536 A JP2020112536 A JP 2020112536A JP 2022011411 A JP2022011411 A JP 2022011411A
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- superimposed
- map image
- inference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 claims abstract description 89
- 238000000034 method Methods 0.000 claims description 18
- 238000010801 machine learning Methods 0.000 claims description 14
- 238000010276 construction Methods 0.000 claims description 12
- 238000009434 installation Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 6
- 238000012546 transfer Methods 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000000608 photoreceptor cell Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、機械学習して得られた学習済みモデルに基づいて推論をする推論装置に関する。 The present invention relates to an inference device that makes inferences based on a trained model obtained by machine learning.
地図上の家形変化点検出や家屋異動判読の自動化はこれまで画像処理により行われていた。例えば特許文献1に記載の家屋異動判読支援装置は、異動候補検出部が、新/旧の2時期におけるDSMデータ及び空中撮影画像からなる空間情報計測データに基づいて2時期間での家屋異動を検出し当該異動が検出された場所を候補領域として抽出し、実体視画像生成部が、空間情報計測データに基づいて対象領域の実体視画像を生成する。そして、表示画面生成部が、平面視画像取得部による平面視画像上に異動候補検出部による検出結果を示した画像と実体視画像生成部による実体視画像とを表示部の画面に表示する。このようにすることにより、判読作業者は画面に表示された実体視画像を観察することで、判定対象領域における高さの情報を立体画像から容易に把握することができ、新築や滅失等の高さ変化を伴う家屋の異動を効率的に判定することができる。
Until now, image processing has been used to detect changes in the shape of a house on a map and to automate the interpretation of house changes. For example, in the house change interpretation support device described in
特許文献1に記載したような画像処理による方法は、形や色などの特徴から建物の形状を特定し、地図データ等と差分を取る事で変化点を検出するものである。しかしながら、画像処理だけでは汎化性・ロバスト性が低く、未知の建物や撮影条件などによっては検出精度が低下するという問題があった。
The image processing method as described in
近年の機械学習、深層学習技術の検出性能向上に伴い、深層学習を用いた家形変化点検出や家屋異動判読等の地図の更新作業の自動化が試みられている。深層学習では建物の形状や周辺の状況を膨大な教師データから学習し、高い汎化性が得られることが知られている。変化点の検出は、推論された建物の形状と更新前の地図データとの差分をとることで実現している。 With the recent improvement in the detection performance of machine learning and deep learning technology, attempts are being made to automate map update work such as house shape change point detection and house change interpretation using deep learning. It is known that in deep learning, the shape of a building and the surrounding situation can be learned from a huge amount of teacher data, and high generalization can be obtained. The detection of the change point is realized by taking the difference between the inferred shape of the building and the map data before the update.
しかしながら、深層学習により建物の形状を推論し、更新前の地図データとの差分を取る方法では以下のような問題がある。まず、深層学習により推論した建物の形状が、大きい、小さい、歪んでいるといったように不安定となる。そのため、推論した形状と地図データとの差分をとっても、その差分が正しいか否かを判断する基準がルールベースとなり汎化性が落ちる。したがって、地図画像の更新の精度が低下してしまう。特に、建物の変更(2棟が1棟、L字建物が四角等)には正確な建物の形状を推論する必要があり、従来の方法では検出が困難であった。 However, the method of inferring the shape of the building by deep learning and taking the difference from the map data before the update has the following problems. First, the shape of the building inferred by deep learning becomes unstable, such as being large, small, or distorted. Therefore, even if the difference between the inferred shape and the map data is taken, the standard for judging whether or not the difference is correct becomes a rule base and generalization is reduced. Therefore, the accuracy of updating the map image is lowered. In particular, when changing a building (two buildings are one building, an L-shaped building is a square, etc.), it is necessary to infer an accurate building shape, which is difficult to detect by the conventional method.
本発明が解決しようとする課題としては、家形変化点検出や家屋異動判読等の地図画像の更新を行う際により精度良く更新することが一例として挙げられる。 As an example of the problem to be solved by the present invention, it is possible to update the map image more accurately when the map image such as the house shape change point detection and the house change interpretation is updated.
上記課題を解決するために、請求項1に記載の発明は、地図画像と、前記地図画像の領域に対応した前記地図画像を更新するための空中撮像画像とを入力する入力部と、前記地図画像と前記空中撮像画像とを重畳した重畳画像を生成する生成部と、学習用地図画像と、前記学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、前記学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを前記重畳画像に適用して、前記重畳画像領域における変化域を推論する推論部と、を備えることを特徴としている。
In order to solve the above problems, the invention according to
請求項6に記載の発明は、機械学習して得られた学習済みモデルに基づいて推論をする推論装置で実行される推論方法であって、地図画像と、前記地図画像の領域に対応した前記地図画像を更新するための空中撮像画像とを入力する入力工程と、前記地図画像と前記空中撮像画像とを重畳した重畳画像を生成する生成工程と、学習用地図画像と、前記学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、前記学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを前記重畳画像に適用して、前記重畳画像が表す領域における変化域を推論する推論工程と、を含むことを特徴としている。 The invention according to claim 6 is an inference method executed by an inference device that makes inferences based on a trained model obtained by machine learning, and corresponds to a map image and a region of the map image. An input step for inputting an aerial captured image for updating a map image, a generation step for generating a superimposed image in which the map image and the aerial captured image are superimposed, a learning map image, and the learning map image. A trained model obtained by machine learning using an aerial image for learning corresponding to the area of the above and a superimposed image for learning superimposed as input data, and a change area in the area represented by the superimposed image for learning as teacher data. Is applied to the superimposed image to infer a change area in the region represented by the superimposed image, and the like.
請求項7に記載の発明は、請求項6に記載の推論方法を推論プログラムとしてコンピュータにより実行させることを特徴としている。 The invention according to claim 7 is characterized in that the inference method according to claim 6 is executed by a computer as an inference program.
請求項8に記載の発明は、請求項7に記載の推論プログラムをコンピュータにより読み取り可能な記憶媒体へ格納したことを特徴としている。 The invention according to claim 8 is characterized in that the inference program according to claim 7 is stored in a storage medium readable by a computer.
以下、本発明の一実施形態にかかる推論装置を説明する。本発明の一実施形態にかかる推論装置は、入力部に、地図画像と、地図画像の領域に対応した地図画像を更新するための空中撮像画像とが入力され、生成部が、地図画像と空中撮像画像とを重畳した重畳画像を生成する。そして、推論部が、学習用地図画像と、学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを重畳画像に適用して、重畳画像が表す領域における変化域を推論する。このようにすることにより、地図画像と空中撮像画像とを重畳した重畳画像から、対象領域の変化域が学習された学習済みモデルによって変化域を推論することができるので、従来のように、建物の形状を推論する必要がなく、推論した形状の不安定さによる汎化性の低下が抑えられる。したがって、家形変化点検出や家屋異動判読等の地図画像の更新を行う際により精度良く更新することができる。 Hereinafter, the inference device according to the embodiment of the present invention will be described. In the inference device according to the embodiment of the present invention, a map image and an aerial captured image for updating the map image corresponding to the area of the map image are input to the input unit, and the generation unit is the map image and the air. Generates a superimposed image that is superimposed on the captured image. Then, the inference unit uses the learning superimposed image in which the learning map image and the learning aerial image captured corresponding to the area of the learning map image are superimposed as input data, and changes in the area represented by the learning superimposed image. The trained model obtained by machine learning using the region as teacher data is applied to the superimposed image, and the change region in the region represented by the superimposed image is inferred. By doing so, it is possible to infer the change area from the superimposed image in which the map image and the aerial image are superimposed by the trained model in which the change area of the target area is learned. It is not necessary to infer the shape of the inferred shape, and the decrease in generalization due to the instability of the inferred shape is suppressed. Therefore, it is possible to update the map image more accurately when the map image such as the house shape change point detection and the house change interpretation is updated.
また、学習済みモデルは、学習用重畳画像における新設、解体、変更のそれぞれに対応する建物外形を教師データとして機械学習しており、推論部は、空中撮像画像における新設、解体、変更のそれぞれに対応する変化域を推論してもよい。このようにすることにより、地図における建物の新設、解体、変更を推論することが可能となる。 In addition, the trained model is machine-learned using the building outline corresponding to each of the new installation, dismantling, and change in the superposed image for learning as teacher data, and the inference unit is used for each of the new installation, dismantling, and change in the aerial captured image. The corresponding range of change may be inferred. By doing so, it becomes possible to infer new construction, demolition, and changes of buildings on the map.
また、推論部は、学習済みモデルから出力された重畳画像の画素毎の変化点である確率に基づいて変化域を推論してもよい。このようにすることにより、画素毎に出力された確率に所定の閾値等を設定することで、例えば、建物の新設、解体、変更といった変化域を推論することができるようになる。 Further, the inference unit may infer the change area based on the probability of the change point for each pixel of the superimposed image output from the trained model. By doing so, by setting a predetermined threshold value or the like for the probability output for each pixel, it becomes possible to infer a change area such as new construction, demolition, or change of a building.
また、重畳画像は、RGBフォーマットのうちRチャネルとGチャネルに空中撮像画像のデータ、Bチャネルに地図画像のデータをそれぞれ設定することで構成され、学習用重畳画像は、RGBフォーマットのうちRチャネルとGチャネルに学習用空中撮像画像のデータ、Bチャネルに学習用地図画像のデータをそれぞれ設定することで構成されていてもよい。このようにすることにより、RGBフォーマットを利用して重畳画像等を構成することができる。また、Bチャネルを地図画像や学習用地図画像とすることで、重畳画像を人間が観察した場合であっても空中撮像画像や学習用空中撮像画像との識別が容易となる。 The superimposed image is configured by setting the data of the aerial image captured in the R channel and the G channel in the RGB format and the data of the map image in the B channel, respectively, and the superimposed image for learning is the R channel in the RGB format. It may be configured by setting the data of the aerial image for learning in the G channel and the data of the map image for learning in the B channel, respectively. By doing so, it is possible to construct a superimposed image or the like by using the RGB format. Further, by using the B channel as a map image or a learning map image, it becomes easy to distinguish the superimposed image from the aerial captured image and the learning aerial captured image even when the superimposed image is observed by a human.
また、教師データは、変化域の特性に対応したラベル情報が画素ごとに設定された画像であってもよい。このようにすることにより、教師データを画像とすることで、入力データとフォーマットを合わせることができ、学習効率や処理効率を向上させることができる。 Further, the teacher data may be an image in which label information corresponding to the characteristics of the changing region is set for each pixel. By doing so, by using the teacher data as an image, the input data and the format can be matched, and the learning efficiency and the processing efficiency can be improved.
また、本発明の一実施形態にかかる推論方法は、入力工程において、地図画像と、地図画像の領域に対応した地図画像を更新するための空中撮像画像とが入力され、生成工程で、地図画像と空中撮像画像とを重畳した重畳画像を生成する。そして、推論工程で、学習用地図画像と、学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを重畳画像に適用して、重畳画像が表す領域における変化域を推論する。このようにすることにより、地図画像と空中撮像画像とを重畳した重畳画像から、対象領域の変化域が学習された学習済みモデルによって変化域を推論することができるので、従来のように、建物の形状を推論する必要がなく、推論した形状の不安定さによる汎化性の低下が抑えられる。したがって、家形変化点検出や家屋異動判読等の地図画像の更新を行う際により精度良く更新することができる。 Further, in the inference method according to the embodiment of the present invention, the map image and the aerial captured image for updating the map image corresponding to the area of the map image are input in the input step, and the map image is generated in the generation step. And an aerial captured image are superimposed to generate a superimposed image. Then, in the inference process, the learning superimposed image obtained by superimposing the learning map image and the learning aerial image captured corresponding to the area of the learning map image is used as input data, and the change in the area represented by the learning superimposed image is used. The trained model obtained by machine learning using the region as teacher data is applied to the superimposed image, and the change region in the region represented by the superimposed image is inferred. By doing so, it is possible to infer the change area from the superimposed image in which the map image and the aerial image are superimposed by the trained model in which the change area of the target area is learned. It is not necessary to infer the shape of the inferred shape, and the decrease in generalization due to the instability of the inferred shape is suppressed. Therefore, it is possible to update the map image more accurately when the map image such as the house shape change point detection and the house change interpretation is updated.
また、上述した推論方法を、推論プログラムとしてコンピュータにより実行させてもよい。このようにすることにより、コンピュータを用いて、地図画像と空中撮像画像とを重畳した重畳画像から、対象領域の変化域が学習された学習済みモデルによって変化域を推論することができるので、従来のように、建物の形状を推論する必要がなく、推論した形状の不安定さによる汎化性の低下が抑えられる。したがって、家形変化点検出や家屋異動判読等の地図画像の更新を行う際により精度良く更新することができる。 Further, the above-mentioned inference method may be executed by a computer as an inference program. By doing so, it is possible to infer the change area by the trained model in which the change area of the target area is learned from the superimposed image in which the map image and the aerial image are superimposed by using a computer. As in the case, it is not necessary to infer the shape of the building, and the decrease in generalization due to the instability of the inferred shape can be suppressed. Therefore, it is possible to update the map image more accurately when the map image such as the house shape change point detection and the house change interpretation is updated.
また、上述した推論プログラムをコンピュータ読み取り可能な記憶媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。 Further, the above-mentioned inference program may be stored in a computer-readable storage medium. By doing so, the program can be distributed as a single unit in addition to being incorporated in the device, and version upgrades and the like can be easily performed.
本発明の一実施例にかかる推論装置を図1~図10を参照して説明する。図1は、本実施例にかかる推論装置として機能するコンピュータ10の概略構成図である。
An inference device according to an embodiment of the present invention will be described with reference to FIGS. 1 to 10. FIG. 1 is a schematic configuration diagram of a
図1に示したように、コンピュータ10は、演算部11と、主記憶部12と、通信部13と、補助記憶部14と、を備えている。そして、演算部11と、主記憶部12と、通信部13と、補助記憶部14と、はバスBにより互いに接続されている。
As shown in FIG. 1, the
演算部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラム等を読み出して実行することにより、コンピュータ10に係る種々の情報処理、制御処理等を行う。
The
主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)等の一時記憶領域であり、演算部11が演算処理を実行するために必要なデータを一時的に記憶する。
The
通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
The
補助記憶部14は大容量メモリ、ハードディスク等であり、演算部11が処理を実行するために必要なプログラムや、その他のデータ等を記憶している。また、補助記憶部14は、学習済みモデル4aを記憶している。学習済みモデル4aは、地図上の変更域を推論するためのモデルであり、機械学習により生成された学習済みモデルである。
The
なお、コンピュータ10は、上記した構成要素の他にUSB(Universal Serial Bus)等の外部インターフェースや、キーボード、マウス、ディスプレイ等を必要に応じて備えていてもよい。
In addition to the above-mentioned components, the
図2に、上述したコンピュータ10が機能する推論装置1の機能構成図を示す。図2に示したように、推論装置1は、入力部2と、生成部3と、推論部4と、を備えている。
FIG. 2 shows a functional configuration diagram of the
入力部2は、例えば通信部13が機能し、地図画像MPおよび航空写真APが入力される。本実施例における地図画像とは、道路や建物等を上空から平面視した状態で表現された地図の画像である。また、本実施例における航空写真は、周知のように、飛行中の飛行体からカメラにより地表面を撮影した写真をいう。また、航空写真は、地形に起因して生じる歪みを補正したオルソ画像を用いるのが好ましいが、歪み補正をしなくてもよい。また、本実施例では、空中撮像画像として航空写真で説明するが衛星写真でもよい。あるいは空中撮像画像として航空機から地上に向けてレーザ光を放射状に照射し、地上から反射されるレーザ光の時間差で地形等を計測する航空ライダにより得られた画像等であってもよい。
For example, the
生成部3は、入力部2に入力された地図画像MPと航空写真APとを重畳し、重畳画像SIを生成する。ここで、重畳画像SIの生成について図3を参照して説明する。
The
図3において地図画像MPは、更新前の地図画像であり、本実施例ではベクタデータ(ポリゴン画像)となっている。航空写真APは、本実施例ではRGBフォーマットのカラー画像となっている。また、地図画像MPと航空写真APとは、同じ領域(地域)を示すものとなっている。即ち、航空写真APは、地図画像MPの領域に対応した地図画像MPを更新するための空中撮像画像である。 In FIG. 3, the map image MP is a map image before updating, and is vector data (polygon image) in this embodiment. The aerial photograph AP is a color image in RGB format in this embodiment. Further, the map image MP and the aerial photograph AP indicate the same area (region). That is, the aerial photograph AP is an aerial captured image for updating the map image MP corresponding to the area of the map image MP.
航空写真APは、RGBの各成分に分解される。航空写真APのうちR(赤)成分を符号APrとし、航空写真APのうちG(緑)成分を符号APgとし、航空写真APのうちB(青)成分を符号APbとする。そして、R成分画像APrとG成分画像APgを合成してRG成分画像APrgを生成する。そして、RG成分画像APrgをR成分、B成分画像APbをG成分、地図画像MPをB成分にそれぞれ設定したRGBフォーマットの画像を重畳画像SIとして生成する。 The aerial photograph AP is decomposed into each component of RGB. The R (red) component of the aerial photograph AP is designated by the reference numeral APr, the G (green) component of the aerial photograph AP is designated by the reference numeral APg, and the B (blue) component of the aerial photograph AP is designated by the reference numeral APb. Then, the R component image APr and the G component image APg are combined to generate the RG component image APrg. Then, an RGB format image in which the RG component image APrg is set as the R component, the B component image APb is set as the G component, and the map image MP is set as the B component is generated as the superimposed image SI.
このようにして生成された重畳画像SIは、人間の目には地図画像MPによる建物等の家形は青系の色に見え、航空写真APの部分は黄系の色に見える。これは、人間の網膜を構成する視細胞の青錐体、緑錐体、赤錐体が感応する波長特性の差によるものである。具体的に、青錐体は約430nmの波長、つまり青に一番強く感応し、緑錐体は約530nmの波長、つまり緑に一番強く感応し、赤錐体は約560nmの波長、つまり赤に一番強く感応することが知られている。したがって、B成分に地図画像MPを挿入することで、地図画像MPが青系の色に視認できる。 In the superimposed image SI generated in this way, the house shape of the building or the like by the map image MP looks bluish to the human eye, and the aerial photograph AP part looks like a yellowish color. This is due to the difference in wavelength characteristics that the blue cones, green cones, and red cones of the photoreceptor cells that make up the human retina are sensitive to. Specifically, the blue cone is most sensitive to a wavelength of about 430 nm, or blue, the green cone is most sensitive to a wavelength of about 530 nm, that is, green, and the red cone is most sensitive to a wavelength of about 560 nm, that is. It is known to be the most sensitive to red. Therefore, by inserting the map image MP into the B component, the map image MP can be visually recognized as a bluish color.
推論部4は、学習済みモデル4aを重畳画像SIに適用して、重畳画像SIが表す領域における変化域を推論する。ここで、推論とは、AI(Artificial Intelligence)の分野で周知のように、学習して生成された推論(学習済み)モデルに当てはめて、その結果を導くことである。
The inference unit 4 applies the trained
学習済みモデル4aは、学習用地図画像と、当該学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られたものである。即ち、学習済みモデル4aは、教師データに基づいて学習して推論可能となったものである。
The trained
ここで、学習済みモデル4aについて説明する。本実施例にかかる学習済みモデル4aは、例えば図4に示したような機能構成を有する学習装置20によって生成される。学習装置20は、入力部22と、生成部23と、学習部24と、を備えている。また、学習装置20は、図1に示したコンピュータ10を機能させることで実現できる。
Here, the trained
入力部22は、例えば通信部13が機能し、学習用地図画像MPLおよび学習用航空写真APLが入力される。生成部23は、入力部22に入力された学習用地図画像MPLと学習用航空写真APLとを重畳し、学習用重畳画像SILを生成する。入力部22及び生成部23は、基本的に入力部2及び生成部3と同様の動作をする。なお、学習用地図画像MPLは地図画像MPと用途が異なるのみで、データフォーマット等に違いはない。学習用航空写真APLも同様に航空画像APと用途が異なるのみで、データフォーマット等に違いはない。
For example, the
学習部24は、生成部23が生成した学習用重畳画像SILを入力データとし、学習用地図画像MPLと学習用航空写真APLとが示す領域における変化域を教師データとして機械学習して学習済みモデル4aを得る。変化域とは、本実施例では、後述するように建物の新設、解体、変更といった建物外形の更新された領域を示す。
The
学習装置20は、学習済みモデル4aとして、学習用航空写真における学習用地図画像からの変化域(新設、解体、変更といった更新領域)を学習する深層学習(ディープラーニング)を行うことで、重畳画像SIを入力とし、変化域を出力するとするニューラルネットワークを構築(生成)する。例えばニューラルネットワークはCNN(Convolution Neural Network)であり、重畳画像SIの入力を受け付ける入力層と、変化域を示す情報を出力する出力層と、特徴量を抽出する中間層とを有する(図5を参照)。
The
なお、本実施例では学習済みモデル4aがCNNであるものとして説明するが、学習済みモデル4aはCNNに限定されず、CNN以外のニューラルネットワーク、セマンティックセグメンテーション、インスタンスセグメンテーションなど、他の学習アルゴリズムで構築された学習済みモデルであってよい。
In this embodiment, the trained
学習装置20における動作(学習方法)を図6のフローチャートを参照して説明する。まず、教師データを生成する(ステップS11)。教師データの生成について図7を参照して説明する。
The operation (learning method) in the
まず、予察を行って、編集前の地図データBEと編集後の地図データAEとに建物の新設、解体、変更の属性を付与する。予察とは、編集前の地図データBEと編集後の地図データAEとを作業者が比較して属性を付与する対象を抽出することである。 First, the prediction is performed, and the attributes of new construction, demolition, and change of the building are given to the map data BE before editing and the map data AE after editing. The prediction is to extract the target to which the attribute is given by the worker by comparing the map data BE before editing and the map data AE after editing.
予察を行って、属性を付与された地図データからは、新設データA、解体データD、変更データCがそれぞれ生成される。図7に示した新設データA、解体データD、変更データCは、地図データのおける対象となる領域内の新設、解体、変更のそれぞれの建物等の領域を白抜きで示している。つまり、同一の範囲において、新設された建物等が新設データAに示され、解体された建物等が解体データDに示され、変更された建物等が変更データCに示されている。ここで、変更とは、例えば2棟が1棟、L字建物が四角といったように建物等の形状が変更されたことを示す。 New data A, dismantling data D, and change data C are generated from the map data to which the attributes are given by performing the prediction. In the new construction data A, the dismantling data D, and the change data C shown in FIG. 7, the areas such as the newly constructed, demolished, and changed buildings in the target area of the map data are shown in white. That is, in the same range, the newly constructed building or the like is shown in the new construction data A, the dismantled building or the like is shown in the dismantling data D, and the changed building or the like is shown in the change data C. Here, the change means that the shape of the building or the like has been changed, for example, two buildings are one building and an L-shaped building is a square.
そして、新設データA、解体データD、変更データCを合成してラベル画像Lが生成される。ラベル画像Lは、新設、解体、変更のそれぞれの領域に対応する画素に予め定めた画素値がラベル情報として設定された画像である。図7の例では変更なしが画素値“0”、解体が画素値“1”、変更が画素値“2”、新設が画素値“3”がそれぞれ設定された8ビットグレースケール画像である。そのため、ラベル画像Lを人間が視認しても各ラベルを識別するには困難であるがデータとして識別可能であるので問題はない。このようにして、生成されたラベル画像Lが教師データとなる。即ち、教師データは、変化域の特性に対応したラベル情報が画素ごとに設定された画像である。そして、学習済みモデル4aは、学習用重畳画像SILにおける新設、解体、変更のそれぞれに対応する建物外形を教師データとして機械学習している。
Then, the label image L is generated by synthesizing the newly installed data A, the disassembled data D, and the changed data C. The label image L is an image in which predetermined pixel values are set as label information for the pixels corresponding to the areas of new installation, disassembly, and change. In the example of FIG. 7, it is an 8-bit grayscale image in which the pixel value “0” is set for no change, the pixel value “1” is set for disassembly, the pixel value “2” is set for change, and the pixel value “3” is set for new installation. Therefore, even if the label image L is visually recognized by a human, it is difficult to identify each label, but there is no problem because it can be identified as data. The label image L generated in this way becomes the teacher data. That is, the teacher data is an image in which label information corresponding to the characteristics of the changing region is set for each pixel. Then, the trained
この教師データを生成するのは、コンピュータ10で行ってもよいし、他のコンピュータ等で行ってもよい。コンピュータ10で行う場合は図4に示した入力部22に予察を行った編集前の地図データと編集後の地図データを入力して、生成部23でラベル画像Lを生成すればよい。
The teacher data may be generated by the
図6のフローチャートに戻り、入力部22に学習用地図画像MPLと学習用航空写真APLとを入力する(ステップS12)。このステップで入力される学習用地図画像MPLと学習用航空写真APLは、ステップS11で生成した教師データ(ラベル画像L)に対応した領域を示すものである。 Returning to the flowchart of FIG. 6, the learning map image MPL and the learning aerial photograph APL are input to the input unit 22 (step S12). The learning map image MPL and the learning aerial photograph APL input in this step indicate a region corresponding to the teacher data (label image L) generated in step S11.
次に、生成部23で学習用重畳画像SILを生成する(ステップS13)。そして、学習用重畳画像SILと教師データにより学習を行う(ステップS14)。以上の動作を、学習用地図画像MPL、学習用航空写真APL及び教師データを変更して繰り返し、学習済みモデル4aを生成する。
Next, the
即ち、学習装置20は、学習用地図画像MPLと、学習用地図画像MPLの領域に対応した学習用地図画像MPLを更新するための学習用航空写真APL(学習用空中撮像画像)とを入力する入力部22と、学習用地図画像MPLと学習用地図画像MPLの領域に対応した学習用航空写真APL(学習用空中撮像画像)とを重畳した学習用重畳画像SILを生成する生成部23と、学習用重畳画像SILを入力データとし、学習用地図画像MPLの領域における変化域を教師データとして機械学習して学習済みモデル4aを得る学習部24と、を備えている。
That is, the
上述した学習装置20によって、学習用地図画像MPLと学習用空中撮像画像APLとを重畳した学習用重畳画像SILにより、対象領域の変化域を直接学習することができるので、従来のように、建物の形状を推論する必要がなく、推論した形状の不安定さによる汎化性の低下が抑えられる。
With the
次に、図2に示された推論装置1の動作(推論方法)を図8のフローチャートを参照して説明する。図8のフローチャートは、コンピュータ10で実行されるプログラム(推論プログラム)として構成することができる。また、当該推論プログラムをメモリカード等の記録媒体に格納してもよい。
Next, the operation (inference method) of the
まず、入力部2に地図画像MPと航空写真APとを入力する(ステップS21)。次に、生成部3で重畳画像SIを生成する(ステップS22)。そして、推論部4が、学習済みモデル4aにより新設、解体、変更のいずれかに対応する領域を推論する(ステップS23)。学習済みモデル4aからは、例えば重畳画像SIの画素ごとに新設、解体、変更のいずれかに該当するかの確率が出力される。つまり、重畳画像の画素毎の変化点である確率が出力される。つまり、対象画像が変化域に含まれる点(画像)であるかの確率が出力される。
First, the map image MP and the aerial photograph AP are input to the input unit 2 (step S21). Next, the
即ち、ステップS21が入力工程、ステップS22が生成工程、ステップS23が推論工程として機能する。 That is, step S21 functions as an input process, step S22 functions as a generation process, and step S23 functions as an inference process.
そして、推論部4は、出力された確率に応じて当該領域が新設、解体、変更のいずれかを判定する。この判定は、予め確率に閾値を設け、その閾値以上となったことで行えばよい。例えば、新設と判定する閾値を50%とした場合、学習済みモデル4aから出力された新設の確率が50%以上の値となった領域が新設された建物の領域であると判定する。つまり、本実施例にかかる推論装置1は、建物の形状を推論するのではなく、変化した領域を直接推論するものである。
Then, the inference unit 4 determines whether the area is newly established, disassembled, or changed according to the output probability. This determination may be made by setting a threshold value for the probability in advance and determining that the threshold value is equal to or higher than the threshold value. For example, when the threshold value for determining new construction is 50%, it is determined that the area where the probability of new installation output from the trained
最後に上述した構成の推論装置1で推論を行った実験結果を示す。図9は、入力する重畳画像SIと、当該重畳画像SIに対応する教師データ(Ground Truth)と、学習後の学習済みモデル4aを用いて行った推論結果を示したものである。
Finally, the experimental results obtained by inference with the
学習データとしては、8Tile×8Tileで構成された1km四方のメッシュを6つ(384Tile)用いた。学習時においては、Iterations=250,000、Batch size=8、Start Loss=0.43、End Loss=0.06、Training Time=26hとなった。 As the training data, six 1 km square meshes (384tiles) composed of 8tiles × 8tiles were used. At the time of learning, Iterations = 250,000, Batch size = 8, Start Loss = 0.43, End Loss = 0.06, Training Time = 26h.
図9に示したように、本実施例にかかる推論装置1により、教師データで示された領域に対応する領域を推論結果として略出力できていることが明らかとなった。
As shown in FIG. 9, it was clarified that the
図10は、上述した構成の推論装置1を用いた場合と、従来技術のように、推論された建物の形状と地図データ等との差分をとる方法と、におけるPrecision(正解率)とRecall(適合率)との比較である。図10(a)は本実施例にかかる推論装置1、図10(b)は従来技術である。なお、推論装置1の学習等の条件は図9と同じである。
FIG. 10 shows Precision (correct answer rate) and Recall (correct answer rate) in the case of using the
図10に示したように、推論装置1の方が、新設、解体の場合のいずれもPrecisionとRecallが高い数値となった。特にPrecisionについては、著しい改善が見られた。なお、変更は、推論装置1のみが推論可能である。これは、従来技術では建物の形状を推論しているが、その形状が不安定なため変更したか否かの判定ができないからである。
As shown in FIG. 10, in the case of the
本実施例によれば、推論装置1は、入力部2に、地図画像MPと、地図画像MPの領域に対応した地図画像MPを更新するための航空写真APとが入力され、生成部3が、地図画像MPと地図画像MPの領域に対応した航空写真APとを重畳した重畳画像SIを生成する。そして、推論部4が、学習用地図画像と、学習用地図画像の領域に対応した学習用航空写真と、を重畳させた学習用重畳画像を入力データとし、学習用地図画像の領域における変化域を教師データとして機械学習して得られた学習済みモデル4aを重畳画像SIに適用して、前記した領域における変化域を推論する。このようにすることにより、地図画像MPと航空写真APとを重畳した重畳画像SIから、対象領域の変化域が学習された学習済みモデル4aによって変化域を推論することができるので、従来のように、建物の形状を推論する必要がなく、推論した形状の不安定さによる汎化性の低下が抑えられる。したがって、家形変化点検出や家屋異動判読等の地図画像の更新を行う際により精度良く更新することができる。
According to this embodiment, in the
また、学習済みモデル4aは、学習用重畳画像における新設、解体、変更のそれぞれに対応する建物外形を教師データとして機械学習しており、推論部4は、航空写真APにおける新設、解体、変更のそれぞれに対応する変化域を推論している。このようにすることにより、地図における建物の新設、解体、変更を推論することが可能となる。
Further, the trained
また、推論部4は、学習済みモデル4aから出力された重畳画像SIの画素毎の変化点である確率に基づいて変化域を推論している。このようにすることにより、画素毎に出力された確率に所定の閾値等を設定することで、例えば、建物の新設、解体、変更といった変化域を推論することができるようになる。
Further, the inference unit 4 infers the change area based on the probability of the change point for each pixel of the superimposed image SI output from the trained
また、重畳画像SIは、RGBフォーマットのうちRチャネルとGチャネルに航空写真APのデータ、Bチャネルに地図画像MPのデータをそれぞれ設定することで構成され、学習用重畳画像SILは、RGBフォーマットのうちRチャネルとGチャネルに学習用航空写真SPLのデータ、Bチャネルに学習用地図画像MPLのデータをそれぞれ設定することで構成されていてもよい。このようにすることにより、RGBフォーマットを利用して重畳画像SI等を形成することができる。また、Bチャネルを地図画像MPや学習用地図画像MPLとすることで、重畳画像SIを人間が観察した場合であっても空中撮像画像APや学習用空中撮像画像APLとの識別が容易となる。 Further, the superimposed image SI is configured by setting the aerial photograph AP data in the R channel and the G channel and the map image MP data in the B channel among the RGB formats, and the superimposed image SIL for learning is in the RGB format. Of these, the R channel and the G channel may be configured by setting the data of the aerial photograph SPL for learning, and the B channel may be configured by setting the data of the map image MPL for learning. By doing so, the superimposed image SI or the like can be formed by using the RGB format. Further, by using the map image MP or the learning map image MPL as the B channel, it becomes easy to distinguish the superimposed image SI from the aerial captured image AP and the learning aerial captured image APL even when the superimposed image SI is observed by a human. ..
また、教師データは、変化域の特性(新設、解体、変更)に対応したラベル情報が画素ごとに設定されたラベル画像Lである。このようにすることにより、教師データを画像とすることで、入力データとフォーマットを合わせることができ、学習効率や処理効率を向上させることができる。 Further, the teacher data is a label image L in which label information corresponding to the characteristics of the changing region (new installation, disassembly, change) is set for each pixel. By doing so, by using the teacher data as an image, the input data and the format can be matched, and the learning efficiency and the processing efficiency can be improved.
なお、上述した実施例では、重畳画像は、RGBフォーマットを利用していたが、カラー写真(RGB)に地図画像を重畳した4チャネルの画像としてもよい。 In the above-described embodiment, the superimposed image uses the RGB format, but it may be a 4-channel image in which a map image is superimposed on a color photograph (RGB).
また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の推論装置を具備する限り、勿論、本発明の範疇に含まれるものである。 Further, the present invention is not limited to the above examples. That is, those skilled in the art can carry out various modifications according to conventionally known knowledge within a range that does not deviate from the gist of the present invention. Even with such a modification, as long as the inference device of the present invention is provided, it is, of course, included in the category of the present invention.
1 推論装置
2 入力部
3 生成部
4 推論部
4a 学習済みモデル
MP 地図画像
AP 航空写真(空中撮像画像)
SI 重畳画像
MPL 学習用地図画像
APL 学習用航空写真(空中撮像画像)
SIL 学習用重畳画像
1
SI superimposed image MPL learning map image APL learning aerial photograph (aerial image)
Superimposed image for SIL learning
Claims (8)
前記地図画像と前記空中撮像画像とを重畳した重畳画像を生成する生成部と、
学習用地図画像と、前記学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、前記学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを前記重畳画像に適用して、前記重畳画像が表す領域における変化域を推論する推論部と、
を備えることを特徴とする推論装置。 An input unit for inputting a map image and an aerial captured image for updating the map image corresponding to the area of the map image.
A generation unit that generates a superposed image in which the map image and the aerial captured image are superimposed,
The learning superimposed image in which the learning map image and the learning aerial image captured corresponding to the area of the learning map image are superimposed is used as input data, and the change area in the area represented by the learning superimposed image is the teacher data. The inference unit that infers the change area in the region represented by the superimposed image by applying the trained model obtained by machine learning as
An inference device characterized by comprising.
前記推論部は、前記空中撮像画像における新設、解体、変更のそれぞれに対応する前記変化域を推論する、
ことを特徴とする請求項1に記載の推論装置。 In the trained model, the building outline corresponding to each of new construction, dismantling, and change in the superposed image for learning is machine-learned as the teacher data.
The inference unit infers the change area corresponding to each of new installation, disassembly, and change in the aerial image.
The inference device according to claim 1.
前記学習用重畳画像は、RGBフォーマットのうちRチャネルとGチャネルに前記学習用空中撮像画像のデータ、Bチャネルに前記学習用地図画像のデータをそれぞれ設定することで構成されていることを特徴とする請求項1から3のうちいずれか一項に記載の推論装置。 The superimposed image is configured by setting the data of the aerial captured image in the R channel and the G channel of the RGB format and the data of the map image in the B channel, respectively.
The superposed image for learning is characterized in that it is configured by setting the data of the aerial image for learning in the R channel and the G channel of the RGB format and the data of the map image for learning in the B channel, respectively. The inference device according to any one of claims 1 to 3.
地図画像と、前記地図画像の領域に対応した前記地図画像を更新するための空中撮像画像とを入力する入力工程と、
前記地図画像と前記空中撮像画像とを重畳した重畳画像を生成する生成工程と、
学習用地図画像と、前記学習用地図画像の領域に対応した学習用空中撮像画像と、を重畳させた学習用重畳画像を入力データとし、前記学習用重畳画像が表す領域における変化域を教師データとして機械学習して得られた学習済みモデルを前記重畳画像に適用して、前記重畳画像が表す領域における変化域を推論する推論工程と、
を含むことを特徴とする推論方法。 It is an inference method executed by an inference device that makes inferences based on a trained model obtained by machine learning.
An input process for inputting a map image and an aerial captured image for updating the map image corresponding to the area of the map image, and
A generation step of generating a superimposed image in which the map image and the aerial captured image are superimposed,
The learning superimposed image in which the learning map image and the learning aerial image captured corresponding to the area of the learning map image are superimposed is used as input data, and the change area in the area represented by the learning superimposed image is the teacher data. The inference step of applying the trained model obtained by machine learning as a method to the superimposed image to infer the change region in the region represented by the superimposed image, and
An inference method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020112536A JP2022011411A (en) | 2020-06-30 | 2020-06-30 | Inference device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020112536A JP2022011411A (en) | 2020-06-30 | 2020-06-30 | Inference device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022011411A true JP2022011411A (en) | 2022-01-17 |
Family
ID=80148164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020112536A Pending JP2022011411A (en) | 2020-06-30 | 2020-06-30 | Inference device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022011411A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022044782A (en) * | 2018-03-28 | 2022-03-17 | 株式会社三洋物産 | Game machine |
JP7368558B1 (en) * | 2022-07-22 | 2023-10-24 | 株式会社パスコ | Building geometry correction device, building geometry correction method and program |
-
2020
- 2020-06-30 JP JP2020112536A patent/JP2022011411A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022044782A (en) * | 2018-03-28 | 2022-03-17 | 株式会社三洋物産 | Game machine |
JP7368558B1 (en) * | 2022-07-22 | 2023-10-24 | 株式会社パスコ | Building geometry correction device, building geometry correction method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022068487A1 (en) | Styled image generation method, model training method, apparatus, device, and medium | |
CN101536078B (en) | Improving image masks | |
JP2022011411A (en) | Inference device | |
CN110622177A (en) | Instance partitioning | |
WO2020000960A1 (en) | Image separation method, apparatus, computer device and storage medium | |
WO2019041842A1 (en) | Image processing method and device, storage medium and computer device | |
KR102207408B1 (en) | Method, apparatus and computer readable medium for image processing | |
US20210217197A1 (en) | Processing images to localize novel objects | |
TWI545963B (en) | Gamut mapping method and the related device thereof | |
US9667833B2 (en) | History generating apparatus and history generating method | |
JP7207846B2 (en) | Information processing device, information processing method and program | |
WO2019206047A1 (en) | Image data processing method and apparatus, image display method and apparatus, storage medium and display device | |
CA3154893A1 (en) | Image color transferring method, device, computer equipment and storage medium | |
CN107730568B (en) | Coloring method and device based on weight learning | |
JP7151742B2 (en) | Image conversion device, image conversion method, and computer program for image conversion | |
WO2021136224A1 (en) | Image segmentation method and device | |
CN115661597B (en) | Visible light and infrared fusion target detection method based on dynamic weight positioning distillation | |
WO2023151299A1 (en) | Data generation method and apparatus, device, and storage medium | |
US20210004699A1 (en) | Learning apparatus, inferring apparatus, learning method, program, and inferring method | |
WO2021250850A1 (en) | Training apparatus, control method, and non-transitory computer-readable storage medium | |
US20100245862A1 (en) | Image-processing device, image-forming device, image-processing method, and computer readable medium | |
US8390907B2 (en) | Image-processing device, image-forming device, image-processing method, and computer readable medium | |
WO2020066755A1 (en) | Learning model generation device, ground object change determination device, learning model generation method, ground object change determination method, and computer-readable recording medium | |
WO2019224947A1 (en) | Training device, image generation device, training method, image generation method and program | |
CN113129375B (en) | Data processing method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20210827 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210916 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240206 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240405 |