JP2023062411A - 道路情報計算装置、及びプログラム - Google Patents

道路情報計算装置、及びプログラム Download PDF

Info

Publication number
JP2023062411A
JP2023062411A JP2021172372A JP2021172372A JP2023062411A JP 2023062411 A JP2023062411 A JP 2023062411A JP 2021172372 A JP2021172372 A JP 2021172372A JP 2021172372 A JP2021172372 A JP 2021172372A JP 2023062411 A JP2023062411 A JP 2023062411A
Authority
JP
Japan
Prior art keywords
road
network
sub
image
subtask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021172372A
Other languages
English (en)
Inventor
ショウ オウ
Zhao Wang
雄介 中野
Yusuke Nakano
研 西松
Ken Nishimatsu
▲ゆ▼博 王
Yubo Wang
淳 大谷
Atsushi Otani
克也 長谷川
Katsuya Hasegawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Nippon Telegraph and Telephone Corp
Original Assignee
Waseda University
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University, Nippon Telegraph and Telephone Corp filed Critical Waseda University
Priority to JP2021172372A priority Critical patent/JP2023062411A/ja
Publication of JP2023062411A publication Critical patent/JP2023062411A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】航空画像から道路ネットワークを抽出する技術において、高精度で高いロバスト性を有する抽出結果を得られるようにする。【解決手段】道路情報計算装置において、地表を撮影した画像から道路領域を検出する第1サブタスクと、前記画像から道路エッジを検出する第2サブタスクと、前記画像から道路中心線を検出する第3サブタスクとをエンドツーエンドで学習するニューラルネットワークを備えるタスク計算部を備える。【選択図】図1

Description

本発明は、航空画像から道路ネットワークを抽出する技術に関連するものである。
人工衛星や無人航空機などで地表を撮影した航空画像(空中写真と呼んでもよい)から、道路ネットワークを抽出することは、災害対応、車両の経路選定、及び都市管理のような様々なシナリオにおいて重要な役割を果たす。
また、航空画像に特定の道路ネットワークをラベル付けすることで、道路の状態に関する豊富な情報を得ることができ、これは地理情報に基づく多くのアプリケーションにとって重要である。
航空画像から道路ネットワークを抽出する従来技術では、単一のセマンティックセグメンテーションのみ又は中心線抽出技術のみに基づいて、道路領域又は道路中心線を検出していた。これらの方法は、画素毎の2値分類処理と見なすことができ、単一の結果しか得ることができない。すなわち、従来技術では、道路領域、道路幅、及び道路ネットワークを同時に完全かつ正確に表現することができない。
なお、航空画像から道路ネットワークを抽出する開示技術として、例えば非特許文献1に開示された技術がある。
Y. Liu, J. Yao, X. Lu, M. Xia, X. Wang, and Y. Liu. RoadNet: Learning to Comprehensively Analyze Road Networks in Complex Urban Scenes from High-Resolution Remotely Sensed Images. IEEE Transactions on Geoscience and Remote Sensing, 57(4):2043-2056, 2019
道路ネットワーク抽出に関するほとんど全ての従来技術は、サーフェスセグメンテーションや中心線抽出のような単一タスクのみに基づいている。しかし、これらは関連性が非常に高いと考えられる。例えば、サーフェスセグメンテーションと中心線抽出の場合、道路の中心線は常に道路領域の中心で検出される。従って、そのような関連性を利用することが望ましい。しかし、従来技術では、このような関連性を十分に利用できておらず、道路ネットワーク抽出における精度、及びロバスト性が十分ではない。
道路ネットワーク抽出の各サブタスクに対して、複雑な道路条件とオクルージョンを考慮して、欲しい情報を抽出するための新規なアーキテクチャが必要である。
本発明は上記の点に鑑みてなされたものであり、航空画像から道路ネットワークを抽出する技術において、高精度で高いロバスト性を有する抽出結果を得ることを可能とする技術を提供することを目的とする。
開示の技術によれば、地表を撮影した画像から道路領域を検出する第1サブタスクと、前記画像から道路エッジを検出する第2サブタスクと、前記画像から道路中心線を検出する第3サブタスクとをエンドツーエンドで学習するニューラルネットワークを備えるタスク計算部
を備える道路情報計算装置が提供される。
開示の技術によれば、航空画像から道路ネットワークを抽出する技術において、高精度で高いロバスト性を有する抽出結果を得ることが可能となる。
本発明の実施の形態における装置構成図である。 本発明の実施の形態における装置動作を示すフローチャートである。 本発明の実施の形態におけるモデルの構成を示す図である。 EDNetとCENetの構成を示す図である。 装置のハードウェア構成例を示す図である。
以下、図面を参照して本発明の実施の形態(本実施の形態)を説明する。以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。
(装置構成、動作例)
図1に本実施の形態における道路情報計算装置100の構成図を示す。図1に示すように、道路情報計算装置100は、航空画像収集部110、タスク計算部120、道路画像分割部130、道路エッジ抽出部140、道路中心線抽出部150を有する。
道路情報計算装置100は、1つの装置(コンピュータ)で実装されてもよいし、複数の装置で実装されてもよい。例えば、タスク計算部120があるコンピュータで実装され、それ以外の機能部が別のコンピュータで実装されてもよい。
航空画像収集部110は、ドローンや衛星等により上空から地表を撮影した静止画像又はビデオを取得する。なお、以降、静止画像及びビデオを総称して「画像」と呼ぶことにする。
タスク計算部120は、エンドツーエンドの機械学習方法を用いて、道路領域検出サブタスク、道路エッジ検出サブタスク、道路中心線検出サブタスクを同時に実行する。本実施の形態では機械学習方法としてニューラルネットワークを用いている。すなわち、当該ニューラルネットワークにおいて、道路領域検出サブタスク、道路エッジ検出サブタスク、道路中心線検出サブタスクをエンドツーエンドで学習する。学習手法については、後述する損失関数を用いることで、予測と正解との差(損失)が最小になるようにニューラルネットワークのパラメータを調整(計算)する。損失関数の計算手段、及びパラメータ調整手段(例:誤差逆伝播法を実行する手段)等はタスク計算部120が備えている。
すなわち、タスク計算部120は、後述する構成を有するニューラルネットワークのモデルに対して、大量の画像データとラベリングデータ(正解データ)を使いることで、エンドツーエンドの学習を行う。そして、学習済みのモデルを使用して、新たな画像を入力した際に、高精度で自動的に各サブタスクの処理を行って、それぞれの出力を実行する。出力の際には、道路画像分割部130、道路エッジ抽出部140、道路中心線抽出部150が用いられる。なお、「道路画像分割部130、道路エッジ抽出部140、道路中心線抽出部150」を出力部と呼んでもよい。
道路画像分割部130、道路エッジ抽出部140、道路中心線抽出部150はそれぞれ、タスク計算部120による各サブタスクの実行結果を用いて、道路情報を生成し、出力する。
具体的には、道路画像分割部130は、道路領域検出サブタスクの結果を用いて、画像を道路領域とその他の領域に分割し、分割がなされた画像を出力する。つまり、画像上で、どの領域が道路領域であるかを表示する。
道路エッジ抽出部140は、道路エッジ検出サブタスクの結果を用いて、画像上における道路のエッジの部分を線として抽出し、画像上で表示する。道路中心線抽出部150は、道路中心線検出タスクの結果を用いて、画像上における道路の中心線を抽出し、当該中心線が示された画像を出力する。
なお、道路領域、道路エッジ、及び道路中心線の全てを出力しないこととしてもよい。つまり、道路領域、道路エッジ、及び道路中心線のうちのいずれか1つ又はいずれか2つを出力してもよい。
図2は、道路情報計算装置100の処理手順を示すフローチャートである。S101において、航空画像収集部110が、航空画像を取得する。S102において、学習済みのモデルを備えるモデル計算部120が、当該航空画像を入力として、道路領域検出サブタスク、道路エッジ検出サブタスク、道路中心線検出サブタスクを実行する。S103において、出力部が、少なくとも道路領域、道路エッジ、及び道路中心線のうちの1つを出力する。
(タスク計算部120の概要)
タスク計算部120は、ニューラルネットワークからなるモデルである。以下では、当該モデルの概要について説明する。
本実施の形態では、当該モデルが、下記の3つのサブタスクを実行する。つまり、本実施の形態では、道路ネットワークの抽出のタスクを、下記の3つの相互に関連するサブタスクに分解している。なお、本明細書における「抽出」を「検出」に置き替えてもよいし、「検出」を「抽出」に置き替えてもよい。
(1)サーフェスセグメンテーション:画像中の道路領域を検出するサブタスクである。
(2)エッジ検出:道路のエッジを検出するサブタスクであり、道路の幅を知り、レーン数を推定するのに役立つ。
(3)中心線検出:道路の中心線を検出するサブタスクであり、中心線により、道路の全体の接続性を理解することができる。
サーフェスセグメンテーション、エッジ検出、中心線検出をそれぞれ、道路領域検出サブタスク、道路エッジ検出サブタスク、道路中心線検出サブタスクと呼んでもよい。当該モデルにおける上記3つのサブタスクの学習はエンドツーエンドで行われる。
上記のモデルは、エンドツーエンドのカスケードニューラルネットワーク(カスケード接続したニューラルネットワーク)であり、これをDeep Cascade Road Extraction Network(深層カスケード道路抽出ネットワーク)と呼んでもよい。
本実施の形態における上記のモデル(タスク計算部120)は、道路ネットワークにおける抽出の複数サブタスク、すなわち、サーフェスセグメンテーション、エッジ検出、及び中心線検出を、エンドツーエンド学習方法で同時に達成するだけでなく、3つのサブタスク間の接続性を利用する。
本実施の形態のモデルでは、3つのサブタスクのそれぞれに対応する3つのサブネットワーク(サブモデル)であるSSNet、EDNet、CENetが使用される。3つのサブタスク間の接続性を利用するために、これら3つのサブネットワークを順にカスケード接続することにより、EDNetはSSNetからの出力を利用し、CENetはSSNetとEDNetの両方の出力を利用する。SSNet、EDNet、CENetの詳細については後述する。
本実施の形態のモデルでは、道路エッジ検出サブタスクと中心線検出サブタスクの両方のためのネットワークアーキテクチャが使用される。このネットワークアーキテクチャが道路エッジ検出サブタスクと中心線検出サブタスクのそれぞれに対して使用される。このネットワークアーキテクチャは下記の(1)~(3)を含む。
(1)それぞれが3つの畳み込み層を含む4つのブロックから構成される直接接続部(direct connection part)
(2)各ブロックの出力を元の画像サイズにアップサンプリングするサイド接続部(side connection part)
(3)各サブタスクの最終結果を得るための出力融合部(output fusion part)
このアーキテクチャにより、オクルージョンと複雑な道路条件に対する抽出精度とロバスト性が改善される。
また、本実施の形態に係るモデルに対し、3つのサブタスクのためのカスタマイズされた損失関数が使用されるが、エンドツーエンド損失計算を行うために、当該3つの損失関数が重み付け加算された損失関数が使用される。具体的には下記のとおりである。
(1)SSNetについては、多数の実験を通して、最適な結果を達成するためにダイス損失を採用している。
(2)EDNetとCENetについてはそれぞれ、ブロックごとの重み付けされたクロスエントロピーベースの損失関数を採用している。
(3)ネットワーク全体をエンドツーエンドの学習方法で学習するために重み付け加算の形式で3つのサブタスクの合計損失を計算する。
(タスク計算部120の詳細)
以下、タスク計算部120に相当するモデルの構成及び損失関数を詳細に説明する。
<モデルの構成>
まず、モデルの構成を説明する。すなわち、前述したDeep Cascade Road Extraction Network(深層カスケード道路抽出ネットワーク)のアーキテクチャについて説明する。
図3に、本実施の形態におけるモデルの構成例を示す。なお、図3の中で、〇の中に×を有する記号はテンソルのチャネル接続(channel concatenation)を示す。本モデルは、エンドツーエンドのマルチタスクモデルであり、バックボーンと、カスケード接続された3つのサブネットワークを含む。
前述したように、本実施の形態では、道路ネットワーク抽出タスクをサーフェスセグメンテーション(道路領域検出)、エッジ検出、中心線検出の3つのサブタスクに分解する。各サブタスクは、画素毎の2値分類を行うタスクである。
サーフェスセグメンテーション(道路領域検出)、エッジ検出、中心線検出の3つのサブタスクは3つのサブネットワークにより実行される。具体的には、サーフェスセグメンテーションは、SSNetにより実行され。エッジ検出はEDNetにより実行され、中心線検出はCENetにより実行される。
図3に示すように、入力された画像からSSNetによりサーフェスセグメンテーション結果が得られる。サーフェスセグメンテーション結果と画像がEDNetに入力され、エッジ検出結果が得られる。サーフェスセグメンテーション結果とエッジ検出結果と画像がCENetに入力され、中心線検出結果が得られる。図3の例では、サーフェスセグメンテーション結果とエッジ検出結果と中心線検出結果を連結した結果が出力されるイメージが示されている。
以下、A:バックボーン、B:サーフェスセグメンテーションネットワーク、C:エッジ検出及び中心線検出ネットワークについて詳細に説明する。
<A:バックボーン>
抽出される特徴マップは、学習中にネットワーク劣化問題を克服しながら、十分な画像情報を含む必要がある。従って、本実施の形態では、モデルのバックボーンネットワークとしてResnet‐101を採用している。当該ネットワークは、33のボトルネックモジュールによって形成された4残渣ブロックから成る。なお、「バックボーンネットワーク」は、Deeplabv3+における特徴抽出のためのネットワークである。
Resnet‐101により、2つのテンソルが返される。一つのテンソルは全ブロックを通して8倍ダウンサンプリングすることによって得られる高次元画像特徴であり、もう一つのテンソルは最初の残差ブロックによって得られる低次元特徴である。
<B:サーフェスセグメンテーションネットワーク>
道路のサーフェスセグメンテーションの結果は、最終的な道路領域検出精度に影響するだけでなく、元の航空画像と連結され、EDNetへの入力として使用される4チャンネルのテンソルになるので、非常に重要である。
その後、さらに元の航空画像と連結され、EDNetから5チャンネルテンソルが出力され、CENetへの入力として使用される。
本実施の形態では、最適なサーフェスセグメンテーションの結果を得るために、事前実験の結果に基づいて、ダイス損失関数を使用するDeeplabv3+をSSNetとして採用している。
<C:エッジ検出と中心線検出のためのネットワーク>
エッジ検出サブタスクと中心線検出サブタスクに関して、エッジと中心線のそれぞれの正(positive)の画素は画像空間の非常に小さな部分しか占めない。
そのため、オーバーフィッティングの発生と正と負(negative)のサンプル間の不均衡を防止するために、ブロック毎(block-wise)損失補償を行うEDNet及びCENetと呼ばれる2つの簡潔なサブネットワークを使用する。
SSNetによって生成された出力において、オクルージョンと背景の存在が大幅に低減されるため、SSNetの出力とオリジナルの3チャンネル画像とを連結した4チャンネルテンソルをEDNetへの入力とする。
更に、SSNetからの出力とEDNetからの出力は、中心線の抽出に使用できる空間的コンテキスト情報を含んでいる。従って、EDNetへの入力(SSNetの出力とオリジナルの3チャンネル画像)とEDNetからの出力は連結されて5チャンネルテンソルになり、CENetに供給される。
EDNetとCENetのネットワーク構成は同じである。図4に当該ネットワークの構成例を示す。図4において、"0.5×"は、最大プーリング実装によるダウンサンプリングの倍率を示す。"2×"、"4×"、"8×"は、バイリニア補間実装によるアップサンプリングの倍率を示す。〇の中に×を記載した記号は、テンソルのチャネル連結を示し、黒い四角(■)は、損失計算を示す。図4に示すとおり、本ネットワークは下記の3つの機能部を備える。
(1)直接接続部10:マルチスケールの特徴を得るために、入力は、1つずつ4つの連続した畳み込み(conv)ブロックを通過する。4つのconvブロックは、図4において、block1~block4として示されているブロックである。
各ブロックは、3つのconv層を含む。ダウンサンプリングのために各ブロック間に最大プーリング層が存在する。
(2)サイド接続部20:各convブロックの出力を1×1conv層にサイド接続し、テンソルを元の画像のサイズに補間する。
(3)出力融合部30:異なるサイド出力からのテンソルを連結して1つのマルチスケール特徴とし、1つの1×1conv層を当該マルチスケール特徴に適用して最終結果を得る。
<損失関数について>
次に、損失関数について説明する。
道路ネットワークの抽出における3つのサブタスクは、セマンティックセグメンテーションの2値分類問題に分割される。当該問題のゴールは、各画素を2つのカテゴリ、すなわち正画素と負画素に分類することである。ただし、対象画素の特徴はサブタスクごとに異なる。例えば、道路中心線及びエッジに属する画素は、道路領域全体よりもずっと小さい画像領域を占めることを直感的に認識することができる。
一方、発明者らが行った実験において、正と負のサンプルの間の不均衡に起因する問題に遭遇した。従って、発明者らは、SSNetに対する最適な損失関数を見つけるために予備実験を行い、EDNetとCENetのためのブロック毎損失計算を設計した。学習のための損失関数Ltotalは下記の式(1)として定義される。
Figure 2023062411000002
式(1)において、Lsurfaceはサーフェスセグメンテーションの損失である。Lsurfaceについて、クロスエントロピー損失、ダイス損失、及びフォーカル損失という、異なる3つの実装を比較した結果、ダイス損失が、RecallとF値の点で良好な性能を示した。式(1)では、aは2.5に設定される。ダイス損失は以下の式(2)ように定義される。
Figure 2023062411000003
ここで、Dは、以下で定義されるダイス係数である。
Figure 2023062411000004
式(3)において、p及びgはそれぞれ、予測されたセグメンテーションマスクp及びグラウンドトゥルースgにおけるi番目の画素の値である。EDNetとCENetのネットワーク構造は同じであるので、EDNetとCENetの損失関数は、同じ形であり、それぞれ、ブロック毎の重み付けされたクロスエントロピー損失として定義される。
図4に示したように、予測とグラウンドトゥルースとの間の損失は、各サイド接続層の出力、及び出力融合部で計算される。計算においては、各ブロックに対する重みであるβ{(β,β,β,β)}、及び出力融合部での重みであるβが使用される。これらの重みを用いて、EDNetとCENetのそれぞれに使用される損失関数は、下記の式(4)、式(5)により定義される。
Figure 2023062411000005
Figure 2023062411000006
EDNetに関して、上記の式(4)、式(5)におけるlblock、lfuseは、検出されたエッジとグラウンドトゥルースとの間のクロスエントロピー損失である。CENetに関して、上記の式(4)、式(5)におけるlblock、lfuseは、抽出された中心線とグラウンドトゥルースとの間のクロスエントロピー損失である。
(ハードウェア構成例)
道路情報計算装置100は、例えば、コンピュータにプログラムを実行させることにより実現できる。このコンピュータは、物理的なコンピュータであってもよいし、クラウド上の仮想マシンであってもよい。
すなわち、道路情報計算装置100は、コンピュータに内蔵されるCPUやメモリ等のハードウェア資源を用いて、道路情報計算装置100で実施される処理に対応するプログラムを実行することによって実現することが可能である。上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メール等、ネットワークを通して提供することも可能である。
図5は、上記コンピュータのハードウェア構成例を示す図である。図5のコンピュータは、それぞれバスBSで相互に接続されているドライブ装置1000、補助記憶装置1002、メモリ装置1003、CPU1004、インタフェース装置1005、表示装置1006、入力装置1007、出力装置1008等を有する。
当該コンピュータでの処理を実現するプログラムは、例えば、CD-ROM又はメモリカード等の記録媒体1001によって提供される。プログラムを記憶した記録媒体1001がドライブ装置1000にセットされると、プログラムが記録媒体1001からドライブ装置1000を介して補助記憶装置1002にインストールされる。但し、プログラムのインストールは必ずしも記録媒体1001より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置1002は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置1003は、プログラムの起動指示があった場合に、補助記憶装置1002からプログラムを読み出して格納する。CPU1004は、メモリ装置1003に格納されたプログラムに従って、ライトタッチ維持装置100に係る機能を実現する。インタフェース装置1005は、ネットワークに接続するためのインタフェースとして用いられる。表示装置1006はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置1007はキーボード及びマウス、ボタン、又はタッチパネル等で構成され、様々な操作指示を入力させるために用いられる。出力装置1008は演算結果を出力する。
(実施の形態の効果)
本実施の形態に係る技術により、航空画像から道路ネットワークを抽出する技術において、高精度で高いロバスト性を有する抽出結果を得ることが可能となる。
また、従来は人手で、目で見ることで航空画像等から道路の情報を抽出することが一般的であるが、本実施の形態に係る技術により、自動的に道路領域、道路のエッジと中心線を出力することができる。
また、単独なタスクを独立で分析することに代えて、各サブタスクの関係性を利用し、カスケード的な構造、及び、新たなサブタスクに応じたサブモデル及び損失関数を使用することで、高精度かつ高いロバスト性を持った道路情報抽出が可能となる。
(実施の形態のまとめ)
本明細書には、少なくとも下記各項の道路情報計算装置、及びプログラムが開示されている。
(第1項)
地表を撮影した画像から道路領域を検出する第1サブタスクと、前記画像から道路エッジを検出する第2サブタスクと、前記画像から道路中心線を検出する第3サブタスクとをエンドツーエンドで学習するニューラルネットワークを備えるタスク計算部
を備える道路情報計算装置。
(第2項)
学習済みの前記ニューラルネットワークを用いて前記タスク計算部により得られた道路情報に基づいて、道路領域、道路エッジ、及び道路中心線のうちの少なくとも1つを出力する出力部
を更に備える第1項に記載の道路情報計算装置。
(第3項)
前記ニューラルネットワークは、前記第1サブタスクを実行する第1サブネットワークと、前記第2サブタスクを実行する第2サブネットワークと、前記第3サブタスクを実行する第3サブネットワークとを含む
第1項又は第2項に記載の道路情報計算装置。
(第4項)
前記第1サブネットワークに前記画像が入力され、前記第1サブネットワークの出力と前記画像が前記第2サブネットワークに入力され、前記第1サブネットワークの出力と前記第2サブネットワークの出力と前記画像が前記第3サブネットワークに入力され、前記第3サブネットワークから道路中心線検出結果が出力される
第3項に記載の道路情報計算装置。
(第5項)
前記第2サブネットワーク及び前記第3サブネットワークはそれぞれ、複数の畳み込み層を有するブロックを複数個含む
第3項又は第4項に記載の道路情報計算装置。
(第6項)
前記ニューラルネットワークの学習時において、前記第1サブネットワークに対する損失と、前記第2サブネットワークに対するブロック毎の損失と、前記第3サブネットワークに対するブロック毎の損失とを重み付け加算した損失を使用する
第3項ないし第5項のうちいずれか1項に記載の道路情報計算装置。
(第7項)
コンピュータを、第1項ないし第6項のうちいずれか1項に記載の道路情報計算装置における各部として機能させるためのプログラム。
以上、本実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10 直接接続部
20 サイド接続部
30 出力融合部
100 道路情報計算装置
110 航空画像収集部
120 タスク計算部
130 道路画像分割部
140 道路エッジ抽出部
150 道路中心線抽出部
1000 ドライブ装置
1001 記録媒体
1002 補助記憶装置
1003 メモリ装置
1004 CPU
1005 インタフェース装置
1006 表示装置
1007 入力装置

Claims (7)

  1. 地表を撮影した画像から道路領域を検出する第1サブタスクと、前記画像から道路エッジを検出する第2サブタスクと、前記画像から道路中心線を検出する第3サブタスクとをエンドツーエンドで学習するニューラルネットワークを備えるタスク計算部
    を備える道路情報計算装置。
  2. 学習済みの前記ニューラルネットワークを用いて前記タスク計算部により得られた道路情報に基づいて、道路領域、道路エッジ、及び道路中心線のうちの少なくとも1つを出力する出力部
    を更に備える請求項1に記載の道路情報計算装置。
  3. 前記ニューラルネットワークは、前記第1サブタスクを実行する第1サブネットワークと、前記第2サブタスクを実行する第2サブネットワークと、前記第3サブタスクを実行する第3サブネットワークとを含む
    請求項1又は2に記載の道路情報計算装置。
  4. 前記第1サブネットワークに前記画像が入力され、前記第1サブネットワークの出力と前記画像が前記第2サブネットワークに入力され、前記第1サブネットワークの出力と前記第2サブネットワークの出力と前記画像が前記第3サブネットワークに入力され、前記第3サブネットワークから道路中心線検出結果が出力される
    請求項3に記載の道路情報計算装置。
  5. 前記第2サブネットワーク及び前記第3サブネットワークはそれぞれ、複数の畳み込み層を有するブロックを複数個含む
    請求項3又は4に記載の道路情報計算装置。
  6. 前記ニューラルネットワークの学習時において、前記第1サブネットワークに対する損失と、前記第2サブネットワークに対するブロック毎の損失と、前記第3サブネットワークに対するブロック毎の損失とを重み付け加算した損失を使用する
    請求項3ないし5のうちいずれか1項に記載の道路情報計算装置。
  7. コンピュータを、請求項1ないし6のうちいずれか1項に記載の道路情報計算装置における各部として機能させるためのプログラム。
JP2021172372A 2021-10-21 2021-10-21 道路情報計算装置、及びプログラム Pending JP2023062411A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021172372A JP2023062411A (ja) 2021-10-21 2021-10-21 道路情報計算装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021172372A JP2023062411A (ja) 2021-10-21 2021-10-21 道路情報計算装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2023062411A true JP2023062411A (ja) 2023-05-08

Family

ID=86269949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021172372A Pending JP2023062411A (ja) 2021-10-21 2021-10-21 道路情報計算装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP2023062411A (ja)

Similar Documents

Publication Publication Date Title
Cortinhal et al. Salsanext: Fast, uncertainty-aware semantic segmentation of lidar point clouds
Mahaur et al. Small-object detection based on YOLOv5 in autonomous driving systems
CN110111366B (zh) 一种基于多级损失量的端到端光流估计方法
CN108345827B (zh) 识别文档方向的方法、系统和神经网络
EP3686798B1 (en) Learning method and learning device for objet detector based on cnn
CN110717851A (zh) 图像处理方法及装置、神经网络的训练方法、存储介质
Raghavan et al. Optimized building extraction from high-resolution satellite imagery using deep learning
KR102140805B1 (ko) 위성 영상의 물체 식별을 위한 뉴럴 네트워크 학습 방법 및 장치
CN109948575B (zh) 超声图像中眼球区域分割方法
CN117274608B (zh) 基于空间细节感知和注意力引导的遥感图像语义分割方法
US11875490B2 (en) Method and apparatus for stitching images
CN115761258A (zh) 一种基于多尺度融合与注意力机制的图像方向预测方法
Niu et al. Boundary-aware RGBD salient object detection with cross-modal feature sampling
CN111914809B (zh) 目标对象定位方法、图像处理方法、装置和计算机设备
Gao et al. Cost volume pyramid network with multi-strategies range searching for multi-view stereo
Nguyen et al. Smart solution to detect images in limited visibility conditions based convolutional neural networks
Jiang et al. Semantic segmentation network combined with edge detection for building extraction in remote sensing images
CN115311550B (zh) 遥感影像语义变化检测方法、装置、电子设备及存储介质
CN114372944B (zh) 一种多模态和多尺度融合的候选区域生成方法及相关装置
JP2023062411A (ja) 道路情報計算装置、及びプログラム
CN115909077A (zh) 基于无监督光谱解混神经网络的高光谱图像变化检测方法
Schirrmacher et al. SR 2: Super-resolution with structure-aware reconstruction
US20220051016A1 (en) Selective analysis for field boundary detection
CN114022458A (zh) 骨架检测方法、装置、电子设备和计算机可读存储介质
Ahmad et al. Resource efficient mountainous skyline extraction using shallow learning

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20211027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240226

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20240701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20240702