JP2020017048A - Information processing apparatus, method for controlling the same, and program - Google Patents

Information processing apparatus, method for controlling the same, and program Download PDF

Info

Publication number
JP2020017048A
JP2020017048A JP2018139201A JP2018139201A JP2020017048A JP 2020017048 A JP2020017048 A JP 2020017048A JP 2018139201 A JP2018139201 A JP 2018139201A JP 2018139201 A JP2018139201 A JP 2018139201A JP 2020017048 A JP2020017048 A JP 2020017048A
Authority
JP
Japan
Prior art keywords
image
coordinates
latitude
longitude
panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018139201A
Other languages
Japanese (ja)
Inventor
敦司 大崎
Atsushi Osaki
敦司 大崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2018139201A priority Critical patent/JP2020017048A/en
Publication of JP2020017048A publication Critical patent/JP2020017048A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To easily acquire positional information on the earth on an object to be detected included in an aerial image.SOLUTION: An object detection device 100 comprises: an object detection unit 104 that detects an object to be detected included in an aerial image of an image size including a predetermined number of map tiles dividing and showing an image of a map, and outputs in-image coordinates indicating the position of the object to be detected in the aerial image; and a latitude and longitude conversion unit 105 that converts the in-image coordinates output by the object detection unit 104 into the latitude and longitude indicating the position on the earth of the object to be detected on the basis of tile coordinates specifying the map tiles.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、その制御方法及びプログラムに関する。   The present invention relates to an information processing device, a control method thereof, and a program.

従来、航空画像に含まれる検出対象物を検出する技術が知られている。たとえば、下記特許文献1には、画像解析をおこない、航空画像に含まれる道路を検出する方法が開示されている。   Conventionally, a technique for detecting a detection target included in an aerial image has been known. For example, Patent Literature 1 below discloses a method of performing image analysis and detecting a road included in an aerial image.

特開2006−107462号公報JP 2006-107462 A

航空画像に含まれる検出対象物を検出する際に、解析結果によって、その検出対象物の航空画像内における位置情報がわかったとしても、検出対象物の地球上の位置を把握することは難しい。特に、複数の航空画像からそれぞれ検出された検出対象物の位置を互いに比較する場合においては、個々の航空画像内における位置情報自体を比較しても、互いの位置関係がわからない。   When detecting the detection target included in the aerial image, even if the analysis result reveals the position information of the detection target in the aerial image, it is difficult to grasp the position of the detection target on the earth. In particular, when comparing the positions of the detection targets detected from a plurality of aerial images with each other, even if the position information itself in each aerial image is compared, the mutual positional relationship is not known.

そこで、本発明は、航空画像に含まれる検出対象物の地球上の位置情報を容易に取得することができる情報処理装置、その制御方法及びプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide an information processing apparatus capable of easily acquiring position information on the earth of a detection target included in an aerial image, a control method thereof, and a program.

本発明に係る情報処理装置は、地図の画像を分割して示す地図タイルを所定の枚数含む画像サイズの航空画像に含まれる検出対象物を検出し、検出対象物の航空画像での位置を示す画像内座標を出力する対象物検出手段と、対象物検出手段により出力された画像内座標を、地図タイルを特定するタイル座標に基づき、検出対象物の地球上の位置を示す緯度及び経度に変換する緯度経度変換手段と、を備える。   The information processing apparatus according to the present invention detects a detection target included in an aerial image of an image size including a predetermined number of map tiles that divide a map image and indicates a position of the detection target in the aerial image. Object detecting means for outputting coordinates in the image, and converting the coordinates in the image output by the object detecting means into latitude and longitude indicating the position on the earth of the detected object based on the tile coordinates for specifying the map tile. And longitude and latitude conversion means.

本発明に係る情報処理装置の制御方法は、地図の画像を分割して示す地図タイルを所定の枚数含む画像サイズの航空画像に含まれる検出対象物を検出し、検出対象物の航空画像での位置を示す画像内座標を出力する対象物検出ステップと、対象物検出ステップにおいて出力された画像内座標を、地図タイルを特定するタイル座標に基づき、検出対象物の地球上の位置を示す緯度及び経度に変換する緯度経度変換ステップと、を含む。   The control method of the information processing apparatus according to the present invention detects a detection target included in an aerial image of an image size including a predetermined number of map tiles that divide a map image and displays the map tile. An object detection step of outputting coordinates in the image indicating the position, and the coordinates in the image output in the object detection step, based on the tile coordinates specifying the map tile, the latitude and the position indicating the position of the detection object on the earth. And a latitude-longitude conversion step of converting into longitude.

本発明に係るプログラムは、情報処理装置を、地図の画像を分割して示す地図タイルを所定の枚数含む画像サイズの航空画像に含まれる検出対象物を検出し、検出対象物の航空画像での位置を示す画像内座標を出力する対象物検出手段と、対象物検出手段により出力された画像内座標を、地図タイルを特定するタイル座標に基づき、検出対象物の地球上の位置を示す緯度及び経度に変換する緯度経度変換手段として機能させるためのプログラムである。   A program according to the present invention detects an object to be detected in an aerial image of an image size including an image size including a predetermined number of map tiles that divide a map image and displays the information processing device. An object detecting means for outputting coordinates in the image indicating the position, and the coordinates in the image output by the object detecting means, based on the tile coordinates specifying the map tile, the latitude and the earth indicating the position on the earth of the detection object. This is a program for functioning as latitude / longitude conversion means for converting to longitude.

本発明に係る情報処理装置、その制御方法及びプログラムでは、検出対象物の画像内座標が、地図タイルを特定するタイル座標に基づき、検出対象物の地球上の位置を示す緯度及び経度に変換される。これにより、検出対象物の地球上の位置情報を容易に取得することができる。   In the information processing apparatus, the control method, and the program according to the present invention, the coordinates in the image of the detection target are converted into the latitude and longitude indicating the position of the detection target on the earth based on the tile coordinates specifying the map tile. You. This makes it possible to easily acquire the position information of the detection target on the earth.

本発明によれば、検出対象物の地球上の位置情報を容易に取得することができる。   ADVANTAGE OF THE INVENTION According to this invention, the position information on the earth of a detection target object can be easily acquired.

本発明の一実施形態に係る対象物検出装置の機能構成を示すブロック図である。It is a block diagram showing the functional composition of the object detecting device concerning one embodiment of the present invention. 図1の対象物検出装置のハードウェア構成を示す図である。FIG. 2 is a diagram illustrating a hardware configuration of the object detection device in FIG. 1. 図1の画像取得部の詳細な機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a detailed functional configuration of an image acquisition unit in FIG. 1. 本実施形態の対象物検出装置で取得する航空画像の一例を模式的に示す図である。It is a figure showing typically an example of an aerial image acquired by an object detecting device of this embodiment. 地図タイルを説明するための概念図である。It is a conceptual diagram for explaining a map tile. 地図タイルを特定するタイル座標を説明するための概念図である。It is a conceptual diagram for explaining the tile coordinate which specifies a map tile. パネルを説明するための概念図である。It is a conceptual diagram for explaining a panel. 検出範囲を説明するための概念図である。It is a conceptual diagram for explaining a detection range. 画像取得部により航空画像を取得する方法を説明するための概念図である。It is a conceptual diagram for explaining the method of acquiring an aerial image by an image acquisition unit. 画像取得部により取得された複数の航空画像を示す概念図である。FIG. 3 is a conceptual diagram illustrating a plurality of aerial images acquired by an image acquisition unit. 画像管理部で記録される航空画像のデータベースの一例を示す図である。FIG. 4 is a diagram illustrating an example of an aerial image database recorded by an image management unit. 検出対象物の画像内座標を説明するための概念図である。FIG. 3 is a conceptual diagram for explaining coordinates of an object to be detected in an image. タイル座標をパネル座標に変換する変換式を示す図である。It is a figure which shows the conversion formula which converts a tile coordinate into a panel coordinate. 対象物検出装置による処理の流れの一例を示すフローチャートである。It is a flow chart which shows an example of the flow of processing by an object detecting device. 図14のステップS1403の処理の詳細を示すフローチャートである。15 is a flowchart illustrating details of the process of step S1403 in FIG. 図14のステップS1406の処理の詳細を示すフローチャートである。15 is a flowchart illustrating details of the process of step S1406 in FIG. 緯度及び経度から世界座標への変換式を示す図である。It is a figure which shows the conversion formula from latitude and longitude to world coordinates. 世界座標からピクセル座標への変換式を示す図である。It is a figure which shows the conversion formula from world coordinates to pixel coordinates. ピクセル座標からタイル座標への変換式を示す図である。It is a figure which shows the conversion formula from a pixel coordinate to a tile coordinate. タイル座標からピクセル座標への変換式を示す図である。It is a figure which shows the conversion formula from a tile coordinate to a pixel coordinate. ピクセル座標から世界座標への変換式を示す図である。It is a figure which shows the conversion formula from a pixel coordinate to a world coordinate. 世界座標から緯度及び経度への変換式を示す図である。It is a figure which shows the conversion formula from a world coordinate to a latitude and a longitude. 重複させずに取得した航空画像を示す図である。It is a figure showing an aerial image acquired without overlapping. 重複部分を有する複数の航空画像を示す図である。It is a figure showing a plurality of aerial images which have an overlap part. 従来の画像内座標を緯度及び経度に変換する方法を説明するための概念図である。It is a conceptual diagram for explaining the conventional method of converting the coordinates in an image into latitude and longitude. 従来の画像内座標を緯度及び経度に変換する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process of converting the conventional coordinate in an image into latitude and longitude.

以下、添付図面を参照して、本発明の一実施形態を詳細に説明する。なお、説明において、同一要素又は同一機能を有する要素には、同一符号を用いることとし、重複する説明は省略する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In the description, the same elements or elements having the same functions will be denoted by the same reference symbols, without redundant description.

本実施形態に係る情報処理装置は、解析対象の航空画像を複数取得し、取得した各航空画像に含まれる検出対象物を検出する対象物検出装置である。対象物検出装置の詳細な構成は図1〜図3を参照して後述する。まず、対象物検出装置の概要について説明する。   The information processing apparatus according to the present embodiment is an object detection apparatus that acquires a plurality of aerial images to be analyzed and detects a detection object included in each acquired aerial image. The detailed configuration of the object detection device will be described later with reference to FIGS. First, an outline of the object detection device will be described.

図4は、本実施形態の対象物検出装置で取得する航空画像の一例を模式的に示す図である。図4に示されるように、航空画像400とは、地図の画像を、撮像装置等によって撮影された航空写真を用いて所定の表示倍率で表示する画像である。ここで、地図とは、メルカトル図法で示される平面地図である。   FIG. 4 is a diagram schematically illustrating an example of an aerial image acquired by the object detection device according to the present embodiment. As shown in FIG. 4, the aerial image 400 is an image in which a map image is displayed at a predetermined display magnification using an aerial photograph taken by an imaging device or the like. Here, the map is a planar map represented by the Mercator projection.

検出対象物は、航空画像400において物として認知し得る、検出対象となる物体である。検出対象物は、たとえば、車、道路、又は建物等であり、航空画像400において画像解析等によって検出可能な物体であれば何であってもよい。   The detection target is an object that can be recognized as an object in the aerial image 400 and is a detection target. The detection target is, for example, a car, a road, a building, or the like, and may be any object that can be detected in the aerial image 400 by image analysis or the like.

本実施形態に係る対象物検出装置は、地図タイルに合わせて、所定の枚数の地図タイルを含む画像サイズの航空画像400を取得する。画像サイズは、たとえばシステムの管理者やユーザによって予め設定されており、本実施形態では、2048pixel×2048pixelと設定されている。この画像サイズは、たとえばWebサービス等で取得できる航空画像の画像サイズや高速で解析処理が可能な画像サイズの上限である。以下、この画像サイズの上限を「上限画像サイズ」ともいう。   The object detection device according to the present embodiment acquires an aerial image 400 of an image size including a predetermined number of map tiles in accordance with the map tiles. The image size is set in advance by, for example, a system administrator or a user. In the present embodiment, the image size is set to 2048 pixels × 2048 pixels. This image size is, for example, the upper limit of the image size of an aerial image that can be acquired by a Web service or the like or the image size that can be analyzed at high speed. Hereinafter, the upper limit of the image size is also referred to as “upper limit image size”.

ここで、地図タイルの概念について説明する。地図タイルとは、地球全体の地図の画像を分割して示す正方形のタイルである。図5は、地図タイルを説明するための概念図である。図5に示されるように、地図タイル501とは、地球全体の地図の画像を示す全体地図画像500(以下、単に「全体地図画像」と称する)を構成する正方形の画像である。地図タイル501の一辺の長さは、たとえば256pixelである。   Here, the concept of the map tile will be described. The map tile is a square tile that divides and displays an image of a map of the entire earth. FIG. 5 is a conceptual diagram for explaining a map tile. As shown in FIG. 5, the map tile 501 is a square image forming an entire map image 500 (hereinafter, simply referred to as “entire map image”) showing an image of a map of the entire earth. The length of one side of the map tile 501 is, for example, 256 pixels.

全体地図画像500を構成する地図タイル501の枚数は、全体地図画像500を表示する表示倍率を指定するズームレベルに応じて変わる。図5の(a)は、ズームレベルが0の場合を示し、図5の(b)は、ズームレベルが1の場合を示す。   The number of map tiles 501 constituting the whole map image 500 changes according to the zoom level for specifying the display magnification for displaying the whole map image 500. FIG. 5A shows a case where the zoom level is 0, and FIG. 5B shows a case where the zoom level is 1.

図5の(a)に示されるように、ズームレベルが0の場合には、1枚の地図タイル501で全体地図画像500が構成される。すなわち、ズームレベルが0の場合、1枚の地図タイル501に世界全体が収まるように地図が表現される。   As shown in FIG. 5A, when the zoom level is 0, the entire map image 500 is composed of one map tile 501. That is, when the zoom level is 0, a map is represented such that the entire world can be accommodated in one map tile 501.

ズームレベルが0の場合の、全体地図画像500上の位置を示す座標を世界座標という。
世界座標は、0以上255以下の実数値で示される。全体地図画像500の左上隅500aにおける世界座標は(0,0)、全体地図画像500の右下隅500bにおける世界座標は(255,255)として示される。
The coordinates indicating the position on the whole map image 500 when the zoom level is 0 are called world coordinates.
The world coordinates are represented by real numbers from 0 to 255. The world coordinates at the upper left corner 500a of the whole map image 500 are shown as (0,0), and the world coordinates at the lower right corner 500b of the whole map image 500 are shown as (255,255).

世界座標は、地球上の実際の位置を示す緯度及び経度に対応する。左上隅500aにおける世界座標(0,0)は、左上隅500aの位置での実際の緯度及び経度(85.05,−180)に対応し、右下隅500bにおける世界座標(255,255)は、右下隅500bの位置での実際の緯度及び経度(−85.05,180)に対応する。   World coordinates correspond to latitude and longitude indicating the actual location on the earth. The world coordinates (0, 0) at the upper left corner 500a correspond to the actual latitude and longitude (85.05, -180) at the position of the upper left corner 500a, and the world coordinates (255, 255) at the lower right corner 500b are: This corresponds to the actual latitude and longitude (−85.05, 180) at the position of the lower right corner 500b.

世界座標と緯度及び経度とは、一対一に対応し、互いに変換可能である。図17は、緯度及び経度から世界座標への変換式を示す図である。図17に示される変換式によって、緯度及び経度は、世界座標に変換することができる。図22は、世界座標から緯度及び経度への変換式を示す図である。図22に示される変換式によって、世界座標は、緯度及び経度に変換することができる。なお、図17及び図22の変換式における緯度及び経度の単位はラジアンである。   The world coordinates and the latitude and longitude correspond one-to-one, and can be mutually converted. FIG. 17 is a diagram showing a conversion formula from latitude and longitude to world coordinates. The latitude and longitude can be converted into world coordinates by the conversion formula shown in FIG. FIG. 22 is a diagram showing a conversion formula from world coordinates to latitude and longitude. The world coordinates can be converted into latitude and longitude by the conversion formula shown in FIG. The units of latitude and longitude in the conversion formulas of FIGS. 17 and 22 are radians.

ズームレベルが0よりも大きくなると、全体地図画像500を構成する地図タイル501の枚数が増える。たとえば、図5の(b)に示されるように、ズームレベルが1の場合には、2×2枚の地図タイル501で全体地図画像500が構成される。ズームレベルがnの場合には、全体地図画像500を構成する地図タイル501の数が2×2枚となる。 When the zoom level becomes larger than 0, the number of map tiles 501 constituting the entire map image 500 increases. For example, as shown in FIG. 5B, when the zoom level is 1, the whole map image 500 is composed of 2 × 2 map tiles 501. When the zoom level is n, the number of map tiles 501 constituting the entire map image 500 is 2n × 2n .

全体地図画像500上の位置を示すピクセル座標(以下、単に「ピクセル座標」ともいう)は、整数値をとり、ズームレベルによって、最大値が変わる。ズームレベルがnの場合に、ピクセル座標は、世界座標に2を掛けた値として示され、世界座標とピクセル座標とは、互いに変換可能である。 Pixel coordinates (hereinafter, also simply referred to as “pixel coordinates”) indicating positions on the whole map image 500 take integer values, and the maximum value changes depending on the zoom level. When the zoom level is n, the pixel coordinates are shown as a value obtained by multiplying the world coordinates by 2n , and the world coordinates and the pixel coordinates can be converted to each other.

図18は、世界座標からピクセル座標への変換式を示す図である。図18に示される変換式によって、世界座標は、ピクセル座標に変換できる。なお、図18の変換式におけるflооr関数は、小数点以下を切り捨てる関数である。図21は、ピクセル座標から世界座標への変換式を示す図である。図21に示される変換式によって、ピクセル座標は、世界座標に変換できる。   FIG. 18 is a diagram showing a conversion formula from world coordinates to pixel coordinates. The world coordinates can be converted to pixel coordinates by the conversion formula shown in FIG. Note that the floor function in the conversion formula in FIG. 18 is a function that rounds down decimal places. FIG. 21 is a diagram showing a conversion formula from pixel coordinates to world coordinates. The pixel coordinates can be converted to world coordinates by the conversion formula shown in FIG.

図6は、地図タイル501を特定するタイル座標を説明するための概念図である。図6では、ズームレベルが2の場合に4×4枚の地図タイル501で構成された全体地図画像500を示している。また、各地図タイル501内に、各地図タイル501を特定するタイル座標TP(0,0)、(1,0)、(2,0)、(3,0)、(0,1)、(1,1)、(2,1)、(3,1)、(0,2)、(1,2)、(2,2)、(3,2)、(0,3)、(1,3)、(2,3)、(3,3)を示している。タイル座標TPが指定されることにより、地図タイル501が一意に特定される。   FIG. 6 is a conceptual diagram for explaining tile coordinates for specifying the map tile 501. FIG. 6 shows an entire map image 500 composed of 4 × 4 map tiles 501 when the zoom level is 2. In each map tile 501, tile coordinates TP (0,0), (1,0), (2,0), (3,0), (0,1), (0) (1,1), (2,1), (3,1), (0,2), (1,2), (2,2), (3,2), (0,3), (1,2) 3), (2, 3) and (3, 3). By specifying the tile coordinates TP, the map tile 501 is uniquely specified.

タイル座標TPとピクセル座標とは、互いに変換可能である。図19は、ピクセル座標からタイル座標への変換式を示す図である。図19に示される変換式によって、ピクセル座標は、タイル座標TPに変換できる。なお、図19の変換式におけるflооr関数は、小数点以下を切り捨てる関数である。図20は、タイル座標TPからピクセル座標への変換式を示す図である。図20に示される変換式によって、タイル座標TPはピクセル座標に変換できる。   The tile coordinates TP and the pixel coordinates are mutually convertible. FIG. 19 is a diagram showing a conversion formula from pixel coordinates to tile coordinates. The pixel coordinates can be converted to the tile coordinates TP by the conversion formula shown in FIG. Note that the floor function in the conversion formula of FIG. 19 is a function that rounds down decimal places. FIG. 20 is a diagram showing a conversion formula from the tile coordinates TP to the pixel coordinates. The tile coordinates TP can be converted to pixel coordinates by the conversion formula shown in FIG.

(対象物検出装置の全体構成)
次に、図1を参照して、本実施形態に係る対象物検出装置の全体構成について詳細に説明する。図1は、本実施形態に係る対象物検出装置の機能構成を示すブロック図である。
(Overall configuration of object detection device)
Next, with reference to FIG. 1, the overall configuration of the target object detection device according to the present embodiment will be described in detail. FIG. 1 is a block diagram illustrating a functional configuration of the object detection device according to the present embodiment.

図1に示されるように、対象物検出装置100は、機能的には、入力受付部101(入力受付手段)と、パネル管理部102(パネル管理手段)と、画像取得部103(画像取得手段)と、画像管理部104と、対象物検出部105(対象物検出手段)と、緯度経度変換部106(緯度経度変換手段)と、重複判定部107(重複判定手段)と、検出対象物特定部108(検出対象物特定手段)と、を備えている。   As shown in FIG. 1, the object detection device 100 functionally includes an input receiving unit 101 (input receiving unit), a panel managing unit 102 (panel managing unit), and an image obtaining unit 103 (image obtaining unit). ), An image management unit 104, an object detection unit 105 (object detection unit), a latitude / longitude conversion unit 106 (latitude / longitude conversion unit), an overlap determination unit 107 (overlap determination unit), and a detection target identification. Unit 108 (detection target object specifying means).

入力受付部101は、ズームレベル及び検出範囲情報の入力を受け付けて、画像取得部103に出力する。ズームレベルとは、取得する航空画像400の表示倍率を指示する情報である。ズームレベルは、0〜20までの整数値をとりうる。入力受付部101は、ズームレベルとして、ユーザの入力によってたとえば「20」という数値を受け付ける。   The input receiving unit 101 receives inputs of the zoom level and the detection range information and outputs the information to the image obtaining unit 103. The zoom level is information indicating the display magnification of the acquired aerial image 400. The zoom level can take an integer value from 0 to 20. The input receiving unit 101 receives, for example, a numerical value “20” as a zoom level according to a user input.

検出範囲情報とは、検出対象物を検出する地図上の検出範囲を示す情報である。図8は、検出範囲を説明するための概念図である。図8に示されるように、検出範囲は、たとえば矩形の検出範囲800である。   The detection range information is information indicating a detection range on a map for detecting a detection target. FIG. 8 is a conceptual diagram for explaining a detection range. As shown in FIG. 8, the detection range is, for example, a rectangular detection range 800.

検出範囲情報は、検出範囲800の左上隅800aの緯度及び経度、並びに、検出範囲800の右下隅800bの緯度及び経度である。入力受付部101は、ユーザの入力によって、検出範囲800の左上隅800aの緯度及び経度と、検出範囲800の右下隅800bの緯度及び経度と、を受け付ける。   The detection range information is the latitude and longitude of the upper left corner 800a of the detection range 800 and the latitude and longitude of the lower right corner 800b of the detection range 800. The input receiving unit 101 receives the latitude and the longitude of the upper left corner 800a of the detection range 800 and the latitude and the longitude of the lower right corner 800b of the detection range 800 by a user input.

入力受付部101は、入力を受け付けたズームレベルを、パネル管理部102に出力してもよい。   The input receiving unit 101 may output the received zoom level to the panel management unit 102.

パネル管理部102は、画像取得部103によって航空画像400を取得するための基準となるパネルを管理する。パネルとは、航空画像400が所定の枚数の地図タイル501を含む画像サイズである場合に、所定の枚数に応じた枚数毎に、地図タイル501をまとめて区分けする区画である。   The panel management unit 102 manages a panel serving as a reference for acquiring the aerial image 400 by the image acquisition unit 103. When the aerial image 400 has an image size including a predetermined number of map tiles 501, the panel is a section that divides the map tiles 501 into groups each corresponding to the predetermined number.

本実施形態において、航空画像400の画像サイズは、上限画像サイズの2048pixel×2048pixelであり、8×8枚の地図タイル501を含む。パネル管理部102は、この枚数に応じた枚数毎に地図タイル501をまとめて区分けする区画を、パネルとして管理する。より具体的には、パネル管理部102は、少なくともこの枚数以下の枚数毎に地図タイル501をまとめて区分けする区画(すなわち上限画像サイズ以下の大きさの区画)を、パネルとして管理する。   In the present embodiment, the image size of the aerial image 400 is the upper limit image size of 2048 pixels × 2048 pixels and includes 8 × 8 map tiles 501. The panel management unit 102 manages sections that collectively divide the map tiles 501 by the number corresponding to the number as a panel. More specifically, the panel management unit 102 manages, as a panel, a section that divides the map tiles 501 into groups at least for every number of sheets equal to or less than this number (that is, a section having a size equal to or less than the upper limit image size).

パネル管理部102が管理するパネルは、画像取得部103に複数の航空画像400をどのように取得させたいかに応じて、たとえばシステムの管理者又はユーザによって予め設定されている。たとえば、所定の枚数の地図タイル501を含む画像サイズの航空画像400を、隣接するように取得させたい場合には、所定の枚数毎に地図タイル501をまとめて区分けする区画が、パネルとして設定される。換言すると、上限画像サイズと同じ大きさの区画が、パネルとして設定される。   The panels managed by the panel management unit 102 are preset by, for example, a system administrator or a user, depending on how the image acquisition unit 103 wants to acquire the plurality of aerial images 400. For example, when an aerial image 400 having an image size including a predetermined number of map tiles 501 is to be acquired adjacent to each other, a section for grouping the map tiles 501 by a predetermined number is set as a panel. You. In other words, a section having the same size as the upper limit image size is set as a panel.

また、たとえば、所定の枚数の地図タイル501を含む画像サイズの航空画像400を、重複部分を有するように取得させたい場合には、所定の枚数よりも少ない枚数毎に地図タイル501をまとめて区分けする区画が、パネルとして設定される。換言すると、上限画像サイズよりも小さい区画が、パネルとして設定される。   Also, for example, when it is desired to obtain an aerial image 400 having an image size including a predetermined number of map tiles 501 so as to have an overlapping portion, the map tiles 501 are collectively divided into smaller numbers than the predetermined number. The section to be set is set as a panel. In other words, a section smaller than the upper limit image size is set as a panel.

取得する航空画像400の重複部分の幅をどの程度の幅とするかに応じて、パネルとしてまとめて区分けする地図タイル501の枚数を変化させてもよい。たとえば、重複部分の幅を1枚の地図タイル501分の幅としたい場合には、パネルとしてまとめて区分けする地図タイル501の枚数を、所定の枚数よりも縦横1枚ずつ少ない枚数とする。また、重複部分の幅を1枚の地図タイル501分の幅より大きくしたい場合には、パネルとしてまとめて区分けする地図タイル501の枚数を、所定の枚数よりも少なくする。   The number of map tiles 501 that are collectively divided into panels may be changed according to the width of the overlapping portion of the acquired aerial image 400. For example, if the width of the overlapping portion is to be the width of one map tile 501, the number of map tiles 501 to be collectively classified as a panel is set to a number smaller by one each in the vertical and horizontal directions than the predetermined number. When the width of the overlapping portion is desired to be larger than the width of one map tile 501, the number of map tiles 501 to be collectively classified as a panel is made smaller than a predetermined number.

図7は、本実施形態に係るパネルを説明するための概念図である。本実施形態では、パネル管理部102は、図7に示されるように、地図タイル501を7×7枚毎にまとめて区分けする区画をパネル700として管理する。このように、本実施形態では、8×8枚の地図タイル501を含む画像サイズの航空画像400を取得する場合において、パネル700としてまとめて区分けする地図タイル501の枚数を、8×8枚よりも縦横1枚ずつ少ない枚数とする。すなわち、パネル管理部102は、上限画像サイズよりも1枚の地図タイル501分の幅だけ小さい区画をパネル700として管理する。   FIG. 7 is a conceptual diagram for explaining the panel according to the present embodiment. In the present embodiment, as illustrated in FIG. 7, the panel management unit 102 manages a section that divides the map tiles 501 into groups of 7 × 7 as a panel 700. As described above, in the present embodiment, when acquiring an aerial image 400 having an image size including 8 × 8 map tiles 501, the number of map tiles 501 to be collectively classified as the panel 700 is set to be smaller than 8 × 8. Are also reduced one by one vertically and horizontally. That is, the panel management unit 102 manages a section smaller than the upper limit image size by a width of one map tile 501 as the panel 700.

図7では、各パネル700内の左上隅に位置する地図タイル501(グレーで塗り潰して示す部分)に、パネル座標PPを示している。パネル座標PPは、各パネル700を特定する座標である。このパネル座標PPが指定されることにより、パネル700が一意に特定される。   In FIG. 7, the panel coordinates PP are shown on a map tile 501 (a portion shaded in gray) located at the upper left corner in each panel 700. The panel coordinates PP are coordinates that specify each panel 700. By specifying the panel coordinates PP, the panel 700 is uniquely specified.

パネル座標PPは、各パネル700に含まれる地図タイル501のうち左上隅に位置する地図タイル501(グレーで塗り潰して示す部分)を特定するタイル座標TPでもある。パネル座標PPは、タイル座標TPのうち、パネル700に含まれる地図タイル501の数(本実施形態では、7)で割り切れるものをいう。   The panel coordinates PP are also tile coordinates TP that specify the map tiles 501 (portions shown in gray) located at the upper left corner among the map tiles 501 included in each panel 700. The panel coordinates PP are tile coordinates TP that are divisible by the number of map tiles 501 included in the panel 700 (7 in the present embodiment).

パネル座標PPとタイル座標TPとの対応関係は、図13に示される変換式で対応付けられている。この変換式によって、パネル700は地図タイル501に対応付けられている。図13の変換式におけるnは、パネル700に含まれる地図タイル501の数(一のパネル700でまとめて区分けされる地図タイル501の数)であり、本実施形態では7である。パネル管理部102は、図13の変換式を記憶する。   The correspondence between the panel coordinates PP and the tile coordinates TP is associated by the conversion formula shown in FIG. The panel 700 is associated with the map tile 501 by this conversion formula. In the conversion formula of FIG. 13, n is the number of map tiles 501 included in the panel 700 (the number of map tiles 501 that are collectively divided by one panel 700), and is 7 in the present embodiment. The panel management unit 102 stores the conversion formula of FIG.

画像取得部103は、入力受付部101で受け付けられた情報と、パネル管理部102で管理された情報とに基づき、所定領域の航空画像400を取得する。画像取得部103が取得する航空画像400の画像サイズは、前述したとおり、たとえば2048pixel×2048pixelと予め設定されている。   The image acquisition unit 103 acquires an aerial image 400 of a predetermined area based on the information received by the input reception unit 101 and the information managed by the panel management unit 102. As described above, the image size of the aerial image 400 acquired by the image acquiring unit 103 is preset to, for example, 2048 pixels × 2048 pixels.

画像取得部103は、航空画像400が記憶された内部又は外部の記憶装置から、航空画像400を取得する。画像取得部103は、たとえば、地図情報を配信可能な所定のWebサービスを用いて、航空画像400を取得する。画像取得部103は、取得した航空画像400を、画像管理部104へ出力する。   The image acquisition unit 103 acquires the aerial image 400 from an internal or external storage device in which the aerial image 400 is stored. The image acquiring unit 103 acquires the aerial image 400 using, for example, a predetermined Web service that can distribute map information. The image acquisition unit 103 outputs the acquired aerial image 400 to the image management unit 104.

図9は、画像取得部103により航空画像400を取得する方法を説明するための概念図である。図9に示されるように、画像取得部103は、地図タイル501に合わせて、所定の枚数の地図タイル501を含む画像サイズの航空画像400を取得する。   FIG. 9 is a conceptual diagram for describing a method of acquiring an aerial image 400 by the image acquiring unit 103. As illustrated in FIG. 9, the image acquisition unit 103 acquires an aerial image 400 having an image size including a predetermined number of map tiles 501 in accordance with the map tiles 501.

具体的には、航空画像400に含まれる最も外側の地図タイル501の外縁と航空画像400の外縁とが重なるように、航空画像400を取得する。そして、画像取得部103は、所定の枚数の地図タイル501のそれぞれが一部を欠くことなく全体として航空画像400に含まれるように、航空画像400を取得する。すなわち、所定の枚数の地図タイル501で構成された航空画像400を取得する。   Specifically, the aerial image 400 is acquired such that the outer edge of the outermost map tile 501 included in the aerial image 400 and the outer edge of the aerial image 400 overlap. Then, the image acquiring unit 103 acquires the aerial image 400 such that each of the predetermined number of map tiles 501 is entirely included in the aerial image 400 without missing any part. That is, an aerial image 400 including a predetermined number of map tiles 501 is acquired.

所定の枚数は、取得する航空画像400の画像サイズに合う枚数に決定される。本実施形態において、取得する航空画像400の画像サイズは、2048pixel×2048pixelであり、8×8枚の地図タイル501を含む。すなわち、画像取得部103は、8×8枚の地図タイル501を含む画像サイズの航空画像400を取得する。   The predetermined number is determined to be a number that matches the image size of the acquired aerial image 400. In the present embodiment, the image size of the aerial image 400 to be acquired is 2048 pixels × 2048 pixels and includes 8 × 8 map tiles 501. That is, the image obtaining unit 103 obtains an aerial image 400 having an image size including 8 × 8 map tiles 501.

画像取得部103は、パネル管理部102で管理されているパネル700に対応させて、複数の航空画像400を取得する。本実施形態では、7×7枚の地図タイル501を含むパネル700に対応させて、8×8枚の地図タイル501を含む画像サイズ(図7の矩形702で示す大きさ)の航空画像400を取得する。   The image acquisition unit 103 acquires a plurality of aerial images 400 corresponding to the panel 700 managed by the panel management unit 102. In the present embodiment, an aerial image 400 having an image size (the size indicated by a rectangle 702 in FIG. 7) including 8 × 8 map tiles 501 is associated with a panel 700 including 7 × 7 map tiles 501. get.

図10は、画像取得部103により取得された複数の航空画像400を示す概念図である。図10に示されるように、画像取得部103は、互いに重複部分1001を有する複数の航空画像400を取得する。7×7枚の地図タイル501を含むパネル700に対応させて、8×8枚の地図タイル501を含む画像サイズの航空画像400を取得することにより、重複部分1001の幅は、1枚の地図タイル501分の幅となっている。画像取得部103は、取得した航空画像400を画像管理部104に出力する。   FIG. 10 is a conceptual diagram showing a plurality of aerial images 400 acquired by the image acquisition unit 103. As shown in FIG. 10, the image acquisition unit 103 acquires a plurality of aerial images 400 having overlapping portions 1001 with each other. By acquiring an aerial image 400 having an image size including 8 × 8 map tiles 501 in correspondence with the panel 700 including 7 × 7 map tiles 501, the width of the overlapping portion 1001 is reduced to one map. The width is equivalent to the tile 501. The image acquisition unit 103 outputs the acquired aerial image 400 to the image management unit 104.

画像管理部104は、画像取得部103で取得された航空画像400を保存して、図11に示されるようなデータベースとして記録する。図11は、画像管理部104で記録される航空画像400のデータベースの一例を示す図である。図11のデータベースには、パネルID1101、パネル座標PP、及び航空画像のファイル名1102が格納されている。   The image management unit 104 saves the aerial image 400 acquired by the image acquisition unit 103 and records it as a database as shown in FIG. FIG. 11 is a diagram illustrating an example of a database of the aerial image 400 recorded by the image management unit 104. The database of FIG. 11 stores a panel ID 1101, panel coordinates PP, and an aerial image file name 1102.

図11のデータベースに格納されるパネルID1101は、取得した航空画像400に対応付けられたパネル700を示す識別子である。パネル座標PPは、パネル700を特定する座標である。航空画像のファイル名1102は、取得した航空画像400を示すファイルの名称であって、航空画像400を保存する際に作成されたファイル名である。   The panel ID 1101 stored in the database of FIG. 11 is an identifier indicating the panel 700 associated with the acquired aerial image 400. Panel coordinates PP are coordinates specifying panel 700. The aerial image file name 1102 is the name of a file indicating the acquired aerial image 400, and is a file name created when the aerial image 400 is stored.

図11に示されるように、画像管理部104は、画像取得部103で取得された航空画像400を、パネル座標PPと対応付けて記録する。これにより、航空画像400とパネル700とが一対一で対応付くように管理されている。   As shown in FIG. 11, the image management unit 104 records the aerial image 400 acquired by the image acquisition unit 103 in association with the panel coordinates PP. Thus, the aerial image 400 and the panel 700 are managed so as to correspond one-to-one.

対象物検出部105は、画像管理部104に記録された複数の航空画像400を読み込み、読み込んだ各航空画像400に含まれる検出対象物を検出する。検出対象物の検出方法は、既存の技術を用いることができ、たとえば画像解析を用いてもよく、ニューラルネットワーク等の学習済みモデルを用いてもよい。   The target object detection unit 105 reads a plurality of aerial images 400 recorded in the image management unit 104, and detects a detection target included in each of the read aerial images 400. An existing technique can be used for the detection method of the detection target, for example, image analysis may be used, or a learned model such as a neural network may be used.

対象物検出部105は、読み込んだ複数の航空画像400のそれぞれについて、検出対象物を検出した検出結果として、航空画像400での検出対象物の位置を示す座標(以下、「画像内座標」ともいう)を出力する。画像内座標とは、航空画像400での検出対象物の位置を示す座標であって、航空画像400の左上隅(四隅のうち一隅)の基準位置P2を原点とし、右側及び下側を正方向とする。   For each of the plurality of read aerial images 400, the target object detection unit 105 detects, as a detection result of detecting the detection target object, coordinates indicating the position of the detection target object in the aerial image 400 (hereinafter, also referred to as “in-image coordinates”) Output). The coordinates in the image are coordinates indicating the position of the detection target in the aerial image 400. The reference position P2 of the upper left corner (one of the four corners) of the aerial image 400 is set as the origin, and the right side and the lower side are forward directions. And

図12は、検出対象物の画像内座標を説明するための概念図である。図12に示されるように、画像内座標とは、検出対象物の領域を示す矩形情報(ベクトルV0、ベクトルV1)であって、検出対象物の領域である矩形の物体領域1201の位置P0,P1を示す、基準位置P2を原点としたベクトルである。   FIG. 12 is a conceptual diagram for explaining the coordinates in the image of the detection target. As shown in FIG. 12, the coordinates in the image are rectangular information (vector V0, vector V1) indicating the area of the detection target, and the positions P0, P0 of the rectangular object area 1201 that is the area of the detection target. This is a vector indicating P1 and having the reference position P2 as the origin.

基準位置P2は、航空画像400の左上隅の位置(航空画像400に対応付けられたパネル座標PPで示される位置)であって、航空画像400上の位置の原点を示す座標基準点である。位置P0は、物体領域1201の左上隅の位置であって、位置P1は、物体領域1201の右下隅の位置である。   The reference position P2 is the position of the upper left corner of the aerial image 400 (the position indicated by the panel coordinates PP associated with the aerial image 400), and is a coordinate reference point indicating the origin of the position on the aerial image 400. The position P0 is the position of the upper left corner of the object area 1201, and the position P1 is the position of the lower right corner of the object area 1201.

対象物検出部105は、検出対象物の画像内座標として、検出対象物の領域を示す矩形情報(ベクトルV0、V1)を算出する。対象物検出部105は、この矩形情報(ベクトルV0,V1)を、緯度経度変換部106へ出力する。   The object detection unit 105 calculates rectangular information (vectors V0 and V1) indicating a region of the detection target as coordinates in the image of the detection target. The object detection unit 105 outputs the rectangular information (vectors V0 and V1) to the latitude / longitude conversion unit 106.

緯度経度変換部106は、対象物検出部105により算出された矩形情報(ベクトルV0,V1)を、各検出対象物の地球上の位置を示す緯度経度に変換する。緯度経度変換部106は、航空画像400に含まれる地図タイル501を特定するタイル座標TP(本実施形態では、基準位置P2に対応するタイル座標TP)に基づき、矩形情報(ベクトルV0,V1)を緯度及び経度に変換する。   The latitude / longitude conversion unit 106 converts the rectangular information (vectors V0, V1) calculated by the object detection unit 105 into latitude / longitude indicating the position of each detection object on the earth. The latitude / longitude conversion unit 106 converts the rectangular information (vectors V0, V1) based on the tile coordinates TP (in this embodiment, the tile coordinates TP corresponding to the reference position P2) specifying the map tile 501 included in the aerial image 400. Convert to latitude and longitude.

矩形情報(ベクトルV0,V1)を緯度及び経度に変換する具体的な方法については、図16のフローチャートを参照して後述する。緯度経度変換部106は、全ての検出対象物について、矩形情報(ベクトルV0,V1)を緯度及び経度に変換し、その変換結果を重複判定部107に出力する。   A specific method for converting the rectangular information (vectors V0 and V1) into latitude and longitude will be described later with reference to the flowchart in FIG. The latitude / longitude conversion unit 106 converts the rectangular information (vectors V0, V1) into latitude and longitude for all the detection targets, and outputs the conversion result to the overlap determination unit 107.

重複判定部107は、緯度経度変換部106から出力された変換結果に基づき、同じ検出対象物が重複して検出されたか否かを判定する。これは、前述したように画像取得部103によって重複部分1001(図10参照)を有するように航空画像400が取得されることから、重複部分1001において同じ検出対象物が重複して検出される場合があるためである。重複判定部107は、このような検出対象物の重複検出の有無を判定し、その判定結果を、検出対象物特定部108へ出力する。   The overlap determination unit 107 determines whether or not the same detection target has been repeatedly detected based on the conversion result output from the latitude / longitude conversion unit 106. This is because the aerial image 400 is acquired so as to have the overlapping portion 1001 (see FIG. 10) by the image acquiring unit 103 as described above. Because there is. The duplication determination unit 107 determines the presence or absence of such a detection target duplication detection, and outputs the determination result to the detection target specifying unit 108.

たとえば、重複判定部107は、緯度経度変換部106から出力された緯度及び経度で示される矩形の重なり度合いに基づき、重複検出の有無を判定する。ここで、緯度及び経度で示される矩形とは、矩形情報であるベクトルV0を変換した結果の緯度及び経度が示す第一点と、矩形情報であるベクトルV1を変換した結果の緯度及び経度が示す第二点とが対角線状に位置してなる矩形である。   For example, the duplication determination unit 107 determines the presence or absence of duplication detection based on the degree of overlap of rectangles indicated by latitude and longitude output from the latitude and longitude conversion unit 106. Here, the rectangle indicated by the latitude and longitude indicates the first point indicated by the latitude and longitude as a result of converting the vector V0 as the rectangle information, and the latitude and longitude as the result of converting the vector V1 as the rectangle information. It is a rectangle in which the second point is located diagonally.

重複判定部107は、矩形の重なり度合いが所定の閾値以上である場合には、重複検出が有ったと判定し、矩形の重なり度合いが所定の閾値未満である場合には、重複検出が無かったと判定する。   The overlap determination unit 107 determines that the overlap has been detected when the degree of overlap of the rectangles is equal to or greater than a predetermined threshold, and determines that no overlap has been detected when the degree of overlap of the rectangles is less than the predetermined threshold. judge.

矩形の重なり度合いについては、たとえば重複する面積の割合を示すIоU(Intersectiоn Over Uniоn)という指標を用いて求めることができる。IоUが所定の閾値以上である場合には、矩形の重なり度合いが所定の閾値以上とされ、IоUが所定の閾値未満である場合には、矩形の重なり度合いが所定値未満とされる。   The degree of overlap of the rectangles can be determined using, for example, an index IoU (Intersection Over Union) indicating the ratio of overlapping areas. When IоU is equal to or greater than a predetermined threshold, the degree of overlap of rectangles is equal to or greater than a predetermined threshold, and when IоU is less than the predetermined threshold, the degree of overlap of rectangles is less than a predetermined value.

また、重複判定部107は、矩形の重なり度合いに限らず、たとえば緯度経度変換部106から出力された緯度及び経度の一致度合いに基づき、重複検出の有無を判定してもよい。重複判定部107は、緯度及び経度の一致度合いが所定の閾値以上である場合には、重複検出が有ったと判定し、緯度及び経度の一致度合いが所定の閾値未満である場合には、重複検出が無かったと判定する。   Further, the duplication determination unit 107 may determine the presence or absence of duplication detection based on, for example, the degree of coincidence of the latitude and longitude output from the latitude / longitude conversion unit 106, without being limited to the degree of rectangular overlap. The overlap determination unit 107 determines that the overlap has been detected when the degree of coincidence between the latitude and the longitude is equal to or greater than a predetermined threshold, and when the degree of coincidence between the latitude and the longitude is less than the predetermined threshold. It is determined that there was no detection.

緯度及び経度の一致度合いについては、たとえば緯度及び経度の差分を算出し、当該差分の大きさに基づき算出される。当該差分が所定の閾値以下である場合には、一致度合いが所定の閾値以上とされ、当該差分が所定の閾値よりも大きい場合には、一致度合いが所定の閾値未満とされる。   The degree of coincidence between the latitude and the longitude is calculated, for example, by calculating the difference between the latitude and the longitude and based on the magnitude of the difference. If the difference is equal to or smaller than the predetermined threshold, the degree of matching is equal to or greater than the predetermined threshold. If the difference is larger than the predetermined threshold, the degree of matching is set to be lower than the predetermined threshold.

検出対象物特定部108は、重複判定部107からの判定結果に基づき、検出対象物が重複して検出された場合には、重複して検出された検出対象物のうち何れか一の検出対象物を、検出すべき検出対象物として特定する。これにより、検出対象物の重複検出を取り除き、適切に検出対象物を検出する。検出対象物特定部108により特定された検出対象物の画像内座標は、たとえば外部メモリ211等に登録される。   Based on the determination result from the overlap determination unit 107, the detection target specifying unit 108 detects any one of the detection targets that have been redundantly detected when the detection target is detected in duplicate. An object is specified as a detection target object to be detected. As a result, duplicate detection of the detection target is removed, and the detection target is appropriately detected. The coordinates in the image of the detection target specified by the detection target specifying unit 108 are registered in, for example, the external memory 211 or the like.

次に、図2を参照して、対象物検出装置100のハードウェア構成の一例について説明する。図2は、対象物検出装置100のハードウェア構成を示す図である。   Next, an example of a hardware configuration of the object detection device 100 will be described with reference to FIG. FIG. 2 is a diagram illustrating a hardware configuration of the object detection device 100.

図2において、対象物検出装置100は、CPU201と、RAM202と、ROM203と、システムバス204と、入力コントローラ205と、ビデオコントローラ206と、メモリコントローラ207と、通信I/Fコントローラ208と、キーボード209と、CRT210と、外部メモリ211と、を有して構成されている。   2, the object detection device 100 includes a CPU 201, a RAM 202, a ROM 203, a system bus 204, an input controller 205, a video controller 206, a memory controller 207, a communication I / F controller 208, and a keyboard 209. , A CRT 210, and an external memory 211.

CPU201は、各種装置における動作を統括的に制御するものであり、必要に応じて、システムバス204に接続される各種のデバイスや各種のコントローラを統括的に制御する。   The CPU 201 comprehensively controls operations in various devices, and comprehensively controls various devices and various controllers connected to the system bus 204 as necessary.

RAM202は、CPU201の主メモリ又はワークエリアなどとして機能する。CPU201は、処理の実行に際して必要なプログラムなどをROM203あるいは外部メモリ211からRAM202にロードして、該ロードしたプログラムを実行することで各種動作を実現する。   The RAM 202 functions as a main memory or a work area of the CPU 201. The CPU 201 loads various programs and the like necessary for executing processing from the ROM 203 or the external memory 211 to the RAM 202, and implements various operations by executing the loaded programs.

ROM203は、種々のプログラムを記憶する。種々のプログラムは、CPU201の制御プログラムであるBIOS(Basic Input / Output System)、オペレーティングシステムプログラム(以下、OS)、又は、各サーバ若しくは各PCの実行する機能を実現するために必要な各種のプログラムなどである。なお、これらのプログラムは、外部メモリ211に記憶されている態様であってもよい。   The ROM 203 stores various programs. The various programs include a basic input / output system (BIOS) that is a control program of the CPU 201, an operating system program (hereinafter, referred to as an OS), or various programs necessary for realizing a function executed by each server or each PC. And so on. Note that these programs may be stored in the external memory 211.

システムバス204は、CPU201、RAM202、ROM203、入力コントローラ205、ビデオコントローラ206、メモリコントローラ207、及び通信I/Fコントローラ208を、相互に通信可能に接続する。   The system bus 204 connects the CPU 201, the RAM 202, the ROM 203, the input controller 205, the video controller 206, the memory controller 207, and the communication I / F controller 208 so that they can communicate with each other.

入力コントローラ205は、キーボード209又はマウスなどのポインティングデバイスからの入力を制御する。   The input controller 205 controls input from a keyboard 209 or a pointing device such as a mouse.

ビデオコントローラ206は、CRTディスプレイ(CRT)210などの表示部への表示を制御する。なお、表示部はCRTディスプレイに限られるものでなく、液晶ディスプレイなどの他の表示部であってもよい。   The video controller 206 controls display on a display unit such as a CRT display (CRT) 210. The display unit is not limited to a CRT display, but may be another display unit such as a liquid crystal display.

メモリコントローラ207は、外部メモリ211へのアクセスを制御する。外部メモリ211は、ハードディスク(HD)、フレキシブルディスク(FD)、又は、コンパクトフラッシュ(登録商標)メモリなどである。外部メモリ211は、ブートプログラム、ブラウザソフトウェア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、又は各種データなどを記憶する。コンパクトフラッシュ(登録商標)メモリは、たとえば、PCMCIAカードスロットにアダプタを介して接続される。   The memory controller 207 controls access to the external memory 211. The external memory 211 is a hard disk (HD), a flexible disk (FD), a compact flash (registered trademark) memory, or the like. The external memory 211 stores a boot program, browser software, various applications, font data, user files, edit files, various data, and the like. The CompactFlash (registered trademark) memory is connected to, for example, a PCMCIA card slot via an adapter.

通信I/Fコントローラ208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。たとえば、TCP/IPを用いたインターネット通信が可能である。   The communication I / F controller 208 connects and communicates with an external device via a network, and executes communication control processing on the network. For example, Internet communication using TCP / IP is possible.

なお、CPU201は、たとえばRAM202内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、CRT210上での表示を可能としている。また、CPU201は、CRT210上のマウスカーソルなどでのユーザ指示を可能とする。   Note that the CPU 201 enables the display on the CRT 210 by executing, for example, an outline font development (rasterization) process on a display information area in the RAM 202. Further, the CPU 201 enables a user instruction with a mouse cursor or the like on the CRT 210.

本発明を実現するための各種プログラムは、外部メモリ211に記録されており、必要に応じてRAM202にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる定義ファイル及び各種情報テーブルなども、外部メモリ211に格納されている。   Various programs for implementing the present invention are recorded in the external memory 211 and are executed by the CPU 201 by being loaded into the RAM 202 as needed. Further, a definition file and various information tables used when executing the program are also stored in the external memory 211.

(画像取得方法)
次に、図3を参照して、画像取得部103の詳細な機能構成について説明する。
(Image acquisition method)
Next, a detailed functional configuration of the image acquisition unit 103 will be described with reference to FIG.

図3は、画像取得部103の詳細な機能構成を示すブロック図である。図3に示されるように、画像取得部103は、パネル特定部301(パネル特定手段)と、パネル対応画像取得部302(パネル対応画像取得手段)と、を有する。   FIG. 3 is a block diagram illustrating a detailed functional configuration of the image acquisition unit 103. As shown in FIG. 3, the image obtaining unit 103 includes a panel specifying unit 301 (panel specifying unit) and a panel corresponding image obtaining unit 302 (panel corresponding image obtaining unit).

パネル特定部301は、入力受付部101で受け付けられたズームレベル及び検出範囲情報に基づき、検出範囲800に対応する複数のパネル700を特定する。これにより、パネル特定部301は、パネル管理部102で管理されているパネル700のうち、解析対象となる航空画像400を取得するために用いる複数のパネル700を特定する。   The panel specifying unit 301 specifies a plurality of panels 700 corresponding to the detection range 800 based on the zoom level and the detection range information received by the input reception unit 101. As a result, the panel specifying unit 301 specifies a plurality of panels 700 used to acquire the aerial image 400 to be analyzed among the panels 700 managed by the panel management unit 102.

たとえば、パネル特定部301は、後述する図15のステップS1501で説明する算出方法により、検出範囲800を含む複数のパネル700のパネル座標PPを算出する。図8に示される例では、当該パネル座標PPは、(0,0)、(7,0)、(14,0)、(0,7)、(7,7)、(14,7)、(0,14)、(7,14)、(14,14)と算出される。これにより、計9枚のパネル700が特定される。パネル特定部301は、算出したパネル座標PPを、パネル対応画像取得部302に出力する。   For example, the panel specifying unit 301 calculates the panel coordinates PP of the plurality of panels 700 including the detection range 800 by a calculation method described in step S1501 of FIG. In the example shown in FIG. 8, the panel coordinates PP are (0, 0), (7, 0), (14, 0), (0, 7), (7, 7), (14, 7), (0, 14), (7, 14), and (14, 14) are calculated. Thus, a total of nine panels 700 are specified. The panel specifying unit 301 outputs the calculated panel coordinates PP to the panel corresponding image obtaining unit 302.

パネル対応画像取得部302は、パネル特定部301で特定された各パネル700に対応させて、航空画像400を取得する。パネル対応画像取得部302は、たとえば、地図情報を配信可能な所定のWebサービスを用いて、所定のパラメータ(画像中心の緯度及び経度、ズームレベル、及び画像サイズ)を、パネル700毎に指定する。   The panel corresponding image obtaining unit 302 obtains the aerial image 400 in association with each panel 700 specified by the panel specifying unit 301. The panel-corresponding image acquisition unit 302 specifies, for example, a predetermined parameter (latitude and longitude of the center of the image, a zoom level, and an image size) for each panel 700 using a predetermined Web service capable of distributing map information. .

ここで、所定のパラメータとしての画像中心の緯度及び経度は、パネル特定部301で算出された各パネル座標PPに基づき、後述する図15のステップS1502の算出方法により算出される。パネル対応画像取得部302は、パネル座標PPに基づき算出された画像中心の緯度及び経度をパラメータとして航空画像400を取得する。これにより、パネル700と一対一で対応付けて航空画像400を取得し、特定された全てのパネル700について、対応する航空画像400を取得する。その結果、1枚の地図タイル501分の幅の重複部分1001を有する複数の航空画像400が取得される。   Here, the latitude and longitude of the center of the image as the predetermined parameters are calculated based on the panel coordinates PP calculated by the panel specifying unit 301 by the calculation method of step S1502 in FIG. The panel corresponding image acquisition unit 302 acquires the aerial image 400 using the latitude and longitude of the image center calculated based on the panel coordinates PP as parameters. Thereby, the aerial image 400 is acquired in one-to-one correspondence with the panel 700, and the corresponding aerial image 400 is acquired for all the specified panels 700. As a result, a plurality of aerial images 400 having an overlapping portion 1001 having a width of one map tile 501 are obtained.

次に、図14のフローチャート等を参照して、対象物検出装置100による検出対象物を検出するための全体的な処理の流れの一例を説明する。図14は、対象物検出装置100による処理の流れの一例を示すフローチャートである。   Next, an example of an overall processing flow for detecting a detection target by the target detection device 100 will be described with reference to the flowchart of FIG. 14 and the like. FIG. 14 is a flowchart illustrating an example of the flow of a process performed by the target object detection device 100.

図14に示されるように、対象物検出処理が開始すると、まずステップS1401において処理を続けるか否かの判定がなされる。処理を続けるか否かは、たとえばユーザによる処理終了指示が入力されたか否かによって判定される。処理を続けないと判定された場合(ステップS1401;NO)、処理を終了する。また、処理を続けると判定された場合(ステップS1401;YES)、ステップS1402〜ステップS1408の処理がおこなわれる。   As shown in FIG. 14, when the object detection processing starts, first, in step S1401, it is determined whether to continue the processing. Whether or not to continue the process is determined, for example, by whether or not a user has input a process end instruction. If it is determined that the process is not to be continued (step S1401; NO), the process ends. If it is determined that the processing is to be continued (step S1401; YES), the processing of steps S1402 to S1408 is performed.

ステップS1402では、入力受付部101が、ズームレベルと検出範囲情報とを受け付ける。入力受付部101は、ユーザの入力によって、ズームレベルとしてたとえば「20」という数値を受け付ける。また、入力受付部101は、ユーザの入力によって、検出範囲情報として、検出範囲800の左上隅800aの緯度及び経度、並びに、検出範囲800の右下隅800bの緯度及び経度を受け付ける。   In step S1402, the input receiving unit 101 receives a zoom level and detection range information. The input receiving unit 101 receives a numerical value of, for example, “20” as a zoom level according to a user input. In addition, the input receiving unit 101 receives, as detection range information, the latitude and longitude of the upper left corner 800a of the detection range 800 and the latitude and longitude of the lower right corner 800b of the detection range 800 as input by the user.

続いて、画像取得部103は、ステップS1401で受け付けられた情報に基づき、航空画像400を取得する(ステップS1403)。詳細は図15のフローチャートを参照して後述するが、画像取得部103は、1枚の地図タイル501分の重複部分1001を有する複数の航空画像400を取得する。   Next, the image acquisition unit 103 acquires the aerial image 400 based on the information received in step S1401 (step S1403). Although details will be described later with reference to the flowchart of FIG. 15, the image acquisition unit 103 acquires a plurality of aerial images 400 having an overlapping portion 1001 of one map tile 501.

続いて、画像管理部104が、ステップS1403で取得した複数の航空画像400を対象物検出装置100のハードディスク等に保存して、図11に示されるような航空画像400のデータベースを記録する(ステップS1404)。すなわち、画像管理部104は、各航空画像400を、パネル座標PPと対応付けて記録する。   Subsequently, the image management unit 104 stores the plurality of aerial images 400 acquired in step S1403 on a hard disk or the like of the object detection device 100, and records a database of the aerial images 400 as illustrated in FIG. S1404). That is, the image management unit 104 records each aerial image 400 in association with the panel coordinates PP.

続いて、対象物検出部105は、ステップS1404で記録されたデータベースから複数の航空画像400を読み込み、各航空画像400に含まれる検出対象物を検出する(ステップS1405)。具体的には、対象物検出部105は、検出対象物を検出した結果として、検出対象物の領域を示す矩形情報(ベクトルV0,V1)を出力する。   Next, the target object detection unit 105 reads a plurality of aerial images 400 from the database recorded in step S1404, and detects a detection target included in each aerial image 400 (step S1405). Specifically, the target detection unit 105 outputs rectangular information (vectors V0 and V1) indicating the area of the detection target as a result of detecting the detection target.

続いて、緯度経度変換部106は、ステップS1405で検出された矩形情報(ベクトルV0,V1)を、緯度及び経度に変換する(ステップS1406)。緯度経度変換部106による緯度及び経度の変換処理の流れの詳細は、図16のフローチャートを参照して後述する。   Next, the latitude / longitude conversion unit 106 converts the rectangular information (vectors V0, V1) detected in step S1405 into latitude and longitude (step S1406). Details of the flow of the latitude / longitude conversion process by the latitude / longitude conversion unit 106 will be described later with reference to the flowchart in FIG.

続いて、重複判定部107は、ステップS1406で変換された緯度及び経度に基づき、検出対象物が重複して検出されたか否かを判定する(ステップS1407)。   Subsequently, the duplication determination unit 107 determines whether or not the detection target has been redundantly detected based on the latitude and longitude converted in step S1406 (step S1407).

重複判定部107は、たとえば緯度及び経度で示される矩形の重なり度合いが所定の閾値未満である場合には、同一の検出対象物が重複して検出されていないと判定し(ステップS1407;NO)、ステップS1401へ戻る。   For example, when the degree of overlap of the rectangles indicated by latitude and longitude is less than a predetermined threshold, the overlap determination unit 107 determines that the same detection target has not been detected in duplicate (step S1407; NO). Then, the process returns to step S1401.

重複判定部107は、緯度及び経度で示される矩形の重なり度合いが所定の閾値以上である場合には、同一の検出対象物が重複して検出されたと判定し(ステップS1407;YES)、ステップS1408へ移行する。   When the degree of overlap of the rectangles represented by latitude and longitude is equal to or greater than a predetermined threshold, the overlap determination unit 107 determines that the same detection target has been repeatedly detected (step S1407; YES), and step S1408. Move to.

ステップS1408において、検出対象物特定部108は、ステップS1407で重複して検出されたと判定された検出対象物のうち何れか一の検出対象物を、検出すべき検出対象物として特定する。   In step S1408, the detection target specifying unit 108 specifies any one of the detection targets determined to have been redundantly detected in step S1407 as the detection target to be detected.

具体的には、たとえば左右に並ぶ航空画像400の重複部分1001において、同一の検出対象物が重複して検出された場合には、右の航空画像400に含まれる検出対象物を無効とし、左の航空画像400に含まれる検出対象物を有効とする。また、上下に並ぶ航空画像400の重複部分1001において、同一の検出対象物が重複して検出された場合には、下の航空画像400に含まれる検出対象物を無効とし、上の航空画像400に含まれる検出対象物を有効とする。   Specifically, for example, in the overlapping portion 1001 of the aerial images 400 arranged side by side, if the same detection target is detected in duplicate, the detection target included in the right aerial image 400 is invalidated, and the left The detection target object included in the aerial image 400 is valid. In addition, in the overlapping portion 1001 of the vertically arranged aerial images 400, when the same detection target is detected in duplicate, the detection target included in the lower aerial image 400 is invalidated, and the upper aerial image 400 is invalidated. The object to be detected included in is valid.

検出対象物特定部108による検出対象物の特定が完了すると、ステップS1401に戻る。ステップS1401において処理を続けないと判定されるまで、ステップS1402〜1408の対象物検出処理が繰り返される。   Upon completion of the detection of the detection target by the detection target specifying unit 108, the process returns to step S1401. Until it is determined in step S1401 that the processing is not to be continued, the object detection processing in steps S1402 to 1408 is repeated.

次に、図15を参照して、画像取得部103による画像取得方法の処理の流れの詳細を説明する。図15は、図14のステップS1403の処理の詳細を示すフローチャートである。   Next, with reference to FIG. 15, the details of the processing flow of the image acquisition method by the image acquisition unit 103 will be described. FIG. 15 is a flowchart illustrating details of the process in step S1403 in FIG.

図15に示されるように、画像取得部103による画像取得の処理が開始すると、まず、画像取得部103のパネル特定部301は、検出範囲800を含む複数のパネル700を特定する(ステップS1501)。   As shown in FIG. 15, when the image acquisition process by the image acquisition unit 103 starts, first, the panel identification unit 301 of the image acquisition unit 103 identifies a plurality of panels 700 including the detection range 800 (step S1501). .

具体的には、パネル特定部301は、入力受付部101で受け付けられた検出範囲情報(検出範囲800の左上隅800aの緯度及び経度、並びに検出範囲800の右下隅800bの緯度及び経度)を、パネル座標PPに変換することにより、当該パネル座標PPで指定されるパネル700を特定する。   Specifically, the panel specifying unit 301 converts the detection range information (latitude and longitude of the upper left corner 800a of the detection range 800 and latitude and longitude of the lower right corner 800b of the detection range 800) received by the input reception unit 101 into: By converting to the panel coordinates PP, the panel 700 specified by the panel coordinates PP is specified.

緯度及び経度からパネル座標PPへの変換は、図17〜図19の変換式及び図13の変換式を用いて、次のようにおこなわれる。これらの変換式は、たとえば対象物検出装置100の外部メモリ211等に記憶されている。   The conversion from the latitude and longitude to the panel coordinates PP is performed as follows using the conversion formulas of FIGS. 17 to 19 and the conversion formula of FIG. These conversion equations are stored in, for example, the external memory 211 of the object detection device 100 or the like.

まず、パネル特定部301は、図17の変換式を用いて、左上隅800a及び右下隅800bのそれぞれの緯度及び経度を世界座標に変換する。   First, the panel specifying unit 301 converts the latitude and longitude of each of the upper left corner 800a and the lower right corner 800b into world coordinates using the conversion formula in FIG.

続いて、パネル特定部301は、変換した世界座標を、図18の変換式を用いて、ピクセル座標に変換する。ここで、図18の変換式におけるズームレベルzは、ステップS1402で受け付けたズームレベルである。   Subsequently, the panel specifying unit 301 converts the converted world coordinates into pixel coordinates using the conversion formula in FIG. Here, the zoom level z in the conversion formula in FIG. 18 is the zoom level received in step S1402.

続いて、パネル特定部301は、変換したピクセル座標を、図19の変換式を用いて、タイル座標TPに変換する。   Subsequently, the panel specifying unit 301 converts the converted pixel coordinates into the tile coordinates TP using the conversion formula in FIG.

続いて、パネル特定部301は、タイル座標TPを、図13の変換式を用いて、パネル座標PPに変換する。   Subsequently, the panel specifying unit 301 converts the tile coordinates TP into panel coordinates PP using the conversion formula in FIG.

以上の変換により、たとえば図8の例では、検出範囲800の左上隅800aの緯度及び経度が、パネル座標PP(0,0)に変換される。このパネル座標PP(0,0)は、検出範囲800を含むパネル700を特定するパネル座標PPの最小値である。また、検出範囲800の右下隅800bの緯度及び経度が、パネル座標PP(14,14)に変換される。このパネル座標PP(14,14)は、検出範囲800を含むパネル700を特定するパネル座標PPの最大値である。   By the above conversion, for example, in the example of FIG. 8, the latitude and longitude of the upper left corner 800a of the detection range 800 are converted into the panel coordinates PP (0,0). The panel coordinates PP (0,0) are the minimum values of the panel coordinates PP that specify the panel 700 including the detection range 800. In addition, the latitude and longitude of the lower right corner 800b of the detection range 800 are converted to panel coordinates PP (14, 14). The panel coordinates PP (14, 14) are the maximum values of the panel coordinates PP that specify the panel 700 including the detection range 800.

パネル特定部301は、最小値のパネル座標PP以上で、かつ、最大値のパネル座標PP以下の範囲の全てのパネル座標PPを算出する。図8の例では、当該パネル座標PPが、(0,0)、(7,0)、(14,0)、(0,7)、(7,7)、(14,7)、(0,14)、(7,14)、(14,14)と算出される。これにより、計9枚のパネル700が特定される。   The panel specifying unit 301 calculates all panel coordinates PP in a range equal to or larger than the minimum value panel coordinate PP and equal to or less than the maximum value panel coordinate PP. In the example of FIG. 8, the panel coordinates PP are (0, 0), (7, 0), (14, 0), (0, 7), (7, 7), (14, 7), (0 , 14), (7, 14), and (14, 14). Thus, a total of nine panels 700 are specified.

ステップS1501でパネル座標PPが算出されると、ステップS1502に移行する。ステップS1502では、画像取得部103のパネル対応画像取得部302が、ステップS1501で算出されたパネル座標PPに基づき、画像中心の緯度及び経度(航空画像400を取得するためのパラメータ)を算出する(ステップS1502)。   When the panel coordinates PP are calculated in step S1501, the process proceeds to step S1502. In step S1502, the panel corresponding image acquisition unit 302 of the image acquisition unit 103 calculates the latitude and longitude of the image center (parameters for acquiring the aerial image 400) based on the panel coordinates PP calculated in step S1501 ( Step S1502).

たとえば、図9に示されるように、パネル対応画像取得部302は、ステップS1501で算出されたパネル座標PP(7,7)から4枚の地図タイル501分右下に位置するタイル座標TP(11,11)で示される位置を、画像中心を示す画像中心位置901とする。すなわち、パネル座標PPに、航空画像400を構成する地図タイル501の枚数を1/2した数(ここでは、4)を加算した座標で示される位置を、画像中心位置901とする。   For example, as shown in FIG. 9, the panel-corresponding image acquisition unit 302 determines the tile coordinates TP (11) located at the lower right of four map tiles 501 from the panel coordinates PP (7,7) calculated in step S1501. , 11) is an image center position 901 indicating the center of the image. That is, a position indicated by coordinates obtained by adding the number of map tiles 501 constituting the aerial image 400 to 1 / (here, 4) to the panel coordinates PP is defined as an image center position 901.

パネル対応画像取得部302は、この画像中心位置901を示すタイル座標TP(11,11)を、図20〜図22に示される変換式を用いて緯度及び経度に変換する。この変換した結果を、画像中心の緯度及び経度とする。   The panel-corresponding image acquisition unit 302 converts the tile coordinates TP (11, 11) indicating the image center position 901 into latitude and longitude using the conversion formulas shown in FIGS. The result of this conversion is defined as the latitude and longitude of the center of the image.

続いて、パネル対応画像取得部302は、ステップS1501で特定された複数のパネル700それぞれに対応する複数の航空画像400を取得する(ステップS1503)。   Subsequently, the panel corresponding image acquisition unit 302 acquires a plurality of aerial images 400 corresponding to each of the plurality of panels 700 specified in step S1501 (step S1503).

具体的には、地図情報を配信可能な所定のWebサービスにおいて所定のパラメータを指定することにより、パネル700と一対一で航空画像400を取得する。ここで、指定する所定のパラメータは、ステップS1502で算出された画像中心の緯度及び経度、ステップS1402で受け付けたズームレベル、及び予め設定された画像サイズ(2048pixel×2048pixel)である。   Specifically, by specifying a predetermined parameter in a predetermined Web service capable of distributing map information, the aerial image 400 is acquired one-to-one with the panel 700. Here, the specified parameters are the latitude and longitude of the image center calculated in step S1502, the zoom level received in step S1402, and a preset image size (2048 pixels × 2048 pixels).

以上の処理によって、パネル700に対応付けて複数の航空画像400が取得され、画像取得部103による画像取得の処理が終了する。   Through the above processing, a plurality of aerial images 400 are acquired in association with the panel 700, and the image acquisition processing by the image acquisition unit 103 ends.

次に、図16を参照して、緯度経度変換部106による緯度経度の変換方法の処理の流れの詳細を説明する。図16は、図14のステップS1406の処理の詳細を示すフローチャートである。   Next, with reference to FIG. 16, details of the processing flow of the latitude / longitude conversion method by the latitude / longitude conversion unit 106 will be described. FIG. 16 is a flowchart showing details of the processing in step S1406 in FIG.

図16に示されるように、緯度経度変換部106による処理が開始すると、まず、緯度経度変換部106は、航空画像400の基準位置P2(図12参照)のピクセル座標を算出する(ステップS1601)。   As shown in FIG. 16, when the processing by the latitude / longitude conversion unit 106 starts, first, the latitude / longitude conversion unit 106 calculates the pixel coordinates of the reference position P2 (see FIG. 12) of the aerial image 400 (step S1601). .

具体的には、ステップS1404で図11のようなデータベースとして記録されたパネル座標PP(すなわち7で割り切れるタイル座標TP)を、図20の変換式を用いて変換することにより、基準位置P2のピクセル座標を算出する。すなわち、航空画像400を取得する際に対応させたパネル700のパネル座標PP(航空画像400に含まれる地図タイル501のうち左上隅に位置する地図タイル501を特定するタイル座標TP)に基づいて、変換処理をおこなう。   Specifically, by converting the panel coordinates PP (that is, the tile coordinates TP divisible by 7) recorded as a database as shown in FIG. 11 in step S1404 using the conversion formula in FIG. 20, the pixel at the reference position P2 is converted. Calculate the coordinates. That is, based on the panel coordinates PP of the panel 700 (the tile coordinates TP for specifying the map tile 501 located at the upper left corner among the map tiles 501 included in the aerial image 400) corresponding to the time of acquiring the aerial image 400, Performs conversion processing.

続いて、緯度経度変換部106は、物体領域1201を示す位置P0,P1(図12参照)のピクセル座標を算出する(ステップS1602)。   Subsequently, the latitude / longitude conversion unit 106 calculates the pixel coordinates of the positions P0 and P1 (see FIG. 12) indicating the object area 1201 (step S1602).

具体的には、ステップS1601で算出された基準位置P2のピクセル座標と、ステップS1405で算出された矩形情報(ベクトルV0,V1)とに基づき、物体領域1201を示す位置P0,P1のピクセル座標を算出する。   Specifically, based on the pixel coordinates of the reference position P2 calculated in step S1601 and the rectangular information (vectors V0 and V1) calculated in step S1405, the pixel coordinates of the positions P0 and P1 indicating the object region 1201 are calculated. calculate.

左上の位置P0のピクセル座標は、基準位置P2のピクセル座標に、基準位置P2から位置P0に向かうベクトルV0を加算することで算出される。また、右下の位置P1のピクセル座標は、基準位置P2のピクセル座標に、基準位置P2から位置P1に向かうベクトルV1を加算することで算出される。   The pixel coordinates of the upper left position P0 are calculated by adding the vector V0 from the reference position P2 to the position P0 to the pixel coordinates of the reference position P2. The pixel coordinates of the lower right position P1 are calculated by adding the vector V1 from the reference position P2 to the position P1 to the pixel coordinates of the reference position P2.

続いて、緯度経度変換部106は、ステップS1602で算出されたピクセル座標を、図21の変換式を用いて、世界座標に変換する(ステップS1603)。続いて、緯度経度変換部106は、ステップS1603で算出された世界座標を、図22の変換式を用いて、緯度及び経度に変換する(ステップS1604)。   Subsequently, the latitude / longitude conversion unit 106 converts the pixel coordinates calculated in step S1602 into world coordinates using the conversion formula in FIG. 21 (step S1603). Subsequently, the latitude / longitude conversion unit 106 converts the world coordinates calculated in step S1603 into latitude and longitude using the conversion formula in FIG. 22 (step S1604).

以上の処理によって、緯度経度変換部106による緯度及び経度への変換の処理が終了する。   With the above processing, the processing of conversion into latitude and longitude by the latitude / longitude conversion unit 106 ends.

前述した種々の処理は、対象物検出装置100のコンピュータを、上述した各機能部として機能させるためのプログラムとして実現されてもよい。   The various processes described above may be realized as a program for causing the computer of the object detection device 100 to function as each of the above-described functional units.

次に、本実施形態に係る対象物検出装置100の作用及び効果について、従来技術と比較して説明する。   Next, the operation and effect of the object detection device 100 according to the present embodiment will be described in comparison with the related art.

従来の航空画像を取得する方法では、たとえば地図情報を配信可能な所定のWebサービスを用いる場合、所定のパラメータ(画像中心の緯度及び経度、ズームレベル、及び画像サイズ)を指定して一の航空画像を取得していた。この場合、検出対象物を検出するのに適切な航空画像を複数取得することが難しかった。 In a conventional method for acquiring an aerial image, for example, when a predetermined Web service capable of distributing map information is used, one parameter is specified by specifying predetermined parameters (latitude and longitude of the center of the image, zoom level, and image size). Images had been obtained. In this case, it has been difficult to obtain a plurality of aerial images suitable for detecting the detection target.

たとえば、画像中心の緯度及び経度をユーザが適当に指定すると、複数の航空画像が隣接せずに隙間を有して取得されてしまう可能性があった。すなわち、当該隙間の部分については画像情報が取得できていないという、航空画像の取得漏れの問題が生じていた。その結果、当該隙間に存在する検出対象物が適切に検出できなかった。隙間なく隣接するような複数の航空画像を取得するためには、複数の航空画像のそれぞれについて指定するパラメータ(画像中心の緯度及び経度)をユーザが調整して設定する必要等があり、容易ではなかった。   For example, when the user appropriately specifies the latitude and longitude of the center of the image, there is a possibility that a plurality of aerial images are acquired with a gap without being adjacent to each other. In other words, there has been a problem of omission of aerial image acquisition, in which image information has not been acquired for the gap. As a result, the detection target existing in the gap could not be properly detected. In order to acquire a plurality of aerial images that are adjacent without a gap, it is necessary for the user to adjust and set parameters (latitude and longitude of the center of the image) specified for each of the aerial images. Did not.

また、仮に隙間を有することなく隣接して複数の航空画像を取得することができたとしても、たとえば隣接する二つの航空画像の間に跨って検出対象物が位置する場合には、一つの航空画像として見ると当該検出対象物が見切れてしまう。これにより、当該検出対象物が適切に検出できなかった。   Further, even if a plurality of aerial images can be obtained adjacently without a gap, for example, when the detection target is located across two adjacent aerial images, one aerial image is obtained. When the image is viewed as an image, the object to be detected is cut off. As a result, the detection target could not be properly detected.

検出対象物を適切に検出するために、一つの航空画像の中に検出対象物が含まれるような大きい航空画像を一つ取得できればよいが、Webサービス等で取得できる航空画像の画像サイズや高速で解析処理が可能な画像サイズには上限がある。このため、画像サイズの上限があるなかで、上限以下の画像サイズの航空画像を、検出対象物の検出漏れが抑制できるように、複数適切に取得することが求められる。   In order to appropriately detect the detection target, it is only necessary to acquire one large aerial image in which the detection target is included in one aerial image. There is an upper limit to the image size that can be analyzed by. For this reason, it is required to appropriately acquire a plurality of aerial images having an image size equal to or smaller than the upper limit such that omission of detection of an object to be detected can be suppressed.

これに対し、本実施形態に係る対象物検出装置、その制御方法及びプログラムによれば、航空画像400の画像サイズが所定の枚数の地図タイル501を含む大きさである場合に、所定の枚数に応じた枚数毎に地図タイル501をまとめて区分けする区画が、パネル700として管理される。そして、当該パネル700に対応させて、各航空画像400が取得される。よって、たとえば隙間なく並ぶように複数の航空画像400や重複部分1001を有するように隣り合う航空画像400を、パネル700に対応付けることで容易に取得することができる。その結果、航空画像に含まれる検出対象物の検出漏れを抑制することが可能となる。以上より、検出対象物の検出漏れを抑制するのに適切な複数の航空画像400を取得することができる。   On the other hand, according to the target object detection device, the control method, and the program according to the present embodiment, when the image size of the aerial image 400 is a size including the predetermined number of map tiles 501, the predetermined number is set. Sections that collectively divide the map tiles 501 for each corresponding number are managed as a panel 700. Then, each aerial image 400 is obtained in association with the panel 700. Therefore, for example, the aerial images 400 adjacent to each other so as to have a plurality of aerial images 400 so as to be arranged without a gap and the overlapping portion 1001 can be easily acquired by associating them with the panel 700. As a result, it is possible to suppress detection omission of the detection target object included in the aerial image. As described above, it is possible to acquire a plurality of aerial images 400 that are appropriate for suppressing omission of detection of a detection target.

ここで、図23は、重複させずに取得した航空画像400を示す図である。図23に示されるように、重複させずに航空画像400を取得した場合に、たとえば隣り合う二つの航空画像400の間にちょうど跨って検出対象物M(ひし形の物体)が位置していると、当該検出対象物Mは各航空画像400から見切れてしまう。このため、検出対象物Mを適切に検出できなくなる可能性があった。   Here, FIG. 23 is a diagram showing an aerial image 400 acquired without overlapping. As shown in FIG. 23, when the aerial image 400 is acquired without overlapping, for example, the detection target M (a diamond-shaped object) is located just over two adjacent aerial images 400. However, the detection target object M can be missed from each aerial image 400. For this reason, there was a possibility that the detection target M could not be properly detected.

これに対し、本実施形態では、航空画像400が8×8枚の地図タイル501を含む大きさである場合に、8×8枚よりも少ない7×7枚に対応させて、航空画像400が取得される。その結果、重複部分1001を有する複数の航空画像400を容易に取得することができる。   On the other hand, in the present embodiment, when the aerial image 400 has a size including 8 × 8 map tiles 501, the aerial image 400 corresponds to 7 × 7 images smaller than 8 × 8 images. Is obtained. As a result, a plurality of aerial images 400 having the overlapping portion 1001 can be easily acquired.

図24は、重複部分1001を有する複数の航空画像400を示す図である。図24に示されるように、重複部分1001を有するように航空画像400を取得することにより、図23の場合には隣り合う二つの航空画像400の間に跨って位置していた検出対象物Mが、重複部分1001に位置することとなる。よって、検出対象物Mが各航空画像400に収まり、検出対象物Mの検出漏れを抑制することができる。   FIG. 24 is a diagram showing a plurality of aerial images 400 having an overlapping portion 1001. As shown in FIG. 24, by acquiring the aerial image 400 so as to have the overlapping portion 1001, the detection target M positioned between two adjacent aerial images 400 in FIG. Are located in the overlapping portion 1001. Therefore, the detection target M is included in each aerial image 400, and the detection omission of the detection target M can be suppressed.

また、本実施形態によれば、入力受付部101に検出範囲情報及びズームレベルをユーザが入力することで、その検出範囲情報に基づき、各航空画像400に対応させる複数のパネル700が特定される。そして、当該パネル700に対応させて、複数の航空画像400が取得される。よって、従来のように、画像取得の度に画像中心の緯度及び経度等の所定のパラメータを入力する必要がなく、かつ、適切な画像取得のためにパラメータをユーザが調整する必要もない。本実施形態によれば、検出範囲情報とズームレベルを入力するだけで、各航空画像400の取得に必要な複数のパネル700を特定し、パネル700に対応させて、検出対象物の検出漏れを抑制するのに適切な複数の航空画像400を一度に取得することができる。   According to the present embodiment, when the user inputs the detection range information and the zoom level to the input reception unit 101, a plurality of panels 700 corresponding to each aerial image 400 are specified based on the detection range information. . Then, a plurality of aerial images 400 are acquired corresponding to the panel 700. Therefore, unlike the related art, there is no need to input predetermined parameters such as the latitude and longitude of the center of the image each time the image is acquired, and it is not necessary for the user to adjust the parameters for appropriate image acquisition. According to the present embodiment, a plurality of panels 700 necessary for acquiring each aerial image 400 are specified only by inputting the detection range information and the zoom level, and the omission of detection of the detection target is detected in correspondence with the panels 700. A plurality of aerial images 400 suitable for suppression can be acquired at a time.

また、本実施形態によれば、重複部分1001において検出された検出対象物の同一性を判定する。そして、同じ検出対象物が重複して検出されたと判定された場合には、検出された検出対象物のうち何れか一の検出対象物が、検出すべき検出対象物として特定され、検出対象物の重複検出を排除することができる。よって、検出漏れの抑制と重複検出の抑制とを両立させ、検出対象物を適切に検出することができる。   According to the present embodiment, the identity of the detection target detected in the overlapping portion 1001 is determined. When it is determined that the same detection target is detected in duplicate, any one of the detected detection targets is identified as a detection target to be detected, and the detection target is detected. Can be eliminated. Therefore, both the suppression of detection omission and the suppression of duplicate detection can be achieved, and the detection target can be appropriately detected.

ここで、検出対象物が検出された結果として出力される検出対象物の領域を示す矩形情報(ベクトルV0,V1)は、各航空画像400での位置を示す画像内座標であるため、矩形情報(ベクトルV0,V1)自体を比較しても検出対象物の位置を比較することは難しい。これに対し、本実施形態によれば、各検出対象物の領域を示す矩形情報(ベクトルV0,V1)が、各検出対象物の地球上の位置を示す緯度及び経度に変換されるので、当該緯度及び経度によって、各検出対象物の位置を比較することができる。   Here, the rectangle information (vector V0, V1) indicating the area of the detection target that is output as a result of detection of the detection target is the coordinates in the image indicating the position in each aerial image 400, and therefore the rectangular information Even if the (vectors V0, V1) themselves are compared, it is difficult to compare the position of the detection target. On the other hand, according to the present embodiment, the rectangular information (vectors V0 and V1) indicating the area of each detection target is converted into latitude and longitude indicating the position on the earth of each detection target. The position of each detection object can be compared based on the latitude and longitude.

さらに、本実施形態では、各検出対象物の領域を示す矩形情報(ベクトルV0,V1)が緯度及び経度に変換された結果に基づき、重複部分1001において検出された検出対象物の同一性を判定する。よって、検出対象物の同一性の判定をより正確におこなうことができる。   Further, in the present embodiment, the identity of the detection target detected in the overlapping portion 1001 is determined based on the result of converting the rectangular information (vectors V0 and V1) indicating the area of each detection target into latitude and longitude. I do. Therefore, it is possible to more accurately determine the identity of the detection target.

また、本実施形態によれば、従来の画像内座標を緯度及び経度に変換する方法よりも、容易に画像内座標を緯度及び経度に変換することができる。   Further, according to the present embodiment, it is possible to convert the coordinates in the image into the latitude and the longitude more easily than in the conventional method of converting the coordinates in the image into the latitude and the longitude.

図25は、従来の画像内座標を緯度及び経度に変換する方法を説明するための概念図である。図26は、従来の画像内座標を緯度及び経度に変換する処理の流れを示すフローチャートである。図25及び図26に示されるように、従来は、画像中心Paの緯度及び経度を基準として、画像内座標を緯度及び経度に変換する。   FIG. 25 is a conceptual diagram for explaining a conventional method for converting coordinates in an image into latitude and longitude. FIG. 26 is a flowchart showing the flow of a conventional process for converting coordinates in an image into latitude and longitude. As shown in FIGS. 25 and 26, conventionally, coordinates in an image are converted into latitude and longitude based on the latitude and longitude of the image center Pa.

具体的には、まず、画像中心Paの緯度及び経度を、図17の変換式によって世界座標に変換する(ステップS2601)。続いて、世界座標を、図18の変換式によって、ピクセル座標に変換する(ステップS2602)。   Specifically, first, the latitude and longitude of the image center Pa are converted into world coordinates by the conversion formula of FIG. 17 (step S2601). Subsequently, the world coordinates are converted into pixel coordinates by the conversion formula in FIG. 18 (step S2602).

続いて、検出対象物の領域を示す矩形情報(ベクトルV0,V1)を、画像中心Paから検出対象物に向かうベクトルV2,V3を算出する(ステップS2603)。続いて、ステップS2601、2602により算出された画像中心Paのピクセル座標と、ステップS2603で算出されたベクトルV2,V3とに基づき、物体領域1201を示す位置P0,P1のピクセル座標を算出する(ステップ2604)。   Subsequently, rectangular information (vectors V0 and V1) indicating the area of the detection target is calculated as vectors V2 and V3 from the image center Pa to the detection target (step S2603). Subsequently, based on the pixel coordinates of the image center Pa calculated in steps S2601 and S602 and the vectors V2 and V3 calculated in step S2603, the pixel coordinates of the positions P0 and P1 indicating the object area 1201 are calculated (step S2601). 2604).

続いて、ステップS2604で算出されたピクセル座標を、図21の変換式を用いて、世界座標に変換する(ステップS2605)。続いて、ステップS2605で算出された世界座標を、図22の変換式を用いて、緯度及び経度に変換する(ステップS2606)。   Subsequently, the pixel coordinates calculated in step S2604 are converted into world coordinates using the conversion formula in FIG. 21 (step S2605). Subsequently, the world coordinates calculated in step S2605 are converted into latitude and longitude using the conversion formula in FIG. 22 (step S2606).

以上のように、従来の緯度及び経度の変換方法では、画像中心Paの緯度及び経度に基づいて、変換処理をおこなうので、ステップS2601、ステップS2602で示されるように、画像中心Paの緯度及び経度を、まず世界座標に変換してから、ピクセル座標に変換するという手間が生じる。また、ステップS2603、ステップS2604で示されるように、物体領域1201を示す位置P0,P1のピクセル座標を算出する際には、基準位置P2から位置P0,P1に向かうベクトルV0,V1を、画像中心Paから検出対象物に向かうベクトルV2,V3に変換する手間が生じる。   As described above, in the conventional method of converting latitude and longitude, since the conversion process is performed based on the latitude and longitude of the image center Pa, the latitude and longitude of the image center Pa are determined as shown in steps S2601 and S2602. Is first converted to world coordinates and then to pixel coordinates. Further, as shown in steps S2603 and S2604, when calculating the pixel coordinates of the positions P0 and P1 indicating the object region 1201, the vectors V0 and V1 from the reference position P2 to the positions P0 and P1 are calculated based on the image center. It takes time to convert from Pa to vectors V2 and V3 directed to the detection target.

これに対し、本実施形態における画像内座標を緯度及び経度に変換する方法では、図16のフローチャートで示されるように、画像中心Paではなく基準位置P2のパネル座標PP(タイル座標TP)に基づいて、変換処理がおこなわれる。よって、基準位置P2を示すパネル座標PP(タイル座標TP)を、変換式20によってピクセル座標に変換するだけで済む。さらに、物体領域1201を示す位置P0,P1のピクセル座標を算出する際には、基準位置P2から位置P0,P1に向かうベクトルV0,V1をベクトルV2,V3に変換することなくそのまま用いて、ピクセル座標を算出することができる。以上より、変換処理を容易にすることができる。   On the other hand, in the method of converting coordinates in an image into latitude and longitude according to the present embodiment, as shown in the flowchart of FIG. 16, based on panel coordinates PP (tile coordinates TP) of reference position P2 instead of image center Pa. Then, a conversion process is performed. Therefore, it is only necessary to convert the panel coordinates PP (tile coordinates TP) indicating the reference position P2 into pixel coordinates by the conversion formula 20. Further, when calculating the pixel coordinates of the positions P0 and P1 indicating the object area 1201, the vectors V0 and V1 from the reference position P2 to the positions P0 and P1 are used without being converted into the vectors V2 and V3. The coordinates can be calculated. As described above, the conversion process can be facilitated.

以上、本実施形態の一実施形態について説明したが、本発明は上記実施形態に限られず、その要旨を逸脱しない範囲で様々な変更が可能である。   As described above, one embodiment of the present embodiment has been described. However, the present invention is not limited to the above embodiment, and various changes can be made without departing from the gist of the present invention.

上記実施形態では、画像取得部103で取得された航空画像400が画像管理部104で記録される例について説明したが、これに限られない。画像取得部103は、取得した航空画像400を対象物検出部105にそのまま出力してもよい。対象物検出部105は、画像管理部104で記録されることなく出力された航空画像400において検出対象物の検出をおこなってもよい。   In the above embodiment, the example in which the aerial image 400 acquired by the image acquisition unit 103 is recorded by the image management unit 104 has been described, but the present invention is not limited to this. The image acquisition unit 103 may directly output the acquired aerial image 400 to the object detection unit 105. The target detection unit 105 may detect a detection target in the aerial image 400 output without being recorded by the image management unit 104.

画像取得部103が取得する航空画像400の画像サイズは、2048pixel×2048pixelに限られず、地図タイル501を整数枚含むサイズであれば何でもよい。また、画像サイズは、予め設定されていなくてもよく、たとえばユーザの入力によって入力受付部101で受け付けられてもよい。   The image size of the aerial image 400 acquired by the image acquisition unit 103 is not limited to 2048 pixels × 2048 pixels and may be any size including an integer number of map tiles 501. Further, the image size may not be set in advance, and may be received by the input receiving unit 101 by, for example, a user input.

また、パネル700がまとめて区分けする地図タイル501の枚数は、入力受付部101で受け付けられた画像サイズやズームレベルに応じて、パネル管理部102によって設定及び管理されてもよい。この場合、入力受付部101で画像サイズやズームレベルが受け付けられたことに応じて、パネル管理部102によって一つのパネル700がまとめて区分けする地図タイル501の枚数を自動的に決定することができる。   Further, the number of map tiles 501 that are collectively classified by panel 700 may be set and managed by panel management unit 102 according to the image size and zoom level received by input reception unit 101. In this case, in response to the image size and zoom level being received by the input receiving unit 101, the number of map tiles 501 that one panel 700 classifies can be automatically determined by the panel management unit 102. .

上記実施形態では、パネル700のパネル座標PPに基づき算出された画像中心の緯度及び経度を、パラメータとして指定して航空画像400を取得する例について説明したが、これに限られない。パネル700に対応させて航空画像400を取得する方法であれば何れの手法であってもよく、たとえばパネル座標PPそのものをパラメータとして指定して航空画像400を取得してもよい。   In the above embodiment, an example has been described in which the latitude and longitude of the image center calculated based on the panel coordinates PP of the panel 700 are designated as parameters to acquire the aerial image 400, but the present invention is not limited to this. Any method may be used as long as it acquires the aerial image 400 corresponding to the panel 700. For example, the aerial image 400 may be acquired by designating the panel coordinates PP itself as a parameter.

上記実施形態では、画像取得部103が、1枚の地図タイル501分の重複部分1001を有する複数の航空画像400を取得する例について説明したが、これに限られない。重複部分1001の幅は、1枚の地図タイル501の幅よりも大きくてもよいし、小さくてもよい。所定の幅の重複部分1001を有するように、パネル700がまとめて区分けする地図タイル501の数を適宜調整して設定してもよい。   In the above-described embodiment, an example has been described in which the image acquisition unit 103 acquires a plurality of aerial images 400 having the overlapping portion 1001 of one map tile 501, but the invention is not limited thereto. The width of the overlapping portion 1001 may be larger or smaller than the width of one map tile 501. The number of map tiles 501 that panel 700 collectively divides may be appropriately adjusted and set so as to have overlapping portion 1001 of a predetermined width.

また、重複部分1001を有していなくてもよく、画像取得部103は、隣接して並ぶ複数の航空画像400を取得してもよい。   Further, the image acquisition unit 103 may not have the overlapping portion 1001 and may acquire a plurality of aerial images 400 arranged adjacent to each other.

図13や図17〜図22の変換式で示される対応関係は、図示する変換式の形態に限らず、別の変換式の形態やデータベース等として記憶されていてもよい。   The correspondence shown by the conversion formulas in FIG. 13 and FIGS. 17 to 22 is not limited to the format of the conversion formula shown, and may be stored as another conversion formula format, a database, or the like.

画像取得部103が航空画像400を取得する方法は、上記実施形態で述べたような地図情報を配信可能な所定のWebサービスを用いた方法に限らない。航空画像400が記憶された内部又は外部の記憶装置から航空画像400を取得してもよく、航空画像400を直接パネル700に対応させて撮影することによって取得してもよい。   The method by which the image acquiring unit 103 acquires the aerial image 400 is not limited to the method using a predetermined Web service capable of distributing map information as described in the above embodiment. The aerial image 400 may be acquired from an internal or external storage device in which the aerial image 400 is stored, or may be acquired by directly capturing the aerial image 400 in correspondence with the panel 700.

重複判定部107による重複検出の有無の判定は、上記実施形態に記載の方法に限られない。たとえば、対象物検出部105によって検出対象物の形状を検出し、その検出した形状に基づき、重複検出の有無をおこなってもよい。この場合には、対象物検出装置100は、緯度経度変換部106を必ずしも備えていなくてもよい。   The determination of the presence or absence of duplicate detection by the duplicate determination unit 107 is not limited to the method described in the above embodiment. For example, the shape of the detection target may be detected by the target detection unit 105, and presence or absence of duplicate detection may be determined based on the detected shape. In this case, the object detection device 100 may not necessarily include the latitude / longitude conversion unit 106.

上記実施形態では、航空画像400に含まれる地図タイル501のうち左上隅に位置する地図タイル501を特定するタイル座標TP)に基づいて、画像内座標を緯度及び経度に変換する処理をおこなう例について説明したが、これに限られない。たとえば、航空画像400に含まれる地図タイル501のうち四隅の何れかに位置する地図タイル501を特定するタイル座標TPに基づいて、変換処理をおこなってもよい。また、画像内座標を緯度及び経度に変換する方法は、図16のフローチャートで示される処理に限られず、たとえば図26のフローチャートで示される処理であってもよい。   In the above-described embodiment, an example is described in which a process of converting coordinates in an image into latitude and longitude is performed based on the tile coordinates TP specifying the map tile 501 located at the upper left corner among the map tiles 501 included in the aerial image 400. Although described, it is not limited to this. For example, the conversion processing may be performed based on the tile coordinates TP specifying the map tile 501 located at any of the four corners among the map tiles 501 included in the aerial image 400. Further, the method of converting the coordinates in the image into the latitude and longitude is not limited to the processing shown in the flowchart of FIG. 16, and may be, for example, the processing shown in the flowchart of FIG.

本発明は、たとえば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   For example, the present invention can be embodied as a system, an apparatus, a method, a program, a storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices. You may apply to the apparatus which consists of three apparatuses.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   Note that the present invention includes a program that directly or remotely supplies a software program that realizes the functions of the above-described embodiments to a system or an apparatus. The present invention includes a case where the present invention is also achieved by reading and executing a supplied program code by a computer of the system or the apparatus.

したがって、本発明の機能処理をコンピュータで実現(実行可能と)するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Therefore, the program code itself installed in the computer in order to realize (executable) the functional processing of the present invention by the computer also realizes the present invention. That is, the present invention includes the computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、又はOSに供給するスクリプトデータなどの形態であってもよい。   In that case, as long as it has the function of the program, it may be in the form of object code, a program executed by the interpreter, or script data supplied to the OS.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、又はCD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、又はDVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, a hard disk, an optical disk, a magneto-optical disk, an MO, a CD-ROM, a CD-R, and a CD-RW. Further, there are a magnetic tape, a nonvolatile memory card, a ROM, and a DVD (DVD-ROM, DVD-R).

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスクなどの記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a client computer is connected to a homepage on the Internet using a browser. The computer program of the present invention or the compressed file including the automatic installation function can be supplied from the home page by downloading the file to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   Also, the present invention can be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. In other words, the present invention also includes a WWW server that allows a plurality of users to download a program file for implementing the functional processing of the present invention on a computer.

また、本発明のプログラムを暗号化してCD−ROMなどの記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   Further, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and downloaded to a user who satisfies predetermined conditions from a homepage via the Internet to download key information for decryption. Let it. It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer to realize the program.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   The functions of the above-described embodiments are implemented when the computer executes the read program. In addition, the OS or the like running on the computer performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on instructions of the program, a CPU or the like provided in the function expansion board or the function expansion unit performs part or all of actual processing, and the functions of the above-described embodiments are also realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   It should be noted that the above-described embodiment is merely an example of the embodiment for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features.

100 対象物検出装置(情報処理装置)
101 入力受付部(入力受付手段)
102 パネル管理部(パネル管理手段)
103 画像取得部(画像取得手段)
105 対象物検出部(対象物検出手段)
106 緯度経度変換部(緯度経度変換手段)
107 重複判定部(重複判定手段)
108 検出対象物特定部(検出対象物特定手段)
301 パネル特定部(パネル特定手段)
302 パネル対応画像取得部(パネル対応画像取得手段)
501 地図タイル
700 パネル
1001 重複部分
100 Object detection device (information processing device)
101 input receiving unit (input receiving means)
102 Panel management unit (panel management means)
103 Image acquisition unit (image acquisition means)
105 Object detection unit (object detection means)
106 Latitude / Longitude Conversion Unit (Latitude / Longitude Conversion Means)
107 Duplication judgment unit (duplication judgment means)
108 Detection target specifying unit (detection target specifying unit)
301 Panel identification part (panel identification means)
302 Panel-compatible image acquisition unit (panel-compatible image acquisition means)
501 Map tile 700 Panel 1001 Overlapping part

Claims (7)

地図の画像を分割して示す地図タイルを所定の枚数含む画像サイズの航空画像に含まれる検出対象物を検出し、前記検出対象物の前記航空画像での位置を示す画像内座標を出力する対象物検出手段と、
前記対象物検出手段により出力された前記画像内座標を、前記地図タイルを特定するタイル座標に基づき、前記検出対象物の地球上の位置を示す緯度及び経度に変換する緯度経度変換手段と、を備える、情報処理装置。
A target for detecting a detection target included in an aerial image of an image size including a predetermined number of map tiles that are obtained by dividing a map image and outputting coordinates in the image indicating a position of the detection target in the aerial image Object detection means;
Latitude-longitude conversion means for converting the coordinates in the image output by the object detection means into latitude and longitude indicating the position of the detection object on the earth based on the tile coordinates specifying the map tile; An information processing device.
前記画像内座標は、前記航空画像の四隅のうち一隅を原点とした前記検出対象物の位置を示す座標であって、
前記緯度経度変換手段は、前記原点に対応する前記タイル座標に基づき、前記緯度及び前記経度に変換する、請求項1に記載の情報処理装置。
The coordinates in the image are coordinates indicating the position of the detection target with one of the four corners of the aerial image as the origin,
The information processing apparatus according to claim 1, wherein the latitude / longitude conversion unit converts the coordinates into the latitude and the longitude based on the tile coordinates corresponding to the origin.
前記緯度経度変換手段により変換された前記緯度及び前記経度に基づき、前記対象物検出手段によって同じ前記検出対象物が重複して検出されたか否かを判定する重複判定手段を備える、請求項1又は2に記載の情報処理装置。   2. The apparatus according to claim 1, further comprising: an overlap determination unit configured to determine whether the same detection target is redundantly detected by the target detection unit based on the latitude and the longitude converted by the latitude and longitude conversion unit. 3. The information processing device according to 2. 前記重複判定手段により前記検出対象物が重複して検出されたと判定された場合に、重複して検出された前記検出対象物のうち何れか一の前記検出対象物を、検出すべき検出対象物として特定する検出対象物特定手段、を備える、請求項3に記載の情報処理装置。   When it is determined by the duplication determination means that the detection target has been detected in duplicate, any one of the detection targets detected in duplicate is the detection target to be detected. The information processing apparatus according to claim 3, further comprising: a detection target specifying unit configured to specify as a detection target. 前記地図タイルに合わせて、所定の枚数の前記地図タイルを含む画像サイズの前記航空画像を複数取得する画像取得手段と、
前記地図タイルを前記所定の枚数に応じた枚数毎にまとめて区分けする区画をパネルとして管理するパネル管理手段と、を備え、
前記画像取得手段は、前記パネル管理手段により管理された前記パネルに対応させて、各前記航空画像を取得し、
前記緯度経度変換手段は、前記画像取得手段により前記航空画像を取得するのに対応させた前記パネルを特定するパネル座標に基づき、前記画像内座標を前記緯度及び前記経度に変換する、請求項1〜4の何れか一項に記載の情報処理装置。
Image acquisition means for acquiring a plurality of the aerial images having an image size including a predetermined number of the map tiles in accordance with the map tiles,
Panel management means for managing a section that collectively divides the map tiles into a number corresponding to the predetermined number as a panel,
The image acquisition unit acquires each of the aerial images in association with the panel managed by the panel management unit,
2. The latitude-longitude conversion unit converts the coordinates in the image into the latitude and the longitude based on panel coordinates specifying the panel corresponding to the acquisition of the aerial image by the image acquisition unit. 3. The information processing device according to any one of claims 4 to 4.
地図の画像を分割して示す地図タイルを所定の枚数含む画像サイズの航空画像に含まれる検出対象物を検出し、前記検出対象物の前記航空画像での位置を示す画像内座標を出力する対象物検出ステップと、
前記対象物検出ステップにおいて出力された前記画像内座標を、前記地図タイルを特定するタイル座標に基づき、前記検出対象物の地球上の位置を示す緯度及び経度に変換する緯度経度変換ステップと、を含む、情報処理装置の制御方法。
A target for detecting a detection target included in an aerial image of an image size including a predetermined number of map tiles that are obtained by dividing a map image and outputting coordinates in the image indicating a position of the detection target in the aerial image An object detection step;
A latitude-longitude conversion step of converting the coordinates in the image output in the object detection step into latitude and longitude indicating a position on the earth of the detection object based on tile coordinates specifying the map tile; And a control method of the information processing apparatus.
情報処理装置を、
地球全体の地図の画像を分割して示す地図タイルを所定の枚数含む画像サイズの航空画像に含まれる検出対象物を検出し、前記検出対象物の前記航空画像での位置を示す画像内座標を出力する対象物検出手段と、
前記対象物検出手段により出力された前記画像内座標を、前記地図タイルを特定するタイル座標に基づき、前記検出対象物の地球上の位置を示す緯度及び経度に変換する緯度経度変換手段として機能させるためのプログラム。
Information processing device,
Detects a detection target included in an aerial image of an image size including a predetermined number of map tiles that divide the image of the map of the entire earth and displays coordinates in the image indicating the position of the detection target in the aerial image. Object detection means for outputting;
The coordinates in the image output by the object detection means are made to function as latitude / longitude conversion means for converting the coordinates of the detection object into the latitude and longitude indicating the position on the earth based on the tile coordinates specifying the map tile. Program for.
JP2018139201A 2018-07-25 2018-07-25 Information processing apparatus, method for controlling the same, and program Pending JP2020017048A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018139201A JP2020017048A (en) 2018-07-25 2018-07-25 Information processing apparatus, method for controlling the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018139201A JP2020017048A (en) 2018-07-25 2018-07-25 Information processing apparatus, method for controlling the same, and program

Publications (1)

Publication Number Publication Date
JP2020017048A true JP2020017048A (en) 2020-01-30

Family

ID=69581504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018139201A Pending JP2020017048A (en) 2018-07-25 2018-07-25 Information processing apparatus, method for controlling the same, and program

Country Status (1)

Country Link
JP (1) JP2020017048A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914046A (en) * 2020-07-14 2020-11-10 北京世纪国源科技股份有限公司 Generation method and device of target seating chart and computer equipment
CN115334247A (en) * 2022-10-11 2022-11-11 齐鲁空天信息研究院 Camera module calibration method, visual positioning method and device and electronic equipment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914046A (en) * 2020-07-14 2020-11-10 北京世纪国源科技股份有限公司 Generation method and device of target seating chart and computer equipment
CN111914046B (en) * 2020-07-14 2023-02-03 北京世纪国源科技股份有限公司 Generation method and device of target seating chart and computer equipment
CN115334247A (en) * 2022-10-11 2022-11-11 齐鲁空天信息研究院 Camera module calibration method, visual positioning method and device and electronic equipment

Similar Documents

Publication Publication Date Title
US9760987B2 (en) Guiding method and information processing apparatus
CN103037186B (en) Projecting apparatus control device and projecting apparatus control method
CN107306349B (en) Method and device for three-dimensionally displaying monitoring video
CN103686065A (en) Cloud mirror cluster control method and device of monitoring equipment based on GIS (geographic information system) interoperability
CN105516656A (en) Article real condition viewing method and system
JP2020017048A (en) Information processing apparatus, method for controlling the same, and program
CN111309203A (en) Method and device for acquiring positioning information of mouse cursor
CN114140592A (en) High-precision map generation method, device, equipment, medium and automatic driving vehicle
JP2005195939A (en) Projector projection control system and method
JP2020017049A (en) Information processing apparatus, method for controlling the same, and program
JP2020017047A (en) Information processing apparatus, method for controlling the same, and program
JP2005332177A (en) Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program
US20230215146A1 (en) Method and apparatus for generating and providing data video for generating training data of artificial intelligence model and recording medium on which program for the same is recorded
CN113450414A (en) Camera calibration method, device, system and storage medium
EP4071726A1 (en) Information processing system, position management method, information processing apparatus, and carrier medium
JP2014236336A (en) Information sharing system, image sharing device, terminal device, program, and information sharing method
US11922659B2 (en) Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium
WO2021250850A1 (en) Training apparatus, control method, and non-transitory computer-readable storage medium
CN111355922B (en) Camera deployment and scheduling method, monitoring system and non-transitory computer readable medium
KR101935969B1 (en) Method and apparatus for detection of failure of object tracking and retracking based on histogram
JP2017058657A (en) Information processing device, control method, computer program and storage medium
KR102534829B1 (en) An apparatus and method for displaying information about an object on the ground in an image taken using a drone, and a program for the same
CN111597288B (en) Three-dimensional geographic information visualization method and system based on video fusion
CN112862976B (en) Data processing method and device and electronic equipment
CN113168706A (en) Object position determination in frames of a video stream

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190115