JP2021043544A - Information processing apparatus, information processing system, information processing method, and information processing program - Google Patents

Information processing apparatus, information processing system, information processing method, and information processing program Download PDF

Info

Publication number
JP2021043544A
JP2021043544A JP2019163258A JP2019163258A JP2021043544A JP 2021043544 A JP2021043544 A JP 2021043544A JP 2019163258 A JP2019163258 A JP 2019163258A JP 2019163258 A JP2019163258 A JP 2019163258A JP 2021043544 A JP2021043544 A JP 2021043544A
Authority
JP
Japan
Prior art keywords
image data
unit
image
address information
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019163258A
Other languages
Japanese (ja)
Other versions
JP7363226B2 (en
Inventor
浩一 高野
Koichi Takano
浩一 高野
朋之 田附
Tomoyuki Tatsuki
朋之 田附
高野 隆一
Ryuichi Takano
隆一 高野
拓人 吉田
Takuto Yoshida
拓人 吉田
里奈 高橋
Rina Takahashi
里奈 高橋
渡辺 潔
Kiyoshi Watanabe
潔 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019163258A priority Critical patent/JP7363226B2/en
Publication of JP2021043544A publication Critical patent/JP2021043544A/en
Application granted granted Critical
Publication of JP7363226B2 publication Critical patent/JP7363226B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To identify a location where an object to be searched is installed.SOLUTION: An information processing apparatus includes: an image acquisition unit which acquires image data clipped based on a parameter set in accordance with an object to be searched, from image data captured in a spot based on address information; and a search request unit which inputs information generated by associating the clipped image data with the address information to a learning unit which performs image search on the object to be searched, and requests the learning unit to search for the object to be searched.SELECTED DRAWING: Figure 11

Description

本発明は、情報処理装置、情報処理システム、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing system, an information processing method and an information processing program.

従来から、店舗や会社等は、その存在を知らせるために袖看板を設置することが多い。袖看板とは、建築物の壁面や支柱を利用して建物の側面に垂直に突き出る形で設置する看板である。 Traditionally, stores and companies often install sleeve signs to inform them of their existence. A sleeve signboard is a signboard that is installed vertically on the side of a building by using the wall surface or pillars of the building.

ところで、袖看板は、店舗や会社等の閉店や移転等に伴い撤去される場合や、店名や社名の変更等に伴い交換が必要となる場合がある。これらの場合には、撤去対象の袖看板や、交換対象の袖看板が設置された場所を特定する必要がある。 By the way, the sleeve signboard may be removed due to the closing or relocation of a store or company, or may need to be replaced due to a change in the store name or company name. In these cases, it is necessary to identify the place where the sleeve sign to be removed or the sleeve sign to be replaced is installed.

これに関連して、従来では、場所情報を含むインターネット上の画像に、施設を示す任意の識別マーク(看板等)があるか否か判定する技術が知られている。また、場所情報を含むインターネット上の画像を用いる技術として、道路沿いの風景を撮像した全天球画像を提供するサービスが知られている。 In connection with this, conventionally, a technique for determining whether or not an image on the Internet including location information has an arbitrary identification mark (signboard or the like) indicating a facility has been known. Further, as a technique of using an image on the Internet including location information, a service that provides a spherical image of a landscape along a road is known.

上述した従来の技術を用いて、袖看板の場所を特定しようとした場合、袖看板は一般的に建物の側面に掲げられているため、水平面の画像では、看板全体が画像に映らない可能性がある。また、全天球画像は歪みが大きいため、画像検索に適さない。 When trying to locate the sleeve sign using the conventional technique described above, the sleeve sign is generally hung on the side of the building, so the entire sign may not appear in the horizontal image. There is. Moreover, since the spherical image has a large distortion, it is not suitable for image search.

このため、上述した従来の技術では、インターネット上等で提供される画像を用いて、検索対象物である袖看板が設置されている場所を特定することが困難であった。 Therefore, in the above-mentioned conventional technique, it is difficult to identify the place where the sleeve signboard, which is the search target, is installed by using the image provided on the Internet or the like.

開示の技術は、検索対象物が設置されている場所を特定することを目的とする。 The disclosed technology aims to identify where the search object is located.

開示の技術は、住所情報に基づく地点で撮像された画像データから、検索対象物に応じて設定されたパラメータに基づき切り出した画像データを取得する画像取得部と、前記切り出した画像データと前記住所情報とを対応付けた情報を、前記検索対象物の画像検索を行う学習部へ入力し、前記学習部に対して前記検索対象物の検索を要求する検索要求部と、を有する情報処理装置である。 The disclosed technology includes an image acquisition unit that acquires image data cut out based on parameters set according to a search target from image data captured at a point based on address information, and the cut out image data and the address. An information processing device having a search request unit that inputs information associated with information to a learning unit that performs an image search for the search target object and requests the learning unit to search for the search target object. is there.

検索対象物が設置されている場所を特定することができる。 It is possible to identify the place where the search target is installed.

第一の実施形態の情報処理システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system structure of the information processing system of 1st Embodiment. 第一の実施形態の情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware configuration of the information processing apparatus of 1st Embodiment. 住所情報記憶部の一例を示す図である。It is a figure which shows an example of the address information storage part. パラメータ記憶部の一例を示す図である。It is a figure which shows an example of a parameter storage part. 画像ファイル記憶部の一例を示す図である。It is a figure which shows an example of the image file storage part. 第一の実施形態の情報処理装置の機能を説明する図である。It is a figure explaining the function of the information processing apparatus of 1st Embodiment. 第一の実施形態の情報処理装置の処理を説明する第一のフローチャートである。It is a 1st flowchart explaining the process of the information processing apparatus of 1st Embodiment. 第一の実施形態の情報処理装置の処理を説明する第二のフローチャートである。It is the 2nd flowchart explaining the process of the information processing apparatus of 1st Embodiment. 画像処理部によって生成される平面画像データを説明する図である。It is a figure explaining the plane image data generated by an image processing unit. 第一の実施形態の情報処理装置の処理を説明する第三のフローチャートである。It is a 3rd flowchart explaining the process of the information processing apparatus of 1st Embodiment. 出力部による出力例を示す図である。It is a figure which shows the output example by an output part. 第二の実施形態の情報処理装置の機能構成を説明する図である。It is a figure explaining the functional structure of the information processing apparatus of the 2nd Embodiment. 第二の実施形態の情報処理装置の処理を説明するフローチャートである。It is a flowchart explaining the process of the information processing apparatus of the 2nd Embodiment. 第二の実施形態における位置算出部の処理を説明する図である。It is a figure explaining the process of the position calculation part in the 2nd Embodiment. 第二の実施形態の画像処理部によって取得される画像の撮像地点を説明する図である。It is a figure explaining the image pickup point of the image acquired by the image processing unit of the 2nd Embodiment. 第二の実施形態の画像処理部により取得される平面画像データの一例を示す図である。It is a figure which shows an example of the plane image data acquired by the image processing unit of the 2nd Embodiment.

(第一の実施形態)
以下に図面を参照して、第一の実施形態について説明する。図1は、第一の実施形態の情報処理システムのシステム構成の一例を示す図である。
(First Embodiment)
The first embodiment will be described below with reference to the drawings. FIG. 1 is a diagram showing an example of a system configuration of the information processing system of the first embodiment.

本実施形態の情報処理システム100は、情報処理装置200と、学習装置300とを含む。情報処理システム100において、情報処理装置200と学習装置300とは、ネットワークを介して接続される。 The information processing system 100 of the present embodiment includes an information processing device 200 and a learning device 300. In the information processing system 100, the information processing device 200 and the learning device 300 are connected via a network.

また、本実施形態の情報処理システム100において、情報処理装置200は、端末装置400とネットワーク等を介して通信を行う。さらに、本実施形態の情報処理システム100において、情報処理装置200は、インターネット上に存在するサーバ装置500と通信を行い、サーバ装置500からサービスの提供を受ける。 Further, in the information processing system 100 of the present embodiment, the information processing device 200 communicates with the terminal device 400 via a network or the like. Further, in the information processing system 100 of the present embodiment, the information processing device 200 communicates with the server device 500 existing on the Internet and receives the service provided by the server device 500.

サーバ装置500が提供するサービスとは、例えば、入力された住所情報を緯度・経度に変換するサービスや、入力された緯度・経度と対応する地点から撮像した道路沿いの風景の全天球画像データを提供するサービス等である。 The services provided by the server device 500 include, for example, a service for converting input address information into latitude / longitude, and all-sky image data of a landscape along a road captured from a point corresponding to the input latitude / longitude. It is a service that provides.

本実施形態の情報処理装置200は、住所情報記憶部220、パラメータ記憶部230、画像ファイル記憶部240、画像処理部250、検索要求部260を有する。 The information processing device 200 of the present embodiment includes an address information storage unit 220, a parameter storage unit 230, an image file storage unit 240, an image processing unit 250, and a search request unit 260.

本実施形態の情報処理装置200において、画像処理部250は、住所情報記憶部220に格納された住所情報をサーバ装置500に送信し、サーバ装置500から、住所情報と対応する位置で撮像した全天球画像データからパラメータに応じて抽出された画像データを取得する。尚、本実施形態の住所情報記憶部220は、検索対象物が設置されている可能性がある店舗や会社等の住所を示す住所情報が格納されている。 In the information processing device 200 of the present embodiment, the image processing unit 250 transmits the address information stored in the address information storage unit 220 to the server device 500, and the entire image is taken from the server device 500 at a position corresponding to the address information. The image data extracted according to the parameters from the celestial sphere image data is acquired. The address information storage unit 220 of the present embodiment stores address information indicating the address of a store, company, or the like where a search target may be installed.

パラメータ記憶部230は、全天球画像データから抽出する平面画像データの範囲を示すパラメータが格納されている。このパラメータは、検索対象物に応じて予め設定される。 The parameter storage unit 230 stores parameters indicating the range of the plane image data extracted from the spherical image data. This parameter is preset according to the search target.

次に、画像処理部250は、住所情報と、それぞれの平面画像を示す画像データとを対応付けた画像ファイルリストを作成し、画像ファイル記憶部240へ格納する。 Next, the image processing unit 250 creates an image file list in which the address information and the image data indicating each plane image are associated with each other, and stores the image file list in the image file storage unit 240.

次に、情報処理装置200は、検索要求部260によって、画像ファイル記憶部240に格納された画像ファイルリストを学習装置300へ入力させる。 Next, the information processing device 200 causes the search request unit 260 to input the image file list stored in the image file storage unit 240 to the learning device 300.

本実施形態の学習装置300は、学習部310を有する。学習部310は、検索対象物の画像データを正解データとして学習(例えば、教師あり学習)を行ったモデルである。学習部310は、画像ファイルリストが入力されると、検索対象物の画像が含まれる画像を示す画像データを特定する情報を出力する。 The learning device 300 of the present embodiment has a learning unit 310. The learning unit 310 is a model in which learning (for example, supervised learning) is performed using the image data of the search target as correct answer data. When the image file list is input, the learning unit 310 outputs information for identifying image data indicating an image including an image of the search target.

学習装置300は、情報処理装置200から画像ファイルリストの入力を受け付けると、学習部310に画像ファイルリストを入力し、検索対象物が含まれる平面画像データを特定する情報を出力として取得する。尚、学習部310から出力される、平面画像データを特定する情報とは、平面画像データそのものであっても良いし、平面画像データと対応付けられた住所情報であっても良いし、平面画像データと住所情報とが対応付けられた情報であっても良い。 When the learning device 300 receives the input of the image file list from the information processing device 200, the learning device 300 inputs the image file list to the learning unit 310 and acquires the information for identifying the plane image data including the search target as an output. The information for identifying the plane image data output from the learning unit 310 may be the plane image data itself, the address information associated with the plane image data, or the plane image. It may be information in which data and address information are associated with each other.

情報処理装置200は、検索要求部260によって、学習部310から出力される情報を取得する。学習部310から出力された情報は、情報処理装置200によって端末装置400に出力されても良い。また、学習部310から出力された情報は、情報処理装置200のディスプレイ等に出力されても良い。 The information processing device 200 acquires the information output from the learning unit 310 by the search request unit 260. The information output from the learning unit 310 may be output to the terminal device 400 by the information processing device 200. Further, the information output from the learning unit 310 may be output to the display or the like of the information processing device 200.

このように、本実施形態によれば、検索対象物が設置されている可能性のある場所の住所情報の画像データを、検索対象物の画像データを正解データとして学習した学習部310に入力し、検索対象物が含まれる画像データを特定する。したがって、本実施形態によれば、学習部310によって特定された画像データと対応する住所情報に基づき、検索対象物が設置された場所を特定することができる。 As described above, according to the present embodiment, the image data of the address information of the place where the search target may be installed is input to the learning unit 310 which has learned the image data of the search target as the correct answer data. , Identify the image data that includes the search target. Therefore, according to the present embodiment, the place where the search target is installed can be specified based on the address information corresponding to the image data specified by the learning unit 310.

このため、本実施形態によれば、例えば、検索対象物を、撤去の対象の袖看板とした場合には、袖看板が設置されている可能性のある店舗等の住所情報を住所情報記憶部220に格納しておけば、撤去対象の袖看板が設置された場所を特定することができる。 Therefore, according to the present embodiment, for example, when the search target is a sleeve signboard to be removed, the address information of a store or the like where the sleeve signboard may be installed is stored in the address information storage unit. If it is stored in 220, the place where the sleeve signboard to be removed is installed can be specified.

また、本実施形態では、インターネット上から住所情報に基づき提供される全天球画像データを用いて、撤去対象の袖看板が設置された場所を特定する。 Further, in the present embodiment, the location where the sleeve signboard to be removed is installed is specified by using the spherical image data provided from the Internet based on the address information.

このため、本実施形態によれば、撤去作業を行う作業員が、撤去対象の袖看板が設置されている可能性のある店舗等を訪れ、目視で袖看板を確認する、といった作業が不要となり、効率的に撤去対象の袖看板の設置場所を把握させることができる。 Therefore, according to the present embodiment, it is not necessary for the worker performing the removal work to visit a store or the like where the sleeve signboard to be removed may be installed and visually check the sleeve signboard. , It is possible to efficiently grasp the installation location of the sleeve signboard to be removed.

尚、図1の例では、情報処理装置200と学習装置300とが別々に設けられるものとしたが、これに限定されない。学習装置300は、情報処理装置200に含まれても良い。また、図1の例では、情報処理装置200は、住所情報記憶部220とパラメータ記憶部230と画像ファイル記憶部240とを有するものとしたが、これに限定されない。住所情報記憶部220、パラメータ記憶部230、画像ファイル記憶部240は、一部又は全部が情報処理装置200以外の装置に設けられていても良い。また、本実施形態では、全天球画像データがインターネットを介してサーバ装置500から提供されるものとしたが、これに限定されない。情報処理装置200は、住所情報と対応付けられた画像データを取得できれば良く、その方法は、上述した方法に限定されない。 In the example of FIG. 1, the information processing device 200 and the learning device 300 are provided separately, but the present invention is not limited to this. The learning device 300 may be included in the information processing device 200. Further, in the example of FIG. 1, the information processing apparatus 200 includes an address information storage unit 220, a parameter storage unit 230, and an image file storage unit 240, but is not limited thereto. The address information storage unit 220, the parameter storage unit 230, and the image file storage unit 240 may be partially or wholly provided in a device other than the information processing device 200. Further, in the present embodiment, the spherical image data is provided from the server device 500 via the Internet, but the present invention is not limited to this. The information processing device 200 only needs to be able to acquire image data associated with the address information, and the method is not limited to the above-mentioned method.

以下に、本実施形態の情報処理装置200について、さらに説明する。尚、以下の説明では、検索対象物を撤去対象の袖看板とした場合について説明する。図2は、第一の実施形態の情報処理装置のハードウェア構成の一例を示す図である。 The information processing apparatus 200 of the present embodiment will be further described below. In the following description, a case where the search target is a sleeve sign to be removed will be described. FIG. 2 is a diagram showing an example of the hardware configuration of the information processing apparatus of the first embodiment.

図2に示されているように、情報処理装置200は、コンピュータによって構築されており、図2に示されているように、CPU201、ROM202、RAM203、HD204、HDD(Hard Disk Drive)コントローラ205、ディスプレイ206、外部機器接続I/F(Interface)208、ネットワークI/F209、データバス210、キーボード211、ポインティングデバイス212、DVD−RW(Digital Versatile Disk Rewritable)ドライブ214、メディアI/F216を備えている。 As shown in FIG. 2, the information processing apparatus 200 is constructed by a computer, and as shown in FIG. 2, the CPU 201, ROM 202, RAM 203, HD 204, HDD (Hard Disk Drive) controller 205, It is equipped with a display 206, an external device connection I / F (Interface) 208, a network I / F 209, a data bus 210, a keyboard 211, a pointing device 212, a DVD-RW (Digital Versatile Disk Rewritable) drive 214, and a media I / F 216. ..

これらのうち、CPU201は、情報処理装置200全体の動作を制御する。ROM202は、IPL等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。HD204は、プログラム等の各種データを記憶する。HDDコントローラ205は、CPU201の制御にしたがってHD204に対する各種データの読み出し又は書き込みを制御する。ディスプレイ206は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。 Of these, the CPU 201 controls the operation of the entire information processing device 200. The ROM 202 stores a program used to drive the CPU 201 such as an IPL. The RAM 203 is used as a work area of the CPU 201. The HD204 stores various data such as programs. The HDD controller 205 controls reading or writing of various data to the HD 204 according to the control of the CPU 201. The display 206 displays various information such as cursors, menus, windows, characters, or images.

外部機器接続I/F208は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F209は、通信ネットワークを利用してデータ通信をするためのインターフェースである。データバス210は、図2に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The external device connection I / F 208 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory, a printer, or the like. The network I / F 209 is an interface for performing data communication using a communication network. The data bus 210 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 201 shown in FIG.

また、キーボード211は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス212は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD−RWドライブ214は、着脱可能な記録媒体の一例としてのDVD−RW213に対する各種データの読み出し又は書き込みを制御する。尚、DVD−RWに限らず、DVD−R等であってもよい。メディアI/F216は、フラッシュメモリ等の記録メディア215に対するデータの読み出し又は書き込み(記憶)を制御する。 Further, the keyboard 211 is a kind of input means including a plurality of keys for inputting characters, numerical values, various instructions and the like. The pointing device 212 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The DVD-RW drive 214 controls reading or writing of various data to the DVD-RW 213 as an example of the removable recording medium. The DVD-RW is not limited to the DVD-RW, and may be a DVD-R or the like. The media I / F 216 controls reading or writing (storage) of data to a recording medium 215 such as a flash memory.

次に、図3乃至図5を参照して、本実施形態の情報処理装置200の有する住所情報記憶部220、パラメータ記憶部230、画像ファイル記憶部240について説明する。尚、これらの各記憶部は、HD204やROM503等の記憶装置によって実現される。 Next, the address information storage unit 220, the parameter storage unit 230, and the image file storage unit 240 included in the information processing apparatus 200 of the present embodiment will be described with reference to FIGS. 3 to 5. Each of these storage units is realized by a storage device such as HD204 or ROM503.

図3は、住所情報記憶部の一例を示す図である。本実施形態の住所情報記憶部220に格納される住所情報は、情報の項目として、名称、郵便番号、住所を含む。 FIG. 3 is a diagram showing an example of an address information storage unit. The address information stored in the address information storage unit 220 of the present embodiment includes a name, a zip code, and an address as information items.

項目「名称」の値は、撤去対象の袖看板が設置されている可能性のある店舗や会社等の名称を示す。項目「郵便番号」の値と、項目「住所」の値は、対応する店舗等の郵便番号と住所である。 The value of the item "name" indicates the name of a store, company, etc. that may have a sleeve sign to be removed. The value of the item "zip code" and the value of the item "address" are the zip code and address of the corresponding store or the like.

住所情報記憶部220には、例えば、過去に袖看板を設置した店舗の住所情報のリスト(一覧)等が格納されて良い。住所情報記憶部220は、予め情報処理装置200に与えられる。 The address information storage unit 220 may store, for example, a list of address information of stores in which sleeve signs have been installed in the past. The address information storage unit 220 is given to the information processing device 200 in advance.

図4は、パラメータ記憶部の一例を示す図である。先に説明した通り、学習部310における学習は、通常、平面画像の検索対象物の画像データを正解データとして行われる。一方、住所情報に基づき特定される全天球画像は、平面画像ではなく、歪んだ画像になっている。このため、全天球画像のまま、学習部310に入力しても、学習をしたときの正解データとは異なるために、袖看板が設置された場所を特定できない可能性がある。 FIG. 4 is a diagram showing an example of a parameter storage unit. As described above, the learning in the learning unit 310 is usually performed using the image data of the search object of the plane image as the correct answer data. On the other hand, the spherical image specified based on the address information is not a flat image but a distorted image. Therefore, even if the spherical image is input to the learning unit 310 as it is, it may not be possible to specify the place where the sleeve signboard is installed because it is different from the correct answer data at the time of learning.

このような問題も含め、全天球画像を平面画像として取得する必要がある。本実施形態のパラメータ記憶部230は、住所情報と対応する全天球画像データから、複数の平面画像データを取得する際に参照される。具体的には、本実施形態では、全天球画像データから、8つの方位毎に平面画像データを取得する。 Including such problems, it is necessary to acquire the spherical image as a plane image. The parameter storage unit 230 of the present embodiment is referred to when acquiring a plurality of plane image data from the spherical image data corresponding to the address information. Specifically, in the present embodiment, plane image data is acquired for each of the eight directions from the spherical image data.

本実施形態のパラメータ記憶部230に格納されたパラメータには、size、location、heading、pitch、fov、source、keyを含む。 The parameters stored in the parameter storage unit 230 of the present embodiment include size, field of view, heading, pitch, fov, source, and key.

sizeは、全天球画像データから取得される平面画像データのサイズを示す。本実施形態では、平面画像データのsizeは、640ピクセル×640ピクセルとする。 size indicates the size of the plane image data acquired from the spherical image data. In the present embodiment, the size of the plane image data is 640 pixels × 640 pixels.

locationは、全天球画像データが撮像された地点の緯度・経度を示す。 The location indicates the latitude and longitude of the point where the spherical image data is captured.

headingは、方位を示す。headingの値が0の場合は北、90の場合は東、180の場合は南、270の場合は西を示す。 heading indicates the direction. A heading value of 0 indicates north, 90 indicates east, 180 indicates south, and 270 indicates west.

pitchは、水平を基準とした上下方向の角度を示す。以下の説明では、上向きの角度を仰角、下向きの角度を俯角又は伏角と呼ぶ場合がある。本実施形態では、pitchの値は上向きの15.0度である。 Pitch indicates an angle in the vertical direction with respect to the horizontal. In the following description, the upward angle may be referred to as an elevation angle, and the downward angle may be referred to as a depression angle or a dip angle. In the present embodiment, the value of pitch is 15.0 degrees upward.

fov(field of view)は、画角を示す。本実施形態では、fovは、45.0である。 fov (field of view) indicates the angle of view. In this embodiment, the fov is 45.0.

sourceは、撮像される対象を示す。本実施形態では、屋内の画像を除外するために、outdoor(屋外)とした。 source indicates an object to be imaged. In this embodiment, in order to exclude indoor images, it is set as outdoor.

keyは、サーバ装置500が提供するサービスを利用するためのAPI(Application Programming Interface)キーを示す。 The key indicates an API (Application Programming Interface) key for using the service provided by the server device 500.

本実施形態では、こられのパラメータを参照して、全天球画像データから8方位の平面画像データを取得する。 In the present embodiment, the plane image data of eight directions is acquired from the spherical image data with reference to these parameters.

次に、図5を参照して、画像ファイル記憶部240について説明する。図5は、画像ファイル記憶部の一例を示す図である。 Next, the image file storage unit 240 will be described with reference to FIG. FIG. 5 is a diagram showing an example of an image file storage unit.

本実施形態の画像ファイル記憶部240に格納される画像ファイルリストは、情報の項目として、image_name、jpn_address、formatted_address、latitude、longitudeを有し、各項目は対応付けられている。以下の説明では、上述した各項目の値を含む情報を画像ファイルと呼ぶ。 The image file list stored in the image file storage unit 240 of the present embodiment has image_name, jpn_addless, formatted_addless, latitude, and longitude as information items, and each item is associated with each other. In the following description, the information including the values of the above-mentioned items is referred to as an image file.

項目「image_name」の値は、平面画像データの画像ファイル名を示す。項目「jpn_address」の値は、住所情報に含まれる住所を示す。項目「formatted_address」の値は、英語のフォーマットに変換した住所を示す。項目「latitude」の値と、項目「longitude」の値は、住所を緯度経度に変換した際の緯度と経度を示す。 The value of the item "image_name" indicates the image file name of the plane image data. The value of the item "jpn_addless" indicates the address included in the address information. The value of the item "formatted_addless" indicates the address converted to the English format. The value of the item "latitude" and the value of the item "longitude" indicate the latitude and longitude when the address is converted into latitude and longitude.

画像ファイル記憶部240に格納される画像ファイルリストは、画像処理部250による処理によって作成される。 The image file list stored in the image file storage unit 240 is created by processing by the image processing unit 250.

次に、図6を参照して、本実施形態の情報処理装置200の機能について説明する。図6は、第一の実施形態の情報処理装置の機能を説明する図である。 Next, the function of the information processing apparatus 200 of the present embodiment will be described with reference to FIG. FIG. 6 is a diagram illustrating a function of the information processing apparatus of the first embodiment.

本実施形態の情報処理装置200は、画像処理部250と検索要求部260とを有する。画像処理部250は、住所情報取得部251、緯度経度変換部252、画像取得部253、パラメータ設定部254、格納部255を有する。 The information processing device 200 of the present embodiment has an image processing unit 250 and a search request unit 260. The image processing unit 250 includes an address information acquisition unit 251, a latitude / longitude conversion unit 252, an image acquisition unit 253, a parameter setting unit 254, and a storage unit 255.

住所情報取得部251は、住所情報記憶部220から住所情報を取得する。緯度経度変換部252は、住所情報が示す場所を緯度・経度に変換する。具体的には、緯度経度変換部252は、サーバ装置500に対して住所情報を送信し、対応する緯度・経度を取得しても良い。尚、住所情報と対応する緯度・経度とは、住所情報が示す地点から最も近い道路上の点である。 The address information acquisition unit 251 acquires address information from the address information storage unit 220. The latitude / longitude conversion unit 252 converts the location indicated by the address information into latitude / longitude. Specifically, the latitude / longitude conversion unit 252 may transmit address information to the server device 500 and acquire the corresponding latitude / longitude. The latitude / longitude corresponding to the address information is the point on the road closest to the point indicated by the address information.

画像取得部253は、緯度経度変換部252によって変換された緯度・経度をサーバ装置500へ送信し、この緯度・経度に基づく全天球画像データから、パラメータに基づいて切り出された画像データを取得する。具体的には、画像取得部253は、パラメータ設定部254によって設定されたパラメータを、サーバ装置500へ送信し、緯度・経度に基づく全天球画像データから、パラメータに基づいて切り出された画像データを、サーバ装置500から取得する。 The image acquisition unit 253 transmits the latitude / longitude converted by the latitude / longitude conversion unit 252 to the server device 500, and acquires the image data cut out based on the parameters from the all-sky image data based on the latitude / longitude. To do. Specifically, the image acquisition unit 253 transmits the parameters set by the parameter setting unit 254 to the server device 500, and the image data cut out from the whole celestial sphere image data based on the latitude and longitude based on the parameters. Is obtained from the server device 500.

尚、パラメータに基づいて全天球画像データから切り出された画像データは、全天球画像の歪みをなくした平面画像を示す平面画像データとなる。つまり、本実施形態のパラメータは、全天球画像データから切り出された画像データが、歪みのない平面画像データとなる範囲に設定されている。 The image data cut out from the spherical image data based on the parameters is flat image data showing a flat image without distortion of the spherical image. That is, the parameters of the present embodiment are set in a range in which the image data cut out from the spherical image data becomes the plane image data without distortion.

したがって、画像取得部253は、住所情報に基づき、住所情報が示す住所と対応した歪みのない平面画像データを取得できる。 Therefore, the image acquisition unit 253 can acquire the plane image data without distortion corresponding to the address indicated by the address information based on the address information.

パラメータ設定部254は、パラメータ記憶部230に格納されたパラメータを読み出して、画像取得部253に設定する。 The parameter setting unit 254 reads out the parameters stored in the parameter storage unit 230 and sets them in the image acquisition unit 253.

格納部255は、画像取得部253が取得した平面画像データと、住所情報が示す住所と、緯度・経度とを対応付けた画像ファイルを生成し、画像ファイル記憶部240へ格納する。つまり、格納部255は、全天球画像データから切り出された画像データと、住所情報とを対応付けた情報を画像ファイルとして、画像ファイル記憶部240へ格納する。 The storage unit 255 generates an image file in which the plane image data acquired by the image acquisition unit 253, the address indicated by the address information, and the latitude / longitude are associated with each other, and stores the image file in the image file storage unit 240. That is, the storage unit 255 stores the information in which the image data cut out from the whole celestial sphere image data and the address information are associated with each other as an image file in the image file storage unit 240.

本実施形態の検索要求部260は、リスト出力部261、結果取得部262、出力部263を有する。 The search request unit 260 of the present embodiment includes a list output unit 261, a result acquisition unit 262, and an output unit 263.

リスト出力部261は、検索要求と共に、画像ファイル記憶部240に格納された画像ファイルリスト(画像ファイルの一覧)を学習装置300へ出力する。言い換えれば、検索要求部260は、住所情報と対応する全天球画像データから切り出された画像データと、住所情報とを対応付けた情報を、学習部310へ入力し、学習部310に対して検索対象物の検索を要求する。 The list output unit 261 outputs the image file list (list of image files) stored in the image file storage unit 240 to the learning device 300 together with the search request. In other words, the search request unit 260 inputs the image data cut out from the celestial sphere image data corresponding to the address information and the information associated with the address information into the learning unit 310, and inputs the information to the learning unit 310 to the learning unit 310. Request a search for the search target.

結果取得部262は、学習部310により出力された情報を取得する。出力部263は、結果取得部262が取得した情報を端末装置400等に出力する。 The result acquisition unit 262 acquires the information output by the learning unit 310. The output unit 263 outputs the information acquired by the result acquisition unit 262 to the terminal device 400 or the like.

次に、図7及び図8を参照して、本実施形態の画像処理部250の処理について説明する。図7は、第一の実施形態の情報処理装置の処理を説明する第一のフローチャートである。 Next, the processing of the image processing unit 250 of the present embodiment will be described with reference to FIGS. 7 and 8. FIG. 7 is a first flowchart illustrating processing of the information processing apparatus of the first embodiment.

本実施形態の情報処理装置200において、画像処理部250は、平面画像データを格納するためのファイルを作成する(ステップS701)。 In the information processing apparatus 200 of the present embodiment, the image processing unit 250 creates a file for storing the plane image data (step S701).

続いて、画像処理部250は、住所情報取得部251により、住所情報記憶部220を参照する(ステップS702)。 Subsequently, the image processing unit 250 refers to the address information storage unit 220 by the address information acquisition unit 251 (step S702).

続いて、画像処理部250は、住所情報取得部251により、住所情報記憶部220に格納された住所情報を1レコードずつ読み込む(ステップS703)。 Subsequently, the image processing unit 250 reads the address information stored in the address information storage unit 220 record by record by the address information acquisition unit 251 (step S703).

続いて、画像処理部250は、緯度経度変換部252により、読み込んだ住所情報が示す場所を緯度・経度に変換する(ステップS704)。具体的には、緯度経度変換部252は、サーバ装置500が提供するAPIを起動させて住所情報を送信し、住所情報と対応する緯度・経度を取得する。 Subsequently, the image processing unit 250 converts the location indicated by the read address information into latitude / longitude by the latitude / longitude conversion unit 252 (step S704). Specifically, the latitude / longitude conversion unit 252 activates the API provided by the server device 500, transmits the address information, and acquires the latitude / longitude corresponding to the address information.

続いて、画像処理部250は、緯度・経度に基づき、複数の平面画像データを取得する(ステップS705)。ステップS705の処理の詳細は後述する。 Subsequently, the image processing unit 250 acquires a plurality of plane image data based on the latitude and longitude (step S705). Details of the process in step S705 will be described later.

続いて、画像処理部250は、住所情報記憶部220に格納された全ての住所情報に対して、ステップS703からステップS705の処理を繰り返し(ステップS706)、処理を終了する。 Subsequently, the image processing unit 250 repeats the processes of steps S703 to S705 for all the address information stored in the address information storage unit 220 (step S706), and ends the process.

以下に、図8を参照して、図7のステップS705の処理について説明する。図8は、第一の実施形態の情報処理装置の処理を説明する第二のフローチャートである。 Hereinafter, the process of step S705 of FIG. 7 will be described with reference to FIG. FIG. 8 is a second flowchart illustrating the processing of the information processing apparatus of the first embodiment.

本実施形態の画像処理部250は、パラメータ設定部254により、パラメータ記憶部230を参照し、パラメータを設定する(ステップS801)。 The image processing unit 250 of the present embodiment refers to the parameter storage unit 230 by the parameter setting unit 254 and sets the parameters (step S801).

具体的には、パラメータ設定部254は、sizeを640ピクセル×640ピクセル、locationを緯度経度変換部252が取得した緯度・経度、headingを0、pitchを上向きの15.0度、fovを45度、sourceをoutdoor、keyを、サーバ装置500が提供するサービスを利用するためのAPIに設定する。 Specifically, the parameter setting unit 254 sets the size to 640 pixels x 640 pixels, the location to the latitude / longitude acquired by the latitude / longitude conversion unit 252, the heading to 0, the pitch to 15.0 degrees upward, and the API to 45 degrees. , Longitude is set to outdoor, and key is set to API for using the service provided by the server device 500.

続いて、画像処理部250は、画像取得部253により、設定されたパラメータに基づき、全天球画像データから切り出された平面画像データを取得する(ステップS802)。 Subsequently, the image processing unit 250 acquires the plane image data cut out from the spherical image data based on the set parameters by the image acquisition unit 253 (step S802).

具体的には、画像取得部253は、全天球画像データから、北方向を中心とした、画角45度、仰角15度の範囲で切り出された平面画像データを取得する。 Specifically, the image acquisition unit 253 acquires plane image data cut out from the spherical image data in a range of an angle of view of 45 degrees and an elevation angle of 15 degrees centered on the north direction.

続いて、画像処理部250は、格納部255により、取得した平面画像データに、画像ファイル名と、住所と、英語のフォーマットに変換した住所と、住所情報から変換した緯度・経度とを対応付けた画像ファイルを生成して画像ファイル記憶部240に格納する(ステップ803)。 Subsequently, the image processing unit 250 associates the image file name, the address, the address converted into the English format, and the latitude / longitude converted from the address information with the plane image data acquired by the storage unit 255. The image file is generated and stored in the image file storage unit 240 (step 803).

続いて、画像取得部253は、8方位の平面画像データを取得したか否かを判定する(ステップS804)。ステップS804において、8方位の平面画像データを取得していない場合、パラメータ設定部254は、パラメータを変更し(ステップS805)、ステップS802へ戻る。 Subsequently, the image acquisition unit 253 determines whether or not the plane image data in eight directions has been acquired (step S804). If the plane image data of eight directions is not acquired in step S804, the parameter setting unit 254 changes the parameter (step S805) and returns to step S802.

具体的には、パラメータ設定部254は、パラメータのうち、headingの値に45度を追加し、ステップS802に戻る。 Specifically, the parameter setting unit 254 adds 45 degrees to the heading value among the parameters, and returns to step S802.

ステップS804において、8方位の平面画像データが生成された場合、画像処理部250は、図7のステップS706へ進む。 When the plane image data of eight directions is generated in step S804, the image processing unit 250 proceeds to step S706 of FIG.

本実施形態では、画像処理部250の処理により、住所情報と対応する緯度・経度を中心とした8方位の平面画像データを取得することができる。 In the present embodiment, by the processing of the image processing unit 250, it is possible to acquire the plane image data of eight directions centered on the latitude and longitude corresponding to the address information.

図9は、画像処理部によって生成される平面画像データを説明する図である。図9に示す平面画像91〜98は、地点90を中心として、8方位のそれぞれの風景を撮像した画像である。 FIG. 9 is a diagram illustrating plane image data generated by the image processing unit. The plane images 91 to 98 shown in FIG. 9 are images obtained by capturing the landscapes in each of the eight directions with the point 90 as the center.

平面画像91は、地点90において撮像した全天球画像から、北方向を中心とした画角45度、仰角15度の範囲を切り出した画像である。平面画像92は、北東方向を中心とした画角45度、仰角15度の範囲を切り出した画像である。平面画像93は、東方向を中心とした画角45度、仰角15度の範囲を切り出した画像である。 The plane image 91 is an image obtained by cutting out a range of an angle of view of 45 degrees and an elevation angle of 15 degrees centered on the north direction from the spherical image captured at the point 90. The plane image 92 is an image obtained by cutting out a range of an angle of view of 45 degrees and an elevation angle of 15 degrees centered on the northeast direction. The plane image 93 is an image obtained by cutting out a range of an angle of view of 45 degrees and an elevation angle of 15 degrees centered in the east direction.

平面画像94は南東方向を中心し、平面画像95は南方向を中心とし、平面画像96は南西方向を中心とし、平面画像97は西方向を中心とし、平面画像98は北西方向を中心として、それぞれの中心から画角45度、仰角15度の範囲を切り出した画像である。 The plane image 94 is centered in the southeast direction, the plane image 95 is centered in the south direction, the plane image 96 is centered in the southwest direction, the plane image 97 is centered in the west direction, and the plane image 98 is centered in the northwest direction. It is an image obtained by cutting out a range of an angle of view of 45 degrees and an elevation angle of 15 degrees from each center.

このように、本実施形態によれば、住所情報に基づく全天球画像データから、歪みのない複数の平面画像データを取得することができる。したがって、本実施形態によれば、全天球画像データから、学習装置300の学習部310による画像検索に適した歪みのない画像データを取得することができる。 As described above, according to the present embodiment, it is possible to acquire a plurality of plane image data without distortion from the spherical image data based on the address information. Therefore, according to the present embodiment, it is possible to acquire distortion-free image data suitable for image search by the learning unit 310 of the learning device 300 from the spherical image data.

また、本実施形態では、全天球画像データから切り出す(抽出する)画像データの範囲として、仰角を15度に設定した。したがって、本実施形態では、水平地点から上方向を見上げた角度の画像データを取得することができる。このため、本実施形態によれば、建物の側面に垂直に突き出る形で設置された袖看板が映っている可能性が高い画像を取得することができる。 Further, in the present embodiment, the elevation angle is set to 15 degrees as the range of the image data to be cut out (extracted) from the spherical image data. Therefore, in the present embodiment, it is possible to acquire image data at an angle looking upward from a horizontal point. Therefore, according to the present embodiment, it is possible to acquire an image in which there is a high possibility that a sleeve signboard installed so as to project vertically on the side surface of the building is shown.

次に、図10を参照して、本実施形態の検索要求部260の処理について説明する。図10は、第一の実施形態の情報処理装置の処理を説明する第三のフローチャートである。 Next, the process of the search request unit 260 of the present embodiment will be described with reference to FIG. FIG. 10 is a third flowchart illustrating processing of the information processing apparatus of the first embodiment.

本実施形態の検索要求部260は、リスト出力部261により、検索要求と共に、画像ファイル記憶部240に格納された画像ファイルリストを学習装置300へ出力する(ステップS1001)。 The search request unit 260 of the present embodiment outputs the image file list stored in the image file storage unit 240 to the learning device 300 together with the search request by the list output unit 261 (step S1001).

続いて、検索要求部260は、結果取得部262により、学習装置300から、学習部310が出力した情報を取得し(ステップS1002)、出力部263により、学習部310が出力した情報を端末装置400へ出力する(ステップS1003)。 Subsequently, the search request unit 260 acquires the information output by the learning unit 310 from the learning device 300 by the result acquisition unit 262 (step S1002), and the output unit 263 outputs the information output by the learning unit 310 to the terminal device. Output to 400 (step S1003).

尚、出力部263が出力する先は、端末装置400に限定されない。出力部263は
情報処理装置200のディスプレイ206に学習部310が出力した情報を表示させても良い。また、本実施形態では、学習部310が検索結果を出力する度に、検索結果が正解であったか否かを示す情報を学習装置300に入力し、学習部310に機械学習によって学習させても良い。
The output destination of the output unit 263 is not limited to the terminal device 400. The output unit 263 may display the information output by the learning unit 310 on the display 206 of the information processing device 200. Further, in the present embodiment, each time the learning unit 310 outputs a search result, information indicating whether or not the search result is correct may be input to the learning device 300, and the learning unit 310 may be made to learn by machine learning. ..

図11は、出力部263による出力例を示す図である。図11(A)の例では、学習部310によって、検索対象となる袖看板が映っている平面画像データとして抽出された画像データが表示されている。 FIG. 11 is a diagram showing an output example by the output unit 263. In the example of FIG. 11A, the image data extracted by the learning unit 310 as the plane image data showing the sleeve signboard to be searched is displayed.

この場合、出力部263は、検索対象の袖看板が映っていた平面画像データと対応付けられた住所情報を特定し、この住所情報と対応付けられた他の平面画像データを画像ファイル記憶部240から抽出して、出力しても良い。 In this case, the output unit 263 identifies the address information associated with the plane image data in which the sleeve signboard to be searched is displayed, and stores other plane image data associated with the address information in the image file storage unit 240. You may extract from and output.

この場合、特定された住所情報に基づく緯度・経度を中心とした8方位の画像データが出力されることになる。 In this case, image data in eight directions centered on latitude and longitude based on the specified address information will be output.

また、本実施形態では、検索対象の袖看板が映っていた平面画像データを表示させる際に、検索対象の袖看板の画像を強調するマーク101等を表示させても良い。 Further, in the present embodiment, when displaying the plane image data in which the sleeve signboard to be searched is displayed, a mark 101 or the like that emphasizes the image of the sleeve signboard to be searched may be displayed.

また、本実施形態の出力部263は、図11(B)に示すように、住所情報記憶部220に格納された住所情報のうち、平面画像データに検索対象となる袖看板が映っていた住所情報の一覧を表示させても良い。 Further, as shown in FIG. 11B, the output unit 263 of the present embodiment is an address in which the sleeve signboard to be searched is reflected in the plane image data among the address information stored in the address information storage unit 220. A list of information may be displayed.

図11(B)に示す画面111は、検索対象となる袖看板が設置されていた住所を表示していることを示すメッセージ112と、平面画像データに検索対象となる袖看板が映っていた住所情報の一覧113とが表示されている。 The screen 111 shown in FIG. 11B shows a message 112 indicating that the address where the sleeve signboard to be searched is installed is displayed, and the address where the sleeve signboard to be searched is reflected in the flat image data. A list of information 113 is displayed.

このように、検索結果を住所情報の一覧として表示させることで、袖看板の撤去を行う作業員等に対し、撤去対象の袖看板の設置場所を容易に把握させることができる。 By displaying the search results as a list of address information in this way, it is possible to easily make the worker or the like who removes the sleeve signboard grasp the installation location of the sleeve signboard to be removed.

(第二の実施形態)
以下に、図面を参照して、第二の実施形態について説明する。第二の実施形態では、住所情報から取得した緯度・経度に基づき取得した全天球画像データに検索対象が映っていない場合に、住所情報から取得した緯度・経度の近傍の地点から撮像した全天球画像データを用いる点が、第一の実施形態と相違する。以下の説明では、第一の実施形態との相違点について説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
(Second embodiment)
The second embodiment will be described below with reference to the drawings. In the second embodiment, when the search target is not reflected in the all-celestial sphere image data acquired based on the latitude / longitude acquired from the address information, all images taken from points in the vicinity of the latitude / longitude acquired from the address information. It differs from the first embodiment in that celestial sphere image data is used. In the following description, the differences from the first embodiment will be described, and those having the same functional configuration as the first embodiment will be given the same reference numerals as those used in the description of the first embodiment. It is given and the description thereof is omitted.

図12は、第二の実施形態の情報処理装置の機能構成を説明する図である。本実施形態の情報処理装置200Aは、住所情報記憶部220、パラメータ記憶部230、画像ファイル記憶部240、画像処理部250A、検索要求部260を有する。 FIG. 12 is a diagram illustrating a functional configuration of the information processing apparatus of the second embodiment. The information processing device 200A of the present embodiment includes an address information storage unit 220, a parameter storage unit 230, an image file storage unit 240, an image processing unit 250A, and a search request unit 260.

画像処理部250Aは、住所情報取得部251、緯度経度変換部252、画像取得部253、パラメータ設定部254、格納部255、検索結果判定部257、位置算出部258を有する。 The image processing unit 250A includes an address information acquisition unit 251, a latitude / longitude conversion unit 252, an image acquisition unit 253, a parameter setting unit 254, a storage unit 255, a search result determination unit 257, and a position calculation unit 258.

検索結果判定部257は、学習装置300で行われた検索結果に、検索対象の袖看板が映った平面画像データが存在するか否かを判定する。言い換えれば、検索結果判定部257は、学習装置300による検索の結果、該当する平面画像データがヒットしたか否かを判定している。 The search result determination unit 257 determines whether or not the search result performed by the learning device 300 includes the plane image data in which the sleeve signboard to be searched is reflected. In other words, the search result determination unit 257 determines whether or not the corresponding plane image data is hit as a result of the search by the learning device 300.

位置算出部258は、該当する平面画像データが存在しなかった場合に、住所情報から変換した緯度・経度が示す地点と近傍の地点を算出する。 The position calculation unit 258 calculates the point indicated by the latitude / longitude converted from the address information and the nearby point when the corresponding plane image data does not exist.

以下に、図13を参照して、本実施形態の画像処理部250Aの処理について説明する。図13は、第二の実施形態の情報処理装置の処理を説明するフローチャートである。図13に示す処理は、例えば、検索要求部260の結果取得部262が、学習装置300から検索結果を取得した際に、検索結果判定部257によって、該当する平面画像データが存在しない、と判定された場合に実行される。 Hereinafter, the processing of the image processing unit 250A of the present embodiment will be described with reference to FIG. FIG. 13 is a flowchart illustrating processing of the information processing apparatus of the second embodiment. In the process shown in FIG. 13, for example, when the result acquisition unit 262 of the search request unit 260 acquires the search result from the learning device 300, the search result determination unit 257 determines that the corresponding plane image data does not exist. It is executed when it is done.

本実施形態の画像処理部250Aにおいて、画像処理部250Aは、緯度経度変換部252により、住所情報記憶部220に格納された住所情報を取得して、住所情報が示す地点と対応する緯度・経度に変換する(ステップS1301)。ステップS1301で取得される緯度・経度を、緯度・経度1(第一の緯度・経度)と呼ぶ。 In the image processing unit 250A of the present embodiment, the image processing unit 250A acquires the address information stored in the address information storage unit 220 by the latitude / longitude conversion unit 252, and the latitude / longitude corresponding to the point indicated by the address information. Is converted to (step S1301). The latitude / longitude acquired in step S1301 is referred to as latitude / longitude 1 (first latitude / longitude).

続いて、位置算出部258は、緯度・経度1と最も近い道路上の地点の緯度・経度を取得する(ステップS1302)。ステップS1302で取得される緯度・経度を、緯度・経度2(第二の緯度・経度)と呼ぶ。 Subsequently, the position calculation unit 258 acquires the latitude / longitude of the point on the road closest to the latitude / longitude 1 (step S1302). The latitude / longitude acquired in step S1302 is referred to as latitude / longitude 2 (second latitude / longitude).

具体的には、位置算出部258は、サーバ装置500が提供する地図情報提供サービス等によって、緯度・経度1と最も近い道路上の緯度・経度2を取得しても良い。 Specifically, the position calculation unit 258 may acquire the latitude / longitude 2 on the road closest to the latitude / longitude 1 by the map information providing service provided by the server device 500 or the like.

続いて、画像処理部250Aは、位置算出部258により、緯度・経度1が示す地点から、緯度・経度2が示す地点までの方位を求める(ステップS1303)。ここで求められる方位を、方位Aと呼ぶ。 Subsequently, the image processing unit 250A obtains the direction from the point indicated by latitude / longitude 1 to the point indicated by latitude / longitude 2 by the position calculation unit 258 (step S1303). The direction obtained here is called direction A.

続いて、位置算出部258は、方位Aと垂直に交わる2つの方位を取得し、緯度・経度2が示す地点を含む道路の方向を推定する(ステップS1304)。ここで取得される、方位Aと垂直に交わる2つの方位を、方位B、方位Cと呼ぶ。 Subsequently, the position calculation unit 258 acquires two directions perpendicular to the direction A and estimates the direction of the road including the point indicated by the latitude / longitude 2 (step S1304). The two directions that intersect perpendicularly with the direction A acquired here are called direction B and direction C.

続いて、位置算出部258は、緯度・経度2が示す地点を含む近傍において、1Km当たりの緯度・経度の変化を算出する(ステップS1305)。続いて、位置算出部258は、緯度・経度2が示す地点から、8方向に各10m移動した8つの地点の緯度経度を算出する(ステップS1306)。 Subsequently, the position calculation unit 258 calculates the change in latitude / longitude per 1 km in the vicinity including the point indicated by latitude / longitude 2 (step S1305). Subsequently, the position calculation unit 258 calculates the latitude and longitude of eight points that have moved 10 m each in eight directions from the points indicated by latitude and longitude 2 (step S1306).

続いて、位置算出部258は、8つの地点のうち、方位B、方位Cのそれぞれと最も近い2つの地点を特定し、この2つの地点について、各地点から最も近い道路上の地点の緯度・経度を取得する(ステップS1307)。ステップS1307で取得される2つの地点の緯度・経度を、緯度・経度3、緯度・経度4と呼ぶ。 Subsequently, the position calculation unit 258 identifies the two points closest to each of the direction B and the direction C among the eight points, and for these two points, the latitude and latitude of the point on the road closest to each point. Acquire the longitude (step S1307). The latitude / longitude of the two points acquired in step S1307 are referred to as latitude / longitude 3 and latitude / longitude 4.

具体的には、位置算出部258は、方位B、方位Cのそれぞれと最も近い2つの地点を示す緯度・経度をサーバ装置500に通知し、サーバ装置500が提供する地図情報提供サービス等によって、緯度・経度3と緯度・経度4を取得しても良い。 Specifically, the position calculation unit 258 notifies the server device 500 of the latitude and longitude indicating the two points closest to each of the direction B and the direction C, and the map information providing service provided by the server device 500 provides the map information providing service. Latitude / longitude 3 and latitude / longitude 4 may be acquired.

続いて、画像処理部250Aは、緯度・経度3、緯度・経度4のそれぞれについて、図8の処理を実行し(ステップS1308)、処理を終了する。 Subsequently, the image processing unit 250A executes the process of FIG. 8 for each of the latitude / longitude 3 and the latitude / longitude 4 (step S1308), and ends the process.

したがって、本実施形態では、緯度・経度3の地点で撮像された全天球画像データから切り出された8つの平面画像を示す平面画像データと、緯度・経度4の地点で撮像された全天球画像データから切り出された8つの平面画像を示す平面画像データとが取得される。 Therefore, in the present embodiment, the plane image data showing eight plane images cut out from the whole celestial sphere image data captured at the point of latitude / longitude 3 and the whole celestial sphere captured at the point of latitude / longitude 4 Plane image data showing eight plane images cut out from the image data are acquired.

本実施形態の検索要求部260は、緯度・経度3に基づき取得された8つの平面画像データと、緯度・経度4に基づき取得された8つの平面画像データと、を学習装置300に出力する。このようにすれば、住所情報に基づき取得された8つの平面画像データが示す平面画像に、検索対象の袖看板の画像が含まれていない場合に、住所情報が示す地点から少し離れた地点から見た道路沿いの風景の画像データに基づく検索を行うことができる。 The search request unit 260 of the present embodiment outputs the eight plane image data acquired based on the latitude / longitude 3 and the eight plane image data acquired based on the latitude / longitude 4 to the learning device 300. By doing so, when the plane image indicated by the eight plane image data acquired based on the address information does not include the image of the sleeve signboard to be searched, from a point slightly away from the point indicated by the address information. You can search based on the image data of the scenery along the road you saw.

以下に、図14を参照して、図13の処理を具体的に説明する。図14は、第二の実施形態における位置算出部の処理を説明する図である。 Hereinafter, the process of FIG. 13 will be specifically described with reference to FIG. FIG. 14 is a diagram illustrating the processing of the position calculation unit in the second embodiment.

図14の例では、住所情報から変換される緯度・経度1を点P1とし、緯度・経度1から最も近い道路上の地点を示す緯度・経度2を点P2とする。 In the example of FIG. 14, the latitude / longitude 1 converted from the address information is defined as the point P1, and the latitude / longitude 2 indicating the point on the road closest to the latitude / longitude 1 is defined as the point P2.

位置算出部258は、点P1と点P2を結ぶ方位Aと垂直に交わる2つの方位B、Cを特定する。このとき、位置算出部258は、方位Bから方位Cに向かう道路が存在するものと推定する。 The position calculation unit 258 identifies two directions B and C that intersect perpendicularly with the direction A connecting the points P1 and P2. At this time, the position calculation unit 258 estimates that there is a road from the direction B to the direction C.

次に、位置算出部258は、まず、地点P2を4方向に10mずつ移動させた地点を特定する。具体的には、地点P2を東方向に10m移動させた地点P11、地点P2を北に10m移動させた地点P12、地点P2を西に10m移動させた地点P13、地点P2を南に10m移動させた地点P14を特定する。 Next, the position calculation unit 258 first identifies a point where the point P2 is moved by 10 m in each of the four directions. Specifically, the point P11 with the point P2 moved 10 m in the east direction, the point P12 with the point P2 moved 10 m north, the point P13 with the point P2 moved 10 m west, and the point P2 moved 10 m south. The point P14 is specified.

尚、本実施形態では、地点P2を10m移動させた地点を特定するものとしたが、移動させる距離は、10mに限定されない。地点P2から移動させる距離は、例えば、サーバ装置500によって提供される全天球画像データの撮像地点の間隔に応じて決定されて良い。本実施形態では、サーバ装置500によって提供される全天球画像データの撮像地点が、約10m程度であるものとする。 In the present embodiment, the point where the point P2 is moved by 10 m is specified, but the moving distance is not limited to 10 m. The distance to be moved from the point P2 may be determined, for example, according to the interval between the imaging points of the spherical image data provided by the server device 500. In the present embodiment, it is assumed that the imaging point of the spherical image data provided by the server device 500 is about 10 m.

続いて、位置算出部258は、地点P11を北へ10m移動させた地点P15と、地点P11を南に10m移動させた地点P16と、地点P13を北へ10m移動させた地点P17と、地点P13を南に10m移動させた地点P18と、を特定する。 Subsequently, the position calculation unit 258 includes a point P15 in which the point P11 is moved 10 m north, a point P16 in which the point P11 is moved 10 m south, a point P17 in which the point P13 is moved 10 m north, and a point P13. Is identified as the point P18, which has been moved 10 m to the south.

このように、本実施形態では、地点P2を中心とした8方位において、地点P2から所定の距離を移動させた地点を特定する。言い換えれば、位置算出部258は、地点P2を中心とした所定の領域を特定している。 As described above, in the present embodiment, the points moved by a predetermined distance from the point P2 are specified in eight directions centered on the point P2. In other words, the position calculation unit 258 specifies a predetermined region centered on the point P2.

続いて、位置算出部258は、地点P11から地点P18において、方位Bと方位Cに最も近い地点を特定する。つまり、本実施形態では、地点P11から地点P18において、方位Bから方位Cへ向かう道路と最も近い地点を特定している。 Subsequently, the position calculation unit 258 identifies the points closest to the directions B and C from the points P11 to the points P18. That is, in the present embodiment, the point closest to the road from the direction B to the direction C is specified from the point P11 to the point P18.

図14の例では、地点P15の方位が方位Bと最も近く、地点P18の方位が方位Cと最も近い。したがって、地点P15と地点P18は、方位Bから方位Cへ向かう道路と最も近い地点と推定される。 In the example of FIG. 14, the direction of the point P15 is the closest to the direction B, and the direction of the point P18 is the closest to the direction C. Therefore, the points P15 and P18 are presumed to be the closest points to the road from the direction B to the direction C.

次に、位置算出部258は、地点P15、地点P18のそれぞれから最も近い道路上の地点を特定する。具体的には、位置算出部258は、地点P15と地点P18の緯度・経度を、地点P2の緯度・経度に基づき算出する。そして、位置算出部258は、地点P15の緯度・経度と、地点P18の緯度・経度とを、サーバ装置500へ通知する。 Next, the position calculation unit 258 identifies a point on the road closest to each of the points P15 and P18. Specifically, the position calculation unit 258 calculates the latitude / longitude of the points P15 and P18 based on the latitude / longitude of the point P2. Then, the position calculation unit 258 notifies the server device 500 of the latitude / longitude of the point P15 and the latitude / longitude of the point P18.

サーバ装置500は、サーバ装置500が提供する地図情報提供サービス等によって、地点P15と最も近い道路上の地点P3の緯度・経度(緯度・経度3)と、地点P16と最も近い道路上の地点P4の緯度・経度(緯度・経度4)とを取得し、位置算出部258へ返す。 The server device 500 uses the map information providing service provided by the server device 500 to provide the latitude / longitude (latitude / longitude 3) of the point P3 on the road closest to the point P15 and the point P4 on the road closest to the point P16. The latitude / longitude (latitude / longitude 4) of is acquired and returned to the position calculation unit 258.

本実施形態の情報処理装置200Aにおいて、画像処理部250Aは、地点P3の緯度・経度と、地点P4の緯度・経度と、それぞれについて、図8の処理を実行すれば良い。 In the information processing apparatus 200A of the present embodiment, the image processing unit 250A may execute the processing of FIG. 8 for the latitude / longitude of the point P3 and the latitude / longitude of the point P4, respectively.

その結果、画像処理部250Aは、住所情報と対応する地点P2を中心した8方位の平面画像データに加え、地点P3を中心とした8方位の平面画像データと、地点P4を中心とした8方位の平面画像データと、を取得することができる。 As a result, the image processing unit 250A adds the plane image data of eight directions centered on the point P2 corresponding to the address information, the plane image data of eight directions centered on the point P3, and the eight directions centered on the point P4. It is possible to acquire the plane image data of.

したがって、本実施形態では、住所情報と対応する緯度・経度が示す地点P2から、人が数歩程度で移動できる距離だけ離れた地点P3、地点P4から撮像された画像データについても、学習装置300へ提供することができる。 Therefore, in the present embodiment, the learning device 300 also includes image data captured from points P3 and P4, which are separated by a distance that a person can move in a few steps from the point P2 indicated by the latitude and longitude corresponding to the address information. Can be provided to.

このため、本実施形態では、検索対象の画像を含む画像データが特定される可能性を高めることができる。 Therefore, in the present embodiment, it is possible to increase the possibility that image data including the image to be searched is specified.

尚、図14の例では、地点P2を中心とする所定の領域が正方形の中心となるように、8方位の地点P11〜P18を特定したが、これに限定されない。本実施形態では、所定の領域を、地点P2を中心しと、8方位へ所定の距離移動した8つの地点によって特定できれば良い。したがって、地点P2から地点P11〜P18までの距離が全て等しくても良い。この場合、所定の領域は、地点P2を中心とした円形となる。 In the example of FIG. 14, points P11 to P18 in eight directions are specified so that a predetermined region centered on the point P2 is the center of the square, but the present invention is not limited to this. In the present embodiment, it suffices if a predetermined region can be specified by eight points that have moved a predetermined distance in eight directions with the point P2 as the center. Therefore, the distances from the points P2 to the points P11 to P18 may all be the same. In this case, the predetermined area becomes a circle centered on the point P2.

図15は、第二の実施形態の画像処理部によって取得される画像の撮像地点を説明する図である。図15では、例えば、住所情報記憶部220から読み出した住所情報から変換された緯度・経度1が示す地点が、地点P51であったとする。画像処理部250Aは、地点P51から最も近い道路上の地点P52を示す緯度・経度2を取得すると、位置算出部258により、地点P51から地点P52へ向かう方位Aと垂直に交わる方位Bと方位Cを特定する。 FIG. 15 is a diagram illustrating an imaging point of an image acquired by the image processing unit of the second embodiment. In FIG. 15, for example, it is assumed that the point indicated by the latitude / longitude 1 converted from the address information read from the address information storage unit 220 is the point P51. When the image processing unit 250A acquires the latitude / longitude 2 indicating the point P52 on the road closest to the point P51, the position calculation unit 258 uses the position calculation unit 258 to vertically intersect the direction A from the point P51 to the point P52, and the directions B and C. To identify.

図15の例では、方位Bは南東であり、方位Cは北西である。したがって、位置算出部258は、地点P52を中心とする8方位について、地点P52を所定の距離移動させた8つの地点の中から、方位Bと最も近い方位の地点P53と、方位Cと最も近い方位の地点P54とが特定される。 In the example of FIG. 15, direction B is southeast and direction C is northwest. Therefore, the position calculation unit 258 has the point P53 in the direction closest to the direction B and the point P53 closest to the direction C from the eight points obtained by moving the point P52 by a predetermined distance with respect to the eight directions centered on the point P52. The directional point P54 is specified.

そして、位置算出部258は、地点P53と最も近い道路上の地点P55の緯度・経度と、地点P54と最も近い道路上の地点P56の緯度・経度を取得し、画像取得部253に渡す。 Then, the position calculation unit 258 acquires the latitude / longitude of the point P55 on the road closest to the point P53 and the latitude / longitude of the point P56 on the road closest to the point P54, and passes the latitude / longitude to the image acquisition unit 253.

画像処理部250Aにおいて、画像取得部253は、地点P55と地点P56のそれぞれにおいて撮像された全天球画像データから、パラメータ設定部254によって設定されたパラメータが示す範囲に切り出された8方位の平面画像データを取得する。 In the image processing unit 250A, the image acquisition unit 253 is an eight-direction plane cut out from the spherical image data captured at each of the points P55 and P56 into the range indicated by the parameters set by the parameter setting unit 254. Get image data.

そして、画像処理部250Aは、格納部255により、住所情報と、地点P52、地点P55と、地点P56のそれぞれの緯度・経度と、各地点に基づき全天球画像データから取得された8方位の画像データと、を対応付けて画像ファイル記憶部240へ格納する。 Then, the image processing unit 250A has the address information, the latitude / longitude of each of the points P52, P55, and P56, and the eight directions acquired from the all-sky image data based on each point by the storage unit 255. The image data is associated with the image data and stored in the image file storage unit 240.

図16は、第二の実施形態の画像処理部により取得される平面画像データの一例を示す図である。 FIG. 16 is a diagram showing an example of plane image data acquired by the image processing unit of the second embodiment.

図16では、3つの地点について、8方位の平面画像データが取得されていることがわかる。 In FIG. 16, it can be seen that the plane image data of eight directions are acquired at the three points.

例えば、平面画像データ群152は、住所情報と対応する緯度・経度が示す地点P52で撮像された全天球画像データから取得された8方位の平面画像データである。 For example, the plane image data group 152 is eight-direction plane image data acquired from the all-sky image data captured at the point P52 indicated by the latitude and longitude corresponding to the address information.

また、平面画像データ群155は、人が、地点P52から、北西に向かって数歩歩いた程度の距離を移動した地点P55で撮像された全天球画像データから取得された8方位の平面画像データである。また、平面画像データ群156は、人が、地点P52から、南東に向かって数歩歩いた程度の距離を移動した地点P56で撮像された全天球画像データから取得された8方位の平面画像データである。 Further, the plane image data group 155 is the plane image data of eight directions acquired from the all-sky image data captured at the point P55 where a person has moved a distance of several steps toward the northwest from the point P52. Is. Further, the plane image data group 156 is a plane image data of eight directions acquired from the all-sky image data captured at the point P56 in which a person has moved a distance of several steps toward the southeast from the point P52. Is.

本実施形態では、この3つの平面画像データ群を学習装置300の学習部310に入力とし、検索対象物となる袖看板の画像を含む画像データを検索させる。 In the present embodiment, the three plane image data groups are input to the learning unit 310 of the learning device 300, and the image data including the image of the sleeve signboard to be the search target is searched.

したがって、本実施形態では、住所情報と対応する地点で撮像された全天球画像データに、検索対象物の画像が含まれなくても、他の地点で撮像された全天球画像データを検索に活用することができる。 Therefore, in the present embodiment, even if the spherical image data captured at the point corresponding to the address information does not include the image of the search target, the spherical image data captured at another point is searched. Can be used for.

尚、本実施形態では、住所情報に基づき、サーバ装置500から提供される画像データを全天球画像データとしたが、これに限定されない。本実施形態では、例えば、サーバ装置500から、住所情報に基づいて、平面画像データが提供されても良い。この場合、画像処理部250は、検索対象物に基づき設定されたパラメータに基づき、サーバ装置500から提供される平面画像データから切り出された一部の画像データを、画像ファイル記憶部240に格納しても良い。 In the present embodiment, the image data provided by the server device 500 is used as spherical image data based on the address information, but the present invention is not limited to this. In the present embodiment, for example, plane image data may be provided from the server device 500 based on the address information. In this case, the image processing unit 250 stores a part of the image data cut out from the plane image data provided by the server device 500 in the image file storage unit 240 based on the parameters set based on the search target object. You may.

具体的には、例えば、検索対象物が、特定の状態の自動販売機であっとする。この場合、検索対象物は、一般的に道路上に配置されるものであるため、空の画像等は不要となる。したがって、この場合には、パラメータ記憶部230に、サーバ装置500から提供される平面画像データが示す平面画像の上部分が切り取られるようなパラメータを設定しておけば良い。また、この場合には、学習部310では、特定の状態の自動販売機の画像が含まれる画像データを正解データとした学習が予め行われる。 Specifically, for example, it is assumed that the search target is a vending machine in a specific state. In this case, since the search target is generally arranged on the road, an empty image or the like is unnecessary. Therefore, in this case, the parameter storage unit 230 may be set with a parameter such that the upper part of the plane image indicated by the plane image data provided by the server device 500 is cut off. Further, in this case, the learning unit 310 performs learning in advance using the image data including the image of the vending machine in a specific state as the correct answer data.

また、例えば、検索対象物が、マンホール等である場合について考える。この場合には、サーバ装置500から提供される画像データが全天球画像データであるならば、パラメータ記憶部230に格納されるパラメータのうち、fovを下方向15度等とすれば良い。また、この場合に、サーバ装置500から取得される画像データが平面画像データであるならば、例えば、平面画像の下部分が切り出されるように、パラメータが設定されていても良い。また、この場合には、学習部310では、マンホールの画像が含まれる画像データを正解データとした学習が予め行われる。 Further, for example, consider the case where the search target is a manhole or the like. In this case, if the image data provided by the server device 500 is spherical image data, the fov may be set to 15 degrees downward among the parameters stored in the parameter storage unit 230. Further, in this case, if the image data acquired from the server device 500 is the plane image data, the parameter may be set so that the lower part of the plane image is cut out, for example. Further, in this case, the learning unit 310 performs learning in advance using the image data including the manhole image as the correct answer data.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

また、上述した実施形態に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、第1の装置は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。同様に、第2の装置は、互いに通信するように構成された複数のコンピューティングデバイスを含むことができる。 Further, the device group described in the above-described embodiment is only one of a plurality of computing environments for implementing the embodiments disclosed in the present specification. In certain embodiments, the first device comprises a plurality of computing devices, such as a server cluster. The plurality of computing devices are configured to communicate with each other via any type of communication link, including networks, shared memory, and the like, and perform the processes disclosed herein. Similarly, the second device can include multiple computing devices configured to communicate with each other.

さらに、第1の装置および第2の装置は、開示された処理ステップ、例えば図7を様々な組み合わせで共有するように構成できる。例えば、画像処理部250によって実行されるプロセスは、第2の装置によって実行され得る。同様に、画像処理部250の機能は、第2の装置によって実行することができる。また、第1の装置と第2の装置の各要素は、1つのサーバ装置にまとめられていても良いし、複数の装置に分けられていても良い。 In addition, the first and second devices can be configured to share the disclosed processing steps, eg, FIG. 7, in various combinations. For example, the process executed by the image processing unit 250 may be executed by the second device. Similarly, the function of the image processing unit 250 can be executed by the second device. Further, each element of the first device and the second device may be integrated into one server device, or may be divided into a plurality of devices.

また、本実施形態において、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり、コンピュータが、データ識別等の判断に必要なアルゴリズムを、事前に取り込まれる学習データから自律的に生成し、新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、さらに、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。 Further, in the present embodiment, machine learning is a technique for making a computer acquire learning ability like a human being, and the computer acquires an algorithm necessary for judgment such as data identification from learning data which is taken in advance. A technology that autonomously generates and applies this to new data to make predictions. The learning method for machine learning may be any of supervised learning, unsupervised learning, semi-supervised learning, enhanced learning, and deep learning, and may be a learning method that combines these learning methods. Machine learning It doesn't matter how you learn for.

以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。 Although the present invention has been described above based on each embodiment, the present invention is not limited to the requirements shown in the above embodiments. With respect to these points, the gist of the present invention can be changed without impairing it, and can be appropriately determined according to the application form thereof.

100 情報処理システム
200、200A 情報処理装置
220 住所情報記憶部
230 パラメータ記憶部
240 画像ファイル記憶部
250、250A 画像処理部
251 住所情報取得部
252 緯度経度変換部
253 画像取得部
254 パラメータ設定部
255 格納部
257 検索結果判定部
258 位置算出部
260 検索要求部
300 学習装置
310 学習部
400 端末装置
500 サーバ装置
100 Information processing system 200, 200A Information processing device 220 Address information storage unit 230 Parameter storage unit 240 Image file storage unit 250, 250A Image processing unit 251 Address information acquisition unit 252 Latitude / longitude conversion unit
253 Image acquisition unit 254 Parameter setting unit 255 Storage unit 257 Search result judgment unit 258 Position calculation unit 260 Search request unit 300 Learning device 310 Learning unit 400 Terminal device 500 Server device

特表2018−518742号公報Special Table 2018-518742 特開2015−046171号公報Japanese Unexamined Patent Publication No. 2015-046171

Claims (8)

住所情報に基づく地点で撮像された画像データから、検索対象物に応じて設定されたパラメータに基づき切り出した画像データを取得する画像取得部と、
前記切り出した画像データと前記住所情報とを対応付けた情報を、前記検索対象物の画像検索を行う学習部へ入力し、前記学習部に対して前記検索対象物の検索を要求する検索要求部と、を有する情報処理装置。
An image acquisition unit that acquires image data cut out based on parameters set according to the search target from image data captured at a point based on address information.
A search request unit that inputs information in which the cut-out image data is associated with the address information into a learning unit that performs an image search for the search object, and requests the learning unit to search for the search object. And, an information processing device having.
前記住所情報に基づく地点で撮像された画像データは、全天球画像データであり、
前記画像取得部は、
前記全天球画像データから、前記パラメータが示す範囲の画像データである平面画像データを取得する、請求項1記載の情報処理装置。
The image data captured at the point based on the address information is spherical image data.
The image acquisition unit
The information processing device according to claim 1, wherein plane image data, which is image data in the range indicated by the parameter, is acquired from the spherical image data.
前記パラメータは、
前記住所情報に基づく地点を中心とした複数方位と、各方位を中心とした画角と、仰角と、を少なくとも含む、請求項2記載の情報処理装置。
The parameters are
The information processing apparatus according to claim 2, further comprising a plurality of directions centered on a point based on the address information, an angle of view centered on each direction, and an elevation angle.
前記学習部を有し、
前記学習部は、
前記切り出した画像データのうち、前記検索対象物の画像が含まれる画像データと対応付けられた住所情報を出力する、請求項1乃至3の何れか一項に記載の情報処理装置。
Has the learning unit
The learning unit
The information processing apparatus according to any one of claims 1 to 3, which outputs address information associated with image data including an image of the search target among the cut out image data.
前記切り出した画像データに、前記検索対象物の画像が含まれる画像データが存在しない場合に、前記住所情報に基づく地点を含む所定の領域内に、前記住所情報に基づく地点とは別の地点を特定する位置算出部を有し、
前記画像取得部は、
前記別の地点で撮像された画像データから、前記パラメータに基づき切り出した画像データを取得する、請求項1乃至4の何れか一項に記載の情報処理装置。
When the image data including the image of the search target does not exist in the cut-out image data, a point different from the point based on the address information is set in a predetermined area including the point based on the address information. It has a position calculation unit to specify
The image acquisition unit
The information processing apparatus according to any one of claims 1 to 4, wherein the image data cut out based on the parameter is acquired from the image data captured at the other point.
住所情報に基づく地点で撮像された画像データから、検索対象物に応じて設定されたパラメータに基づき切り出した画像データを取得する画像取得部と、
前記切り出した画像データと前記住所情報とを対応付けた情報を、前記検索対象物の画像検索を行う学習部へ入力し、前記学習部に対して前記検索対象物の検索を要求する検索要求部と、を有する情報処理システム。
An image acquisition unit that acquires image data cut out based on parameters set according to the search target from image data captured at a point based on address information.
A search request unit that inputs information that associates the cut-out image data with the address information into a learning unit that performs an image search for the search target, and requests the learning unit to search for the search target. An information processing system that has.
情報処理装置が、
住所情報に基づく地点で撮像された画像データから、検索対象物に応じて設定されたパラメータに基づき切り出した画像データを取得し、
前記切り出した画像データと前記住所情報とを対応付けた情報を、前記検索対象物の画像検索を行う学習部へ入力し、前記学習部に対して前記検索対象物の検索を要求する、情報処理方法。
Information processing device
From the image data captured at the point based on the address information, the image data cut out based on the parameters set according to the search target is acquired, and the image data is acquired.
Information processing in which information in which the cut-out image data is associated with the address information is input to a learning unit that performs an image search for the search target, and the learning unit is requested to search for the search target. Method.
住所情報に基づく地点で撮像された画像データから、検索対象物に応じて設定されたパラメータに基づき切り出した画像データを取得し、
前記切り出した画像データと前記住所情報とを対応付けた情報を、前記検索対象物の画像検索を行う学習部へ入力し、前記学習部に対して前記検索対象物の検索を要求する、処理をコンピュータに実行させる、情報処理プログラム。
From the image data captured at the point based on the address information, the image data cut out based on the parameters set according to the search target is acquired, and the image data is acquired.
A process of inputting information in which the cut-out image data and the address information are associated with each other into a learning unit that performs an image search for the search target, and requesting the learning unit to search for the search target. An information processing program that is executed by a computer.
JP2019163258A 2019-09-06 2019-09-06 Information processing device, information processing system, information processing method, and information processing program Active JP7363226B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019163258A JP7363226B2 (en) 2019-09-06 2019-09-06 Information processing device, information processing system, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019163258A JP7363226B2 (en) 2019-09-06 2019-09-06 Information processing device, information processing system, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2021043544A true JP2021043544A (en) 2021-03-18
JP7363226B2 JP7363226B2 (en) 2023-10-18

Family

ID=74864112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019163258A Active JP7363226B2 (en) 2019-09-06 2019-09-06 Information processing device, information processing system, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7363226B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6427118B2 (en) 2016-01-21 2018-11-21 株式会社オプティム Image-captured object information providing system, image-captured object information providing method, and image-captured object information providing program
WO2018168823A1 (en) 2017-03-14 2018-09-20 株式会社ニコン Image processing device and electronic equipment
JP6539418B1 (en) 2017-10-27 2019-07-03 楽天株式会社 Image extracting apparatus, image extracting method and image extracting program
JP2019144988A (en) 2018-02-23 2019-08-29 京セラドキュメントソリューションズ株式会社 Image information processing apparatus and image forming apparatus

Also Published As

Publication number Publication date
JP7363226B2 (en) 2023-10-18

Similar Documents

Publication Publication Date Title
US10346560B2 (en) Electronic blueprint system and method
JP5963325B2 (en) Apparatus, method, and program for presenting information specified based on marker
JP2018163654A (en) System and method for telecom inventory management
EP2782027A1 (en) Apparatus and method providing augmented reality contents based on web information structure
US10242280B2 (en) Determining regions of interest based on user interaction
KR101965878B1 (en) Automatic connection of images using visual features
US11255678B2 (en) Classifying entities in digital maps using discrete non-trace positioning data
US20170039450A1 (en) Identifying Entities to be Investigated Using Storefront Recognition
TW201513609A (en) Network visualization systems and methods
CN112560698A (en) Image processing method, apparatus, device and medium
JP6505242B2 (en) Cluster-based photo navigation
CN112714266A (en) Method and device for displaying label information, electronic equipment and storage medium
CN111832579A (en) Map interest point data processing method and device, electronic equipment and readable medium
KR101768914B1 (en) Geo-tagging method, geo-tagging apparatus and storage medium storing a program performing the method
US11537814B2 (en) Data providing system and data collection system
CN114185073A (en) Pose display method, device and system
US20110122132A1 (en) Apparatus and method of managing objects and events with vector-based geographic information system
JP2022501751A (en) Systems and methods for selecting complementary images from multiple images for 3D geometric extraction
JP2021043544A (en) Information processing apparatus, information processing system, information processing method, and information processing program
US20230298373A1 (en) Detecting graphical elements in charts using predicted heatmaps
JP7408971B2 (en) Information processing device, information processing system, information processing method, and information processing program
WO2021250850A1 (en) Training apparatus, control method, and non-transitory computer-readable storage medium
CN108304840A (en) A kind of image processing method and device
JP2019220153A (en) Methods, systems, and non-transitory computer-readable recording media for converting image to location data
JP2016115082A (en) Image search system and image search method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230918

R151 Written notification of patent or utility model registration

Ref document number: 7363226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151