JP2021196675A - Computer system and program - Google Patents

Computer system and program Download PDF

Info

Publication number
JP2021196675A
JP2021196675A JP2020100563A JP2020100563A JP2021196675A JP 2021196675 A JP2021196675 A JP 2021196675A JP 2020100563 A JP2020100563 A JP 2020100563A JP 2020100563 A JP2020100563 A JP 2020100563A JP 2021196675 A JP2021196675 A JP 2021196675A
Authority
JP
Japan
Prior art keywords
image
map data
original image
feature
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020100563A
Other languages
Japanese (ja)
Inventor
幸治 原口
Koji Haraguchi
浩幸 大原
Hiroyuki Ohara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Co Ltd
Original Assignee
Zenrin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Co Ltd filed Critical Zenrin Co Ltd
Priority to JP2020100563A priority Critical patent/JP2021196675A/en
Publication of JP2021196675A publication Critical patent/JP2021196675A/en
Pending legal-status Critical Current

Links

Images

Abstract

To properly correct distortion of a captured image.SOLUTION: A computer system includes a processor. The processor acquires an original image including a feature to be captured, accesses a map database storing map data of multiple generations, selects map data of a generation corresponding to an imaging time of the original image, specifies a reference feature corresponding to an imaging spot of the original image by using the selected map data, and corrects distortion of the original image on the basis of the reference feature and the feature to be captured, to generate a corrected image.SELECTED DRAWING: Figure 1

Description

本開示の一側面はコンピュータシステム、処理方法、プログラム、および/またはデータ構造に関する。 One aspect of the disclosure relates to computer systems, processing methods, programs, and / or data structures.

特許文献1には、画像データと地図データとの間の歪み量に基づいて、画像データおよび地図データのいずれか一方を、他方のデータの視点から見たデータに変換する画像認識方法が記載されている。特許文献2には、風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを生成する画像処理システムが記載されている。 Patent Document 1 describes an image recognition method for converting either image data or map data into data viewed from the viewpoint of the other data based on the amount of distortion between the image data and the map data. ing. Patent Document 2 describes an image processing system that generates reference data used when recognizing a landscape image based on a photographed image of a landscape.

特開2010−176645号公報Japanese Unexamined Patent Publication No. 2010-176645 特開2011−227888号公報Japanese Unexamined Patent Publication No. 2011-227888

撮影画像の歪みを適切に補正することが望まれている。 It is desired to appropriately correct the distortion of the captured image.

本開示の一側面に係るコンピュータシステムはプロセッサを備える。プロセッサは、被写地物を含む元画像を取得し、複数世代の地図データを記憶する地図データベースにアクセスして、元画像の撮影時期に対応する世代の地図データを選択し、元画像の撮影地点に対応する基準地物を該選択された地図データを用いて特定し、基準地物と被写地物とに基づいて元画像の歪みを補正して、補正画像を生成する。 The computer system according to one aspect of the present disclosure comprises a processor. The processor acquires the original image including the object to be photographed, accesses the map database that stores the map data of multiple generations, selects the map data of the generation corresponding to the shooting time of the original image, and shoots the original image. The reference feature corresponding to the point is identified using the selected map data, and the distortion of the original image is corrected based on the reference feature and the projected feature to generate a corrected image.

実施形態に係る画像処理システムの適用および機能構成の一例を示す図である。It is a figure which shows an example of application and functional structure of the image processing system which concerns on embodiment. 実施形態に係る画像処理システムのために用いられるコンピュータのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the computer used for the image processing system which concerns on embodiment. 実施形態に係る画像処理システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the image processing system which concerns on embodiment. 画像の補正の一例を示す図である。It is a figure which shows an example of image correction. 補正画像間の変化を示す図である。It is a figure which shows the change between the corrected images.

以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are designated by the same reference numerals, and duplicate description is omitted.

[システムの概要]
本実施形態では、一例として、本開示に係るコンピュータシステムを画像処理システム1に適用する。実施形態に係る画像処理システム1は、地物を写す画像の歪みを補正するコンピュータシステムである。
[System overview]
In the present embodiment, as an example, the computer system according to the present disclosure is applied to the image processing system 1. The image processing system 1 according to the embodiment is a computer system that corrects distortion of an image that captures a feature.

画像とは、人が視覚を通して何らかの事象を認識することができるように所定の媒体上で表現される情報をいう。画像はカメラなどの撮像装置によって生成された画像でもよいし、撮影後に任意の他の画像処理が施された画像でもよい。画像を示す電子データ、すなわち画像データがコンピュータにより処理されることで画像が可視化され、その結果、人は視覚を通じて画像を認識することができる。一例では、画像は静止画、すなわち写真である。 An image is information expressed on a predetermined medium so that a person can recognize an event through vision. The image may be an image generated by an image pickup device such as a camera, or may be an image subjected to any other image processing after shooting. Electronic data indicating an image, that is, image data is processed by a computer to visualize the image, and as a result, a person can recognize the image through vision. In one example, the image is a still image, i.e. a photograph.

画像は、人が持つカメラによって撮影されてもよいし、自動車、ドローンなどの移動体に搭載されたカメラによって撮影されてもよい。撮影に用いられるカメラの種類(360度カメラ、広角レンズ、魚眼レンズ)、撮影技術などの要因によって画像に歪みが生ずることがある。画像処理システム1はこのような歪みを補正する。 The image may be taken by a camera held by a person, or may be taken by a camera mounted on a moving body such as a car or a drone. The image may be distorted due to factors such as the type of camera used for shooting (360-degree camera, wide-angle lens, fisheye lens), shooting technology, and the like. The image processing system 1 corrects such distortion.

画像の歪みとは、画像に映る被写体が、人が視覚を通してその被写体を認識する場合と異なるように変形することをいう。画像の歪みの例として、画像の少なくとも一部における伸びまたは縮みが挙げられるが、これらに限定されない。「画像の歪みを補正する」とは、画像に映る被写体が、人が視覚を通してその被写体を認識する場合と同じにまたは近くなるように、その画像を加工することをいう。本開示では、画像の歪みを補正することを単に「画像を補正する」または「画像の補正」ともいう。或る共通の撮影範囲を写す二つの画像の間で歪みの具合が異なるとしても、画像処理システム1はこれらの画像を補正して、補正された二つの画像をほぼ同じにして、双方の画像を比較可能にすることができる。このように画像間の比較を可能にするための補正を「正規化」ともいう。 Image distortion means that the subject appearing in an image is deformed so as to be different from the case where a person visually recognizes the subject. Examples of image distortion include, but are not limited to, stretching or shrinking in at least a portion of the image. "Correcting image distortion" means processing an image so that the subject appearing in the image is the same as or close to the subject recognized by a person through vision. In the present disclosure, correcting image distortion is also simply referred to as "image correction" or "image correction". Even if the degree of distortion differs between two images that capture a common shooting range, the image processing system 1 corrects these images so that the two corrected images are almost the same, and both images are used. Can be made comparable. The correction for enabling comparison between images in this way is also called "normalization".

本開示では、歪みを補正するために画像処理システム1によって処理される画像(すなわち、被写体が歪んだ画像)を「元画像」といい、歪みが補正された画像を「補正画像」という。 In the present disclosure, an image processed by the image processing system 1 to correct distortion (that is, an image in which the subject is distorted) is referred to as an "original image", and an image in which distortion is corrected is referred to as a "corrected image".

地物とは、地上に存在する任意の有体物である。地物は自然物でも人工物でもよい。例えば、地物は、山地、農地、住宅地、更地、河川、湖、海、観光地、道路、鉄道、建物、公園、塔、信号機、踏切、横断歩道、歩道橋、浮標、交通標識、路面標示などを含み得る。 A feature is any tangible object that exists on the ground. The feature may be a natural object or an artificial object. For example, features include mountains, farmlands, residential areas, vacant lots, rivers, lakes, seas, tourist areas, roads, railroads, buildings, parks, towers, traffic lights, railroad crossings, sidewalks, pedestrian bridges, floating signs, traffic signs, road surfaces. It may include markings and the like.

[システムの構成]
図1は画像処理システム1の適用の一例を示す図である。画像処理システム1は、該システムの主要な機能を実行するサーバ10を備える。一例では、サーバ10は通信ネットワークを介して地図データベース20および1以上のユーザ端末30と接続する。
[System configuration]
FIG. 1 is a diagram showing an example of application of the image processing system 1. The image processing system 1 includes a server 10 that executes the main functions of the system. In one example, the server 10 connects to the map database 20 and one or more user terminals 30 via a communication network.

サーバ10は元画像の歪みを補正するコンピュータである。一例では、サーバ10はユーザ端末30からの要求に基づいて元画像の歪みを補正し、補正画像をユーザ端末30に送信する。 The server 10 is a computer that corrects the distortion of the original image. In one example, the server 10 corrects the distortion of the original image based on the request from the user terminal 30, and transmits the corrected image to the user terminal 30.

図1はサーバ10の機能構成の一例も示す。サーバ10は機能モジュールとして通信部11、特定部12、補正部13、および変化抽出部14を備える。通信部11はユーザ端末30との間でデータを送受信する機能モジュールである。特定部12は元画像の補正のために必要な各種の情報を特定する機能モジュールである。補正部13は特定された情報に基づいて元画像を補正する機能モジュールである。変化抽出部14は、二つの補正画像を比較して、時間の経過に伴う地物の変化を抽出する機能モジュールである。 FIG. 1 also shows an example of the functional configuration of the server 10. The server 10 includes a communication unit 11, a specific unit 12, a correction unit 13, and a change extraction unit 14 as functional modules. The communication unit 11 is a functional module for transmitting and receiving data to and from the user terminal 30. The specifying unit 12 is a functional module that specifies various information necessary for correcting the original image. The correction unit 13 is a functional module that corrects the original image based on the specified information. The change extraction unit 14 is a functional module that compares two corrected images and extracts changes in features over time.

サーバ10として機能するコンピュータは限定されない。一例では、サーバ10は業務用サーバなどの大型のコンピュータによって構成される。図2は、サーバ10のハードウェア構成の一例を示す図である。例えば、サーバ10は制御回路100を有する。一例では、制御回路100は、一つまたは複数のプロセッサ101と、メモリ102と、ストレージ103と、通信ポート104と、入出力ポート105とを有する。プロセッサ101はオペレーティングシステムおよびアプリケーションプログラムを実行する。ストレージ103はハードディスク、不揮発性の半導体メモリ、または取り出し可能な媒体(例えば、磁気ディスク、光ディスクなど)の記憶媒体で構成され、オペレーティングシステムおよびアプリケーションプログラムを記憶する。メモリ102は、ストレージ103からロードされたプログラム、またはプロセッサ101による演算結果を一時的に記憶する。一例では、プロセッサ101は、メモリ102と協働してプログラムを実行することで、サーバ10の各機能モジュールとして機能する。通信ポート104は、プロセッサ101からの指令に従って、通信ネットワークNWを介して他の装置との間でデータ通信を行う。入出力ポート105は、プロセッサ101からの指令に従って、キーボード、マウス、モニタなどの入出力装置(ユーザインタフェース)との間で電気信号の入出力を実行する。 The computer that functions as the server 10 is not limited. In one example, the server 10 is composed of a large computer such as a business server. FIG. 2 is a diagram showing an example of the hardware configuration of the server 10. For example, the server 10 has a control circuit 100. In one example, the control circuit 100 has one or more processors 101, a memory 102, a storage 103, a communication port 104, and an input / output port 105. Processor 101 executes operating system and application programs. The storage 103 is composed of a hard disk, a non-volatile semiconductor memory, or a storage medium of a removable medium (for example, a magnetic disk, an optical disk, etc.), and stores an operating system and an application program. The memory 102 temporarily stores the program loaded from the storage 103 or the calculation result by the processor 101. In one example, the processor 101 functions as each functional module of the server 10 by executing a program in cooperation with the memory 102. The communication port 104 performs data communication with another device via the communication network NW according to a command from the processor 101. The input / output port 105 executes input / output of an electric signal to / from an input / output device (user interface) such as a keyboard, a mouse, and a monitor according to a command from the processor 101.

ストレージ103は、コンピュータをサーバ10として機能させるためのプログラム120を記憶する。プログラム120は、コンピュータを上記の各機能モジュールとして機能させるためのプログラムコードを含む。プログラム120は、CD−ROM、DVD−ROM、半導体メモリなどの非一時的な記録媒体に固定的に記録された上で提供されてもよい。あるいは、プログラム120は、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。 The storage 103 stores a program 120 for making the computer function as the server 10. The program 120 includes program code for making the computer function as each of the above functional modules. The program 120 may be provided after being fixedly recorded on a non-temporary recording medium such as a CD-ROM, a DVD-ROM, or a semiconductor memory. Alternatively, program 120 may be provided via a communication network as a data signal superimposed on a carrier wave.

サーバ10は一つまたは複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークを介してこれらのコンピュータが互いに接続されることで論理的に一つのサーバ10が構成される。 The server 10 may be configured by one or more computers. When a plurality of computers are used, one server 10 is logically configured by connecting these computers to each other via a communication network.

地図データベース20は、地図を構成する地図要素を示す地図データを永続的に記憶する非一時的な記憶媒体または記憶装置である。地図データは個々の地物の情報を示す。一例では、個々の地物を示すレコードは地物ID、地理的位置、および属性(本開示ではこれを「地物属性」という)を含む。地物IDは地物を一意に特定する識別子である。地理的位置とは現実世界における場所をいう。地理的位置は例えば緯度経度で表されるが、他の指標によって表現されてもよい。地物属性とは地物の特徴または性質をいい、任意のデータ項目によって表される。地物属性の例として、地物の種類、名称、所在地、構造、建築時期、および入居者が挙げられるが、地物属性はこれらに限定されず、任意のデータ項目によって表されてよい。 The map database 20 is a non-temporary storage medium or storage device that permanently stores map data indicating map elements constituting a map. Map data shows information on individual features. In one example, a record showing an individual feature includes a feature ID, geographic location, and attributes (referred to in the present disclosure as "feature attributes"). The feature ID is an identifier that uniquely identifies the feature. Geographical location refers to a place in the real world. Geographical location is expressed, for example, in latitude and longitude, but may be expressed by other indicators. A feature attribute is a feature or property of a feature, represented by any data item. Examples of feature attributes include, but are not limited to, feature types, names, locations, structures, construction dates, and occupants, but feature attributes may be represented by any data item.

本実施形態では、地図データベース20は複数世代の地図データを記憶する。地図データの「世代」とは、地図の内容の更新を示す概念であり、地図データの「バージョン」と言い換えることもできる。一般に、時間の経過に伴って、新たな地物が設置されたり、地物の位置が変更されたり、地物が撤去されたりする。このような地物の変更を地図に反映させるために、地図データは或るタイミングで(例えば1年に1度、数年に一度など)更新される。「複数世代の地図データ」は、その更新によって蓄積されていく過去および現在の地図データの集合であるといえる。例えば、地図データMaが更新によって地図データMbに変わると、地図データMbは地図データMaの次の世代(バージョン)であるといえる。地図データMaが第n世代であれば、地図データMbは第(n+1)世代である。本開示では地図データの世代を自然数で表す。 In this embodiment, the map database 20 stores map data of a plurality of generations. The "generation" of map data is a concept indicating an update of the contents of a map, and can be paraphrased as a "version" of map data. Generally, over time, new features are installed, features are repositioned, and features are removed. In order to reflect such changes in features on the map, the map data is updated at a certain timing (for example, once a year, once every few years, etc.). It can be said that "multi-generational map data" is a set of past and present map data accumulated by the update. For example, when the map data Ma is changed to the map data Mb by the update, it can be said that the map data Mb is the next generation (version) of the map data Ma. If the map data Ma is the nth generation, the map data Mb is the (n + 1) generation. In this disclosure, the generation of map data is represented by a natural number.

地図データベース20は第1世代から第n世代(n>1)までの地図データを記憶する。各世代の地図データには、その世代の時期を示す時期情報が関連付けられる。例えば、時期情報は地図データが作製された日付(年月日)を示してもよい。例えば、地図データベース20が3世代の地図データを記憶しているとして、第1世代、第2世代、および第3世代の地図データの時期情報がそれぞれ、「2017年12月1日」、「2018年12月15日」、「2019年12月1日」を示してもよい。あるいは、時期情報は地図データの有効期間を示してもよい。例えば、第1世代、第2世代、および第3世代の地図データの時期情報がそれぞれ、「2017年12月1日〜2018年12月14日」、「2018年12月15日〜2019年11月30日」、「2019年12月1日以降」を示してもよい。このように、時期情報の表現方法は限定されない。いずれにしても、時期情報を参照することで、或る時点で有効な地図データを特定することができる。 The map database 20 stores map data from the first generation to the nth generation (n> 1). The map data of each generation is associated with time information indicating the time of that generation. For example, the time information may indicate the date (date) when the map data was created. For example, assuming that the map database 20 stores the map data of the third generation, the time information of the map data of the first generation, the second generation, and the third generation is "December 1, 2017" and "2018, respectively." "December 15, 2019" and "December 1, 2019" may be indicated. Alternatively, the time information may indicate the validity period of the map data. For example, the timing information of the 1st generation, 2nd generation, and 3rd generation map data is "December 1, 2017-December 14, 2018" and "December 15, 2018-11, 2019, respectively". May indicate "30th of the month" and "after December 1, 2019". In this way, the method of expressing the timing information is not limited. In any case, by referring to the time information, it is possible to identify the map data that is valid at a certain point in time.

地図データの構造は限定されず、任意の方針でデータ構造が設計されてよい。例えば、上述した地物を示すレコードが任意の方針で正規化または非正規化されて一または複数のデータテーブル上に記憶されてもよい。 The structure of the map data is not limited, and the data structure may be designed by any policy. For example, the record indicating the above-mentioned feature may be normalized or denormalized by an arbitrary policy and stored in one or more data tables.

地図データの個々のデータ項目は静的に設定されてもよいし動的に設定されてもよい。「静的に設定される」とは、値が予め設定され、人手の介入がない限りはその設定が変更されないことをいう。一方、「動的に設定される」とは、値が任意の事象に応じて人手の介入無しに変更され得ることをいう。動的な設定は、所与のデータ項目を制御するプログラムが所定のコンピュータ上で実行されることで実現される。動的な設定は画像処理システム1により実行されてもよいし、別のコンピュータシステムにより実行されてもよい。 The individual data items of the map data may be set statically or dynamically. "Statically set" means that the value is preset and the setting is not changed unless there is manual intervention. On the other hand, "dynamically set" means that the value can be changed in response to any event without manual intervention. Dynamic configuration is achieved by running a program that controls a given data item on a given computer. The dynamic settings may be performed by the image processing system 1 or by another computer system.

地図データベース20の設置場所は限定されない。例えば、地図データベース20は、画像処理システム1の一部として構築されてサーバ10に内蔵されてもよいし、画像処理システム1とは別のコンピュータシステムに設けられてもよい。 The installation location of the map database 20 is not limited. For example, the map database 20 may be built as a part of the image processing system 1 and built in the server 10, or may be provided in a computer system different from the image processing system 1.

一例では、サーバ10は、第1制御部(より具体的には、特定部12)からの指示に応答して地図データベース20(地図データ)を参照する参照ステップを、該第1制御部とは異なる第2制御部に実行させるプログラムを実行する。例えば、このプログラムはアプリケーション・プログラミング・インタフェース(API)として実装される。第1制御部および第2制御部はいずれも機能モジュールであり、プロセッサ上で実現される。第1制御部が実行されるプロセッサと第2制御部が実行されるプロセッサとが同じでもよいし異なってもよい。例えば、第1制御部および第2制御部の少なくとも一つはプロセッサ101上で実現される。 In one example, the server 10 refers to a reference step that refers to the map database 20 (map data) in response to an instruction from the first control unit (more specifically, the specific unit 12). Execute a program to be executed by a different second control unit. For example, this program is implemented as an application programming interface (API). Both the first control unit and the second control unit are functional modules and are realized on the processor. The processor on which the first control unit is executed and the processor on which the second control unit is executed may be the same or different. For example, at least one of the first control unit and the second control unit is realized on the processor 101.

ユーザ端末30はユーザによって操作されるコンピュータ(クライアント端末)である。ユーザ端末30は固定端末でもよいし携帯端末でもよい。ユーザ端末30の例として、携帯電話機、スマートフォン、タブレット端末、ウェアラブル端末、またはパーソナルコンピュータが挙げられるが、端末の種類はこれらに限定されない。図1では一つのユーザ端末30のみを示すが、画像処理システム1にアクセスするユーザ端末30の台数は限定されない。 The user terminal 30 is a computer (client terminal) operated by the user. The user terminal 30 may be a fixed terminal or a mobile terminal. Examples of the user terminal 30 include, but are not limited to, mobile phones, smartphones, tablet terminals, wearable terminals, and personal computers. Although FIG. 1 shows only one user terminal 30, the number of user terminals 30 accessing the image processing system 1 is not limited.

[システムでの処理手順]
(画像の補正)
図3を参照しながら、画像処理システム1の動作を説明するとともに本実施形態に係る画像補正方法を説明する。図3は画像処理システム1の動作の一例を処理フローS1として示すフローチャートである。
[Processing procedure in the system]
(Image correction)
The operation of the image processing system 1 will be described with reference to FIG. 3, and the image correction method according to the present embodiment will be described. FIG. 3 is a flowchart showing an example of the operation of the image processing system 1 as a processing flow S1.

ステップS11では、通信部11が、被写地物を含む元画像を示す元画像データをユーザ端末30から受信する。被写地物とは画像に映った地物をいう。元画像データは撮影時期および撮影地点のうちの少なくとも一つを示してもよい。撮影時期とは元画像が撮影された時期をいう。撮影時期は日付(年月日)によって表されてもよいし、日付および時刻によって表されてもよい。例えば、撮影時期は撮像装置のタイマによって得られる日時で表される。撮影地点とは元画像が撮影された場所をいう。撮影地点の表現方法は限定されず、例えば緯度経度で表されてもよいし、市区町村名、街区名、号番などで表されてもよい。例えば、撮影地点は、撮像装置のGPS(全地球測位システム)機能によって得られる緯度経度、および撮影方向(例えば、東、西、南、北)で表される。元画像データは他のデータ項目を含んでもよい。 In step S11, the communication unit 11 receives the original image data indicating the original image including the object to be photographed from the user terminal 30. The object to be photographed is the object reflected in the image. The original image data may indicate at least one of the shooting time and the shooting point. The shooting time is the time when the original image was taken. The shooting time may be represented by a date (year / month / day), or may be represented by a date and a time. For example, the shooting time is represented by the date and time obtained by the timer of the image pickup apparatus. The shooting point is the place where the original image was taken. The method of expressing the shooting point is not limited, and may be represented by, for example, latitude and longitude, or may be represented by a city, ward, town, village name, block name, number, or the like. For example, the imaging point is represented by the latitude and longitude obtained by the GPS (Global Positioning System) function of the image pickup device and the imaging direction (for example, east, west, south, north). The original image data may include other data items.

ステップS12では、特定部12が、元画像の撮影時期および撮影地点を特定する。元画像データが撮影時期および撮影地点を示す場合には、特定部12はその撮影時期および撮影地点をそのまま特定することができる。元画像データが撮影時期を示すが撮影地点を示さない場合には、特定部12は撮影時期に対応する世代の地図データ(撮影時期において有効である地図データ)を選択する。一例では、元画像データの撮影時期が「2018年6月1日」である場合、特定部12は撮影時期に対応する世代の地図データとして、「2017年12月1日」という時期情報を含む地図データと、「2018年12月15日」という時期情報を含む地図データとを選択する。また、別の例では、元画像データの撮影時期が「2018年8月1日」である場合、特定部12は撮影時期に対応する世代の地図データとして「2017年12月1日〜2018年12月14日」という時期情報を含む地図データを選択する。また。特定部12は画像解析を実行して、複数の被写地物およびその位置関係を推定する。一例では、特定部12は撮影地点の緯度経度と地図データに含まれる地理的位置(緯度経度)とを比較し、その撮影地点の緯度経度を含む地図データを選択する。そして、特定部12は選択された地図データを参照して、その推定結果に合致する地理的位置を撮影地点として特定する。 In step S12, the specifying unit 12 specifies a shooting time and a shooting point of the original image. When the original image data indicates a shooting time and a shooting point, the specific unit 12 can specify the shooting time and the shooting point as they are. When the original image data indicates the shooting time but does not indicate the shooting point, the specific unit 12 selects the map data of the generation corresponding to the shooting time (map data effective at the shooting time). In one example, when the shooting time of the original image data is "June 1, 2018", the specific unit 12 includes the time information "December 1, 2017" as the map data of the generation corresponding to the shooting time. Select the map data and the map data including the time information "December 15, 2018". In another example, when the shooting time of the original image data is "August 1, 2018", the specific unit 12 is "December 1, 2017-2018" as the map data of the generation corresponding to the shooting time. Select the map data that includes the time information "December 14th". also. The identification unit 12 executes image analysis to estimate a plurality of objects to be photographed and their positional relationships. In one example, the specific unit 12 compares the latitude / longitude of the shooting point with the geographical position (latitude / longitude) included in the map data, and selects the map data including the latitude / longitude of the shooting point. Then, the specifying unit 12 refers to the selected map data and identifies a geographical position that matches the estimation result as a photographing point.

元画像データが撮影地点を示すが撮影時期を示さない場合には、特定部12は画像解析を実行して、複数の被写地物およびその位置関係を推定する。一例では、特定部12は撮影地点の緯度経度と地図データに含まれる地理的位置(緯度経度)を比較し、その撮影地点の緯度経度を含む地図データを選択する。そして、特定部12は複数世代の地図データのそれぞれを参照して、被写地物の位置関係に合致する撮影地点を有する地図データの時期を撮影時期として特定する。 When the original image data indicates a shooting point but does not indicate a shooting time, the specific unit 12 executes image analysis to estimate a plurality of objects to be photographed and their positional relationships. In one example, the specific unit 12 compares the latitude / longitude of the shooting point with the geographical position (latitude / longitude) included in the map data, and selects the map data including the latitude / longitude of the shooting point. Then, the specifying unit 12 refers to each of the map data of the plurality of generations, and specifies the time of the map data having a shooting point that matches the positional relationship of the object to be photographed as the shooting time.

元画像データが撮影時期および撮影地点を示さない場合には、特定部12は複数の被写地物およびその位置関係を推定し、複数世代の地図データを参照して、その推定結果に合致する地理的位置を撮影地点として特定する。一例では、特定部12は第1世代から順次第n世代(n>1)までの地図データを参照して、その推定結果に合致する地理的位置を撮影地点として特定する。または、特定部12は第n世代から順次第1世代までの地図データを参照して、その推定結果に合致する地理的位置を撮影地点として特定する。そして、特定部12は撮影地点を特定するために用いた地図データの時期を撮影時期として特定する。 When the original image data does not indicate the shooting time and the shooting point, the specific unit 12 estimates a plurality of objects to be photographed and their positional relationships, refers to the map data of a plurality of generations, and matches the estimation result. Specify the geographical location as the shooting point. In one example, the specifying unit 12 refers to map data from the first generation to the nth generation (n> 1) in sequence, and identifies a geographical position that matches the estimation result as a photographing point. Alternatively, the specifying unit 12 refers to the map data from the nth generation to the first generation in sequence, and specifies a geographical position that matches the estimation result as a photographing point. Then, the specifying unit 12 specifies the time of the map data used for specifying the shooting point as the shooting time.

ステップS13では、特定部12が撮影時期に対応する地図データを用いて、撮影地点に対応する地理的範囲を特定する。一例では、特定部12は地図データベース20を参照して、撮影時期に対応する世代の地図データ(撮影時期において有効である地図データ)を選択する。一例では、元画像データの撮影時期が「2018年6月1日」である場合、特定部12は撮影時期に対応する世代の地図データとして、「2017年12月1日」という時期情報を含む地図データと、「2018年12月15日」という時期情報を含む地図データとを選択する。別の例において、元画像データの撮影時期が「2018年8月1日」である場合、特定部12は撮影時期に対応する世代の地図データとして、「2017年12月1日〜2018年12月14日」という時期情報を含む地図データを選択する。続いて、特定部12はその地図データを参照して、撮影地点に対応する地理的範囲を特定する。撮影地点に対応する地理的範囲とは、撮影地点を含む地理的範囲でもよいし、撮影地点の近傍に位置する地理的範囲でもよい。特定される地理的範囲の形状は限定されず、例えば矩形でもよいし円形でもよい。特定される地理的範囲の寸法も限定されず、例えば数メートル四方でもよいし数十メートル四方でもよい。 In step S13, the specific unit 12 specifies the geographical range corresponding to the shooting point by using the map data corresponding to the shooting time. In one example, the specific unit 12 refers to the map database 20 and selects the map data of the generation corresponding to the shooting time (map data effective at the shooting time). In one example, when the shooting time of the original image data is "June 1, 2018", the specific unit 12 includes the time information "December 1, 2017" as the map data of the generation corresponding to the shooting time. Select the map data and the map data including the time information "December 15, 2018". In another example, when the shooting time of the original image data is "August 1, 2018", the specific unit 12 uses "December 1, 2017 to 12/2018" as the map data of the generation corresponding to the shooting time. Select the map data that includes the time information "Month 14th". Subsequently, the specifying unit 12 refers to the map data to specify the geographical range corresponding to the shooting point. The geographical range corresponding to the shooting point may be a geographical range including the shooting point or a geographical range located in the vicinity of the shooting point. The shape of the specified geographical range is not limited and may be, for example, a rectangle or a circle. The dimensions of the specified geographical range are not limited, and may be, for example, several meters square or several tens of meters square.

ステップS14では、特定部12が、特定された地理的範囲に含まれる地物を基準地物として特定する。具体的には、特定部12は選択された地図データを参照して、その地理的範囲内に位置する一または複数の地物を基準地物として特定する。一例では、特定部12は複数の世代の地図データにおいて位置が変わらない地物を基準地物として特定する。すなわち、特定部12は相対的に長い期間にわたって位置が変わらない地物を基準地物として特定する。基準地物の例としてマンホールおよびビルが挙げられるが、基準地物として特定される地物はこれらに限定されない。 In step S14, the specifying unit 12 identifies a feature included in the specified geographical range as a reference feature. Specifically, the specifying unit 12 refers to the selected map data and identifies one or more features located within the geographical range as reference features. In one example, the specifying unit 12 specifies a feature whose position does not change in map data of a plurality of generations as a reference feature. That is, the specific unit 12 specifies a feature whose position does not change for a relatively long period of time as a reference feature. Examples of reference features include manholes and buildings, but the features specified as reference features are not limited to these.

ステップS15では、補正部13が、基準地物および被写地物に基づいて、元画像データで示される元画像の歪みを補正する。補正方法は限定されず、補正部13は任意のアルゴリズムを用いて元画像を補正してよい。一例では、補正部13は基準地物の位置または形状と、被写地物の位置または形状に基づいて元画像を補正する。例えば、補正部13は元画像を解析することでそれぞれの被写地物を基準地物と対応付けた上で、元画像での複数の被写地物の位置関係が複数の基準地物間の位置関係と一致するように元画像の歪みを補正してもよい。その位置関係を規定するための各地物の位置は、地物の地理的位置でもよいし、地物の外縁を規定する座標でもよい。歪みを補正する程度、すなわち歪みが正される度合いは、補正処理の際に基準となる被写地物または基準地物の個数に依存し得る。例えば、補正の程度は、被写地物または基準地物の個数が多いほど高くなり得る。補正部13はその補正の度合いを判定してもよい。 In step S15, the correction unit 13 corrects the distortion of the original image indicated by the original image data based on the reference feature and the object to be photographed. The correction method is not limited, and the correction unit 13 may correct the original image by using an arbitrary algorithm. In one example, the correction unit 13 corrects the original image based on the position or shape of the reference feature and the position or shape of the object to be photographed. For example, the correction unit 13 analyzes the original image to associate each object with the reference feature, and then the positional relationship between the plurality of object objects in the original image is between the plurality of reference objects. The distortion of the original image may be corrected so as to match the positional relationship of. The position of each place for defining the positional relationship may be the geographical position of the feature or the coordinates defining the outer edge of the feature. The degree to which the distortion is corrected, that is, the degree to which the distortion is corrected, may depend on the number of the target object or the reference feature as a reference in the correction process. For example, the degree of correction can be higher as the number of objects to be photographed or reference objects increases. The correction unit 13 may determine the degree of the correction.

図4は元画像の補正の一例を示す図であり、具体的には、元画像210の歪みを補正して補正画像220を生成する例を示す。この元画像210はマンホール211、ビル212〜215などの被写地物を含む。ビル213の角に付した複数の点213pは、ビル213の外縁を規定する座標の一例である。例えば、補正部13はそれぞれの被写地物の地理的位置と、それぞれのビルの外縁の座標のうちの2以上の位置に基づいて、元画像210の歪みを補正して補正画像220を生成する。 FIG. 4 is a diagram showing an example of correction of the original image, and specifically, shows an example of correcting the distortion of the original image 210 to generate the corrected image 220. The original image 210 includes a subject such as a manhole 211 and buildings 212 to 215. The plurality of points 213p attached to the corners of the building 213 are examples of the coordinates defining the outer edge of the building 213. For example, the correction unit 13 corrects the distortion of the original image 210 and generates the corrected image 220 based on the geographical position of each object and the position of two or more of the coordinates of the outer edge of each building. do.

図3に戻って、ステップS16では、補正部13が補正画像を示す補正画像データを生成する。補正部13は、補正画像の被写地物に関する付加情報をさらに含む補正画像データを生成してもよい。例えば、補正部13は地図データベース20から被写地物の地物属性を取得して、その地物属性を付加情報として補正画像データに含めてもよい。元画像データが撮影時期を示さない場合には、補正部13は選択された地図データの時期情報に基づいて撮影時期を設定し、その撮影時期を付加情報として補正画像データに含めてもよい。元画像データが撮影地点を示さない場合には、補正部13は特定された地理的範囲に基づいて撮影地点を設定し、その撮影地点を付加情報として補正画像データに含めてもよい。補正部13は補正の度合いを示す指標を補正画像データに含めてもよい。 Returning to FIG. 3, in step S16, the correction unit 13 generates corrected image data indicating the corrected image. The correction unit 13 may generate corrected image data including additional information regarding the object to be corrected in the corrected image. For example, the correction unit 13 may acquire the feature attribute of the object to be photographed from the map database 20 and include the feature attribute as additional information in the corrected image data. When the original image data does not indicate the shooting time, the correction unit 13 may set the shooting time based on the time information of the selected map data and include the shooting time as additional information in the corrected image data. When the original image data does not indicate the shooting point, the correction unit 13 may set the shooting point based on the specified geographical range and include the shooting point as additional information in the corrected image data. The correction unit 13 may include an index indicating the degree of correction in the corrected image data.

ステップS17では、通信部11が補正画像を示す補正画像データをユーザ端末30に向けて送信する。一例では、ユーザ端末30はその補正画像データを受信および表示し、これによりユーザはその補正画像を視認することができる。補正画像データが付加情報を含む場合には、ユーザ端末30はその付加情報を表示し、これによりユーザは被写地物または元画像に関する情報を得ることができる。補正画像データが補正の度合いを示す場合には、ユーザはその指標を見て、画像の歪みがどのくらい補正されたかを知ることができる。 In step S17, the communication unit 11 transmits the corrected image data indicating the corrected image to the user terminal 30. In one example, the user terminal 30 receives and displays the corrected image data, whereby the user can visually recognize the corrected image. When the corrected image data includes additional information, the user terminal 30 displays the additional information, whereby the user can obtain information about the object to be photographed or the original image. When the corrected image data indicates the degree of correction, the user can see the index to know how much the distortion of the image has been corrected.

[補正画像の利用]
補正画像は任意の目的で用いられてよい。上述したように、共通の撮影範囲を写すが撮影時期が異なる二つの元画像を正規化することで、画像間の比較をすることが可能になり、例えば、その撮影範囲に存在する地物の時間的変化を抽出することができる。一例では、画像処理システム1は共通の撮影地点で撮影された第1元画像および第2元画像のそれぞれについて処理フローS1を実行して、第1補正画像および第2補正画像を生成する。その後、画像処理システム1では変化抽出部14がその二つの補正画像の差分に基づいて地物の時間的変化を抽出する。地物の時間的変化の例として、新たな地物の設置、地物の位置の変更、および地物の撤去が挙げられる。例えば、通信部11がユーザ端末30から第1補正画像および第2補正画像を受信し、変化抽出部14がその二つの画像の差分を求めて、この差分に基づいて地物の時間的変化を抽出する。通信部11はその抽出結果をユーザ端末に向けて送信する。
[Use of corrected image]
The corrected image may be used for any purpose. As described above, by normalizing two original images that capture a common shooting range but differ in shooting time, it is possible to compare images, for example, features existing in that shooting range. Temporal changes can be extracted. In one example, the image processing system 1 executes the processing flow S1 for each of the first and second original images taken at a common shooting point to generate the first corrected image and the second corrected image. After that, in the image processing system 1, the change extraction unit 14 extracts the temporal change of the feature based on the difference between the two corrected images. Examples of temporal changes in features include the installation of new features, the repositioning of features, and the removal of features. For example, the communication unit 11 receives the first corrected image and the second corrected image from the user terminal 30, the change extraction unit 14 obtains the difference between the two images, and the change with time of the feature is calculated based on the difference. Extract. The communication unit 11 transmits the extraction result to the user terminal.

図5は補正画像間の変化を示す図である。この例では、第1補正画像310および第2補正画像320は、道路311およびマンホール312を含む共通の撮影範囲を写す。第1補正画像310は、画像においてマンホール312よりも奥に位置する道路標識313をさらに写す。第2補正画像320は、画像においてマンホール312よりも奥に位置する道路標識321をさらに写す。この例では、変化抽出部14は第1補正画像310および第2補正画像320の差分に基づいて、道路標識の位置の変更を抽出し、その変更を示す抽出結果を提供する。 FIG. 5 is a diagram showing changes between corrected images. In this example, the first corrected image 310 and the second corrected image 320 capture a common shooting range including the road 311 and the manhole 312. The first corrected image 310 further captures the road sign 313 located behind the manhole 312 in the image. The second corrected image 320 further captures the road sign 321 located behind the manhole 312 in the image. In this example, the change extraction unit 14 extracts a change in the position of the road sign based on the difference between the first corrected image 310 and the second corrected image 320, and provides an extraction result indicating the change.

ユーザはその抽出結果を確認することで、地物の時間的変化を把握することができる。また、ユーザは第1補正画像および第2補正画像の撮影時期も考慮して、その地物の変化が発生したおおよその時期を把握することもできる。ユーザが地図の調査員であれば、その地物の変化に基づいて、地図データベース20の地図情報を更新するための現地調査に向かうことができる。したがって、画像処理システム1を用いることで、その現地調査が必要なタイミングを自動的に調査員に伝えることができる。画像処理システム1により把握された地物の時間的変化が信頼できる場合には、調査員による現地調査を省略して地図データベース20を自動的に更新することができる。 By confirming the extraction result, the user can grasp the temporal change of the feature. In addition, the user can grasp the approximate time when the change of the feature occurs in consideration of the shooting time of the first corrected image and the second corrected image. If the user is a map researcher, he / she can go to a field survey to update the map information of the map database 20 based on the change of the feature. Therefore, by using the image processing system 1, it is possible to automatically inform the investigator of the timing when the field survey is necessary. If the temporal change of the feature grasped by the image processing system 1 is reliable, the map database 20 can be automatically updated by omitting the field survey by the investigator.

あるいは、補正画像は仮想現実(VR)または拡張現実(AR)のためにディスプレイ上に表示される画像として用いられてもよい。例えば、ユーザ端末30から受信した元画像が現在の地物の様子を写したものである場合、サーバ10の特定部12は最新の世代の地図データを参照して撮影地点を特定する。続いて、特定部12は過去の世代の地図データに遡って、同一の撮影地点における過去の被写地物を取得する。続いて、補正部13が取得された被写地物に基づいて補正画像を生成する。そして通信部11が、過去の風景(被写地物)を写したその補正画像をユーザ端末30に送信する。ユーザ端末30はその補正画像を表示することで、被写地物のその当時の様子をユーザに伝えることができる。この場合、通信部11から送信される情報は、補正画像に限らず、被写地物の過去の地物属性(例えば、地物の種類、名称をあらわす情報)であってもよい。また、通信部11から送信される情報は、補正画像と被写地物の過去の地物属性との両方であってもよい。 Alternatively, the corrected image may be used as an image to be displayed on the display for virtual reality (VR) or augmented reality (AR). For example, when the original image received from the user terminal 30 is a copy of the current state of the feature, the specifying unit 12 of the server 10 specifies the shooting point with reference to the map data of the latest generation. Subsequently, the specific unit 12 goes back to the map data of the past generation and acquires the past object to be photographed at the same shooting point. Subsequently, the correction unit 13 generates a correction image based on the acquired object to be photographed. Then, the communication unit 11 transmits the corrected image of the past landscape (projected object) to the user terminal 30. By displaying the corrected image, the user terminal 30 can convey to the user the state of the object to be photographed at that time. In this case, the information transmitted from the communication unit 11 is not limited to the corrected image, but may be past feature attributes of the object to be photographed (for example, information representing the type and name of the feature). Further, the information transmitted from the communication unit 11 may be both the corrected image and the past feature attributes of the object to be photographed.

別の例として、ユーザ端末30から取得した元画像が過去の地物の様子を写したものである場合、特定部12は、過去の世代の地図データを参照して撮影地点を特定する。続いて、特定部12は最新の世代の地図データを辿って同一の撮影地点における現在の被写地物を取得する。続いて、補正部13が取得された被写地物に基づいて補正画像を生成する。そして、通信部11が、現在の風景(被写地物)を写したその補正画像をユーザ端末30に送信する。ユーザ端末30はその補正画像を表示することで、現在の様子をユーザに伝えることができる。この場合、通信部11から送信される情報は、補正画像に限らず、被写地物の現在の地物属性(例えば、地物の種類、名称をあらわす情報)であってもよい。また、通信部11から送信される情報は、補正画像と被写地物の現在の地物属性との両方であってもよい。 As another example, when the original image acquired from the user terminal 30 shows the state of the past features, the specifying unit 12 specifies the shooting point with reference to the map data of the past generation. Subsequently, the specific unit 12 traces the map data of the latest generation and acquires the current object to be photographed at the same shooting point. Subsequently, the correction unit 13 generates a correction image based on the acquired object to be photographed. Then, the communication unit 11 transmits the corrected image of the current landscape (projected object) to the user terminal 30. The user terminal 30 can convey the current state to the user by displaying the corrected image. In this case, the information transmitted from the communication unit 11 is not limited to the corrected image, but may be the current feature attribute of the object to be photographed (for example, information representing the type and name of the feature). Further, the information transmitted from the communication unit 11 may be both the corrected image and the current feature attribute of the object to be photographed.

[効果]
以上説明したように、本開示の一側面に係るコンピュータシステムはプロセッサを備える。プロセッサは、被写地物を含む元画像を取得し、複数世代の地図データを記憶する地図データベースにアクセスして、元画像の撮影時期に対応する世代の地図データを選択し、元画像の撮影地点に対応する基準地物を該選択された地図データを用いて特定し、基準地物と被写地物とに基づいて元画像の歪みを補正して、補正画像を生成する。
[effect]
As described above, the computer system according to one aspect of the present disclosure includes a processor. The processor acquires the original image including the object to be photographed, accesses the map database that stores the map data of multiple generations, selects the map data of the generation corresponding to the shooting time of the original image, and shoots the original image. The reference feature corresponding to the point is identified using the selected map data, and the distortion of the original image is corrected based on the reference feature and the projected feature to generate a corrected image.

本開示の一側面に係るプログラムは、被写地物を含む元画像を取得するステップと、複数世代の地図データを記憶する地図データベースにアクセスして、元画像の撮影時期に対応する世代の地図データを選択し、元画像の撮影地点に対応する基準地物を該選択された地図データを用いて特定するステップと、基準地物と被写地物とに基づいて元画像の歪みを補正して、補正画像を生成するステップとをコンピュータに実行させる。 The program according to one aspect of the present disclosure is to access the step of acquiring the original image including the object to be photographed and the map database that stores the map data of multiple generations, and to access the map of the generation corresponding to the time when the original image was taken. The steps of selecting data and identifying the reference feature corresponding to the shooting point of the original image using the selected map data, and correcting the distortion of the original image based on the reference feature and the object to be photographed. And let the computer perform the steps to generate the corrected image.

このような側面においては、元画像に対応する時期の地図データが選択され、その地図データから得られる基準地物と被写地物とに基づいて元画像の歪みが補正される。元画像に対応する時期の地物の情報を用いることで、撮影画像の歪みを適切に補正することができる。 In such an aspect, the map data of the time corresponding to the original image is selected, and the distortion of the original image is corrected based on the reference feature and the projected feature obtained from the map data. By using the information of the feature at the time corresponding to the original image, the distortion of the captured image can be appropriately corrected.

他の側面に係るコンピュータシステムでは、地図データが個々の地物の属性を示してもよい。プロセッサは、地図データを参照して、被写地物の属性を地物属性として取得し、補正画像と地物属性とを含む補正画像データを出力してもよい。この処理によって、画像に映っている地物の情報を提供することができる。 In computer systems of other aspects, map data may indicate the attributes of individual features. The processor may refer to the map data, acquire the attribute of the object to be photographed as the feature attribute, and output the corrected image data including the corrected image and the feature attribute. By this processing, it is possible to provide information on the features shown in the image.

他の側面に係るコンピュータシステムでは、プロセッサが、選択された地図データの世代に対応する時期を元画像の撮影時期として推定し、補正画像と推定された撮影時期とを含む補正画像データを出力してもよい。この処理によって、元画像の撮影時期が不明な場合でも、その撮影時期を推定して補正画像データに該撮影時期の情報を埋め込むことができる。 In a computer system according to another aspect, the processor estimates the time corresponding to the selected generation of map data as the shooting time of the original image, and outputs the corrected image data including the corrected image and the estimated shooting time. You may. By this process, even if the shooting time of the original image is unknown, the shooting time can be estimated and the information of the shooting time can be embedded in the corrected image data.

他の側面に係るコンピュータシステムでは、プロセッサが、補正画像と補正の度合いとを含む補正画像データを出力してもよい。この処理によって、歪みがどのくらい補正されたかを示す情報を提供することができる。 In a computer system according to another aspect, the processor may output corrected image data including a corrected image and a degree of correction. This process can provide information indicating how much the distortion has been corrected.

他の側面に係るコンピュータシステムでは、プロセッサが、共通の撮影範囲を写す第1元画像および第2元画像のそれぞれの歪みを補正して第1補正画像および第2補正画像を生成し、第1補正画像および第2補正画像の差分に基づいて地物の変化を抽出してもよい。この処理によって地物の変化を自動的に把握することが可能になる。 In the computer system according to the other aspect, the processor corrects the distortions of the first and second original images that capture a common shooting range to generate the first corrected image and the second corrected image, and first. Changes in features may be extracted based on the difference between the corrected image and the second corrected image. This process makes it possible to automatically grasp changes in features.

[変形例]
以上、本開示をその実施形態に基づいて詳細に説明した。しかし、本開示は上記実施形態に限定されるものではない。本開示は、その要旨を逸脱しない範囲で様々な変形が可能である。
[Modification example]
The present disclosure has been described in detail above based on the embodiment. However, the present disclosure is not limited to the above embodiment. This disclosure can be modified in various ways without departing from its gist.

上記実施形態では、特定部12が撮影地点に対応する地理的範囲を特定し、その地理的範囲に含まれる基準地物を特定する。しかし、特定部12はその地理的範囲を特定することなく、撮影時期に対応する地図データを用いて撮影地点から直接に基準地物を特定してもよい。 In the above embodiment, the specific unit 12 specifies a geographical range corresponding to the photographing point, and specifies a reference feature included in the geographical range. However, the specifying unit 12 may specify the reference feature directly from the shooting point using the map data corresponding to the shooting time without specifying the geographical range.

上記実施形態ではサーバ10が変化抽出部14を備えるが、この機能モジュールは必須の構成要素ではない。したがって、画像処理システム1は二つの補正画像を比較して地物の変化を抽出する機能を有しなくてもよい。 In the above embodiment, the server 10 includes the change extraction unit 14, but this functional module is not an essential component. Therefore, the image processing system 1 does not have to have a function of comparing two corrected images and extracting changes in features.

上記実施形態では本開示に係るコンピュータシステムをクライアントサーバシステムに適用するが、本開示に係るコンピュータシステムはスタンドアロンのコンピュータに適用されてもよい。 In the above embodiment, the computer system according to the present disclosure is applied to the client-server system, but the computer system according to the present disclosure may be applied to a stand-alone computer.

本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、またはこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念を示す。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念を示す。 In the present disclosure, the expression "at least one processor executes the first process, executes the second process, ... executes the nth process", or the expression corresponding thereto is the first. The concept including the case where the execution subject (that is, the processor) of n processes from the process 1 to the process n changes in the middle is shown. That is, this expression shows a concept including both a case where all n processes are executed by the same processor and a case where the processor changes according to an arbitrary policy in the n processes.

コンピュータシステム内で二つの数値の大小関係を比較する際には、「以上」および「よりも大きい」という二つの基準のどちらを用いてもよく、「以下」および「未満」の二つの基準のうちのどちらを用いてもよい。このような基準の選択は、二つの数値の大小関係を比較する処理についての技術的意義を変更するものではない。 When comparing the magnitude relations of two numbers in a computer system, either of the two criteria "greater than or equal to" and "greater than or equal to" may be used, and the two criteria of "less than or equal to" and "less than" Either of them may be used. The selection of such criteria does not change the technical significance of the process of comparing the magnitude relations of two numbers.

少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正または削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。 The processing procedure of the method executed by at least one processor is not limited to the example in the above embodiment. For example, some of the steps (processes) described above may be omitted, or the steps may be executed in a different order. Further, any two or more steps among the above-mentioned steps may be combined, or a part of the steps may be modified or deleted. Alternatively, other steps may be performed in addition to each of the above steps.

以上の実施形態の全部または一部に記載された態様は、画像の適切な補正、処理速度の向上、処理精度の向上、使い勝手の向上、データを利用した機能の向上または適切な機能の提供その他の機能向上または適切な機能の提供、データおよび/またはプログラムの容量の削減、装置および/またはシステムの小型化等の適切なデータ、プログラム、記録媒体、装置および/またはシステムの提供、並びにデータ、プログラム、装置またはシステムの制作・製造コストの削減、制作・製造の容易化、制作・製造時間の短縮等のデータ、プログラム、記録媒体、装置および/またはシステムの制作・製造の適切化のいずれか一つの課題を解決する。 The embodiments described in all or part of the above embodiments include appropriate correction of images, improvement of processing speed, improvement of processing accuracy, improvement of usability, improvement of functions using data, provision of appropriate functions, and the like. Providing appropriate data, programs, recording media, equipment and / or systems, and data, such as improving or providing appropriate functions, reducing the capacity of data and / or programs, and downsizing equipment and / or systems. Any of the optimization of production / manufacturing of data, programs, recording media, equipment and / or systems such as reduction of production / manufacturing cost of programs, equipment or systems, facilitation of production / manufacturing, shortening of production / manufacturing time, etc. Solve one problem.

1…画像処理システム、10…サーバ、11…通信部、12…特定部、13…補正部、14…変化抽出部、20…地図データベース、30…ユーザ端末、120…プログラム、210…元画像、220…補正画像、310…第1補正画像、320…第2補正画像。 1 ... image processing system, 10 ... server, 11 ... communication unit, 12 ... specific unit, 13 ... correction unit, 14 ... change extraction unit, 20 ... map database, 30 ... user terminal, 120 ... program, 210 ... original image, 220 ... Corrected image, 310 ... First corrected image, 320 ... Second corrected image.

Claims (6)

プロセッサを備え、
前記プロセッサが、
被写地物を含む元画像を取得し、
複数世代の地図データを記憶する地図データベースにアクセスして、前記元画像の撮影時期に対応する世代の前記地図データを選択し、前記元画像の撮影地点に対応する基準地物を該選択された地図データを用いて特定し、
前記基準地物と前記被写地物とに基づいて前記元画像の歪みを補正して、補正画像を生成する、
コンピュータシステム。
Equipped with a processor
The processor
Acquire the original image including the object to be photographed,
The map database that stores the map data of multiple generations was accessed, the map data of the generation corresponding to the shooting time of the original image was selected, and the reference feature corresponding to the shooting point of the original image was selected. Identify using map data,
A corrected image is generated by correcting the distortion of the original image based on the reference feature and the projected feature.
Computer system.
前記地図データが個々の地物の属性を示し、
前記プロセッサが、
前記地図データを参照して、前記被写地物の前記属性を地物属性として取得し、
前記補正画像と前記地物属性とを含む補正画像データを出力する、
請求項1に記載のコンピュータシステム。
The map data shows the attributes of individual features.
The processor
With reference to the map data, the attribute of the object to be photographed is acquired as a feature attribute.
Outputs corrected image data including the corrected image and the feature attribute.
The computer system according to claim 1.
前記プロセッサが、
前記選択された地図データの世代に対応する時期を前記元画像の前記撮影時期として推定し、
前記補正画像と前記推定された撮影時期とを含む補正画像データを出力する、
請求項1または2に記載のコンピュータシステム。
The processor
The time corresponding to the generation of the selected map data is estimated as the shooting time of the original image.
Outputs corrected image data including the corrected image and the estimated shooting time.
The computer system according to claim 1 or 2.
前記プロセッサが、前記補正画像と前記補正の度合いとを含む補正画像データを出力する、
請求項1〜3のいずれか一項に記載のコンピュータシステム。
The processor outputs corrected image data including the corrected image and the degree of the correction.
The computer system according to any one of claims 1 to 3.
前記プロセッサが、
共通の撮影範囲を写す第1元画像および第2元画像のそれぞれの歪みを補正して第1補正画像および第2補正画像を生成し、
前記第1補正画像および前記第2補正画像の差分に基づいて地物の変化を抽出する、
請求項1〜4のいずれか一項に記載のコンピュータシステム。
The processor
The distortions of the first original image and the second original image that capture the common shooting range are corrected to generate the first corrected image and the second corrected image.
The change of the feature is extracted based on the difference between the first corrected image and the second corrected image.
The computer system according to any one of claims 1 to 4.
被写地物を含む元画像を取得するステップと、
複数世代の地図データを記憶する地図データベースにアクセスして、前記元画像の撮影時期に対応する世代の前記地図データを選択し、前記元画像の撮影地点に対応する基準地物を該選択された地図データを用いて特定するステップと、
前記基準地物と前記被写地物とに基づいて前記元画像の歪みを補正して、補正画像を生成するステップと、
をコンピュータに実行させるプログラム。
Steps to get the original image including the object to be shot,
The map database that stores the map data of multiple generations was accessed, the map data of the generation corresponding to the shooting time of the original image was selected, and the reference feature corresponding to the shooting point of the original image was selected. Steps to identify using map data and
A step of correcting the distortion of the original image based on the reference feature and the projected feature to generate a corrected image, and
A program that causes a computer to run.
JP2020100563A 2020-06-10 2020-06-10 Computer system and program Pending JP2021196675A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020100563A JP2021196675A (en) 2020-06-10 2020-06-10 Computer system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020100563A JP2021196675A (en) 2020-06-10 2020-06-10 Computer system and program

Publications (1)

Publication Number Publication Date
JP2021196675A true JP2021196675A (en) 2021-12-27

Family

ID=79196349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020100563A Pending JP2021196675A (en) 2020-06-10 2020-06-10 Computer system and program

Country Status (1)

Country Link
JP (1) JP2021196675A (en)

Similar Documents

Publication Publication Date Title
US7584054B2 (en) System and method for displaying storm tracks
KR101423928B1 (en) Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method.
US9529511B1 (en) System and method of generating a view for a point of interest
US20110143707A1 (en) Incident reporting
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
KR100971778B1 (en) Method, system and computer-readable recording medium for matching of panoramic image using graph structure
CN103685960A (en) Method and system for processing image with matched position information
KR101042910B1 (en) Method, system and computer-readable recording medium for providing service using electronic map
US20130201201A1 (en) Object display device, object display method, and object display program
US9141858B2 (en) Determining GPS coordinates for images
EP2577504B1 (en) Methods and arrangements for augmented reality
CN104767816A (en) Photography information collecting method, device and terminal
CN111837013A (en) Method and system for determining geographic position based on image
CN109034214B (en) Method and apparatus for generating a mark
JP2009037062A (en) Map data updating apparatus and map data updating system
US20230394705A1 (en) Location determination in a gps-denied environment with user annotation
JP5837404B2 (en) Image processing apparatus and image processing method
US9188444B2 (en) 3D object positioning in street view
KR20180133052A (en) Method for authoring augmented reality contents based on 360 degree image and video
JP2000047579A (en) Map data base updating device
KR100971777B1 (en) Method, system and computer-readable recording medium for removing redundancy among panoramic images
JP2021196675A (en) Computer system and program
JP3984155B2 (en) Subject estimation method, apparatus, and program
CN115797438A (en) Object positioning method, device, computer equipment, storage medium and program product
JP4685286B2 (en) Information update processing device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220913