JP2021196675A - Computer system and program - Google Patents
Computer system and program Download PDFInfo
- Publication number
- JP2021196675A JP2021196675A JP2020100563A JP2020100563A JP2021196675A JP 2021196675 A JP2021196675 A JP 2021196675A JP 2020100563 A JP2020100563 A JP 2020100563A JP 2020100563 A JP2020100563 A JP 2020100563A JP 2021196675 A JP2021196675 A JP 2021196675A
- Authority
- JP
- Japan
- Prior art keywords
- image
- map data
- original image
- feature
- corrected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 claims description 30
- 230000008859 change Effects 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 32
- 238000000034 method Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 13
- 238000000605 extraction Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 7
- 238000003702 image correction Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Abstract
Description
本開示の一側面はコンピュータシステム、処理方法、プログラム、および/またはデータ構造に関する。 One aspect of the disclosure relates to computer systems, processing methods, programs, and / or data structures.
特許文献1には、画像データと地図データとの間の歪み量に基づいて、画像データおよび地図データのいずれか一方を、他方のデータの視点から見たデータに変換する画像認識方法が記載されている。特許文献2には、風景を撮影した撮影画像に基づいて風景画像の認識を行う際に利用される参照データを生成する画像処理システムが記載されている。
撮影画像の歪みを適切に補正することが望まれている。 It is desired to appropriately correct the distortion of the captured image.
本開示の一側面に係るコンピュータシステムはプロセッサを備える。プロセッサは、被写地物を含む元画像を取得し、複数世代の地図データを記憶する地図データベースにアクセスして、元画像の撮影時期に対応する世代の地図データを選択し、元画像の撮影地点に対応する基準地物を該選択された地図データを用いて特定し、基準地物と被写地物とに基づいて元画像の歪みを補正して、補正画像を生成する。 The computer system according to one aspect of the present disclosure comprises a processor. The processor acquires the original image including the object to be photographed, accesses the map database that stores the map data of multiple generations, selects the map data of the generation corresponding to the shooting time of the original image, and shoots the original image. The reference feature corresponding to the point is identified using the selected map data, and the distortion of the original image is corrected based on the reference feature and the projected feature to generate a corrected image.
以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are designated by the same reference numerals, and duplicate description is omitted.
[システムの概要]
本実施形態では、一例として、本開示に係るコンピュータシステムを画像処理システム1に適用する。実施形態に係る画像処理システム1は、地物を写す画像の歪みを補正するコンピュータシステムである。
[System overview]
In the present embodiment, as an example, the computer system according to the present disclosure is applied to the
画像とは、人が視覚を通して何らかの事象を認識することができるように所定の媒体上で表現される情報をいう。画像はカメラなどの撮像装置によって生成された画像でもよいし、撮影後に任意の他の画像処理が施された画像でもよい。画像を示す電子データ、すなわち画像データがコンピュータにより処理されることで画像が可視化され、その結果、人は視覚を通じて画像を認識することができる。一例では、画像は静止画、すなわち写真である。 An image is information expressed on a predetermined medium so that a person can recognize an event through vision. The image may be an image generated by an image pickup device such as a camera, or may be an image subjected to any other image processing after shooting. Electronic data indicating an image, that is, image data is processed by a computer to visualize the image, and as a result, a person can recognize the image through vision. In one example, the image is a still image, i.e. a photograph.
画像は、人が持つカメラによって撮影されてもよいし、自動車、ドローンなどの移動体に搭載されたカメラによって撮影されてもよい。撮影に用いられるカメラの種類(360度カメラ、広角レンズ、魚眼レンズ)、撮影技術などの要因によって画像に歪みが生ずることがある。画像処理システム1はこのような歪みを補正する。
The image may be taken by a camera held by a person, or may be taken by a camera mounted on a moving body such as a car or a drone. The image may be distorted due to factors such as the type of camera used for shooting (360-degree camera, wide-angle lens, fisheye lens), shooting technology, and the like. The
画像の歪みとは、画像に映る被写体が、人が視覚を通してその被写体を認識する場合と異なるように変形することをいう。画像の歪みの例として、画像の少なくとも一部における伸びまたは縮みが挙げられるが、これらに限定されない。「画像の歪みを補正する」とは、画像に映る被写体が、人が視覚を通してその被写体を認識する場合と同じにまたは近くなるように、その画像を加工することをいう。本開示では、画像の歪みを補正することを単に「画像を補正する」または「画像の補正」ともいう。或る共通の撮影範囲を写す二つの画像の間で歪みの具合が異なるとしても、画像処理システム1はこれらの画像を補正して、補正された二つの画像をほぼ同じにして、双方の画像を比較可能にすることができる。このように画像間の比較を可能にするための補正を「正規化」ともいう。
Image distortion means that the subject appearing in an image is deformed so as to be different from the case where a person visually recognizes the subject. Examples of image distortion include, but are not limited to, stretching or shrinking in at least a portion of the image. "Correcting image distortion" means processing an image so that the subject appearing in the image is the same as or close to the subject recognized by a person through vision. In the present disclosure, correcting image distortion is also simply referred to as "image correction" or "image correction". Even if the degree of distortion differs between two images that capture a common shooting range, the
本開示では、歪みを補正するために画像処理システム1によって処理される画像(すなわち、被写体が歪んだ画像)を「元画像」といい、歪みが補正された画像を「補正画像」という。
In the present disclosure, an image processed by the
地物とは、地上に存在する任意の有体物である。地物は自然物でも人工物でもよい。例えば、地物は、山地、農地、住宅地、更地、河川、湖、海、観光地、道路、鉄道、建物、公園、塔、信号機、踏切、横断歩道、歩道橋、浮標、交通標識、路面標示などを含み得る。 A feature is any tangible object that exists on the ground. The feature may be a natural object or an artificial object. For example, features include mountains, farmlands, residential areas, vacant lots, rivers, lakes, seas, tourist areas, roads, railroads, buildings, parks, towers, traffic lights, railroad crossings, sidewalks, pedestrian bridges, floating signs, traffic signs, road surfaces. It may include markings and the like.
[システムの構成]
図1は画像処理システム1の適用の一例を示す図である。画像処理システム1は、該システムの主要な機能を実行するサーバ10を備える。一例では、サーバ10は通信ネットワークを介して地図データベース20および1以上のユーザ端末30と接続する。
[System configuration]
FIG. 1 is a diagram showing an example of application of the
サーバ10は元画像の歪みを補正するコンピュータである。一例では、サーバ10はユーザ端末30からの要求に基づいて元画像の歪みを補正し、補正画像をユーザ端末30に送信する。
The
図1はサーバ10の機能構成の一例も示す。サーバ10は機能モジュールとして通信部11、特定部12、補正部13、および変化抽出部14を備える。通信部11はユーザ端末30との間でデータを送受信する機能モジュールである。特定部12は元画像の補正のために必要な各種の情報を特定する機能モジュールである。補正部13は特定された情報に基づいて元画像を補正する機能モジュールである。変化抽出部14は、二つの補正画像を比較して、時間の経過に伴う地物の変化を抽出する機能モジュールである。
FIG. 1 also shows an example of the functional configuration of the
サーバ10として機能するコンピュータは限定されない。一例では、サーバ10は業務用サーバなどの大型のコンピュータによって構成される。図2は、サーバ10のハードウェア構成の一例を示す図である。例えば、サーバ10は制御回路100を有する。一例では、制御回路100は、一つまたは複数のプロセッサ101と、メモリ102と、ストレージ103と、通信ポート104と、入出力ポート105とを有する。プロセッサ101はオペレーティングシステムおよびアプリケーションプログラムを実行する。ストレージ103はハードディスク、不揮発性の半導体メモリ、または取り出し可能な媒体(例えば、磁気ディスク、光ディスクなど)の記憶媒体で構成され、オペレーティングシステムおよびアプリケーションプログラムを記憶する。メモリ102は、ストレージ103からロードされたプログラム、またはプロセッサ101による演算結果を一時的に記憶する。一例では、プロセッサ101は、メモリ102と協働してプログラムを実行することで、サーバ10の各機能モジュールとして機能する。通信ポート104は、プロセッサ101からの指令に従って、通信ネットワークNWを介して他の装置との間でデータ通信を行う。入出力ポート105は、プロセッサ101からの指令に従って、キーボード、マウス、モニタなどの入出力装置(ユーザインタフェース)との間で電気信号の入出力を実行する。
The computer that functions as the
ストレージ103は、コンピュータをサーバ10として機能させるためのプログラム120を記憶する。プログラム120は、コンピュータを上記の各機能モジュールとして機能させるためのプログラムコードを含む。プログラム120は、CD−ROM、DVD−ROM、半導体メモリなどの非一時的な記録媒体に固定的に記録された上で提供されてもよい。あるいは、プログラム120は、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。
The
サーバ10は一つまたは複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークを介してこれらのコンピュータが互いに接続されることで論理的に一つのサーバ10が構成される。
The
地図データベース20は、地図を構成する地図要素を示す地図データを永続的に記憶する非一時的な記憶媒体または記憶装置である。地図データは個々の地物の情報を示す。一例では、個々の地物を示すレコードは地物ID、地理的位置、および属性(本開示ではこれを「地物属性」という)を含む。地物IDは地物を一意に特定する識別子である。地理的位置とは現実世界における場所をいう。地理的位置は例えば緯度経度で表されるが、他の指標によって表現されてもよい。地物属性とは地物の特徴または性質をいい、任意のデータ項目によって表される。地物属性の例として、地物の種類、名称、所在地、構造、建築時期、および入居者が挙げられるが、地物属性はこれらに限定されず、任意のデータ項目によって表されてよい。
The
本実施形態では、地図データベース20は複数世代の地図データを記憶する。地図データの「世代」とは、地図の内容の更新を示す概念であり、地図データの「バージョン」と言い換えることもできる。一般に、時間の経過に伴って、新たな地物が設置されたり、地物の位置が変更されたり、地物が撤去されたりする。このような地物の変更を地図に反映させるために、地図データは或るタイミングで(例えば1年に1度、数年に一度など)更新される。「複数世代の地図データ」は、その更新によって蓄積されていく過去および現在の地図データの集合であるといえる。例えば、地図データMaが更新によって地図データMbに変わると、地図データMbは地図データMaの次の世代(バージョン)であるといえる。地図データMaが第n世代であれば、地図データMbは第(n+1)世代である。本開示では地図データの世代を自然数で表す。
In this embodiment, the
地図データベース20は第1世代から第n世代(n>1)までの地図データを記憶する。各世代の地図データには、その世代の時期を示す時期情報が関連付けられる。例えば、時期情報は地図データが作製された日付(年月日)を示してもよい。例えば、地図データベース20が3世代の地図データを記憶しているとして、第1世代、第2世代、および第3世代の地図データの時期情報がそれぞれ、「2017年12月1日」、「2018年12月15日」、「2019年12月1日」を示してもよい。あるいは、時期情報は地図データの有効期間を示してもよい。例えば、第1世代、第2世代、および第3世代の地図データの時期情報がそれぞれ、「2017年12月1日〜2018年12月14日」、「2018年12月15日〜2019年11月30日」、「2019年12月1日以降」を示してもよい。このように、時期情報の表現方法は限定されない。いずれにしても、時期情報を参照することで、或る時点で有効な地図データを特定することができる。
The
地図データの構造は限定されず、任意の方針でデータ構造が設計されてよい。例えば、上述した地物を示すレコードが任意の方針で正規化または非正規化されて一または複数のデータテーブル上に記憶されてもよい。 The structure of the map data is not limited, and the data structure may be designed by any policy. For example, the record indicating the above-mentioned feature may be normalized or denormalized by an arbitrary policy and stored in one or more data tables.
地図データの個々のデータ項目は静的に設定されてもよいし動的に設定されてもよい。「静的に設定される」とは、値が予め設定され、人手の介入がない限りはその設定が変更されないことをいう。一方、「動的に設定される」とは、値が任意の事象に応じて人手の介入無しに変更され得ることをいう。動的な設定は、所与のデータ項目を制御するプログラムが所定のコンピュータ上で実行されることで実現される。動的な設定は画像処理システム1により実行されてもよいし、別のコンピュータシステムにより実行されてもよい。
The individual data items of the map data may be set statically or dynamically. "Statically set" means that the value is preset and the setting is not changed unless there is manual intervention. On the other hand, "dynamically set" means that the value can be changed in response to any event without manual intervention. Dynamic configuration is achieved by running a program that controls a given data item on a given computer. The dynamic settings may be performed by the
地図データベース20の設置場所は限定されない。例えば、地図データベース20は、画像処理システム1の一部として構築されてサーバ10に内蔵されてもよいし、画像処理システム1とは別のコンピュータシステムに設けられてもよい。
The installation location of the
一例では、サーバ10は、第1制御部(より具体的には、特定部12)からの指示に応答して地図データベース20(地図データ)を参照する参照ステップを、該第1制御部とは異なる第2制御部に実行させるプログラムを実行する。例えば、このプログラムはアプリケーション・プログラミング・インタフェース(API)として実装される。第1制御部および第2制御部はいずれも機能モジュールであり、プロセッサ上で実現される。第1制御部が実行されるプロセッサと第2制御部が実行されるプロセッサとが同じでもよいし異なってもよい。例えば、第1制御部および第2制御部の少なくとも一つはプロセッサ101上で実現される。
In one example, the
ユーザ端末30はユーザによって操作されるコンピュータ(クライアント端末)である。ユーザ端末30は固定端末でもよいし携帯端末でもよい。ユーザ端末30の例として、携帯電話機、スマートフォン、タブレット端末、ウェアラブル端末、またはパーソナルコンピュータが挙げられるが、端末の種類はこれらに限定されない。図1では一つのユーザ端末30のみを示すが、画像処理システム1にアクセスするユーザ端末30の台数は限定されない。
The
[システムでの処理手順]
(画像の補正)
図3を参照しながら、画像処理システム1の動作を説明するとともに本実施形態に係る画像補正方法を説明する。図3は画像処理システム1の動作の一例を処理フローS1として示すフローチャートである。
[Processing procedure in the system]
(Image correction)
The operation of the
ステップS11では、通信部11が、被写地物を含む元画像を示す元画像データをユーザ端末30から受信する。被写地物とは画像に映った地物をいう。元画像データは撮影時期および撮影地点のうちの少なくとも一つを示してもよい。撮影時期とは元画像が撮影された時期をいう。撮影時期は日付(年月日)によって表されてもよいし、日付および時刻によって表されてもよい。例えば、撮影時期は撮像装置のタイマによって得られる日時で表される。撮影地点とは元画像が撮影された場所をいう。撮影地点の表現方法は限定されず、例えば緯度経度で表されてもよいし、市区町村名、街区名、号番などで表されてもよい。例えば、撮影地点は、撮像装置のGPS(全地球測位システム)機能によって得られる緯度経度、および撮影方向(例えば、東、西、南、北)で表される。元画像データは他のデータ項目を含んでもよい。
In step S11, the
ステップS12では、特定部12が、元画像の撮影時期および撮影地点を特定する。元画像データが撮影時期および撮影地点を示す場合には、特定部12はその撮影時期および撮影地点をそのまま特定することができる。元画像データが撮影時期を示すが撮影地点を示さない場合には、特定部12は撮影時期に対応する世代の地図データ(撮影時期において有効である地図データ)を選択する。一例では、元画像データの撮影時期が「2018年6月1日」である場合、特定部12は撮影時期に対応する世代の地図データとして、「2017年12月1日」という時期情報を含む地図データと、「2018年12月15日」という時期情報を含む地図データとを選択する。また、別の例では、元画像データの撮影時期が「2018年8月1日」である場合、特定部12は撮影時期に対応する世代の地図データとして「2017年12月1日〜2018年12月14日」という時期情報を含む地図データを選択する。また。特定部12は画像解析を実行して、複数の被写地物およびその位置関係を推定する。一例では、特定部12は撮影地点の緯度経度と地図データに含まれる地理的位置(緯度経度)とを比較し、その撮影地点の緯度経度を含む地図データを選択する。そして、特定部12は選択された地図データを参照して、その推定結果に合致する地理的位置を撮影地点として特定する。
In step S12, the specifying
元画像データが撮影地点を示すが撮影時期を示さない場合には、特定部12は画像解析を実行して、複数の被写地物およびその位置関係を推定する。一例では、特定部12は撮影地点の緯度経度と地図データに含まれる地理的位置(緯度経度)を比較し、その撮影地点の緯度経度を含む地図データを選択する。そして、特定部12は複数世代の地図データのそれぞれを参照して、被写地物の位置関係に合致する撮影地点を有する地図データの時期を撮影時期として特定する。
When the original image data indicates a shooting point but does not indicate a shooting time, the
元画像データが撮影時期および撮影地点を示さない場合には、特定部12は複数の被写地物およびその位置関係を推定し、複数世代の地図データを参照して、その推定結果に合致する地理的位置を撮影地点として特定する。一例では、特定部12は第1世代から順次第n世代(n>1)までの地図データを参照して、その推定結果に合致する地理的位置を撮影地点として特定する。または、特定部12は第n世代から順次第1世代までの地図データを参照して、その推定結果に合致する地理的位置を撮影地点として特定する。そして、特定部12は撮影地点を特定するために用いた地図データの時期を撮影時期として特定する。
When the original image data does not indicate the shooting time and the shooting point, the
ステップS13では、特定部12が撮影時期に対応する地図データを用いて、撮影地点に対応する地理的範囲を特定する。一例では、特定部12は地図データベース20を参照して、撮影時期に対応する世代の地図データ(撮影時期において有効である地図データ)を選択する。一例では、元画像データの撮影時期が「2018年6月1日」である場合、特定部12は撮影時期に対応する世代の地図データとして、「2017年12月1日」という時期情報を含む地図データと、「2018年12月15日」という時期情報を含む地図データとを選択する。別の例において、元画像データの撮影時期が「2018年8月1日」である場合、特定部12は撮影時期に対応する世代の地図データとして、「2017年12月1日〜2018年12月14日」という時期情報を含む地図データを選択する。続いて、特定部12はその地図データを参照して、撮影地点に対応する地理的範囲を特定する。撮影地点に対応する地理的範囲とは、撮影地点を含む地理的範囲でもよいし、撮影地点の近傍に位置する地理的範囲でもよい。特定される地理的範囲の形状は限定されず、例えば矩形でもよいし円形でもよい。特定される地理的範囲の寸法も限定されず、例えば数メートル四方でもよいし数十メートル四方でもよい。
In step S13, the
ステップS14では、特定部12が、特定された地理的範囲に含まれる地物を基準地物として特定する。具体的には、特定部12は選択された地図データを参照して、その地理的範囲内に位置する一または複数の地物を基準地物として特定する。一例では、特定部12は複数の世代の地図データにおいて位置が変わらない地物を基準地物として特定する。すなわち、特定部12は相対的に長い期間にわたって位置が変わらない地物を基準地物として特定する。基準地物の例としてマンホールおよびビルが挙げられるが、基準地物として特定される地物はこれらに限定されない。
In step S14, the specifying
ステップS15では、補正部13が、基準地物および被写地物に基づいて、元画像データで示される元画像の歪みを補正する。補正方法は限定されず、補正部13は任意のアルゴリズムを用いて元画像を補正してよい。一例では、補正部13は基準地物の位置または形状と、被写地物の位置または形状に基づいて元画像を補正する。例えば、補正部13は元画像を解析することでそれぞれの被写地物を基準地物と対応付けた上で、元画像での複数の被写地物の位置関係が複数の基準地物間の位置関係と一致するように元画像の歪みを補正してもよい。その位置関係を規定するための各地物の位置は、地物の地理的位置でもよいし、地物の外縁を規定する座標でもよい。歪みを補正する程度、すなわち歪みが正される度合いは、補正処理の際に基準となる被写地物または基準地物の個数に依存し得る。例えば、補正の程度は、被写地物または基準地物の個数が多いほど高くなり得る。補正部13はその補正の度合いを判定してもよい。
In step S15, the
図4は元画像の補正の一例を示す図であり、具体的には、元画像210の歪みを補正して補正画像220を生成する例を示す。この元画像210はマンホール211、ビル212〜215などの被写地物を含む。ビル213の角に付した複数の点213pは、ビル213の外縁を規定する座標の一例である。例えば、補正部13はそれぞれの被写地物の地理的位置と、それぞれのビルの外縁の座標のうちの2以上の位置に基づいて、元画像210の歪みを補正して補正画像220を生成する。
FIG. 4 is a diagram showing an example of correction of the original image, and specifically, shows an example of correcting the distortion of the
図3に戻って、ステップS16では、補正部13が補正画像を示す補正画像データを生成する。補正部13は、補正画像の被写地物に関する付加情報をさらに含む補正画像データを生成してもよい。例えば、補正部13は地図データベース20から被写地物の地物属性を取得して、その地物属性を付加情報として補正画像データに含めてもよい。元画像データが撮影時期を示さない場合には、補正部13は選択された地図データの時期情報に基づいて撮影時期を設定し、その撮影時期を付加情報として補正画像データに含めてもよい。元画像データが撮影地点を示さない場合には、補正部13は特定された地理的範囲に基づいて撮影地点を設定し、その撮影地点を付加情報として補正画像データに含めてもよい。補正部13は補正の度合いを示す指標を補正画像データに含めてもよい。
Returning to FIG. 3, in step S16, the
ステップS17では、通信部11が補正画像を示す補正画像データをユーザ端末30に向けて送信する。一例では、ユーザ端末30はその補正画像データを受信および表示し、これによりユーザはその補正画像を視認することができる。補正画像データが付加情報を含む場合には、ユーザ端末30はその付加情報を表示し、これによりユーザは被写地物または元画像に関する情報を得ることができる。補正画像データが補正の度合いを示す場合には、ユーザはその指標を見て、画像の歪みがどのくらい補正されたかを知ることができる。
In step S17, the
[補正画像の利用]
補正画像は任意の目的で用いられてよい。上述したように、共通の撮影範囲を写すが撮影時期が異なる二つの元画像を正規化することで、画像間の比較をすることが可能になり、例えば、その撮影範囲に存在する地物の時間的変化を抽出することができる。一例では、画像処理システム1は共通の撮影地点で撮影された第1元画像および第2元画像のそれぞれについて処理フローS1を実行して、第1補正画像および第2補正画像を生成する。その後、画像処理システム1では変化抽出部14がその二つの補正画像の差分に基づいて地物の時間的変化を抽出する。地物の時間的変化の例として、新たな地物の設置、地物の位置の変更、および地物の撤去が挙げられる。例えば、通信部11がユーザ端末30から第1補正画像および第2補正画像を受信し、変化抽出部14がその二つの画像の差分を求めて、この差分に基づいて地物の時間的変化を抽出する。通信部11はその抽出結果をユーザ端末に向けて送信する。
[Use of corrected image]
The corrected image may be used for any purpose. As described above, by normalizing two original images that capture a common shooting range but differ in shooting time, it is possible to compare images, for example, features existing in that shooting range. Temporal changes can be extracted. In one example, the
図5は補正画像間の変化を示す図である。この例では、第1補正画像310および第2補正画像320は、道路311およびマンホール312を含む共通の撮影範囲を写す。第1補正画像310は、画像においてマンホール312よりも奥に位置する道路標識313をさらに写す。第2補正画像320は、画像においてマンホール312よりも奥に位置する道路標識321をさらに写す。この例では、変化抽出部14は第1補正画像310および第2補正画像320の差分に基づいて、道路標識の位置の変更を抽出し、その変更を示す抽出結果を提供する。
FIG. 5 is a diagram showing changes between corrected images. In this example, the first corrected
ユーザはその抽出結果を確認することで、地物の時間的変化を把握することができる。また、ユーザは第1補正画像および第2補正画像の撮影時期も考慮して、その地物の変化が発生したおおよその時期を把握することもできる。ユーザが地図の調査員であれば、その地物の変化に基づいて、地図データベース20の地図情報を更新するための現地調査に向かうことができる。したがって、画像処理システム1を用いることで、その現地調査が必要なタイミングを自動的に調査員に伝えることができる。画像処理システム1により把握された地物の時間的変化が信頼できる場合には、調査員による現地調査を省略して地図データベース20を自動的に更新することができる。
By confirming the extraction result, the user can grasp the temporal change of the feature. In addition, the user can grasp the approximate time when the change of the feature occurs in consideration of the shooting time of the first corrected image and the second corrected image. If the user is a map researcher, he / she can go to a field survey to update the map information of the
あるいは、補正画像は仮想現実(VR)または拡張現実(AR)のためにディスプレイ上に表示される画像として用いられてもよい。例えば、ユーザ端末30から受信した元画像が現在の地物の様子を写したものである場合、サーバ10の特定部12は最新の世代の地図データを参照して撮影地点を特定する。続いて、特定部12は過去の世代の地図データに遡って、同一の撮影地点における過去の被写地物を取得する。続いて、補正部13が取得された被写地物に基づいて補正画像を生成する。そして通信部11が、過去の風景(被写地物)を写したその補正画像をユーザ端末30に送信する。ユーザ端末30はその補正画像を表示することで、被写地物のその当時の様子をユーザに伝えることができる。この場合、通信部11から送信される情報は、補正画像に限らず、被写地物の過去の地物属性(例えば、地物の種類、名称をあらわす情報)であってもよい。また、通信部11から送信される情報は、補正画像と被写地物の過去の地物属性との両方であってもよい。
Alternatively, the corrected image may be used as an image to be displayed on the display for virtual reality (VR) or augmented reality (AR). For example, when the original image received from the
別の例として、ユーザ端末30から取得した元画像が過去の地物の様子を写したものである場合、特定部12は、過去の世代の地図データを参照して撮影地点を特定する。続いて、特定部12は最新の世代の地図データを辿って同一の撮影地点における現在の被写地物を取得する。続いて、補正部13が取得された被写地物に基づいて補正画像を生成する。そして、通信部11が、現在の風景(被写地物)を写したその補正画像をユーザ端末30に送信する。ユーザ端末30はその補正画像を表示することで、現在の様子をユーザに伝えることができる。この場合、通信部11から送信される情報は、補正画像に限らず、被写地物の現在の地物属性(例えば、地物の種類、名称をあらわす情報)であってもよい。また、通信部11から送信される情報は、補正画像と被写地物の現在の地物属性との両方であってもよい。
As another example, when the original image acquired from the
[効果]
以上説明したように、本開示の一側面に係るコンピュータシステムはプロセッサを備える。プロセッサは、被写地物を含む元画像を取得し、複数世代の地図データを記憶する地図データベースにアクセスして、元画像の撮影時期に対応する世代の地図データを選択し、元画像の撮影地点に対応する基準地物を該選択された地図データを用いて特定し、基準地物と被写地物とに基づいて元画像の歪みを補正して、補正画像を生成する。
[effect]
As described above, the computer system according to one aspect of the present disclosure includes a processor. The processor acquires the original image including the object to be photographed, accesses the map database that stores the map data of multiple generations, selects the map data of the generation corresponding to the shooting time of the original image, and shoots the original image. The reference feature corresponding to the point is identified using the selected map data, and the distortion of the original image is corrected based on the reference feature and the projected feature to generate a corrected image.
本開示の一側面に係るプログラムは、被写地物を含む元画像を取得するステップと、複数世代の地図データを記憶する地図データベースにアクセスして、元画像の撮影時期に対応する世代の地図データを選択し、元画像の撮影地点に対応する基準地物を該選択された地図データを用いて特定するステップと、基準地物と被写地物とに基づいて元画像の歪みを補正して、補正画像を生成するステップとをコンピュータに実行させる。 The program according to one aspect of the present disclosure is to access the step of acquiring the original image including the object to be photographed and the map database that stores the map data of multiple generations, and to access the map of the generation corresponding to the time when the original image was taken. The steps of selecting data and identifying the reference feature corresponding to the shooting point of the original image using the selected map data, and correcting the distortion of the original image based on the reference feature and the object to be photographed. And let the computer perform the steps to generate the corrected image.
このような側面においては、元画像に対応する時期の地図データが選択され、その地図データから得られる基準地物と被写地物とに基づいて元画像の歪みが補正される。元画像に対応する時期の地物の情報を用いることで、撮影画像の歪みを適切に補正することができる。 In such an aspect, the map data of the time corresponding to the original image is selected, and the distortion of the original image is corrected based on the reference feature and the projected feature obtained from the map data. By using the information of the feature at the time corresponding to the original image, the distortion of the captured image can be appropriately corrected.
他の側面に係るコンピュータシステムでは、地図データが個々の地物の属性を示してもよい。プロセッサは、地図データを参照して、被写地物の属性を地物属性として取得し、補正画像と地物属性とを含む補正画像データを出力してもよい。この処理によって、画像に映っている地物の情報を提供することができる。 In computer systems of other aspects, map data may indicate the attributes of individual features. The processor may refer to the map data, acquire the attribute of the object to be photographed as the feature attribute, and output the corrected image data including the corrected image and the feature attribute. By this processing, it is possible to provide information on the features shown in the image.
他の側面に係るコンピュータシステムでは、プロセッサが、選択された地図データの世代に対応する時期を元画像の撮影時期として推定し、補正画像と推定された撮影時期とを含む補正画像データを出力してもよい。この処理によって、元画像の撮影時期が不明な場合でも、その撮影時期を推定して補正画像データに該撮影時期の情報を埋め込むことができる。 In a computer system according to another aspect, the processor estimates the time corresponding to the selected generation of map data as the shooting time of the original image, and outputs the corrected image data including the corrected image and the estimated shooting time. You may. By this process, even if the shooting time of the original image is unknown, the shooting time can be estimated and the information of the shooting time can be embedded in the corrected image data.
他の側面に係るコンピュータシステムでは、プロセッサが、補正画像と補正の度合いとを含む補正画像データを出力してもよい。この処理によって、歪みがどのくらい補正されたかを示す情報を提供することができる。 In a computer system according to another aspect, the processor may output corrected image data including a corrected image and a degree of correction. This process can provide information indicating how much the distortion has been corrected.
他の側面に係るコンピュータシステムでは、プロセッサが、共通の撮影範囲を写す第1元画像および第2元画像のそれぞれの歪みを補正して第1補正画像および第2補正画像を生成し、第1補正画像および第2補正画像の差分に基づいて地物の変化を抽出してもよい。この処理によって地物の変化を自動的に把握することが可能になる。 In the computer system according to the other aspect, the processor corrects the distortions of the first and second original images that capture a common shooting range to generate the first corrected image and the second corrected image, and first. Changes in features may be extracted based on the difference between the corrected image and the second corrected image. This process makes it possible to automatically grasp changes in features.
[変形例]
以上、本開示をその実施形態に基づいて詳細に説明した。しかし、本開示は上記実施形態に限定されるものではない。本開示は、その要旨を逸脱しない範囲で様々な変形が可能である。
[Modification example]
The present disclosure has been described in detail above based on the embodiment. However, the present disclosure is not limited to the above embodiment. This disclosure can be modified in various ways without departing from its gist.
上記実施形態では、特定部12が撮影地点に対応する地理的範囲を特定し、その地理的範囲に含まれる基準地物を特定する。しかし、特定部12はその地理的範囲を特定することなく、撮影時期に対応する地図データを用いて撮影地点から直接に基準地物を特定してもよい。
In the above embodiment, the
上記実施形態ではサーバ10が変化抽出部14を備えるが、この機能モジュールは必須の構成要素ではない。したがって、画像処理システム1は二つの補正画像を比較して地物の変化を抽出する機能を有しなくてもよい。
In the above embodiment, the
上記実施形態では本開示に係るコンピュータシステムをクライアントサーバシステムに適用するが、本開示に係るコンピュータシステムはスタンドアロンのコンピュータに適用されてもよい。 In the above embodiment, the computer system according to the present disclosure is applied to the client-server system, but the computer system according to the present disclosure may be applied to a stand-alone computer.
本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、またはこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念を示す。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念を示す。
In the present disclosure, the expression "at least one processor executes the first process, executes the second process, ... executes the nth process", or the expression corresponding thereto is the first. The concept including the case where the execution subject (that is, the processor) of n processes from the
コンピュータシステム内で二つの数値の大小関係を比較する際には、「以上」および「よりも大きい」という二つの基準のどちらを用いてもよく、「以下」および「未満」の二つの基準のうちのどちらを用いてもよい。このような基準の選択は、二つの数値の大小関係を比較する処理についての技術的意義を変更するものではない。 When comparing the magnitude relations of two numbers in a computer system, either of the two criteria "greater than or equal to" and "greater than or equal to" may be used, and the two criteria of "less than or equal to" and "less than" Either of them may be used. The selection of such criteria does not change the technical significance of the process of comparing the magnitude relations of two numbers.
少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正または削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。 The processing procedure of the method executed by at least one processor is not limited to the example in the above embodiment. For example, some of the steps (processes) described above may be omitted, or the steps may be executed in a different order. Further, any two or more steps among the above-mentioned steps may be combined, or a part of the steps may be modified or deleted. Alternatively, other steps may be performed in addition to each of the above steps.
以上の実施形態の全部または一部に記載された態様は、画像の適切な補正、処理速度の向上、処理精度の向上、使い勝手の向上、データを利用した機能の向上または適切な機能の提供その他の機能向上または適切な機能の提供、データおよび/またはプログラムの容量の削減、装置および/またはシステムの小型化等の適切なデータ、プログラム、記録媒体、装置および/またはシステムの提供、並びにデータ、プログラム、装置またはシステムの制作・製造コストの削減、制作・製造の容易化、制作・製造時間の短縮等のデータ、プログラム、記録媒体、装置および/またはシステムの制作・製造の適切化のいずれか一つの課題を解決する。 The embodiments described in all or part of the above embodiments include appropriate correction of images, improvement of processing speed, improvement of processing accuracy, improvement of usability, improvement of functions using data, provision of appropriate functions, and the like. Providing appropriate data, programs, recording media, equipment and / or systems, and data, such as improving or providing appropriate functions, reducing the capacity of data and / or programs, and downsizing equipment and / or systems. Any of the optimization of production / manufacturing of data, programs, recording media, equipment and / or systems such as reduction of production / manufacturing cost of programs, equipment or systems, facilitation of production / manufacturing, shortening of production / manufacturing time, etc. Solve one problem.
1…画像処理システム、10…サーバ、11…通信部、12…特定部、13…補正部、14…変化抽出部、20…地図データベース、30…ユーザ端末、120…プログラム、210…元画像、220…補正画像、310…第1補正画像、320…第2補正画像。 1 ... image processing system, 10 ... server, 11 ... communication unit, 12 ... specific unit, 13 ... correction unit, 14 ... change extraction unit, 20 ... map database, 30 ... user terminal, 120 ... program, 210 ... original image, 220 ... Corrected image, 310 ... First corrected image, 320 ... Second corrected image.
Claims (6)
前記プロセッサが、
被写地物を含む元画像を取得し、
複数世代の地図データを記憶する地図データベースにアクセスして、前記元画像の撮影時期に対応する世代の前記地図データを選択し、前記元画像の撮影地点に対応する基準地物を該選択された地図データを用いて特定し、
前記基準地物と前記被写地物とに基づいて前記元画像の歪みを補正して、補正画像を生成する、
コンピュータシステム。 Equipped with a processor
The processor
Acquire the original image including the object to be photographed,
The map database that stores the map data of multiple generations was accessed, the map data of the generation corresponding to the shooting time of the original image was selected, and the reference feature corresponding to the shooting point of the original image was selected. Identify using map data,
A corrected image is generated by correcting the distortion of the original image based on the reference feature and the projected feature.
Computer system.
前記プロセッサが、
前記地図データを参照して、前記被写地物の前記属性を地物属性として取得し、
前記補正画像と前記地物属性とを含む補正画像データを出力する、
請求項1に記載のコンピュータシステム。 The map data shows the attributes of individual features.
The processor
With reference to the map data, the attribute of the object to be photographed is acquired as a feature attribute.
Outputs corrected image data including the corrected image and the feature attribute.
The computer system according to claim 1.
前記選択された地図データの世代に対応する時期を前記元画像の前記撮影時期として推定し、
前記補正画像と前記推定された撮影時期とを含む補正画像データを出力する、
請求項1または2に記載のコンピュータシステム。 The processor
The time corresponding to the generation of the selected map data is estimated as the shooting time of the original image.
Outputs corrected image data including the corrected image and the estimated shooting time.
The computer system according to claim 1 or 2.
請求項1〜3のいずれか一項に記載のコンピュータシステム。 The processor outputs corrected image data including the corrected image and the degree of the correction.
The computer system according to any one of claims 1 to 3.
共通の撮影範囲を写す第1元画像および第2元画像のそれぞれの歪みを補正して第1補正画像および第2補正画像を生成し、
前記第1補正画像および前記第2補正画像の差分に基づいて地物の変化を抽出する、
請求項1〜4のいずれか一項に記載のコンピュータシステム。 The processor
The distortions of the first original image and the second original image that capture the common shooting range are corrected to generate the first corrected image and the second corrected image.
The change of the feature is extracted based on the difference between the first corrected image and the second corrected image.
The computer system according to any one of claims 1 to 4.
複数世代の地図データを記憶する地図データベースにアクセスして、前記元画像の撮影時期に対応する世代の前記地図データを選択し、前記元画像の撮影地点に対応する基準地物を該選択された地図データを用いて特定するステップと、
前記基準地物と前記被写地物とに基づいて前記元画像の歪みを補正して、補正画像を生成するステップと、
をコンピュータに実行させるプログラム。 Steps to get the original image including the object to be shot,
The map database that stores the map data of multiple generations was accessed, the map data of the generation corresponding to the shooting time of the original image was selected, and the reference feature corresponding to the shooting point of the original image was selected. Steps to identify using map data and
A step of correcting the distortion of the original image based on the reference feature and the projected feature to generate a corrected image, and
A program that causes a computer to run.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020100563A JP2021196675A (en) | 2020-06-10 | 2020-06-10 | Computer system and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020100563A JP2021196675A (en) | 2020-06-10 | 2020-06-10 | Computer system and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021196675A true JP2021196675A (en) | 2021-12-27 |
Family
ID=79196349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020100563A Pending JP2021196675A (en) | 2020-06-10 | 2020-06-10 | Computer system and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021196675A (en) |
-
2020
- 2020-06-10 JP JP2020100563A patent/JP2021196675A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7584054B2 (en) | System and method for displaying storm tracks | |
KR101423928B1 (en) | Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method. | |
US9529511B1 (en) | System and method of generating a view for a point of interest | |
US20110143707A1 (en) | Incident reporting | |
KR102200299B1 (en) | A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof | |
KR100971778B1 (en) | Method, system and computer-readable recording medium for matching of panoramic image using graph structure | |
CN103685960A (en) | Method and system for processing image with matched position information | |
KR101042910B1 (en) | Method, system and computer-readable recording medium for providing service using electronic map | |
US20130201201A1 (en) | Object display device, object display method, and object display program | |
US9141858B2 (en) | Determining GPS coordinates for images | |
EP2577504B1 (en) | Methods and arrangements for augmented reality | |
CN104767816A (en) | Photography information collecting method, device and terminal | |
CN111837013A (en) | Method and system for determining geographic position based on image | |
CN109034214B (en) | Method and apparatus for generating a mark | |
JP2009037062A (en) | Map data updating apparatus and map data updating system | |
US20230394705A1 (en) | Location determination in a gps-denied environment with user annotation | |
JP5837404B2 (en) | Image processing apparatus and image processing method | |
US9188444B2 (en) | 3D object positioning in street view | |
KR20180133052A (en) | Method for authoring augmented reality contents based on 360 degree image and video | |
JP2000047579A (en) | Map data base updating device | |
KR100971777B1 (en) | Method, system and computer-readable recording medium for removing redundancy among panoramic images | |
JP2021196675A (en) | Computer system and program | |
JP3984155B2 (en) | Subject estimation method, apparatus, and program | |
CN115797438A (en) | Object positioning method, device, computer equipment, storage medium and program product | |
JP4685286B2 (en) | Information update processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20220913 |