JP5553483B2 - Optimal oblique photograph providing method, optimum oblique photograph providing system, and optimum oblique photograph providing apparatus - Google Patents

Optimal oblique photograph providing method, optimum oblique photograph providing system, and optimum oblique photograph providing apparatus Download PDF

Info

Publication number
JP5553483B2
JP5553483B2 JP2008107240A JP2008107240A JP5553483B2 JP 5553483 B2 JP5553483 B2 JP 5553483B2 JP 2008107240 A JP2008107240 A JP 2008107240A JP 2008107240 A JP2008107240 A JP 2008107240A JP 5553483 B2 JP5553483 B2 JP 5553483B2
Authority
JP
Japan
Prior art keywords
shooting
collimable
feature
information
target feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008107240A
Other languages
Japanese (ja)
Other versions
JP2009258386A (en
Inventor
重則 藤巻
亮平 本間
大祐 其阿彌
和也 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to JP2008107240A priority Critical patent/JP5553483B2/en
Publication of JP2009258386A publication Critical patent/JP2009258386A/en
Application granted granted Critical
Publication of JP5553483B2 publication Critical patent/JP5553483B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、最適写真提供方法における写真利用の手法として、目標地物に対して様々な角度・距離から撮影された複数の写真の中から、対象となる地物を利用者が要望する形式の最適な写真を提供する最適斜め写真提供方法に関する。   The present invention is a method of using a photograph in the optimum photograph providing method, in which a user requests a target feature from a plurality of photographs taken at various angles and distances with respect to the target feature. The present invention relates to an optimum oblique photograph providing method for providing an optimum photograph.

既存のGISやGoogle社のGoogle Mapに代表されるWebでの地理情報検索システムでは、地表面に対してほぼ垂直に撮影された衛星写真や航空写真をオルソ化し、地図と重ね合わせて表示している。さらに、Google社のGoogle EarthやMicrosoft社のVirtual Earthのように、垂直以外に斜め方向から撮影された写真についても撮影範囲の座標をもとに地図との関連付けを行い表示するシステムもある。   In the geographic information retrieval system on the Web represented by the existing GIS and Google's Google Map, the satellite and aerial photographs taken almost perpendicular to the ground surface are orthorectified and displayed superimposed on the map. Yes. In addition, there are systems such as Google Earth of Google and Virtual Earth of Microsoft that display images by associating them with a map based on the coordinates of the shooting range even if they are taken from an oblique direction other than vertical.

また、特許3212113のように地図と建物形状を利用した仮想空間での俯瞰画像を生成し地物の情報を提供するシステムもある。
特許3212113
In addition, there is a system for generating feature information by generating a bird's-eye view image in a virtual space using a map and a building shape as in Japanese Patent No. 3212113.
Patent 3212113

しかしながら、都市部での高層建築の密集地域で地表面に対して垂直に撮影された写真は、建物の屋上や屋根といった天頂部しか映像化されておらず、壁面等の側面は撮影されていない。   However, in a dense area of high-rise buildings in urban areas, photographs taken perpendicular to the ground surface only visualize the zenith such as the rooftop and roof of the building, and the side surfaces such as the walls are not photographed .

このため、利用者の地物へのアクセスや空間認識の向上を目的としてその映像情報を提供する場合に、情報利用者である歩行者や車輛の視点からの光景と、提供された従来手法の垂直撮影写真の光景とに差異が発生しやすく、斜め撮影写真と比べて現実空間における地物と写真内の地物との対応付けが難しいという課題がある。   For this reason, when providing video information for the purpose of improving user access to features and space recognition, the sight from the viewpoint of pedestrians and vehicles as information users and the conventional method provided There is a problem that a difference is likely to occur in the scene of the vertically photographed photograph, and it is difficult to associate the feature in the real space with the feature in the photograph as compared with the oblique photograph.

また、斜め撮影写真においても、対象地物が画角の大部分を占める写真や、検索者が当該地域の土地勘がある場合や、区画形状等から一般的な二次元の地図との対応付けが容易な場合を除いては複数の地物が撮影されている斜め撮影写真の中から検索対象地物を見つけることは難しいという課題がある。   In addition, even in diagonally photographed photographs, the target feature occupies the majority of the angle of view, the searcher has a local intuition for the area, and the correspondence with a general two-dimensional map from the section shape etc. There is a problem that it is difficult to find a search target feature from an obliquely photographed photograph in which a plurality of features are photographed, except in a case where it is easy.

また、撮影された地域を良く知っていたとしても、対象地物がはじめての場合は、その住所を便りに写真の中の複数の地物から対象地物を見つけることになる。   Even if the photographed area is well known, if the target feature is the first time, the target feature is found from a plurality of features in the photograph using the address.

また、対象地物が1個であっても、複数の斜め写真が存在している場合は、これらの写真の中で、例えば河川、海、道路等に対して最も大きな面で撮影されている写真かどうかは直ぐに判断できない。   In addition, even if there is only one target feature, if there are a plurality of oblique photographs, the photograph is taken on the largest surface of, for example, a river, sea, road, etc. Whether it is a photograph or not can not be judged immediately.

一方、斜め撮影という特性上、カメラが対象地物の方向を指向していても、手前に他の地物があればその地物の陰に対象地物が全部ないし一部が隠れてしまう場合もあり、あらゆる状況において垂直撮影写真よりも対象地物周辺の空間認識の補助手段として斜め撮影写真が優れているわけではない。   On the other hand, due to the characteristic of oblique shooting, even if the camera is oriented in the direction of the target feature, if there is another feature in front, the target feature may be hidden or hidden behind it In all circumstances, oblique photography is not superior to vertical photography as an auxiliary means for space recognition around the target feature.

本発明は、以上の課題を解決するためになされたもので、地理情報検索の様々な検索用途の目的にあわせて、様々な手段により撮影された写真の中から、希望する撮影方向、希望する大きさで、かつ複数の地物が存在していても検索対象地物を容易に見つけることができる最適斜め写真提供方法を得ることを目的とする。   The present invention has been made in order to solve the above-described problems. In accordance with the purpose of various search applications of geographic information search, a desired shooting direction and a desired shooting direction can be selected from photographs taken by various means. An object of the present invention is to provide an optimum oblique photograph providing method that can easily find a search target feature even when there are a plurality of features.

本発明の最適斜め写真提供方法は、飛行経路を異ならせて撮影点(Pi)毎に地物をカメラで斜め方向から撮影した複数の斜め写真の内で、目的の対象地物が指定地物に接して撮影されている前記撮影点(Pi)毎の斜め写真を最適斜め写真として提供する最適斜め写真提供方法である。   The optimum oblique photograph providing method of the present invention is a method in which a target target feature is a designated feature among a plurality of oblique photographs obtained by photographing a feature at a photographing point (Pi) from a diagonal direction with different flight paths. This is an optimum oblique photograph providing method for providing an oblique photograph for each photographing point (Pi) photographed in contact with a photograph as an optimum oblique photograph.

前記対象地物を含む地物の平面形状が定義された平面地図と該平面地図内の地物に対する属性情報とを記憶した第1の記憶手段と、
前記撮影点(Pi)毎の、撮影位置と前記撮影点(Pi)毎の前記平面地図における前記カメラの撮影範囲とその撮影点(Pi)のカメラの焦点距離と姿勢と前記カメラのCCDの画角とを含む撮影情報を記憶した第2の記憶手段と、
前記撮影点(Pi)毎の前記カメラの斜め写真を該撮影点(Pi)の前記撮影情報に関連付けて記憶した第3の記憶手段と
を用意し、
コンピュータが、
前記対象地物の前記属性情報を読み込み、該属性情報の前記対象地物を含む前記撮影範囲を有する前記撮影点(Pi)の前記撮影情報を前記第2の記憶手段から全て抽出するステップと、
抽出されたこれらの撮影情報に含まれている各々の前記撮影範囲に基づいて前記対象地物が共通に写っている所定範囲を共通地図として第4の記憶手段に定義するステップと、
前記抽出した各々の前記撮影情報に含まれている前記撮影位置、前記画角の幅を前記共通地図に定義するステップと、
前記撮影点(Pi)の撮影位置毎に、前記共通地図に存在する前記指定地物と前記対象地物とが接する線を判定境界線(EFGH)として求めるステップと、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)から前記対象地物に対して直線を引いて、前記対象地物の内側を1度も通過せず、最初に前記対象地物と交差する点の集合を該撮影点(Pi)の撮影位置に向いている前記判定境界線上(EFGH)の視準可能線(EF)として求めるステップと、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)の前記画角の幅を前記CCD上における前記対象地物が投影される投影面とし、前記視準可能線(EF)を該投影面に投影し、該投影された線を視準可能線投影面幅(wcl)として求めるステップと、
前記撮影点(Pi)の撮影位置毎に、前記視準可能線投影面幅(wcl)の前記投影面の幅(WLl)に対する比の値を視準可能線投影比Wi(Wi=Wcl/(WLl))として求めるステップと、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)の撮影位置の前記視準可能線(EF)の長さの判定境界線(EFGH)の長さに対する比の値を判定境界視準可能線比(Li)として求めるステップと、
前記撮影点(Pi)の撮影位置毎の前記判定境界視準可能線比Liのそれぞれを比較して、最も大きな値の判定境界視準可能線比(Li´)を求めるステップと、
前記視準可能線投影比(Wi)同士を比較して、最も大きな視準可能線投影比(Wi´)を求めるステップと、
前記最も大きな値の、前記視準可能線投影比(Wi´)及び前記判定境界視準可能線比(Li´)を得た前記撮影点(Pi)の撮影位置を有する前記撮影情報を前記第2の記憶手段から読み込み、この撮影情報に含まれている撮影点(Pi)の撮影位置に関連付けられている前記第3の記憶手段の前記斜め写真を目的の対象地物の撮影方向からの前記最適斜め写真として出力するステップとを行うこと要旨とする。
First storage means for storing a planar map in which a planar shape of a feature including the target feature is defined, and attribute information for the feature in the planar map;
Wherein for each shot point (Pi), shooting position and the shooting point (Pi) each of the planar imaging range and their photographic point of the camera in the map camera focal length and the orientation and the camera of the CCD of the (Pi) of Second storage means for storing shooting information including an angle of view;
A third storage means for storing an oblique photograph of the camera for each shooting point (Pi) in association with the shooting information of the shooting point (Pi);
Computer
Reading the attribute information of the target feature and extracting all of the shooting information of the shooting point (Pi) having the shooting range including the target feature of the attribute information from the second storage means;
Defining a predetermined range in which the target feature is shown in common based on each of the shooting ranges included in the extracted shooting information as a common map in a fourth storage unit;
Defining the shooting position and the angle of view included in each of the extracted shooting information in the common map;
Obtaining, as a judgment boundary line (EFGH), a line where the designated feature and the target feature existing on the common map are in contact with each photographing position of the photographing point (Pi);
For each shooting position of the shooting point (Pi), a straight line is drawn from the shooting point (Pi) to the target feature, and it never passes through the inside of the target feature. Obtaining a set of points intersecting the object as collimable lines (EF) on the determination boundary line (EFGH) facing the photographing position of the photographing point (Pi);
For each shooting position of the shooting point (Pi), the width of the angle of view of the shooting point (Pi) is a projection plane on which the target feature is projected on the CCD, and the collimable line (EF) is Projecting onto the projection plane and determining the projected line as a collimable line projection plane width (wcl);
For each imaging position of the imaging point (Pi) , the value of the ratio of the collimable line projection plane width (wcl) to the projection plane width (WLl) is set as a collimable line projection ratio Wi (Wi = Wcl / ( WLl)) as a step
For each shooting position of the shooting point (Pi), the value of the ratio of the length of the collimable line (EF) of the shooting position of the shooting point (Pi) to the length of the determination boundary line (EFGH) is determined as a determination boundary. Obtaining the collimable line ratio (Li);
Comparing each of the determination boundary collimable line ratios ( Li ) for each photographing position of the photographing point (Pi ) to obtain a determination boundary collimable line ratio ( Li ′ ) having the largest value;
Comparing the collimable line projection ratios (Wi) to obtain the largest collimable line projection ratio (Wi ′);
The imaging information including the imaging position of the imaging point (Pi) where the collimable line projection ratio (Wi ′) and the determination boundary collimable line ratio (Li ′) having the largest values are obtained . Read from the storage means of the second, the oblique photograph of the third storage means associated with the shooting position of the shooting point (Pi) included in this shooting information from the shooting direction of the target feature of interest And a step of outputting as an optimum oblique photograph.

本発明の最適斜め写真提供システムは、利用者端末と最適写真提供サービスセンターのサーバとを通信ネットワークで接続して、前記サーバが、飛行経路を異ならせて撮影点(Pi)毎に地物をカメラで斜め方向から撮影した複数の斜め写真の内で、目的の対象地物が指定地物に接して撮影されている前記撮影点(Pi)毎の斜め写真を最適写真として前記利用者端末に送信する最適斜め写真提供システムである。   In the optimum oblique photograph providing system of the present invention, a user terminal and a server of the optimum photograph providing service center are connected by a communication network, and the server changes a flight path and adds a feature for each photographing point (Pi). Among the plurality of oblique photographs taken from the oblique direction with the camera, the oblique photograph at each photographing point (Pi) where the target target feature is photographed in contact with the designated feature is set as the optimum photograph to the user terminal. It is an optimal oblique photograph providing system to transmit.

前記サーバは、
前記対象地物を含む地物の平面形状が定義された平面地図と該平面地図内の地物に対する属性情報とを記憶した第1の記憶手段と、
前記撮影点(Pi)毎の、撮影位置と前記撮影点(Pi)毎の前記平面地図における前記カメラの撮影範囲とその撮影点(Pi)のカメラの焦点距離と姿勢と前記カメラのCCDの画角とを含む撮影情報を記憶した第2の記憶手段と、
前記撮影点(Pi)毎の前記カメラの斜め写真を該撮影点(Pi)の前記撮影情報に関連付けて記憶した第3の記憶手段と、
前記利用者端末からのユーザ情報及び前記斜め写真の検索条件をユーザ情報検索条件用記憶手段に記憶する手段と、
前記利用者端末に、前記ユーザ情報及び前記斜め写真の検索条件を入力させるための入力画面情報を前記通信ネットワークを介して送信する手段と、
前記利用者端末から前記対象地物の前記属性情報が入力されたとき、前記対象地物の前記属性情報を読み込み、該属性情報の前記対象地物を含む前記撮影範囲を有する前記撮影点(Pi)の前記撮影情報を前記第2の記憶手段から全て抽出する手段と、
抽出されたこれらの撮影情報に含まれている各々の前記撮影範囲に基づいて前記対象地物が共通に写っている所定範囲を共通地図として第4の記憶手段に定義する手段と、
前記抽出した各々の前記撮影情報に含まれている前記撮影点(Pi)の前記撮影位置、前記画角の幅を前記共通地図に定義する手段と、
前記撮影点(Pi)の撮影位置毎に、前記共通地図に存在する前記指定地物と前記対象地物とが接する線を判定境界線(EFGH)として求める手段と、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)の撮影点(Pi)から前記対象地物に対して直線を引いて、前記対象地物の内側を1度も通過せず、最初に前記対象地物と交差する点の集合を該撮影点(Pi)の撮影位置に向いている前記判定境界線上(EFGH)の視準可能線(EF)として求める手段と、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)撮影位置の前記画角の幅を前記CCD上における前記対象地物が投影される投影面とし、前記視準可能線(EF)を該投影面に投影し、該投影された線を視準可能線投影面幅(wcl)として求める手段と、
前記撮影点(Pi)の撮影位置毎に、前記視準可能線投影面幅(wcl)の前記投影面の幅(WLl)に対する比の値を視準可能線投影比Wi(Wi=Wcl/(WLl))として求める手段と、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)の視準可能線(EF)の長さの判定境界線(EFGH)の長さに対する比の値を判定境界視準可能線比(Li)として求める手段と、
前記撮影点(Pi)の撮影位置毎の前記判定境界視準可能線比Liのそれぞれを比較して、最も大きな値の判定境界視準可能線比(Li´)を求める手段と、
前記視準可能線投影比(Wi)同士を比較して、最も大きな視準可能線投影比(Wi´)を求める手段と、
前記最も大きな値の、前記視準可能線投影比(Wi´)及び前記判定境界視準可能線比(L1´)を得た前記撮影点(Pi)の撮影位置を有する前記撮影情報前記第2の記憶手段から読み込み、この撮影情報に含まれている撮影点(Pi)の撮影位置に関連付けられている前記第3の記憶手段の前記斜め写真を目的の対象地物の撮影方向からの前記最適斜め写真とする手段と、
この最適斜め写真を前記通信ネットワークを介して前記利用者端末に送信する手段とを備え、
前記利用者端末は、
前記サーバからの前記入力画面情報を受信して、この入力画面情報に入力された、目的の対象地物の属性情報及び前記指定地物を前記検索条件として前記サーバに送信する手段と、
前記サーバからの最適斜め写真を受信して、これを画面に表示する手段と
を有することを要旨とする。
The server
First storage means for storing a planar map in which a planar shape of a feature including the target feature is defined, and attribute information for the feature in the planar map;
Wherein for each shot point (Pi), shooting position and the shooting point (Pi) each of the planar imaging range and their photographic point of the camera in the map camera focal length and the orientation and the camera of the CCD of the (Pi) of Second storage means for storing shooting information including an angle of view;
Third storage means for storing an oblique photograph of the camera for each photographing point (Pi) in association with the photographing information of the photographing point (Pi);
Means for storing user information from the user terminal and the search condition for the oblique photograph in a user information search condition storage means;
Means for transmitting, via the communication network, input screen information for allowing the user terminal to input search conditions for the user information and the oblique photograph;
When the attribute information of the target feature is input from the user terminal, the attribute information of the target feature is read, and the shooting point (Pi having the shooting range including the target feature of the attribute information) Means for extracting all of the shooting information from the second storage means;
Means for defining, in a fourth storage means, a predetermined range in which the target feature is shown in common based on each of the shooting ranges included in the extracted shooting information;
Means for defining the shooting position of the shooting point (Pi) included in each of the extracted shooting information and the width of the angle of view in the common map;
Means for obtaining, as a determination boundary line (EFGH), a line where the designated feature and the target feature existing on the common map are in contact with each photographing position of the photographing point (Pi);
For each shooting position of the shooting point (Pi) , a straight line is drawn with respect to the target feature from the shooting point (Pi) of the shooting point (Pi), and never passes through the inside of the target feature. Means for first obtaining a set of points intersecting the target feature as collimable lines (EF) on the determination boundary line (EFGH) facing the photographing position of the photographing point (Pi);
For each shooting position of the shooting point (Pi) , the width of the angle of view at the shooting position of the shooting point (Pi) is a projection plane on which the target feature is projected on the CCD, and the collimable line ( EF) is projected onto the projection plane, and the projected line is obtained as a collimable line projection plane width (wcl);
For each imaging position of the imaging point (Pi) , the value of the ratio of the collimable line projection plane width (wcl) to the projection plane width (WLl) is set as a collimable line projection ratio Wi (Wi = Wcl / ( WLl)) means to obtain
For each photographing position of the photographing point (Pi), a value of a ratio of the length of the collimable line (EF) of the photographing point (Pi) to the length of the judgment boundary line (EFGH) is determined as a judgment boundary collimable line. Means for obtaining the ratio (Li);
Means for comparing each of the determination boundary collimable line ratios ( Li ) for each photographing position of the photographing point (Pi ) to obtain a determination boundary collimable line ratio ( Li ′ ) having the largest value ;
Means for comparing the collimable line projection ratios (Wi) to obtain the largest collimable line projection ratio (Wi ′);
The imaging information having the imaging position of the imaging point (Pi) where the collimable line projection ratio (Wi ′) and the determination boundary collimable line ratio (L1 ′) having the largest values are obtained . Read from the storage means of the second, the oblique photograph of the third storage means associated with the shooting position of the shooting point (Pi) included in this shooting information from the shooting direction of the target feature of interest Means to make an optimal oblique photo;
Means for transmitting the optimum oblique photograph to the user terminal via the communication network,
The user terminal is
Means for receiving the input screen information from the server, and transmitting the attribute information of the target target feature and the designated feature input to the input screen information to the server as the search condition;
The gist is to have means for receiving an optimum oblique photograph from the server and displaying it on the screen.

以上のように本発明によれば、複数の斜め写真から指定地物(例えば、道路、川、公園)に接する対象地物の面が最も大きく撮影されている撮影方向の斜め写真を検索して、これを最適写真として提供(画面又はユーザの端末)する。   As described above, according to the present invention, an oblique photograph in the photographing direction in which the surface of the target feature in contact with the specified feature (for example, road, river, park) is photographed most greatly is searched from a plurality of oblique photographs. This is provided as an optimal photograph (screen or user terminal).

このため、利用者が指定した指定地物(道路)に接した対象地物の面側を撮影した画像を提供できる。   For this reason, the image which image | photographed the surface side of the target feature in contact with the designated feature (road) designated by the user can be provided.

例えば、飲食店や不動産等の地図上の特定地物の外観表示やアクセスを目的とした情報検索において、対象地物の様々な方向から撮影された画像が複数存在する場合に、一般的に映像利用者が現地において目にする光景と近い写真を利用者が得ることができる。   For example, in an information search for the purpose of displaying and accessing the appearance of a specific feature on a map such as a restaurant or a real estate, when there are a plurality of images taken from various directions of the target feature, generally a video The user can obtain a photograph close to the sight that the user sees in the field.

また、撮影俯角による写真検索を行っているので、対象地物の三次元形状から利用者が観察可能な面を広く撮影した斜め写真を提供できる。このため、屋上しか写っていない写真や、足元のみの写真などを除いた建物の側壁の写真を提供できる。   In addition, since the photo search is performed by the shooting depression angle, it is possible to provide an oblique photo in which a surface that can be observed by the user is widely taken from the three-dimensional shape of the target feature. For this reason, it is possible to provide a photograph of the side wall of the building excluding a photograph showing only the rooftop or a photograph of only the feet.

また、対象地物の周囲に多数の地物があっても、オクルージョン率を行うので、他の地物に対象地物が隠れていない、もっとも対象地物が大きく写る写真を提供することできる。   Further, even if there are a large number of features around the target feature, the occlusion rate is used, so that it is possible to provide a photograph in which the target feature is shown most greatly without the target feature being hidden by other features.

また、表示される写真上において対象地物が強調表示されることによって、都市部における高層建築物の乱立する地点で高高度から撮影された画像のような場合に、該当地物の所在位置を迅速に探し出せない問題を回避できる。   In addition, by highlighting the target feature on the displayed photograph, the location of the target feature can be determined in the case of an image taken from a high altitude at a high-rise building in a city. You can avoid problems that cannot be found quickly.

さらに、前記判定結果と、一般的な写真絞り込み手段である撮影情報の組合せにより、二時期の画像検索や、過去の地物の写真検索といった利用方法も可能である。   Furthermore, a method of use such as a two-time image search or a past feature photo search is possible by a combination of the determination result and photographing information which is a general photo narrowing-down means.

本実施の形態は、少なくとも、レンズの焦点距離、CCD等の撮像素子の大きさと画素数、レンズの歪み情報といった内部標定要素と、撮影したカメラの実空間の三次元座標と座標軸に対する角度といった外部標定要素と、撮影日時、撮影者、使用カメラ等の撮影情報が取得されている写真を用いる。   This embodiment has at least an internal orientation element such as the focal length of the lens, the size and number of pixels of an image sensor such as a CCD, and distortion information of the lens, and an external angle such as a three-dimensional coordinate of the photographed camera and an angle with respect to the coordinate axis. A photograph in which shooting information such as a location element and shooting date / time, a photographer, and a camera used is acquired is used.

また、標定情報と撮影情報に加え、その写真が撮影されている地表面上の範囲の地理座標を格納した撮影情報データベースと、前記写真をデジタル化し格納する写真データベースと、検索画面上で住宅地図等の検索対象の地物外形をユーザーが選択可能な2次元ベクトルデータで表現された二次元地図データ(平面地図;二次元情報ともいう)と、地表面の標高データや建物の三次元形状データ等の三次元データ(三次元情報ともいう)と、その他必要とする地物の属性データによって構成される地物情報データベースとによって構成され、検索対象地物の視覚的な認識と空間把握に最も適した写真を検索する最適写真提供システムである。   Further, in addition to orientation information and shooting information, a shooting information database storing geographical coordinates of a range on the ground surface where the photo is shot, a photo database storing the photo in a digitized manner, and a house map on the search screen 2D map data (planar map; also referred to as 2D information) expressed by 2D vector data that allows the user to select the feature outline to be searched for, etc., ground surface elevation data, and 3D shape data of buildings 3D data (also called 3D information) and other feature information database composed of other required feature attribute data, which is most useful for visual recognition and spatial understanding of search target features. It is an optimal photo providing system that searches for suitable photos.

最適写真提供システムは、地物情報データベースにおいて、情報提供者側が情報提供を望む地物の属性情報と、それに関連付けられている二次元地図データ上のベクトルデータがあることを前提に、二次元地図表示画面上でユーザーが情報提供可能な地物のベクトルデータを選択した場合は以下の処理を行う。   The optimum photograph providing system is a two-dimensional map on the premise that there is attribute information of a feature that the information provider wants to provide information and vector data on the two-dimensional map data associated therewith in the feature information database. When the user selects feature vector data that can provide information on the display screen, the following processing is performed.

該当地物のベクトルデータの地理座標を出力することによって得られる座標情報から、該当地物が撮影されている写真を撮影情報データベースの撮影範囲座標をもとに写真を検索し、前記画像検索結果において該当する写真が複数ある場合に、対象地物とそれに隣接する地物の空間関連性、例えば道路に接する、公共施設に接する等の相互の位置関係を基に、最も適した方向・スケールで撮影されている写真を絞り込む手段と、
対象地物の地物情報データベースの三次元データから、対象地物の立体形状について、想定される利用者の観察位置から視界に入る面を決定し、その観察可能な面が見易く撮影されている写真を絞り込む手段と、
撮影情報データベースの撮影範囲と標定情報から、写真の画角内に存在する地物情報データベースの三次元データを抽出し、この抽出データによって三次元仮想空間内に立体モデルを生成し、検索対象地物が写真内でどのように撮影されているのかシミュレーションした結果から、周辺地物の陰に隠れていない最適な写真を絞り込む手段と、
前記の三つの絞込手段の結果と、撮影情報、例えば日時情報から、最近の地物なのか、過去の地物なのかといった従来用いられている一般的な写真検索手段とを組み合わせて、求められる用途に合わせた抽出条件を調整し、写真データベースに登録されている写真の中から最適な写真を決定する手段と、
前記の最適写真について、抽出された写真内の対象地物を強調表示しユーザーへの認識の向上を図る手段と
を備えていることが望ましい。
From the coordinate information obtained by outputting the geographic coordinates of the vector data of the relevant feature, the photograph is retrieved based on the photographing range coordinates of the photographing information database for the photograph in which the relevant feature is photographed, and the image retrieval result When there are multiple photos that correspond, the spatial direction of the target feature and its neighboring features, such as the mutual positional relationship such as touching a road or touching a public facility, is the most suitable direction and scale. Means to narrow down the photos being taken,
From the 3D data of the feature information database of the target feature, the surface that enters the field of view from the assumed user's observation position is determined for the three-dimensional shape of the target feature, and the observable surface is photographed for easy viewing. Means to narrow down the photos,
From the shooting range and orientation information of the shooting information database, 3D data of the feature information database existing within the angle of view of the photograph is extracted, and a 3D model is generated in the 3D virtual space using this extracted data, and the search target location Based on the results of simulating how an object is photographed in the photo, there is a means to narrow down the optimal photo that is not hidden behind the surrounding features,
Obtained by combining the results of the above three narrowing-down means and the conventional photo search means used conventionally such as whether it is a recent feature or a past feature from shooting information, for example, date and time information. A method for adjusting the extraction conditions according to the intended use and determining the optimum photo from the photos registered in the photo database;
It is preferable that the optimum photograph includes means for highlighting the target feature in the extracted photograph and improving the recognition to the user.

つまり、本実施の形態は、複数存在する写真の中から、ユーザが指定した検索対象地物(以下対象地物Hiという)の表示に最も適した写真(斜め写真)を、自動的に検索し、それらをパソコン、インターネット、携帯電話機、CATV等の複数のメディアにおいて利用される検索サービスに提供するシステムである。   In other words, the present embodiment automatically searches for a photograph (an oblique photograph) that is most suitable for displaying a search target feature (hereinafter referred to as a target feature Hi) designated by the user from among a plurality of existing photos. , A system for providing them to a search service used in a plurality of media such as a personal computer, the Internet, a mobile phone, and CATV.

例えば、飲食店や不動産等の地図上の特定地物の外観表示やアクセスを目的とした情報検索において、対象地物の様々な方向から撮影された画像が複数存在する場合に、一般的に映像利用者が現地において目にする光景と近い写真となるように、例えば対象地物の道路に面した側を撮影した画像を優先的に検索する最適写真提供の検索サービスである。   For example, in an information search for the purpose of displaying and accessing the appearance of a specific feature on a map such as a restaurant or a real estate, when there are a plurality of images taken from various directions of the target feature, generally a video This is a search service for providing an optimal photo that preferentially searches for an image taken of the side of the target feature facing the road so that the photograph is close to the sight seen by the user.

この検索サービスはについて以下に説明する。   This search service will be described below.

第1の検索サービスは、
1つの対象地物を様々な方向から撮影された画像が複数存在する場合又は複数の建物の中に対象地物が存在する写真が複数存在する場合、或いは対象地物が画角の大部分を占める写真の場合に、ユーザが希望する場所(道路、公園、川・・・)に接する対称地物Hiの面を優先的(大きく)に撮影している写真を提供する検索サービス(撮影方位別検索サービスともいう)である。
The first search service
When there are multiple images of a single target feature taken from various directions, or when there are multiple photos of the target feature in multiple buildings, or the target feature has the most of the angle of view. Retrieval service (by shooting direction) that provides a preferential (larger) photo of the surface of the symmetrical feature Hi that touches the location (road, park, river, etc.) desired by the user Also called a search service).

対象地物が画角の大部分を占める写真や、複数の建物の中に対象地物が存在する写真が複数存在する場合で検索者が当該地域の土地勘がある場合において、新しい対象地物を検索する場合に有効である。対称地物が1つのみ写っている複数の写真がある場合においては、河川、道路、公園等の指定対象物に対して接している面が大きく写っている斜め写真を提供するので、1つの対象地物を複数方向から撮影している複数の写真から希望の写真を選ぶ場合に有効の検索方法である。   If the target feature occupies most of the angle of view, or if there are multiple photos of the target feature in multiple buildings and the searcher has a local intuition, the new target feature This is effective when searching. When there are multiple photos that have only one symmetric feature, a diagonal photo showing a large surface that touches the specified object such as a river, road, or park is provided. This search method is effective when a desired photograph is selected from a plurality of photographs taken of a target feature from a plurality of directions.

第2の検索サービスは、
対象地物Hiの三次元形状(ポリゴン)から利用者が観察可能な面を広く撮影した斜め写真(画像)を優先的に検索する検索サービス(撮影俯角判定サービスともいう)である。
The second search service
This is a search service (also referred to as a shooting depression angle determination service) that preferentially searches for oblique photographs (images) obtained by broadly photographing a surface that the user can observe from the three-dimensional shape (polygon) of the target feature Hi.

複数の建物の中に対象地物が存在する写真が複数存在する場合で検索者が当該地域の土地勘がある場合において、新しい対象地物が最も大きな壁面を示している写真を検索するのに有効である。   When there are multiple photos with the target feature in multiple buildings and the searcher has a local insight of the area, the new target feature will search for a photo showing the largest wall surface. It is valid.

第3の検索サービスは、都市の三次元構造を考慮して他の地物に対象地物が隠れていない写真を優先的に検索する検索サービス(オクルージョン判定率ともいう)であり、第1の検索サービス、第2の検索サービスを組み合わせて実施する。   The third search service is a search service (also referred to as an occlusion determination rate) that preferentially searches for photos in which the target feature is not hidden by other features in consideration of the three-dimensional structure of the city. The search service and the second search service are combined.

すなわち、第3の検索サービスは、例えば対象地物の道路に面した側を撮影した画像を優先的に検索する撮影方位判定と、対象地物の三次元形状から利用者が観察可能な面を広く撮影した画像を優先的に検索する撮影俯角判定と、都市の三次元構造を考慮して他の地物に対象地物が隠れていない写真を優先的に検索するオクルージョン判定と、前記判定結果と撮影日時等の撮影情報による絞り込み手段の組合せによって写真を決定する最適写真判定手段によって、検索目的に適した写真を決定し、その写真上において該当建物を強調した画像を表示する。   That is, the third search service, for example, a shooting orientation determination that preferentially searches for an image obtained by shooting the side of the target feature facing the road, and a plane that the user can observe from the three-dimensional shape of the target feature. Shooting depression angle search that preferentially searches images taken widely, occlusion determination that preferentially searches for photos in which the target feature is not hidden in consideration of the three-dimensional structure of the city, and the determination result The optimum photo determination means for determining a photograph by a combination of the narrowing-down means based on the shooting information such as the shooting date and time determines a photograph suitable for the search purpose and displays an image highlighting the building on the photograph.

なお、(1)及び(2)の検索サービスは、撮影日時等の撮影情報による絞り込み手段の組合せによって写真を決定する検索サービス(撮影日時最適写真判定サービスともいう)を行うことも可能である。   Note that the search services (1) and (2) can also perform a search service (also referred to as an optimal photo determination service for shooting date / time) that determines a photo by a combination of narrowing-down means based on shooting information such as shooting date / time.

以下に撮影方位別検索サービスを実施の形態1、撮影俯角別判定サービスを実施の形態2、オクルージョン率による検索サービスを実施の形態3として説明する。   In the following, a search service by shooting direction will be described as a first embodiment, a determination service by shooting angle will be described as a second embodiment, and a search service by an occlusion rate will be described as a third embodiment.

<実施の形態1>
図1は本実施の形態1の最適写真提供システムの概略構成図である。図1に示すように、本システムは、会社、自宅のパソコン又は携帯電話器等の利用者端末1とサービス提供センター2とを通信ネットワーク3に接続して、サービス提供センター2が図2に示すように、利用者端末1に地図を提供して、この地図上で選択された対象地物を、ユーザが要望した場所(道路、公園、河川、線路・・・)に接する面を写している撮影方向の写真をユーザが容易に認識できる形式にして提供する。
<Embodiment 1>
FIG. 1 is a schematic configuration diagram of the optimum photograph providing system according to the first embodiment. As shown in FIG. 1, this system connects a user terminal 1 such as a personal computer at home or a mobile phone and a service providing center 2 to a communication network 3, and the service providing center 2 is shown in FIG. Thus, the user terminal 1 is provided with a map, and the target feature selected on the map is shown in contact with the place requested by the user (road, park, river, railway ...). A photograph in a photographing direction is provided in a format that a user can easily recognize.

図2(a)はユーザの利用者端末1に提供して表示させた検索サービスの画面であり、地図の隣にユーザが要望した場所に接する面を写している撮影方向の写真画面を表示させている。   FIG. 2A is a search service screen provided and displayed on the user terminal 1 of the user, and a photo screen in the shooting direction is displayed next to the map, showing the surface in contact with the location requested by the user. ing.

図2(b)は、地図上にユーザが要望した場所に接する面を写している撮影方向の写真画面を地図上に重ね表示している。   In FIG. 2B, a photograph screen in the photographing direction in which a surface in contact with a place requested by the user is displayed on the map is displayed superimposed on the map.

図2(c)はオルソフォト画像上において指定された対象地物を、車輌に全周囲撮影カメラ(0度〜360度)を搭載して得た全周囲画像において、ユーザが要望した場所に接する面を写している撮影方向の写真画面を表示させている。   FIG. 2 (c) shows the target feature designated on the orthophoto image in contact with the place requested by the user in the omnidirectional image obtained by mounting the omnidirectional camera (0 degree to 360 degree) on the vehicle. The photo screen of the shooting direction showing the screen is displayed.

図1に示す利用者端末1は、WWWブラウザ、インターネット接続機能等を備えて、サービス提供センター2からの地図、写真等を表示する。   A user terminal 1 shown in FIG. 1 includes a WWW browser, an Internet connection function, and the like, and displays a map, a photograph, and the like from the service providing center 2.

また、サービス提供センター2は、図1に示すように、Webサーバ4と、GIS(地理情報システム)サーバ5と、データベースサーバ6と、最適写真生成装置(アプリケーションサーバ)7等を有する。   As shown in FIG. 1, the service providing center 2 includes a Web server 4, a GIS (geographic information system) server 5, a database server 6, an optimum photo generation device (application server) 7, and the like.

前述の地理情報検索システムは既存のPCや携帯電話にて実現されているGISやWebで提供される地図画像と文字による属性情報を同時に表示・検索可能なシステムと同等の機能を有したものであり、地物の位置情報が取得可能なシステムである限りその形態については特に問わない。   The above-mentioned geographic information search system has the same function as a system that can simultaneously display and search for map images and text attribute information provided by GIS and Web implemented on existing PCs and mobile phones. There is no particular limitation on the form of the system as long as the position information of the feature can be acquired.

(各データベースの構成)
データベースサーバ6は、地物情報Aiを記憶した地物情報用データベース10と、写真情報Diを記憶した写真情報用データベース11と、撮影情報Biを記憶した撮影情報用データベース12等(総称して最適写真提供用データベースともいう)を備えている。
(Configuration of each database)
The database server 6 includes a feature information database 10 storing the feature information Ai, a photograph information database 11 storing the photograph information Di, a shooting information database 12 storing the shooting information Bi, etc. It is also referred to as a photo-providing database.

これらの地物情報Ai、写真情報Di及び撮影情報Biは、撮影情報Biの撮影範囲毎に、その撮影範囲の情報を記憶している。   The feature information Ai, the photographic information Di, and the shooting information Bi store information on the shooting range for each shooting range of the shooting information Bi.

地物情報用データベース10は、地物情報Ai(A1、A2、A3、・・・)を記憶している。この地理情報Aiは、例えば、情報提供する地物についての主題属性データAai(名称:○○レストラン 住所:×× 営業時間:11:00〜15:00 お勧め:△△、・・・)と、情報提供する地物についての空間属性データAci(緯度経度座標、平面直角座標等の地理座標情報)と、提供する地物についての時間属性データAbi(2008年4月1日開店)等からなる。   The feature information database 10 stores feature information Ai (A1, A2, A3,...). This geographic information Ai is, for example, subject attribute data Aai (name: XX restaurant address: XX business hours: 11:00 to 15:00 recommended: △△, ...) , Spatial attribute data Aci (geographic coordinate information such as latitude / longitude coordinates, plane rectangular coordinates, etc.) for the feature to be provided, and time attribute data Abi (opened on April 1, 2008) for the feature to be provided, etc. .

なお、空間属性データAciは、前述の地理座標が割付けられた二次元地図データCai(平面地図)と三次元形状データCbi(国土地理院数値標高データと建物ポリゴンの組みあわせによる三次元都市モデル)等から構成されている。   The spatial attribute data Aci includes the two-dimensional map data Cai (plan map) and the three-dimensional shape data Cbi (three-dimensional city model based on a combination of the Geographical Survey Institute digital elevation data and building polygons) to which the above-mentioned geographical coordinates are assigned. Etc.

このうち、二次元地図情報Caiは、検索対象地物の領域と見易さ判定の判断基準となる隣接する地物の領域が、例えば、建物の区画形状と道路のように、何らかの主題属性情報Aaiにより区別される形態でベクトルデータとして格納されていることが望ましい。   Among these, the two-dimensional map information Cai includes the subject attribute information such as the area of the search target feature and the area of the adjacent feature that is the determination criterion of the visibility, for example, the section shape of the building and the road. It is desirable to store it as vector data in a form distinguished by Aai.

同じく、三次元情報Cbiは、建物や植生などを除いた地表面の標高データと、建築物、建造物の三次元形状のポリゴンデータを最低限有していることが望ましい。   Similarly, it is desirable that the three-dimensional information Cbi has at least altitude data on the ground surface excluding buildings and vegetation and polygon data of three-dimensional shapes of buildings and buildings.

前述の地物情報Ai(A1、A2、・・・)は、具体的には例えば下記に説明する形式にされている。   The above-described feature information Ai (A1, A2,...) Is specifically in a format described below, for example.

図3は二次元地図情報及び三次元情報の一例を説明する説明図である。図3(a)には実際の二次元地図の例を示し、図3(b)には三次元情報を示し、図3(c)には、これら実際のデータ構造を示している。図3(b)の二次元地図情報の範囲は、図3(a)と同じ範囲である。   FIG. 3 is an explanatory diagram illustrating an example of 2D map information and 3D information. FIG. 3A shows an example of an actual two-dimensional map, FIG. 3B shows three-dimensional information, and FIG. 3C shows these actual data structures. The range of the two-dimensional map information in FIG. 3B is the same as that in FIG.

すなわち、三次元情報及び二次元地図情報は、地物情報Ai(A1、A2、・・・)は、地物の名称・機能等の情報により構成される主題属性情報Abi(Ab1、Ab2、・・)と、空間属性情報Aci(Ac1、Ac2、・・図示せず)と、地物の位置や形状を示す敷地形状(二次元地図情報Cai(Ca1、Ca2、・・・)と、三次元情報Cbi(Cb1、cb2、・・・:三次元座標で定義された地物のポリゴン)等からなっている。   That is, the three-dimensional information and the two-dimensional map information are the feature information Ai (A1, A2,...) Is the subject attribute information Abi (Ab1, Ab2,. .), Space attribute information Aci (Ac1, Ac2,...), Site shape indicating the position and shape of the feature (two-dimensional map information Cai (Ca1, Ca2,...), Three-dimensional Information Cbi (Cb1, cb2,...: Feature polygon defined by three-dimensional coordinates) and the like.

そして、三次元情報は地表面の標高データや建物等の地物の三次元形状データによって構成されており、標高データは、例えば国土地理院の数値地図50mメッシュ(標高)のように面的な地表面の高さ情報を持っていることが望ましく、三次元形状データは、Web、CAD、GISで利用可能なポリゴンデータにより作成されていることが望ましい。   The three-dimensional information is composed of the elevation data of the ground surface and the three-dimensional shape data of the features such as buildings. The elevation data is, for example, a plane map such as a 50m mesh (elevation) of the Geographical Survey Institute's numerical map. It is desirable to have height information on the ground surface, and it is desirable that the 3D shape data be created from polygon data that can be used on the Web, CAD, and GIS.

また、二次元地図情報と三次元情報の関連は、例えば、地物情報A2の主題属性情報Ab2に対応する敷地形状BとポリゴンBのように1対1の関係にしている。   Further, the relationship between the two-dimensional map information and the three-dimensional information has a one-to-one relationship such as a site shape B and a polygon B corresponding to the subject attribute information Ab2 of the feature information A2.

ただし、標高データはその情報の性質上、地理座標を保持していることが前提となるので、地物の敷地形状等の地理座標の範囲が判れば対応付けは容易である。   However, since the altitude data is premised on holding the geographical coordinates due to the nature of the information, the association is easy if the range of the geographical coordinates such as the site shape of the feature is known.

つまり、二次元地図情報Cai(撮影範囲に対応)は、例えば、土地の区画形状(X、Y)や、建物外周形状、土地利用境界等の二次元ベクトルデータによって表現され、三次元情報(撮影範囲に対応)は二次元地図情報の地物(建物)を三次元的なポリゴンで示した情報である。   That is, the two-dimensional map information Cai (corresponding to the shooting range) is expressed by two-dimensional vector data such as land section shape (X, Y), building outer periphery shape, land use boundary, etc., and three-dimensional information (shooting). (Corresponding to the range) is information indicating the feature (building) of the two-dimensional map information with a three-dimensional polygon.

写真情報用データベース11は、複数の斜め写真(航空写真、衛星写真、携帯電話写真、デジカメ、車載カメラ)を記憶している。これらの斜め写真は、カメラで撮影した画像データをデジタル化した二次元画像データ(以下単に写真という場合もある)である。   The photograph information database 11 stores a plurality of oblique photographs (aerial photographs, satellite photographs, mobile phone photographs, digital cameras, and in-vehicle cameras). These oblique photographs are two-dimensional image data (hereinafter sometimes simply referred to as photographs) obtained by digitizing image data taken by a camera.

また、撮影情報用データベース12に必要な情報が取得されている限り、その写真Di(D1、D2、・・・)の二次元データdaiと、その写真の撮影機材、撮影方法、モノクロ、カラー、符号化フォーマットなどが関連付けられて写真情報Daiとして記憶されている。さらに、撮影範囲(座標)が関連付けられて記憶されている。   As long as necessary information is acquired in the shooting information database 12, the two-dimensional data dai of the photograph Di (D1, D2,...), The photographing equipment, the photographing method, monochrome, color, Encoding formats and the like are associated and stored as photo information Dai. Furthermore, a shooting range (coordinates) is stored in association with each other.

一方、複数の斜め写真は、例えば4方向の飛行経路で地上を撮影していている。図4には、異なる方向で撮影された写真の一例を示している(但し対称地物は1つ)。   On the other hand, the plurality of oblique photographs are taken on the ground with, for example, four flight paths. FIG. 4 shows an example of a photograph taken in a different direction (however, there is one symmetric feature).

撮影情報用データベース12は、撮影情報データBi(情報提供に利用する写真についての、撮影位置姿勢・カメラ諸元からなる標定情報と、撮影範囲に関するデータ)を記憶している。   The shooting information database 12 stores shooting information data Bi (location information about shooting positions and orientations, camera specifications, and data related to shooting ranges for photographs used for providing information).

撮影情報Biは、写真情報用データベース11の各写真(D1、D2・・)毎に、その写真について、その写真の撮影日時・撮影者・使用カメラといった関連情報Baiと、各写真が撮影されている地表面上の範囲の地理座標を計算した撮影範囲データBciと、カメラの撮影位置の三次元座標とその座標軸に対する撮影軸の回転角度、焦点距離やCCD等の撮像素子の大きさと画素数、レンズの歪み情報といった内部標定要素と、撮影したカメラの実空間の三次元座標と座標軸に対する角度といった外部標定要素等から構成されている。また、外部標定要素と内部標定要素とを総称して本実施の形態では標定情報Bbiという。   For each photo (D1, D2,...) In the photo information database 11, the shooting information Bi is obtained by associating the relevant information Bai such as the date and time of the photo, the photographer, and the camera used with each photo. Shooting range data Bci that calculates the geographical coordinates of the range on the ground surface, the three-dimensional coordinates of the shooting position of the camera, the rotation angle of the shooting axis with respect to the coordinate axis, the size and the number of pixels of the imaging element such as focal length and CCD, It is composed of an internal orientation element such as lens distortion information and an external orientation element such as a three-dimensional coordinate of the photographed camera in real space and an angle with respect to the coordinate axis. Further, the external orientation element and the internal orientation element are collectively referred to as orientation information Bbi in the present embodiment.

また撮影範囲は、図5に示すように、航空機に搭載されたカメラで斜めに地上を順次斜め方向から撮影したときの、その時点のカメラの視角を空間属性情報(二次元データ、三次元データ)に投影したときの空間属性上のそれぞれの範囲(ポリゴンで定義)である。図5は、1つの撮影範囲のみを示している。   In addition, as shown in FIG. 5, the shooting range is obtained by calculating the viewing angle of the camera at the time when the ground is sequentially captured from the oblique direction with the camera mounted on the aircraft in the space attribute information (2D data, 3D data). ) Are the respective ranges (defined by polygons) on the spatial attribute when projected onto. FIG. 5 shows only one shooting range.

そして、撮影範囲の定義は、図5に示すように、撮影情報データベース12の、写真の撮影位置Piの三次元座標(X,Y,Z)と、その座標軸に対する撮影軸の回転角度(ω, φ, κ)、焦点距離(f)、CCDあるはフィルム面における画素の実サイズ(dx,dy)、画像の縦横のピクセル数(px,py)とレンズの歪みに関する諸元と、地物情報データベースの三次元情報における標高データ、例えば国土地理院が発行している数値地図50mメッシュ(標高)を用いて、写真の撮影範囲Bciの地理座標を計算する。なお、図5はレンズのゆがみを除去した場合の撮影範囲Bciの概略を表している。   As shown in FIG. 5, the shooting range is defined by the three-dimensional coordinates (X, Y, Z) of the shooting position Pi of the photograph in the shooting information database 12 and the rotation angle (ω, φ, κ), focal length (f), CCD or actual pixel size on the film surface (dx, dy), number of vertical and horizontal pixels (px, py), and lens distortion and feature information Using the elevation data in the three-dimensional information of the database, for example, a numerical map 50 m mesh (elevation) issued by the Geographical Survey Institute, the geographical coordinates of the photographing range Bci are calculated. FIG. 5 shows an outline of the photographing range Bci when the lens distortion is removed.

これらの写真、撮影情報、三次元情報、二次元地図情報は撮影範囲に情報であるから、これらがリンク付けされていなければならない。   Since these photographs, photographing information, three-dimensional information, and two-dimensional map information are information in the photographing range, they must be linked.

このリンク付けの概略を図6のフローチャートを用いて以下に説明する。   An outline of this linking will be described below using the flowchart of FIG.

なお、図6においては、撮影範囲に対応する写真情報Bi、撮影情報Bi、地物情報Ai以外のこれらの情報は区別のためにiをつけないで説明する。   In FIG. 6, these pieces of information other than the photo information Bi, the shooting information Bi, and the feature information Ai corresponding to the shooting range will be described without adding i for distinction.

初めに、情報提供地物の決定処理を行う(S1)。   First, information providing feature determination processing is performed (S1).

この情報提供物の決定処理は、最適写真の提供とは無関係に地物情報Aiが既に準備されている場合は、地物の地理座標が、写真の撮影情報Biの撮影範囲の内側にあるものを最適写真提供地物として抽出する。   In this information provision determination process, when the feature information Ai has already been prepared regardless of the provision of the optimum photograph, the geographical coordinates of the feature are inside the photographing range of the photograph photographing information Bi. Are extracted as the optimal photo-providing features.

撮影範囲の写真情報Bi、撮影情報Bi、地物情報Aiを新規にデータベースを構築する場合は、上記手順は必要ない。   The above procedure is not necessary when a database is newly constructed for the photograph information Bi, the photograph information Bi, and the feature information Ai in the photographing range.

次に、情報提供地物情報と二次元地図情報Caiの関連付けを行う(S2)。   Next, the information providing feature information is associated with the two-dimensional map information Cai (S2).

一般的には地物情報データベースはGISのように二次元地図と組み合わせられていることが前提であるが、情報提供する際に利用端末の画面上に表示する地図を別の地図に置き換えたい場合や、準備された地物情報と二次元地図とが合わない場合は、あらたに準備された二次元地図情報Caiと地物情報を関連付けする必要がある。   Generally, it is a premise that the feature information database is combined with a two-dimensional map like GIS, but when you want to replace the map displayed on the terminal screen when providing information with another map Or, if the prepared feature information and the two-dimensional map do not match, it is necessary to associate the newly prepared two-dimensional map information Cai with the feature information.

そこで、地物の地理座標と準備された二次元地図情報Caiのポリゴン情報(例えば敷地形状)の座標との比較により、相互のデータを関連付け、二次元地図上で、地物を選択した場合に、すぐに関連した地物情報を呼び出せるようにしておく。   Therefore, when the geographic coordinates of the feature are compared with the coordinates of the polygon information (for example, site shape) of the prepared 2D map information Cai, the mutual data are correlated and the feature is selected on the 2D map. , So that relevant feature information can be called immediately.

次に、情報提供する地物情報Aiと撮影範囲の三次元情報の三次元形状データ(建物ポリゴン)の関連付けを行う(S3)。   Next, the feature information Ai to be provided is associated with the three-dimensional shape data (building polygon) of the three-dimensional information of the photographing range (S3).

上記二次元地図の関連付けと同じように、地物とそれに対応する撮影範囲毎の三次元情報Cbiを関連付けしておく。   Similar to the association of the two-dimensional map, the feature and the three-dimensional information Cbi for each photographing range are associated with each other.

次に、撮影範囲の写真内の三次元形状データを三次元情報Cbiから抽出する(S4)。   Next, the three-dimensional shape data in the photograph in the photographing range is extracted from the three-dimensional information Cbi (S4).

準備された写真データの一つ一つに対して、写真内に写っている地物の三次元形状データ(建物ポリゴン)を、写真の撮影情報の撮影位置姿勢とカメラ諸元から計算(撮影範囲の計算と同じ)により求める。   For each prepared photo data, calculate the 3D shape data (building polygon) of the features in the photo from the shooting position and orientation of the photo shooting information and camera specifications (shooting range) The same as the calculation of

次に、これらの写真と三次元形状データとの重ね合わせ表示を行う(S5)。   Next, an overlay display of these photographs and the three-dimensional shape data is performed (S5).

これは、上記にて抽出された三次元形状データのワイヤーフレームを、標定情報をもとに射影変換し、写真上に重ね合わせて同時に表示させる。   This is a projective transformation of the wire frame of the three-dimensional shape data extracted above based on the orientation information, and is superimposed on the photograph and displayed simultaneously.

次に、重ね合わせ判定処理を行う(S6)。   Next, overlay determination processing is performed (S6).

上記重ね合わせ結果について、目視により写真上の地物の輪郭と、ワイヤーフレームのズレを検査する。   About the said superimposition result, the outline of the feature on a photograph and the shift | offset | difference of a wire frame are test | inspected visually.

ズレが無かった場合は、地物情報Aiと、二次元地図上の形状データと、三次元形状データの関連付けと、各写真に写っている地物の関連付けをデータベースに登録し、最適写真検索処理での各ステップで利用するデータを迅速に抽出することが出来る。   If there is no deviation, the feature information Ai, the shape data on the two-dimensional map, the association of the three-dimensional shape data, and the association of the feature in each photo are registered in the database, and the optimum photo search processing Data used at each step can be quickly extracted.

ズレがある場合は、標定情報調整ステップへ移行し、その結果によって再度、重ね合わせ表示されたワイヤーフレームのズレ量が最小になるように繰り返す。   If there is a shift, the process proceeds to the orientation information adjustment step, and the result is repeated again so that the shift amount of the wire frame displayed in a superimposed manner is minimized.

そして、標定情報の調整を行う(S7)。   Then, the orientation information is adjusted (S7).

前記、重ね合わせ判定で、写真上の地物の輪郭と、標定情報によって射影変換された三次元形状のワイヤーフレームにズレがある場合は、標定情報の撮影位置姿勢、カメラ諸元(主にレンズの焦点距離と歪み係数)の数値を変更し、その再調整された標定情報をもとに、三次元形状のワイヤーフレームを射影変換し、再度重ね合わせ表示ステップへ移行する。   If there is a deviation between the contour of the feature on the photograph and the three-dimensional wire frame projectively transformed by the orientation information in the overlay determination, the orientation information shooting position and orientation, camera specifications (mainly lens The focal length and the distortion coefficient are changed, the three-dimensional wire frame is projectively transformed based on the readjusted orientation information, and the process proceeds to the overlay display step again.

そして、ステップS6において重ね合わせがOKと判定したときは、これらの写真情報Di、三次元形状データ、二次元地図データ、地物情報等を関連付ける(S8)。すなわち、写真情報Diとこの写真情報Diの撮影範囲内の地物情報Aiと撮影範囲の地理情報とは関連付けられて最適写真情報データベースに記憶されていることになる。   If it is determined in step S6 that the overlay is OK, the photographic information Di, 3D shape data, 2D map data, feature information, and the like are associated (S8). That is, the photograph information Di, the feature information Ai within the photographing range of the photograph information Di, and the geographical information of the photographing range are associated with each other and stored in the optimum photograph information database.

(各部の説明)
一方、第1の最適写真生成装置7は、図1に示すように、ユーザ判定・条件入力画面提供部14と、地図提供・指定地物読込部16と、地物含み撮影情報取得部18と、共通二次元地図情報作成部20と、第1の最適写真決定部22と、提供部24等を備えて、利用者端末1に対してユーザが希望の地物を含む二次元地図情報を提供して、そのユーザが要望する場所に接する対象地物を最も大きく写している写真情報Dipを提供する。
(Description of each part)
On the other hand, as shown in FIG. 1, the first optimum photo generation device 7 includes a user determination / condition input screen providing unit 14, a map providing / designated feature reading unit 16, and a feature-containing shooting information acquisition unit 18. The common 2D map information creating unit 20, the first optimum photograph determining unit 22, the providing unit 24, etc. are provided to the user terminal 1 to provide 2D map information including the desired features to the user terminal 1. Then, the photograph information Dip showing the largest target feature in contact with the place desired by the user is provided.

ユーザ判定・条件入力画面提供部14は、利用者端末1からのアクセスがあったとき、そのアクセスが有効かどうかを判定し、利用可能なユーザの場合は、住所、条件(「撮影範囲に対しての周辺とする距離」、「道路に接する」、「最も大きい」、「周辺距離50m」)等を入力させるための画面を提供する。   When there is an access from the user terminal 1, the user determination / condition input screen providing unit 14 determines whether or not the access is valid. For example, “distance to be around”, “contact with road”, “largest”, “periphery distance 50 m”), and the like.

地図提供・対称地物読込部16は、利用者端末1からの住所(地区でもよい)を読込み、この区域の地物情報AiをGIS5によってデータベースサーバ6から読み出して、利用者端末1に送信させる。そして、利用者端末1によって指定された地図上の対象地物Hiの地理座標Aiを読み出してメモリ27に記憶(Aip)する。 The map providing / symmetric feature reading unit 16 reads the address (may be a district) from the user terminal 1, reads the feature information Ai of this area from the database server 6 by the GIS 5, and transmits it to the user terminal 1. . Then, the geographical coordinates Ai of the target feature Hi on the map designated by the user terminal 1 are read out and stored in the memory 27 (Aip).

地物含み撮影情報取得部18は、ユーザが利用者端末1の二次元地図画面上でユーザーが情報提供可能な地物のベクトルデータを選択した場合に、この対象地物の座標情報を含む全ての撮影範囲Bciを検索(撮影範囲Bcip)してメモリ27に記憶すると共に、対象地物Hiを含む全ての二次元地図情報Caiを抽出(Caip)並びに三次元情報を抽出(Cbip)し、かつ対象地物Hiを含む撮影範囲Bcipを有する全ての写真情報Diを抽出(Dip)してメモリ27に記憶する。これらの抽出される情報は具体的には、その情報の識別番号であり、GISを介して取得している。 When the user selects feature vector data that can be provided by the user on the two-dimensional map screen of the user terminal 1, the feature-containing shooting information acquisition unit 18 includes all the coordinate information of the target feature. The image capturing range Bci is retrieved (photographing range Bcip) and stored in the memory 27, all the two-dimensional map information Cai including the target feature Hi is extracted (Cip), and the three-dimensional information is extracted (Cbip). All the photographic information Di having the photographing range Bcip including the target feature Hi is extracted (Dip) and stored in the memory 27. Specifically, the extracted information is an identification number of the information, and is obtained via the GIS.

共通二次元地図情報作成部20は、メモリ27に抽出された全ての二次元地図情報Caiと、補正値と対象地物Hiを中心とする一定範囲の二次元地図等を用いて共通に使用可能な二次元地図情報Giを生成し、これをメモリ28に記憶する。   The common two-dimensional map information creation unit 20 can be used in common by using all the two-dimensional map information Cai extracted in the memory 27, a two-dimensional map of a certain range centered on the correction value and the target feature Hi, and the like. 2D map information Gi is generated and stored in the memory 28.

第1の最適写真決定部22は、メモリ27に抽出された対象地物Hiが撮影されている撮影範囲Bcipを有する撮影情報Bip毎に、対象地物Hiとの距離と、撮影地点Piの撮影方向とからユーザの検索条件(例えば、道路に近接する壁面、最も大きく写っている)を満足している撮影情報Bipを絞り込む。この結果の情報(Wi、Li)をメモリ29に記憶して、この絞り込んだ最適撮影情報Bipに対応する最適写真Dipの対象地物Hiを識別可能な状態にしてメモリ30に記憶する。   The first optimum photograph determination unit 22 captures the distance from the target feature Hi and the shooting point Pi for each shooting information Bip having the shooting range Bchip in which the target feature Hi extracted in the memory 27 is shot. Based on the direction, the shooting information Bip that satisfies the user's search condition (for example, the wall closest to the road, the largest image is shown) is narrowed down. Information (Wi, Li) of the result is stored in the memory 29, and the target feature Hi of the optimum photograph Dip corresponding to the narrowed-down optimum photographing information Bip is made identifiable and stored in the memory 30.

提供部31は、第1の最適写真決定部22によって決定された最適写真Dipを利用者端末1に送信する毎に、年月日と回数とユーザコード、利用者端末番号等を対応させてメモリ31に記憶する。 Each time the providing unit 31 transmits the optimal photo Dip determined by the first optimal photo determining unit 22 to the user terminal 1, the memory 31 associates the date, the number of times with the user code, the user terminal number, and the like. 31.

(動作説明)
上記のように構成されたシステムについて以下に動作を説明する。図7は本実施の形態の最適写真を得るまでのシーケンス図である。本実施の形態ではサービスセンターと利用者端末との間のシーケンス図で説明する。
(Description of operation)
The operation of the system configured as described above will be described below. FIG. 7 is a sequence diagram until an optimum photograph of the present embodiment is obtained. In the present embodiment, a sequence diagram between the service center and the user terminal will be described.

本発明は、少なくとも、レンズの焦点距離、CCD等の撮像素子の大きさと画素数、レンズの歪み情報といった内部標定要素と、撮影したカメラの実空間の三次元座標と座標軸に対する角度といった外部標定要素と、撮影日時、撮影者、使用カメラ等の撮影情報が取得されている写真を用いる。   The present invention includes at least an internal orientation element such as a focal length of a lens, a size and the number of pixels of an image sensor such as a CCD, and distortion information of a lens, and an external orientation element such as an angle with respect to a three-dimensional coordinate and a coordinate axis of a real space of a photographed camera. In addition, a photograph in which photographing information such as photographing date / time, photographer, and camera used is acquired is used.

図7に示すように、ユーザは利用者端末1を操作してサービス提供センター2にアクセス(URL)する(d1)。   As shown in FIG. 7, the user operates the user terminal 1 to access (URL) the service providing center 2 (d1).

サービス提供センター2のwebサーバ4は、ユーザ判定・条件入力画面提供部14からのユーザ認証のための認証コード入力画面(図示せず)を利用者端末1宛てに送信し、利用者端末1からのこの入力画面の入力情報をユーザ判定・条件入力画面部14に送出する。   The web server 4 of the service providing center 2 transmits an authentication code input screen (not shown) for user authentication from the user determination / condition input screen providing unit 14 to the user terminal 1, and from the user terminal 1. The input information on the input screen is sent to the user determination / condition input screen unit 14.

ユーザ判定・条件入力画面部15は、入力されたユーザ情報(認証コード)と予め記憶されているユーザ情報(図示せず)との比較で認証し、利用可能であればユーザ情報としてユーザ用データベース25に登録する(d2)。   The user determination / condition input screen unit 15 authenticates by comparing the input user information (authentication code) with pre-stored user information (not shown). 25 (d2).

そして、ユーザ判定・条件入力画面部14は、図8(a)に示す物入力画面を及び図8(b)に示す条件入力画面をwebサーバ4に出力して利用者端末1に送信し、利用者端末1からの対象物情報(住所又は地区等)及び検索条件Eiをメモリ26に記憶する(d3)。   Then, the user determination / condition input screen unit 14 outputs the object input screen shown in FIG. 8A and the condition input screen shown in FIG. 8B to the web server 4 and transmits them to the user terminal 1, The object information (address or district, etc.) from the user terminal 1 and the search condition Ei are stored in the memory 26 (d3).

本実施の形態では、検索条件Eiは図9に示すように「道路に接する」、「対称地物を最も大きく写している写真」、「周辺距離50m」として入力されてメモリ26に記憶されているとする。また、対象地物は住所とする。また、撮影日を入力してもよい。撮影日(○○年○月○日〜○○年○月○日)を入力すると、これを検索条件として、その撮影日の撮影情報から最適な写真を検索することが可能となる。   In the present embodiment, as shown in FIG. 9, the search condition Ei is input as “contacting the road”, “photo showing the largest symmetrical feature”, and “peripheral distance 50 m” and stored in the memory 26. Suppose that The target feature is an address. Further, the shooting date may be input. When a shooting date (XX year / month / day to XX year / month / day) is input, it becomes possible to search for an optimum photograph from shooting information on the shooting date using this as a search condition.

そして、地図提供・対象地物読込み部16は、対称地物Hiの住所を含む地理情報Aiを引当て、この二次元地図情報Cai(例えば図10)を読み出して、利用者端末1に送信する(d4)。   Then, the map providing / target feature reading unit 16 allocates the geographic information Ai including the address of the symmetric feature Hi, reads out the two-dimensional map information Cai (for example, FIG. 10), and transmits it to the user terminal 1. (D4).

地図提供・指定地物読込部16は、本システムの利用可能者と判定したときは、利用者端末1からの地物の主題(例えば)を読み込み、これをGISに渡してこの地物を含む地区の地理情報(地図)をwebサーバ4によって利用者端末1に送信する。   When the map providing / designated feature reading unit 16 determines that the user can use this system, it reads the theme (for example) of the feature from the user terminal 1, passes it to the GIS, and includes this feature. The geographical information (map) of the district is transmitted to the user terminal 1 by the web server 4.

利用者端末1は、画面に地図を表示し、この地図上で希望の地物(二次元ポリゴン)を指定する。このとき、指定された地物の属性情報(建物名等)を表示してもよい。   The user terminal 1 displays a map on the screen and designates a desired feature (two-dimensional polygon) on the map. At this time, attribute information (such as a building name) of the designated feature may be displayed.

地図提供・指定地物読込部16は、指定された指定地物情報(ピクセル座標)を読み込み、この指定地物情報に対応する地理座標をGISを介して取得して地物含み撮影情報取得部18に送出する。   The map providing / designated feature reading unit 16 reads designated designated feature information (pixel coordinates), obtains geographic coordinates corresponding to the designated feature information via the GIS, and includes a feature-containing shooting information obtaining unit. 18 to send.

次に、ユーザは利用者端末1に表示された地図から希望の対象地物Hiを指定して、サービス提供センター2に送信する(d5)。   Next, the user designates a desired target feature Hi from the map displayed on the user terminal 1 and transmits it to the service providing center 2 (d5).

この対象地物Hiを地図提供・対称地物読込部16が受信してメモリ27に記憶すると、地物含み撮影情報取得部18、共通二次元地図作成部20、第1の最適写真決定部22及び提供部24とで、ユーザが希望する条件の対称地物の最適写真を求める最適写真提供処理を行う(d6)。この最適写真提供処理については詳細に後述する。   When the target feature Hi is received by the map providing / symmetric feature reading unit 16 and stored in the memory 27, the feature-containing shooting information acquisition unit 18, the common two-dimensional map creation unit 20, and the first optimum photograph determination unit 22 are included. The providing unit 24 performs an optimum photo providing process for obtaining an optimum photo of the symmetric feature under the conditions desired by the user (d6). This optimum photograph providing process will be described later in detail.

そして、求めた最適写真を利用者端末に提供する(d7)。このとき、提供部22は、ユーザ情報(氏名、ユーザコード、住所、口座情報等)と提供回数とをメモリ31に記憶する。   Then, the obtained optimum photograph is provided to the user terminal (d7). At this time, the providing unit 22 stores user information (name, user code, address, account information, etc.) and the number of times of provision in the memory 31.

次に、最適写真提供処理について詳細に説明する。   Next, the optimum photo providing process will be described in detail.

図11は地物含み撮影情報取得部の動作を説明するフローチャートである。   FIG. 11 is a flowchart for explaining the operation of the photographic information acquisition unit including a feature.

地物含み撮影情報取得部18は、地図提供・対象地物読込み部16からの対象地物Hiの地理座標(空間属性情報の二次元地図上の座標)を有する地物情報Aiを読み込む(S21)。この読み込まれた地物情報Aiを本実施の形態では地物情報Aipと称する。   The feature-included shooting information acquisition unit 18 reads the feature information Ai having the geographical coordinates (coordinates on the two-dimensional map of the spatial attribute information) of the target feature Hi from the map providing / target feature reading unit 16 (S21). ). This read feature information Ai is referred to as feature information Aip in the present embodiment.

次に、地物含み撮影情報取得部18は、対象地物Hiを含む撮影範囲Bciを有する撮影情報Biを全て抽出(図12(a)参照)してメモリ27に記憶する(S22)。   Next, the feature-included shooting information acquisition unit 18 extracts all the shooting information Bi having the shooting range Bci including the target feature Hi (see FIG. 12A) and stores it in the memory 27 (S22).

具体的には、抽出される撮影情報Biというのは、撮影情報の識別番号である。また、抽出された撮影情報Biを本実施の形態では、撮影情報Bipと称する。   Specifically, the extracted shooting information Bi is an identification number of shooting information. In addition, the extracted shooting information Bi is referred to as shooting information Bip in the present embodiment.

これらの撮影範囲Bciは、図5に示すように、航空機に搭載されたカメラで斜めに地上を順次斜め方向から撮影したときの、その時点のカメラの視角情報(画角)を空間属性情報(二次元地図、三次元情報)の仮想空間座標に投影したときの空間属性上のそれぞれの範囲(ポリゴンで定義)である。   As shown in FIG. 5, these photographing ranges Bci are obtained by viewing the viewing angle information (view angle) of the camera at the time when the ground is sequentially photographed obliquely with the camera mounted on the aircraft from the spatial attribute information ( Respective ranges (defined by polygons) on the space attribute when projected onto the virtual space coordinates of the 2D map and 3D information).

そして、地物含み撮影・情報取得部18は、抽出された全ての撮影情報Bipにリンク付けされている全ての写真情報Diを検索し、この検索した写情報Dipを抽出してメモリ27に記憶する(S23)。このメモリ27に記憶される写真情報Diは具体的には写真情報の識別番号である。また、抽出された写真情報Diは写真情報Dipと称する。   The feature-included shooting / information acquisition unit 18 searches for all the photograph information Di linked to all the extracted shooting information Bip, extracts the searched shooting information Dip, and stores it in the memory 27. (S23). The photograph information Di stored in the memory 27 is specifically an identification number of the photograph information. The extracted photographic information Di is referred to as photographic information Dip.

次に、地物含み撮影情報取得部18は、抽出した撮影情報Bipに対応する空間属性情報Aci(二次元地図情報、三次元情報)を全て抽出してメモリ27に記憶する(S24)。このメモリ27に記憶される空間属性情報は具体的には空間属性情報の識別番号である。   Next, the feature-included shooting information acquisition unit 18 extracts all the space attribute information Aci (two-dimensional map information, three-dimensional information) corresponding to the extracted shooting information Bip and stores it in the memory 27 (S24). The space attribute information stored in the memory 27 is specifically an identification number of the space attribute information.

また、抽出された空間属性情報Aciを空間属性情報Acipと称する。   Further, the extracted space attribute information Aci is referred to as space attribute information Acip.

次に、地物含み撮影情報取得部18は、抽出した空間属性情報Acipには、ユーザが指定した対象地物Hiに対応する三次元情報のポリゴン(三次元形状データ)が存在するかどうかを判定する(S25)。   Next, the feature-containing shooting information acquisition unit 18 determines whether or not the extracted spatial attribute information Acip includes a polygon (three-dimensional shape data) of three-dimensional information corresponding to the target feature Hi specified by the user. Determine (S25).

ステップS25において、対象地物Hiに対応する三次元形状のポリゴンが存在すると判定したときは、その三次元情報のポリゴンを取得(以下Cbip)してメモリ27に記憶する(S26)。   If it is determined in step S25 that a three-dimensional polygon corresponding to the target feature Hi exists, the polygon of the three-dimensional information is acquired (hereinafter referred to as Cbip) and stored in the memory 27 (S26).

すなわち、メモリ27には、図13に示すように、対象地物Hiの地物情報Apiに、対象地物Hiを含む抽出された撮影情報Bip(例えばB1p、B2p・・)とがリンク付けされて記憶され、撮影情報Bip(例えばB1p、B2p・・)には、写真情報Dip(D1p、D2p・・)及び空間属性情報Acip(Ac1p、Ac2p、・・)がリンク付けされて記憶されていることになる。   That is, in the memory 27, as shown in FIG. 13, the extracted shooting information Bip (for example, B1p, B2p,...) Including the target feature Hi is linked to the feature information Api of the target feature Hi. Photograph information Dip (D1p, D2p,...) And spatial attribute information Acip (Ac1p, Ac2p,...) Are linked and stored in the shooting information Bip (for example, B1p, B2p,...). It will be.

そして、共通二次元地図作成部20は、これらの情報がメモリ27に記憶されると、メモリ26に記憶されている対象地物の周辺距離とする距離値(例えば50m)を読み込み、メモリ27に記憶されている各撮影情報Bipにリンク付けされている各二次元地図情報Caipをこの距離値に基づいて広げて、これらを合成し、そして所定の補正値等を用いて共通周辺含み地図情報Gi(単に共通地図Giという)を生成してメモリ28に記憶する(S27:図12(b)及び図12(c)を参照)。   Then, when these pieces of information are stored in the memory 27, the common two-dimensional map creation unit 20 reads a distance value (for example, 50 m) as the peripheral distance of the target feature stored in the memory 26, and stores it in the memory 27. Each two-dimensional map information Caip linked to each stored photographing information Bip is expanded based on this distance value, these are combined, and the map information Gi including the common surroundings using a predetermined correction value or the like. (Simply referred to as a common map Gi) is generated and stored in the memory 28 (S27: see FIGS. 12B and 12C).

例えば、指定地物の周辺とする距離(指定地物を起点として東西南北○○m若しくは半径○○m)と、各撮影範囲にリンク付けされている各空間属性情報(二次元地図情報)と、予め設定されている補正値と対象地物Hiを含む一定範囲の平面地図等から最適写真検索に共通に用いることができる空間属性情報(共通地図Gi)を生成して、指定地物の地理座標と関連付ける。   For example, the distance around the designated feature (east, west, south, north, or OOm or radius OOm from the designated feature) and each spatial attribute information (two-dimensional map information) linked to each shooting range , Generating spatial attribute information (common map Gi) that can be used in common for optimum photo search from a predetermined range of a planar map including the correction value and the target feature Hi, and the geography of the designated feature Associate with coordinates.

この共通地図Giは、例えば、地表面に対して水平に撮影した場合に撮影範囲の奥行方向の座標が無限遠となり、抽出する情報量が膨大となってしまう場合、撮影位置を中心として対象地物より遠い範囲に限りデータを無視することによってハードウエアの能力に合わせて負荷を軽減することが可能である。   This common map Gi is, for example, in the case where the image is taken horizontally with respect to the ground surface, when the depth direction coordinates of the shooting range are infinite and the amount of information to be extracted becomes enormous, the target location is centered on the shooting position. By ignoring data only in the range farther than the object, it is possible to reduce the load according to the hardware capability.

また、ステップS25で各空間情報Aciに対象地物Hiの三次元情報(ポリゴン)が存在しないものが存在すると判定したときは、その空間情報に対応する撮影情報、写真、地理情報を削除して処理をステップS27に移す(S28)。   If it is determined in step S25 that each spatial information Aci does not have the three-dimensional information (polygon) of the target feature Hi, the shooting information, photograph, and geographic information corresponding to the spatial information are deleted. The process proceeds to step S27 (S28).

次に第1の最適写真決定処理部22の動作を説明する。第1の最適写真決定処理部22は、各撮影情報と共通地図Giとを比較して、撮影方位及び撮影地点Piからの距離とによる見易さ指標(撮影方向による見易さの指標)を計算する。   Next, the operation of the first optimum photograph determination processing unit 22 will be described. The first optimum photograph determination processing unit 22 compares each piece of shooting information with the common map Gi, and calculates an easy-to-see index (an index of visibility according to the shooting direction) based on the shooting direction and the distance from the shooting point Pi. calculate.

本実施の形態では、対象地物と共通地図Giと、主題属性情報(道路、建物)を用いて、対象地物を撮影している複数の写真の中から最適な撮影方向の写真を判定する指標の計算手順については、対象地物の区画が道路に面している側を撮影した写真を選ぶ場合を例に説明する。   In the present embodiment, using the target feature, the common map Gi, and the subject attribute information (roads, buildings), a photograph in the optimal shooting direction is determined from among a plurality of photos of the target feature. The index calculation procedure will be described by taking as an example the case of selecting a photograph taken of the side of the target feature facing the road.

ただし、判定に利用する地物の組合せは、使用する地物情報データベース10において、検索対象地物の領域と、判断基準となる隣接する地物の領域が、何らかの主題属性情報により区別されている限りその内容は特に問わない。例えば、公園に面している建物、河川に面している公共施設といった組合せも考えられる。また、区画形状以外にも建物形状線を用いることも考えられる。   However, in the feature information database 10 to be used, the combination of the features used for determination is distinguished from the region of the search target feature and the region of the adjacent feature serving as the determination reference by some subject attribute information. The content is not particularly limited. For example, a combination of a building facing a park and a public facility facing a river is also conceivable. It is also conceivable to use a building shape line other than the partition shape.

図14、図15は第1の最適写真決定処理部22の動作を説明するフローチャートである。   14 and 15 are flowcharts for explaining the operation of the first optimum photograph determination processing unit 22.

第1の最適写真決定処理部22は、メモリ28に共通地図情報Giが生成されると、この共通地図情報Giを地物に応じてグループ分けする(S31)。このグループ分けのデータをメモリ28に記憶する。   When the common map information Gi is generated in the memory 28, the first optimum photograph determination processing unit 22 groups the common map information Gi according to the feature (S31). The grouped data is stored in the memory 28.

例えば、図3(c)に示すようにグループ分(例えば、道路、建物敷地、建物・・:座標付き)する。   For example, as shown in FIG. 3 (c), it is divided into groups (for example, roads, building sites, buildings... With coordinates).

例えば対象地物が建物であり、ユーザが検索条件として道路に面する壁面を表示としている場合では、共通地図Giの二次元データ(ポリゴン)を用いて道路中心線・道路境界線等からなる道路部分と、建物形状線・街区線・敷地境界線等からなる敷地部分といったように、対象地物と周辺の空間連続性の状況を判定する地物を別ける。   For example, when the target feature is a building and the user displays a wall facing the road as a search condition, a road composed of a road center line, road boundary line, etc. using two-dimensional data (polygon) of the common map Gi The target feature is separated from the feature that determines the status of spatial continuity in the surrounding area, such as a site portion including a building shape line, a block line, and a site boundary line.

次に、対象地物Hiの形状(図16(a)参照:EFGHI)を共通地図Giから読み込むと共にメモリ26の検索条件(道路に接する面、最も大き対象地物が写っている、・・)を読み込む(S32)。本実施の形態では図16(a)に示すように対象地物Hiの形状はEFGHIとする。   Next, the shape of the target feature Hi (see FIG. 16 (a): EFGHI) is read from the common map Gi and the search condition of the memory 26 (the surface in contact with the road and the largest target feature is shown). Is read (S32). In the present embodiment, the shape of the target feature Hi is EFGHI as shown in FIG.

次に、共通地図Gi上において、道路に接する対象地物Hiの判定境界線Lj(EFGH)を求めてメモリ29に記憶する(S33)。   Next, on the common map Gi, a determination boundary line Lj (EFGH) of the target feature Hi in contact with the road is obtained and stored in the memory 29 (S33).

そして、メモリ27に記憶されている撮影地点Piの撮影情報Bip(B1p、B2p、・・)の番号bi(例えば初めの番号)を設定する(S34)。   Then, the number bi (for example, the first number) of the shooting information Bip (B1p, B2p,...) Of the shooting point Pi stored in the memory 27 is set (S34).

次に、設定された撮影情報Bipに対応する撮影地点Pi(P1)、カメラの投影面qi(q1:画角に対応)を読込み、この撮影地点P1及び投影面q1を共通地図Giに定義する(S35:図16(a)参照)。図16(a)に示すように撮影地点と投影面の幅WL1等が定義される。   Next, the shooting point Pi (P1) corresponding to the set shooting information Bip and the projection plane qi (q1: corresponding to the angle of view) of the camera are read, and the shooting point P1 and the projection plane q1 are defined in the common map Gi. (S35: See FIG. 16 (a)). As shown in FIG. 16A, an imaging point, a width WL1 of the projection plane, and the like are defined.

具体的には、
この撮影情報の標定情報から、カメラの投影面(写真撮影点P1の座標(X1,Y1,Z1)を中心とし、その中心点からカメラの焦点距離f分だけ離れた位置に、写真のCCDあるはフィルム面の画素の実スケール(dx,dy)と縦横のピクセル数(px,py)から求められる投影面)の中心と、撮影点P1とを結ぶ直線が座標軸XYZに対して回転角度(ω, φ, κ)で傾いているときの、投影面の4隅の三次元座標から高さ0とする地表面におろした垂線の交点A,B,C,Dの座標を求める。同じく写真撮影点Pについて高さを0とした点P’1(X1,Y1,0)を求める。
In particular,
From the orientation information of this photographing information, there is a CCD of the photograph at a position that is centered on the projection plane of the camera (the coordinates (X1, Y1, Z1) of the photographing point P1) and is separated from the central point by the focal length f of the camera. Is the rotation angle (ω) with respect to the coordinate axis XYZ, the line connecting the center of the film surface pixel scale (dx, dy) and the center of the projection plane obtained from the number of vertical and horizontal pixels (px, py) and the shooting point P1 , φ, κ), the coordinates of the intersections A, B, C, D of the perpendicular line down to the ground surface with a height of 0 from the three-dimensional coordinates of the four corners of the projection plane are obtained. Similarly, a point P′1 (X1, Y1,0) where the height is 0 for the photography point P is obtained.

この点P’1と点A,B,C,Dとを結ぶ直線のうち、最も角度が大きくなる直線の組合せを地表面上(共通地図・三次元情報の二次元データ)での仮の画角として設定する。図では直線P’1−A, 直線P’1−Bとなっている。   Among the straight lines connecting point P'1 and points A, B, C, and D, a combination of straight lines with the largest angle is a temporary image on the ground surface (common map and 3D information 2D data). Set as a corner. In the figure, a straight line P'1-A and a straight line P'1-B are shown.

さらに、仮の画角に用いられた点A,B を結んだ直線を地表面上での仮の投影面W1としその幅WL1を求める。当然ながら選択される4つの点は写真の回転角度(ω, φ, κ)によって異なる。   Further, a straight line connecting the points A and B used for the temporary angle of view is set as a temporary projection plane W1 on the ground surface, and the width WL1 is obtained. Of course, the four points selected depend on the rotation angle (ω, φ, κ) of the photo.

次に、点P1から仮の投影面W1に得られる指定地物の壁面の線長(視準可能線投影面幅wci)を求める(S36)。   Next, the line length (collimable line projection plane width wci) of the designated feature obtained from the point P1 on the temporary projection plane W1 is obtained (S36).

具体的には、
地表面上の画角内において、点P’1と判定境界線(EFGH)上の任意の点を結ぶ直線が、その直線区間において区画形状(EFGHI)の内側を一度も通過していない点を撮影点より判定境界線が視準可能な点とする。その集合が点P’1の視準可能線(EF)となる。
In particular,
In the angle of view on the ground surface, the point connecting the point P'1 and any point on the judgment boundary line (EFGH) has never passed through the section shape (EFGHI) in the straight line section. It is assumed that the determination boundary line can be collimated from the shooting point. The set becomes the collimable line (EF) of the point P′1.

ただし、区画形状のある頂点では視準可能な点と判定されるが、隣接する頂点との間に連続した視準可能線が存在しない場合は、その点は視準可能とは認めない。   However, although a vertex with a partition shape is determined as a collimable point, if there is no continuous collimable line between adjacent vertices, the point is not recognized as collimable.

次に、写真撮影点P1からその画角内において視準可能な判定境界線Ljの画像内に占める割合Wiを求める。つまり、撮影点P1のカメラの画角(WL1)での対象地物をみたときの壁面(EF)の長さ(Lci)の大きさを求める(S37)。   Next, the ratio Wi in the image of the determination boundary line Lj that can be collimated within the angle of view from the photographing point P1 is obtained. That is, the length (Lci) of the wall surface (EF) when the target feature is viewed at the angle of view (WL1) of the camera at the photographing point P1 is obtained (S37).

前述の割合Wiを視準可視線投影比Wiと称し、Wi=Wci/Wliとして求めてメモリ29に記憶する。   The aforementioned ratio Wi is referred to as a collimated visible ray projection ratio Wi, and is obtained as Wi = Wci / Wli and stored in the memory 29.

具体的には、前記点P’1の視準可能線(EF)上の任意の2点と点P’1を結ぶ直線のなす角度が最大となる組合せを探索し(図では点E,F)、この2点と点P’1を結ぶそれぞれの直線が地表面上での仮の投影面W1と交差する点J,Kの間の長さ視準可能線投影面幅wc1を求める。 Specifically, a search is made for a combination that maximizes the angle formed by a straight line connecting any two points on the collimable line (EF) of the point P'1 and the point P'1 (points E and F in the figure). ), A length collimable line projection plane width wc1 between the points J and K at which each straight line connecting the two points and the point P′1 intersects the temporary projection plane W1 on the ground surface is obtained.

また、前記仮の投影面の決定方法として、図16(b)に示すように、m例えば、航空写真のように直上から撮影された写真では、投影面の四隅の座標を地表面上におろした交点A,B,C,Dに囲まれる範囲内に撮影点Pがある場合に、前記交点A,B,C,Dと撮影点Pを結ぶ直線で作られる4つの領域(領域AB、領域AC、領域CD、領域BD)の内、対象地物が含まれる領域BDを構成する交点B,Dについて、仮の投影面とするような方法がある
次に、前記点P’1の視準可能線投影面幅wc1と地表面上での仮の投影面の幅WL1との比として、点P’1の視準可能線投影比wc1/ WL1を求める。つまり、判定境界線の実際の延長距離と写真内で視準可能であった部分の延長距離の比を計算する。この二つの値を撮影方位判定での見易さ指標として判定条件となる地物に面する部分を撮影した写真を判定する。
In addition, as a method for determining the temporary projection plane, as shown in FIG. 16B, m, for example, in a photograph taken from directly above such as an aerial photograph, the coordinates of the four corners of the projection plane are lowered onto the ground surface. When the shooting point P is within the range surrounded by the intersections A, B, C, D, four areas (area AB, area) formed by the straight lines connecting the intersections A, B, C, D and the shooting point P AC, region CD, region BD), and there is a method in which the intersection points B and D constituting the region BD including the target feature are set as temporary projection planes. Next, collimation of the point P′1 As a ratio of the possible line projection plane width wc1 and the provisional projection plane width WL1 on the ground surface, the collimable line projection ratio wc1 / WL1 of the point P′1 is obtained. That is, the ratio of the actual extension distance of the judgment boundary line and the extension distance of the portion that can be collimated in the photograph is calculated. These two values are used as an easy-to-see index for determining the shooting direction, and a photograph of a part that faces a feature serving as a determination condition is determined.

次に、メモリに撮影情報Bipが他にあるかどうかを判定する(S38)。ステップS38において、他に撮影情報が存在すると判定したときは、次の撮影情報に更新して処理をステップS34に移す。   Next, it is determined whether there is another shooting information Bip in the memory (S38). If it is determined in step S38 that there is other shooting information, the next shooting information is updated and the process proceeds to step S34.

このような処理を行うことで、メモリ29には、対象地物Hiに対しての各撮影地点P1、P2、P3の撮影情報のカメラの画角で対象物を撮影したときの道路面に接する壁面の判定境界線の割合(地表面での撮影地点から見える壁面の割合)が図17に示すように記憶されることになる。   By performing such processing, the memory 29 is in contact with the road surface when the object is imaged at the angle of view of the camera of the imaging information of each imaging point P1, P2, P3 with respect to the target feature Hi. The ratio of the determination boundary line of the wall surface (the ratio of the wall surface visible from the shooting point on the ground surface) is stored as shown in FIG.

次に、ステップS38において抽出した撮影情報Bipが他にないと判定したときは、メモリ29に記憶されている判定境界線Ljと、各撮影点からの視準可能線(EF又はEFGH)の長さLci(Lc1、Lc2)との比Liを、順次求め、これらを撮影地点毎の判定境界線視準可能比Li(L1、L2、・・)としてメモリ29に記憶する(S41)。   Next, when it is determined that there is no other shooting information Bip extracted in step S38, the determination boundary line Lj stored in the memory 29 and the length of the collimable line (EF or EFGH) from each shooting point The ratio Li to the length Lci (Lc1, Lc2) is sequentially obtained, and these are stored in the memory 29 as the determination boundary line collimable ratio Li (L1, L2,...) For each photographing point (S41).

例えば撮影地点P1においては、
判定境界線(EFGH)の長さLjと、点P’1の視準可能線(EF)の長さLc1との比Lc1/Ljを判定境界線視準可能比L1として求める。このような処理を各撮影地点毎に対して行う。従ってメモリ29には、図17に示すように対象地物Hiと撮影地点Piと判定境界線視準可能比Liとが対応させられて記憶されることになる。
For example, at the shooting point P1,
A ratio Lc1 / Lj between the length Lj of the determination boundary line (EFGH) and the length Lc1 of the collimable line (EF) at the point P′1 is obtained as the determination boundary line collimable ratio L1. Such processing is performed for each photographing point. Therefore, as shown in FIG. 17, the target feature Hi, the shooting point Pi, and the determination boundary line collimable ratio Li are stored in the memory 29 in association with each other.

そして、メモリに記憶された各撮影点の視準可能線投影比Wiの大きさを比較する(S42)。   Then, the collimable line projection ratio Wi of each photographing point stored in the memory is compared (S42).

図16(a)を例にすると、これらの視準可能線投影比Wiを用いることによって、例えば、図16(a)の点P’1と同じカメラで撮影位置と撮影方位のみ異なり対象地物からの距離が等しい撮影点P’2とP’3がある。これら3つの撮影点での投影面の幅はWL1=WL2=WL3と等しい。   Taking FIG. 16 (a) as an example, by using these collimable line projection ratios Wi, for example, the same camera as point P′1 in FIG. There are photographing points P′2 and P′3 that are equal in distance from the camera. The width of the projection plane at these three photographing points is equal to WL1 = WL2 = WL3.

図では撮影点P’2は、判定境界線(EFGH)上の点と撮影点を結ぶ直線がすべて区画形状(EFGHI)の内側を通過するのでwc2=0となり、視準可能線投影比wc2/ WL2=0となる。点P’3は視準可能線がP’1の(EF)より広く(EFGH)となるので視準可能線投影面幅wc3はP’1よりも大きくなる。 In the figure, the shooting point P'2 is wc2 = 0 because all the straight lines connecting the points on the judgment boundary line (EFGH) and the shooting point pass inside the section shape (EFGHI), and the collimable line projection ratio wc2 / WL2 = 0. At the point P′3, the collimable line is wider (EFGH) than (EF) of P′1, so that the collimable line projection plane width wc3 is larger than P′1.

よって、3つの撮影点での視準可能線投影比wc/WLはP’3 > P’1 > P’2となり、点P’3から撮影した写真が、画角内において判定境界線とした対象地物の道路側をもっとも大きく撮影していると判断できる。   Therefore, the collimable line projection ratio wc / WL at the three shooting points is P'3> P'1> P'2, and the photograph taken from the point P'3 is used as the judgment boundary line within the angle of view. It can be determined that the road side of the target feature is photographed the most.

当然ながら比較する写真のカメラの焦点距離や対象地物からの距離によって投影面幅WLが変化するので、視準可能線投影比も変化し、様々な撮影条件も考慮した判定境界線Ljの画角内での大きさを比較可能である。   Of course, since the projection plane width WL changes depending on the focal length of the camera of the photograph to be compared and the distance from the target feature, the collimable line projection ratio also changes, and the image of the judgment boundary line Lj considering various shooting conditions The size within the corner can be compared.

また、判定境界線視準可能比Liの大きさを比較する(S43)。   Further, the sizes of the determination boundary line collimable ratio Li are compared (S43).

図16(a)を例にした判定境界線視準可能比Li(L1、L2、L3)を用いることによって、例えば図16(a)の撮影点P’1と点P’2、点P’3の判定境界線視準可能比Li(L1、L2、L3)を比較した場合に、P’1ではLc1/Lj=(EF) /(EFGH)< 1となり、点P’2ではLc2/Lj=0 / (EFGH)=0、点P’3ではLc3/Lj=(EFGH) / (EFGH)=1となる。   By using the determination boundary line collimable ratio Li (L1, L2, L3) taking FIG. 16A as an example, for example, the photographing points P′1, P′2, and P ′ in FIG. When the judgment boundary line collimable ratio Li (L1, L2, L3) of 3 is compared, Lc1 / Lj = (EF) / (EFGH) <1 at P′1, and Lc2 / Lj at point P′2. = 0 / (EFGH) = 0, and at the point P′3, Lc3 / Lj = (EFGH) / (EFGH) = 1.

このため、判定境界線視準可能比はP’3 > P’1 > P’2となることから、点P’3から撮影された写真が、判定境界線とした対象地物の道路側を満遍なく撮影していると判断することが可能となる。 For this reason, the judgment boundary line collimable ratio is P'3> P'1> P'2, so the photograph taken from the point P'3 shows the road side of the target feature as the judgment boundary line. It is possible to determine that the images are being taken evenly.

次に、視準可能線投影比Wiと判定境界線視準可能比Liとの二つの指標が最大となったさ撮影地点Piの撮影情報を抽出し、この撮影情報の写真情報Dipを、ユーザが指定した対象物に対してのユーザの検索条件を満足する最写真情報とする(S44)。 Next, when the two indexes of the collimable line projection ratio Wi and the determination boundary line collimable ratio Li are maximized, the photographing information of the photographing point Pi is extracted, and the photograph information Dip of the photographing information is obtained as the user but the optimal photo information to satisfy the user's search criteria for the specified object (S44).

そして、メモリ30に記憶する(S45)。つまり、判定境界線の撮影地点のカメラの画角に対しての大きさの比と写真内で視準可能であった部分の比を計算する。この二つの値を撮影方位判定での見易さ指標として判定条件となる地物に面する部分を撮影した写真を判定している。 And it memorize | stores in the memory 30 (S45). In other words, the ratio of the size of the determination boundary line to the camera angle of view of the shooting point and the ratio of the portion that can be collimated in the photograph are calculated. These two values are used as an easy-to-see index for determining the shooting direction, and a photograph of a portion that faces a feature serving as a determination condition is determined.

これによって、判定境界線視準可能比Liによって、対象地物Hiに非常に接近して撮影した写真が、視準可能線投影比Wiにおいて最大であると判断された場合でも、判定境界線視準可能比Liが小さければ、他の判定境界線を、満遍なく撮影された撮影情報として選ぶことが可能である。   As a result, even when it is determined that the photograph taken very close to the target feature Hi by the determination boundary line collimable ratio Li is the maximum in the collimable line projection ratio Wi, the determination boundary line vision If the quasi-possible ratio Li is small, it is possible to select other determination boundary lines as photographing information that has been photographed uniformly.

次に、抽出した撮影情報に対応する対象地物の三次元情報のポリゴンをこの写真情報に、輪郭強調(例えば赤、ピンク)して重ねる(S46)。そして、この写真情報を利用者端末に送信させる(S47)。   Next, the polygon of the three-dimensional information of the target feature corresponding to the extracted shooting information is superimposed on this photographic information with outline enhancement (for example, red, pink) (S46). Then, the photograph information is transmitted to the user terminal (S47).

すなわち、
以上の視準可能線投影比wc / WLと判定境界線視準可能比Lc / Ljの二つの指標は、対象地物の周辺空間の属性から利用者が指定する地物に面した側を撮影している写真を抽出するために、撮影する方位と距離によって変化する見易さの条件を示す数値である。
That is,
The above two indicators, the collimable line projection ratio wc / WL and the judgment boundary line collimable ratio Lc / Lj, photograph the side facing the feature specified by the user from the attributes of the surrounding space of the target feature. It is a numerical value indicating the condition of ease of viewing that changes depending on the shooting direction and distance in order to extract a photograph that is being taken.

ここで、第1の最適写真決定部22について説明を補充する。図17は第1の最適写真決定部の処理動作をメモリと関連付けて説明する説明図である。   Here, the description of the first optimum photograph determination unit 22 will be supplemented. FIG. 17 is an explanatory diagram for explaining the processing operation of the first optimum photograph determination unit in association with the memory.

前述の撮影地点Pi毎の視準可能線投影比Wiはメモリ29aに記憶され、撮影地点Pi毎の判定境界線視準可能比Liは、メモリ29bに記憶され、判定境界線Ljはメモリ29cに記憶される。また、抽出された地物情報Aipと撮影情報Bipと写真情報Dipとはメモリ27に記憶されている。また、共通地図Giはメモリ28に記憶されている。   The collimable line projection ratio Wi for each photographing point Pi is stored in the memory 29a, the judgment boundary line collation possibility ratio Li for each photographing point Pi is stored in the memory 29b, and the judgment boundary line Lj is stored in the memory 29c. Remembered. Further, the extracted feature information Aip, shooting information Bip, and photo information Dip are stored in the memory 27. The common map Gi is stored in the memory 28.

第1の最適写真決定処理部22は、メモリ28に記憶された共通地図Giにメモリ27の抽出された撮影情報Bip(撮影位置Pi含む)、撮影位置Piのカメラの投影面qi(q1:画角に対応)を定義する(S35:図16(a)参照)。図16(a)に示すように撮影地点と投影面の幅WL1等が定義される。   The first optimum photograph determination processing unit 22 uses the common map Gi stored in the memory 28 to extract the shooting information Bip (including the shooting position Pi) extracted from the memory 27 and the projection plane qi (q1: image) of the camera at the shooting position Pi. (Corresponding to the corner) is defined (S35: see FIG. 16A). As shown in FIG. 16A, an imaging point, a width WL1 of the projection plane, and the like are defined.

そして、共通地図Giの各撮影点Pi(P1、P2、P3)から仮の投影面W1に得られる指定地物の壁面の線長(視準可能線投影面幅wci)を求める。   Then, the line length (collimable line projection plane width wci) of the designated feature obtained on the temporary projection plane W1 from each photographing point Pi (P1, P2, P3) of the common map Gi is obtained.

次に、写真撮影点Piからその画角内においてユーザが指定した検索条件の一つである道路に接する面の判定境界線Lj(図16(a)においてはEFGH)の画像内に占める割合Wiを求める。   Next, the ratio Wi of the determination boundary line Lj (EFGH in FIG. 16A) of the surface in contact with the road that is one of the search conditions designated by the user within the angle of view from the photography point Pi to the image. Ask for.

具体的には、前記点P’1の視準可能線投影面幅wc1と地表面上での仮の投影面の幅WL1との比として、点P’1の視準可能線投影比Wi(wc1/ WL1)を求め、これを撮影地点Piの撮影情報に対応させてメモリ29aに記憶する。   Specifically, as the ratio of the collimable line projection plane width wc1 of the point P′1 and the width WL1 of the provisional projection plane on the ground surface, the collimable line projection ratio Wi ( wc1 / WL1) is obtained and stored in the memory 29a in correspondence with the photographing information of the photographing point Pi.

また、メモリ29cに記憶されている判定境界線Ljと、各撮影点からの視準可能線(EF又はEFGH)の長さLci(Lc1、Lc2)との比Liを、順次求め、これらを撮影地点Pi毎の判定境界線視準可能比Li(L1、L2、・・)としてメモリ29bに記憶する。   Further, a ratio Li between the determination boundary line Lj stored in the memory 29c and the length Lci (Lc1, Lc2) of the collimable line (EF or EFGH) from each photographing point is sequentially obtained, and these are photographed. The determination boundary line collimable ratio Li (L1, L2,...) For each point Pi is stored in the memory 29b.

そして、メモリ29aに記憶された各撮影点の視準可能線投影比Wiの大きさを比較すると共に、メモリ29bの判定境界線視準可能比Li(L1、L2、L3)の大きさを比較し、この比較結果をメモリ29dに記憶する。   Then, the collimable line projection ratio Wi of each photographing point stored in the memory 29a is compared, and the determination boundary line collimable ratio Li (L1, L2, L3) of the memory 29b is compared. The comparison result is stored in the memory 29d.

次に、視準可能線投影比Wiと判定境界線視準可能比Liとの二つの指標が最大となったさ撮影地点Piの撮影情報Bipを抽出し、この撮影情報Bipの写真情報Dipを、ユーザが指定した対象物に対してのユーザの検索条件を満足する最適写真情報Dipとする。   Next, when the two indexes of the collimable line projection ratio Wi and the judgment boundary line collimable ratio Li are maximized, the photographing information Bip of the photographing point Pi is extracted, and the photographic information Dip of the photographing information Bip is extracted. The optimum photo information Dip that satisfies the user's search condition for the object specified by the user is used.

そして、この最適写真情報Dipに対象地物Hiの三次元情報のポリゴンをこの写真情報に、輪郭強調(例えば赤、ピンク)して重ねた画像データをメモリ30に記憶する。そして、この写真情報を利用者端末1に送信させる。   Then, the image data obtained by superimposing the polygon of the three-dimensional information of the target feature Hi on the optimum photographic information Dip and enhancing the outline (for example, red, pink) on the photographic information is stored in the memory 30. Then, the photograph information is transmitted to the user terminal 1.

図18は重ね処理を説明する説明図である。第1の最適写真提供部22は、図18(a)に示す対象地物Hiが存在する二次元地図情報と同じ範囲の三次元形状情報(地物はポリゴン、XYZの座標系に定義)から対象地物Hiのポリゴンを除いて他のポリゴンを削除する(図18(b))。そして、このポリゴンの輪郭線をピンク、赤、黄色等で色付けする(S40)。   FIG. 18 is an explanatory diagram for explaining the overlapping process. The first optimum photograph providing unit 22 uses three-dimensional shape information in the same range as the two-dimensional map information where the target feature Hi exists as shown in FIG. 18A (the feature is defined in the coordinate system of polygons and XYZ). Except for the polygon of the target feature Hi, other polygons are deleted (FIG. 18B). Then, the outline of the polygon is colored with pink, red, yellow, etc. (S40).

そして、対象地物Hiを含む撮影範囲を有する撮影情報Bipにリンク付けされている写真情報Dipとこの対象地物Hiのみのポリゴンレイヤーを合成し(図18(c)、(b))、これを最適写真(図18(e)として利用者端末1に送信させる。   Then, the photograph information Dip linked to the shooting information Bip having the shooting range including the target feature Hi and the polygon layer of only the target feature Hi are synthesized (FIGS. 18C and 18B). Is transmitted to the user terminal 1 as the optimum photograph (FIG. 18E).

一方、また、ここで示した例は、二次元空間で数値を計算しているが、三次元空間にて実施してもかまわない。   On the other hand, in the example shown here, numerical values are calculated in a two-dimensional space, but may be implemented in a three-dimensional space.

図19は対象地物の区画形状が点座標のみの場合の判定境界線の生成方法につい説明する説明図である。   FIG. 19 is an explanatory diagram for explaining a method of generating a determination boundary line when the section shape of the target feature is only point coordinates.

前記撮影方向による見易さ指標の計算において、二次元地図情報に対象となる地物の区画形状がなく点座標しかない場合に、擬似的に判定境界線を生成する手法を説明する。   In the calculation of the legibility index based on the shooting direction, a method of generating a determination boundary line in a pseudo manner when there is only a point coordinate and no section shape of the target feature in the two-dimensional map information will be described.

例えば、道路や鉄道、河川、公共施設といった供用空間データのみで構成された二次元地図情報において、個別の一般建物の敷地境界線が含まれていない場合に、対象地物の点座標を中心としてある半径の円を発生させ、その円内にある供用空間の線情報を判定境界線として利用する。図19では、道路線を判定境界線Ljとして利用している。   For example, in 2D map information composed only of operational space data such as roads, railways, rivers, and public facilities, when the site boundary of individual general buildings is not included, the point coordinates of the target feature are the center A circle with a certain radius is generated, and the line information of the service space within the circle is used as a judgment boundary line. In FIG. 19, a road line is used as the determination boundary line Lj.

発生させる円の半径は、対象地物の主題属性情報の機能情報、例えば商業施設や住宅といったような土地利用の用途から大規模・小規模施設等の区分を設けて、その長さを変更することも可能である。   For the radius of the circle to be generated, change the length of the functional information of the subject attribute information of the target feature, for example, by classifying large-scale / small-scale facilities etc. according to the use of land such as commercial facilities and houses It is also possible.

また、円内に2区間以上の判定境界線が存在した場合は、存在する判定境界線のうち最も長い区間を採用するといった方法や、同一線上の二つの判定境界線の間の距離がある閾値以下の場合は、その間の円外の区間も含めて一つの判定境界線として接合するといった方法がある。   In addition, when there are two or more judgment boundary lines in a circle, a method of adopting the longest section among the existing judgment boundary lines, or a threshold with a distance between two judgment boundary lines on the same line In the following cases, there is a method of joining as one judgment boundary line including a section outside the circle in between.

<実施の形態2>
実施の形態2は第2の検索サービスであり、対象地物Hiの三次元形状(ポリゴン)から利用者が観察可能な面を広く撮影した画像を優先的に検索する検索サービス(撮影俯角判定サービスともいう)である。
<Embodiment 2>
The second embodiment is a second search service, which is a search service that preferentially searches for images obtained by photographing a wide range of surfaces that can be observed by the user from the three-dimensional shape (polygon) of the target feature Hi (shooting angle determination service). It is also called).

実施の形態2は、撮影情報Bipと抽出された三次元情報Cbip(建物の立体的なポリゴン)を用いて、撮影俯角による見易さ指標を計算する。   In the second embodiment, the visibility index based on the shooting depression angle is calculated using the shooting information Bip and the extracted three-dimensional information Cbip (three-dimensional polygon of the building).

例えば、対象地物を地表面から観察した場合に、円錐形状や三角錐など天頂部まで見ることが可能な形状を除いて、ビルなどの立方体や直方体の建物ではその屋上部分を視界に入れることは出来ない。このように、ある地点から観察すると視界に入らない面を持つ形状の地物については撮影位置の高さと俯角の変化によって見え方が変化するので、利用者から観察可能な面がより見易く写っている写真を選択するよう次の指標を計算して、この指標に基づいて決定した最適写真を利用者端末1に提供する。 For example, when the target feature is observed from the ground surface, except for shapes that can be seen up to the zenith such as a conical shape or a triangular pyramid, the rooftop portion of a building such as a cube or a rectangular parallelepiped is put into view. I can't. In this way, features that have shapes that do not enter the field of view when observed from a certain point change the way they appear depending on the height of the shooting position and the angle of depression. The next index is calculated so that the selected photograph is selected, and the optimum photo determined based on this index is provided to the user terminal 1.

図20は実施の形態2の概略構成図である。本実施の形態では図1と同様な部分については説明を省略する。また、実施の形態2ではアブリケーションサーバ7の構成のみを示す。   FIG. 20 is a schematic configuration diagram of the second embodiment. In the present embodiment, description of the same parts as those in FIG. 1 is omitted. In the second embodiment, only the configuration of the application server 7 is shown.

実施の形態2は実施の形態1の第1の最適写真決定部22に代えて第2の最適写真決定部35を有する。   The second embodiment has a second optimum photo determination unit 35 instead of the first optimum photo determination unit 22 of the first embodiment.

第2の最適写真決定部35は、地物含み撮影情報取得部18によって取得された対象地物Hiを含む三次元情報Cbipの地表面の標高データと対象地物の三次元形状データをもとに、仮想空間内(メモリ38)に都市の立体モデルを生成する。   The second optimum photograph determination unit 35 is based on the elevation data of the ground surface and the three-dimensional shape data of the target feature of the three-dimensional information Cbip including the target feature Hi acquired by the feature-including shooting information acquisition unit 18. Then, a three-dimensional model of the city is generated in the virtual space (memory 38).

そして、メモリ39に予め記憶されている、その仮想空間内において対象地物から特定距離だけ離れた地表面上に観察者の視点を擬似的に表現するような仮想の視準位置(XYZ)を設定し、そこから対象地物の三次元形状表面の直接観察可能な面を視準可能面(KYZ)としてメモリ36に記憶する。   A virtual collimation position (XYZ) preliminarily stored in the memory 39 so as to simulate the observer's viewpoint on the ground surface that is a specific distance away from the target feature in the virtual space. From this, the directly observable surface of the three-dimensional surface of the target feature is stored in the memory 36 as a collimable surface (KYZ).

次に、その対象地物Hiの視準可能面の面積とそれ以外の面の面積を求める。次に、前記仮想空間に生成した立体モデルを判定したい写真の標定情報と同じ条件により撮影した二次元の仮想俯瞰図を生成し、この仮想俯瞰図上に写っている対象地物の視準可能面とそれ以外の面の画像上の面積を求める。   Next, the area of the collimable surface of the target feature Hi and the area of the other surface are obtained. Next, a two-dimensional virtual bird's-eye view photographed under the same conditions as the orientation information of the photograph for which the three-dimensional model generated in the virtual space is to be determined is generated, and the target feature in the virtual bird's-eye view can be collimated The area on the image of the surface and other surfaces is obtained.

前記視準可能面とそれ以外の面の仮想空間内と仮想俯瞰図上での面積比の関係を撮影俯角判定での見易さ指標として視準可能面を見易く撮影している写真を判定する。 The relationship between the area ratio in the virtual space of the collimable surface and the other surface and the virtual overhead view is determined as an easy-to-see index in the photographing depression angle determination, and a photograph of the collimable surface being easily captured is determined. .

この第2の最適写真決定部35の処理について以下に説明する。   The processing of the second optimum photograph determination unit 35 will be described below.

図21は視準可能面を求める方法を模式的に説明する説明図である。図22は視準可能面を求める方法のフローチャートである。図23は視準可能面を用いた撮影俯角による見易さの指標を説明する説明図である。図24は視準可能面を用いた撮影俯角による見易さの指標を求めるフローチャートである。   FIG. 21 is an explanatory diagram schematically illustrating a method for obtaining a collimable surface. FIG. 22 is a flowchart of a method for obtaining a collimable surface. FIG. 23 is an explanatory diagram for explaining an easy-to-see index based on a shooting depression angle using a collimable surface. FIG. 24 is a flowchart for obtaining an easy-to-see index based on a shooting depression angle using a collimable surface.

初めに、図22を説明する。   First, FIG. 22 will be described.

対象地物の見易さ指標の計算において撮影俯角判定は、地物の立体形状表面のうち、利用者が観察可能な面を視準可能面Rpiする。 In the calculation of the legibility index of the target feature, the photographing depression angle determination uses a surface Rpi that can be observed by the user among the three-dimensional surface of the feature.

この視準可能面Rpiは、利用者は車輛や歩道など、地表面上から対象地物を観察すると想定し、対象地物Hiの三次元形状データと地表の標高データを用いて、対象地物の地表面との接点から設定された視準距離Riだけ離れた地表面上の点を仮想視準点Miとし、仮想視準点Miから見通せる対象地物Hiの三次元形状データ(ポリゴン)の表面を視準可能面Rpiとする。ただし、地表面と接する面は、そのどちらにも含まないこととする。   This collimable surface Rpi assumes that the user observes the target feature from the ground surface, such as a vehicle or a sidewalk, and uses the three-dimensional shape data of the target feature Hi and the altitude data of the ground surface. A point on the ground surface separated by a collimation distance Ri set from the contact point with the ground surface is set as a virtual collimation point Mi, and the three-dimensional shape data (polygon) of the target feature Hi that can be seen from the virtual collimation point Mi Let the surface be a collimable surface Rpi. However, the surface in contact with the ground surface is not included in either of them.

仮想視準点Miは、可能であれば撮影方位判定で用いる判定境界線Ljと同じ面についてのみ設定することが理想である。また、非常に詳細な三次元情報を用いる場合は、仮想視準点Mi近くの微細な地形に影響されるので、仮想視準点Miを地表面より平均的な身長や車輛の高さ分だけ高くオフセットして設定する方法も考慮してよい。 Ideally, the virtual collimation point Mi is set only on the same plane as the determination boundary line Lj used in the imaging orientation determination if possible. In addition, when using very detailed three-dimensional information, since it is affected by the fine terrain near the virtual collimation point Mi, the virtual collimation point Mi is equivalent to the average height and vehicle height from the ground surface. A method of setting with a high offset may also be considered.

視準距離Riは、予め特定数値を設定する方法や、撮影方向判定で用いる判定境界線Ljの決定に用いた地物によって設定する方法がある。例えば、判定境界線Ljの決定に道路を用いている場合では、道路幅を視準距離Riとして用いることが考えられる。   The collimating distance Ri includes a method of setting a specific numerical value in advance and a method of setting the collimating distance Ri according to the feature used for determining the determination boundary line Lj used in the shooting direction determination. For example, when a road is used to determine the determination boundary line Lj, it is conceivable to use the road width as the collimation distance Ri.

第2の最適写真決定部35は、地物含み撮影情報取得部18によって、対象地物Hiを含む地物情報Aip、撮影情報Bip、写真情報Dipがメモリ27に記憶され、かつ共通二次元地図情報作成部20によって共通地図Giがメモリ28に生成されると、メモリ27の撮影情報Bipを読み込む(S51)。   The second optimum photograph determination unit 35 stores the feature information Aip, the shooting information Bip, and the photograph information Dip including the target feature Hi in the memory 27 by the feature-included shooting information acquisition unit 18, and the common two-dimensional map. When the common map Gi is generated in the memory 28 by the information creating unit 20, the shooting information Bip in the memory 27 is read (S51).

次に、撮影情報Bipの撮影範囲Bcipに含まれている対象地物Hiの三次元形状Ri(ポリゴン:XYZが付与)を、メモリ27の三次元情報Cbip(地表面及び標高データ)を元に、仮装空間内(メモリ38)に都市の立体モデルGpを生成する(S52)。   Next, the three-dimensional shape Ri (polygon: given by XYZ) of the target feature Hi included in the photographing range Bcip of the photographing information Bip is used based on the three-dimensional information Cbip (ground surface and altitude data) in the memory 27. Then, a three-dimensional model Gp of the city is generated in the masquerade space (memory 38) (S52).

次に、この立体モデルGpにおいて、対象地物Hiの判定境界線Ljをメモリ29から検索する(S53)。   Next, in this three-dimensional model Gp, the determination boundary line Lj of the target feature Hi is searched from the memory 29 (S53).

そして、検索した対象地物Hiの三次元形状の近傍に、予めメモリ39に設定されている視準位置Miを設定する(S54:図21参照)。   Then, a collimation position Mi set in advance in the memory 39 is set in the vicinity of the searched three-dimensional shape of the target feature Hi (S54: see FIG. 21).

次に、この視準位置Miから対象地物Hiの三次元形状を構成する面に視準線を引いて視準可能面Rpiと視準不可面Rqiとを決定する(S55)。次に、視準可能面Rpi又は視準不可面Rqiをメモリ29に記憶されている判定境界線Ljにリンク付けされている対象地物Hi、撮影情報Bip、写真情報Dip等を読み込み、メモリ36にリンク付けして記憶する(S56)。   Next, a collimation plane Rpi and a collimation impossible plane Rqi are determined by drawing a collimation line from the collimation position Mi to a plane constituting the three-dimensional shape of the target feature Hi (S55). Next, the target feature Hi, the photographic information Bip, the photographic information Dip, and the like linked to the determination boundary line Lj stored in the memory 29 are read from the collimable surface Rpi or the non-collimable surface Rqi, and the memory 36 is read. Are linked to and stored (S56).

この視準可能面Rpiと視準不可面Rqiとは、対象地物Hiの三次元形状の面の条件の比較で決定する。地表面に接する面は視準不可面Rqiとする。   The collimable surface Rpi and the non-collimable surface Rqi are determined by comparing the three-dimensional surface conditions of the target feature Hi. The surface in contact with the ground surface is a non-collimable surface Rqi.

次に、撮影情報Bipはメモリ27に他に記憶されているかどうかを判断し(57)、他に記憶されている場合は、次の撮影情報Bipに更新して処理をステップS51に移す(S58)。すなわち、対象地物Hiを撮影した全ての撮影地点からのカメラの撮影範囲の地表面に設置した視準位置Mi毎に、その撮影方向からの視準可能面Rpiと視準不可面Rqiが求められてメモリ36に記憶される(図25参照)。   Next, it is determined whether or not another shooting information Bip is stored in the memory 27 (57). If the other shooting information Bip is stored, it is updated to the next shooting information Bip and the process proceeds to step S51 (S58). ). That is, the collimable surface Rpi and the non-collimable surface Rqi from the photographing direction are obtained for each collimation position Mi installed on the ground surface of the photographing range of the camera from all photographing points where the target feature Hi is photographed. And stored in the memory 36 (see FIG. 25).

次に、視準可能面を用いた撮影俯角による見易さの指標を判定する処理を説明する。   Next, a process for determining an easy-to-see index based on a shooting depression angle using a collimable surface will be described.

この判定処理は、撮影地点毎に、そのカメラが撮影した対象地物の仮想俯瞰図を生成し、この仮想俯瞰図の視準可能面と視準不可面との面積比(見易さの指標)と、同じ撮影地点のカメラが撮影した対象地物の視準可能面Rpiと視準不可能面Rqiとの面積比(見易さの指標)との比較で最適写真を決定する。 This determination process generates a virtual overhead view of the target feature photographed by the camera for each shooting point, and the area ratio between the collimable surface and the non-collimable surface of the virtual overhead view (index of visibility). ) And the area ratio (index of visibility) of the collimable surface Rpi and the collimable surface Rqi of the target feature photographed by the camera at the same photographing point is determined.

次に図23を説明する。 Next, FIG. 23 will be described.

撮影地点毎に、対象地物の三次元形状データの視準可能面と視準不可面を決定した後に、その3次元空間内での視準可能面の面積総和Scと視準不可面積の面積総和Snを求める。   After determining the collimable surface and non-collimable surface of the 3D shape data of the target feature for each shooting point, the total area Sc of the collimable surface and the area of the non-collimable area in the three-dimensional space Find the total Sn.

次に、同じ三次元形状データと標高データを用いて、各写真の撮影情報データベースの標定情報をもとに同じカメラ諸元・位置・姿勢で撮影したような二次元の仮想俯瞰図を生成し、その画像上での視準可能面の面積総和Acと視準不可面の面積総和Anを求める。   Next, using the same 3D shape data and elevation data, generate a 2D virtual overhead view as if it were shot with the same camera specifications, position, and orientation based on the orientation information in the shooting information database for each photo. Then, the total area Ac of the collimable surface and the total area An of the non-collimable surface on the image are obtained.

求められた面積の総和について、撮影俯角による視準可能面積の見易さ指標として実際の面積比に対する写真上の面積比(Sc・An)/(Sn・Ac)を求める。この値が小さいほど視準可能面を見やすく画角内に捉えていると判断する。   For the sum of the obtained areas, the area ratio (Sc · An) / (Sn · Ac) on the photograph with respect to the actual area ratio is obtained as an easy-to-see index of the collimable area by the shooting depression angle. It is determined that the smaller the value is, the easier it is to see the collimable surface within the angle of view.

例えば、図23では、写真1、2について生成された仮想俯瞰図があり、両者の視準可能面の面積総和Scと視準不可面積の面積総和Snは対象が同じ地物なので等しい。写真1の仮想俯瞰図上の視準可能面積の総和は、二つの領域がありAc1=Ac11+Ac12となり、同じく視準不可面積の総和An1=An11+An12となる。   For example, in FIG. 23, there are virtual overhead views generated for photographs 1 and 2, and the total area Sc of the collimable surfaces and the total area Sn of the non-collimable areas are the same because the object is the same feature. The sum of the collimable areas on the virtual overhead view of Photo 1 has two regions, and is Ac1 = Ac11 + Ac12, and the sum of the collimable areas An1 = An11 + An12.

同様に写真2の仮想俯瞰図ではAc2=Ac21+Ac22となり、視準不可面積は一つの領域しかないのでAn2となる。これらについて面積比を比較すると、(Sc・An1)/(Sn・Ac1)<(Sc・An2)/(Sn・Ac2)となるので、写真1のような視準可能面に正対している写真の方を見易いと判断する。   Similarly, in the virtual overhead view of Photo 2, Ac2 = Ac21 + Ac22, and the non-collimable area is An2, because there is only one area. Comparing the area ratios of these, (Sc · An1) / (Sn · Ac1) <(Sc · An2) / (Sn · Ac2), so the photo directly faces the collimable surface as shown in Photo 1. Judging that it is easier to see.

次に図24のフローチャートを用いて説明する。第2の最適写真決定部35は、メモリ29に記憶されている対象地物Hiの撮影情報Bipを読み込む(S61)。   Next, a description will be given using the flowchart of FIG. The second optimum photograph determination unit 35 reads the shooting information Bip of the target feature Hi stored in the memory 29 (S61).

次に、読み込んだ撮影情報Bipの標定情報のカメラカメラ諸元・位置・姿勢で対象地物を撮影したような二次元の仮想俯瞰図Fiを生成してメモリ37に記憶する(S62)。   Next, a two-dimensional virtual bird's-eye view Fi as if the target feature was photographed with the camera camera specifications, position and orientation of the orientation information of the read photographing information Bip is generated and stored in the memory 37 (S62).

例えば、メモリ29に記憶されている判定境界線Ljを有するメモリ38の対象地物の三次元形状を、読み込んだ撮影情報Bipの標定情報のカメラカメラ諸元・位置・姿勢で対象地物を撮影したような二次元の仮想俯瞰図Fiを生成する。つまり、メモリ37には、撮影地点毎のカメラの撮影情報で撮影したときの仮想俯瞰図Fi(F1、F2・・)が判定境界線Ljと撮影情報Bip(B1p、B2p、・・・)等がリンク付けされて記憶される。   For example, the three-dimensional shape of the target feature in the memory 38 having the determination boundary line Lj stored in the memory 29 is photographed with the camera camera specifications, position, and posture of the orientation information of the read photographing information Bip. A two-dimensional virtual overhead view Fi as described above is generated. That is, in the memory 37, the virtual overhead view Fi (F1, F2,...) When shooting is performed with the shooting information of the camera at each shooting point, the determination boundary line Lj, the shooting information Bip (B1p, B2p,...), Etc. Are linked and stored.

次に、撮影情報Bipは他にあるかどうかを判定し(S63)、他に存在する場合は処理をステップS61に戻す(S64)。つまり、メモリ37には、撮影地点毎のカメラの撮影情報で撮影したときの仮想俯瞰図Fi(F1、F2・・)が判定境界線Ljと撮影情報Bip(B1p、B2p、・・・)等がリンク付けされて記憶される。   Next, it is determined whether there is another shooting information Bip (S63). If there is another shooting information Bip, the process returns to step S61 (S64). That is, in the memory 37, the virtual overhead view Fi (F1, F2,...) When shooting is performed with the shooting information of the camera at each shooting point, the determination boundary line Lj, the shooting information Bip (B1p, B2p,...), Etc. Are linked and stored.

ステップS63において、撮影情報Bipが他に存在しないと判定したときは、仮想俯瞰図Fi毎に、その画像上での視準可能面の面積総和Acと視準不可面の面積総和Anを求める(S65)。   When it is determined in step S63 that there is no other shooting information Bip, the total area Ac of the collimable surface and the total area An of the non-collimable surface on the image are obtained for each virtual overhead view Fi ( S65).

次に、求められた面積の総和について、撮影俯角による視準可能面積の見易さ指標として実際の面積比に対する写真上の面積比Ji(Sc・An)/(Sn・Ac)を求める(S66)。   Next, the area ratio Ji (Sc · An) / (Sn · Ac) on the photograph with respect to the actual area ratio is obtained as an easy-to-see index of the collimable area based on the shooting depression angle (S66). ).

次に、仮想俯瞰図Fiは他にあるかどうかを判断する(S67)。ステップS67において仮想俯瞰図Fiが他にあると判断したときは、次の仮想俯瞰図Fiに更新して処理をステップS65に移す(S68)。   Next, it is determined whether there is another virtual overhead view Fi (S67). If it is determined in step S67 that there is another virtual bird's-eye view Fi, the next virtual bird's-eye view Fi is updated and the process proceeds to step S65 (S68).

すなわち、図25に示すようにメモリ37には、仮想俯瞰図Fi毎の撮影俯角による視準可能面積の見易さ指標として実際の面積比に対する写真上の面積比Ji(Ji=(Sc・An)/(Sn・Ac))が記憶されることになる。   That is, as shown in FIG. 25, in the memory 37, the area ratio Ji (Ji = (Sc · An ) / (Sn · Ac)) is stored.

また、ステップS67において、仮想俯瞰図Fiが他に存在しないと判定したときは、メモリ37の仮想俯瞰図Fi毎の撮影俯角による視準可能面積の見易さ指標として実際の面積比に対する写真上の面積比Ji(Ji=(Sc・An)/(Sn・Ac))が最も小さい値となった撮影点の撮影情報Bipに対応する写真情報Dipを最適写真情報Dipと決定してメモリ40に記憶する(S69)。   In step S67, when it is determined that there is no other virtual overhead view Fi, on the photograph with respect to the actual area ratio as an easy-to-see index of the collimable area by the shooting depression angle for each virtual overhead view Fi in the memory 37. The photo information Dip corresponding to the shooting information Bip at the shooting point where the area ratio Ji (Ji = (Sc · An) / (Sn · Ac)) is the smallest value is determined as the optimum photo information Dip in the memory 40. Store (S69).

そして、この最適写真情報の対象地物の輪郭強調を行い(S70)、提供部24にこの写真情報を送出して利用者端末1に送信させる(S71)。   Then, the contour enhancement of the target feature of the optimal photo information is performed (S70), and the photo information is transmitted to the providing unit 24 and transmitted to the user terminal 1 (S71).

<実施の形態3>
第3の検索サービスは、都市の三次元構造を考慮して他の地物に対象地物が隠れていない写真を優先的に検索する検索サービス(オクルージョン判定ともいう)を、第1の検索サービス、第2の検索サービスを組み合わせたサービスである。
<Embodiment 3>
The third search service is a search service (also referred to as occlusion determination) that preferentially searches for photos in which the target feature is not hidden behind other features in consideration of the three-dimensional structure of the city. , A service combining the second search service.

オクル−ジョン判定は、撮影情報Bipと抽出された三次元情報を用いて、オクルージョンによる見易さ指標を計算する。   In the occlusion determination, an easy-to-see index based on occlusion is calculated using the photographing information Bip and the extracted three-dimensional information.

図26は実施の形態3の最適写真提供システムの概略構成図である。本実施の形態のシステムは、撮影方向、距離別の最適写真判定処理を第1の最適写真決定部22、撮影俯角による最適写真決定処理を第2の最適写真決定部35、オクル−ジョン判定による処理を第3の最適写真提供部50として説明する。   FIG. 26 is a schematic configuration diagram of the optimum photograph providing system according to the third embodiment. In the system according to the present embodiment, the optimal photo determination process for each shooting direction and distance is performed by the first optimal photo determination unit 22, the optimal photo determination process by the shooting depression angle is performed by the second optimal photo determination unit 35, and occlusion determination. The processing will be described as the third optimum photograph providing unit 50.

また、第3の実施の形態の提供部は55、メモリ30に記憶されている撮影方向距離別の最適写真とメモリ40に記憶されている撮影俯角判定の最適写真とメモリ52に記憶されているオクルージョン判定の最適写真とを引当て、撮影日時(ユーザ又はセンター側で設定)による絞り込みを行った最適写真を送信する機能を有する。   The provision unit 55 of the third embodiment is stored in the memory 52, the optimum photograph for each shooting direction distance stored in the memory 30, the optimum photograph for shooting depression angle determination stored in the memory 40, and the memory 52. It has a function of allocating an optimal photo for occlusion determination and transmitting an optimal photo that has been narrowed down by shooting date (set by the user or the center).

また、予め設定されている優先度の度合いに応じた順番でこれらのメモリ30、メモリ40、メモリ52の最適写真を提供する機能を有している。このとき、閾値によって種類や枚数を変更する。   Further, it has a function of providing the optimum photos of the memory 30, the memory 40, and the memory 52 in the order corresponding to the preset priority level. At this time, the type and the number of sheets are changed depending on the threshold.

第3の最適写真提供部50は、メモリ57の立体モデルGkiに複数の建物ポリゴンが存在するかどうかを判断し、存在する場合は、撮影俯角判定の際に生成した仮想俯瞰図Fiと同じ手法で、今度は判定する写真の画角内に含まれている周辺地物の三次元形状(建物のポリゴン)を含めた仮想俯瞰図FKiをメモリ57に生成する。   The third optimum photograph providing unit 50 determines whether or not there are a plurality of building polygons in the three-dimensional model Gki in the memory 57. If there are, the same technique as the virtual overhead view Fi generated at the time of photographing depression angle determination is used. Thus, a virtual overhead view FKi including the three-dimensional shape (polygon of the building) of the surrounding features included in the angle of view of the photograph to be judged this time is generated in the memory 57.

この仮想俯瞰図FKi上で、対象地物が建物や地形等の他の地物によって隠れていない部分の視準可能面の面積を求め、対象地物以外の地物が無い場合の視準可能面の面積との比をオクルージョン率Qiとして計算する。   On this virtual bird's-eye view FKi, the area of the collimable surface where the target feature is not hidden by other features such as buildings and terrain is obtained, and the collimation is possible when there is no feature other than the target feature The ratio with the area of the surface is calculated as the occlusion rate Qi.

この値をオクルージョン判定による見易さ指標として、他の地物の陰に対象地物が隠れている部分が少ない写真を判定する。   Using this value as an easy-to-see index by occlusion determination, a photograph with a small number of portions where the target feature is hidden behind other features is determined.

図27を用いて更に説明する。   This will be further described with reference to FIG.

図27は地物の三次元形状データの視準可能面を用いたオクルージョン判定による見易さ指標の計算を説明する説明図である。 FIG. 27 is an explanatory diagram for explaining the calculation of the visibility index by the occlusion determination using the collimable surface of the three-dimensional shape data of the feature.

対象地物Hiの三次元形状データと標高データと撮影情報Bipをもとに生成した仮想俯瞰図Fi上の視準可能面の面積総和Acを求めた後に、同じ画角内に存在する周辺地物の三次元形状データを含めた仮想俯瞰図Fkiを同様にメモリ57に生成する。そして、この仮想俯瞰図上においての他の地物の陰に隠れていない対象地物の視準可能面の面積総和Ac’を求める。   After obtaining the total area Ac of the collimable surfaces on the virtual overhead view Fi generated based on the three-dimensional shape data, elevation data, and imaging information Bip of the target feature Hi, the surrounding area existing within the same angle of view. Similarly, the virtual overhead view Fki including the three-dimensional shape data of the object is generated in the memory 57. Then, the total area Ac ′ of the collimable surfaces of the target feature that is not hidden behind other features on the virtual overhead view is obtained.

具体的には周囲のポリゴンと対象地物のポリゴンとを重ねて、他の地物に隠れていない対象地物の面を抽出してそれを視準可能面A´ciとしている。   Specifically, the surrounding polygon and the polygon of the target feature are overlapped, and the surface of the target feature that is not hidden by other features is extracted and used as a collimable surface A′ci.

この対象地物の三次元形状データのみの場合と、画角内の他の地物を含む場合の、視準可能面の面積総和AcとAc’の比Ac’/Acをオクルージョン率として、オクルージョン判定による見易さ指標となる。この指標が1に近い程、周辺地物による遮蔽の影響が少ない写真と判断することが可能となる。   Occlusion with the ratio of the total area Ac and Ac 'of the collimable surface Ac' / Ac as the occlusion rate when only the 3D shape data of this target feature and other features within the angle of view are included It becomes an easy-to-read index by judgment. The closer this index is to 1, it can be determined that the photograph is less affected by the surrounding features.

例えば、図27では、写真1の周辺地物を含む仮想俯瞰図上の視準可能面の面積総和Ac’1=Ac’11+Ac’12となり、同じく写真2の視準可能面の面積総和Ac’2=Ac’21+Ac’22となる。ここで、写真1の仮想俯瞰図のAc’11は図23のAc11と比べて手前の地物の陰に隠れた分だけ面積が減少している。   For example, in FIG. 27, the total area of collimable surfaces on the virtual overhead view including the peripheral features in photo 1 is Ac′1 = Ac′11 + Ac′12. Ac'2 = Ac'21 + Ac'22. Here, the area of Ac′11 in the virtual overhead view of Photo 1 is smaller than that of Ac11 in FIG. 23 by the amount hidden behind the feature in front.

これに対して、写真2の仮想俯瞰図では図23と比べて視準可能面の面積変化はない。このことからオクルージョン率Ac’/Acは、(Ac’1/Ac1)<(Ac’2/Ac2)=1となり、写真2の方が周辺地物によって対象地物の視準可能面が隠れていない見易い写真と判断する。   On the other hand, in the virtual overhead view of Photo 2, there is no change in the area of the collimable surface as compared with FIG. Therefore, the occlusion rate Ac '/ Ac is (Ac'1 / Ac1) <(Ac'2 / Ac2) = 1, and in Photo 2, the collimable surface of the target feature is hidden by the surrounding features. Judge that it is not easy to see.

次に、図28のフローチャートを用いて説明する。   Next, a description will be given using the flowchart of FIG.

対象地物Hiの三次元形状データと標高データと撮影情報Bipをもとに生成した仮想俯瞰図Fi上の視準可能面の面積総和Acを求めた後に、第3の最適写真提供部は、対象地物Hiを含む撮影情報Bipをメモリ56に読み込む(S81)。   After obtaining the total area Ac of the collimable surfaces on the virtual overhead view Fi generated based on the three-dimensional shape data, altitude data, and imaging information Bip of the target feature Hi, the third optimum photograph providing unit The shooting information Bip including the target feature Hi is read into the memory 56 (S81).

次に、読み込んだ撮影情報Bipの撮影範囲の三次元情報を用いてその立体モデルGkiをメモリ57に生成する(S82:図29参照)。   Next, the three-dimensional model Gki is generated in the memory 57 using the three-dimensional information of the shooting range of the read shooting information Bip (S82: see FIG. 29).

次に、この立体モデルGkを読み込んだ撮影情報Bipのカメラで撮影したときの仮想俯瞰図Fkiを生成する(S83)。   Next, a virtual overhead view Fki when the stereoscopic model Gk is photographed with the camera of the photographing information Bip that has been read is generated (S83).

次に、生成した仮想俯瞰図Fkiの視準境界線Liを含む面と仮想俯瞰図Fki内の他の地物の三次元形状HBpの面とを比較して、オクル−ジョン率Qiを求め、これを撮影情報Bipに関連させてメモリ56に記憶する(S83)。   Next, the surface including the collimation boundary line Li of the generated virtual overhead view Fki is compared with the surface of the three-dimensional shape HBp of another feature in the virtual overhead view Fki to obtain the occlusion rate Qi, This is stored in the memory 56 in association with the photographing information Bip (S83).

このオクル−ジョンQiは、対象地物の三次元形状データと標高データと撮影情報Bipの撮影範囲をもとに生成した仮想俯瞰図Fi上の視準可能面の面積総和Acを求めた後に、同じ画角内に存在する周辺地物の三次元形状データを含めた仮想俯瞰図Fki上においての他の地物の陰に隠れていない対象地物の視準可能面の面積総和Ac’を求める(メモリ56に撮影情報Bipにリンク付けして記憶)。   After determining the total area Ac of the collimable surface on the virtual overhead view Fi generated based on the imaging range of the three-dimensional shape data, the elevation data, and the imaging information Bip of the target feature, Obtain the total area Ac 'of the collimable surface of the target feature that is not hidden behind other features on the virtual bird's-eye view Fki including the three-dimensional shape data of the surrounding features existing in the same angle of view. (The memory 56 is linked to the shooting information Bip and stored).

具体的には周囲のポリゴンと対象地物のポリゴンとを重ねて、他の地物に隠れていない対象地物の面を抽出してそれを視準可能面A´ciとしている。   Specifically, the surrounding polygon and the polygon of the target feature are overlapped, and the surface of the target feature that is not hidden by other features is extracted and used as a collimable surface A′ci.

この対象地物の三次元形状データHBpのみの場合と、画角内の他の地物を含む場合の、視準可能面の面積総和AcとAc’の比Ac’/Acをオクルージョン率Qiとして、オクルージョン判定による見易さ指標とする。   The ratio Ac '/ Ac of the total area of the collimable surface Ac and Ac' when only the 3D shape data HBp of this target feature and other features within the angle of view are included as the occlusion rate Qi The visibility index is based on occlusion determination.

次に、他に撮影情報Bipがメモリ27に存在していないかどうかを判断し、存在していない場合は、次の撮影情報Bipに更新して処理をステップS89に戻す(S85)。   Next, it is determined whether or not other shooting information Bip exists in the memory 27. If it does not exist, it is updated to the next shooting information Bip and the process returns to step S89 (S85).

すなわち、図29に示すように、メモリ57に記憶されている仮想俯瞰図Fkiと、メモリ56に記憶されている撮影情報BipにおけるHiの三次元形状(撮影情報Bipと判定境界線Ljとこの撮影情報BipにおけるHiの三次元形状と、視準可能面の総和Aciとオクリージョン率Qiとが対応させられている)との比較結果をオクルージョン率として得て、これをメモリ56に記憶している。図29においては、撮影情報の撮影範囲の対象地物Hiの三次元形状(建物ポリゴン)をHBpとして記載している。   That is, as shown in FIG. 29, the virtual overhead view Fki stored in the memory 57 and the three-dimensional shape of Hi in the shooting information Bip stored in the memory 56 (the shooting information Bip and the determination boundary line Lj and this shooting The comparison result between the three-dimensional shape of Hi in the information Bip, the total sum Aci of collimable surfaces, and the occupancy rate Qi is obtained as an occlusion rate, and this is stored in the memory 56 . In FIG. 29, the three-dimensional shape (building polygon) of the target feature Hi in the shooting range of the shooting information is described as HBp.

次に、これらのオクル−ジョン率Qiの中で「1」に最も近いオクルージョン率Qiを有する撮影情報の写真情報Dipを最適写真情報として決定してメモリ52に記憶する(S87)。   Next, the photo information Dip of the shooting information having the occlusion rate Qi closest to “1” among these occlusion rates Qi is determined as the optimum photo information and stored in the memory 52 (S87).

そして、この最適写真情報に対応する仮想俯瞰図Fkiの対象地物Hiのポリゴンを重ねて、これを強調処理して(S88)、提供部55によって利用者端末に送信させる(S89)。   Then, the polygon of the target feature Hi of the virtual overhead view Fki corresponding to the optimum photograph information is superimposed, emphasized (S88), and transmitted to the user terminal by the providing unit 55 (S89).

図30は強調処理を説明する説明図である。   FIG. 30 is an explanatory diagram for explaining the enhancement processing.

オクルージョン判定による見易さ指標の計算と同じ手法を用いて、画角内の周辺地物の陰に隠れていない対象地物の三次元形状ポリゴンの仮想俯瞰図Fki上の領域を求める。この領域は前記視準可能面と視準不可面の両方を含めている。   A region on the virtual overhead view Fki of the three-dimensional polygon of the target feature that is not hidden behind the surrounding feature within the angle of view is obtained using the same method as the calculation of the visibility index by the occlusion determination. This region includes both the collimable surface and the non-collimable surface.

次に、生成した仮想俯瞰図と写真データをオーバーレイさせ、対象地物の領域について、例えば、ワイヤーフレームの着色や、領域の塗りつぶし・半透明等の画像処理を加えることによって、対象地物の写真上の見える部分について強調表示した画像を生成する。本システムでは、この強調表示に関わる画像処理の手法については特に問わない。図30では写真上の対象地物領域を半透明処理により塗りつぶすことによって強調している。   Next, overlay the generated virtual overhead view and photographic data, and for the target feature area, for example, by adding image processing such as coloring of the wire frame, filling of the area, translucent, etc. Generate an image that highlights the visible part above. In the present system, the image processing technique related to this highlighting is not particularly limited. In FIG. 30, the target feature region on the photograph is emphasized by being painted by semi-transparent processing.

従って、本実施の形態では、図31にフローチャートに示す処理を行うことが可能である。   Therefore, in the present embodiment, the processing shown in the flowchart in FIG. 31 can be performed.

図31のフローチャートは処理の概念を時系列的に示す。   The flowchart of FIG. 31 shows the concept of processing in time series.

利用者が地理情報活用者端末1上で地物を指定すると(S110)、センターの地理情報検索部によって該当する地物情報Ai、地理座標がデータベースより検索される(S111、S112)。また、本システムとは別のシステムからの地理座標情報を入力することも可能である(S100)。   When the user designates a feature on the geographic information user terminal 1 (S110), the corresponding feature information Ai and geographic coordinates are retrieved from the database by the geographic information retrieval unit of the center (S111, S112). It is also possible to input geographical coordinate information from a system different from this system (S100).

次に、入力された地物の地物情報に記載されている地理座標が撮影範囲Bciに含まれている写真の撮影情報Bipを撮影情報データベース12から検索する(S113)。   Next, the photographing information database 12 is searched for photographing information Bip of a photograph in which the geographical coordinates described in the feature information of the input feature are included in the photographing range Bci (S113).

次に、この撮影情報の検索によって抽出された撮影情報の撮影範囲内に含まれる二次元地図情報と、その写真の画角内に含まれる三次元情報を地物情報データベース10から検索する(S114)。   Next, the two-dimensional map information included in the shooting range of the shooting information extracted by the search of the shooting information and the three-dimensional information included in the angle of view of the photograph are searched from the feature information database 10 (S114). ).

この情報検索では、例えば、地表面に対して水平に撮影した場合に撮影範囲の奥行方向の座標が無限遠となり、抽出する情報量が膨大となってしまう場合、撮影位置を中心として対象地物より遠い範囲に限りデータを無視することによってハードウエアの能力に合わせて負荷を軽減することが可能である。   In this information search, for example, when the image is taken horizontally with respect to the ground surface, the depth direction coordinates of the shooting range are infinite, and the amount of information to be extracted becomes enormous. By ignoring data only in the farther range, it is possible to reduce the load according to the hardware capability.

次に、撮影情報Bipと抽出された二次元地図情報を用いて、撮影方位による見易さ指標を計算する(S115)。   Next, using the shooting information Bip and the extracted two-dimensional map information, a legibility index based on the shooting direction is calculated (S115).

次に、撮影情報Bipと抽出された三次元情報を用いて、撮影俯角による見易さ指標を計算する(S116)。   Next, an easy-to-see index based on the shooting depression angle is calculated using the shooting information Bip and the extracted three-dimensional information (S116).

次に、撮影情報Bipと抽出された三次元情報を用いて、オクルージョン率Qiによる見易さ指標を計算する(S117)。   Next, the visibility index based on the occlusion rate Qi is calculated using the shooting information Bip and the extracted three-dimensional information (S117).

次に、対象地物を撮影した写真が複数ある場合は、撮影方位・撮影俯角・オクルージョン判定結果と撮影情報データベース12の情報から、任意に設定する閾値と抽出条件に沿った対象地物の最も見やすい最適写真を決定する。   Next, when there are a plurality of photographs of the target feature, the most suitable target feature in accordance with the threshold value and the extraction condition that are arbitrarily set from the photographing direction, the depression angle, the occlusion determination result, and the information of the photographing information database 12 Determine the optimal photo that is easy to see.

条件に合う写真が無かった場合は、利用者端末1に該当写真がない旨を表示する(S118)。   If there is no photo that meets the conditions, a message that there is no corresponding photo is displayed on the user terminal 1 (S118).

次に、最適写真とそれに対応する仮想俯瞰図を重ね合わせ、仮想俯瞰図上の対象地物の範囲の色調を変更することにより写真上の対象地物を強調する(S119)。この地物強調画像を利用者端末1に表示(写真表示部)する。   Next, the optimum photograph and the corresponding virtual overhead view are superimposed, and the target feature on the photograph is emphasized by changing the color tone of the range of the target feature on the virtual overhead view (S119). The feature emphasized image is displayed on the user terminal 1 (photo display unit).

強調表示の手法としては、例えば基となる地物の三次元形状情報がポリゴン形式で提供されている場合は、そのポリゴンの頂点を結んだワイヤーフレームを任意の色(具体的にはどんな色を想定していますか:周りが写真なので)により着色した画像を重ねあわせたり、範囲内を塗りつぶし・半透明等の処理を加えたりする手法が想像できるが、その手法については本システムでは特に問わない。   As a highlighting method, for example, when the 3D shape information of the underlying feature is provided in polygon format, the wire frame connecting the vertices of the polygon can be displayed in any color (specifically, any color). Can you imagine a method to superimpose colored images by adding a colored or semi-transparent process within the range? .

そして、最も検索条件に近い写真を利用者端末1に送信して表示させる(S120)。   Then, the photograph closest to the search condition is transmitted to the user terminal 1 and displayed (S120).

表示させる写真は、一つでも複数でも構わない。また、計算された指標から見易い順に並べて表示する方法もある。   One or more photographs may be displayed. There is also a method of arranging and displaying the calculated indices in an order that is easy to see.

<実施の形態4>
すなわち、図32にフローチャートに示すように撮影方位、俯角、オクルージョン率による最適写真のいずれか又はこれらの組合せを得ることが可能である。
<Embodiment 4>
That is, as shown in the flowchart in FIG. 32, it is possible to obtain any one of the optimum photographs based on the shooting direction, the depression angle, the occlusion rate, or a combination thereof.

この例を実施の形態4として説明する。   This example will be described as a fourth embodiment.

図32に示すように、最適写真決定部は、写真が複数の場合は、撮影日時で撮影情報を絞り込む(S131)。そして、これらの撮影情報で撮影方位判定処理を行って、これらの撮影方位判定処理の写真を送信する(S133)。   As shown in FIG. 32, when there are a plurality of photos, the optimum photo determination unit narrows down the shooting information by the shooting date and time (S131). Then, a shooting direction determination process is performed using these shooting information, and a photograph of the shooting direction determination process is transmitted (S133).

また、撮影日時で絞り込んだ撮影情報を用いて撮影俯角判定処理を行い(S134)、これらを送信する(S135)。また、撮影日時で絞り込んだ撮影情報を用いてオクルージョン判定処理を行い(S136)、これらを送信する(S137)。   Further, a shooting depression angle determination process is performed using shooting information narrowed down by shooting date and time (S134), and these are transmitted (S135). Also, the occlusion determination process is performed using the shooting information narrowed down by the shooting date and time (S136), and these are transmitted (S137).

これらの写真は一組のサムネイル画面で送信されるのが好ましい。   These photos are preferably sent on a set of thumbnail screens.

そして、ユーザは画面を見て、見やすい大きさ、見やすい角度、隠れていないか等を判定し、これらの中から最適な写真を選択する(S138〜S141)。   Then, the user looks at the screen, determines the size that is easy to see, the angle that is easy to see, whether it is not hidden, and the like, and selects an optimal photo from these (S138 to S141).

ステップS138〜S141は、画面には、撮影方位毎の多数の最適写真の組みと、俯角別による多数の最適写真の組みと、オクルージョン率による多数の最適写真の組みとがサムネイル表示され、いずれかのものがユーザによって最適写真とされるのが好ましい。   In steps S138 to S141, thumbnails are displayed on the screen of a set of a number of optimum photos for each shooting direction, a number of sets of optimum photos according to depression angles, and a number of sets of optimum photos based on an occlusion rate. It is preferable that the image is made the optimum photograph by the user.

<実施の形態5>
実施の形態5は、利用者端末に写真と三次元形状とを重ねた画面を提供して、その画像から撮影方向、俯角判定、オクルージョン処理した結果の写真を提供する。
<Embodiment 5>
In the fifth embodiment, a screen in which a photograph and a three-dimensional shape are superimposed is provided on a user terminal, and a photograph obtained as a result of shooting direction, depression angle determination, and occlusion processing from the image is provided.

図33は実施の形態5を説明するフローチャートである。   FIG. 33 is a flowchart for explaining the fifth embodiment.

利用者が、表示したい地物を変更したい場合や、検索する地物が決定していない場合に、先に写真表示部に写真が表示されている状態から写真上の任意の地物の最適写真を表示させる手順を説明する。   If the user wants to change the feature to be displayed or if the feature to be searched has not been determined, the optimal photo of any feature on the photo from the state in which the photo is first displayed in the photo display area The procedure for displaying is described.

利用者は、画面の画像上から希望の地物を選択する(S210)。それに対応する撮影情報を撮影情報データベース12より検索する(S211)。   The user selects a desired feature from the image on the screen (S210). The corresponding shooting information is searched from the shooting information database 12 (S211).

次に、撮影情報検索によって抽出された撮影情報Bipについて、撮影範囲内の二次元地図情報と、その写真の画角内に含まれる三次元情報を地物情報データベース10より抽出する(S212)。   Next, regarding the shooting information Bip extracted by the shooting information search, the two-dimensional map information within the shooting range and the three-dimensional information included within the angle of view of the photograph are extracted from the feature information database 10 (S212).

ここで選択されている写真の撮影範囲に関わる二次元地図情報1は利用者端末の表示可能(二次元地図表示部)である。   The two-dimensional map information 1 related to the photographing range of the selected photo can be displayed on the user terminal (two-dimensional map display unit).

次に、撮影情報Bipと抽出された三次元情報から、地表面の標高データと画角内の撮影されている地物の三次元形状データをもとに三次元の仮想空間内に都市の立体モデルを生成し、その立体モデルを撮影情報の標定情報と同じ条件で撮影したような二次元の仮想俯瞰図を生成する。   Next, from the shooting information Bip and the extracted three-dimensional information, a three-dimensional image of the city in the three-dimensional virtual space based on the elevation data of the ground surface and the three-dimensional shape data of the feature being photographed within the angle of view. A model is generated, and a two-dimensional virtual overhead view is generated as if the three-dimensional model was photographed under the same conditions as the orientation information of the photographing information.

この仮想俯瞰図は、地物の画角内に写っている部分を二次元の領域に区別し、地物毎に仮想俯瞰図上の座標と地物情報と関連付けられていることが望ましい。そして、前記仮想俯瞰図と選択されている写真を重ね合わせ、利用者端末1にそのオーバーレイ画像を表示(写真表示部)する(S213)。   In this virtual overhead view, it is desirable to distinguish a portion of the feature within the angle of view into a two-dimensional area, and to associate the feature on the virtual overhead view with the feature information for each feature. Then, the virtual overhead view is superposed on the selected photo, and the overlay image is displayed on the user terminal 1 (photo display unit) (S213).

次に、表示されたオーバーレイ画像上の任意の地物をマウス等のポインティングデバイスにより利用者が選択する(S215)と、
前述のオーバーレイ画像の生成過程から想像できるとおり、画像上の座標と関連付けされている地物情報を地物情報データベース10より検索する(S215)。検索された地物情報Aipは利用者端末1に表示可能(地物属性情報表示部)である(S216)。
Next, when the user selects an arbitrary feature on the displayed overlay image with a pointing device such as a mouse (S215),
As can be imagined from the above-described generation process of the overlay image, the feature information associated with the coordinates on the image is searched from the feature information database 10 (S215). The searched feature information Aip can be displayed on the user terminal 1 (feature attribute information display section) (S216).

次に、前記地物情報の地理座標をもとに図示した最適写真検索手順に沿って、新たに最適写真を検索する(S217)。   Next, a new optimum photograph is retrieved along the optimum photograph retrieval procedure shown on the basis of the geographical coordinates of the feature information (S217).

この最適写真の検索は、前記最適写真とそれに対応する仮想俯瞰図を重ね合わせ、仮想俯瞰図上の対象地物の範囲の色調を変更することにより写真上の対象地物を強調する。この地物強調画像を利用者端末1に表示(写真表示部)する(S218)。   The search for the optimum photograph is performed by superimposing the optimum photograph and the corresponding virtual overhead view, and highlighting the target feature on the photograph by changing the color tone of the range of the target feature on the virtual overhead view. The feature emphasized image is displayed on the user terminal 1 (photo display unit) (S218).

強調表示の手法としては、図34に示すように、例えば基となる地物の三次元形状情報がポリゴン形式で提供されている場合は、そのポリゴンの頂点を結んだワイヤーフレームを任意の色(具体的にはどんな色を想定していますか:周りが写真なので)により着色した画像を重ねあわせたり、範囲内を塗りつぶし・半透明等の処理を加えたりする手法が想像できるが、その手法については本システムでは特に問わない。   As a highlighting method, as shown in FIG. 34, for example, when the three-dimensional shape information of a base feature is provided in a polygon format, a wire frame connecting the vertices of the polygon is displayed in an arbitrary color ( I can imagine a method of superimposing colored images by adding a color or other processing such as semi-transparency, etc. There is no particular problem with this system.

また、ここで、当初選択されていた写真の撮影範囲に関わる二次元地図を表示(二次元地図表示部)していた場合は、オーバーレイ画像上で選択された地物を中心とした地図に置き換えることも可能である。   If a 2D map related to the shooting range of the initially selected photo is displayed (2D map display unit), the map is replaced with a map centered on the selected feature on the overlay image. It is also possible.

この最適写真の表示は、最も検索条件に近い写真を表示(写真表示部)させる。表示させる写真は、一つでも複数でも構わない。また、計算された指標から見易い順に並べて表示する方法もある。   The display of the optimum photo is to display the photo closest to the search condition (photo display unit). One or more photographs may be displayed. There is also a method of arranging and displaying the calculated indices in an order that is easy to see.

ただし、対象地物に関連する写真が一つ以下の場合は、前記の見易さ指標を計算する処理を省略しても構わない。   However, when the number of photographs related to the target feature is one or less, the process of calculating the visibility index may be omitted.

図34は、S213において写真上にて区分けされた二次元領域と地物情報が関連図けられていることを模式的にあらわしている。   FIG. 34 schematically shows that the two-dimensional region segmented on the photograph in S213 and the feature information are related.

写真内地物探索に用いる写真が、最適写真検索結果により選択された写真の場合は、その検索途中で生成される周辺地物を含めた仮想俯瞰図とのオーバーレイ結果から得られる写真上の各地物の二次元領域情報を用いて、写真表示部に表示されている写真上の任意の位置を、例えば、マウス等のポインティングデバイスによって座標を指定し、その座標が含まれる領域を選択する方法や、各領域をキー操作により順送りに強調表示して領域を選択する方法等によって、その領域に関連付けられた地物情報を呼び出し、例えば、地物属性情報表示部に情報を表示することや、その他の処理に利用することを容易に想像できる。   If the photo used to search for the feature in the photo is the photo selected by the optimal photo search result, each feature on the photo obtained from the overlay result with the virtual overhead view including the peripheral features generated during the search Using the two-dimensional area information, a position on the photograph displayed on the photograph display unit, for example, by specifying coordinates with a pointing device such as a mouse and selecting an area including the coordinates, By highlighting each area in order by key operation and selecting the area, the feature information associated with the area is called, for example, displaying information on the feature attribute information display unit, You can easily imagine using it for processing.

ただし、任意に選択された写真の場合は、前記周辺地物を含めた仮想俯瞰図を新たに生成し、同様に写真上の各地物の二次元領域情報を求める必要がある。 However, in the case of an arbitrarily selected photograph, it is necessary to newly generate a virtual overhead view including the surrounding features and similarly to obtain two-dimensional area information of each feature on the photograph.

選択された二次元領域情報に対応する地物情報のから、直前の動作において既に最適写真の対象地物となっていた場合を除いて、新たに選択された地物である場合は、その選択された地物を対象地物として最適写真検索処理を実行し、新たに写真表示部に最適写真を表示することも可能である。   If it is a newly selected feature from the feature information corresponding to the selected two-dimensional region information, unless it is already the target feature of the optimal photo in the previous operation, select that feature. It is also possible to execute the optimum photo search process using the set feature as the target feature and newly display the optimum photo on the photo display unit.

なお、上記実施の形態では、利用者端末とサービスセンターとでネットワークを接続して最適写真を提供するとしたが、1台のパソコンで構成してもよい。本発明の実施の形態を説明するために各図において示したサーバや端末の機能や保持するデータの配置は、あくまでも例示であって、本発明の機能を実現するために限定したものでない。よって、本発明の機能が実現可能な範囲において、種々の処理手段の配置の組み合わせが考え得ることは言うまでもない。   In the above embodiment, the user terminal and the service center are connected to the network to provide the optimum photograph, but may be configured by a single personal computer. The functions of the servers and terminals shown in the drawings for explaining the embodiments of the present invention and the arrangement of data to be held are merely examples, and are not limited to realizing the functions of the present invention. Therefore, it goes without saying that various combinations of arrangements of processing means are conceivable within a range in which the functions of the present invention can be realized.

本実施の形態1の最適写真提供システムの概略構成図である。It is a schematic block diagram of the optimal photograph provision system of this Embodiment 1. 本実施の形態1の利用者端末に表示される画面の説明図である。It is explanatory drawing of the screen displayed on the user terminal of this Embodiment 1. FIG. 本実施の形態1の利用者端末に表示される画面の説明図である。It is explanatory drawing of the screen displayed on the user terminal of this Embodiment 1. FIG. 二次元地図情報及び三次元情報の一例を説明する説明図である。It is explanatory drawing explaining an example of 2D map information and 3D information. 斜め写真の撮影方法の説明図である。It is explanatory drawing of the imaging | photography method of a diagonal photograph. 撮影範囲の説明図である。It is explanatory drawing of an imaging | photography range. 写真、撮影情報、三次元情報、二次元地図情報はリンク付けの説明図である。Photographs, photographing information, three-dimensional information, and two-dimensional map information are explanatory diagrams for linking. 本実施の形態の最適写真を得るまでのシーケンス図である。It is a sequence diagram until it obtains the optimal photograph of this Embodiment. 利用者端末の入力情報を説明する説明図である。It is explanatory drawing explaining the input information of a user terminal. 検索条件の説明図である。It is explanatory drawing of search conditions. 利用者端末に表示される地図情報の説明図である。It is explanatory drawing of the map information displayed on a user terminal. 地物含み撮影情報取得部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the photographic information acquisition part including a feature. 共通地図の説明図である。It is explanatory drawing of a common map. メモリ27に記憶される情報を説明する説明図である。4 is an explanatory diagram illustrating information stored in a memory 27. FIG. 第1の最適写真決定処理部22の動作を説明するフローチャートである。4 is a flowchart for explaining the operation of a first optimum photograph determination processing unit 22. 第1の最適写真決定処理部22の動作を説明するフローチャートである。4 is a flowchart for explaining the operation of a first optimum photograph determination processing unit 22. 撮影方向別の最適写真を得る方法の説明図である。It is explanatory drawing of the method of obtaining the optimal photograph according to imaging | photography direction. 第1の最適写真決定部の処理動作をメモリと関連付けて説明する説明図である。It is explanatory drawing explaining the processing operation | movement of a 1st optimal photograph determination part in association with a memory. 重ね処理を説明する説明図である。It is explanatory drawing explaining a superimposition process. 対象地物の区画形状が点座標のみの場合の判定境界線の生成方法につい説明する説明図である。It is explanatory drawing explaining the production | generation method of the determination boundary line in case the division shape of a target feature is only a point coordinate. 実施の形態2の最適写真提供システムの概略構成図である。FIG. 5 is a schematic configuration diagram of an optimum photograph providing system according to a second embodiment. 視準可能面を求める方法を模式的に説明する説明図である。It is explanatory drawing which illustrates the method of calculating | requiring a collimable surface typically. 視準可能面を求める方法のフローチャートである。It is a flowchart of the method of calculating | requiring a collimable surface. 視準可能面を用いた撮影俯角による見易さの指標を説明する説明図である。It is explanatory drawing explaining the parameter | index of the visibility by the imaging depression angle using the collimable surface. 視準可能面を用いた撮影俯角による見易さの指標を求めるフローチャートである。It is a flowchart which calculates | requires the parameter | index of the visibility by the imaging depression angle using a collimable surface. メモリ36、メモリ37に記憶される情報を説明する説明図である。3 is an explanatory diagram for explaining information stored in a memory 36 and a memory 37. FIG. 実施の形態3の最適写真提供システムの概略構成図である。FIG. 6 is a schematic configuration diagram of an optimum photograph providing system according to a third embodiment. 地物の三次元形状データの視準可能面を用いたオクルージョン判定による見易さ指標の計算7を説明する説明図である。It is explanatory drawing explaining the calculation 7 of the visibility parameter | index by the occlusion determination using the collimable surface of the three-dimensional shape data of a feature. オクルージョン比率を求めるためのフローチャートである。It is a flowchart for calculating | requiring an occlusion ratio. メモリ56、メモリ57の情報を説明する説明図である。4 is an explanatory diagram for explaining information in a memory 56 and a memory 57. FIG. 強調処理を説明する説明図である。It is explanatory drawing explaining an emphasis process. 第3の検索サービスを説明する概略フローチャートである。It is a schematic flowchart explaining a 3rd search service. 実施の形態4を説明するフローチャートである。10 is a flowchart for explaining the fourth embodiment. 実施の形態5を説明するフローチャートである。10 is a flowchart for explaining the fifth embodiment. 実施の形態5の建物強調の説明図である。FIG. 10 is an explanatory diagram of building emphasis according to the fifth embodiment.

符号の説明Explanation of symbols

1 利用者端末
2 サービス提供センター
14 ユーザ判定・条件入力画面提供部
16 地図提供・指定地物読込部
18 地物含み撮影情報取得部
20 共通二次元地図情報作成部
22 第1の最適写真決定部
24 提供部
DESCRIPTION OF SYMBOLS 1 User terminal 2 Service provision center 14 User determination / condition input screen provision part 16 Map provision / designation | designated feature reading part 18 Feature including photographic information acquisition part 20 Common 2D map information creation part 22 1st optimal photograph determination part 24 Provision Department

Claims (14)

飛行経路を異ならせて撮影点(Pi)毎に地物をカメラで斜め方向から撮影した複数の斜め写真の内で、目的の対象地物が指定地物に接して撮影されている前記撮影点(Pi)毎の斜め写真を最適斜め写真として提供する最適斜め写真提供方法であって、
前記対象地物を含む地物の平面形状が定義された平面地図と該平面地図内の地物に対する属性情報とを記憶した第1の記憶手段と、
前記撮影点(Pi)毎の、撮影位置と前記撮影点(Pi)毎の前記平面地図における前記カメラの撮影範囲とその撮影点(Pi)のカメラの焦点距離と姿勢と前記カメラのCCDの画角とを含む撮影情報を記憶した第2の記憶手段と、
前記撮影点(Pi)毎の前記カメラの斜め写真を該撮影点(Pi)の前記撮影情報に関連付けて記憶した第3の記憶手段と
を用意し、
コンピュータが、
前記対象地物の前記属性情報を読み込み、該属性情報の前記対象地物を含む前記撮影範囲を有する前記撮影点(Pi)の前記撮影情報を前記第2の記憶手段から全て抽出するステップと、
抽出されたこれらの撮影情報に含まれている各々の前記撮影範囲に基づいて前記対象地物が共通に写っている所定範囲を共通地図として第4の記憶手段に定義するステップと、
前記抽出した各々の前記撮影情報に含まれている前記撮影位置、前記画角の幅を前記共通地図に定義するステップと、
前記撮影点(Pi)の撮影位置毎に、前記共通地図に存在する前記指定地物と前記対象地物とが接する線を判定境界線(EFGH)として求めるステップと、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)から前記対象地物に対して直線を引いて、前記対象地物の内側を1度も通過せず、最初に前記対象地物と交差する点の集合を該撮影点(Pi)の撮影位置に向いている前記判定境界線上(EFGH)の視準可能線(EF)として求めるステップと、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)の前記画角の幅を前記CCD上における前記対象地物が投影される投影面とし、前記視準可能線(EF)を該投影面に投影し、該投影された線を視準可能線投影面幅(wcl)として求めるステップと、
前記撮影点(Pi)の撮影位置毎に、前記視準可能線投影面幅(wcl)の前記投影面の幅(WLl)に対する比の値を視準可能線投影比Wi(Wi=Wcl/(WLl))として求めるステップと、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)の撮影位置の前記視準可能線(EF)の長さの判定境界線(EFGH)の長さに対する比の値を判定境界視準可能線比(Li)として求めるステップと、
前記撮影点(Pi)の撮影位置毎の前記判定境界視準可能線比Liのそれぞれを比較して、最も大きな値の判定境界視準可能線比(Li´)を求めるステップと、
前記視準可能線投影比(Wi)同士を比較して、最も大きな視準可能線投影比(Wi´)を求めるステップと、
前記最も大きな値の、前記視準可能線投影比(Wi´)及び前記判定境界視準可能線比(Li´)を得た前記撮影点(Pi)の撮影位置を有する前記撮影情報を前記第2の記憶手段から読み込み、この撮影情報に含まれている撮影点(Pi)の撮影位置に関連付けられている前記第3の記憶手段の前記斜め写真を目的の対象地物の撮影方向からの前記最適斜め写真として出力するステップと
を行うことを特徴とする最適斜め写真提供方法。
The shooting point in which the target target feature is photographed in contact with the designated feature among a plurality of oblique photographs in which the feature is photographed from the oblique direction with the camera for each photographing point (Pi) with different flight paths. (Pi) An optimal oblique photograph providing method for providing an oblique photograph for each as an optimum oblique photograph,
First storage means for storing a planar map in which a planar shape of a feature including the target feature is defined, and attribute information for the feature in the planar map;
Wherein for each shot point (Pi), shooting position and the shooting point (Pi) each of the planar imaging range and their photographic point of the camera in the map camera focal length and the orientation and the camera of the CCD of the (Pi) of Second storage means for storing shooting information including an angle of view;
A third storage means for storing an oblique photograph of the camera for each shooting point (Pi) in association with the shooting information of the shooting point (Pi);
Computer
Reading the attribute information of the target feature and extracting all of the shooting information of the shooting point (Pi) having the shooting range including the target feature of the attribute information from the second storage means;
Defining a predetermined range in which the target feature is shown in common based on each of the shooting ranges included in the extracted shooting information as a common map in a fourth storage unit;
Defining the shooting position and the angle of view included in each of the extracted shooting information in the common map;
Obtaining, as a judgment boundary line (EFGH), a line where the designated feature and the target feature existing on the common map are in contact with each photographing position of the photographing point (Pi);
For each shooting position of the shooting point (Pi), a straight line is drawn from the shooting point (Pi) to the target feature, and it never passes through the inside of the target feature. Obtaining a set of points intersecting the object as collimable lines (EF) on the determination boundary line (EFGH) facing the photographing position of the photographing point (Pi);
For each shooting position of the shooting point (Pi), the width of the angle of view of the shooting point (Pi) is a projection plane on which the target feature is projected on the CCD, and the collimable line (EF) is Projecting onto the projection plane and determining the projected line as a collimable line projection plane width (wcl);
For each imaging position of the imaging point (Pi) , the value of the ratio of the collimable line projection plane width (wcl) to the projection plane width (WLl) is set as a collimable line projection ratio Wi (Wi = Wcl / ( WLl)) as a step
For each shooting position of the shooting point (Pi), the value of the ratio of the length of the collimable line (EF) of the shooting position of the shooting point (Pi) to the length of the determination boundary line (EFGH) is determined as a determination boundary. Obtaining the collimable line ratio (Li);
Comparing each of the determination boundary collimable line ratios ( Li ) for each photographing position of the photographing point (Pi ) to obtain a determination boundary collimable line ratio ( Li ′ ) having the largest value;
Comparing the collimable line projection ratios (Wi) to obtain the largest collimable line projection ratio (Wi ′);
The imaging information including the imaging position of the imaging point (Pi) where the collimable line projection ratio (Wi ′) and the determination boundary collimable line ratio (Li ′) having the largest values are obtained . Read from the storage means of the second, the oblique photograph of the third storage means associated with the shooting position of the shooting point (Pi) included in this shooting information from the shooting direction of the target feature of interest And providing an optimum oblique photograph. The method of providing an optimum oblique photograph.
前記第1の記憶手段は
前記地物に対する属性情報に該地物の三次元形状データを関連付けて記憶しており、
前記コンピュータが、
前記最適斜め写真の前記対象地物に対応する前記三次元形状データを、該対象地物に関連付けられている前記属性情報に基づいて読み出して、輪郭強調を行った三次元形状データを生成し、この三次元形状データを前記最適斜め写真内の対象地物の写真データに重ね合わせて出力することを特徴とする請求項1記載の最適斜め写真提供方法。
Said first memory hand stage,
The attribute information for the feature is stored in association with the three-dimensional shape data of the feature,
The computer is
The three-dimensional shape data corresponding to the target feature of the optimum oblique photograph is read based on the attribute information associated with the target feature, and three-dimensional shape data with contour enhancement is generated, 2. The method for providing an optimum oblique photograph according to claim 1, wherein the three-dimensional shape data is superimposed on the photograph data of the target feature in the optimum oblique photograph and output.
前記最適斜め写真内の前記対象地物以外の三次元形状データの集まりと前記対象地物の写真データとを合成した画像を出力するステップと
を有することを特徴とする請求項2記載の最適斜め写真提供方法。
3. The optimal diagonal according to claim 2, further comprising a step of outputting an image obtained by combining a collection of three-dimensional shape data other than the target feature in the optimal diagonal photograph and the photograph data of the target feature. Photo offer method.
前記コンピュータが、
前記共通地図に前記対象地物が存在しない場合は、前記対象地物の属性情報に含まれている地理座標を起点とした所定範囲の円を前記共通地図に定義し、該円内の前記指定地物の線を、前記判定境界線とするステップと
を行うことを特徴とする請求項1記載の最適斜め写真提供方法。
The computer is
When the target feature does not exist in the common map, a circle in a predetermined range starting from the geographic coordinates included in the attribute information of the target feature is defined in the common map, and the designation in the circle The optimal oblique photograph providing method according to claim 1, wherein a line of a feature is used as the determination boundary line.
前記撮影点(Pi)の撮影位置毎の仮想俯瞰図、立体モデルが生成される第5の記憶手段を用意し、
前記コンピュータが、
前記共通地図に定義された前記撮影点(Pi)の撮影位置に関連付けられている前記撮影情報及び前記共通地図における各々の前記地物に関連付けられている前記属性情報に含まれている三次元座標並びにこれらの地物の各々の前記属性情報に含まれている三次元形状データに基づいて前記立体モデルを生成すると共に、この立体モデルに基づく前記撮影点(Pi)の撮影位置の仮想俯瞰図を前記第5の記憶手段に生成するステップと、
前記立体モデルにおける前記対象地物の三次元形状データを読み込み、この三次元形状データに基づいて前記指定地物に対する前記対象地物の前記判定境界線(EFGH)を求めるステップと、
前記三次元形状データの前記判定境界線(EFGH)が求められる毎に、この判定境界線(EFGH)に対向し、かつ前記対象地物の外となる所定位置を求め、これを仮想視準点(Mi)として前記立体モデルに定義するステップと、
前記仮想視準点(Mi)が定義される毎に、この前記仮想視準点(Mi)から前記立体モデルにおける前記対象地物の前記三次元形状データを見通せる該対象物の三次元形状データの全ての面を、前記撮影点(Pi)撮影位置における撮影俯角による第1の視準可能面(Rpi)とし、これらの第1の視準可能面(Rpi)の総面積(Sc)を求めると共に、該第1の視準可能面(Rpi)以外の面を撮影俯角による第1の視準不可能面(Rqi)とし、この総面積(Sn)を求めるステップと、
前記撮影点(Pi)の撮影位置毎に、この撮影点(Pi)の撮影位置の前記仮想俯瞰図における前記対象地物の第2の視準可能面(Rpi´)及び第2の視準不可能面(Rqi´)を求めるステップと、
前記撮影点(Pi)の撮影位置毎に、前記仮想俯瞰図における前記第2の視準可能面(Rpi´)の総面積(Ac)と前記第2の視準不可能面(Rqi´)の総面積(An)とを求めるステップと、
前記立体モデルにおける前記対象地物の前記三次元形状データの前記第1の視準可能面(Rpi)の総面積(Sc)と前記仮想俯瞰図における前記対象地物の前記第2の視準不可能面(Rqi´)の総面積(An)との第1の積(Sc・An)を求めると共に、前記立体モデルにおける前記対象地物の前記三次元形状データの前記第1の視準不可能面(Rqi)の総面積(Sn)と前記仮想俯瞰図における前記対象地物の前記第2の視準可能面(Rpi´)の総面積(Ac)との第2の積(Sn・Ac)を求めるステップと、
前記撮影点(Pi)の撮影位置毎に、その撮影点(Pi)撮影位置の前記第1の積(Sc・An)の前記第2の積(Sn・Ac)に対する比の値{(Sc・An)/(Sn・Ac)}を求め、該比の値が最も小さい値を示す撮影点(Pi)の撮影位置の前記仮想俯瞰図を、最も見やすい前記撮影点(Pi)からの斜め写真に基づく仮想俯瞰図として出力するステップと、
を行うことを特徴とする請求項1乃至4のいずれかに記載の最適斜め写真提供方法。
Preparing a virtual overhead view for each shooting position of the shooting point (Pi), a fifth storage means for generating a three-dimensional model;
The computer is
Said common the photographing points defined in the map (Pi) three-dimensional contained in the attribute information associated with the feature of each of the shooting information and the common map associated with the shooting position location of The stereo model is generated based on the coordinates and the three-dimensional shape data included in the attribute information of each of these features, and a virtual overhead view for each shooting position of the shooting point (Pi) based on the stereo model. Generating a diagram in the fifth storage means;
Reading three-dimensional shape data of the target feature in the three-dimensional model, and determining the determination boundary line (EFGH) of the target feature with respect to the designated feature based on the three-dimensional shape data;
Each time the determination boundary line (EFGH) of the three-dimensional shape data is obtained, a predetermined position that faces the determination boundary line (EFGH) and is outside the target feature is obtained, and is used as a virtual collimation point. Defining the solid model as (Mi);
Every time the virtual collimating points (Mi) is defined, three-dimensional shape data of said object the said target area product foreseeable three-dimensional shape data of a feature in the three-dimensional model from the said virtual collimating points (Mi) Are defined as the first collimable surface (Rpi) by the photographing depression angle at the photographing position of the photographing point (Pi) , and the total area (Sc) of these first collimable surfaces (Rpi) is defined as the first collimable surface (Rpi). And obtaining a total area (Sn) by setting a surface other than the first collimable surface (Rpi) as a first collimable surface (Rqi) based on a shooting depression angle;
For each shooting position of the shooting point (Pi), a second collimable surface (Rpi ′) and a second collimation failure of the target feature in the virtual overhead view of the shooting position of the shooting point (Pi). Determining a possible surface (Rqi ′);
For each photographing position of the photographing point (Pi) , the total area (Ac) of the second collimable surface (Rpi ′) and the second non-collimable surface (Rqi ′) in the virtual overhead view. Determining a total area (An);
The total area (Sc) of the first collimable surface (Rpi) of the three-dimensional shape data of the target feature in the three-dimensional model and the second collimation failure of the target feature in the virtual overhead view. The first product (Sc · An) with the total area (An) of the possible surface (Rqi ′) is obtained, and the first collimation of the three-dimensional shape data of the target feature in the three-dimensional model is not possible. Second product (Sn · Ac) of the total area (Sn) of the surface (Rqi) and the total area (Ac) of the second collimable surface (Rpi ′) of the target feature in the virtual overhead view A step of seeking
For each shooting position of the shooting point (Pi) , a ratio value {(Sc) of the first product (Sc · An) of the shooting position of the shooting point (Pi) to the second product (Sn · Ac). · an) / (Sn · Ac ) seek}, the virtual overhead view of the imaging position location of the shooting point shows the smallest value the value of the ratio (Pi), from the most easy-to-see the imaging point (Pi) Outputting as a virtual overhead view based on an oblique photograph;
The method for providing an optimal oblique photograph according to claim 1, wherein:
コンピュータが、
前記撮影点(Pi)の撮影位置毎の仮想俯瞰図において、該仮想俯瞰図毎に、前記対象地物が他の地物に隠れていない部分の前記対象地物の前記第2の視準可能面(Rpi´)の面積の総和(Ac´)を順次求めるステップと、
前記仮想俯瞰図毎に、前記第2の視準可能面(Rpi´)の総面積の総和(Ac´)と前記対象地物以外の地物がない場合の第2視準可能面(Rpi´)の面積の総和(Ac)に対する比の値(Ac´/Ac)をオクルージョン率としてそれぞれ求めるステップと、
前記オクルージョン率が大きい値を得た前記撮影点(Pi)の撮影位置の前記仮想俯瞰図をオクルージョン率による最適な仮想俯瞰図として出力するステップと
を行うことを特徴とする請求項5に記載の最適斜め写真提供方法。
Computer
In the virtual bird's-eye view for each shooting position of the shooting point (Pi) , for each virtual bird's-eye view, the second collimation of the target feature at a portion where the target feature is not hidden by another feature is possible. Sequentially calculating the total area (Ac ′) of the area of the surface (Rpi ′);
For each virtual overhead view, the total area (Ac ′) of the total area of the second collimable surface (Rpi ′) and the second collimable surface (Rpi ′) when there is no feature other than the target feature. ) For the ratio (Ac ′ / Ac) of the ratio of the total area (Ac) to the total sum (Ac),
According to claim 5, characterized in that the step of outputting the virtual overhead view of the imaging position of the imaging point the occlusion rate was obtained a larger value (Pi) as the optimal virtual overhead view by occlusion rate Optimal oblique photo providing method.
前記コンピュータが、
前記撮影点(Pi)の撮影位置毎の斜め写真をサムネイル化して出力することを特徴とする請求項1記載の最適斜め写真提供方法。
The computer is
2. The method for providing an optimum oblique photograph according to claim 1, wherein the oblique photograph for each photographing position of the photographing point (Pi) is output as a thumbnail.
利用者端末と最適写真提供サービスセンターのサーバとを通信ネットワークで接続して、前記サーバが、飛行経路を異ならせて撮影点(Pi)毎に地物をカメラで斜め方向から撮影した複数の斜め写真の内で、目的の対象地物が指定地物に接して撮影されている前記撮影点(Pi)毎の斜め写真を最適写真として前記利用者端末に送信する最適斜め写真提供システムであって、
前記サーバは、
前記対象地物を含む地物の平面形状が定義された平面地図と該平面地図内の地物に対する属性情報とを記憶した第1の記憶手段と、
前記撮影点(Pi)毎の、撮影位置と前記撮影点(Pi)毎の前記平面地図における前記カメラの撮影範囲とその撮影点(Pi)のカメラの焦点距離と姿勢と前記カメラのCCDの画角とを含む撮影情報を記憶した第2の記憶手段と、
前記撮影点(Pi)毎の前記カメラの斜め写真を該撮影点(Pi)の前記撮影情報に関連付けて記憶した第3の記憶手段と、
前記利用者端末からのユーザ情報及び前記斜め写真の検索条件をユーザ情報検索条件用記憶手段に記憶する手段と、
前記利用者端末に、前記ユーザ情報及び前記斜め写真の検索条件を入力させるための入力画面情報を前記通信ネットワークを介して送信する手段と、
前記利用者端末から前記対象地物の前記属性情報が入力されたとき、前記対象地物の前記属性情報を読み込み、該属性情報の前記対象地物を含む前記撮影範囲を有する前記撮影点(Pi)の前記撮影情報を前記第2の記憶手段から全て抽出する手段と、
抽出されたこれらの撮影情報に含まれている各々の前記撮影範囲に基づいて前記対象地物が共通に写っている所定範囲を共通地図として第4の記憶手段に定義する手段と、
前記抽出した各々の前記撮影情報に含まれている前記撮影点(Pi)の前記撮影位置、前記画角の幅を前記共通地図に定義する手段と、
前記撮影点(Pi)の撮影位置毎に、前記共通地図に存在する前記指定地物と前記対象地物とが接する線を判定境界線(EFGH)として求める手段と、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)の撮影点(Pi)から前記対象地物に対して直線を引いて、前記対象地物の内側を1度も通過せず、最初に前記対象地物と交差する点の集合を該撮影点(Pi)の撮影位置に向いている前記判定境界線上(EFGH)の視準可能線(EF)として求める手段と、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)撮影位置の前記画角の幅を前記CCD上における前記対象地物が投影される投影面とし、前記視準可能線(EF)を該投影面に投影し、該投影された線を視準可能線投影面幅(wcl)として求める手段と、
前記撮影点(Pi)の撮影位置毎に、前記視準可能線投影面幅(wcl)の前記投影面の幅(WLl)に対する比の値を視準可能線投影比Wi(Wi=Wcl/(WLl))として求める手段と、
前記撮影点(Pi)の撮影位置毎に、該撮影点(Pi)の視準可能線(EF)の長さの判定境界線(EFGH)の長さに対する比の値を判定境界視準可能線比(Li)として求める手段と、
前記撮影点(Pi)の撮影位置毎の前記判定境界視準可能線比Liのそれぞれを比較して、最も大きな値の判定境界視準可能線比(Li´)を求める手段と、
前記視準可能線投影比(Wi)同士を比較して、最も大きな視準可能線投影比(Wi´)を求める手段と、
前記最も大きな値の、前記視準可能線投影比(Wi´)及び前記判定境界視準可能線比(L1´)を得た前記撮影点(Pi)の撮影位置を有する前記撮影情報前記第2の記憶手段から読み込み、この撮影情報に含まれている撮影点(Pi)の撮影位置に関連付けられている前記第3の記憶手段の前記斜め写真を目的の対象地物の撮影方向からの前記最適斜め写真とする手段と、
この最適斜め写真を前記通信ネットワークを介して前記利用者端末に送信する手段とを備え、
前記利用者端末は、
前記サーバからの前記入力画面情報を受信して、この入力画面情報に入力された、目的の対象地物の属性情報及び前記指定地物を前記検索条件として前記サーバに送信する手段と、
前記サーバからの最適斜め写真を受信して、これを画面に表示する手段と
を有することを特徴とする最適斜め写真提供システム。
A user terminal and a server of the optimum photo providing service center are connected by a communication network, and the server has a plurality of oblique images obtained by photographing the feature from the oblique direction with a camera at each photographing point (Pi) with different flight paths. An optimum oblique photograph providing system for transmitting an oblique photograph at each photographing point (Pi) where a target target feature is photographed in contact with a specified feature among the photographs as an optimum photograph to the user terminal. ,
The server
First storage means for storing a planar map in which a planar shape of a feature including the target feature is defined, and attribute information for the feature in the planar map;
Wherein for each shot point (Pi), shooting position and the shooting point (Pi) each of the planar imaging range and their photographic point of the camera in the map camera focal length and the orientation and the camera of the CCD of the (Pi) of Second storage means for storing shooting information including an angle of view;
Third storage means for storing an oblique photograph of the camera for each photographing point (Pi) in association with the photographing information of the photographing point (Pi);
Means for storing user information from the user terminal and the search condition for the oblique photograph in a user information search condition storage means;
Means for transmitting, via the communication network, input screen information for allowing the user terminal to input search conditions for the user information and the oblique photograph;
When the attribute information of the target feature is input from the user terminal, the attribute information of the target feature is read, and the shooting point (Pi having the shooting range including the target feature of the attribute information) Means for extracting all of the shooting information from the second storage means;
Means for defining, in a fourth storage means, a predetermined range in which the target feature is shown in common based on each of the shooting ranges included in the extracted shooting information;
Means for defining the shooting position of the shooting point (Pi) included in each of the extracted shooting information and the width of the angle of view in the common map;
Means for obtaining, as a determination boundary line (EFGH), a line where the designated feature and the target feature existing on the common map are in contact with each photographing position of the photographing point (Pi);
For each shooting position of the shooting point (Pi) , a straight line is drawn with respect to the target feature from the shooting point (Pi) of the shooting point (Pi), and never passes through the inside of the target feature. Means for first obtaining a set of points intersecting the target feature as collimable lines (EF) on the determination boundary line (EFGH) facing the photographing position of the photographing point (Pi);
For each shooting position of the shooting point (Pi) , the width of the angle of view at the shooting position of the shooting point (Pi) is a projection plane on which the target feature is projected on the CCD, and the collimable line ( EF) is projected onto the projection plane, and the projected line is obtained as a collimable line projection plane width (wcl);
For each imaging position of the imaging point (Pi) , the value of the ratio of the collimable line projection plane width (wcl) to the projection plane width (WLl) is set as a collimable line projection ratio Wi (Wi = Wcl / ( WLl)) means to obtain
For each photographing position of the photographing point (Pi), a value of a ratio of the length of the collimable line (EF) of the photographing point (Pi) to the length of the judgment boundary line (EFGH) is determined as a judgment boundary collimable line. Means for obtaining the ratio (Li);
Means for comparing each of the determination boundary collimable line ratios ( Li ) for each photographing position of the photographing point (Pi ) to obtain a determination boundary collimable line ratio ( Li ′ ) having the largest value ;
Means for comparing the collimable line projection ratios (Wi) to obtain the largest collimable line projection ratio (Wi ′);
The imaging information having the imaging position of the imaging point (Pi) where the collimable line projection ratio (Wi ′) and the determination boundary collimable line ratio (L1 ′) having the largest values are obtained . Read from the storage means of the second, the oblique photograph of the third storage means associated with the shooting position of the shooting point (Pi) included in this shooting information from the shooting direction of the target feature of interest Means to make an optimal oblique photo;
Means for transmitting the optimum oblique photograph to the user terminal via the communication network,
The user terminal is
Means for receiving the input screen information from the server, and transmitting the attribute information of the target target feature and the designated feature input to the input screen information to the server as the search condition;
An optimum oblique photograph providing system comprising: means for receiving an optimum oblique photograph from the server and displaying the optimum oblique photograph on a screen.
前記第1の記憶手段は、
前記地物に対する属性情報に該地物の三次元形状データを関連付けて記憶しており、
前記サーバは、
前記最適斜め写真の前記対象地物に対応する前記三次元形状データを、該対象地物に関連付けられている前記属性情報に基づいて読み出して、輪郭強調を行った三次元形状データを生成し、この三次元形状データを前記最適斜め写真内の対象地物の写真データに重ね合わせて出力する手段と
を有することを特徴とする請求項8記載の最適斜め写真提供システム。
The first storage means is
The attribute information for the feature is stored in association with the three-dimensional shape data of the feature,
The server
The three-dimensional shape data corresponding to the target feature of the optimum oblique photograph is read based on the attribute information associated with the target feature, and three-dimensional shape data with contour enhancement is generated, 9. The optimum oblique photograph providing system according to claim 8, further comprising means for superimposing and outputting the three-dimensional shape data on photograph data of the target feature in the optimum oblique photograph.
前記サーバは、
前記最適斜め写真内の前記対象地物以外の三次元形状データの集まりと前記対象地物の写真データとを合成した画像を出力する手段と
を有することを特徴とする請求項9記載の最適斜め写真提供システム。
The server
10. The optimal oblique according to claim 9, further comprising means for outputting an image obtained by combining a collection of three-dimensional shape data other than the target feature in the optimal oblique photograph and the photograph data of the target feature. Photo offer system.
前記サーバは、
前記共通地図に前記対象地物が存在しない場合は、前記対象地物の属性情報に含まれている地理座標を起点とした所定範囲の円を前記共通地図に定義し、該円内の前記指定地物の線を、前記判定境界線とする手段と
を有することを特徴とする請求項8記載の最適斜め写真提供システム。
The server
When the target feature does not exist in the common map, a circle in a predetermined range starting from the geographic coordinates included in the attribute information of the target feature is defined in the common map, and the designation in the circle 9. The optimum oblique photograph providing system according to claim 8, further comprising means for setting a feature line as the determination boundary line.
前記サーバは、
前記撮影点(Pi)の撮影位置毎の仮想俯瞰図、立体モデルが生成される第5の記憶手段を備え、
前記サーバは、
前記共通地図に定義された前記撮影点(Pi)の撮影位置に関連付けられている前記撮影情報及び前記共通地図における各々の前記地物に関連付けられている前記属性情報に含まれている三次元座標並びにこれらの地物の各々の前記属性情報に含まれている三次元形状データに基づいて前記立体モデルを生成すると共に、この立体モデルに基づく前記撮影点(Pi)の撮影位置毎の仮想俯瞰図を前記第5の記憶手段に生成する手段と、
前記立体モデルにおける前記対象地物の三次元形状データを読み込み、この三次元形状データに基づいて前記指定地物に対する前記対象地物の前記判定境界線(EFGH)を求める手段と、
前記三次元形状データの前記判定境界線(EFGH)が求められる毎に、この判定境界線(EFGH)に対向し、かつ前記対象地物の外となる所定位置を求め、これを仮想視準点(Mi)として前記立体モデルに定義する手段と、
前記仮想視準点(Mi)が定義される毎に、この前記仮想視準点(Mi)から前記立体モデルにおける前記対象地物の前記三次元形状データを見通せる該対象物の三次元形状データの全ての面を、前記撮影点(Pi)撮影位置における撮影俯角による第1の視準可能面(Rpi)とし、これらの第1の視準可能面(Rpi)の総面積(Sc)を求めると共に、該第1の視準可能面(Rpi)以外の面を撮影俯角による第1の視準不可能面(Rqi)とし、この総面積(Sn)を求める手段と、
前記撮影点(Pi)の撮影位置毎に、この撮影点(Pi)撮影位置の前記仮想俯瞰図における前記対象地物の第2の視準可能面(Rpi´)及び第2の視準不可能面(Rqi´)を求める手段と、
前記撮影点(Pi)の撮影位置毎に、前記仮想俯瞰図における前記第2の視準可能面(Rpi´)の総面積(Ac)と前記第2の視準不可能面(Rqi´)の総面積(An)とを求める手段と、
前記立体モデルにおける前記対象地物の前記三次元形状データの前記第1の視準可能面(Rpi)の総面積(Sc)と前記仮想俯瞰図における前記対象地物の前記第2の視準不可能面(Rqi´)の総面積(An)との第1の積(Sc・An)を求めると共に、前記立体モデルにおける前記対象地物の前記三次元形状データの前記第1の視準不可能面(Rqi)の総面積(Sn)と前記仮想俯瞰図における前記対象地物の前記第2の視準可能面(Rpi´)の総面積(Ac)との第2の積(Sn・Ac)を求める手段と、
前記撮影点(Pi)の撮影位置毎に、その撮影点(Pi)撮影位置の前記第1の積(Sc・An)の前記第2の積(Sn・Ac)に対する比の値{(Sc・An)/(Sn・Ac)}を求め、該比の値が最も小さい値を示す撮影点(Pi)の撮影位置の前記仮想俯瞰図を、最も見やすい前記撮影点(Pi)からの斜め写真に基づく仮想俯瞰図として前記利用者端末に前記通信ネットワークを介して送信する手段と
を有することを特徴とする請求項8乃至11のいずれかに記載の最適斜め写真提供システ
ム。
The server
A virtual overhead view for each shooting position of the shooting point (Pi), and a fifth storage means for generating a three-dimensional model,
The server
Said common the photographing points defined in the map (Pi) three-dimensional contained in the attribute information associated with the feature of each of the shooting information and the common map associated with the shooting position location of coordinates as well as to generate the three-dimensional model based on three-dimensional shape data included in the attribute information of each of these features, the virtual shooting position 置毎 of the photographing point based on the three-dimensional model (Pi) Means for generating an overhead view in the fifth storage means;
Means for reading three-dimensional shape data of the target feature in the three-dimensional model, and determining the determination boundary line (EFGH) of the target feature with respect to the designated feature based on the three-dimensional shape data;
Each time the determination boundary line (EFGH) of the three-dimensional shape data is obtained, a predetermined position that faces the determination boundary line (EFGH) and is outside the target feature is obtained, and is used as a virtual collimation point. Means for defining the solid model as (Mi);
Every time the virtual collimating points (Mi) is defined, three-dimensional shape data of said object the said target area product foreseeable three-dimensional shape data of a feature in the three-dimensional model from the said virtual collimating points (Mi) Are defined as the first collimable surface (Rpi) by the photographing depression angle at the photographing position of the photographing point (Pi) , and the total area (Sc) of these first collimable surfaces (Rpi) is defined as the first collimable surface (Rpi). Means for determining the total area (Sn) by determining a surface other than the first collimable surface (Rpi) as a first collimable surface (Rqi) by an imaging depression angle;
For each shooting position of the shooting point (Pi), a second collimable surface (Rpi ′) and a second collimation failure of the target feature in the virtual overhead view of the shooting position of the shooting point (Pi) . Means for determining the possible surface (Rqi ′);
For each photographing position of the photographing point (Pi) , the total area (Ac) of the second collimable surface (Rpi ′) and the second non-collimable surface (Rqi ′) in the virtual overhead view. Means for determining the total area (An);
The total area (Sc) of the first collimable surface (Rpi) of the three-dimensional shape data of the target feature in the three-dimensional model and the second collimation failure of the target feature in the virtual overhead view. The first product (Sc · An) with the total area (An) of the possible surface (Rqi ′) is obtained, and the first collimation of the three-dimensional shape data of the target feature in the three-dimensional model is not possible. Second product (Sn · Ac) of the total area (Sn) of the surface (Rqi) and the total area (Ac) of the second collimable surface (Rpi ′) of the target feature in the virtual overhead view A means of seeking
For each shooting position of the shooting point (Pi) , a ratio value {(Sc) of the first product (Sc · An) of the shooting position of the shooting point (Pi) to the second product (Sn · Ac). · an) / (Sn · Ac ) seek}, the virtual overhead view of the imaging position location of the shooting point shows the smallest value the value of the ratio (Pi), from the most easy-to-see the imaging point (Pi) The optimal oblique photograph providing system according to any one of claims 8 to 11, further comprising means for transmitting to the user terminal via the communication network as a virtual overhead view based on the oblique photograph.
前記サーバは、
前記撮影点(Pi)の撮影位置毎の仮想俯瞰図において、該仮想俯瞰図毎に、前記対象地物が他の地物に隠れていない部分の前対象地物の前記第2の視準可能面(Rpi´)の面積の総和(Ac´)を順次求める手段と、
前記仮想俯瞰図毎に、前記第2の視準可能面(Rpi´)の総面積の総和(Ac´)と前記対象地物以外の地物がない場合の第2視準可能面(Rpi´)の面積の総和(Ac)に対する比の値(Ac´/Ac)をオクルージョン率としてそれぞれ求める手段と、
前記オクルージョン率が大きい値を得た前記撮影点(Pi)の撮影位置の前記仮想俯瞰図をオクルージョン率による最適な仮想俯瞰図として前記利用者端末に前記通信ネットワークを介して送信する手段と
を有することを特徴とする請求項12に記載の最適斜め写真提供システム。
The server
In virtual overhead view of each imaging position of the imaging point (Pi), each said virtual overhead view, the second collimation before Symbol target feature portion being the target feature is not hidden another feature Means for sequentially obtaining the sum (Ac ′) of the areas of the possible surfaces (Rpi ′);
For each virtual overhead view, the total area (Ac ′) of the total area of the second collimable surface (Rpi ′) and the second collimable surface (Rpi ′) when there is no feature other than the target feature. ) With respect to the total sum (Ac) of the areas (Ac ′ / Ac), respectively, as means for determining the occlusion rate,
Means for transmitting the virtual overhead view of the photographing position of the photographing point (Pi) having a large value of the occlusion rate to the user terminal as the optimal virtual overhead view based on the occlusion rate via the communication network. The optimal oblique photograph providing system according to claim 12 .
前記サーバは、
前記撮影点(Pi)の撮影位置毎の斜め写真をサムネイル化して前記利用者端末に前記通信ネットワークを介して送信する手段と
を有することを特徴とする請求項8記載の最適斜め写真提供システム。
The server
9. The optimum oblique photograph providing system according to claim 8, further comprising means for converting an oblique photograph of each photographing position of the photographing point (Pi) into a thumbnail and transmitting the thumbnail to the user terminal via the communication network.
JP2008107240A 2008-04-16 2008-04-16 Optimal oblique photograph providing method, optimum oblique photograph providing system, and optimum oblique photograph providing apparatus Expired - Fee Related JP5553483B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008107240A JP5553483B2 (en) 2008-04-16 2008-04-16 Optimal oblique photograph providing method, optimum oblique photograph providing system, and optimum oblique photograph providing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008107240A JP5553483B2 (en) 2008-04-16 2008-04-16 Optimal oblique photograph providing method, optimum oblique photograph providing system, and optimum oblique photograph providing apparatus

Publications (2)

Publication Number Publication Date
JP2009258386A JP2009258386A (en) 2009-11-05
JP5553483B2 true JP5553483B2 (en) 2014-07-16

Family

ID=41385903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008107240A Expired - Fee Related JP5553483B2 (en) 2008-04-16 2008-04-16 Optimal oblique photograph providing method, optimum oblique photograph providing system, and optimum oblique photograph providing apparatus

Country Status (1)

Country Link
JP (1) JP5553483B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6121746B2 (en) * 2013-02-20 2017-04-26 Necソリューションイノベータ株式会社 Imaging position determining apparatus, program, and method
JP2017068849A (en) * 2015-10-01 2017-04-06 株式会社巴コーポレーション Article assembling status information display device
WO2018220732A1 (en) * 2017-05-31 2018-12-06 日本電気株式会社 Information providing device, information providing method, and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3212113B2 (en) * 1990-11-07 2001-09-25 株式会社日立製作所 Map information display method and device
JP4099776B2 (en) * 2004-03-05 2008-06-11 日本電気株式会社 3D model creation device, 3D model creation method, and 3D model creation program
JP2006011832A (en) * 2004-06-25 2006-01-12 Photo System:Kk Analytic operation supporting device for aerial photographing image and method for same, and program

Also Published As

Publication number Publication date
JP2009258386A (en) 2009-11-05

Similar Documents

Publication Publication Date Title
US7333103B2 (en) Client and program for improving three-dimensional air excursion and method thereof
US9858717B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
CN103971589B (en) The processing method and processing device that the interest point information of map is made an addition in street view image
US8086071B2 (en) System and method for revealing occluded objects in an image dataset
US20070269102A1 (en) Method and System of Generating 3D Images with Airborne Oblique/Vertical Imagery, GPS/IMU Data, and LIDAR Elevation Data
US20120128205A1 (en) Apparatus for providing spatial contents service and method thereof
US20130342537A1 (en) Movement Based Level of Detail Adjustments
KR20110118727A (en) System and method of indicating transition between street level images
KR20190058230A (en) System and method for modeling surveillance camera layout
US9195987B2 (en) Systems and methods of correlating business information to determine spam, closed businesses, and ranking signals
JP5035195B2 (en) Image generating apparatus and program
Javadnejad et al. Dense point cloud quality factor as proxy for accuracy assessment of image-based 3D reconstruction
KR100375553B1 (en) Geographic Information Service Method of Using Internet Network
US8395760B2 (en) Unified spectral and geospatial information model and the method and system generating it
Jung et al. Development of an omnidirectional-image-based data model through extending the IndoorGML concept to an indoor patrol service
Wang et al. True orthophoto generation using line segment matches
JP5553483B2 (en) Optimal oblique photograph providing method, optimum oblique photograph providing system, and optimum oblique photograph providing apparatus
JP2015108992A (en) Additional information display system
Alshawabkeh et al. A new true ortho‐photo methodology for complex archaeological application
CN106846388B (en) Image map registration method and system
Lemmens et al. Pictometry: potentials for land administration
CN111986320B (en) Smart city application-oriented DEM and oblique photography model space fitting optimization method
Amini et al. Development of a new stereo‐panorama system based on off‐the‐shelf stereo cameras
Hong et al. The use of CCTV in the emergency response: A 3D GIS perspective
KR100462496B1 (en) Geographical image information service method using internet

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140527

R150 Certificate of patent or registration of utility model

Ref document number: 5553483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees