JPH11339074A - Scenery modeling device - Google Patents

Scenery modeling device

Info

Publication number
JPH11339074A
JPH11339074A JP10141478A JP14147898A JPH11339074A JP H11339074 A JPH11339074 A JP H11339074A JP 10141478 A JP10141478 A JP 10141478A JP 14147898 A JP14147898 A JP 14147898A JP H11339074 A JPH11339074 A JP H11339074A
Authority
JP
Japan
Prior art keywords
height
shape
building
image
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10141478A
Other languages
Japanese (ja)
Other versions
JP3791186B2 (en
Inventor
Katsuyuki Kamei
克之 亀井
Takashi Tamada
隆史 玉田
Kazuo Seo
和男 瀬尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP14147898A priority Critical patent/JP3791186B2/en
Publication of JPH11339074A publication Critical patent/JPH11339074A/en
Application granted granted Critical
Publication of JP3791186B2 publication Critical patent/JP3791186B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a scenery modeling device which reproduces a correct scenery efficiently by efficiently setting proper height for a building. SOLUTION: This device is equipped with an image storage means which stores images of an object picked up in different directions, an image pickup information storage means 2 which stores image pickup information on the respective images, a shape storage means 3 which stores outline information on horizontal sections of the object, a feature extracting means 4 which extracts feature parts of the respective images stored in the image storage means 1, a height setting means 6 which finds the height of the object according to the feature parts extracted by the feature part extracting means 4, the image pickup information stored in the image pickup storage means 2, and the outline information stored in the shape storage means 3 and a three dimensional shape forming means 7 which forms a three dimensional shape of the object according to the outline information stored in the shape storage means 3 and the height of the object set by the height setting means 6.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は建物等の対象物を
撮影した画像から撮影された対象物の3次元形状を得る
景観モデリング装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a landscape modeling apparatus for obtaining a three-dimensional shape of a photographed object from an image of the object such as a building.

【0002】[0002]

【従来の技術】図30は、例えば、藤井稔,柴崎亮介,
舘村純一著「実風景映像と3次元空間データの融合によ
るGISユーザインタフェースの実現の試み」写真測量
とリモートセンシングVol.36, No.3,19
97年発行に示された従来の景観モデリング装置を示す
ブロック図である。
2. Description of the Related Art FIG. 30 shows, for example, Minoru Fujii, Ryosuke Shibasaki,
Junichi Tatemura, "A Trial of Realization of GIS User Interface by Fusion of Real Scene Image and 3D Spatial Data", Photogrammetry and Remote Sensing Vol. 36, no. 3,19
It is a block diagram which shows the conventional landscape modeling device shown by the 1997 issue.

【0003】図において、101は建物の水平断面の輪
郭形状のデータが記憶されている建物ポリゴンデータ記
憶装置、102は建物の階数のデータが記憶されている
標高データ記憶装置、103は建物ポリゴンデータと標
高データとから建物の3次元形状を演算する演算装置、
104は演算装置103で演算された建物の3次元形状
を表示する表示装置である。
In FIG. 1, reference numeral 101 denotes a building polygon data storage device which stores data of a contour shape of a horizontal section of a building, 102 denotes an elevation data storage device which stores data of a floor number of a building, and 103 denotes building polygon data. An arithmetic unit that calculates the three-dimensional shape of a building from the altitude data
A display device 104 displays the three-dimensional shape of the building calculated by the calculation device 103.

【0004】図31は地図及びこの地図から求められる
各種のデータを示す図で、図31(a)はモデリングす
る景観に対応する地図、図31(b)は地図から求めら
れる建物ポリゴンデータ、図31(c)は各建物に対す
る階数と建物が設置されている地点の標高高度を示す標
高値とを示す図ある。図において、105は地図、10
6は地図105上に描かれた建物で、建物の水平断面の
輪郭であるポリゴンとして掲載されている。
FIG. 31 is a diagram showing a map and various data obtained from the map. FIG. 31 (a) is a map corresponding to a landscape to be modeled, FIG. 31 (b) is building polygon data obtained from the map, and FIG. 31 (c) is a diagram showing the number of floors for each building and the altitude value indicating the altitude at the point where the building is installed. In the figure, 105 is a map, 10
Reference numeral 6 denotes a building drawn on a map 105, which is described as a polygon which is a contour of a horizontal section of the building.

【0005】図32は表示装置104により表示された
モデリングされた景観を示す図である。図において、1
07はディスプレイモニタ上に再現された建物形状から
なる景観、108はポリゴン、階数データ、及び標高デ
ータから復元された3次元建物形状、109はポリゴン
で表される3次元建物形状108の底面、110は3次
元建物形状108の1階あたりの平均的な高さである。
FIG. 32 is a view showing a modeled landscape displayed by the display device 104. In the figure, 1
Reference numeral 07 denotes a landscape composed of a building shape reproduced on a display monitor; 108, a three-dimensional building shape restored from polygons, floor data, and elevation data; 109, a bottom surface of the three-dimensional building shape 108 represented by a polygon; Is the average height per floor of the three-dimensional building shape 108.

【0006】従来の景観モデリング装置では、図31
(a)に示すように、地図105上に描かれた各建物の
ポリゴン106について、図31(b)に示すように、
建物の水平断面の輪郭を表すポリゴンの座標を建物ポリ
ゴンデータとして建物ポリゴンデータ記憶装置101に
記憶し、さらに、図31(c)に示すように、その建物
の階数を示す階数データと建物が設置されている地点の
標高高度を示す標高データを標高データ記憶装置102
にあらかじめ記憶させておく。
In a conventional landscape modeling device, FIG.
As shown in FIG. 31A, as shown in FIG. 31B, the polygon 106 of each building drawn on the map 105 is
The coordinates of the polygon representing the outline of the horizontal cross section of the building are stored as building polygon data in the building polygon data storage device 101. Further, as shown in FIG. The altitude data indicating the altitude of the point being set is stored in the altitude data storage device 102.
In advance.

【0007】地図105に示される都市の景観を再現す
る場合には、図30に示した演算装置103において、
各建物に対して、建物ポリゴンデータ記憶装置101に
記憶されている建物ポリゴンデータにより示されるポリ
ゴンを3次元建物形状108の底面109とし、予め定
められている1階当たりの高さ(一定値)に、標高デー
タ記憶手段102に記憶されている各建物の階数データ
を乗じて得られる値を高さとし、これらの底面及び高さ
を有する多角柱を形成する。
When reproducing the cityscape shown in the map 105, the arithmetic unit 103 shown in FIG.
For each building, a polygon indicated by the building polygon data stored in the building polygon data storage device 101 is defined as a bottom surface 109 of the three-dimensional building shape 108, and a predetermined height per floor (constant value) Then, a value obtained by multiplying the floor number data of each building stored in the elevation data storage means 102 is defined as a height, and a polygonal pillar having these bottom surfaces and heights is formed.

【0008】上記形成された多角柱の底面109が、そ
の多角柱が存在する地点の標高データで与えられるの標
高高度に置かれるように描画し3次元建物形状108と
する。これにより、ディスプレイモニタ107上に建物
形状108からなる景観107を描画する。
The bottom surface 109 of the polygonal prism thus formed is drawn so as to be placed at an elevation altitude given by the elevation data of the point where the polygonal prism exists, thereby forming a three-dimensional building shape 108. Thus, the landscape 107 including the building shape 108 is drawn on the display monitor 107.

【0009】この3次元建物形状108は、同従来の技
術の文献に記されたように、風景映像からそこに描かれ
た建物の情報を検索したり、あるいは、所在地を入力し
て対応する建物を特定したり、といった用途の他、景観
シミュレーションや都市でのマイクロ波通信の見通しの
判定に用いられる。
The three-dimensional building shape 108 can be obtained by retrieving information on a building drawn therefrom from a landscape image, or by inputting a location, as described in the prior art document. It is used for landscape simulation and for determining the outlook of microwave communication in a city, in addition to the purpose of specifying a location.

【0010】[0010]

【発明が解決しようとする課題】上記のような従来の景
観モデリング装置では、建物の一階当たりの高さを一律
に同じ値(一定値)にし、この一階当たりの高さに各建
物の階数を乗ずることにより各建物の高さを決定してい
た。しかしながら、一般的には、建物は建物ごと、ある
いは階ごとにその高さが異なる。そのため、従来の景観
モデリング装置では、建物の正確な高さが得られず、景
観も正しく再現されないという問題点があった。
In the conventional landscape modeling device as described above, the height per floor of a building is made uniform and the same value (constant value), and the height per floor is made equal to the height of each building. The height of each building was determined by multiplying the number of floors. However, in general, the height of a building differs for each building or each floor. For this reason, the conventional landscape modeling device has a problem that the accurate height of the building cannot be obtained and the landscape is not correctly reproduced.

【0011】また、建物の屋上に広告や給水塔などの設
置物がある場合、その高さが反映されないため、やはり
建物の正確な高さが得られず、景観も正しく再現されな
いという問題点があった。
In addition, when there are advertisements, water towers, and other installed objects on the roof of the building, the height is not reflected, so that the accurate height of the building cannot be obtained, and the landscape cannot be reproduced correctly. there were.

【0012】また、従来、建物の正確な高さを与えよう
とすれば、建物ごとにその高さが記された設計資料を入
手し、これを入力するか、または、やはり建物ごとに高
さを実測しなければならず、大変な労力を必要とすると
いう問題点があった。
Conventionally, in order to give an accurate height of a building, a design document indicating the height of each building is obtained and input, or the height of each building is also determined. Has to be measured, which requires a great deal of labor.

【0013】さらにまた、建物が建っている場所の標高
値は、通常、粗い格子点上でのみ値が測定されているた
め、坂の多い場所では、建物の正確な設置高度が得られ
ず、景観が異なったものになるという問題点があった。
Furthermore, since the elevation value of a place where a building is built is usually measured only on a coarse grid point, an accurate setting altitude of the building cannot be obtained in a place with many hills. There was a problem that the landscape would be different.

【0014】さらにまた、上記のような従来の景観モデ
リング装置では、建物の建物形状を地図上に示された建
物の外周を示すポリゴンを底面とする多角柱で表現して
いるため、ポリゴンがその建物の敷地を表すデータとし
て与えられている場合、ポリゴンの形状と実際の建物の
輪郭形状が異なり、景観が正しくモデリングされないと
いう問題点があった。
Furthermore, in the conventional landscape modeling device as described above, since the building shape of the building is represented by a polygonal pillar having a polygon indicating the outer periphery of the building shown on the map as a bottom surface, the polygon is represented by the polygon. When given as data representing the site of a building, there has been a problem that the shape of the polygon is different from the actual contour of the building, and the landscape is not correctly modeled.

【0015】本発明は、かかる問題点を解決するために
なされたものであり、建物に対しその適切な高さを効率
良く設定することにより、効率良く正しい景観を再現す
る景観モデリング装置を提供することを目的としてい
る。また、的確な輪郭形状を得ることにより、より正し
く景観を再現する景観モデリング装置を提供することを
目的としている。
The present invention has been made to solve such a problem, and provides a landscape modeling device that efficiently reproduces a correct landscape by efficiently setting an appropriate height for a building. It is intended to be. It is another object of the present invention to provide a landscape modeling device that reproduces a landscape more accurately by obtaining an accurate contour shape.

【0016】[0016]

【課題を解決するための手段】本発明に係る景観モデリ
ング装置は、同一の対象物を異なる方向から撮像した少
なくとも2つの画像を記憶する画像記憶手段と、各画像
の撮像時の撮像情報を記憶する撮像情報記憶手段と、対
象物の水平断面の輪郭情報を記憶する形状記憶手段と、
画像記憶手段に記憶されている各画像の特徴部を抽出す
る特徴部抽出手段と、特徴部抽出手段で抽出された特徴
部、撮像情報記憶手段に記憶されている撮像情報及び形
状記憶手段に記憶されている輪郭情報に基づいて対象物
の高さを求める高さ設定手段と、形状記憶手段に記憶さ
れている輪郭情報及び高さ設定手段で設定された対象物
の高さに基づいて対象物の3次元形状を形成する3次元
形状形成手段とを備えている。
A landscape modeling apparatus according to the present invention stores image storage means for storing at least two images of the same object taken from different directions, and stores imaging information at the time of capturing each image. Imaging information storage means, and shape storage means for storing contour information of a horizontal cross section of the object,
A feature extraction unit for extracting a feature of each image stored in the image storage; a feature extracted by the feature extraction; storage in the imaging information and shape storage stored in the imaging information storage; Height setting means for obtaining the height of the object based on the contour information set, and the object based on the contour information stored in the shape storage means and the height of the object set by the height setting means. And a three-dimensional shape forming means for forming the three-dimensional shape.

【0017】さらに、高さ設定手段は、特徴部抽出手段
で抽出された特徴部と撮像情報記憶手段に記憶されてい
る撮像情報に基づいて特徴部の水平方向成分及び高さ方
向成分を有する3次元位置情報を演算する位置情報演算
手段を備え、位置情報演算手段で演算された3次元位置
情報の水平成分と輪郭情報とに基づいて対象物に属する
特徴部を抽出し、この対象物に属する特徴部の高さ方向
成分を対象物の高さに設定する。
Further, the height setting means has a horizontal component and a height component of the characteristic part based on the characteristic part extracted by the characteristic part extracting means and the imaging information stored in the imaging information storage means. A position information calculating means for calculating three-dimensional position information; extracting a characteristic part belonging to the object based on the horizontal component and the contour information of the three-dimensional position information calculated by the position information calculating means; The height direction component of the feature is set to the height of the object.

【0018】さらに、最も高い特徴部の高さを対象物の
高さとする。また、特徴部は特徴点である。また、特徴
部は特徴線分である。また、特徴部は特徴領域である。
Further, the height of the highest feature is defined as the height of the object. The characteristic part is a characteristic point. The characteristic part is a characteristic line segment. The characteristic part is a characteristic region.

【0019】また、本発明に係る景観モデリング装置
は、対象物を撮像した画像を記憶する画像記憶手段と、
画像の撮像時の撮像情報を記憶する撮像情報記憶手段
と、対象物の3次元形状を形成する3次元形状形成手段
と、撮像情報記憶手段に記憶されている撮像情報に基づ
いて画像記憶手段に記憶されている対象物と3次元形状
形成手段により形成された対象物の3次元形状とを対応
づけて表示する表示手段と、表示手段の表示結果に基づ
く入力を受けて対象物の3次元形状の高さを調整する高
さ調整手段を備えている。
Further, the landscape modeling device according to the present invention comprises: an image storage means for storing an image of a target object;
An imaging information storage unit for storing imaging information at the time of imaging of the image, a three-dimensional shape forming unit for forming a three-dimensional shape of the object, and an image storage unit based on the imaging information stored in the imaging information storage unit. Display means for displaying the stored object and the three-dimensional shape of the object formed by the three-dimensional shape forming means in association with each other, and receiving the input based on the display result of the display means, the three-dimensional shape of the object Height adjusting means for adjusting the height of the object.

【0020】さらに、高さ調整手段は、表示結果を確認
しながら高さを調整する対象物を選択し、その高さを調
整する。さらに、高さ調整手段は、表示結果を確認して
入力された入力情報により、表示結果に基づいて選択さ
れた3次元形状の高さを調整する。さらに、表示手段
は、高さ調整手段で選択された3次元形状と他の3次元
形状とを異なる様式で表示させる。さらに、表示手段
は、画像記憶手段に記憶されている対象物と3次元形状
形成手段により形成された対象物の3次元形状とを異な
る様式で表示させる。
Further, the height adjusting means selects an object whose height is to be adjusted while checking the display result, and adjusts the height. Further, the height adjusting means adjusts the height of the three-dimensional shape selected based on the display result, based on the input information that is input after confirming the display result. Further, the display means displays the three-dimensional shape selected by the height adjusting means and another three-dimensional shape in different modes. Further, the display means displays the object stored in the image storage means and the three-dimensional shape of the object formed by the three-dimensional shape forming means in different formats.

【0021】また、本発明に係る景観モデリング装置
は、対象物に対応した地図を記憶する地図記憶手段と、
対象物の水平断面の輪郭情報を記憶する形状記憶手段
と、形状記憶手段に記憶されている輪郭情報に基づいて
対象物の3次元形状を形成する3次元形状形成手段と、
撮像情報記憶手段に記憶されている撮像情報に基づいて
画像記憶手段に記憶されている対象物と3次元形状形成
手段により形成された対象物の3次元形状とを対応づけ
て表示するとともに、地図記憶手段に記憶されている地
図上の対象物と形状記憶手段に記憶されている輪郭情報
により形成される輪郭とを対応づけて表示する表示手段
と、地図記憶手段に記憶されている地図上の対象物と形
状記憶手段に記憶されている輪郭情報により形成される
輪郭とを対応づけて表示する表示手段と、表示手段の表
示結果に基づく入力を受けて対象物の輪郭情報を修正す
る修正手段を備えている。
Further, the landscape modeling device according to the present invention includes a map storage means for storing a map corresponding to an object,
Shape storage means for storing outline information of a horizontal cross section of the object; three-dimensional shape forming means for forming a three-dimensional shape of the object based on the outline information stored in the shape storage means;
Based on the imaging information stored in the imaging information storage means, the object stored in the image storage means and the three-dimensional shape of the object formed by the three-dimensional shape forming means are displayed in association with each other, and a map is displayed. Display means for displaying the object on the map stored in the storage means and the contour formed by the contour information stored in the shape storage means in association with each other; Display means for displaying the object and the contour formed by the contour information stored in the shape storage means in association with each other, and correction means for correcting the contour information of the object in response to an input based on the display result of the display means It has.

【0022】さらに、修正手段は、表示結果を確認して
入力された入力情報により、表示結果に基づいて選択さ
れた輪郭の輪郭情報を修正する。さらに、表示手段は、
修正手段で選択された輪郭と他の輪郭とを異なる様式で
表示させる。また、修正手段は、輪郭の位置を修正す
る。また、修正手段は、輪郭の形状を修正する。さら
に、表示手段は、地図記憶手段に記憶されている地図上
の対象物と形状記憶手段に記憶されている輪郭情報によ
り形成される輪郭とを異なる様式で表示させる。
Further, the correction means corrects the outline information of the outline selected based on the display result, based on the input information input after confirming the display result. Further, the display means includes:
The contour selected by the correction means and another contour are displayed in different modes. The correcting means corrects the position of the contour. The correcting means corrects the shape of the contour. Further, the display means displays the object on the map stored in the map storage means and the outline formed by the outline information stored in the shape storage means in different formats.

【0023】また、修正手段は、新たな輪郭を追加す
る。さらに、3次元形状形成手段は、新たな輪郭に関す
る輪郭情報をも含めて3次元形状を形成する。
The correcting means adds a new contour. Further, the three-dimensional shape forming means forms the three-dimensional shape including the contour information on the new contour.

【0024】[0024]

【発明の実施の形態】実施の形態1.図1はこの実施の
形態1の景観モデリング装置を示すブロック図である。
図において、1は建物等の対象物を異なる方向から撮影
した少なくとも2枚の画像を記憶する画像記憶装置、2
は画像記憶装置1に記憶されている画像を撮影した時の
カメラの視点位置、光軸方向、画角情報等の撮像情報を
各画像に対応して記憶する撮像情報記憶装置である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG. 1 is a block diagram showing a landscape modeling device according to the first embodiment.
In the figure, reference numeral 1 denotes an image storage device for storing at least two images of an object such as a building taken from different directions;
Reference numeral denotes an imaging information storage device that stores imaging information such as a viewpoint position, an optical axis direction, and angle of view information of a camera when an image stored in the image storage device 1 is captured, corresponding to each image.

【0025】3は対象物の水平断面の輪郭を表すポリゴ
ンに関する情報を記憶する形状情報記憶装置、4は画像
記憶装置1に記憶されている画像から特徴部である特徴
点を抽出する特徴部抽出装置、5は特徴部抽出装置4で
抽出された特徴点と撮像情報記憶装置2に記憶されてい
る撮像情報とからこの特徴点の3次元の特徴点位置を演
算する位置演算装置である。
Reference numeral 3 denotes a shape information storage device for storing information relating to polygons representing the outline of the horizontal cross section of the object, and reference numeral 4 denotes a feature portion extraction for extracting feature points as feature portions from an image stored in the image storage device 1. The device 5 is a position calculation device that calculates a three-dimensional feature point position of the feature point from the feature point extracted by the feature portion extraction device 4 and the imaging information stored in the imaging information storage device 2.

【0026】6は位置演算装置5で演算された3次元の
特徴点位置と形状情報記憶装置3に記憶されている対象
物のポリゴンとにより対象物の高さを設定する高さ設定
装置、7は高さ設定装置6で設定された対象物の高さと
形状情報記憶装置3に記憶されている対象物のポリゴン
とにより対象物の3次元形状を再現する3次元形状形成
装置、8は3次元形状形成装置7で再現される3次元形
状を表示する表示装置である。
Reference numeral 6 denotes a height setting device for setting the height of the object based on the three-dimensional feature point positions calculated by the position calculation device 5 and the polygons of the object stored in the shape information storage device 3. Is a three-dimensional shape forming device that reproduces the three-dimensional shape of the object based on the height of the object set by the height setting device 6 and the polygon of the object stored in the shape information storage device 3; This is a display device that displays a three-dimensional shape reproduced by the shape forming device 7.

【0027】図2は撮影する対象物及びこの対象物を撮
影した画像を示す図で、図2(a)は撮影する対象物を
示した図で、図2(b)、(c)はこの対象物を異なる
方向から撮影したときの画像である。
FIG. 2 is a diagram showing an object to be photographed and an image obtained by photographing the object. FIG. 2 (a) is a diagram showing the object to be photographed, and FIGS. 2 (b) and 2 (c) show this. It is an image when an object is photographed from different directions.

【0028】図において、9は撮影する対象物、10a
は撮像装置(図示しない)により対象物9を撮影したと
きの撮像装置の撮像地点、10bは撮像地点10aとは
異なる撮像地点で、この撮像地点10bにおける撮像方
向が撮像地点10aでの撮影方向とは異なる方向になる
ようにするものとする。矢印はこの撮像地点10a、1
0bでの各撮像方向を示している。11a(11b)は
撮像地点10a(10b)において対象物9を撮影した
ときの画像、12a(12b)は画像11a(11b)
上の対象物である。
In the figure, reference numeral 9 denotes an object to be photographed, 10a
Is an imaging point of the imaging device when the object 9 is imaged by an imaging device (not shown), and 10b is an imaging point different from the imaging point 10a, and the imaging direction at the imaging point 10b is the same as the imaging direction at the imaging point 10a. In different directions. Arrows indicate the imaging points 10a, 1
0b shows each imaging direction. 11a (11b) is an image of the object 9 taken at the imaging point 10a (10b), and 12a (12b) is an image 11a (11b).
The object above.

【0029】画像記憶装置1には、対象となる実景観を
撮影した複数の画像があらかじめ記憶されているものと
する。これらの画像11については、例えば、写真撮影
された後にスキャナ入力、あるいはデジタルスチルカメ
ラによって撮影したデータをデータ入力することにより
記憶される。ここでは、画像11は濃淡の多値画像とす
る。なお、RGBで表されるカラー画像についても、R
GBの各成分ごとに以下で述べる特徴点の3次元座標の
復元処理を実行することにより適用可能である。
It is assumed that a plurality of images obtained by photographing a target real scene are stored in the image storage device 1 in advance. These images 11 are stored by, for example, inputting data from a scanner after photographing or inputting data photographed by a digital still camera. Here, the image 11 is a multi-valued image of light and shade. Note that, for a color image represented by RGB, R
The present invention can be applied by executing restoration processing of three-dimensional coordinates of feature points described below for each component of GB.

【0030】撮像情報記憶装置2には、画像撮影時のカ
メラの視点位置と光軸方向、画角情報等の撮像情報が記
憶される。画像の視点位置と光軸方向、画角情報につい
てはカメラにGPSや電子ジャイロを取り付け、その出
力を入力、あるいはキーボードにより撮影時の値を数値
入力して記憶する。また逆に、画像に描かれた座標が既
知である基準点の位置情報から計算して得てもよい。
The image pickup information storage device 2 stores image pickup information such as the viewpoint position of the camera at the time of image pickup, the optical axis direction, and angle of view information. For the viewpoint position, optical axis direction, and angle of view information of the image, a GPS or an electronic gyro is attached to the camera, and its output is input, or the value at the time of shooting is input by a keyboard and stored. Conversely, it may be obtained by calculating from the position information of the reference point whose coordinates drawn on the image are known.

【0031】図3は撮像情報記憶装置2に記憶されてい
る撮像情報を示す図である。図3に示すように、撮像地
点の3次元の位置座標である視点x座標、視点y座標、
視点z座標、光軸の方位角、俯角、及び光軸まわりのね
じれ、そして、画角等の情報が各画像ごとに記録されて
いる。
FIG. 3 is a diagram showing the imaging information stored in the imaging information storage device 2. As shown in FIG. 3, a viewpoint x coordinate, a viewpoint y coordinate, which are three-dimensional position coordinates of an imaging point,
Information such as the viewpoint z coordinate, the azimuth angle of the optical axis, the depression angle, the twist around the optical axis, and the angle of view is recorded for each image.

【0032】形状情報記憶装置3には、建物等の対象物
の水平断面の外周を示すポリゴンがあらかじめ記憶され
ているものとする。ここで、ポリゴンとは、対象物の水
平断面の輪郭を表したものである。以下、説明を簡単に
するため、対象物を建物として説明する。なお、対象物
は特に建物に限定するものではなく、ポリゴンと高さと
から対象物の3次元形状が形成できるものであればよ
い。
It is assumed that the shape information storage device 3 stores in advance a polygon indicating the outer circumference of a horizontal section of an object such as a building. Here, the polygon represents the outline of the horizontal section of the object. Hereinafter, in order to simplify the description, the object will be described as a building. The object is not particularly limited to a building, but may be any object as long as a three-dimensional shape of the object can be formed from the polygon and the height.

【0033】図4(a)は対象となる景観に対応した地
図と地図上の対象物形状を示す図である。図において、
13は対象となる景観に対応した地図、14は地図13
上の建物形状で、建物の水平断面の外周を示したもので
ある。図4(b)は図4(a)に示した建物形状の情報
を読み取り、これらの情報から形成されたポリゴンを示
す図である。図において、15はポリゴンで、15aは
ポリゴン15の複数の頂点、15bは頂点15a間を結
ぶ線分である。
FIG. 4A is a diagram showing a map corresponding to a target landscape and an object shape on the map. In the figure,
13 is a map corresponding to the target landscape, 14 is a map 13
The upper building shape shows the outer circumference of the horizontal section of the building. FIG. 4B is a diagram showing polygons formed by reading information on the building shape shown in FIG. 4A and forming the information based on the information. In the figure, 15 is a polygon, 15a is a plurality of vertices of the polygon 15, and 15b is a line segment connecting the vertices 15a.

【0034】ポリゴンについてはスキャナ入力された地
図を自動読み取りしてベクトル化、あるいは地図に描か
れた建物形状を対話的に手入力して記憶する。このと
き、対象となる景観において平坦でない部分が存在する
場合には、それぞれのポリゴンに対し、対応する建物の
地点の標高データも記憶する。この値は、地図より数値
入力、あるいはすでに数値化されたデータより計算す
る。
For polygons, a map input by a scanner is automatically read and vectorized, or a building shape drawn on the map is interactively manually input and stored. At this time, if there is a non-flat portion in the target landscape, the elevation data of the corresponding building point is also stored for each polygon. This value is input numerically from a map or calculated from data that has already been digitized.

【0035】図4(b)に示したように、ポリゴンは、
xy平面上の点列とこの点列を結ぶ線分で表される。な
お、ポリゴンの形状は凸形状であるとする。もし凹部分
が存在する場合には、凸の部分ポリゴンに分割して処理
し、最後にそれらのうち最も高い高さをポリゴンの高さ
とする。
As shown in FIG. 4B, a polygon is
It is represented by a point sequence on the xy plane and a line segment connecting the point sequence. It is assumed that the polygon has a convex shape. If there is a concave portion, it is processed by dividing it into convex partial polygons, and finally the highest height among them is set as the height of the polygon.

【0036】図5は形状情報記憶装置3に記憶されてい
るポリゴンに関する情報を示す図である。図5に示すよ
うに、ポリゴンの頂点数、及び各ポリゴンの各頂点の
x、y座標が、x座標値が最大となる点から、順次、反
時計まわりの順に格納されている。
FIG. 5 is a diagram showing information on polygons stored in the shape information storage device 3. As shown in FIG. 5, the number of vertices of the polygon and the x and y coordinates of each vertex of each polygon are stored sequentially in a counterclockwise order from the point at which the x coordinate value is maximum.

【0037】次に、図1に示した景観モデリング装置の
動作について詳細に述べる。本実施の形態における景観
モデリング装置では、撮影した画像を用いて再現すべき
建物の高さを求め、求めた高さに基づいて都市景観を再
現するものである。以下、地平面をxy平面とし、z軸
を高さ方向にとる。
Next, the operation of the landscape modeling device shown in FIG. 1 will be described in detail. In the landscape modeling device according to the present embodiment, the height of a building to be reproduced is obtained using a captured image, and a city landscape is reproduced based on the obtained height. Hereinafter, the ground plane is defined as the xy plane, and the z axis is defined in the height direction.

【0038】まず、特徴部抽出装置4において、画像記
憶装置1に記憶されている画像11を用いて特徴点を抽
出し、位置演算装置5において、この特徴点の3次元位
置座標を求める。特徴点とは、周囲との色や明るさの違
いにより、画像11上に角や頂点として描かれる点であ
る。建物の上面の角は、周囲の景観との見え方の違いか
ら特徴点となる。
First, the characteristic point extracting device 4 extracts characteristic points using the image 11 stored in the image storage device 1, and the position calculating device 5 obtains three-dimensional position coordinates of the characteristic points. A feature point is a point drawn as a corner or a vertex on the image 11 due to a difference in color or brightness from the surroundings. The corner of the upper surface of the building is a feature point due to the difference in appearance from the surrounding landscape.

【0039】ここでは、説明を簡単にするため、画像上
で周囲と輝度値が変化する点を特徴点として用い、その
抽出には、例えば、蔵田武志,中村裕一,大田友一著
「隠れ境界上の特徴点追跡」電子情報通信学会技術研究
報告Vol.95,No.470,55〜62頁,平成
8年発行に記された手法により行う。
Here, for the sake of simplicity, a point where the luminance value changes from the surroundings on the image is used as a feature point, and the extraction is performed by, for example, "Hidden Boundary" by Takeshi Kurata, Yuichi Nakamura, Yuichi Ota. Feature Point Tracking "IEICE Technical Report Vol. 95, No. 470, 55-62, published in 1996.

【0040】これは、画像I(i,j)の画素(io,
jo)に対し、その近傍の領域Wを考え、その
This corresponds to the pixel (io, i) of the image I (i, j).
jo), consider a region W in the vicinity,

【0041】[0041]

【数1】 (Equation 1)

【0042】の固有値の小さい方が、あらかじめ定めた
しきい値以上になる画素を特徴点とするものである。た
だし、wは重みづけの関数である。なお、実際に特徴点
を抽出する際には離散化して考え、例えば、その近傍領
域Wを例えば3×3の領域とし、また、wを常に1とし
て、
A pixel having a smaller eigenvalue is a feature point of a pixel having a predetermined threshold value or more. Here, w is a weighting function. It should be noted that when actually extracting the feature points, discretization is considered. For example, the neighboring area W is set to, for example, a 3 × 3 area, w is always set to 1, and

【0043】[0043]

【数2】 (Equation 2)

【0044】とする。It is assumed that

【0045】そして、上記のように抽出された特徴点の
3次元位置座標は、位置演算装置5において、例えば2
枚の画像を用い、そこに写された特徴点の画素情報と、
画像を撮影した視点の位置情報等の撮像情報により三角
測量の原理により求める。
Then, the three-dimensional position coordinates of the feature points extracted as described above are
Using the images, the pixel information of the feature points captured there,
It is obtained by the principle of triangulation from imaging information such as position information of the viewpoint at which the image was taken.

【0046】次に、高さ設定装置6において、特徴点の
3次元位置座標により対象となる建物自体の高さを求め
る。図6は対象となる建物のポリゴンの位置と特徴点の
位置との関係を示した図である。図において、16は画
像11から抽出された特徴点で、16aは特徴点のxy
平面への射影が対象となるポリゴン内に存在しない特徴
点で、三角印で表現している。16bは特徴点のxy平
面への射影が対象となるポリゴン内に存在する特徴点
で、丸印で表現し、その中で最も(z成分が)高い特徴
点を黒丸印で表現している。
Next, the height setting device 6 obtains the height of the target building itself from the three-dimensional position coordinates of the feature points. FIG. 6 is a diagram showing the relationship between the positions of the polygons of the target building and the positions of the feature points. In the figure, 16 is a feature point extracted from the image 11, and 16a is an xy of the feature point.
A feature point whose projection onto a plane does not exist in the target polygon is represented by a triangle. Reference numeral 16b denotes a feature point existing in a polygon whose feature point is projected onto the xy plane. The feature point is represented by a circle, and the highest (z component) feature point is represented by a black circle.

【0047】建物自体の高さを求めるには、特徴部抽出
装置4で抽出され、位置演算装置5で3次元位置座標が
演算された特徴点がどの建物に属するのかを判定し、対
象となる建物に属する特徴点の中で最も高さ(z座標
値)が高いものをその建物の高さの値とする。
In order to obtain the height of the building itself, it is determined which building the feature point extracted by the characteristic part extracting device 4 and whose three-dimensional position coordinates have been calculated by the position calculating device 5 belongs to, and becomes a target. The feature point having the highest height (z coordinate value) among the feature points belonging to the building is set as the height value of the building.

【0048】ここで、特徴点がどの建物に属すかの判定
は、特徴点の地平面(xy平面)への射影が、どのポリ
ゴンの内部に入るかにより判定する。図6に示したよう
に、特徴点のxy平面への射影が、対象となる建物のポ
リゴン15の内部に入る特徴点16b(図6において、
丸印で示された特徴点)はその建物に属すると判定さ
れ、内部に入らない特徴点16aはこの建物の特徴点で
はないとみなされる。すなわち、ポリゴン15によって
示される建物上の特徴点16bは、当然、その射影がポ
リゴン15内に含まれ、同時に、異なるポリゴンに含ま
れることはない。なお、特徴点がポリゴン内部に入るか
否かは特徴点のxy座標とポリゴンの座標とを比較する
ことにより判定される。
Here, the determination as to which building the feature point belongs to is made based on which polygon the projection of the feature point on the ground plane (xy plane) falls inside. As shown in FIG. 6, the projection of the feature point onto the xy plane causes the feature point 16 b to enter the interior of the polygon 15 of the target building (in FIG. 6,
The feature point indicated by a circle) is determined to belong to the building, and the feature point 16a that does not enter the interior is regarded as not a feature point of this building. That is, the projection of the feature point 16b on the building indicated by the polygon 15 is naturally included in the polygon 15, and is not included in a different polygon at the same time. Whether or not a feature point falls within the polygon is determined by comparing the xy coordinates of the feature point with the coordinates of the polygon.

【0049】また、このとき、最も高い特徴点の高さ
(z成分)の値を建物の高さとする。これは、建物の壁
面においても特徴点が発生する可能性があるためであ
る。このように高さを設定すると、屋上の設置物により
高さが一定でない場合でも、マイクロ波の見通し判定を
行うようなときには、最も高い地点の高さを想定でき
て、実際には見通しがきかないのに、見通せると誤って
判定してしまうことがなく、正しい景観を実現できる。
At this time, the value of the height (z component) of the highest feature point is defined as the height of the building. This is because there is a possibility that a feature point may be generated even on the wall surface of the building. If the height is set in this way, even when the height is not constant due to the rooftop installation, when performing microwave line-of-sight determination, the height of the highest point can be assumed, and the line of sight is actually invisible. Nevertheless, it is possible to realize a correct landscape without being erroneously determined to be able to see through.

【0050】このように、高さ設定装置6において建物
の高さが設定されると、3次元形状形成装置7におい
て、形状情報記憶装置3に記憶されている建物のポリゴ
ンを底辺とし、上記設定された高さの値を高さとする多
角柱を形成し、これらを表示装置8のディスプレイモニ
タ上に描画する。
As described above, when the height of the building is set by the height setting device 6, the three-dimensional shape forming device 7 sets the polygon of the building stored in the shape information storage device 3 as the base, and A polygonal prism having the height value set as the height is formed, and these are drawn on the display monitor of the display device 8.

【0051】さらに正確な景観モデリングを実現させる
には、多角柱の底面が、その多角柱が存在する地点の標
高データ(建物が建っている地点の標高を予め求めたも
の)で与えられる標高高度に置かれるように描画させる
と良い。
In order to realize more accurate landscape modeling, the bottom of the polygonal pillar is determined by the elevation altitude given by the elevation data of the point where the polygonal pillar exists (the elevation of the point where the building is built is obtained in advance). It is good to draw so that it is placed in

【0052】本実施の形態では、対象物の3次元形状を
多角柱で表しているが、これは特に限定するものではな
く、対象物が曲面形状な時には、円柱あるいは角柱と円
柱との組み合わせにより対象物の3次元形状を表現して
もよい。
In the present embodiment, the three-dimensional shape of the object is represented by a polygonal prism. However, the present invention is not particularly limited to this. When the object has a curved surface, a cylinder or a combination of a prism and a cylinder is used. The three-dimensional shape of the object may be represented.

【0053】図7はこの実施の形態の動作を示すフロー
チャートである。ステップST1では、特徴部抽出装置
4により画像記憶装置1に記憶されている各画像の特徴
部を抽出し、位置演算装置5により、抽出された画像の
特徴点の3次元位置を演算する。これは、例えば、2枚
の画像の特徴点間の対応付けによる三角測量の原理によ
って行う。その詳細を図8のフローチャートに示す。
FIG. 7 is a flowchart showing the operation of this embodiment. In step ST1, the characteristic portion of each image stored in the image storage device 1 is extracted by the characteristic portion extracting device 4, and the three-dimensional position of the characteristic point of the extracted image is calculated by the position calculating device 5. This is performed based on the principle of triangulation by associating feature points of two images, for example. The details are shown in the flowchart of FIG.

【0054】図8は図7に示したステップST1での動
作を説明するためのフローチャートである。ステップS
T21では、変数Nを0に初期化する。ステップST2
2では、未処理の画像が存在するか否かを判定し、存在
すればステップST23へ、そうでなければ(すべての
画像について処理を終了していれば)、ステップST1
を終了する。ステップST23では、照合する2枚の画
像を選択する。これは例えば、撮影順で未処理の2枚の
画像とする。ステップST24では、選択された各画像
について、その画像の特徴点の抽出を行う。
FIG. 8 is a flowchart for explaining the operation in step ST1 shown in FIG. Step S
At T21, the variable N is initialized to 0. Step ST2
In step 2, it is determined whether or not there is an unprocessed image. If it exists, the process proceeds to step ST23. If not (if the process has been completed for all images), the process proceeds to step ST1.
To end. In step ST23, two images to be compared are selected. This is, for example, two unprocessed images in the shooting order. In step ST24, for each selected image, feature points of the selected image are extracted.

【0055】ステップST25では、2枚の画像の特徴
点に対し、空間中の同一特徴点を表すものを対応付け
る。これは、例えば、特徴点近傍の画素パターンの類似
度を計算し、それがよく一致するものを対応付ける。類
似度の計算は、例えば、近傍の3×3の領域内の各画素
値の差をとってその二乗和を求め、この値が予め定めら
れたしきい値より小さいほど良く一致するものとする。
このようにして対応付けられた特徴点の組数をMとす
る。
In step ST25, the feature points of the two images are associated with those representing the same feature point in space. This involves, for example, calculating the similarity of pixel patterns in the vicinity of a feature point, and associating those that match well. The similarity is calculated, for example, by taking the difference between the pixel values in a nearby 3 × 3 area and calculating the sum of the squares, and the more the value is smaller than a predetermined threshold value, the better the match is made .
The number of feature point sets associated in this manner is M.

【0056】なお、このとき、画像を撮影するときの視
点の位置により、対応点の存在位置は、一方の視線の他
方への投影であるエピポーラ直線上に制限されるので、
そのエピポーラ直線の近傍に対応点の探索範囲を狭める
ことで、処理の高速化を図ることもできる。
At this time, the position of the corresponding point is restricted on the epipolar straight line which is the projection of one line of sight to the other, depending on the position of the viewpoint at the time of photographing the image.
The processing speed can be increased by narrowing the search range of the corresponding point near the epipolar straight line.

【0057】ステップST26では、変数nを1に初期
化する。ステップST27では、ステップST25で対
応づけられた各特徴点のn番目の特徴点組から、その特
徴点の3次元位置座標を求める。これは以下のように行
う。
In step ST26, a variable n is initialized to 1. In step ST27, from the n-th feature point set of each feature point associated in step ST25, three-dimensional position coordinates of the feature point are obtained. This is performed as follows.

【0058】図9は特徴点の3次元位置座標の演算方法
を説明するための図である。図において、10は撮像装
置により画像11を撮影したときの撮像装置の撮像地点
(以下、視点と呼ぶこともある)、11は撮像地点10
において撮影した画像、17は画像11上の特徴点、1
8は視点10から特徴点17を見る視線ベクトル、19
は画像11の光軸ベクトル、20は実際の建物上の特徴
点に対応する位置、20aは対になる他方の画像の視線
ベクトルの射影による画像上のエピポーラ直線である。
FIG. 9 is a diagram for explaining a method of calculating the three-dimensional position coordinates of a feature point. In the figure, reference numeral 10 denotes an imaging point (hereinafter, sometimes referred to as a viewpoint) of the imaging apparatus when the image 11 is captured by the imaging apparatus;
17 is a feature point on the image 11, 1
8 is a line-of-sight vector for viewing the feature point 17 from the viewpoint 10, 19
Is an optical axis vector of the image 11, 20 is a position corresponding to a feature point on an actual building, and 20a is an epipolar straight line on the image obtained by projecting a line-of-sight vector of the other image forming a pair.

【0059】図9(a)に示すように、画像の視点10
をq(qx,qy,qz)、光軸ベクトル19をu(c
osαcosβ,sinαcosβ,−sinβ)とす
る。αは光軸ベクトル19の方位角(光軸ベクトル19
のxy平面への射影の方向)、βは光軸ベクトル19の
xy平面に対する俯角(水平から見下ろす角度)であ
る。また、画像11の光軸まわりのねじれ(反時計まわ
りにとる)をγとし、画像サイズをNx×Ny、焦点距
離をfとすると、画像11中の画素I(i,j)を見る
視線18のベクトルvは、
As shown in FIG. 9A, the viewpoint 10
To q (qx, qy, qz) and the optical axis vector 19 to u (c
osαcosβ, sinαcosβ, −sinβ). α is the azimuth of the optical axis vector 19 (optical axis vector 19
Is the angle of depression of the optical axis vector 19 with respect to the xy plane (the angle looking down from the horizontal). Further, assuming that the twist of the image 11 around the optical axis (counterclockwise) is γ, the image size is Nx × Ny, and the focal length is f, the line of sight 18 that looks at the pixel I (i, j) in the image 11 The vector v of

【0060】[0060]

【数3】 (Equation 3)

【0061】で表される。これは、視点10を原点O’
とし、x’軸を光軸ベクトル19の方向に、y’軸を画
像11のi軸と平行に逆方向に、z’軸をj軸方向にと
るカメラ座標系を定義し、このカメラ座標系にて表した
視線18、すなわち、視点10(原点O’)から特徴画
素17に向かうベクトル(f,−i+Nx/2,j−N
y/2)を、絶対座標系に変換して得るものである。な
お。焦点距離fは、画像11の水平方向の画角をφとす
ると、
Is represented by This means that the viewpoint 10 is the origin O '
A camera coordinate system is defined in which the x 'axis is in the direction of the optical axis vector 19, the y' axis is in the opposite direction parallel to the i axis of the image 11, and the z 'axis is in the j axis direction. , I.e., a vector (f, -i + Nx / 2, j-N) from the viewpoint 10 (origin O ') to the characteristic pixel 17
y / 2) is converted to an absolute coordinate system. In addition. Assuming that the horizontal angle of view of the image 11 is φ, the focal length f is

【0062】f=(Nx)/{2tan(φ/2)}F = (Nx) / {2tan (φ / 2)}

【0063】で得られる。図9(b)に示すように。画
像11a中の画素I(i,j)と、他のもう一枚の画像
11b中の画素I’(i’,j’)がともに特徴画素で
あり、かつ対応付けられているならば、これらの画像中
の特徴点17に対応する実際の建物の位置t(特徴点の
3次元位置)は、両者の視線18であるv,v’の延長
上にあるので、
Is obtained. As shown in FIG. If both the pixel I (i, j) in the image 11a and the pixel I ′ (i ′, j ′) in the other image 11b are characteristic pixels and are associated, Since the actual building position t (the three-dimensional position of the feature point) corresponding to the feature point 17 in the image of FIG.

【0064】t=a v+q t=a’v+q’T = av + q t = a'v + q '

【0065】と表現される。ここで、aおよびa’はス
カラのパラメータである。これよりa及びa’を計算
し、特徴点17の3次元位置tを求める。そして、以上
のようにして得られた特徴点17の3次元座標を配列に
格納する。例えば、n番目の特徴点のx,y,z座標を
それぞれX[N+n],Y[N+n],Z[N+n]に
格納する。
Is expressed as follows. Here, a and a ′ are scalar parameters. From this, a and a 'are calculated, and the three-dimensional position t of the feature point 17 is obtained. Then, the three-dimensional coordinates of the feature points 17 obtained as described above are stored in an array. For example, the x, y, and z coordinates of the n-th feature point are stored in X [N + n], Y [N + n], and Z [N + n], respectively.

【0066】ステップST28では、nに1加算する。
ステップST29では、nがM以下かどうかを判定し、
M以下ならステップST27に、そうでなければステッ
プST30に進む。ステップST30では、特徴点数を
示す変数NにMを加算する。そして、ステップST22
に戻る。
In step ST28, 1 is added to n.
In step ST29, it is determined whether n is equal to or less than M,
If not more than M, the process proceeds to step ST27, and if not, the process proceeds to step ST30. In step ST30, M is added to a variable N indicating the number of feature points. Then, step ST22
Return to

【0067】続いて、図7に示したステップST2〜ス
テップST11において高さ設定装置6により、建物の
高さを求める。ステップST2では、ポリゴン数を示す
変数Kを形状情報記憶装置3から読み出し、変数kを1
に初期化する。ステップST3では、建物の高さを示す
変数hを0に初期化し、特徴点を示す変数nを1に初期
化する。ステップST4では、n番目の特徴点が、k番
目の建物の点かどうかを判定する。これは、n番目の特
徴点の地平面(xy平面)への射影がk番目のポリゴン
内部または辺上にあるかどうかを判定することにより行
う。この詳細を図10のフローチャートにより説明す
る。
Subsequently, in steps ST2 to ST11 shown in FIG. 7, the height of the building is obtained by the height setting device 6. In step ST2, a variable K indicating the number of polygons is read from the shape information storage device 3, and the variable k is set to 1
Initialize to In step ST3, a variable h indicating the height of the building is initialized to 0, and a variable n indicating the feature point is initialized to 1. In step ST4, it is determined whether the n-th feature point is a k-th building point. This is performed by determining whether the projection of the n-th feature point on the ground plane (xy plane) is inside the k-th polygon or on the side. This will be described in detail with reference to the flowchart of FIG.

【0068】図10は図7に示したステップST4での
動作を説明するためのフローチャートである。ここで、
形状情報記憶装置3には、図5に示したように、k番目
のポリゴンの頂点数がP[k]に、各ポリゴンの各頂点
のx,y座標がすべて配列Xp,Ypに順に格納されて
いる。なお、Xp[k][p]、Yp[k][p]はk
番目のポリゴンのp番目の頂点の座標を示すものであ
る。ただし、便宜上、Xp[k][P[k]+1],Y
p[k][P[k]+1]にもXp[k][1],Yp
[k][1]を格納する。
FIG. 10 is a flowchart for explaining the operation in step ST4 shown in FIG. here,
As shown in FIG. 5, the shape information storage device 3 stores the number of vertices of the k-th polygon in P [k] and the x and y coordinates of each vertex of each polygon in the arrays Xp and Yp. ing. Note that Xp [k] [p] and Yp [k] [p] are k
It indicates the coordinates of the p-th vertex of the th polygon. However, for convenience, Xp [k] [P [k] +1], Y
Xp [k] [1] and Yp are also used for p [k] [P [k] +1].
[K] [1] is stored.

【0069】ステップST41では、変数pを1に初期
化する。ステップST42では、特徴点のxy平面への
射影がk番目のポリゴンのp番目の頂点を起点としp+
1番目の頂点に向かう辺ベクトルの左右どちらにあるか
を判定する。これは、
In step ST41, a variable p is initialized to 1. In step ST42, the projection of the feature point onto the xy plane starts at the p-th vertex of the k-th polygon and starts at p +
It is determined whether the left side or the right side of the edge vector toward the first vertex exists. this is,

【0070】D=(Xp[k][p+1]−X[n])
(Yp[k][p]−Y[n])−(Xp[k][p]
−X[n])(Yp[k][p+1]−Y[n])
D = (Xp [k] [p + 1] -X [n])
(Yp [k] [p] -Y [n])-(Xp [k] [p]
−X [n]) (Yp [k] [p + 1] −Y [n])

【0071】により判定する。この値Dが負となれば、
右側となる。これは、図4(b)に示したように、ポリ
ゴンは凸形状で頂点15a列が反時計まわりになるよう
に格納されているので、値Dが負であれば、xy平面へ
の射影はポリゴン15の外側にあることを示す。したが
って、値Dが負である場合には、n番目の特徴点はk番
目のポリゴンに対応する建物の点ではない、すなわち、
k番目の建物の点ではないと判定することになり、ステ
ップST4へ戻り、ステップST7に進む。そうでない
場合、この値が正または0であればステップST43に
進み、pに1加算する。
Is determined. If this value D is negative,
On the right. This is because, as shown in FIG. 4B, since the polygon is stored in a convex shape and the row of vertices 15a is counterclockwise, if the value D is negative, the projection on the xy plane is Indicates that it is outside the polygon 15. Therefore, if the value D is negative, the n-th feature point is not the building point corresponding to the k-th polygon, ie,
It is determined that the point is not the k-th building, and the process returns to step ST4 and proceeds to step ST7. Otherwise, if the value is positive or 0, the process proceeds to step ST43, and 1 is added to p.

【0072】ステップST44では、pがP[k]以下
か否かを判定し、P[k]以下であれば、ステップST
42に戻り、そうでなければ、n番目の特徴点はk番目
のポリゴンに対応する建物の点であると判定し、戻る。
In step ST44, it is determined whether or not p is equal to or smaller than P [k].
Returning to 42, otherwise, it is determined that the n-th feature point is the point of the building corresponding to the k-th polygon, and the process returns.

【0073】ステップST5では、n番目の特徴点のz
座標、すなわち、高さをhと比較し、hより大きけれ
ば、ステップST6でhをその値に更新する。このよう
に、より高い特徴点の値により建物の高さを設定するよ
うにしていく。ステップST7では、nに1加算する。
In step ST5, z of the n-th feature point
The coordinates, that is, the height is compared with h, and if larger than h, h is updated to that value in step ST6. In this way, the height of the building is set based on the value of the higher feature point. In step ST7, 1 is added to n.

【0074】ステップST8では、nがN以下か否かを
判定し、N以下であればステップST4に戻り、そうで
なければステップST9に進む。ステップST9では、
k番目の建物の高さH[k]をhとする。ステップST
10では、kに1加算する。ステップST11では、k
がK以下か否かを判定し、K以下であればステップST
3に戻り、そうでなければステップST12に進む。以
上のようにして、建物の高さを決定する。
In step ST8, it is determined whether or not n is equal to or smaller than N. If n is equal to or smaller than N, the process returns to step ST4; otherwise, the process proceeds to step ST9. In step ST9,
Let h be the height H [k] of the k-th building. Step ST
At 10, 1 is added to k. In step ST11, k
Is determined to be less than or equal to K, and if less than K, step ST
3; otherwise, the process proceeds to step ST12. The height of the building is determined as described above.

【0075】ステップST12では、3次元形状形成装
置7により、建物を多角柱である建物形状によって表現
し、景観を表示装置8に描画する。なお、ここで得られ
る高さH[k]は、建物の最高点の標高を示している。
各建物について、それが建設されている地点の標高デー
タが配列B[k]に得られているならば、ポリゴンを底
面とし、高さH[k]−B[k]の多角柱を建物形状と
し、これを、その底面がz=B[k]になるように設
置、描画する。この場合、標高データB[k]の精度が
よくなくとも、建物の上面の高さは正確にH[k]とな
るため、描画される景観も実際と合致したものになる。
In step ST12, the three-dimensional shape forming device 7 expresses the building by a polygonal pillar-shaped building shape, and draws a landscape on the display device 8. The height H [k] obtained here indicates the altitude of the highest point of the building.
For each building, if the elevation data of the point where it is constructed is obtained in the array B [k], the polygon is set as the base, and the polygonal column having the height H [k] -B [k] is set as the building shape. This is set and drawn such that the bottom surface is z = B [k]. In this case, even if the accuracy of the elevation data B [k] is not good, the height of the upper surface of the building is exactly H [k], so that the rendered scene matches the actual one.

【0076】本実施の形態では、撮像した画像の特徴点
とポリゴンとから対象物の高さを設定するようにしてい
るので、建物などの対象物の形状の高さを正確に求める
ことができ、対象物の形状を正確に復元できるととも
に、画像の特徴点のみに的を絞って対象物の高さを求め
ているので、建物など物体の形状を詳細に復元する場合
に比べて格段に容易に復元することができる。
In the present embodiment, the height of the object is set from the feature points of the captured image and the polygon, so that the height of the shape of the object such as a building can be accurately obtained. In addition to accurately reconstructing the shape of the object, the height of the object is determined by focusing only on the feature points of the image, making it much easier than reconstructing the shape of an object such as a building in detail. Can be restored.

【0077】実施の形態2.本実施の形態では、実施の
形態1で画像の特徴点から対象物の高さを求めているの
に対し、画像の特徴線分から対象物の高さを求めるよう
にしたものである。
Embodiment 2 In the present embodiment, the height of the object is obtained from the feature points of the image in the first embodiment, whereas the height of the object is obtained from the characteristic line segments of the image.

【0078】図11はこの実施の形態2の景観モデリン
グ装置を示すブロック図である。図において、21は画
像記憶装置1に記憶されている画像から特徴線分である
エッジを抽出する特徴部抽出装置、22は撮像情報記憶
装置2に記憶されている撮像情報を用いて特徴部抽出装
置21で抽出されたエッジの3次元エッジ位置を演算す
る位置演算装置、23は位置演算装置22で演算された
3次元エッジ位置と形状情報記憶装置3に記憶されてい
る形状情報に基づいて対象物の高さを設定する高さ設定
装置である。その他は、実施の形態1で説明したものと
同様であるので説明は省略する。
FIG. 11 is a block diagram showing a landscape modeling device according to the second embodiment. In the figure, reference numeral 21 denotes a characteristic portion extraction device for extracting an edge, which is a characteristic line segment, from an image stored in the image storage device 1, and reference numeral 22 denotes a characteristic portion extraction using the imaging information stored in the imaging information storage device 2. The position calculating device 23 calculates the three-dimensional edge position of the edge extracted by the device 21. The position calculating device 23 calculates an object based on the three-dimensional edge position calculated by the position calculating device 22 and the shape information stored in the shape information storage device 3. It is a height setting device for setting the height of an object. Other features are the same as those described in the first embodiment, and thus description thereof will be omitted.

【0079】建物自体の高さを求めるには、特徴部抽出
装置21で抽出され、位置演算装置22で3次元位置座
標が演算されたエッジがどの建物に属するのかを判定
し、対象となる建物に属するエッジの中で最も高さ(z
座標値)が高いものをその建物の高さの値とする。
In order to obtain the height of the building itself, it is determined to which building the edge extracted by the characteristic part extracting device 21 and whose three-dimensional position coordinates have been calculated by the position calculating device 22 belongs, and the target building is determined. Height (z
The one with the higher coordinate value is the height value of the building.

【0080】高さ設定装置23において、エッジの3次
元位置座標により対象となる建物自体の高さを求める。
図12は対象となる対象物のポリゴンの位置とエッジの
位置との関係を示した図である。図において、24は画
像から抽出されたエッジで、24aはエッジのxy平面
への射影が対象となるポリゴン内に存在しないエッジ
で、点線で表現している。24bはエッジのxy平面へ
の射影が対象となるポリゴン内に存在するエッジで、実
線で表現している。
In the height setting device 23, the height of the target building itself is obtained from the three-dimensional position coordinates of the edge.
FIG. 12 is a diagram showing the relationship between the position of the polygon of the target object and the position of the edge. In the figure, reference numeral 24 denotes an edge extracted from an image, and reference numeral 24a denotes an edge which does not exist in a polygon to be projected on the xy plane, and is represented by a dotted line. Reference numeral 24b denotes an edge existing in the polygon to be projected on the xy plane, and is represented by a solid line.

【0081】建物自体の高さを求めるには、図12に示
すように、画像を用いて建物上のエッジ24の3次元位
置座標を求め、その高さ(z座標値)により建物自体の
高さを求める。エッジとは、周囲との色や明るさの違い
により、画像上に縁として描かれる線分要素である。例
えば、建物の上面の辺は、周囲の景観との見え方の違い
からエッジとなる。
In order to obtain the height of the building itself, as shown in FIG. 12, the three-dimensional position coordinates of the edge 24 on the building are obtained using the image, and the height (z coordinate value) of the building is used as the height. Ask for it. An edge is a line segment element drawn as an edge on an image due to a difference in color or brightness from the surroundings. For example, the side of the upper surface of the building is an edge due to the difference in appearance from the surrounding landscape.

【0082】エッジがどの建物に属すかの判定は、実施
の形態1と同様に考えて、エッジの地平面(xy平面)
への射影が、どのポリゴン15の内部に入るかで判定す
る。図12に示したように、ポリゴン15に対する建物
上のエッジは、その射影がポリゴン15内に含まれ、同
時に、異なるポリゴンに含まれることはない。また、こ
のとき、最も高いエッジをもって建物の高さとする。
The judgment of which building the edge belongs to is made in the same manner as in the first embodiment, and the ground plane (xy plane) of the edge is determined.
It is determined which of the polygons 15 the projection to the inside enters. As shown in FIG. 12, the projection of the edge on the building with respect to the polygon 15 is included in the polygon 15 and is not included in another polygon at the same time. Also, at this time, the height of the building is set to the highest edge.

【0083】図13はこの実施の形態2の動作を示すフ
ローチャートである。ステップST101、及びステッ
プST104〜ステップST106以外のステップは実
施の形態1の図7に示したステップと同様であるので説
明は省略する。
FIG. 13 is a flowchart showing the operation of the second embodiment. Steps other than step ST101 and steps ST104 to ST106 are the same as the steps shown in FIG. 7 of the first embodiment, and a description thereof will be omitted.

【0084】ステップST101では、特徴部抽出装置
21により各画像のエッジを抽出し、位置演算装置22
により、この抽出された各画像のエッジの3次元位置を
演算する。これも、例えば、ステレオマッチング法によ
る。その詳細を図14のフローチャートに示す。
In step ST 101, the edge of each image is extracted by the feature extracting device 21 and the position calculating device 22
Calculates the three-dimensional position of the edge of each of the extracted images. This is also based on, for example, a stereo matching method. The details are shown in the flowchart of FIG.

【0085】図14は図13に示したステップST10
1の動作を説明するフローチャートである。図14に示
したフローチャートは図8に示したフローチャートとス
テップST124、ステップST125、ステップST
127が異なるのみで、他のステップは同様であるの
で、説明は省略する。
FIG. 14 shows step ST10 shown in FIG.
3 is a flowchart illustrating the operation of FIG. The flowchart shown in FIG. 14 differs from the flowchart shown in FIG. 8 in steps ST124, ST125, and ST.
Since the other steps are the same except for the 127, the description is omitted.

【0086】ステップST124では、各画像につい
て、その画像のエッジの抽出を行う。ここでいうエッジ
とは、画像上において周囲と輝度値が大きく異なる線分
領域のことを意味する。このエッジの抽出には、例え
ば、江尻正員著「工業用画像処理」昭晃堂、昭和63年
発行に示されたラプラシアンフィルタを作用させる。そ
の出力のゼロ交差位置がエッジを表すからこれを追跡
し、線分に折れ線近似する。この近似線分の中で長さが
予め定めたしきい値を超える線分をエッジとして抽出す
る。
In step ST124, for each image, the edge of the image is extracted. Here, the edge means a line segment region in which the luminance value is largely different from the surroundings on the image. For the extraction of the edge, for example, a Laplacian filter shown in "Industrial Image Processing" by Shoji Ejiri, published by Shokodo, 1988 is applied. Since the zero-crossing position of the output represents an edge, this is traced, and a line segment is approximated to a line segment. A line segment whose length exceeds a predetermined threshold value among the approximate line segments is extracted as an edge.

【0087】ステップST125では、2枚の画像の各
々の画像のエッジに対し、同一エッジに対応するものを
対応付ける。これは、例えば、エッジ近傍の画素パター
ンの類似度を計算し、それがよく一致する場合に対応付
ける。類似度の計算は、例えば、双方のエッジの両端点
について、近傍の各画素値の差をとってその二乗和を求
め、この値があらかじめ定めたしきい値より小さい場合
によく一致するとする。対応付けられたエッジの組数を
Mとする。
In step ST125, an edge corresponding to the same edge is associated with each image edge of the two images. This is, for example, to calculate the similarity of pixel patterns in the vicinity of an edge and associate them when they match well. For example, the similarity is calculated by calculating the sum of squares by taking the difference between neighboring pixel values at both end points of both edges, and it is assumed that when the value is smaller than a predetermined threshold value, the values match well. Let M be the number of sets of associated edges.

【0088】ステップST127では、組数がn番目の
エッジの対応から、そのエッジの3次元位置座標を求め
る。これは、そのエッジの両端の点の3次元位置を求
め、その点を両端点とする線分とする。両端点の位置を
求める手法は、実施の形態1に示したものと同一であ
る。このようにして得られた3次元のエッジの座標を配
列に格納する。n番目のエッジの始点のx,y,z座標
をそれぞれSX[N+n],SY[N+n],SZ[N
+n]、終点のx,y,z座標をそれぞれEX[N+
n],EY[N+n],EZ[N+n]に格納する。
In step ST127, the three-dimensional position coordinates of the n-th edge are obtained from the correspondence of the n-th edge. In this method, the three-dimensional positions of the points at both ends of the edge are obtained, and a line segment having the point at both ends is obtained. The method of finding the positions of both end points is the same as that shown in the first embodiment. The coordinates of the three-dimensional edge obtained in this way are stored in an array. The x, y, and z coordinates of the start point of the n-th edge are SX [N + n], SY [N + n], and SZ [N
+ N] and the end point x, y, z coordinates are expressed as EX [N +
n], EY [N + n] and EZ [N + n].

【0089】図13に示したステップST104では、
n番目のエッジが、k番目の建物によるエッジか否かを
判定する。これは、n番目のエッジの地平面(xy平
面)への射影がk番目のポリゴンの内部または辺上にあ
るかどうかを判定することにより行う。これは射影の両
端点がともにポリゴンの内部または辺上であれば、射影
も内部または辺上と判定する。この詳細を図15のフロ
ーチャートにより説明する。
In step ST104 shown in FIG.
It is determined whether the n-th edge is an edge of the k-th building. This is performed by determining whether or not the projection of the n-th edge on the ground plane (xy plane) is inside or on the side of the k-th polygon. If both end points of the projection are inside or on the side of the polygon, the projection is also judged to be inside or on the side. This will be described in detail with reference to the flowchart of FIG.

【0090】図15は図13に示したステップST10
4の動作を説明するフローチャートである。ステップ1
42以外は実施の形態1の図10に示したものと同様で
あるので、その他の説明は省略する。
FIG. 15 shows step ST10 shown in FIG.
6 is a flowchart illustrating the operation of FIG. Step 1
Other than 42 is the same as that shown in FIG. 10 of the first embodiment, and the other description is omitted.

【0091】ステップST142では、射影の両端点が
k番目のポリゴンのp番目の頂点からp+1番目の頂点
に向けてみて左右どちらにあるかを判定する。これは、
実施の形態1の判定方法と同様に、
In step ST142, it is determined whether the two end points of the projection are located on the left or right of the k-th polygon from the p-th vertex to the (p + 1) -th vertex. this is,
Similar to the determination method of the first embodiment,

【0092】Ds=(Xp[k][p+1]−XS
[n])(Yp[k][p]−YS[n])−(Xp
[k][p]−XS[n])(Yp[k][p+1]−
YS[n]) De=(Xp[k][p+1]−XE[n])(Yp
[k][p]−YE[n])−(Xp[k][p]−X
E[n])(Yp[k][p+1]−YE[n])
Ds = (Xp [k] [p + 1] -XS
[N]) (Yp [k] [p] -YS [n])-(Xp
[K] [p] -XS [n]) (Yp [k] [p + 1]-
YS [n]) De = (Xp [k] [p + 1] -XE [n]) (Yp
[K] [p] -YE [n])-(Xp [k] [p] -X
E [n]) (Yp [k] [p + 1] -YE [n])

【0093】により判定する。この値DsとDeのどち
らか一方でも負となれば、対応する端点は右側となり、
エッジは対象となる建物のエッジではないと判定する。
The judgment is made as follows. If either of the values Ds and De becomes negative, the corresponding end point is on the right side,
It is determined that the edge is not the edge of the target building.

【0094】図13に示したステップST105では、
n番目のエッジの両端点についてz座標、すなわち、高
さをhと比較し、少なくとも一方がhより大きければ、
ステップST106でその大きい方の値にhを更新す
る。すなわち、より高いエッジの高さを建物の高さとし
て設定するようにしていく。
In step ST105 shown in FIG.
Comparing the z coordinate, that is, the height with h at both end points of the nth edge, and if at least one is greater than h,
In step ST106, h is updated to the larger value. That is, the height of the higher edge is set as the height of the building.

【0095】本実施の形態では、エッジを用いて対象物
の高さを設定し、景観を生成するようにしているので、
特徴点により景観を生成する場合に比べ、画像上のノイ
ズの影響を受けにくく、安定して正しい景観を得ること
ができる。
In the present embodiment, the height of the object is set using the edge to create a landscape.
Compared to a case where a landscape is generated by feature points, it is less susceptible to noise on an image, and a correct landscape can be obtained stably.

【0096】実施の形態3.本実施の形態では、実施の
形態1では画像の特徴点、実施の形態2では特徴線分か
ら対象物の高さを求めているのに対し、画像の特徴領域
から対象物の高さを求めるようにしたものである。
Embodiment 3 In the present embodiment, the height of the object is obtained from the feature points of the image in the first embodiment, and the height of the object is obtained from the feature line segments in the second embodiment. It was made.

【0097】図16はこの実施の形態3の景観モデリン
グ装置を示すブロック図である。図において、31は画
像記憶装置1に記憶されている画像から特徴領域を抽出
する特徴部抽出装置、32は撮像情報記憶装置2に記憶
されている撮像情報を用いて特徴部抽出装置31で抽出
された特徴領域の3次元領域位置を演算する位置演算装
置、33は位置演算装置32で演算された3次元領域位
置と形状情報記憶装置3に記憶されている形状情報に基
づいて対象物の高さを設定する高さ設定装置である。そ
の他は、実施の形態1で説明したものと同様であるので
説明は省略する。
FIG. 16 is a block diagram showing a landscape modeling device according to the third embodiment. In the figure, reference numeral 31 denotes a characteristic portion extraction device for extracting a characteristic region from an image stored in the image storage device 1, and reference numeral 32 denotes an extraction by the characteristic portion extraction device 31 using the imaging information stored in the imaging information storage device 2. A position calculating device 33 for calculating the three-dimensional region position of the calculated characteristic region, and a height of the object based on the three-dimensional region position calculated by the position calculating device 32 and the shape information stored in the shape information storage device 3. It is a height setting device for setting the height. Other features are the same as those described in the first embodiment, and thus description thereof will be omitted.

【0098】対象物の建物自体の高さを求めるには、特
徴部抽出装置31で抽出され位置演算装置32で3次元
位置座標が演算された領域がどの建物に属するのかを判
定し、対象となる建物に属する領域の中で最も高さ(z
座標値)が高いものをその建物の高さの値とする。
In order to obtain the height of the object building itself, it is determined which region the area extracted by the feature extracting device 31 and the three-dimensional position coordinates of which are calculated by the position calculating device 32 belongs to. Height (z
The one with the higher coordinate value is the height value of the building.

【0099】高さ設定装置33において、領域の3次元
位置座標により対象となる建物自体の高さを求める。図
17は対象となる建物のポリゴンの位置と特徴領域の位
置との関係を示した図である。図において、34は画像
から抽出された特徴領域で、34aはポリゴン15の建
物に属する特徴領域、34bはポリゴン15の建物に属
さない特徴領域、35aは特徴領域34aの重心、35
bは特徴領域34bの重心である。
In the height setting device 33, the height of the target building itself is obtained from the three-dimensional position coordinates of the area. FIG. 17 is a diagram showing the relationship between the position of the polygon of the target building and the position of the characteristic region. In the figure, 34 is a feature region extracted from the image, 34a is a feature region belonging to the building of the polygon 15, 34b is a feature region not belonging to the building of the polygon 15, 35a is the center of gravity of the feature region 34a, 35
b is the center of gravity of the characteristic region 34b.

【0100】建物自体の高さを求めるには、図17に示
すように、画像を用いて建物上の特徴領域34の3次元
位置座標を求め、その高さ(z座標値)により建物自体
の高さを求める。特徴領域とは、周囲との色や明るさの
違いにより、画像上に領域として描かれる領域要素であ
る。例えば、建物の面は、周囲の景観に比べると、ほぼ
同様の色や明るさの領域となるから領域となる。
To obtain the height of the building itself, as shown in FIG. 17, the three-dimensional position coordinates of the characteristic region 34 on the building are obtained using the image, and the height (z coordinate value) of the building itself is obtained from the height (z coordinate value). Find the height. A characteristic region is a region element drawn as a region on an image due to a difference in color or brightness from the surroundings. For example, the surface of a building is an area because it has an area of substantially the same color and brightness as the surrounding landscape.

【0101】特徴領域がどの建物に属すかの判定は、実
施の形態1と同様に考えて、特徴領域の重心を求め、こ
の重心の地平面(xy平面)への射影が、どのポリゴン
15の内部に入るかで判定する。図17に示したよう
に、特徴領域の重心のxy平面への射影が、建物のポリ
ゴン15の内部に入る領域34aをポリゴン14の建物
に属すると判定し、内部に入らない領域34bはこの建
物の領域ではないとみなす。そして、この建物に属する
領域の中で最も高い領域の高さ(z成分)をもって建物
の高さとする。
The determination as to which building the characteristic region belongs to is made in the same manner as in the first embodiment, the center of gravity of the characteristic region is obtained, and the projection of this center of gravity onto the ground plane (xy plane) is Judge if you go inside. As shown in FIG. 17, the projection of the center of gravity of the feature area onto the xy plane determines that the area 34 a that enters the interior of the polygon 15 of the building belongs to the building of the polygon 14, and the area 34 b that does not enter the interior of the polygon 14 Is not considered to be an area. Then, the height (z component) of the highest region among the regions belonging to this building is defined as the height of the building.

【0102】本実施の形態では、領域の重心のxy平面
への射影がポリゴンの内部にあるか否かで領域がどの建
物に属するものかを判定しているが、これは特に限定す
るものではなく、例えば、領域の周辺のxy平面への射
影がポリゴンの内部にあるか否かで領域がどの建物に属
するかを判定してもよい。
In the present embodiment, it is determined which building the region belongs to based on whether or not the projection of the center of gravity of the region onto the xy plane is inside the polygon. However, this is not particularly limited. Instead, for example, it may be determined which building the area belongs to based on whether or not the projection of the area around the xy plane is inside the polygon.

【0103】本実施の形態では、領域を用いて対象物の
高さを設定し、景観を生成するようにしているので、特
徴点やエッジを抽出するのに比べて容易に特徴部を抽出
することができ、安定して正しい景観を得ることができ
る。
In the present embodiment, the height of the target object is set using the region to generate the landscape, so that the feature portion is more easily extracted than the feature points and edges are extracted. And a stable and correct landscape can be obtained.

【0104】実施の形態4.本実施の形態は、実施の形
態1〜3で求めた高さに基づいて再現された対象物の3
次元形状である建物形状をディスプレイに撮像画像と重
ねて表示し、再現された建物形状の高さが適切でない場
合には、この建物形状の高さを修正するものである。
Embodiment 4 In the present embodiment, 3 of the object reproduced based on the height obtained in the first to third embodiments is used.
The three-dimensional building shape is superimposed on the captured image on the display, and when the height of the reproduced building shape is not appropriate, the height of the building shape is corrected.

【0105】図18はこの実施の形態4の景観モデリン
グ装置を示すブロック図である。図において、41は例
えば実施の形態1〜3で示したようにして求めた3次元
形状を形成するのに必要なポリゴンや高さ等の建物形状
情報を記憶する形状情報記憶装置、42は撮像情報記憶
装置2に記憶されている撮像情報により視点を一致させ
て、画像記憶手段1に記憶されている画像を表示させる
とともに、形状情報記憶装置41に記憶されている情報
より形成される3次元形状を再現する3次元形状形成装
置、43は3次元形状形成装置42で形成される3次元
形状と画像とを表示する表示装置である。
FIG. 18 is a block diagram showing a landscape modeling device according to the fourth embodiment. In the figure, reference numeral 41 denotes a shape information storage device for storing building shape information such as polygons and heights necessary for forming a three-dimensional shape obtained as shown in the first to third embodiments, and 42 denotes an image pickup device. The images stored in the image storage unit 1 are displayed by matching the viewpoints with the imaging information stored in the information storage device 2, and a three-dimensional image formed from the information stored in the shape information storage device 41. A three-dimensional shape forming device 43 for reproducing a shape is a display device for displaying a three-dimensional shape formed by the three-dimensional shape forming device 42 and an image.

【0106】44はマウスまたはキーボード等により構
成される入力装置、45は入力装置からの入力情報に基
づいて対象物の3次元形状の高さを調節する高さ調整装
置である。その他は、実施の形態1で説明したものと同
様であるので説明は省略する。
Reference numeral 44 denotes an input device constituted by a mouse or a keyboard, etc., and reference numeral 45 denotes a height adjusting device for adjusting the height of the three-dimensional shape of the object based on input information from the input device. Other features are the same as those described in the first embodiment, and thus description thereof will be omitted.

【0107】次に、図18に示した景観モデリング装置
の動作について説明する。図19はこの実施の形態4の
景観モデリング装置の動作を説明する説明図である。図
において、46は表示装置43のディスプレイ上に表示
された景観、47はディスプレイ上に表示された画像
で、画像記憶装置1に記憶されている画像を表示したも
のである。47aは画像上の建物、47bは画像上の
山、47cは画像上の道路である。48はディスプレイ
上に表示された対象物である建物の3次元形状、49は
カーソルである。
Next, the operation of the landscape modeling device shown in FIG. 18 will be described. FIG. 19 is an explanatory diagram illustrating the operation of the landscape modeling device according to the fourth embodiment. In the figure, reference numeral 46 denotes a landscape displayed on the display of the display device 43, and 47 denotes an image displayed on the display, which displays an image stored in the image storage device 1. 47a is a building on the image, 47b is a mountain on the image, and 47c is a road on the image. 48 is a three-dimensional shape of a building as an object displayed on the display, and 49 is a cursor.

【0108】この実施の形態4では、得られた3次元形
状の高さが正しくない場合に、この3次元形状の高さが
撮像画像上の対象物の高さになるように、画像上の対象
物と得られた対象物の3次元形状とを照合し、この3次
元形状の高さの値を対話的に調整するようにする。
In the fourth embodiment, when the height of the obtained three-dimensional shape is not correct, the height of the three-dimensional shape is adjusted to the height of the object on the captured image. The object and the obtained three-dimensional shape of the object are collated, and the height value of the three-dimensional shape is adjusted interactively.

【0109】図19(a)に示すように、表示装置43
により、撮像情報記憶手段2に記憶されている撮像情報
に基づいて画像の視点と3次元形状の視点とが一致する
ようにして、画像記憶装置1に記憶されている画像と対
象物の3次元形状とを重ねて表示させる。このとき、画
像上の対象物と対象物の3次元形状との区別が容易にな
るように、画像上に描かれた対象物に対して、明白に区
別できるような色や太さをもつ実線あるいは点線で対象
物の3次元形状を表示する。
As shown in FIG. 19A, the display device 43
Thus, based on the imaging information stored in the imaging information storage unit 2, the viewpoint of the image matches the viewpoint of the three-dimensional shape, and the image stored in the image storage device 1 and the three-dimensional The shape is superimposed and displayed. At this time, a solid line having a color and thickness that can be clearly distinguished from the object drawn on the image so that the object on the image can be easily distinguished from the three-dimensional shape of the object. Alternatively, the three-dimensional shape of the object is displayed by a dotted line.

【0110】ユーザーはこのように表示された照合結果
を確認しながら、例えば、表示装置43に表示されてい
るマウスのカーソル49により、高さの調整が必要な3
次元形状を選択する。このとき、画像上の選択された3
次元形状と他の3次元形状との区別が容易になるよう
に、明白に区別できるような色や太さをもつ実線あるい
は点線で選択された3次元形状を表示するものとする。
そして、図19(b)に示すように選択された3次元形
状の高さをマウスまたは数値入力等により適切な高さに
調整する。
While checking the collation result displayed in this way, the user can use the mouse cursor 49 displayed on the display device 43 to adjust the height of the three
Select a dimensional shape. At this time, the selected 3
In order to facilitate the distinction between the three-dimensional shape and the three-dimensional shape, a three-dimensional shape selected by a solid line or a dotted line having a color and thickness that can be clearly distinguished is displayed.
Then, as shown in FIG. 19B, the height of the selected three-dimensional shape is adjusted to an appropriate height by using a mouse or numerical input.

【0111】図20はこの実施の形態4の動作を示すフ
ローチャートである。ステップST300は、実施の形
態1の図7で示したフローチャートのステップST1〜
ステップST11までの動作を行う。ただし、得られた
3次元形状の情報は形状情報記憶装置41に記憶される
ものとする。
FIG. 20 is a flowchart showing the operation of the fourth embodiment. Step ST300 includes steps ST1 to ST1 of the flowchart shown in FIG.
The operation up to step ST11 is performed. However, it is assumed that the obtained information on the three-dimensional shape is stored in the shape information storage device 41.

【0112】ステップST301では、選択された建物
を示す変数kを1に初期化する。ステップST302で
は、画像の視点位置と光軸方向及び焦点距離に合わせて
3次元形状を画像に重ね書きし、その結果を表示装置4
3におけるディスプレイ上に描画する。このとき、3次
元形状は、例えばその多角柱を表す辺により表現する。
つまり、3次元形状を、ポリゴンの各頂点とそれに高さ
H[k]を与えた頂点の座標を、画像の視点位置と光軸
方向および焦点距離に合わせて透視変換し、それらを辺
で結ぶことによって描画する。また、選択された建物で
あるk番目の建物の建物形状は、その他の建物形状から
見分けられるように、異なる色で、あるいは辺を太く描
画する。
In step ST301, a variable k indicating the selected building is initialized to 1. In step ST302, a three-dimensional shape is overwritten on the image in accordance with the viewpoint position, the optical axis direction, and the focal length of the image, and the result is displayed on the display device 4.
Draw on the display in 3. At this time, the three-dimensional shape is represented by, for example, sides representing the polygonal prism.
In other words, the three-dimensional shape is perspective-transformed based on the coordinates of each vertex of the polygon and the vertex given the height H [k] in accordance with the viewpoint position of the image, the optical axis direction, and the focal length, and connects them by sides. Draw by doing. The building shape of the k-th building, which is the selected building, is drawn with a different color or a thicker side so as to be distinguished from other building shapes.

【0113】以下のステップでは、高さ調整装置45に
より、建物の高さを調整する動作を説明するものであ
る。ステップST303では、処理を続行するかどうか
を判定し、続行しないならば終了する。ここでの判定
は、例えば終了のときに、マウスやキーボードなどの入
力装置44により、特定の入力を与えることによって行
う。
In the following steps, the operation of adjusting the height of the building by the height adjusting device 45 will be described. In step ST303, it is determined whether or not to continue the processing. If not, the processing ends. The determination here is made by giving a specific input with the input device 44 such as a mouse or a keyboard at the time of the end.

【0114】ステップST304では、建物の選択を変
更する入力があるかどうかを判定する。この変更も、マ
ウスやキーボードなどの入力装置44により、特定の操
作を与えることによって行う。例えば、対応するポリゴ
ンの番号を入力したり、あるいはマウスで画面上に描か
れたカーソル49を指定する3次元形状48上に移動さ
せ、マウスのボタン入力によって、3次元形状48の番
号を得るというように行う。変更入力がある場合は、ス
テップST305において、変数kを新たに選択された
建物を示す番号に変更する。
In step ST304, it is determined whether there is an input for changing the selection of a building. This change is also performed by giving a specific operation using the input device 44 such as a mouse or a keyboard. For example, inputting the number of the corresponding polygon, or moving the cursor 49 drawn on the screen with the mouse onto the three-dimensional shape 48 to be specified, and obtaining the number of the three-dimensional shape 48 by inputting the mouse button. Do so. If there is a change input, in step ST305, the variable k is changed to a number indicating the newly selected building.

【0115】ステップST306では、選択された3次
元形状48の高さを変更する入力があるか否かを判定す
る。これも、マウスやキーボードなどの入力装置44に
より、特定の操作を与えることによって行う。例えば、
キーボードの特定のキーに高さの増加を対応させ、別の
キーに減少を対応させ、そのキーが押されている場合、
高さの値を一定値ずつ増加あるいは減少させるというよ
うに構成する。
In step ST306, it is determined whether or not there is an input for changing the height of the selected three-dimensional shape 48. This is also performed by giving a specific operation using the input device 44 such as a mouse or a keyboard. For example,
If a key on the keyboard corresponds to an increase in height and another key corresponds to a decrease, and that key is pressed,
The height value is increased or decreased by a constant value.

【0116】また、高さの値を直接数値入力してもよ
い。入力がある場合は、ステップST307において選
択されたk番目の建物の高さの値H[k]を変更し、ス
テップST302で新たに描画を行う。入力がない場合
は、景観に変更がないため、描画は行わずにステップS
T303に進む。
Further, the value of the height may be directly input as a numerical value. If there is an input, the height value H [k] of the k-th building selected in step ST307 is changed, and new drawing is performed in step ST302. If there is no input, since there is no change in the landscape, no drawing is performed and step S
Proceed to T303.

【0117】本実施の形態では、3次元形状を形成して
描画された景観の中から高さが適切でない3次元形状を
選択し、その高さを調節するようにしたので、一度求め
た3次元形状をさらに改善することができ、より適切な
3次元形状を得ることができる。さらに、画像との対応
を確認しながら3次元形状の高さを調整できるので、よ
り的確な3次元形状(建物)の再現が可能になる。
In the present embodiment, a three-dimensional shape having an inappropriate height is selected from the landscape drawn by forming the three-dimensional shape, and the height is adjusted. The three-dimensional shape can be further improved, and a more appropriate three-dimensional shape can be obtained. Further, since the height of the three-dimensional shape can be adjusted while confirming the correspondence with the image, more accurate three-dimensional shape (building) can be reproduced.

【0118】実施の形態5.本実施の形態は、実施の形
態1〜3で求めた高さに基づいて再現された対象物の3
次元形状である建物形状をディスプレイに撮像画像と重
ねて表示し、再現された建物形状の形状(ポリゴン)が
適切でない場合には、この建物形状のポリゴンを修正す
るものである。
Embodiment 5 FIG. In the present embodiment, 3 of the object reproduced based on the height obtained in the first to third embodiments is used.
The three-dimensional building shape is displayed on the display so as to overlap the captured image. If the reproduced building shape (polygon) is not appropriate, the building shape polygon is corrected.

【0119】図21はこの実施の形態5の景観モデリン
グ装置を示すブロック図である。図において、51は地
図を記憶する地図記憶装置、52は地図記憶装置51に
記憶されている地図と形状情報記憶装置41に記憶され
ているポリゴンとを描画する地図描画装置、53は地図
描画装置52により描画される地図及びポリゴンと3次
元形状形成装置42により描画される3次元形状及び画
像とを表示する表示装置、54は入力装置44からの入
力情報に基づいて3次元形状のポリゴンの位置や形状を
修正する形状調整装置である。その他は、実施の形態4
で説明したものと同様であるので説明は省略する。
FIG. 21 is a block diagram showing a landscape modeling device according to the fifth embodiment. In the figure, 51 is a map storage device for storing a map, 52 is a map drawing device for drawing a map stored in the map storage device 51 and a polygon stored in the shape information storage device 41, and 53 is a map drawing device. A display device for displaying the map and polygon drawn by 52 and the three-dimensional shape and image drawn by the three-dimensional shape forming device 42; 54 is a position of the three-dimensional shape polygon based on input information from the input device 44; And a shape adjusting device for correcting the shape. Others are described in Embodiment 4.
The description is omitted because it is the same as that described above.

【0120】本実施の形態5では、例えば、地図上に示
されている建物形状がその建物自身の形状ではなく庭等
建物自身以外を含む敷地を表すデータとして示されてい
る場合等、形状情報記憶装置41に記憶されているポリ
ゴンが正しいものではない場合に、3次元形状である建
物形状のポリゴンが撮像画像上の対象物のポリゴンとな
るように、建物形状のポリゴンの位置や形状を対話的に
調整するようにしたものである。
In the fifth embodiment, for example, when the building shape shown on the map is not the shape of the building itself but data representing a site including a building other than the building itself, such as a garden, the shape information If the polygon stored in the storage device 41 is not correct, the position and the shape of the building-shaped polygon are interacted so that the three-dimensional building-shaped polygon becomes the polygon of the object on the captured image. It is intended to be adjusted on a regular basis.

【0121】なお、景観を撮影した画像が画像記憶装置
1に、画像撮影時の視点位置、光軸方向、画角等の撮像
情報が撮像情報記憶装置2に、地図が地図記憶装置51
にそれぞれ記憶され、さらに、建物を表すポリゴンとそ
の高さが形状情報記憶装置41に記憶されているとす
る。また、画像は濃淡画像でもカラー画像でもよく、形
状記憶装置41に記憶される建物の高さについては、例
えば、実施の形態1〜3で示した方法で得ることができ
る。
The image obtained by capturing the landscape is stored in the image storage device 1, the image capturing information such as the viewpoint position, the optical axis direction and the angle of view at the time of image capturing is stored in the image storage device 2, and the map is stored in the map storage device 51.
It is assumed that polygons representing buildings and their heights are further stored in the shape information storage device 41. The image may be a grayscale image or a color image, and the height of the building stored in the shape storage device 41 can be obtained by, for example, the method described in the first to third embodiments.

【0122】次に、図21に示した景観モデリング装置
の動作を図22に示すフローチャートにより説明する。
図22はこの実施の形態5の動作を説明するためのフロ
ーチャートである。図23は表示装置53により表示さ
れる景観(3次元形状を含む)及び地図(ポリゴンを含
む)を示した図である。図において、55は景観(3次
元形状を含む)表示部55a及び地図(ポリゴンを含
む)表示部55bからなる表示装置53のディスプレイ
上の表示部、56はディスプレイ上の地図表示部55b
に表示されている選択されたポリゴンである。その他は
実施の形態4の図19で説明したものと同様であるので
説明は省略する。
Next, the operation of the landscape modeling device shown in FIG. 21 will be described with reference to the flowchart shown in FIG.
FIG. 22 is a flowchart for explaining the operation of the fifth embodiment. FIG. 23 is a diagram showing a landscape (including a three-dimensional shape) and a map (including polygons) displayed by the display device 53. In the drawing, reference numeral 55 denotes a display unit on the display of a display device 53 including a landscape (including three-dimensional shape) display unit 55a and a map (including polygon) display unit 55b, and 56 denotes a map display unit 55b on the display.
Is the selected polygon displayed in. Others are the same as those described in Embodiment 4 with reference to FIG.

【0123】図22に示したステップST401では、
図23に示したように、3次元形状形成装置42によ
り、建物の3次元形状48(以下、建物形状と呼ぶこと
もある)を重ね書きした画像47をディスプレイモニタ
の景観表示部55aに描画する。この際、建物形状48
は、その視点位置と光軸方向および焦点距離を画像47
のものに合わせて描画する。
At step ST401 shown in FIG.
As shown in FIG. 23, the three-dimensional shape forming device 42 draws an image 47 in which the three-dimensional shape 48 of the building (hereinafter, also referred to as a building shape) is overwritten on the landscape display unit 55 a of the display monitor. . At this time, the building shape 48
Indicates the viewpoint position, the optical axis direction and the focal length in the image 47.
Draw according to the object.

【0124】また、地図描画装置52により、ポリゴン
56をその対象となる建物の位置に合わせて地図ととも
にディスプレイモニタの地図表示部55bに描画する。
このとき、建物形状48は、その多角柱を表す辺により
表現し、ポリゴン56もその辺により表現する。図23
では、建物形状48とポリゴン56を太線等で表し、画
像上の建物47a、山47b、道路47cまたは地図上
のポリゴンと区別できるような様式で表現している。ま
た、3次元形状48に、陰面陰線消去の処理を施して描
画している。
The map drawing device 52 draws the polygon 56 along with the map on the map display section 55b of the display monitor in accordance with the position of the target building.
At this time, the building shape 48 is represented by a side representing the polygonal pillar, and the polygon 56 is also represented by the side. FIG.
In the example, the building shape 48 and the polygon 56 are represented by thick lines or the like, and are represented in such a manner that they can be distinguished from the building 47a, the mountain 47b, the road 47c on the image, or the polygon on the map. In addition, the three-dimensional shape 48 is rendered by performing hidden surface hidden line elimination processing.

【0125】以下に示すステップは、形状調整装置54
によりポリゴンの位置、形状を変更するときの動作を説
明するものである。ステップST402では、処理を続
行するか否かを判定し、そうでなければ終了する。ここ
での判定は、例えば、描画表示部55aに表示されてい
る画像上の建物形状と求められた3次元形状の建物形状
との形状が異なる、すなわち、画像上の建物形状の底辺
と求められた3次元形状のポリゴンとが異なる場合に、
ポリゴンの修正が必要と判定し、続行させ、逆に終了の
ときには、マウスやキーボードなどの入力装置44によ
り、特定の入力を与えることによって行う。
The following steps are performed by the shape adjusting device 54.
Describes the operation when changing the position and shape of the polygon. In step ST402, it is determined whether or not to continue the process, and otherwise, the process ends. The determination here is, for example, that the shape of the building on the image displayed on the drawing display unit 55a is different from the shape of the obtained three-dimensional shape, that is, the shape of the building on the image is the base of the building shape. If the three-dimensional polygon is different from the
When it is determined that the polygon needs to be corrected, the process is continued, and when it is finished, the correction is performed by giving a specific input using the input device 44 such as a mouse or a keyboard.

【0126】ステップST403では、ポリゴン56の
頂点の位置を修正する入力があるか否かを判定する。こ
れは以下のようにする。入力装置44によりディスプレ
イモニタ上に描かれたカーソル49を、地図表示部55
b上に示された修正するポリゴン56の一頂点上に移動
させ、ボタン入力によりその頂点を指定する。この入力
があった場合、修正入力があると判定する。
In step ST403, it is determined whether or not there is an input for correcting the position of the vertex of the polygon 56. This is done as follows. The cursor 49 drawn on the display monitor by the input device 44 is moved to the map display 55
b) is moved to one vertex of the polygon 56 to be corrected shown on b, and the vertex is designated by inputting a button. If there is this input, it is determined that there is a correction input.

【0127】ステップST404では、選択されたポリ
ゴン56上の頂点の座標を、カーソル49の位置によっ
て示される地図上の座標に変更する。ステップST40
5では、ステップST401と同様の動作で、ポリゴン
56を重ね書きした地図と、建物形状48を重ね書きし
た画像47をディスプレイ46に描画する。このとき、
選択された頂点がその他の頂点から見分けられるよう
に、建物形状48の描画においては、建物形状48中、
頂点を垂直に伸ばした辺を異なる色で描画する。また、
ポリゴン56においても、頂点を異なる色で表示する。
In step ST404, the coordinates of the selected vertex on the polygon 56 are changed to the coordinates on the map indicated by the position of the cursor 49. Step ST40
In step 5, a map in which the polygon 56 is overwritten and an image 47 in which the building shape 48 is overwritten are drawn on the display 46 by the same operation as in step ST401. At this time,
In drawing the building shape 48, the selected vertices are distinguished from the other vertices.
Draws the side where the vertices are extended vertically in different colors. Also,
The vertices of the polygon 56 are also displayed in different colors.

【0128】ステップST406では、位置の修正処理
が終了したか否かを判定し、そうであればステップST
401に進む。これは、入力装置44によるボタン入力
またはキー入力によって終了を指示する。このように、
ステップST405で描画される景観と地図で建物形状
48を確認しながら、ステップST404でその頂点の
位置を変更していく。
In step ST406, it is determined whether or not the position correction processing has been completed.
Go to 401. This is instructed to end by button input or key input by the input device 44. in this way,
In step ST404, the position of the vertex is changed while confirming the building shape 48 with the landscape and the map drawn in step ST405.

【0129】図24はポリゴンの頂点の位置を修正する
ときの動作を説明するための図で、図24(a)は修正
前の状態を示した図で、図24(b)は修正後の状態を
示した図である。図において、48aは頂点56bに対
応し建物形状48を構成する辺、56aはディスプレイ
上に表示されている地図表示部55b上における選択さ
れたポリゴンで、56bはポリゴン56aを構成する頂
点である。その他は、図23で説明したものと同様であ
るので説明は省略する。
FIG. 24 is a diagram for explaining the operation when correcting the positions of the vertices of a polygon. FIG. 24 (a) is a diagram showing a state before the correction, and FIG. 24 (b) is a diagram after the correction. It is a figure showing a state. In the figure, 48a is a side corresponding to the vertex 56b and configuring the building shape 48, 56a is a polygon selected on the map display unit 55b displayed on the display, and 56b is a vertex configuring the polygon 56a. Other points are the same as those described with reference to FIG.

【0130】このように、例えば、ステップST401
において、図24(a)に示したような景観が描画され
た場合には、図24(a)に示した建物形状48に対す
るポリゴン56aの頂点56bを地図上で移動させ、ポ
リゴンの形状を適切な形状に変更する。この変更によ
り、頂点56bに対応する辺48aの位置も変更され、
図24(b)に示す適切な建物形状に修正される。
Thus, for example, in step ST401
In FIG. 24, when the landscape shown in FIG. 24A is drawn, the vertex 56b of the polygon 56a corresponding to the building shape 48 shown in FIG. 24A is moved on the map, and the shape of the polygon is appropriately adjusted. To a different shape. With this change, the position of the side 48a corresponding to the vertex 56b is also changed,
The building is corrected to an appropriate building shape shown in FIG.

【0131】ここでは、1つの頂点の位置を移動するよ
うにしているが、これは特に限定するものではなく、全
ての頂点を移動させてもよい。例えば、ポリゴンの全て
の頂点を同じ方向に同じ距離だけ移動させると、ポリゴ
ンの形状は維持されたまま、ポリゴン自体を移動させる
ことができる。従って、ある建物のポリゴンの位置のみ
が異なっている場合でも、正しいポリゴンの位置に修正
することができる。
Here, the position of one vertex is moved, but this is not particularly limited, and all vertices may be moved. For example, if all vertices of a polygon are moved in the same direction by the same distance, the polygon itself can be moved while the shape of the polygon is maintained. Therefore, even if only the position of the polygon of a certain building is different, it can be corrected to the correct position of the polygon.

【0132】次に、ステップST403において、ポリ
ゴン56の頂点の位置を修正する入力がなければ、ステ
ップST407へ進む。ステップST407では、ポリ
ゴンの頂点を追加する入力があるか否かを判定する。こ
れは以下のように実行する。入力装置44によりディス
プレイモニタ上に描かれたカーソル49を、地図表示部
55b上に示された頂点を追加するポリゴン56の一辺
上に移動させ、ボタンまたはキー入力によりその頂点を
指定する。この入力があった場合、追加入力があると判
定する。ただし、この場合のボタンまたはキー入力は、
ステップST403で用いるボタンまたはキーとは異な
るものを割り当てる。
Next, in step ST403, if there is no input for correcting the position of the vertex of the polygon 56, the process proceeds to step ST407. In step ST407, it is determined whether or not there is an input for adding a vertex of the polygon. This is performed as follows. The cursor 49 drawn on the display monitor by the input device 44 is moved to one side of the polygon 56 to which the vertex shown on the map display section 55b is added, and the vertex is designated by a button or key input. If there is this input, it is determined that there is an additional input. However, the button or key input in this case is
Buttons or keys different from those used in step ST403 are assigned.

【0133】ステップST408では、選択された辺上
に新たにポリゴン56の頂点を追加する。このとき、ポ
リゴン56の頂点数を1増加し、x座標値最大のものを
先頭に、反時計まわりに格納されるように配列を再構成
する。そして、この追加された頂点を選択された頂点と
みてステップST404に進む。以下、ステップST4
04以下は上記説明したものと同様であるので説明は省
略する。
In step ST408, a new vertex of the polygon 56 is added on the selected side. At this time, the number of vertices of the polygon 56 is increased by one, and the array is reconfigured so that the polygon 56 is stored counterclockwise starting with the one having the largest x coordinate value. The added vertex is regarded as the selected vertex, and the process proceeds to step ST404. Hereinafter, step ST4
Since the steps after 04 are the same as those described above, the description will be omitted.

【0134】図25はポリゴンの形状を修正(頂点を追
加)するときの動作を説明するための図で、図25
(a)は修正前の状態を示した図で、図25(b)は修
正後の状態を示した図である。図において、48aは頂
点56bに対応し建物形状48を構成する辺、56aは
ディスプレイ上に表示されている地図表示部55b上に
おける選択されたポリゴンで、56bはポリゴン56a
を構成する頂点、56cはポリゴン56aを構成する辺
である。その他は、図24で説明したものと同様である
ので説明は省略する。
FIG. 25 is a diagram for explaining the operation when correcting the shape of a polygon (adding vertices).
(A) is a diagram showing a state before correction, and FIG. 25 (b) is a diagram showing a state after correction. In the figure, 48a is a side corresponding to the vertex 56b and constituting the building shape 48, 56a is a selected polygon on the map display section 55b displayed on the display, and 56b is a polygon 56a
And 56c are sides forming the polygon 56a. Others are the same as those described with reference to FIG.

【0135】このように、例えば、ステップST401
において、図25(a)に示したような景観が描画され
た場合には、図25(a)に示したように、ポリゴン5
6aの辺56cに頂点56bを追加し、その位置を地図
上で移動させることにより、頂点56bに対応する辺4
8aを正しい位置に追加し、図25(b)に示す形状に
変更していく。
As described above, for example, in step ST401
In FIG. 25A, when a landscape as shown in FIG. 25A is drawn, as shown in FIG.
A vertex 56b is added to the side 56c of the side 6a and its position is moved on the map, so that the side 4 corresponding to the vertex 56b is
8a is added to the correct position, and the shape is changed to the shape shown in FIG.

【0136】次に、ステップST407において、ポリ
ゴンの頂点を追加する入力がなければ、ステップST4
09へ進む。ステップST409では、ポリゴンの頂点
を削除する入力があるか否かを判定する。これは以下の
ように実行する。入力装置44によりディスプレイモニ
タ上に描かれたカーソル49を、地図表示部55b上に
示された削除する頂点上に移動させ、ボタンまたはキー
入力によりその頂点を指定する。この入力があった場
合、削除入力があると判定する。ただし、この場合のボ
タンまたはキー入力は、ステップST403及びステッ
プST407で用いるボタンまたはキーとは異なるもの
を割り当てる。
Next, in step ST407, if there is no input to add a vertex of the polygon, step ST4
Go to 09. In step ST409, it is determined whether or not there is an input for deleting a vertex of the polygon. This is performed as follows. The cursor 49 drawn on the display monitor by the input device 44 is moved to a vertex to be deleted shown on the map display section 55b, and the vertex is designated by a button or key input. If there is this input, it is determined that there is a deletion input. However, in this case, a button or a key input different from those used in steps ST403 and ST407 is assigned.

【0137】ステップST410では、ステップST4
05と同様に、選択された頂点とそれによる辺に異なる
色を用いて、景観と地図を描画する。ステップST41
1では、削除の確認を行い、ステップST412で選択
された頂点を削除する。このとき、ポリゴン56aの頂
点数を1減少させ、x座標値最大のものを先頭に、反時
計まわりに格納されるように配列を再構成する。
In step ST410, step ST4
Similar to 05, a landscape and a map are drawn using different colors for the selected vertex and its side. Step ST41
In step 1, the deletion is confirmed, and the vertex selected in step ST412 is deleted. At this time, the number of vertices of the polygon 56a is reduced by 1, and the array is reconfigured so that the polygon 56a is stored in a counterclockwise direction with the one having the largest x coordinate value at the top.

【0138】図26はポリゴンの形状を修正(頂点を削
除)するときの動作を説明するための図で、図26
(a)は修正前の状態を示した図で、図26(b)は修
正後の状態を示した図である。図において、48aは頂
点56bに対応し建物形状48を構成する辺、56aは
ディスプレイ上に表示されている地図表示部55b上に
おける選択されたポリゴンで、56bはポリゴン56a
を構成する頂点である。その他は、図24で説明したも
のと同様であるので説明は省略する。
FIG. 26 is a diagram for explaining the operation when the shape of the polygon is corrected (vertex is deleted).
FIG. 26A is a diagram showing a state before correction, and FIG. 26B is a diagram showing a state after correction. In the figure, 48a is a side corresponding to the vertex 56b and constituting the building shape 48, 56a is a selected polygon on the map display section 55b displayed on the display, and 56b is a polygon 56a
Are vertices. Others are the same as those described with reference to FIG.

【0139】このように、例えば、ステップST410
において、図26(a)に示したような景観が描画され
た場合には、図26(a)に示したように、ポリゴン5
6aの削除する頂点56bを選択し、その頂点56bを
削除することにより、頂点56bに対応する辺48aを
削除し、図26(b)に示す形状に変更していく。
As described above, for example, in step ST410
In FIG. 26A, when a landscape as shown in FIG. 26A is drawn, as shown in FIG.
By selecting the vertex 56b to be deleted in 6a and deleting the vertex 56b, the side 48a corresponding to the vertex 56b is deleted, and the shape is changed to the shape shown in FIG.

【0140】本実施の形態では、形状調整装置において
ポリゴンの位置、形状を調整するようにしているが、こ
の形状調整装置に記憶されている3次元形状の高さの値
をも調整するようにすれば、3次元形状をより正確に再
現させることができる。
In this embodiment, the position and the shape of the polygon are adjusted by the shape adjusting device. However, the height value of the three-dimensional shape stored in the shape adjusting device is also adjusted. Then, the three-dimensional shape can be reproduced more accurately.

【0141】本実施の形態では、景観を撮像した画像と
3次元形状との照合結果を確認しながら、その輪郭であ
るポリゴンの頂点の位置を調整するので、ポリゴンの位
置や形状を調整することができ、正確な3次元形状を形
成することが可能になる。
In the present embodiment, the position of the vertex of the polygon, which is the outline thereof, is adjusted while checking the collation result between the image of the scenery and the three-dimensional shape. And an accurate three-dimensional shape can be formed.

【0142】また、景観を撮像した画像と3次元形状と
の照合結果を確認しながら、その輪郭であるポリゴンに
頂点を追加するので、ポリゴンの形状を変更することが
でき、正確な3次元形状を形成することが可能になる。
また、景観を撮像した画像と3次元形状との照合結果を
確認しながら、その輪郭であるポリゴンの頂点を削除す
るので、ポリゴンの形状を変更することができ、正確な
3次元形状を形成することが可能になる。
Also, while checking the collation result between the captured image of the landscape and the three-dimensional shape, the vertices are added to the polygon which is the outline, so that the shape of the polygon can be changed, and the accurate three-dimensional shape can be changed. Can be formed.
In addition, since the vertex of the polygon, which is the outline of the image, is deleted while confirming the comparison result between the image of the landscape and the three-dimensional shape, the shape of the polygon can be changed, and an accurate three-dimensional shape can be formed. It becomes possible.

【0143】この際、地図上でポリゴンの指定と調整を
行うことにより、ポリゴンどうしが重ならないため、容
易に目的のポリゴンと頂点を指定でき、また、地図上に
示された道路などの他のものとの位置関係から直感的に
正しいポリゴンを得、容易に3次元形状を修正すること
ができる。また、3次元形状を随時修正して画像上に描
画するため、容易に正確な3次元形状を得ることができ
る。
At this time, by specifying and adjusting the polygons on the map, the polygons do not overlap each other, so that the target polygons and vertices can be easily specified, and other polygons such as roads shown on the map can be used. The correct polygon can be obtained intuitively from the positional relationship with the object, and the three-dimensional shape can be easily corrected. Further, since the three-dimensional shape is corrected as needed and drawn on the image, an accurate three-dimensional shape can be easily obtained.

【0144】実施の形態6.図27はこの実施の形態6
の景観モデリング装置を示すブロック図である。図にお
いて、61は建物形状を追加する形状追加装置である。
その他は実施の形態5で説明したものと同様であるので
説明は省略する。
Embodiment 6 FIG. FIG. 27 shows the sixth embodiment.
1 is a block diagram showing a landscape modeling device of FIG. In the figure, reference numeral 61 denotes a shape adding device for adding a building shape.
The other parts are the same as those described in the fifth embodiment, and the description is omitted.

【0145】図28は本実施の形態6の動作を説明する
ための説明図である。図において、62は建物の突起部
分、62aはポリゴン63に高さの値を与えて得られる
建物突起形状、63は追加された建物の突起部の輪郭形
状を示すポリゴン、63aはポリゴン63の頂点であ
る。
FIG. 28 is an explanatory diagram for explaining the operation of the sixth embodiment. In the figure, 62 is a projecting portion of the building, 62a is a building projecting shape obtained by giving a height value to the polygon 63, 63 is a polygon showing the contour shape of the projecting portion of the added building, 63a is a vertex of the polygon 63 It is.

【0146】本実施の形態6では、建物の建物形状を対
話的に調整するように構成する。建物の形状は、ポリゴ
ンに高さ値を与えてできる多角柱として表現している
が、図28に示すように、例えばビルの給水塔や集合住
宅のエレベータなどにより、その一部が突起している例
も多い。このような場合、その最高点で建物形状を定め
た場合、それ以外の部分では高さの差が大きくなって実
際の景観と一致しなくなる。また、水平面においても突
起していることもあり、この場合も景観が正しく再現さ
れない。そこで、本実施の形態6では、突起部分を独立
した建物形状とすることにより、実際の景観に一致させ
るものである。
In the sixth embodiment, the structure of the building is adjusted interactively. Although the shape of the building is expressed as a polygonal pillar formed by giving a height value to the polygon, as shown in FIG. There are many examples. In such a case, when the building shape is determined at the highest point, the difference in height in other portions becomes large and does not match the actual landscape. In addition, there are cases where the projections are formed even on a horizontal plane, and in this case, the landscape is not correctly reproduced. Therefore, in the sixth embodiment, the projection is made to have an independent building shape so as to match the actual scene.

【0147】なお、景観を撮影した画像(濃淡画像でも
カラー画像でもよい)が画像記憶装置1に、画像撮影時
の視点位置、光軸方向、画角情報等の撮像情報が撮像情
報記憶装置2に、地図が地図記憶装置51にそれぞれ記
憶され、さらに、建物等の対象物を表すポリゴンとその
高さが形状情報記憶装置41に記憶されているとする。
また、建物の高さについては、本発明の実施の形態1〜
3に示した方法で得てもよい。
It should be noted that the image of the landscape (either a grayscale image or a color image) is stored in the image storage device 1 and the imaging information such as the viewpoint position, the optical axis direction, and the angle of view at the time of image capturing is stored in the imaging information storage device 2. It is assumed that a map is stored in the map storage device 51, and a polygon representing an object such as a building and its height are stored in the shape information storage device 41.
Also, regarding the height of the building, Embodiments 1 to 1 of the present invention
3 may be obtained.

【0148】以下、図27に示した景観モデリング装置
の動作を図29に示すフローチャートにより説明する。
図29は図27に示した景観モデリング装置の動作を示
すフローチャートである。
The operation of the landscape modeling device shown in FIG. 27 will be described below with reference to the flowchart shown in FIG.
FIG. 29 is a flowchart showing the operation of the landscape modeling device shown in FIG.

【0149】ステップST501では、実施の形態5の
ステップST401と同様、図23に示したように、3
次元形状形成装置42により、建物形状48を重ね書き
した画像47をディスプレイモニタの景観表示部55a
に描画する。この際、建物形状48は、その視点位置と
光軸方向および焦点距離を画像47のものに合わせて描
画する。また、地図描画装置52により、地図上に、ポ
リゴン56をその建物の位置に合わせてディスプレイモ
ニタの地図表示部55b上に描画する。このとき、建物
形状48は、その多角柱を表す辺により表現し、ポリゴ
ン56もその辺により表現する。
In step ST501, as in step ST401 of the fifth embodiment, as shown in FIG.
The image 47 in which the building shape 48 is overwritten by the three-dimensional shape forming device 42 is displayed on the landscape monitor 55a of the display monitor.
To draw. At this time, the building shape 48 is drawn such that the viewpoint position, the optical axis direction, and the focal length match those of the image 47. The map drawing device 52 draws the polygon 56 on the map on the map display section 55b of the display monitor in accordance with the position of the building. At this time, the building shape 48 is represented by a side representing the polygonal pillar, and the polygon 56 is also represented by the side.

【0150】以下のステップは、形状追加装置61によ
り制御される動作である。ステップST502では、処
理を続行するか否かを判定し、そうでないならば終了す
る。ここでの判定は、例えば終了のときに、マウスやキ
ーボードなどの入力装置44により、特定の入力を与え
ることによって行う。
The following steps are operations controlled by the shape adding device 61. In step ST502, it is determined whether or not to continue the process, and if not, the process ends. The determination here is made by giving a specific input with the input device 44 such as a mouse or a keyboard at the time of the end.

【0151】ステップST503では、図28に示した
ように、突起部分62を有する建物に対応するポリゴン
56に対して突起部分62を表す頂点を指定する。これ
は以下のように行う。マウスやキーボードなどの入力装
置44により、ディスプレイモニタ上に描かれたカーソ
ル49を、地図上に移動し、さらに突起部分62を表す
頂点とする位置にその辺にそって順次移動させ、それぞ
れにおいてボタンまたはキー入力により頂点63aを指
定し、同時に地図上に描画していく。入力終了も、特定
のボタンまたはキー入力を与えることによって行う。
In step ST503, as shown in FIG. 28, a vertex representing the projection 62 is designated for the polygon 56 corresponding to the building having the projection 62. This is performed as follows. The cursor 49 drawn on the display monitor is moved on the map by the input device 44 such as a mouse or a keyboard, and further sequentially moved along the side to a position that is a vertex representing the protruding portion 62. Alternatively, the vertex 63a is designated by a key input, and is simultaneously drawn on the map. The input is also terminated by giving a specific button or key input.

【0152】ステップST504では、ステップST5
03で指定された頂点63aで構成されるポリゴン63
を追加登録する。ここでは、ポリゴン数を示す変数Kを
1増やし、追加されるポリゴン63をその新しいK番目
のポリゴンとする。入力された頂点63aのp番目の座
標をその配列Xp[K][p],Yp[K][p]に格
納する。この場合もx座標値最大のものを先頭に、反時
計まわりになるように構成する。さらに、頂点数を示す
P[K]にステップST503で指定された頂点63a
の数を格納し、高さH[K]をあらかじめ設定した初期
値に設定する。建物突起形状62の設置地点の標高B
[K]は、その場所に最も近い値を用いる。また、建物
突起形状62に最も近い建物の標高値を用いてもよい。
In step ST504, step ST5
Polygon 63 composed of vertex 63a specified by 03
Register additionally. Here, the variable K indicating the number of polygons is increased by 1, and the added polygon 63 is set as the new K-th polygon. The p-th coordinate of the input vertex 63a is stored in the arrays Xp [K] [p] and Yp [K] [p]. Also in this case, the configuration is such that the one having the largest x-coordinate value is in the counterclockwise direction, starting with the one having the largest x-coordinate value. Furthermore, the vertex 63a specified in step ST503 is added to P [K] indicating the number of vertices.
Is stored, and the height H [K] is set to a preset initial value. Elevation B of the installation point of the building protrusion shape 62
[K] uses the value closest to the location. Alternatively, the elevation value of the building closest to the building projection shape 62 may be used.

【0153】ステップST505では、ポリゴン63に
よって生成される建物突起形状62の高さを修正する。
この動作は、本実施の形態4の図20に示したフローチ
ャートのステップST302からステップST307の
動作に等しい。ただし、建物突起形状63を建物形状と
みなし、ステップST302の描画においては、ステッ
プST501と同様、図23に示したように景観に合わ
せ地図も描画する。また、新たに追加された建物突起形
状62aの高さのみを修正するため、選択された建物を
示すkは常にKとする。
In step ST505, the height of the building projection shape 62 generated by the polygon 63 is corrected.
This operation is equivalent to the operation from step ST302 to step ST307 of the flowchart shown in FIG. 20 of the fourth embodiment. However, the building projection shape 63 is regarded as a building shape, and in the drawing of step ST302, a map is also drawn in accordance with the scenery as shown in FIG. 23 as in step ST501. Further, in order to correct only the height of the newly added building projection shape 62a, k indicating the selected building is always K.

【0154】これにより、例えば当初図28(a)に示
したように描画された建物形状48を、図28(b)に
示したように建物突起形状62aと建物形状48で表現
することが可能になり、より正確に景観を再現すること
が可能になる。また、この際、地図上で建物突起形状6
2を示すポリゴン63を入力することにより、地図上に
示された他のポリゴンや道路などとの位置関係から直感
的に正しいポリゴンの形状を得、容易に建物形状を修正
することができる。さらに、景観に重ね書きすることに
より、建物突起形状を建物形状とともに確認しながら、
その高さを調整することが可能になり、正確な景観を再
現することが可能になる。
Thus, for example, the building shape 48 initially drawn as shown in FIG. 28A can be represented by the building protrusion shape 62a and the building shape 48 as shown in FIG. 28B. And it is possible to reproduce the landscape more accurately. At this time, the building projection shape 6
By inputting the polygon 63 indicating 2, the correct polygon shape can be intuitively obtained from the positional relationship with other polygons, roads, and the like shown on the map, and the building shape can be easily corrected. In addition, by overwriting the landscape, while checking the shape of the building protrusions together with the building shape,
The height can be adjusted, and an accurate landscape can be reproduced.

【0155】なお、上記実施の形態1〜3では、特徴
点、エッジ、あるいは領域の3次元位置座標の計測を、
特徴点、エッジ、あるいは領域の検出とその近傍の画素
値による対応付けにて行っているが、これは特に限定す
るものではなく、マウスやキーボードなどの入力装置を
用いて、直接、画像上での特徴画素、特徴線分、あるい
は特徴領域の位置と、その2つの画像間での対応を指示
するようにして構成してもよい。
In the first to third embodiments, the measurement of the three-dimensional position coordinates of a feature point, an edge, or an area is performed.
The feature points, edges, or areas are detected and associated with pixel values in the vicinity thereof, but this is not particularly limited, and is directly performed on the image using an input device such as a mouse or a keyboard. The position of the characteristic pixel, the characteristic line segment, or the characteristic region and the correspondence between the two images may be instructed.

【0156】また、本実施の形態1〜3では、特徴点、
エッジ、あるいは領域の3次元位置座標の計測を、2つ
の画像により三角測量の原理に基づいて行ったが、より
多くの画像を用いてこれを行うように構成してもよい
し、また、これを他の方式、例えば、レーザーを使う距
離計測手法などにより行うように構成してもよい。
In the first to third embodiments, the characteristic points
The measurement of the three-dimensional position coordinates of an edge or a region is performed based on the principle of triangulation using two images. However, the measurement may be performed using a larger number of images. May be performed by another method, for example, a distance measurement method using a laser.

【0157】また、本実施の形態では、標高値B[k]
を用いたが、限られた領域であれば、地形は水平である
とみなし、地平面をxy平面として、すべてB[k]=
0として構成してもよい。
In the present embodiment, the elevation value B [k]
However, if the area is limited, the terrain is considered to be horizontal, and the ground plane is set to the xy plane, and all B [k] =
It may be configured as 0.

【0158】また、上記実施の形態4〜6では、3次元
形状形成装置と地図描画装置により選択された建物形状
やポリゴンの辺の色を変えて表示するようにしている
が、一般の建物形状や地図から識別できるようにすれば
よく、これらの線幅や破線など線種を変えて表示するよ
うに構成してもよい。
In the fourth to sixth embodiments, the building shape selected by the three-dimensional shape forming device and the map drawing device or the color of the side of the polygon is changed and displayed. It may be configured so that it can be identified from a map or a map, and the line type such as the line width or broken line may be changed and displayed.

【0159】また、上記実施の形態4〜6では、建物形
状の高さは上記実施の形態1〜3に示した動作により得
ているが、建物形状の高さを他の手法、例えば、従来の
景観モデリング装置により得るように構成し、これによ
って得た建物形状に対し以下の動作を行うように構成し
てもよい。
In the fourth to sixth embodiments, the height of the building shape is obtained by the operation described in the first to third embodiments. However, the height of the building shape is determined by another method, for example, the conventional method. And the following operations may be performed on the obtained building shape.

【0160】また、上記実施の形態5、6では、3次元
形状形成装置と地図描画装置により描画される景観と地
図とを同一ディスプレイモニタに表示したが、これを異
なる表示装置に表示するように構成してもよい。
In the fifth and sixth embodiments, the landscape and the map drawn by the three-dimensional shape forming device and the map drawing device are displayed on the same display monitor. You may comprise.

【0161】また、本実施の形態6では、建物形状の建
物突起形状を追加するものとして説明したが、地図上に
示されていないが画像上に存在する建物の建物形状を新
たに追加するものとして動作させてもよい。
In the sixth embodiment, the description has been made on the assumption that a building projection shape of a building shape is added. However, a building shape of a building which is not shown on the map but exists on the image is newly added. May be operated.

【0162】また、上記実施の形態における、特徴部抽
出装置、位置演算装置、高さ設定装置、3次元形状形成
装置、高さ調整装置、地図描画装置、形状調整装置、形
状追加装置を用いたが、これらの動作を計算機によりソ
フトウェアで実行するように構成してもよい。
Further, in the above embodiment, the characteristic part extracting device, the position calculating device, the height setting device, the three-dimensional shape forming device, the height adjusting device, the map drawing device, the shape adjusting device, and the shape adding device are used. However, these operations may be executed by software using a computer.

【0163】また、上記実施の形態1〜6では、画像、
画像撮影時のカメラの視点位置と光軸方向と画角情報、
ポリゴンと高さに関する情報及び地図を異なる記憶装置
に格納したが、これらを同一の記憶装置に格納するよう
に構成してもよい。
In the first to sixth embodiments, the image,
Camera viewpoint position, optical axis direction and angle of view information at the time of image shooting,
Although the information on the polygon and the height and the map are stored in different storage devices, they may be stored in the same storage device.

【0164】また、上記実施の形態1〜6で用いる画像
は、航空機やヘリコプターより撮影した空中写真の画像
であってよい。
The images used in the first to sixth embodiments may be aerial photographs taken from an aircraft or a helicopter.

【0165】また、上記実施の形態1〜3で用いる画像
は、濃淡の多値画像としたが、カラー画像を用いてもよ
い。この場合、建物の赤色灯のみを特徴点等の特徴部と
して抽出、あるいは、青や白、灰色領域は背景の空や雲
とみなして、特徴図形の抽出を省略するといった構成に
することもできる。
Although the images used in the first to third embodiments are multi-valued images of light and shade, color images may be used. In this case, it is also possible to adopt a configuration in which only the red light of the building is extracted as a characteristic portion such as a feature point, or a blue, white, or gray area is regarded as a background sky or cloud, and the extraction of a characteristic figure is omitted. .

【0166】[0166]

【発明の効果】本発明は、以上説明したように構成され
ているので、以下に記載されたような効果を奏する。
Since the present invention is configured as described above, it has the following effects.

【0167】本発明に係る景観モデリング装置は、同一
の対象物を異なる方向から撮像した少なくとも2つの画
像を記憶する画像記憶手段と、前記各画像の撮像時の撮
像情報を記憶する撮像情報記憶手段と、前記対象物の水
平断面の輪郭情報を記憶する形状記憶手段と、前記画像
記憶手段に記憶されている各画像の特徴部を抽出する特
徴部抽出手段と、前記特徴部抽出手段で抽出された特徴
部、前記撮像情報記憶手段に記憶されている撮像情報及
び前記形状記憶手段に記憶されている輪郭情報に基づい
て前記対象物の高さを求める高さ設定手段と、前記形状
記憶手段に記憶されている輪郭情報及び前記高さ設定手
段で設定された対象物の高さに基づいて前記対象物の3
次元形状を形成する3次元形状形成手段とを備えている
ので、簡単な処理で建物の正確な高さが得られ、効率良
く正しい景観を再現することができる。
A landscape modeling device according to the present invention comprises: an image storage means for storing at least two images of the same object taken from different directions; and an imaging information storage means for storing imaging information at the time of capturing each of the images. A shape storage unit that stores outline information of a horizontal cross section of the object; a feature unit extraction unit that extracts a feature unit of each image stored in the image storage unit; The characteristic portion, height setting means for obtaining the height of the object based on the imaging information stored in the imaging information storage means and the contour information stored in the shape storage means, the shape storage means 3 based on the stored contour information and the height of the object set by the height setting means.
Since the three-dimensional shape forming means for forming the three-dimensional shape is provided, the accurate height of the building can be obtained by simple processing, and the correct landscape can be efficiently reproduced.

【0168】さらに、高さ設定手段は、特徴部抽出手段
で抽出された特徴部と撮像情報記憶手段に記憶されてい
る撮像情報に基づいて前記特徴部の水平方向成分及び高
さ方向成分を有する3次元位置情報を演算する位置情報
演算手段を備え、前記位置情報演算手段で演算された3
次元位置情報の水平成分と輪郭情報とに基づいて対象物
に属する特徴部を抽出し、前記対象物に属する特徴部の
高さ方向成分を前記対象物の高さに設定するので、特徴
部から容易に対象物の高さを求めることができる。
Further, the height setting means has a horizontal component and a height component of the characteristic part based on the characteristic part extracted by the characteristic part extracting means and the imaging information stored in the imaging information storage means. A position information calculating means for calculating three-dimensional position information;
A feature part belonging to the object is extracted based on the horizontal component of the dimensional position information and the outline information, and a height direction component of the feature part belonging to the object is set to the height of the object. The height of the object can be easily obtained.

【0169】さらに、最も高い特徴部の高さを対象物の
高さとするので、対象物の上部の高さが一定でない場合
でも、最も高い地点の高さを想定することができ、実際
には見通しがきかないのに、見通せると誤って判定して
しまうことがなく、正しい景観を実現することができ
る。
Further, since the height of the highest feature portion is taken as the height of the object, the height of the highest point can be assumed even if the height of the upper part of the object is not constant. Even if the line of sight is not clear, it is possible to realize a correct landscape without erroneously determining that the line of sight can be seen.

【0170】また、特徴部は特徴点であるので、既存の
画像処理手法により容易に特徴部の3次元位置が演算で
き、効率よく景観を復元することができる。
Further, since the characteristic portion is a characteristic point, the three-dimensional position of the characteristic portion can be easily calculated by the existing image processing technique, and the landscape can be efficiently restored.

【0171】また、特徴部は特徴線分であるので、既存
の画像処理手法により容易に特徴部の3次元位置が演算
でき、効率よく景観を復元でき、さらに、ノイズ等が多
い画像においても正確に景観を再現することができる。
Further, since the characteristic portion is a characteristic line segment, the three-dimensional position of the characteristic portion can be easily calculated by the existing image processing method, the scene can be efficiently restored, and the image can be accurately reproduced even in an image having much noise. The scenery can be recreated.

【0172】また、特徴部は特徴領域であるので、既存
の画像処理手法により容易に特徴部の抽出及び特徴部の
3次元位置が演算でき、効率よく景観を復元できる。
Further, since the characteristic portion is a characteristic region, the extraction of the characteristic portion and the three-dimensional position of the characteristic portion can be easily calculated by the existing image processing technique, and the landscape can be efficiently restored.

【0173】また、本発明に係る景観モデリング装置
は、対象物を撮像した画像を記憶する画像記憶手段と、
前記画像の撮像時の撮像情報を記憶する撮像情報記憶手
段と、前記対象物の3次元形状を形成する3次元形状形
成手段と、前記撮像情報記憶手段に記憶されている撮像
情報に基づいて前記画像記憶手段に記憶されている対象
物と前記3次元形状形成手段により形成された前記対象
物の3次元形状とを対応づけて表示する表示手段と、前
記表示手段の表示結果に基づく入力を受けて前記対象物
の3次元形状の高さを調整する高さ調整手段を備えてい
るので、一度設定した建物の高さを変更することがで
き、より正確な景観になるように修正することができ
る。
Further, the landscape modeling device according to the present invention comprises: an image storage means for storing an image of a target object;
Imaging information storage means for storing imaging information at the time of imaging of the image, three-dimensional shape forming means for forming a three-dimensional shape of the object, and the imaging information storage means based on the imaging information stored in the imaging information storage means Display means for displaying the object stored in the image storage means in association with the three-dimensional shape of the object formed by the three-dimensional shape forming means; and receiving input based on the display result of the display means. And the height of the three-dimensional shape of the object is adjusted, so that it is possible to change the height of the building once set, and to correct the scenery more accurately. it can.

【0174】さらに、高さ調整手段は、表示結果を確認
して入力された入力情報により、表示結果に基づいて選
択された3次元形状の高さを調整するので、ユーザーが
会話的に景観を復元することができ、容易に的確な値に
変更することができる。
Further, the height adjusting means adjusts the height of the selected three-dimensional shape based on the display result based on the input information which is input after confirming the display result. It can be restored and easily changed to the correct value.

【0175】さらに、表示手段は、高さ調整手段で選択
された3次元形状と他の3次元形状とを異なる様式で表
示させるので、容易に選択された3次元形状を識別する
ことができる。
Further, the display means displays the three-dimensional shape selected by the height adjusting means and another three-dimensional shape in different formats, so that the selected three-dimensional shape can be easily identified.

【0176】さらに、表示手段は、画像記憶手段に記憶
されている対象物と3次元形状形成手段により形成され
た前記対象物の3次元形状とを異なる様式で表示させる
ので、容易に選択された建物を識別することができる。
Further, since the display means displays the object stored in the image storage means and the three-dimensional shape of the object formed by the three-dimensional shape forming means in different formats, the display means is easily selected. The building can be identified.

【0177】また、本発明に係る景観モデリング装置
は、対象物に対応した地図を記憶する地図記憶手段と、
前記対象物の水平断面の輪郭情報を記憶する形状記憶手
段と、前記形状記憶手段に記憶されている輪郭情報に基
づいて前記対象物の3次元形状を形成する3次元形状形
成手段と、前記撮像情報記憶手段に記憶されている撮像
情報に基づいて前記画像記憶手段に記憶されている対象
物と前記3次元形状形成手段により形成された前記対象
物の3次元形状とを対応づけて表示するとともに、前記
地図記憶手段に記憶されている地図上の対象物と前記形
状記憶手段に記憶されている輪郭情報により形成される
輪郭とを対応づけて表示する表示手段と、前記表示手段
の表示結果に基づく入力を受けて前記対象物の輪郭情報
を修正する修正手段を備えているので、一度設定した輪
郭の位置や形状を修正することができ、より正確な景観
になるように修正することができる。また、地図上の対
象物と輪郭との位置関係が明確となり容易に輪郭の位置
や形状を修正することができる。
[0177] The landscape modeling device according to the present invention includes a map storage means for storing a map corresponding to an object,
Shape storage means for storing contour information of a horizontal cross section of the object; three-dimensional shape forming means for forming a three-dimensional shape of the object based on the contour information stored in the shape storage means; Displaying the object stored in the image storage unit and the three-dimensional shape of the object formed by the three-dimensional shape forming unit in association with each other based on the imaging information stored in the information storage unit; Display means for displaying the object on the map stored in the map storage means and the contour formed by the contour information stored in the shape storage means in association with each other; Correction means for correcting the contour information of the target object based on the input based on the input information, so that the position and shape of the contour once set can be corrected, so that a more accurate landscape can be corrected. Rukoto can. Further, the positional relationship between the object on the map and the contour becomes clear, and the position and shape of the contour can be easily corrected.

【0178】さらに、修正手段は、表示結果を確認して
入力された入力情報により、表示結果に基づいて選択さ
れた輪郭の輪郭情報を修正するので、ユーザーが会話的
に輪郭情報を修正することができ、容易に的確な景観を
復元することができる。
Further, the correction means corrects the outline information of the selected outline based on the display result based on the input information inputted after confirming the display result, so that the user can interactively correct the outline information. It is possible to easily restore an accurate landscape.

【0179】さらに、表示手段は、修正手段で選択され
た輪郭と他の輪郭とを異なる様式で表示させるので、容
易に選択された輪郭を識別することができる。
Further, the display means displays the outline selected by the correction means and another outline in different modes, so that the selected outline can be easily identified.

【0180】また、修正手段は、輪郭の位置を修正する
ので、輪郭情報による輪郭の位置と地図上の位置とが異
なっている場合でも、適切な位置になるように輪郭情報
を修正することができる。
Further, since the correcting means corrects the position of the contour, even if the position of the contour according to the contour information is different from the position on the map, it is possible to correct the contour information so as to be an appropriate position. it can.

【0181】また、修正手段は、輪郭の形状を修正する
ので、輪郭情報による輪郭の形状と地図上の形状とが異
なっている場合でも、適切な形状になるように輪郭情報
を修正することができる。
Further, since the correcting means corrects the shape of the contour, even if the shape of the contour based on the contour information is different from the shape on the map, the correcting means can correct the contour information so as to have an appropriate shape. it can.

【0182】さらに、表示手段は、地図記憶手段に記憶
されている地図上の対象物と形状記憶手段に記憶されて
いる輪郭情報により形成される輪郭とを異なる様式で表
示させるので、容易に選択された建物を識別することが
できる。
Further, the display means displays the object on the map stored in the map storage means and the contour formed by the contour information stored in the shape storage means in different formats, so that the display means can be easily selected. The building that was done can be identified.

【0183】また、修正手段は、新たな輪郭を追加する
ので、複数の輪郭を有する建物形状を得ることができ、
より正確な景観を実現することができる。
Also, since the correction means adds a new contour, a building shape having a plurality of contours can be obtained.
A more accurate landscape can be realized.

【0184】さらに、3次元形状形成手段は、新たな輪
郭に関する輪郭情報をも含めて3次元形状を形成するの
で、例えば、対象物にビルの給水塔や集合住宅のエレベ
ータ等、輪郭情報に含まれていない形状が存在する場合
に、これらの形状をも考慮して、より正確な建物形状を
得ることができる。
Further, since the three-dimensional shape forming means forms the three-dimensional shape including the contour information relating to the new contour, the three-dimensional shape forming means includes, for example, the object such as a water tower of a building or an elevator of an apartment house in the contour information. If there are shapes that are not present, a more accurate building shape can be obtained in consideration of these shapes.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態1の景観モデリング装置
を示す図である。
FIG. 1 is a diagram illustrating a landscape modeling device according to a first embodiment of the present invention.

【図2】 対象物及びこの対象物を撮像した画像を示す
図である。
FIG. 2 is a diagram showing an object and an image obtained by capturing the object.

【図3】 撮像情報記憶装置に記憶される撮像情報を示
す図である。
FIG. 3 is a diagram showing imaging information stored in an imaging information storage device.

【図4】 地図及び地図から形成されたポリゴンを示す
図である。
FIG. 4 is a diagram showing a map and polygons formed from the map.

【図5】 形状記憶装置に記憶されるポリゴンに関する
情報を示す図である。
FIG. 5 is a diagram showing information on polygons stored in a shape storage device.

【図6】 本発明の実施の形態1の動作を説明するため
の図である。
FIG. 6 is a diagram for explaining the operation of the first embodiment of the present invention.

【図7】 本発明の実施の形態1の動作を示すフローチ
ャートである。
FIG. 7 is a flowchart showing the operation of the first embodiment of the present invention.

【図8】 本発明の実施の形態1の動作を示すフローチ
ャートである。
FIG. 8 is a flowchart showing the operation of the first embodiment of the present invention.

【図9】 本発明の実施の形態1の動作を説明するため
の図である。
FIG. 9 is a diagram for explaining the operation of the first embodiment of the present invention.

【図10】 本発明の実施の形態1の動作を示すフロー
チャートである。
FIG. 10 is a flowchart showing the operation of the first embodiment of the present invention.

【図11】 本発明の実施の形態2の景観モデリング装
置を示す図である。
FIG. 11 is a diagram illustrating a landscape modeling device according to a second embodiment of the present invention.

【図12】 本発明の実施の形態2の動作を説明するた
めの図である。
FIG. 12 is a diagram for explaining an operation according to the second embodiment of the present invention.

【図13】 本発明の実施の形態2の動作を示すフロー
チャートである。
FIG. 13 is a flowchart showing an operation according to the second embodiment of the present invention.

【図14】 本発明の実施の形態2の動作を示すフロー
チャートである。
FIG. 14 is a flowchart showing the operation of the second embodiment of the present invention.

【図15】 本発明の実施の形態2の動作を示すフロー
チャートである。
FIG. 15 is a flowchart showing the operation of the second embodiment of the present invention.

【図16】 本発明の実施の形態3の景観モデリング装
置を示す図である。
FIG. 16 is a diagram illustrating a landscape modeling device according to a third embodiment of the present invention.

【図17】 本発明の実施の形態3の動作を説明するた
めの図である。
FIG. 17 is a diagram for explaining the operation of the third embodiment of the present invention.

【図18】 本発明の実施の形態4の景観モデリング装
置を示す図である。
FIG. 18 is a diagram illustrating a landscape modeling device according to a fourth embodiment of the present invention.

【図19】 本発明の実施の形態4の動作を説明するた
めの図である。
FIG. 19 is a diagram for explaining the operation of the fourth embodiment of the present invention.

【図20】 本発明の実施の形態4の動作を示すフロー
チャートである。
FIG. 20 is a flowchart showing the operation of the fourth embodiment of the present invention.

【図21】 本発明の実施の形態5の景観モデリング装
置を示す図である。
FIG. 21 is a diagram illustrating a landscape modeling device according to a fifth embodiment of the present invention.

【図22】 本発明の実施の形態5の動作を示すフロー
チャートである。
FIG. 22 is a flowchart showing an operation according to the fifth embodiment of the present invention.

【図23】 本発明の実施の形態5の動作を説明するた
めの図である。
FIG. 23 is a diagram for explaining the operation of the fifth embodiment of the present invention.

【図24】 本発明の実施の形態5の動作を説明するた
めの図である。
FIG. 24 is a diagram for explaining the operation of the fifth embodiment of the present invention.

【図25】 本発明の実施の形態5の動作を説明するた
めの図である。
FIG. 25 is a diagram for explaining the operation of the fifth embodiment of the present invention.

【図26】 本発明の実施の形態5の動作を説明するた
めの図である。
FIG. 26 is a diagram for explaining the operation of the fifth embodiment of the present invention.

【図27】 本発明の実施の形態6の景観モデリング装
置を示す図である。
FIG. 27 is a diagram illustrating a landscape modeling device according to a sixth embodiment of the present invention.

【図28】 本発明の実施の形態6の動作を説明するた
めの図である。
FIG. 28 is a diagram for explaining the operation of the sixth embodiment of the present invention.

【図29】 本発明の実施の形態6の動作を示すフロー
チャートである。
FIG. 29 is a flowchart showing the operation of the sixth embodiment of the present invention.

【図30】 従来の景観モデリング装置を示すブロック
図である。
FIG. 30 is a block diagram showing a conventional landscape modeling device.

【図31】 地図、ポリゴン、及び高さ情報を示す図で
ある。
FIG. 31 is a diagram showing a map, polygons, and height information.

【図32】 従来の景観モデリング装置の動作を説明す
るための図である。
FIG. 32 is a diagram for explaining the operation of a conventional landscape modeling device.

【符号の説明】[Explanation of symbols]

1 画像記憶装置 2 撮像情報記憶
装置 3 形状情報記憶装置 4 特徴部抽出装
置 5 位置演算装置 6 高さ設定装置 7 3次元形状形成装置 8 表示装置 9 対象物 10 撮像地点 11 画像 12 画像上の対
象物 13 地図 14 地図上の対
象物形状 15 ポリゴン 16 特徴点 17 画像上の特徴点 18 視線ベクト
ル 19 光軸ベクトル 20 特徴点に対
応する位置 20a エピポーラ直線 21 特徴部抽出
装置 22 位置演算装置 23 高さ設定装
置 24 エッジ 31 特徴部抽出
装置 32 位置演算装置 33 高さ設定装
置 34 領域 35 重心 41 形状情報記憶装置 42 3次元形状
形成装置 43 表示装置 44 入力装置 45 高さ調整装置 46 ディスプレ
イ上の景観 47 画像 48 ディスプレ
イ上の3次元形状 48a 建物形状を構成する辺 49 カーソル 51 地図記憶装置 52 地図描画装
置 53 表示装置 54 形状調整装
置 55 表示部 56 ポリゴン 61 形状追加装置 62 突起部分 63 ポリゴン 101 ポリゴンデータ記憶装置 102 標高デー
タ記憶装置 103 演算装置 104 表示装置 105 地図 106 地図上の
建物 107 ディスプレイ上の景観 108 3次元建
物形状 109 建物の底面 110 建物の平
均的高さ
REFERENCE SIGNS LIST 1 image storage device 2 imaging information storage device 3 shape information storage device 4 feature extraction device 5 position calculation device 6 height setting device 7 three-dimensional shape forming device 8 display device 9 object 10 imaging point 11 image 12 object on image Object 13 Map 14 Object shape on map 15 Polygon 16 Feature point 17 Feature point on image 18 Line of sight vector 19 Optical axis vector 20 Position corresponding to feature point 20a Epipolar straight line 21 Feature extraction unit 22 Position calculation unit 23 Height Setting device 24 Edge 31 Feature extraction device 32 Position calculation device 33 Height setting device 34 Area 35 Center of gravity 41 Shape information storage device 42 Three-dimensional shape forming device 43 Display device 44 Input device 45 Height adjustment device 46 Landscape on display 47 Image 48 3D shape on display 48a Sides 4 that make up building shape Cursor 51 Map storage device 52 Map drawing device 53 Display device 54 Shape adjustment device 55 Display unit 56 Polygon 61 Shape addition device 62 Projection part 63 Polygon 101 Polygon data storage device 102 Elevation data storage device 103 Computing device 104 Display device 105 Map 106 Map Upper building 107 Landscape on display 108 Three-dimensional building shape 109 Bottom of building 110 Average height of building

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 同一の対象物を異なる方向から撮像した
少なくとも2つの画像を記憶する画像記憶手段と、前記
各画像の撮像時の撮像情報を記憶する撮像情報記憶手段
と、前記対象物の水平断面の輪郭情報を記憶する形状記
憶手段と、前記画像記憶手段に記憶されている各画像の
特徴部を抽出する特徴部抽出手段と、前記特徴部抽出手
段で抽出された特徴部、前記撮像情報記憶手段に記憶さ
れている撮像情報及び前記形状記憶手段に記憶されてい
る輪郭情報に基づいて前記対象物の高さを求める高さ設
定手段と、前記形状記憶手段に記憶されている輪郭情報
及び前記高さ設定手段で設定された対象物の高さに基づ
いて前記対象物の3次元形状を形成する3次元形状形成
手段とを備えた景観モデリング装置。
1. An image storage means for storing at least two images of the same object taken from different directions, an imaging information storage means for storing imaging information when each of the images is taken, Shape storage means for storing section outline information; feature extraction means for extracting a feature of each image stored in the image storage means; a feature extracted by the feature extraction means; Height setting means for obtaining the height of the object based on the imaging information stored in the storage means and the contour information stored in the shape storage means, and the contour information stored in the shape storage means A landscape modeling device comprising: a three-dimensional shape forming unit that forms a three-dimensional shape of the object based on the height of the object set by the height setting unit.
【請求項2】 高さ設定手段は、特徴部抽出手段で抽出
された特徴部と撮像情報記憶手段に記憶されている撮像
情報に基づいて前記特徴部の水平方向成分及び高さ方向
成分を有する3次元位置情報を演算する位置情報演算手
段を備え、前記位置情報演算手段で演算された3次元位
置情報の水平成分と輪郭情報とに基づいて対象物に属す
る特徴部を抽出し、前記対象物に属する特徴部の高さ方
向成分を前記対象物の高さに設定することを特徴とする
請求項1記載の景観モデリング装置。
2. The height setting means has a horizontal direction component and a height direction component of the characteristic part based on the characteristic part extracted by the characteristic part extraction part and the imaging information stored in the imaging information storage part. A position information calculating means for calculating three-dimensional position information; extracting a characteristic part belonging to the object based on the horizontal component and the contour information of the three-dimensional position information calculated by the position information calculating means; 2. The landscape modeling device according to claim 1, wherein a height direction component of a characteristic part belonging to the object is set to a height of the object.
【請求項3】 最も高い特徴部の高さを対象物の高さと
することを特徴とする請求項2記載の景観モデリング装
置。
3. The landscape modeling apparatus according to claim 2, wherein the height of the highest feature portion is set as the height of the object.
【請求項4】 特徴部は特徴点であることを特徴とする
請求項1〜3のいずれか1項記載の景観モデリング装
置。
4. The landscape modeling device according to claim 1, wherein the characteristic part is a characteristic point.
【請求項5】 特徴部は特徴線分であることを特徴とす
る請求項1〜3のいずれか1項記載の景観モデリング装
置。
5. The landscape modeling device according to claim 1, wherein the characteristic part is a characteristic line segment.
【請求項6】 特徴部は特徴領域であることを特徴とす
る請求項1〜3のいずれか1項記載の景観モデリング装
置。
6. The landscape modeling device according to claim 1, wherein the characteristic portion is a characteristic region.
【請求項7】 対象物を撮像した画像を記憶する画像記
憶手段と、前記画像の撮像時の撮像情報を記憶する撮像
情報記憶手段と、前記対象物の3次元形状を形成する3
次元形状形成手段と、前記撮像情報記憶手段に記憶され
ている撮像情報に基づいて前記画像記憶手段に記憶され
ている対象物と前記3次元形状形成手段により形成され
た前記対象物の3次元形状とを対応づけて表示する表示
手段と、前記表示手段の表示結果に基づく入力を受けて
前記対象物の3次元形状の高さを調整する高さ調整手段
を備えた景観モデリング装置。
7. An image storage means for storing an image of an object, an image information storage means for storing imaging information at the time of imaging the image, and an image information storage means for forming a three-dimensional shape of the object.
A three-dimensional shape forming unit, an object stored in the image storage unit based on the imaging information stored in the imaging information storage unit, and a three-dimensional shape of the object formed by the three-dimensional shape forming unit A landscape modeling apparatus comprising: display means for displaying the information in association with each other; and height adjustment means for adjusting the height of the three-dimensional shape of the object in response to an input based on the display result of the display means.
【請求項8】 高さ調整手段は、表示結果を確認して入
力された入力情報により、表示結果に基づいて選択され
た3次元形状の高さを調整することを特徴とする請求項
7記載の景観モデリング装置。
8. The apparatus according to claim 7, wherein the height adjusting means adjusts the height of the three-dimensional shape selected based on the display result based on the input information input after confirming the display result. Landscape modeling equipment.
【請求項9】 表示手段は、高さ調整手段で選択された
3次元形状と他の3次元形状とを異なる様式で表示させ
ることを特徴とする請求項8記載の景観モデリング装
置。
9. The landscape modeling device according to claim 8, wherein the display means displays the three-dimensional shape selected by the height adjusting means and another three-dimensional shape in different styles.
【請求項10】 表示手段は、画像記憶手段に記憶され
ている対象物と3次元形状形成手段により形成された前
記対象物の3次元形状とを異なる様式で表示させること
を特徴とする請求項7〜9のいずれか1項記載の景観モ
デリング装置。
10. The display unit displays the object stored in the image storage unit and the three-dimensional shape of the object formed by the three-dimensional shape forming unit in different formats. The landscape modeling device according to any one of claims 7 to 9.
【請求項11】 対象物に対応した地図を記憶する地図
記憶手段と、前記対象物の水平断面の輪郭情報を記憶す
る形状記憶手段と、前記形状記憶手段に記憶されている
輪郭情報に基づいて前記対象物の3次元形状を形成する
3次元形状形成手段と、前記撮像情報記憶手段に記憶さ
れている撮像情報に基づいて前記画像記憶手段に記憶さ
れている対象物と前記3次元形状形成手段により形成さ
れた前記対象物の3次元形状とを対応づけて表示すると
ともに、前記地図記憶手段に記憶されている地図上の対
象物と前記形状記憶手段に記憶されている輪郭情報によ
り形成される輪郭とを対応づけて表示する表示手段と、
前記表示手段の表示結果に基づく入力を受けて前記対象
物の輪郭情報を修正する修正手段を備えた景観モデリン
グ装置。
11. A map storage means for storing a map corresponding to an object, a shape storage means for storing outline information of a horizontal cross section of the object, and a shape storage means for storing the outline information stored in the shape storage means. Three-dimensional shape forming means for forming a three-dimensional shape of the object; an object stored in the image storage means based on the imaging information stored in the imaging information storage means; and the three-dimensional shape forming means Is displayed in association with the three-dimensional shape of the object formed by the above, and is formed by the object on the map stored in the map storage means and the outline information stored in the shape storage means. Display means for displaying the outline in association with;
A landscape modeling device comprising a correction unit that corrects contour information of the object in response to an input based on a display result of the display unit.
【請求項12】 修正手段は、表示結果を確認して入力
された入力情報により、表示結果に基づいて選択された
輪郭の輪郭情報を修正することを特徴とする請求項11
記載の景観モデリング装置。
12. The method according to claim 11, wherein the correction unit corrects the outline information of the outline selected based on the display result, based on the input information input after confirming the display result.
A landscape modeling device as described.
【請求項13】 表示手段は、修正手段で選択された輪
郭と他の輪郭とを異なる様式で表示させることを特徴と
する請求項12記載の景観モデリング装置。
13. The landscape modeling apparatus according to claim 12, wherein the display means displays the outline selected by the correction means and another outline in different modes.
【請求項14】 修正手段は、輪郭の位置を修正するこ
とを特徴とする請求項11〜13のいずれか1項記載の
景観モデリング装置。
14. The landscape modeling device according to claim 11, wherein the correction unit corrects a position of the contour.
【請求項15】 修正手段は、輪郭の形状を修正するこ
とを特徴とする請求項11〜14のいずれか1項記載の
景観モデリング装置。
15. The landscape modeling device according to claim 11, wherein the correction unit corrects a shape of the contour.
【請求項16】 表示手段は、地図記憶手段に記憶され
ている地図上の対象物と形状記憶手段に記憶されている
輪郭情報により形成される輪郭とを異なる様式で表示さ
せることを特徴とする請求項11〜15のいずれか1項
記載の景観モデリング装置。
16. The display means displays an object on the map stored in the map storage means and a contour formed by the contour information stored in the shape storage means in different formats. The landscape modeling device according to any one of claims 11 to 15.
【請求項17】 修正手段は、新たな輪郭を追加するこ
とを特徴とする請求項11〜16のいずれか1項記載の
景観モデリング装置。
17. The landscape modeling apparatus according to claim 11, wherein the correction unit adds a new contour.
【請求項18】 3次元形状形成手段は、新たな輪郭に
関する輪郭情報をも含めて3次元形状を形成することを
特徴とする請求項17記載の景観モデリング装置。
18. The landscape modeling apparatus according to claim 17, wherein the three-dimensional shape forming means forms a three-dimensional shape including contour information on a new contour.
JP14147898A 1998-05-22 1998-05-22 Landscape modeling device Expired - Fee Related JP3791186B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14147898A JP3791186B2 (en) 1998-05-22 1998-05-22 Landscape modeling device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14147898A JP3791186B2 (en) 1998-05-22 1998-05-22 Landscape modeling device

Publications (2)

Publication Number Publication Date
JPH11339074A true JPH11339074A (en) 1999-12-10
JP3791186B2 JP3791186B2 (en) 2006-06-28

Family

ID=15292831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14147898A Expired - Fee Related JP3791186B2 (en) 1998-05-22 1998-05-22 Landscape modeling device

Country Status (1)

Country Link
JP (1) JP3791186B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006680A (en) * 2001-06-20 2003-01-10 Zenrin Co Ltd Method for generating three-dimensional electronic map data
JP2004086266A (en) * 2002-08-23 2004-03-18 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for acquiring shape and recording medium with the program recorded thereon
US6970593B2 (en) 2000-11-22 2005-11-29 Nec Corporation Stereo image processing apparatus and method of processing stereo image
US7149346B2 (en) 2001-11-02 2006-12-12 Nec Toshiba Space Systems, Ltd. Three-dimensional database generating system and method for generating three-dimensional database
JPWO2007010596A1 (en) * 2005-07-19 2009-01-29 富士通株式会社 Image judgment method
JP2009511965A (en) * 2005-10-17 2009-03-19 テレ アトラス ノース アメリカ インコーポレイテッド How to generate an enhanced map
JP2014170388A (en) * 2013-03-04 2014-09-18 Mitsubishi Electric Corp Image drawing device
KR20220153082A (en) 2020-03-30 2022-11-17 가부시키가이샤 반다이나무꼬 엔터테인먼트 Computer system, virtual model generation control method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6970593B2 (en) 2000-11-22 2005-11-29 Nec Corporation Stereo image processing apparatus and method of processing stereo image
JP2003006680A (en) * 2001-06-20 2003-01-10 Zenrin Co Ltd Method for generating three-dimensional electronic map data
US7149346B2 (en) 2001-11-02 2006-12-12 Nec Toshiba Space Systems, Ltd. Three-dimensional database generating system and method for generating three-dimensional database
JP2004086266A (en) * 2002-08-23 2004-03-18 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for acquiring shape and recording medium with the program recorded thereon
JPWO2007010596A1 (en) * 2005-07-19 2009-01-29 富士通株式会社 Image judgment method
JP4751886B2 (en) * 2005-07-19 2011-08-17 富士通株式会社 Image judgment method
JP2009511965A (en) * 2005-10-17 2009-03-19 テレ アトラス ノース アメリカ インコーポレイテッド How to generate an enhanced map
JP2014170388A (en) * 2013-03-04 2014-09-18 Mitsubishi Electric Corp Image drawing device
KR20220153082A (en) 2020-03-30 2022-11-17 가부시키가이샤 반다이나무꼬 엔터테인먼트 Computer system, virtual model generation control method, and program

Also Published As

Publication number Publication date
JP3791186B2 (en) 2006-06-28

Similar Documents

Publication Publication Date Title
US20240029200A1 (en) Method and system for image generation
JP6220486B1 (en) 3D model generation system, 3D model generation method, and program
US7509241B2 (en) Method and apparatus for automatically generating a site model
CA2662355C (en) Mosaic oblique images and methods of making and using same
US7218318B2 (en) Server and client for improving three-dimensional air excursion and method and programs thereof
CA3134440A1 (en) System and method for virtual modeling of indoor scenes from imagery
CN104835138A (en) Aligning ground based images and aerial imagery
Pylvanainen et al. Automatic alignment and multi-view segmentation of street view data using 3d shape priors
CN109255808B (en) Building texture extraction method and device based on oblique images
KR100816589B1 (en) Image processing device
CN105358937A (en) Positioning method for a surveying instrument and said surveying instrument
JP2010109783A (en) Electronic camera
CN102959946A (en) Augmenting image data based on related 3d point cloud data
CN110245199B (en) Method for fusing large-dip-angle video and 2D map
CN108416385A (en) It is a kind of to be positioned based on the synchronization for improving Image Matching Strategy and build drawing method
CN109064533B (en) 3D roaming method and system
JP3791186B2 (en) Landscape modeling device
CN109978997A (en) A kind of transmission line of electricity three-dimensional modeling method and system based on inclination image
US11043019B2 (en) Method of displaying a wide-format augmented reality object
JP3437671B2 (en) Landmark recognition device and landmark recognition method
JPH06348815A (en) Method for setting three-dimensional model of building aspect in cg system
CN115187736A (en) Target map generation method and device, and AR map generation method and device
Zhu et al. Skyline Matching: A robust registration method between Video and GIS
Frohlich et al. 3D–2D Data Fusion in Cultural Heritage Applications
RU2826369C1 (en) Method and system for automated construction of virtual 3d scene based on two-dimensional spherical photo panoramas

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060327

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110414

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120414

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120414

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140414

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees