JPH06332993A - Scene analysis and prediction system - Google Patents

Scene analysis and prediction system

Info

Publication number
JPH06332993A
JPH06332993A JP5148592A JP14859293A JPH06332993A JP H06332993 A JPH06332993 A JP H06332993A JP 5148592 A JP5148592 A JP 5148592A JP 14859293 A JP14859293 A JP 14859293A JP H06332993 A JPH06332993 A JP H06332993A
Authority
JP
Japan
Prior art keywords
image
landscape
data
dimensional
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5148592A
Other languages
Japanese (ja)
Inventor
Shunji Fujisaki
俊二 藤崎
Sadao Hayashi
貞雄 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujita Corp
Original Assignee
Fujita Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujita Corp filed Critical Fujita Corp
Priority to JP5148592A priority Critical patent/JPH06332993A/en
Publication of JPH06332993A publication Critical patent/JPH06332993A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PURPOSE:To easily predict and evaluate the scenes corresponding to various developments in the interactive form while seeing the picture on a display screen. CONSTITUTION:Contour lines and plan site boundary lines are read from the topographical chart of a region as the object of scene analysis and prediction by the digitizer of a graphic reader 10, and contour line information is converted to mesh data of the height above the sea level by a picture processor 12 to obtain three-dimensional analysis data of the scene, and three-dimensional data of a structure to be constructed in the plan site is synthesized with mesh data to generate three-dimensional picture data for scene model, and the coincidence processing between the topographic picture in this scene model picture and the point of view of the structure picture is performed, and thereafter, the scene model picture is generated by the form adjustment processing of the structure, and this scene model picture is seen to analyze and evaluate how the structure has an influence upon circumstances of the plan region.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、環境計画、環境保全対
策、及び環境アセスメントにおける景観の分野におい
て、自然環境や生活環境の中に構造物等を構築するとき
に、その計画、設計における景観の事前評価に利用され
る景観の解析・予測システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a landscape in the planning and design of a structure or the like when constructing a structure in a natural environment or a living environment in the field of landscape in environmental planning, environmental conservation measures, and environmental assessment. Landscape analysis / prediction system used for pre-evaluation.

【0002】[0002]

【従来の技術】近年、土木事業においては、これが自然
環境や生活環境に及ぼす影響を、計画・設計の段階で把
握・評価し、質的な検討を行うことにより、将来に及ぼ
す影響を正確に予測することが必要になり、計画・設計
における事前評価のための環境要素の一つとして定着し
つつある。従来、このような自然環境や生活環境の中に
構造物を構築することによる景観を、計画・設計の段階
で解析・予測し、事前評価する手法としては、類似地区
の事例を参考にする定性的なもの、縮尺模型あるいはパ
ース等の絵によるものが主である。また、景観評価その
他の解析に用いる地形データ(標高など)の取得につい
ては、時間と人手をかけて丹念に読み取る方法が用いら
れている。さらに、合成写真(風景とパース)によるモ
ンタージュ作成については、専門の技術者に依頼して、
風景写真上に視点及び視角等を考慮した上で構造物等を
描画していく方法を採っていた。
2. Description of the Related Art In recent years, in the civil engineering business, the impact on the natural environment and living environment is grasped and evaluated at the planning and designing stage, and qualitative examination is conducted to accurately determine the impact on the future. It is necessary to make predictions, and it is becoming established as one of the environmental factors for prior evaluation in planning and design. Conventionally, as a method of analyzing and predicting the landscape by constructing structures in such natural environment and living environment at the planning and designing stage and evaluating it in advance, the qualitative method is based on the cases of similar areas. Most of them are traditional ones, scale models, or drawings such as perspectives. In addition, for the acquisition of topographical data (elevation, etc.) used for landscape evaluation and other analysis, a method of carefully reading the time and labor is used. Furthermore, regarding the creation of montages from composite photographs (landscapes and perspectives), we ask a professional engineer to
The method of drawing a structure, etc. on a landscape photograph after considering the viewpoint and viewing angle was adopted.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述の
ような従来の技術では、景観の事前評価に必要な地形デ
ータを取得する場合、その読み取り作業のほとんどは人
手に依存しているため、その入力作業に多くの時間と人
手を要するほか、地形データの読み取り過程における人
為的なミスが生じ易く、データのチェック及び管理の面
での不具合がある。また、景観を評価する合成写真を作
成する場合においても、予め撮影し現像焼き付けした風
景写真上に構造物等を専門の技術者により手描きにて直
接描画する方式を採っているため、合成写真の作成に時
間がかかり、しかも、データに修正が生じた場合には、
合成写真の作成を最初から行わなければならない。ま
た、景観に対する視点を変えるごとに上記と同様な作業
手順を取る必要があるため、合成写真の作成には、更に
多くの労力と時間が必要になるとともに、人為的なミス
による手戻りも必然的に増加するという問題があった。
However, in the conventional technique as described above, when acquiring the terrain data necessary for the preliminary evaluation of the landscape, most of the reading work depends on the human hand, and therefore, the inputting of the data is required. In addition to requiring a lot of time and labor for the work, human error is likely to occur in the process of reading the topographic data, and there is a problem in terms of data check and management. In addition, even when creating a composite photo that evaluates the landscape, a method in which a specialized engineer directly draws structures, etc. directly on the landscape photo that was previously taken and developed and printed is used. If it takes a long time to create and the data is modified,
You have to create a composite photo from the beginning. Also, because it is necessary to take the same work procedure as above each time the viewpoint for the landscape is changed, more effort and time are required to create the composite photograph, and it is also necessary to rework due to human error. There was a problem that it would increase.

【0004】本発明は、上述のような事情に鑑みなされ
たものであり、その目的とするとろは、景観の予測、評
価を表示画面上の画像を見ながら対話形式で容易に行う
ことができる景観の解析・予測システムを提供すること
にある。
The present invention has been made in view of the above circumstances, and its purpose is to easily predict and evaluate a landscape interactively while viewing an image on a display screen. To provide a landscape analysis / prediction system.

【0005】[0005]

【課題を解決するための手段】前記目的を達成するため
に請求項1の発明は、景観の解析・予測の対象となる地
域の地形図から等高線を読み取る図形読取手段と、前記
読み取った等高線を標高メッシュデータに変換して対象
地域の地形に対する各種視点からの3次元画像データを
生成する第1の画像処理手段と、前記対象地域内に構築
される構造物の計画図より構造物に対する各種視点から
の3次元画像データを生成する第2の画像処理手段と、
前記地形の3次元画像データと前記構造物の3次元画像
データとを合成して構造物とその背景からなる3次元の
景観モデル画像を構成する画像データ合成処理手段と、
前記景観モデル画像を表示する表示手段と、前記表示手
段に表示される景観モデル画像中の構造物の形態を入力
指令に基づいて調整し、該構造物とその背景とからなる
景観モデル画像から対象地域の環境に及ぼす影響を予測
し評価する解析処理手段とを備える構成にした。
In order to achieve the above-mentioned object, the invention of claim 1 is a graphic reading means for reading contour lines from a topographic map of an area which is an object of landscape analysis / prediction, and the read contour lines. First image processing means for converting into elevation mesh data to generate three-dimensional image data from various viewpoints for the topography of the target area, and various viewpoints for the structure from the plan of the structure constructed in the target area. Second image processing means for generating three-dimensional image data from
Image data composition processing means for composing the three-dimensional image data of the terrain and the three-dimensional image data of the structure to form a three-dimensional landscape model image of the structure and the background thereof,
The display means for displaying the landscape model image and the form of the structure in the landscape model image displayed on the display means are adjusted based on an input command, and the landscape model image composed of the structure and the background is used as an object. The analysis processing means for predicting and evaluating the influence on the local environment is provided.

【0006】また、請求項2の発明は、景観の解析・予
測の対象となる地域の景観現況映像を読み込む画像入力
手段と、前記対象地域内に構築される構造物の計画図よ
り構造物に対する各種視点からの3次元画像データを生
成する画像処理手段と、前記景観現況映像の画像データ
と前記構造物の3次元画像データとを合成して構造物と
その背景とからなる景観モデル画像を構成する画像デー
タ合成処理手段と、前記景観モデル画像を表示する表示
手段と、前記表示手段に表示される景観モデル画像中の
構造物の形態を入力指令に基づいて調整し、該構造物と
その背景とからなる景観モデル画像から対象地域の環境
に及ぼす影響を予測し評価する解析処理手段とを備える
構成にした。
According to the second aspect of the present invention, an image input means for reading a current landscape image of a region to be analyzed / predicted from the landscape, and a plan view of a structure constructed in the target region are used for the structure. Image processing means for generating three-dimensional image data from various viewpoints, image data of the current landscape image and three-dimensional image data of the structure are combined to form a landscape model image composed of the structure and its background. Image data synthesizing processing means, display means for displaying the landscape model image, and the form of the structure in the landscape model image displayed on the display means is adjusted based on an input command, and the structure and its background The analysis processing means for predicting and evaluating the influence on the environment of the target area from the landscape model image consisting of and is configured.

【0007】[0007]

【実施例】以下、本発明の一実施例を図面に基づいて説
明する。図1は、本発明による景観の解析・予測システ
ムの構成図である。図1において、10は景観の解析・
予測の対象となる地域の地形図、対象地域の計画図、対
象地域に構築される構造物の設計図、植生図等を読み取
る図形読取装置であり、この図形読取装置10はディジ
タイザ及びこのディジタイザで読み取った図形の2次元
位置情報を2値化する処理部等から構成される。11は
景観解析・予測の対象となる地域を各視点から撮影した
スチール写真、ビデオ映像、パース等の画像情報を読み
取る画像入力装置であり、この画像入力装置11はイメ
ージスキャナー、スキャンコンバータ等から構成され
る。即ち、スチール写真及びパースの画像読み取りには
イメージスキャナーが使用され、ビデオ映像の読み込み
にはスキャンコンバータが使用される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a landscape analysis / prediction system according to the present invention. In Fig. 1, 10 is a landscape analysis
The figure reading device 10 is a figure reading device for reading a topographical map of a target area of a prediction, a plan drawing of the target area, a design drawing of a structure constructed in the target area, a vegetation map, etc. This figure reading device 10 is a digitizer and this digitizer. It is composed of a processing unit for binarizing the two-dimensional position information of the read figure. Reference numeral 11 is an image input device for reading image information such as still photographs, video images and perspectives taken from each viewpoint of the area subject to landscape analysis / prediction. This image input device 11 is composed of an image scanner, scan converter, etc. To be done. That is, an image scanner is used to read still and perspective images, and a scan converter is used to read video images.

【0008】図1中、12は図形読取装置10により読
み取られた図形の2次元位置データ及び画像入力装置1
1により読み込まれた画像データを解析・変換・合成処
理する画像処理装置であり、この画像処理装置12に
は、処理された図形データ及び画像データを格納する記
憶装置13が接続されているとともに、画像処理をリア
ルタイムに高速で行うための画像処理を兼ねたホストプ
ロセッサ14が接続されている。15は記憶装置13に
接続された画像出力装置であり、この画像出力装置15
はCRT等から構成される。また、記憶装置13及び画
像出力装置15はホストプロセッサ14により制御され
管理される。16はホストプロセッサ14に接続した入
力装置であり、この入力装置16はキーボード等から構
成される。
In FIG. 1, reference numeral 12 denotes two-dimensional position data of a graphic read by the graphic reading device 10 and the image input device 1.
1 is an image processing apparatus for analyzing, converting, and synthesizing image data read by 1. The image processing apparatus 12 is connected to a storage device 13 for storing processed graphic data and image data, and A host processor 14 that also serves as image processing for performing image processing in real time at high speed is connected. Reference numeral 15 denotes an image output device connected to the storage device 13.
Is composed of a CRT or the like. The storage device 13 and the image output device 15 are controlled and managed by the host processor 14. Reference numeral 16 is an input device connected to the host processor 14, and the input device 16 is composed of a keyboard and the like.

【0009】なお、上記実施例の構成において、図形読
取装置10が画像読取手段を、画像入力装置11が画像
入力手段を、画像処理装置12が第1、第2の画像処理
手段及び解析処理手段を、画像出力装置15が表示手段
をそれぞれ構成している。
In the configuration of the above embodiment, the graphic reading device 10 serves as the image reading means, the image input device 11 serves as the image input means, and the image processing device 12 serves as the first and second image processing means and analysis processing means. The image output device 15 constitutes display means.

【0010】次に、上記のように構成された本実施例の
動作について、図2〜図7を参照して説明する。まず、
地形図の等高線から3次元の地形データを生成する場合
の処理手順を図2に示すフローチャートを参照して説明
する。対象地域の景観の解析・予測に際しては、まず、
図4に示す地形図を図形読取装置10であるディジタイ
ザ上にセットし、この地形図上の景観解析・予測の対象
となる地域の計画地境界線及び該計画地内の等高線をデ
ィジタイザのフリーカーソルでなぞることにより、計画
地境界線及び各等高線を読み取る。即ち、フリーカーソ
ルを計画地境界線または等高線に沿い移動しながらフリ
ーカーソルの座標ピックアップ用ボタンをプッシュ操作
することにより、計画地境界線及び各等高線を2次元位
置情報(座標)として収集する。これらの2次元位置情
報はA/D変換(2値化)された後、画像処理装置12
に出力される(ステップS1)。なお、等高線の2次元
位置情報を収集する場合は、それぞれの等高線に対応す
る高度データと等高線であることを表わす識別データを
ディジタイザ付属のキーボードから入力する。また、計
画地境界線の2次元位置情報を収集する場合もこれを識
別するための識別データをキーボードから入力する。
Next, the operation of the present embodiment configured as described above will be described with reference to FIGS. First,
A processing procedure for generating three-dimensional topographical data from contour lines of a topographical map will be described with reference to the flowchart shown in FIG. When analyzing and forecasting the landscape of the target area, first,
The topographic map shown in FIG. 4 is set on the digitizer which is the figure reading device 10, and the boundary line of the planned area of the area which is the target of the landscape analysis / prediction on this topographic map and the contour lines within the planned area are free cursor of the digitizer. The trace of the planned site and each contour line is read by tracing. That is, by pushing the coordinate pickup button of the free cursor while moving the free cursor along the planned land boundary line or contour line, the planned land boundary line and each contour line are collected as two-dimensional position information (coordinates). After these two-dimensional position information is A / D converted (binarized), the image processing device 12
Is output (step S1). In the case of collecting the two-dimensional position information of contour lines, altitude data corresponding to each contour line and identification data indicating the contour line are input from the keyboard attached to the digitizer. Also, when collecting the two-dimensional position information of the planned boundary line, the identification data for identifying this is input from the keyboard.

【0011】画像処理装置12では、地形メッシュデー
タを得るために、ステップS2においてY方向に0.1
cmのピッチ間隔で形成される261本の線の各々につ
いてX方向に0.1cmのピッチ間隔で分割されるX方
向データを生成し、さらに、ステップS3においてX方
向に0.1cmのピッチ間隔で形成される381本の線
の各々についてY方向に0.1cmのピッチ間隔で分割
されるY方向データを生成する。
In order to obtain the terrain mesh data, the image processing apparatus 12 executes 0.1 in the Y direction in step S2.
X direction data divided at a pitch interval of 0.1 cm in the X direction is generated for each of 261 lines formed at a pitch interval of cm, and further, in step S3, at a pitch interval of 0.1 cm in the X direction. For each of the 381 lines formed, Y direction data is generated which is divided in the Y direction at a pitch interval of 0.1 cm.

【0012】次に、画像処理装置12では、ステップS
4において、地形図から読み取った等高線の2次元位置
情報(座標)毎に、上記ステップS2で生成したX方向
データ及び高度データを用いてスプライン補間すること
により、等高線に応じたメッシュ間隔及び高度を算出
し、Y方向261本のX方向に伸びるメッシュデータに
変換する。さらに、ステップS4では、地形図から読み
取った等高線の2次元位置データ毎に、上記ステップS
3で生成したY方向データ及び高度データを用いてスプ
ライン補間することにより、等高線に応じたメッシュ間
隔及び高度を算出し、X方向381本のY方向に伸びる
メッシュデータに変換する。これにより、地形図から読
み取った等高線の2次元位置(座標)毎のメッシュデー
タは2つ生成されることになる。そこで、次のステップ
S5では、上記ステップS5で算出した同一座標点の2
つのメッシュデータを合成(平均化)し補正することに
より、地形に対応した正確な3次元表示用のメッシュデ
ータを生成する。このメッシュデータは記憶装置13に
格納される。
Next, in the image processing apparatus 12, step S
In 4, the spline interpolation is performed by using the X-direction data and the altitude data generated in step S2 for each two-dimensional position information (coordinates) of the contour lines read from the topographic map to determine the mesh interval and the altitude according to the contour lines. It is calculated and converted into 261 Y-direction mesh data extending in the X-direction. Further, in step S4, the above step S4 is performed for each two-dimensional position data of contour lines read from the topographic map.
By performing spline interpolation using the Y-direction data and the altitude data generated in 3, the mesh intervals and altitudes corresponding to the contour lines are calculated, and converted into 381 X-direction mesh data extending in the Y-direction. As a result, two pieces of mesh data are generated for each two-dimensional position (coordinates) of contour lines read from the topographic map. Therefore, in the next step S5, 2 of the same coordinate points calculated in step S5 are
By synthesizing (averaging) and correcting the three mesh data, accurate mesh data for three-dimensional display corresponding to the topography is generated. This mesh data is stored in the storage device 13.

【0013】一方、ステップS6では、地形図から読み
取った計画地境界線の2次元位置データから地形図上で
の計画地敷地境界を判別し、次のステップS7において
計画地敷地境界線をロジカルデータに変換する。このロ
ジカルデータは記憶装置13に格納される。
On the other hand, in step S6, the boundary of the planned site on the topographic map is determined from the two-dimensional position data of the boundary of the planned site read from the topographic map, and in the next step S7, the boundary of the planned site is logical data. Convert to. This logical data is stored in the storage device 13.

【0014】次のステップS8では、上記記憶装置13
に格納されているメッシュデータ及び計画地敷地境界に
ついてのロジカルデータを基に計画地の希望する周辺地
域からの可視及び不可視領域処理を行い、これにより、
希望の眺望地点から見た計画地形の画像データを生成す
る(ステップS9)。生成された画像データは記憶装置
13に記憶されるとともに、画像処理装置12の管理下
で画像出力装置15に出力される。画像出力装置15で
は画像データを3次元の出力信号に変換し、画像出力装
置15内蔵のCRTに出力することにより、図5に示す
ワイヤーフレームによる3次元の計画地形をCRTに表
示する。
In the next step S8, the storage device 13
Based on the mesh data stored in and the logical data about the boundary of the planned site, the visible and invisible area processing from the desired surrounding area of the planned site is performed.
Image data of the planned terrain viewed from the desired view point is generated (step S9). The generated image data is stored in the storage device 13 and is output to the image output device 15 under the control of the image processing device 12. The image output device 15 converts the image data into a three-dimensional output signal and outputs it to a CRT built in the image output device 15 to display the three-dimensional planned landform by the wire frame shown in FIG. 5 on the CRT.

【0015】また、ステップS10では、記憶装置13
に格納されているメッシュデータ及びロジカルデータを
基に特定視点位置から見た敷地内の地形の可視及び不可
視領域処理を行い、これにより、特定視点から見た地形
の画像データを生成する(ステップS11)。生成され
た画像データは記憶装置13に記憶されるとともに、画
像処理装置12の管理下で画像出力装置15に出力され
る。画像出力装置15では画像データを3次元の出力信
号に変換し、画像出力装置15内蔵のCRTに出力する
ことにより、メッシュ形態の3次元敷地内地形をCRT
に表示する。
In step S10, the storage device 13
Based on the mesh data and the logical data stored in, the visible and invisible area processing of the terrain on the site viewed from the specific viewpoint position is performed, thereby generating image data of the terrain viewed from the specific viewpoint (step S11). ). The generated image data is stored in the storage device 13 and is output to the image output device 15 under the control of the image processing device 12. The image output device 15 converts the image data into a three-dimensional output signal and outputs the signal to a CRT incorporated in the image output device 15, thereby the mesh-shaped three-dimensional site topography is displayed on the CRT.
To display.

【0016】次に、3次元地形データと対象地域に構築
される構造物の設計情報を用いて景観の予測・評価を行
う場合の処理手順を図3に示すフローチャートを参照し
て説明する。まず、計画地の3次元地形モデル(CG画
像)と計画地に構築される構造物の立体モデル(CG画
像)とを合成したときの景観の予測・評価について述べ
る。この場合は、画像処理装置12において、上記図2
のステップS5で生成した地形メッシュデータを基に計
画地形の立体表示に必要な3次元の画像データ(背景デ
ータ)を生成する(ステップS21)。
Next, a processing procedure for predicting / evaluating a landscape using the three-dimensional topographical data and the design information of the structure constructed in the target area will be described with reference to the flowchart shown in FIG. First, the prediction / evaluation of a landscape when a three-dimensional topographic model (CG image) of a planned site and a three-dimensional model (CG image) of a structure constructed on the planned site are combined will be described. In this case, in the image processing device 12, the above-mentioned FIG.
Based on the terrain mesh data generated in step S5, three-dimensional image data (background data) necessary for stereoscopic display of the planned terrain is generated (step S21).

【0017】一方、設計図から、図形読取装置10であ
るディジタイザにより、設計図から計画地に構築される
構造物図を読み取り、この読み取った構造物図情報をA
/D変換して画像処理装置12に入力する(ステップS
22)。この場合、構造物のCADデータを画像処理装
置12に取り込むようにしてもよい。画像処理装置12
では、取り込んだ2次元の画像データを基にして構造物
の立体表示に必要な3次元の画像データを生成する(ス
テップS23)。次のステップS24では、計画地形の
3次元画像データと構造物の3次元画像データとを合成
し、この合成画像データに対し陰線/陰面消去処理を施
す。その後、ステップS25において、計画地形及び構
造物の視点位置を算出し、この算出結果に基づいて計画
地形及び構造物に対する視点が同一となるように計画地
形の画像及び構造物の画像を自動的に調整する。また、
上記3次元の画像データは記憶装置13に記憶されると
ともに、画像処理装置12の管理下で画像出力装置15
に出力される。画像出力装置15では画像データを3次
元の出力信号に変換し、画像出力装置15内蔵のCRT
に出力することにより、同一視点の3次元計画地形モデ
ルと3次元構造物モデルとを合成してなる景観モデル画
像をCRTに表示する。
On the other hand, from the design drawing, the digitizer which is the figure reading device 10 reads the structure drawing constructed at the planned site from the design drawing, and the read structure drawing information is A
/ D conversion and input to the image processing device 12 (step S
22). In this case, the CAD data of the structure may be loaded into the image processing device 12. Image processing device 12
Then, the three-dimensional image data required for the three-dimensional display of the structure is generated based on the captured two-dimensional image data (step S23). In the next step S24, the three-dimensional image data of the planned landform and the three-dimensional image data of the structure are combined, and the hidden line / hidden surface erasing process is applied to the combined image data. Then, in step S25, the viewpoint position of the planned terrain and the structure is calculated, and the image of the planned terrain and the image of the structure are automatically calculated based on the calculation result so that the viewpoints for the planned terrain and the structure are the same. adjust. Also,
The three-dimensional image data is stored in the storage device 13 and the image output device 15 under the control of the image processing device 12.
Is output to. The image output device 15 converts image data into a three-dimensional output signal, and a CRT built in the image output device 15
By outputting the 3D plan topography model and the 3D structure model from the same viewpoint, the landscape model image is displayed on the CRT.

【0018】次のステップS26では、CRTの表示画
面を見ながら計画地内での構造物の形態、即ち色、質
感、形状等が構造物の背景と調和するように景観モデル
画像上で構造物の形態を調整する。この調整操作は、デ
ィジタイザ及び入力装置16を利用して行う。その後、
ステップS27において、上記調整された景観モデル画
像を見ながら構造物が計画地域の環境にどのような影響
を及ぼすかを解析し評価する。ここで、評価結果がOK
であると判断された場合は、景観モデル画像を画像出力
装置15に出力する。この画像出力装置15では、景観
モデル画像をCRTに表示するとともに、最終的な出力
要求に応じて、写真、ネガ、カラープリント、磁気ディ
スク等に出力され、コピーされる(ステップS28)。
また、ステップS27において、評価結果がNGである
と判断されたときは、ステップS26に戻り、OKが得
られるまで構造物の形態処理を繰り返し実行する。
In the next step S26, while observing the display screen of the CRT, the structure of the structure within the planned site, that is, the color, texture, shape, etc. of the structure is in harmony with the background of the structure. Adjust the morphology. This adjusting operation is performed using the digitizer and the input device 16. afterwards,
In step S27, how the structure affects the environment in the planned area is analyzed and evaluated while viewing the adjusted landscape model image. Here, the evaluation result is OK
If it is determined that, the landscape model image is output to the image output device 15. The image output device 15 displays the landscape model image on the CRT, and outputs it to a photograph, a negative, a color print, a magnetic disk, or the like and copies it according to the final output request (step S28).
If it is determined in step S27 that the evaluation result is NG, the process returns to step S26, and the structural form process is repeatedly executed until OK is obtained.

【0019】次に、計画地域の現況スチール写真と構造
物画像とを合成して景観を評価する場合について、図3
を参照して説明する。この場合は、計画地域を撮影した
図6に示すようなスチール写真を画像入力装置11の1
つであるイメージスキャナーにより読み取り、A/D変
換して画像処理装置12に入力する(ステップS2
9)。画像処理装置12では、スチール写真画像データ
とステップS22、S23で生成した構造物の3次元画
像データ10とをステップS24で合成し、さらに、上
記と同様にステップS25〜S28に示す処理を実行す
ることにより、スチール写真上に3次元の構造物画像を
合成した景観モデル画像を作成する。図7は、このとき
の景観モデル画像の一例を示す。
Next, FIG. 3 shows a case where a landscape is evaluated by synthesizing a still picture of the current situation of the planned area and a structure image.
Will be described with reference to. In this case, a still picture of the planned area as shown in FIG.
It is read by an image scanner which is one of the two, A / D converted, and input to the image processing device 12 (step S2).
9). In the image processing device 12, the still picture image data and the three-dimensional image data 10 of the structure generated in steps S22 and S23 are combined in step S24, and further, the processes shown in steps S25 to S28 are executed similarly to the above. By doing so, a landscape model image in which a three-dimensional structure image is combined on the still picture is created. FIG. 7 shows an example of the landscape model image at this time.

【0020】上記のような本実施例においては、景観の
解析・予測の対象となる地域の地形図より、ディジタイ
ザで等高線及び計画地敷地境界線を読み取り、この等高
線を標高のメッシュデータに変換処理して、景観の3次
元解析データとし、さらに、計画地敷地内に構築される
構造物の3次元画像データを上記メッシュデータと合成
して景観モデル用の3次元画像データを生成し、この景
観モデル画像中の地形画像と構造物画像の視点の一致処
理を行った後、構造物の形態調整処理を行うことにより
景観モデル画像を作成し、この景観モデル画像を見なが
ら構造物が計画地域の環境にどのような影響を及ぼすか
を解析し評価する構成にしたので、景観の解析データの
作成、入力作業を画面と対話しながら簡便に行うことが
でき、人為的なミスが減少し、景観の予測・評価時間も
大幅に削減できる。
In this embodiment as described above, the contour line and the boundary line of the planned site are read by the digitizer from the topographical map of the area where the landscape is analyzed / predicted, and the contour line is converted into elevation mesh data. Then, it is used as 3D analysis data of the landscape, and 3D image data of the structure constructed on the planned site is combined with the mesh data to generate 3D image data for the landscape model. After performing the process of matching the viewpoints of the topographic image and the structure image in the model image, the landscape model image is created by performing the form adjustment process of the structure. Since it is configured to analyze and evaluate how it affects the environment, it is possible to easily create landscape analysis data and input data while interacting with the screen, and There decreased, also prediction and evaluation time of the landscape can be greatly reduced.

【0021】また、本実施例においては、景観の解析・
予測の対象となる地域を撮影したスチール写真をイメー
ジスキャナーにより読み込み、この地域画像データと構
造物の3次元画像データとを合成して景観モデル画像
(ホトモンタージュ)を作成し、このホトモンタージュ
を見ながら構造物が計画地域の環境にどのような影響を
及ぼすかを解析し評価する構成にしたので、画面上での
グラフィカルな対話操作で、専門的な知識や技術を要す
ることなく景観用のホトモンタージュを画面上で簡単に
作成し修正することができる。
Further, in this embodiment, landscape analysis /
The still image of the area to be predicted is read by the image scanner, this area image data and the 3D image data of the structure are combined to create a landscape model image (photo montage), and this photo montage is viewed. However, the structure that analyzes and evaluates how the structure affects the environment in the planned area is evaluated, and the graphical interactive operation on the screen can be used for landscape photography without requiring specialized knowledge or skills. You can easily create and modify montages on the screen.

【0022】なお、本発明は、上記実施例に記載された
構成のものに限定されず、請求項に記載した範囲を逸脱
しない限り、種々の変形が可能である。
The present invention is not limited to the configurations described in the above embodiments, and various modifications can be made without departing from the scope of the claims.

【0023】[0023]

【発明の効果】以上説明したように本発明によれば、景
観の解析・予測の対象となる地域の地形図から等高線を
読み取る図形読取手段と、前記読み取った等高線を標高
メッシュデータに変換して対象地域の地形に対する各種
視点からの3次元画像データを生成する第1の画像処理
手段と、前記対象地域内に構築される構造物の計画図よ
り構造物に対する各種視点からの3次元画像データを生
成する第2の画像処理手段と、前記地形の3次元画像デ
ータと前記構造物の3次元画像データとを合成して構造
物とその背景からなる3次元の景観モデル画像を構成す
る画像データ合成処理手段と、前記景観モデル画像を表
示する表示手段と、前記表示手段に表示される景観モデ
ル画像中の構造物の形態を入力指令に基づいて調整し、
該構造物とその背景とからなる景観モデル画像から対象
地域の環境に及ぼす影響を予測し評価する解析処理手段
とを備える構成にしたので、各種の開発に対応した景観
の予測・評価を表示画面上の画像を見ながら対話形式で
容易に行うことができるとともに、人為的なミスが減少
し、景観の予測・評価時間も大幅に削減できるという効
果がある。
As described above, according to the present invention, graphic reading means for reading contour lines from a topographic map of an area to be analyzed / predicted for landscape, and the read contour lines are converted into elevation mesh data. First image processing means for generating three-dimensional image data from various points of view of the terrain of the target area, and three-dimensional image data from various points of view of the structure based on the plan of the structure constructed in the target area. Image data composition for composing the second image processing means for generating, the three-dimensional image data of the terrain and the three-dimensional image data of the structure to form a three-dimensional landscape model image of the structure and its background. Processing means, display means for displaying the landscape model image, and adjusting the form of the structure in the landscape model image displayed on the display means based on an input command,
Since the structure is provided with the analysis processing means for predicting and evaluating the influence on the environment of the target area from the landscape model image composed of the structure and its background, the screen for predicting / evaluating the landscape corresponding to various developments is displayed. While viewing the above image, it can be easily done interactively, human error can be reduced, and landscape prediction / evaluation time can be greatly reduced.

【0024】また、本発明においては、景観の解析・予
測の対象となる地域の景観現況映像を読み込む画像入力
手段と、前記対象地域内に構築される構造物の計画図よ
り構造物に対する各種視点からの3次元画像データを生
成する画像処理手段と、前記景観現況映像の画像データ
と前記構造物の3次元画像データとを合成して構造物と
その背景とからなる景観モデル画像を構成する画像デー
タ合成処理手段と、前記景観モデル画像を表示する表示
手段と、前記表示手段に表示される景観モデル画像中の
構造物の形態を入力指令に基づいて調整し、該構造物と
その背景とからなる景観モデル画像から対象地域の環境
に及ぼす影響を予測し評価する解析処理手段とを備える
構成にしたので、画面上でのグラフィカルな対話操作
で、専門的な知識や技術を要することなく景観用のホト
モンタージュを画面上で簡単に作成し修正することがで
きるほか、各種の開発に対応した景観の予測・評価を表
示画面上の画像を見ながら対話形式で容易に行うことが
できる。
Further, in the present invention, image input means for reading the current landscape image of the area to be subjected to landscape analysis / prediction, and various viewpoints for the structure from the plan of the structure constructed in the target area. Image processing means for generating three-dimensional image data from the image, an image forming a landscape model image composed of a structure and its background by synthesizing the image data of the current landscape image and the three-dimensional image data of the structure. The data combination processing means, the display means for displaying the landscape model image, and the form of the structure in the landscape model image displayed on the display means are adjusted based on the input command, and the structure and the background thereof are adjusted. Since it is equipped with an analysis processing unit that predicts and evaluates the impact on the environment of the target area from the landscape model image, A photo montage for landscapes can be easily created and modified on the screen without the need for surgery, and landscape predictions and evaluations corresponding to various developments can be easily performed interactively while viewing the images on the display screen. It can be carried out.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による景観の解析・予測システムのブロ
ック図である。
FIG. 1 is a block diagram of a landscape analysis / prediction system according to the present invention.

【図2】本実施例における地形図の等高線から3次元の
地形データを生成する場合の処理手順を示すフローチャ
ートである。
FIG. 2 is a flowchart showing a processing procedure when three-dimensional topographic data is generated from contour lines of a topographic map in the present embodiment.

【図3】本実施例における3次元地形データ及び対象地
域のスチール映像情報を用いて景観の予測・評価を行う
場合の処理手順を示すフローチャートである。
FIG. 3 is a flowchart showing a processing procedure when landscape prediction / evaluation is performed using three-dimensional topographical data and still image information of a target area in the present embodiment.

【図4】本実施例に適用される地形図である。FIG. 4 is a topographic map applied to this embodiment.

【図5】本実施例におけるワイヤフレームによる地形の
3次元出力画像例を示す図である。
FIG. 5 is a diagram showing an example of a three-dimensional output image of terrain by a wire frame in the present embodiment.

【図6】本実施例に使用される現況の景観スチール写真
を示す。
FIG. 6 shows a current landscape still picture used in this embodiment.

【図7】本実施例における現況スチール写真と構造物画
像とを合成した景観モデル画像の一例を示す図である。
FIG. 7 is a diagram showing an example of a landscape model image in which a current still picture and a structure image are combined in the present embodiment.

【符号の説明】[Explanation of symbols]

10 図形読取装置 11 画像入力装置 12 画像処理装置 13 記憶装置 14 ホストプロセッサ 15 画像出力装置 16 入力装置 10 Graphic Reading Device 11 Image Input Device 12 Image Processing Device 13 Storage Device 14 Host Processor 15 Image Output Device 16 Input Device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 景観の解析・予測の対象となる地域の地
形図から等高線を読み取る図形読取手段と、 前記読み取った等高線を標高メッシュデータに変換して
対象地域の地形に対する各種視点からの3次元画像デー
タを生成する第1の画像処理手段と、 前記対象地域内に構築される構造物の計画図より構造物
に対する各種視点からの3次元画像データを生成する第
2の画像処理手段と、 前記地形の3次元画像データと前記構造物の3次元画像
データとを合成して構造物とその背景からなる3次元の
景観モデル画像を構成する画像データ合成処理手段と、 前記景観モデル画像を表示する表示手段と、 前記表示手段に表示される景観モデル画像中の構造物の
形態を入力指令に基づいて調整し、該構造物とその背景
とからなる景観モデル画像から対象地域の環境に及ぼす
影響を予測し評価する解析処理手段と、 を備えてなる景観の解析・予測システム。
1. A figure reading means for reading contour lines from a topographic map of an area to be subjected to landscape analysis / prediction, and three-dimensional views from various points of view of the topography of the target area by converting the read contour lines into elevation mesh data. A first image processing means for generating image data; a second image processing means for generating three-dimensional image data from various viewpoints of the structure based on a plan view of the structure constructed in the target area; Image data composition processing means for composing the three-dimensional image data of the terrain and the three-dimensional image data of the structure to form a three-dimensional landscape model image of the structure and its background, and the landscape model image is displayed. The display means and the form of the structure in the landscape model image displayed on the display means are adjusted based on an input command, and the landscape model image composed of the structure and the background is adjusted. Analysis and prediction system of the landscape to be equipped and analysis processing means for evaluating and predicting the impact on the local environment, the.
【請求項2】 景観の解析・予測の対象となる地域の景
観現況映像を読み込む画像入力手段と、 前記対象地域内に構築される構造物の計画図より構造物
に対する各種視点からの3次元画像データを生成する画
像処理手段と、 前記景観現況映像の画像データと前記構造物の3次元画
像データとを合成して構造物とその背景とからなる景観
モデル画像を構成する画像データ合成処理手段と、 前記景観モデル画像を表示する表示手段と、 前記表示手段に表示される景観モデル画像中の構造物の
形態を入力指令に基づいて調整し、該構造物とその背景
とからなる景観モデル画像から対象地域の環境に及ぼす
影響を予測し評価する解析処理手段と、 を備えてなる景観の解析・予測システム。
2. A three-dimensional image from various viewpoints of a structure based on a plan view of a structure constructed in the target area, and image input means for reading a current scene image of the area to be analyzed and predicted. Image processing means for generating data; and image data composition processing means for composing image data of the current landscape image and three-dimensional image data of the structure to form a landscape model image composed of the structure and its background. A display unit for displaying the landscape model image, a form of the structure in the landscape model image displayed on the display unit is adjusted based on an input command, and the landscape model image including the structure and the background thereof is adjusted. A landscape analysis / prediction system that includes analysis processing means that predicts and evaluates the impact on the environment of the target area.
JP5148592A 1993-05-26 1993-05-26 Scene analysis and prediction system Pending JPH06332993A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5148592A JPH06332993A (en) 1993-05-26 1993-05-26 Scene analysis and prediction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5148592A JPH06332993A (en) 1993-05-26 1993-05-26 Scene analysis and prediction system

Publications (1)

Publication Number Publication Date
JPH06332993A true JPH06332993A (en) 1994-12-02

Family

ID=15456205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5148592A Pending JPH06332993A (en) 1993-05-26 1993-05-26 Scene analysis and prediction system

Country Status (1)

Country Link
JP (1) JPH06332993A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09305790A (en) * 1996-05-10 1997-11-28 Tokyo Electric Power Co Inc:The Three-dimensional information display device
JPH10116353A (en) * 1996-10-11 1998-05-06 Kajima Corp Remote operation supporting image system for moving body for construction
CN112100804A (en) * 2020-07-24 2020-12-18 济南市市政工程设计研究院(集团)有限责任公司 Method and system for three-dimensionally modeling ground object in CAD topographic map

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09305790A (en) * 1996-05-10 1997-11-28 Tokyo Electric Power Co Inc:The Three-dimensional information display device
JPH10116353A (en) * 1996-10-11 1998-05-06 Kajima Corp Remote operation supporting image system for moving body for construction
CN112100804A (en) * 2020-07-24 2020-12-18 济南市市政工程设计研究院(集团)有限责任公司 Method and system for three-dimensionally modeling ground object in CAD topographic map
CN112100804B (en) * 2020-07-24 2024-02-09 济南市市政工程设计研究院(集团)有限责任公司 Method and system for three-dimensionally modeling ground object in CAD topographic map

Similar Documents

Publication Publication Date Title
US5864632A (en) Map editing device for assisting updating of a three-dimensional digital map
US6396491B2 (en) Method and apparatus for reproducing a shape and a pattern in a three-dimensional scene
US7509241B2 (en) Method and apparatus for automatically generating a site model
US4970666A (en) Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
JP3148045B2 (en) 3D object CG creation device
CA2489364A1 (en) System for generating three-dimensional electronic models of objects
Murphy et al. Developing historic building information modelling guidelines and procedures for architectural heritage in Ireland
Brenner et al. Fast production of virtual reality city models
JP2008275341A (en) Information processor and processing method
NL2027073B1 (en) Automatic urban three-dimensional skyline contour generation and diagnosis method based on occlusion rate
JP7164045B2 (en) Skeleton Recognition Method, Skeleton Recognition Program and Skeleton Recognition System
JP4217305B2 (en) Image processing device
US20230062973A1 (en) Image processing apparatus, image processing method, and storage medium
KR101875047B1 (en) System and method for 3d modelling using photogrammetry
JP2003061936A (en) Moving three-dimensional model formation apparatus and method
Vincke et al. Vision based metric for quality control by comparing built reality to BIM
JP3862402B2 (en) 3D model generation apparatus and computer-readable recording medium on which 3D model generation program is recorded
JPH06348815A (en) Method for setting three-dimensional model of building aspect in cg system
Mezhenin et al. Use of point clouds for video surveillance system cover zone imitation.
CN116681854A (en) Virtual city generation method and device based on target detection and building reconstruction
CN104680520B (en) It is a kind of scene three-dimensional information investigate method and system on the spot
JPH06332993A (en) Scene analysis and prediction system
CN112002019B (en) Method for simulating character shadow based on MR mixed reality
JP2006059165A (en) Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
Gore et al. Photo-modeling for construction site space planning

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees