JP2000076453A - Three-dimensional data preparing method and its device - Google Patents

Three-dimensional data preparing method and its device

Info

Publication number
JP2000076453A
JP2000076453A JP10243660A JP24366098A JP2000076453A JP 2000076453 A JP2000076453 A JP 2000076453A JP 10243660 A JP10243660 A JP 10243660A JP 24366098 A JP24366098 A JP 24366098A JP 2000076453 A JP2000076453 A JP 2000076453A
Authority
JP
Japan
Prior art keywords
dimensional data
image
still image
viewpoint
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10243660A
Other languages
Japanese (ja)
Inventor
Kazuhiro Shiina
一博 椎名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP10243660A priority Critical patent/JP2000076453A/en
Publication of JP2000076453A publication Critical patent/JP2000076453A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional data preparing device capable of precisely preparing three-dimensional data from a photograph or a perspective with a simple constitution and by a simple processing. SOLUTION: The device is provided with a digital image inputting device 10 and a scanner 11, which fetch a still picture in a space of unknown spatial structure, a means catching the fetched still image as an image projecting the space to identify a view point to the still image based on the positional relation of a straight line in the still picture, a means preparing three-dimensional data of spatial structure in the still image based on information on the still image and the view point and an image processing computer 20 outputting prepared three-dimensional data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、建築物、構築物、
室内等の空間あるいは形状を計測する対象物を置いた空
間を撮影した写真、描いたパースを読み取り、そこから
得た画像情報を処理して、空間の立体データを作成する
立体データ作成方法及び装置に関するものである。
TECHNICAL FIELD The present invention relates to a building, a building,
3D data creation method and apparatus for reading a photograph or a perspective drawn of a space such as a room or a space where an object whose shape is to be measured is placed, and processing image information obtained therefrom to create 3D data of the space. It is about.

【0002】[0002]

【従来の技術】従来、与えられたある空間の立体データ
からそのパースを描く技法やコンピュータグラフィクス
により空間を移動しながら見ていくような仮想現実空間
の作成システムなどの立体データ作成装置はあったが、
逆に任意の空間撮影写真やパースから、その対象となっ
た空間の立体データを導き、配置図、平面図、立面図な
どを作成するシステムや装置は無かった。
2. Description of the Related Art Conventionally, there has been a three-dimensional data creating apparatus such as a technique of drawing a perspective from three-dimensional data in a given space or a system for creating a virtual reality space in which the space is viewed while moving by computer graphics. But,
Conversely, there is no system or apparatus that derives three-dimensional data of the target space from an arbitrary space photograph or perspective and creates a layout, plan, elevation, and the like.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
立体データ作成装置では、任意の空間撮影写真やパース
から、その対象となった空間の立体データを導き、配置
図、平面図、立面図などを作成するものではないため、
一枚の写真から、その対象となった空間を視点を変えて
見た場合の画像を得ることはできず、また、そこに配さ
れた家具などを他の物に置き替えた場合を見たいと思っ
ても、リアリティの高い画像を得ることはできないとい
う問題点があった。
However, the conventional three-dimensional data creating apparatus derives three-dimensional data of a target space from an arbitrary space photograph or a perspective, and arranges, plans, elevations, etc. Does not create
It is not possible to obtain an image from a single photo when the target space is viewed from a different viewpoint, and also want to see a case where the furniture etc. arranged there is replaced with another object However, there was a problem that a high-quality image could not be obtained.

【0004】また、従来のコンピュータグラフィクスで
は、立体データを入力するために膨大な作業を要し、写
真、パースなどの画像情報を使って入力作業を簡略化す
ることにも限界があり、また、図面が無ければ立体デー
タを作成することもできないという問題点があった。ま
た、リアリティを高めるために膨大な数のポリゴンを設
定して計算するため、リアルタイムに移動する仮想現実
空間を作成するには、極めて高速なコンピュータシステ
ムを用いる必要があり、さらに、写真から各部位の大凡
の位置関係、大きさはわかるものの、配置図、平面図、
立面図として、それらの位置関係、大きさを正確に捉え
ることもできないという問題点があった。
In conventional computer graphics, enormous work is required to input three-dimensional data, and there is a limit in simplifying the input work using image information such as photographs and perspectives. There is a problem that three-dimensional data cannot be created without a drawing. In addition, since a huge number of polygons are set and calculated in order to enhance the reality, it is necessary to use an extremely high-speed computer system to create a virtual reality space that moves in real time. Although you can see the approximate positional relationship and size of the layout map, plan view,
As an elevation, there is a problem that their positional relationship and size cannot be accurately grasped.

【0005】また、工業用の既存の3次元計測装置で
は、高い精度を求める装置の性格上、持ち運びが難し
く、またパターンプロジェクタ自体に高い精度を求める
ためコストも高くなり、カメラ座標と実際の空間座標を
一体化させるために、画面上で6点を読みとり12元連
立方程式を解いてカメラの位置を求める方法では、カメ
ラの画素数が百数十万しかない現在においてはその標本
誤差が拡大してしまうという問題点があった。また、航
空写真から地形データを得る場合でも、同様に複雑な計
算を行う結果、点の読みとり誤差が大きいという欠点が
増幅され、測定精度上の問題点があった。
[0005] Further, in the existing three-dimensional measuring device for industrial use, it is difficult to carry the device due to the nature of the device requiring high accuracy, and the cost is also high because the pattern projector itself requires high accuracy. In the method of reading six points on a screen and solving a system of 12-element simultaneous equations to obtain the position of a camera in order to unify the coordinates, the sampling error increases when the number of pixels of the camera is only one hundred and several hundred thousand. There was a problem that would. In addition, even in the case of obtaining topographical data from aerial photographs, similarly complicated calculations result in the disadvantage that point reading errors are large, and there is a problem in measurement accuracy.

【0006】本発明は、このような問題点を解決するた
めになされたものであり、写真やパースから簡単な構
成、簡単な処理で精度良く、立体データを作成すること
のできる立体データ作成装置を提供することを目的とす
る。
SUMMARY OF THE INVENTION The present invention has been made to solve such a problem, and a three-dimensional data creating apparatus capable of creating three-dimensional data from a photograph or a perspective with a simple configuration and a simple process with high accuracy. The purpose is to provide.

【0007】[0007]

【課題を解決するための手段】第1の発明に係る立体デ
ータ作成方法は、空間構造が未知の空間の静止画像を取
り込み、その取り込んだ静止画像内の直線の位置関係に
基づいて、静止画像に対する視点を割り出し、静止画像
及び視点の情報に基づいて、静止画像内の空間構造の立
体データを作成するものである。第2の発明に係る立体
データ作成装置は、空間構造が未知の空間の静止画像を
取り込む手段と、取り込まれた静止画像を空間の投影さ
れた画像として捉えて、その静止画像内の直線の位置関
係に基づいて、静止画像に対する視点を割り出す手段
と、静止画像及び視点の情報に基づいて、静止画像内の
空間構造の立体データを作成する手段と、作成された立
体データを出力する手段とを備えるものである。
According to a first aspect of the present invention, there is provided a method for creating three-dimensional data in which a still image in a space whose spatial structure is unknown is captured, and a still image is created based on a positional relationship between straight lines in the captured still image. Is calculated, and three-dimensional data of the spatial structure in the still image is created based on the information on the still image and the viewpoint. The three-dimensional data creation device according to the second invention is a unit that captures a still image in a space whose spatial structure is unknown, captures the captured still image as a projected image in space, and detects the position of a straight line in the still image. Means for calculating a viewpoint for a still image based on the relationship, means for creating three-dimensional data of the spatial structure in the still image based on information on the still image and the viewpoint, and means for outputting the created three-dimensional data. It is provided.

【0008】第3の発明に係る立体データ作成装置は、
同一対象空間の視点の異なる静止画像の画像情報から得
られた立体データを照合し、同一対象空間内に配された
各部位の相対的位置関係を求めて、対象となった空間に
映し出された全ての部位の立体データを得る手段を備え
るものである。第4の発明に係る立体データ作成装置
は、静止画像をその静止画像内の各部位毎の複数のパー
ツに分類し、各部位の立体データは、予め用意された複
数の部位別立体データモデルの中から最も近いものに近
似させてその立体データとして、静止画像から作成され
た立体データに加える手段を備えるものである。
[0008] A three-dimensional data creating apparatus according to a third aspect of the present invention comprises:
The three-dimensional data obtained from the image information of the still images with different viewpoints in the same target space were collated, and the relative positional relationship between the parts arranged in the same target space was calculated and displayed in the target space. It is provided with means for obtaining three-dimensional data of all parts. The three-dimensional data creation device according to the fourth invention classifies the still image into a plurality of parts for each part in the still image, and the three-dimensional data of each part is a plurality of parts-specific three-dimensional data models prepared in advance. It is provided with a means for approximating the closest one from among the three-dimensional data and adding the three-dimensional data to the three-dimensional data created from the still image.

【0009】第5の発明に係る立体データ作成装置は、
立体データに、静止画像からの色情報を移して、静止画
像の色情報を含んだ立体データを作成する手段を備える
ものである。第6の発明に係る立体データ作成装置は、
任意の部位の立体データを別に用意された複数のサンプ
ルから選んだ別の部位の立体データに置き替え、その部
位が置き替わった対象空間をその視点から見た場合の画
像を作成する手段を備えるものである。
A three-dimensional data creating apparatus according to a fifth aspect of the present invention
It is provided with means for transferring color information from a still image to three-dimensional data and creating three-dimensional data including color information of the still image. The three-dimensional data creation device according to the sixth invention is
A means is provided for replacing the three-dimensional data of an arbitrary part with three-dimensional data of another part selected from a plurality of separately prepared samples, and creating an image when the target space in which the part is replaced is viewed from the viewpoint. Things.

【0010】第7の発明に係る立体データ作成装置は、
静止画像から作成された立体データから、平面図、配置
図、立面図、及び視点と視線方向を任意に変えた場合の
静止画像を合成する手段を備えるものである。第8の発
明に係る立体データ作成装置は、連続して移動する視
点、視線方向に従って、合成された視点と視線方向を任
意に変えた場合の静止画像を順次表示し、対象となった
空間を移動しながら見ているような動画像を作成する手
段を備えるものである。
[0010] A three-dimensional data creating apparatus according to a seventh aspect of the present invention comprises:
It is provided with means for synthesizing a plan view, a layout view, an elevation view, and a still image when the viewpoint and the viewing direction are arbitrarily changed from the stereoscopic data created from the still image. The three-dimensional data creating apparatus according to the eighth invention sequentially displays a synthesized viewpoint and a still image when the line-of-sight direction is arbitrarily changed according to the viewpoint that moves continuously, and the line-of-sight direction. It is provided with means for creating a moving image as if viewed while moving.

【0011】第9の発明に係る立体データ作成装置は、
複数のカメラと、計測の対象となる物体の表面の複数の
点を位置の異なる複数の視点に位置するカメラから同時
に計測すると共に、同じ空間に基準となる枠を置いて消
点を計測してカメラの視点を求め、当該複数のカメラで
撮影した画像から導かれる基本構図を重ねて照合し、そ
の多数の点の位置を特定して撮影の対象となった物体の
立体データを作成する手段とを備えるものである。
According to a ninth aspect of the present invention, there is provided a three-dimensional data creating apparatus.
Simultaneously measure multiple cameras and multiple points on the surface of the object to be measured from cameras located at multiple viewpoints with different positions, and measure the vanishing point by placing a reference frame in the same space Means for obtaining the viewpoint of the camera, superimposing and matching the basic composition derived from the images captured by the plurality of cameras, identifying the positions of the many points, and creating three-dimensional data of the object to be captured; It is provided with.

【0012】第10の発明に係る立体データ作成装置
は、複数のカメラと、計測の対象となる物体の表面の複
数の点を位置の異なる複数の視点に位置するカメラから
同時に計測すると共に、同一空間の座標が既知の2、3
又は4点からカメラの視点を求め、当該複数のカメラで
撮影した画像から導かれる基本構図を重ねて照合し、そ
の多数の点の位置を特定して撮影の対象となった物体の
立体データを作成する手段を備えるものである。
A three-dimensional data creating apparatus according to a tenth aspect of the present invention simultaneously measures a plurality of cameras and a plurality of points on the surface of an object to be measured from a plurality of viewpoints having different positions and has the same function. 2, 3 whose space coordinates are known
Alternatively, the viewpoint of the camera is obtained from the four points, the basic composition derived from the images captured by the plurality of cameras is overlapped and collated, the positions of the many points are specified, and the three-dimensional data of the object to be captured is obtained. It has a means for creating.

【0013】[0013]

【発明の実施の形態】まず、本発明の立体データの作成
の原理及びデータ処理の概要について説明する。本発明
は、撮影対象の空間構造が未知であるところに特長があ
り、従って、複数枚の画像があれば、既に撮影を終えて
しまった写真からも空間構造を特定して、対象空間の全
部または一部の3次元データを得て、そのデータを利用
することによって様々な用途を開くことが可能となって
いる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First, the principle of creating stereoscopic data and the outline of data processing according to the present invention will be described. The present invention is characterized in that the spatial structure of the object to be photographed is unknown. Therefore, if there are a plurality of images, the spatial structure is specified even from a photograph that has already been photographed, and the entire target space is identified. Alternatively, various applications can be opened by obtaining some three-dimensional data and using the data.

【0014】そして、写真、パース、デジタル写真など
の画像情報からその表している空間の立体データを得ら
れれば、その配置図、平面図、立面図、天伏図などを作
成することができ、視点、視線方向を変えた場合のデジ
タル写真、パースを作成することが可能になる。
If three-dimensional data of the space represented by the image information such as a photograph, a perspective, and a digital photograph can be obtained, a layout diagram, a plan view, an elevation view, a top view, and the like can be created. It is possible to create digital photographs and perspectives when the viewpoint and viewing direction are changed.

【0015】通常、室内空間、建築物、構築物において
は、その壁面、天井、床などは地平面に垂直か水平に配
され、それら相互も垂直か水平な位置関係にあり、その
境界線は一本の直線で画像に現れている。即ち、それら
相互の交差する角度がわかり、その境界線が画像上に見
えている。人が写真から空間の奥行きや位置関係を知る
ことができるのは、この既知の角度と境界線の関係から
推測しているからである。同様に、床、壁、天井などの
部位の交差する角度を推定(通常は90度)し、2点透
視図法ないしは1点透視図法、3点透視図法に基づいて
計算すれば、各部位及び視点の相互の位置関係を知るこ
とができる。
Normally, in an indoor space, a building, or a building, its walls, ceiling, floor, and the like are arranged vertically or horizontally with respect to the ground plane, and they are also in a vertical or horizontal positional relationship with each other. It appears in the image as a straight line of a book. That is, the angle at which they intersect is known, and the boundary is visible on the image. The reason why a person can know the depth and the positional relationship of a space from a photograph is because it is inferred from the relationship between the known angle and the boundary line. Similarly, by estimating the crossing angle of a part such as a floor, a wall, or a ceiling (usually 90 degrees) and calculating based on a two-point perspective view or a one-point perspective view or a three-point perspective view, each part and viewpoint can be obtained. Can know each other's positional relationship.

【0016】さらに写真やパースに示されている画像情
報の中に、その位置と長さが既知の線が一本あれば、全
ての部位の長さ、大きさを知ることができる。また、家
具、塀など他の部位については、通常はその高さや壁面
からの距離、壁面との角度などなんらかの情報は推測し
て補完できるため、その推測して補完した情報に基づい
てその位置関係をかなり正確に推定することができる。
これによって、写真に写っている全ての対象物の相互の
位置関係を推定し、その立体データを得ることができ
る。
Furthermore, if there is a single line whose position and length are known in the image information shown in a photograph or a perspective, the length and size of all parts can be known. In addition, for other parts such as furniture and fences, some information such as the height, the distance from the wall surface, and the angle with the wall surface can usually be estimated and complemented, and the positional relationship based on the estimated and complemented information is used. Can be estimated fairly accurately.
As a result, it is possible to estimate the mutual positional relationship of all the objects shown in the photograph and obtain the three-dimensional data.

【0017】また、同一対象を異なる複数点から撮影し
た写真や描いたパースの情報を照合すればより多くの立
体データが得られ、且つ各部位の位置関係を推定情報を
入力しなくても特定できる。また、単純な平面では構成
されていない部位、例えばソファーやカーテンなどの立
体データを写真などの2次元情報から取り出すことはで
きないが、予め用意された幾つもの立体データモデルか
ら類似したものを選ぶことによって、複雑な形状の物で
もそれに近似した立体データを得ることができる。
[0017] Further, by comparing information of a photograph taken of a same object from a plurality of different points and a perspective drawn, more three-dimensional data can be obtained, and the positional relationship of each part can be specified without inputting estimation information. it can. In addition, it is not possible to extract three-dimensional data such as a sofa or a curtain from a two-dimensional information such as a photograph, which is not formed by a simple plane, but to select a similar one from a number of three-dimensional data models prepared in advance. This makes it possible to obtain three-dimensional data similar to a complicated shape.

【0018】また、元の画像情報を、各画素の色情報か
ら各部位毎に分割しておけば、それぞれの部位を他の物
に置き換えて画像に表示することによって、例えば室内
のソファーを別のソファーに置き換えた場合のイメージ
を合成写真として見ることができる。この場合、置き換
える画像データの立体データは先の立体データサンプル
から選んだ近似したデータを用い、素材の色彩、素材感
は、それとはまた別に用意された素材サンプルデータを
用いる。
Further, if the original image information is divided for each part from the color information of each pixel, each part is replaced with another object and displayed on the image, so that, for example, an indoor sofa can be separated. Can be seen as a composite photo. In this case, as the three-dimensional data of the image data to be replaced, approximate data selected from the preceding three-dimensional data sample is used, and for the color and texture of the material, material sample data prepared separately therefrom is used.

【0019】なお、この素材サンプルデータは、色と模
様を持つ平面的なデータの場合と、多数の3次元ポリゴ
ン立体データによって素材感まで表すものである場合の
両方が考えられる。
It is to be noted that the material sample data may be both planar data having a color and a pattern and data representing a material feeling by a large number of three-dimensional polygon three-dimensional data.

【0020】また、上述したように画像情報を各部位毎
に分割する場合、画素毎の色データの変化を利用するこ
とで、その急激な変化のあるところを異なる部位の画像
の境界線として捉え、画像を分割することができる。ど
の程度の変化を部位の異なる物の画像の境界線とするか
は任意に定めることができるが、同じ部位でも影になっ
ている部分と光が当たっている部分では色データが全く
異なる値となり、逆に非常に似た色彩の物が重なって見
えている場合には、その違いを判別しにくい場合もあ
る。
Further, when the image information is divided for each part as described above, by utilizing the change of the color data for each pixel, the place where the rapid change occurs is regarded as the boundary line of the image of the different part. , The image can be divided. It is possible to arbitrarily determine how much change is to be taken as the boundary of the image of an object with a different part, but even in the same part, the shaded part and the part illuminated have different color data values. On the other hand, when objects of very similar colors appear to overlap, it may be difficult to distinguish the difference.

【0021】そうした場合には、ある程度小さな色デー
タの変化でも一旦異なる画像パーツに分別しておき、利
用者が日常的に写真などを見る場合の判別基準によっ
て、同一部位と見なされる画像パーツはそれが同一部位
であることを入力してデータ化することは必要である。
これによって、同一部位が複数面で構成されている画像
データ、例えばソファやカップボードなども、その各面
の画像データを一旦それぞれ別に捉えながら、それらが
全て同一の部位であることをデータ化できる。
In such a case, even a small change in the color data is classified into different image parts once, and the image parts regarded as the same part according to the criterion when the user looks at a photograph or the like on a daily basis. It is necessary to input the fact that they are the same part and to make it into data.
Thus, image data in which the same part is composed of a plurality of surfaces, such as a sofa or a cupboard, can be converted into data that all the parts are the same while separately capturing the image data of each surface. .

【0022】また、影の長さ、角度から、太陽光の方角
や照明の位置なども導くことができ、この情報に基づい
て、照明の位置を変えた場合や、太陽の位置が変化した
場合の画像を合成することもできる。そして、得られた
立体データに基づいて、視点と視線方向を変えて見た場
合の画像を作成することができ、視点と視線方向を少し
ずつ変えて見た場合の画像を作成して、それらを連続的
に表示することで動画像を作成することもできる。
Further, the direction and the position of the sunlight can be derived from the length and angle of the shadow. When the position of the illumination is changed or the position of the sun is changed based on this information, Can be combined. Then, based on the obtained three-dimensional data, it is possible to create an image when the viewpoint and the viewing direction are changed, and to create an image when the viewpoint and the viewing direction are slightly changed. By continuously displaying, a moving image can be created.

【0023】また、ポリゴン立体データを計算するの
は、ある部位を他の物に変えた場合の画像を作成する場
合であり、元の画像情報を用いる部分は当然に単純平面
ないしは曲面をその立体データとして計算する。従っ
て、視点が相当離れた場所に移動した場合は、実際の見
え方と異なってくることも予想されるが、元の画像デー
タが複数枚あれば、その視点に最も近い位置の画像デー
タを使うことで、比較的少ない計算量で合成画像を作製
できる。
The calculation of polygon three-dimensional data is used to create an image in which a certain part is changed to another object, and the part using the original image information is, of course, a simple plane or curved surface converted to a three-dimensional object. Calculate as data. Therefore, if the viewpoint moves to a place far away from the viewpoint, it is expected that the actual appearance will be different. However, if there are a plurality of original image data, the image data at the position closest to the viewpoint is used. Thus, a composite image can be created with a relatively small amount of calculation.

【0024】このポリゴン立体データの計算は少ないた
め、数多くの視点から見た場合の画像を作成してもコン
ピュータにかかる負荷は比較的少なく、動画をリアルタ
イムに作成することも可能になる。また、各部位の画像
情報は実際の写真などを元にしていれば、その素材感ま
で忠実に表現することができる。
Since the calculation of the polygon three-dimensional data is small, even if an image is viewed from many viewpoints, the load on a computer is relatively small, and a moving image can be generated in real time. Further, if the image information of each part is based on an actual photograph or the like, it is possible to faithfully express the material feeling.

【0025】また、室内空間の画像では、通常は人の視
点は天井と床の中間にあるため、2点透視図法に基づい
て画像を作成することが適切と考えられる。また、屋外
空間の場合は、人の視点は地表と建築物、構築物の中間
にあり、3点透視図法では目の高さより下に位置する物
は実際の見え方より大きく表現されてしまい、画像が歪
む傾向にある。逆に2点透視図法では、目の高さより相
当に高い位置にある物は大きく表現されてしまい、画像
が歪む傾向にある。従って、屋外空間の画像を作成する
場合は、建物の高さと視点との距離から、いずれかより
適した方を選択することになる。
In an image of an indoor space, the viewpoint of a person is usually located between the ceiling and the floor, so it is considered appropriate to create an image based on a two-point perspective projection. In addition, in the case of outdoor space, the viewpoint of a person is between the surface of the earth, a building, and a structure. In the three-point perspective projection, an object located below the eye level is expressed larger than the actual appearance. Tends to be distorted. Conversely, in the two-point perspective projection, an object located at a position considerably higher than the eye level is greatly expressed, and the image tends to be distorted. Therefore, when creating an image of an outdoor space, the more appropriate one is selected from the height of the building and the distance from the viewpoint.

【0026】このように複数の視点から同一点を撮影し
た場合に、それらの画像から導かれる基本構図を重ねて
点の位置を照合して特定することができれば、そうした
点を多数設定することにより、撮影対象となった物体の
形状を正確な立体データとして得ることができる。
In the case where the same point is photographed from a plurality of viewpoints as described above, if the basic composition derived from those images can be overlapped and the position of the point can be identified and specified, the number of such points can be set. Thus, the shape of the object to be photographed can be obtained as accurate three-dimensional data.

【0027】そうしたシステムを単純な装置で、且つ少
ない計算量で測定誤差も低減できれば、例えば2台のカ
メラを任意に置いて、低出力レーザー光を当てるだけで
済み、簡便に持ち運びできるシステムで行えれば、持ち
運びができないモニュメントなどの形状も立体データと
して得られ、工業的に複製することが可能になる。さら
に、対象物体の形状を高い精度で立体データとして得ら
れれば、既に実用化されている金型などの製作装置を用
いて工業的に生産が可能になる。また少数の基準点のみ
を画像から読み出し、複数の画像を照合することによ
り、航空写真から地表の形状を立体データ化できれば、
地表写真や地形模型を作成する方法としても応用でき
る。
If such a system is a simple device and the measurement error can be reduced with a small amount of calculation, for example, two cameras can be arbitrarily placed and only a low-power laser beam should be applied, and the system can be carried easily. Then, the shape of a monument or the like that is not portable can be obtained as three-dimensional data, and can be reproduced industrially. Furthermore, if the shape of the target object can be obtained as three-dimensional data with high accuracy, industrial production can be performed using a manufacturing apparatus such as a mold that has already been put into practical use. In addition, if only a small number of reference points are read from the image and multiple images are compared, if the shape of the ground surface can be converted into three-dimensional data from the aerial photograph,
It can also be applied as a method to create ground photographs and terrain models.

【0028】次に、この実施の形態の立体データの作成
の具体的な処理について説明する。図1は、本発明の実
施の形態に係る立体データ作成装置の構成を示すブロッ
ク図である。図において、10はデジタル入力装置、1
1はスキャナ、12はカメラ、13はパターンプロジェ
クタ、20は画像処理コンピュータ、21は部位別立体
データモデル、22は商品サンプルデータ、23はマウ
ス・キーボード、30はモニタ、31はプリンタ・プロ
ッタである。まずは、この実施の形態の立体データ作成
処理の概要について説明する。図2は、この実施の形態
の立体データ作成処理の概要を示すフローチャートであ
る。
Next, a specific process of creating stereoscopic data according to this embodiment will be described. FIG. 1 is a block diagram illustrating a configuration of a three-dimensional data creation device according to an embodiment of the present invention. In the figure, 10 is a digital input device, 1
1 is a scanner, 12 is a camera, 13 is a pattern projector, 20 is an image processing computer, 21 is a three-dimensional data model for each part, 22 is product sample data, 23 is a mouse / keyboard, 30 is a monitor, and 31 is a printer / plotter. . First, the outline of the three-dimensional data creation processing of this embodiment will be described. FIG. 2 is a flowchart showing an outline of the three-dimensional data creation processing according to this embodiment.

【0029】まず、写真などで、立体データを作成する
室内や屋外を撮影し(S100)、1点透視図法、2点
透視図法、3点透視図法などの透視図形法を選択する
(S101)。そして、基準枠を撮影し(S102)、
S101及びS102での情報に基づいて、基本構図、
視点の割り出しを行い(S103)、パターン光投影と
撮影を行い(S104)、S103及びS104での情
報に基づいて、各部位毎に分割しての立体データの設定
を行う(S105)。そして、複数の画像による位置、
高低差の照合を行い(S106)、基本構図への各部位
の割り当てを行う(S107)。
First, a photograph or the like is taken of an indoor or outdoor room where stereoscopic data is created (S100), and a perspective graphic method such as a one-point perspective method, a two-point perspective method, or a three-point perspective method is selected (S101). Then, the reference frame is photographed (S102),
Based on the information in S101 and S102, the basic composition,
A viewpoint is determined (S103), pattern light projection and photographing are performed (S104), and three-dimensional data is set for each part based on the information in S103 and S104 (S105). And the position by multiple images,
The height difference is compared (S106), and each part is assigned to the basic composition (S107).

【0030】そして、立体データへの色データの割り当
てを行い(S108)、立体データの修正を行い(S1
09)、その後、継続するか否かを判断し(S11
0)、S110で継続しないと判断されると終了し(S
111)、S110で継続すると判断されると、各部位
の別サンプルデータとの交換や、視点、視線方向、焦点
の変更を行う(S112,S113)。そして、配置
図、平面図、立面図の合成画像を作成し(S114)、
その後、S110に戻るか、動画像の作成を行う(S1
15)。なお、図2におけるS102,S104,S1
06での処理は、立体を計測して、立体モデルを作成す
るときに必要な処理であり、写真から空間構造を立体デ
ータ化する場合には必要ない。
Then, color data is assigned to the three-dimensional data (S108), and the three-dimensional data is corrected (S1).
09), and then determine whether or not to continue (S11).
0), if it is determined in S110 not to continue, the process ends (S110).
111), if it is determined to continue in S110, exchange with different sample data of each part and change of the viewpoint, viewing direction, and focus are performed (S112, S113). Then, a composite image of the layout drawing, the plan view, and the elevation view is created (S114),
Thereafter, the process returns to S110 or a moving image is created (S1).
15). S102, S104, S1 in FIG.
The processing in step 06 is a processing necessary when a three-dimensional measurement is performed to create a three-dimensional model, and is not necessary when a spatial structure is converted into three-dimensional data from a photograph.

【0031】次に、この実施の形態の立体データ作成処
理の各処理での詳細について説明する。図3〜図14
は、この実施の形態の立体データ作成処理の各処理での
詳細について説明するための説明図である。まず、室内
や屋外を撮影した写真あるいは室内や屋外を描いたパー
スをスキャナー11等でデジタル画像データとして読み
取る、あるいはデジタルカメラ12で撮影された写真の
画像データを入力装置10で読み込む。読み込まれた画
像の各画素の座標を(Xu、Yu)としたとき、その色デー
タをCLR(Xu、Yu) とする。
Next, details of each processing of the three-dimensional data creation processing of this embodiment will be described. 3 to 14
FIG. 5 is an explanatory diagram for describing details of each process of the three-dimensional data creation process according to the embodiment. First, a photograph taken indoors or outdoors or a perspective drawn indoors or outdoors is read as digital image data by the scanner 11 or the like, or image data of a photograph taken by the digital camera 12 is read by the input device 10. When the coordinates of each pixel of the read image are (Xu, Yu), the color data is CLR (Xu, Yu).

【0032】第一段階では、読み込まれた画像から、画
像処理コンピュータ20で視点、画像の位置と床、壁
面、天井、地表などの空間構成を割り出し(これを基本
構図と呼ぶ)、その基本構図に家具、カーテンなどの他
の部位の位置を落としこみ、その各部位に立体データモ
デルから近似したものを選んで立体データを与えること
により、画像に表されている空間全体の立体データを得
る。
In the first stage, the viewpoint, the position of the image and the spatial configuration such as the floor, the wall, the ceiling, and the ground surface are determined by the image processing computer 20 from the read image (this is called a basic composition). Then, the positions of other parts such as furniture and curtains are dropped, and three-dimensional data is given to each part by selecting an approximate one from a three-dimensional data model, thereby obtaining three-dimensional data of the entire space represented in the image.

【0033】以下、室内を撮影した画像を2点透視図法
に従って処理した場合で説明し、屋外の場合、1点透視
図法、3点透視図法の場合を後述する。まず、画像デー
タから、図3に示したような、床に対し視点と水平な位
置にある2消点Q点、R点、壁面と天井との境界線上に
ある任意の点J点とO点、床と壁面の境界線上にあり、
且つJ点とO点から垂直に降りた位置にあるK点とP
点、二つの壁面と天井の交差する位置にあるM点、二つ
の壁面と床の交差する位置にあるN点の位置を得る。
In the following, a case where an image photographed indoors is processed in accordance with a two-point perspective projection will be described. In the case of an outdoor, a one-point perspective projection and a three-point perspective projection will be described later. First, from the image data, as shown in FIG. 3, two vanishing points Q and R located at positions horizontal to the viewpoint with respect to the floor, and arbitrary points J and O located on the boundary between the wall and the ceiling. , On the boundary between floor and wall,
K point and P, which are vertically descended from J point and O point
The points, the point M at the position where the two walls and the ceiling intersect, and the position of the point N where the two walls and the floor intersect are obtained.

【0034】J、K、M、N、O、Pの各点の座標を位
置をそれぞれ( Xj,Yj ) 、( Xk,Yk) 、( Xm,Ym ) 、( X
n,Yn ) 、( Xo,Yo ) 、( Xp,Yp ) とする。また、Q
点、R点を( Xq,Yq ) 、( Xr,Yr ) とする。なお、図3
において、J点−K点の長さ( 高さ) はHk、M点−N点
の長さ( 高さ) はHn、O点−P点の長さ( 高さ) はHpで
ある。
The coordinates of each of the points J, K, M, N, O, and P are represented by (Xj, Yj), (Xk, Yk), (Xm, Ym), (X
n, Yn), (Xo, Yo), (Xp, Yp). Also, Q
The points and the R point are (Xq, Yq) and (Xr, Yr). Note that FIG.
, The length (height) of point J-K is Hk, the length (height) of point M-N is Hn, and the length (height) of point O-P is Hp.

【0035】ここで、画像から各点の座標を読みとる方
法は複数あるが、最も初歩的な方法は、モニター上の該
当する点にカーソルを合わせることによって得る方法で
ある。また、2本の線の交点として求めてもよい。線を
読みとる場合は、その線を構成する画素を抽出し、最小
二乗法によって求めれば、標本誤差を低減できる。そう
した線の交点として点を求めれば、かなり正確に読みと
ることができる。またこれを画像処理によって自動的に
取り出しても良い。
Here, there are a plurality of methods for reading the coordinates of each point from the image, but the most rudimentary method is a method of obtaining a cursor by moving the cursor to the corresponding point on the monitor. Alternatively, it may be obtained as an intersection of two lines. In the case of reading a line, sampling errors can be reduced by extracting pixels constituting the line and obtaining the pixels by the least square method. If you find a point as the intersection of such lines, you can read it quite accurately. Also, this may be automatically extracted by image processing.

【0036】そして、J点からP点までの6点が取り出
せれば、2消点Q( Xq,Yq ) 、R(Xr,Yr ) は以下の式
から算出される。 Xq =[ (Xo-Xm)*(Yp*Xn - Yn*Xp)-(Xp-Xn)*(Yo*Xm-Ym*X
o)]/[ (Xo-Xm)*(Yp-Yn) - (Xp-Xn)*(Yo-Ym)] Yq =[ (Yo-Ym)*(Yp*Xn - Yn*Xp)-(Yp-Yn)*(Yo*Xm-Ym*X
o)]/[ (Xo-Xm)*(Yp-Yn) - (Xp-Xn)*(Yo-Ym)] Xr =[ (Xj-Xm)*(Yk*Xn - Yn*Xk)-(Xk-Xn)*(Yj*Xm-Ym*X
j)]/[ (Xj-Xm)*(Yk-Yn) - (Xk-Xn)*(Yj-Ym)] Yr =[ (Yj-Ym)*(Yk*Xn - Yn*Xk)-(Yk-Yn)*(Yj*Xm-Ym*X
j)]/[ (Xj-Xm)*(Yk-Yn) - (Xk-Xn)*(Yj-Ym)] 尚、上記の式は2線の交点を求める一般式であるため、
以下の説明ではこのような算定式の解説は省略する。
If six points from the point J to the point P can be taken out, the two vanishing points Q (Xq, Yq) and R (Xr, Yr) can be calculated from the following equations. Xq = [(Xo-Xm) * (Yp * Xn-Yn * Xp)-(Xp-Xn) * (Yo * Xm-Ym * X
o)] / [(Xo-Xm) * (Yp-Yn)-(Xp-Xn) * (Yo-Ym)] Yq = [(Yo-Ym) * (Yp * Xn-Yn * Xp)-(Yp -Yn) * (Yo * Xm-Ym * X
o)] / [(Xo-Xm) * (Yp-Yn)-(Xp-Xn) * (Yo-Ym)] Xr = [(Xj-Xm) * (Yk * Xn-Yn * Xk)-(Xk -Xn) * (Yj * Xm-Ym * X
j)] / [(Xj-Xm) * (Yk-Yn)-(Xk-Xn) * (Yj-Ym)] Yr = [(Yj-Ym) * (Yk * Xn-Yn * Xk)-(Yk -Yn) * (Yj * Xm-Ym * X
j)] / [(Xj-Xm) * (Yk-Yn)-(Xk-Xn) * (Yj-Ym)] Since the above equation is a general equation for finding the intersection of two lines,
In the following description, the explanation of such calculation formula is omitted.

【0037】ここで、Q点とR点は水平な位置にあるた
め、YqとYr、画像中央のY座標Y0は同じ値になる。この
ことから、J点からP点までの6点の位置がわかってい
れば、YqとYrの値が異なるとき、読みとった写真等が傾
いていると推定されるため、Yq=Yrとなるよう画像の中
心を軸にして画像全体を回転させ、水平に修正する。ま
た、J点とK点、M点とN点、O点とP点はそれぞれ垂
直な位置関係にあり、値がそのようになっていない場合
は読みとり誤差が予想されるため、適当な方法で修正す
る。最も簡単な修正方法の例は、Xj'=Xk'=(Xj+Xk)/2 、
Xm'=Xn'=(Xm+Xn)/2 、Xo'=Xp'=(Xo+Xp)/2 、Ym'=Ym、Y
n'=Ynとし、Yj' 、Yk' 、Yo' 、Yp' をそれぞれR−M
線上、R−N線上、Q−M線上、Q−N線上に求める方
法である。
Here, since the Q point and the R point are at horizontal positions, Yq and Yr and the Y coordinate Y0 at the center of the image have the same value. From this, if the positions of the six points from the point J to the point P are known, when the values of Yq and Yr are different, it is estimated that the read photograph or the like is inclined, so that Yq = Yr. Rotate the entire image around the center of the image to correct it horizontally. Also, the J point and the K point, the M point and the N point, and the O point and the P point are in a vertical positional relationship, and if the values are not such, a reading error is expected. Fix it. An example of the simplest fix is Xj '= Xk' = (Xj + Xk) / 2,
Xm '= Xn' = (Xm + Xn) / 2, Xo '= Xp' = (Xo + Xp) / 2, Ym '= Ym, Y
n '= Yn, and Yj', Yk ', Yo', Yp 'are each RM
It is a method of finding on a line, an RN line, a QM line, and a QN line.

【0038】また、消点Q、R及びJからPまでの6点
の位置を求める方法は、直接求める方法の他に複数あ
り、入力した画像の状態から読みとり誤差の少ない最も
適した方法を選択する。通常は、6点の内の何点かは家
具などの陰に隠れており、全部の点を直接求めることは
できない。しかし、6点と2消点の関係は上記の関係式
で関係づけられており、写真が水平に入力されておりデ
ータの読みとり誤差が無ければ、一部のデータが得られ
なくても、6点全部を算出することは可能である。6点
を算出する方法は幾通りもあり、ここではその代表的な
方法を示す。
There are a plurality of methods for finding the positions of the six points from the vanishing points Q, R, and J to P, in addition to the method of directly finding them. I do. Normally, some of the six points are hidden behind furniture or the like, and it is not possible to directly obtain all the points. However, the relationship between 6 points and 2 vanishing points is related by the above-described relational expression. If a photograph is input horizontally and there is no data reading error, 6 points can be obtained even if some data cannot be obtained. It is possible to calculate all points. There are many methods for calculating the six points, and a representative method is shown here.

【0039】図4を例に第一の代替方法を記す。YqとYr
は同じ値になるため、J点、K点、O点、P点のどれか
1点が欠けてもM点とN点を含む5点から消点Q、Rの
座標を算出することができる。その結果として欠けた1
点の座標を算出することができる。また、J点とK点、
あるいはO点とP点は必ずしも垂直な位置にある必要は
なく、例えばK点の代わりにK" 点でもよい。
The first alternative method will be described with reference to FIG. Yq and Yr
Have the same value, so even if any one of the points J, K, O, and P is missing, the coordinates of the vanishing points Q and R can be calculated from five points including the points M and N. . As a result 1
The coordinates of the point can be calculated. In addition, J point and K point,
Alternatively, the point O and the point P do not necessarily have to be at a vertical position. For example, the point K "may be used instead of the point K.

【0040】第二の代替方法を記す。M、N点が隠れて
いる場合は、J、K" 、P、J' 、K' 、P' の6点を
読み出して、M、N点を算出しても良い。この場合、J
点とK点は床に対し同じ垂直線上にあることが望まれる
が、K" 点がJ点の垂直下に位置しなくも、K' 点と
K" 点を結ぶ線上のXk=Xj となる点のY座標を求め、そ
れをK点とすることで解決できる。
A second alternative method will be described. If the M and N points are hidden, the six points J, K ", P, J ', K', and P 'may be read to calculate the M and N points.
It is desired that the point and the K point are on the same vertical line with respect to the floor, but Xk = Xj on the line connecting the K 'point and the K "point even if the K" point does not lie vertically below the J point. The problem can be solved by obtaining the Y coordinate of the point and setting it as the K point.

【0041】第三の代替方法を記す。K" 、N点が隠れ
ている場合は、J、M、O、Pの4点と天井高と撮影し
た視点の高さを入力することでも5点を導ける。この場
合、Yr=Yq=Yp+(Yo-Yp)×(視点の高さ)/(天井高)と
すれば、K点、N点を導ける。同様に、天井高が分かっ
ていれば、その高さが分かっている床(天井)と壁面に
平行な線、例えばサイドボード、窓枠の線を用いること
でも床面の位置を特定できるので、5点を導くことがで
きる。
A third alternative method will be described. When K "and N points are hidden, five points can be derived also by inputting four points of J, M, O, and P, the ceiling height, and the height of the viewpoint taken. In this case, Yr = Yq = Yp + If (Yo-Yp) × (height of viewpoint) / (ceiling height), points K and N can be derived, and similarly, if the ceiling height is known, the floor (ceiling) whose height is known ) And a line parallel to the wall surface, for example, a line of a sideboard or a window frame, the position of the floor surface can be specified, so that five points can be derived.

【0042】尚、通常Yr、Yqは画像中心のY座標Y0と同
じ値となる。この値が異なるときは、画像の視線が床に
対し水平でないと考えられ、その角度φは次の式で求め
られる。sin φ=(Y0-Yq)/(Yt-Ys) ここで、画像の視線が床に対し水平でない場合は、画像
を3点透視図法として捉え、後述する方法に従って水平
な視線の画像に変換して基本図形を求める。
Incidentally, Yr and Yq usually have the same value as the Y coordinate Y0 of the image center. When this value is different, it is considered that the line of sight of the image is not horizontal to the floor, and the angle φ is obtained by the following equation. sin φ = (Y0−Yq) / (Yt−Ys) Here, when the line of sight of the image is not horizontal with respect to the floor, the image is regarded as a three-point perspective projection, and is converted into an image of a horizontal line of sight according to a method described later. To find the basic figure.

【0043】また、配置図の基本構図(図3)にあるA
点、B点、C点及び視点Sの座標(Xa,Ya ) 、( Xb,Yb )
、( Xc,Yc ) 、( Xs,Ys ) は以下の計算式で算出され
る。壁面の交差する角度をθ゜とする。通常はθ=90
゜であり、その前提で配置図を想定すればよい。ここで
Ytは任意の値でかまわないが、図面をコンパクトにまと
めるためにYjとYoの大きい方の値とする。Yt=MAX(Yj,Y
o)
A in the basic composition (FIG. 3) of the layout diagram
Coordinates of point, point B, point C and viewpoint S (Xa, Ya), (Xb, Yb)
, (Xc, Yc), (Xs, Ys) are calculated by the following formulas. The angle at which the walls intersect is θ ゜. Usually θ = 90
゜, and a layout diagram may be assumed on the premise. here
Yt may be any value, but it is the larger of Yj and Yo in order to make the drawing compact. Yt = MAX (Yj, Y
o)

【0044】Xsは、通常は画像全体の中央の値を使う。
これは、入力された画像が写した写真全体のものである
ことが前提となっている。画像が写した写真の一部のみ
の場合は、画像からデータを得て、画像の中心点の座標
を使わずに、視点の位置を正確に求める必要が生じる。
この場合は、A点とB点の距離、B点とC点の距離がそ
れぞれ分かっているか、そこに写されている家具などの
水平面の2辺が分かっている必要がある。例えば、A点
とB点の距離Lab 、B点とC点の距離Lbc がそれぞれ分
かっており、2辺が直交している場合、Xsは以下の式で
算出される。
Xs usually uses the central value of the entire image.
This is based on the assumption that the input image is the entire photograph taken. If the image is only a part of a photograph, it is necessary to obtain data from the image and accurately determine the position of the viewpoint without using the coordinates of the center point of the image.
In this case, it is necessary to know the distance between the point A and the point B and the distance between the point B and the point C, or to know two sides of a horizontal plane of furniture or the like, which are photographed there. For example, when the distance Lab between the points A and B and the distance Lbc between the points B and C are known and the two sides are orthogonal, Xs is calculated by the following equation.

【0045】G1=Xk/Hk-Xn/Hn、G2=1/Hk-1/Hn、G3=Xn/Hn
-Xp/Hp、G4=1/Hn-1/Hpとおくと、視点のX座標Xsは次の
式から導ける。 Xs ={(G1*Lbc)2 −(G3*Lab)2 +Xq*Xr*[(G4*Lab)2 −(G
2*Lbc)2 ] }/{(G1*G2*Lbc2 −G3*G4*Lab 2 )*2+(Xq+
Xr)*[(G4*Lab) 2 −(G2*Lbc)2 ] } 視点のY座標Ysは次の式による。Ys = Yt - √[-(Xs-X
q)*(Xs-Xr)]
G1 = Xk / Hk-Xn / Hn, G2 = 1 / Hk-1 / Hn, G3 = Xn / Hn
If -Xp / Hp and G4 = 1 / Hn-1 / Hp, the X coordinate Xs of the viewpoint can be derived from the following equation. Xs = {(G1 * Lbc) 2 − (G3 * Lab) 2 + Xq * Xr * [(G4 * Lab) 2 − (G
2 * Lbc) 2 ]} / {(G1 * G2 * Lbc 2 −G3 * G4 * Lab 2 ) * 2 + (Xq +
Xr) * [(G4 * Lab) 2 − (G2 * Lbc) 2 ] Y The Y coordinate Ys of the viewpoint is given by the following equation. Ys = Yt-√ [-(Xs-X
q) * (Xs-Xr)]

【0046】壁面の交差する角度が90°でない場合、
その角度は入力して特定する必要がある。壁面の交差す
る角度をθ°、β= cotθとして、 Ys =Yt -{β*(Xr-Xq)+ √([ β*(Xq-Xr)] 2 -4*(Xs-X
q)*(Xs-Xr))}/2
If the angle at which the walls intersect is not 90 °,
The angle must be entered and specified. Assuming that the angle at which the walls intersect is θ ° and β = cotθ, Ys = Yt-{β * (Xr-Xq) + √ ([β * (Xq-Xr)] 2 -4 * (Xs-X
q) * (Xs-Xr))} / 2

【0047】歩きながら撮影した複数枚の街並みの写真
から、建物のファサードの画像情報などを得てその街並
みの立体データとして、その街を自由に歩き回ることが
できるようなバーチャルリアリティ空間を作成すること
もできる。
Obtaining image information of the facade of a building from a plurality of photographs of a street taken while walking, and creating a virtual reality space in which the street can be freely walked as three-dimensional data of the street. Can also.

【0048】また、街並みを撮影した画像では、隣接す
る建物が離れており、地盤の高低差もあり、2消点透視
図法の構図でありながら画像から得られるデータの制約
上1消点しか算出できない場合も多いと思われる。この
場合は、図11に示す例のようにその1消点を算出する
基となった線と一定角度で交差する仮想線を画像上に求
めることで対応できる。この2線の交差する角度は通常
は地図上から求めることができる。仮想線は、画像中で
抽出できた基本構図の線の交差角度を知ることができる
ものを選び、図11に示す例で示せば、O−O' 線、P
−P' 線の交点から消点Rを求め、J−J’線の延長上
でQ点を求め、視点SからQ点、R点を結ぶ線の角度が
θ゜となるようなX=Xs上の視点Sを求めることで、空
間の基本構図が得られる。
In an image obtained by photographing a cityscape, adjacent buildings are distant from each other, there is a difference in elevation of the ground, and although the composition is based on the two vanishing point perspective method, only one vanishing point is calculated due to the restriction of data obtained from the image. It seems that there are many cases that cannot be done. In this case, as shown in the example shown in FIG. 11, a virtual line that intersects at a fixed angle with the line on which the one vanishing point is calculated can be dealt with on the image. The angle at which these two lines intersect can usually be determined from a map. The virtual line is selected so that the intersection angle of the line of the basic composition extracted in the image can be known. In the example shown in FIG.
-Find a vanishing point R from the intersection of the P 'line, find a Q point on the extension of the JJ' line, and X = Xs such that the angle between the viewpoint S and the line connecting the Q point and the R point becomes θ ゜. By obtaining the upper viewpoint S, a basic composition of the space can be obtained.

【0049】そして、視点を割り出すことができれば、
街並みが曲がりくねっていたとしても、その建物それぞ
れが平面で構成されている限り、建物のファサードの曲
がり具合を算出することができる。画像が対象としてい
る空間の基本構図は地図からも分かるが、加えて視点と
の位置が分かる結果、画像中の各部位の情報を簡単に立
体データとして与えていくことができる。
If the viewpoint can be determined,
Even if the cityscape is winding, the degree of bending of the building facade can be calculated as long as each of the buildings is formed of a plane. Although the basic composition of the space targeted by the image can be understood from the map, in addition to the fact that the position with respect to the viewpoint is known, information on each part in the image can be easily given as three-dimensional data.

【0050】図3に示された配置図上の位置と2点間の
距離がわかっている画像上の任意の2点E1( Xe1,Ye1
)、E2( Xe2 、Ye2 ) からA点とB点の距離ないしは
B点とC点の距離を求め、それが1/10、1/20、1/50、1/
100 、1/200 など、利用者が希望する任意の縮尺になる
ようαを定める。例えばA点とB点の距離が算出された
場合、αを以下の式により導く。 α=[(A点とB点の距離)* (縮尺)]/[√{[ (X
k-Xs)/Hk-(Xn-Xs)/Hn]2 -(Xs-Xq)*(Xs-Xr)*[1/Hk-1/Hn]
2 }] 但し、Hk=Yj-Yk、Hn=Ym-Yn、Hp=Yo-Yp。縮尺の値は、モ
ニタ、プリンタ等の出力装置、画面上の画素の配置レベ
ルに合わせて適切な数値を与える。
Any two points E1 (Xe1, Ye1) on the image whose position on the layout diagram shown in FIG. 3 and the distance between the two points are known.
), E2 (Xe2, Ye2), the distance between point A and point B or the distance between point B and point C is calculated as 1/10, 1/20, 1/50, 1 /.
Α is determined so as to be an arbitrary scale desired by the user, such as 100 or 1/200. For example, when the distance between the points A and B is calculated, α is derived by the following equation. α = [(distance between point A and point B) * (scale)] / [√ {[(X
k-Xs) / Hk- (Xn-Xs) / Hn] 2- (Xs-Xq) * (Xs-Xr) * [1 / Hk-1 / Hn]
2 }] However, Hk = Yj-Yk, Hn = Ym-Yn, Hp = Yo-Yp. As the value of the scale, an appropriate numerical value is given according to an output device such as a monitor and a printer, and the arrangement level of the pixels on the screen.

【0051】B点とC点の距離が算出された場合、k を
p に読み替えて同様の計算式からαを導く。 天井高が分かった場合は、α= ( 天井高) * ( 縮尺) αが定まると、A、B、Cの各点の座標は以下の式によ
って求められる。 Xa =α*(Xk-Xs)/(Yj-Yk)+Xs 、Ya =α* √[-(Xs-Xq)*
(Xs-Xr)/(Yj-Yk)+Ys ] Xb =α*(Xn-Xs)/(Ym-Yn)+Xs 、Yb =α* √[-(Xs-Xq)*
(Xs-Xr)/(Ym-Yn)+Ys ] Xc =α*(Xp-Xs)/(Yo-Yp)+Xs 、Yc =α* √[-(Xs-Xq)*
(Xs-Xr)/(Yo-Yp)+Ys ] また各点の高さは視点の高さを0として、A点の上部、
即ちJ点のA点上の高さZaj は、Zaj=(Yj-Yq)*(Ya-Ys)/
(Yt-Ys) で求められ、同様にK点のA点上の高さZak
は、Zak=(Yk-Yq)*(Ya-Ys)/(Yt-Ys) で求められる。他の
点も同様にして求める。
When the distance between the points B and C is calculated, k is
Substitute p for α and derive α from the same formula. When the ceiling height is known, α = (ceiling height) * (scale) Once α is determined, the coordinates of each point of A, B, and C can be obtained by the following equations. Xa = α * (Xk-Xs) / (Yj-Yk) + Xs, Ya = α * √ [-(Xs-Xq) *
(Xs-Xr) / (Yj-Yk) + Ys] Xb = α * (Xn-Xs) / (Ym-Yn) + Xs, Yb = α * √ [-(Xs-Xq) *
(Xs-Xr) / (Ym-Yn) + Ys] Xc = α * (Xp-Xs) / (Yo-Yp) + Xs, Yc = α * √ [-(Xs-Xq) *
(Xs-Xr) / (Yo-Yp) + Ys] In addition, the height of each point is set above the point A, with the height of the viewpoint being 0.
That is, the height Zaj of the point J above the point A is Zaj = (Yj-Yq) * (Ya-Ys) /
(Yt-Ys), and the height Zak of point K above point A
Is determined by Zak = (Yk-Yq) * (Ya-Ys) / (Yt-Ys). Other points are similarly obtained.

【0052】また、J点とM点を結ぶ線とK点とN点を
結ぶ線が平行の場合、画像は1点透視図法の構図となっ
ている。二つの壁面が直交していれば、この場合はO点
とM点を結ぶ線とP点とN点を結ぶ線の交点のX 座標が
視点のX 座標Xsとなる。A点とB点の距離、C点とB点
の距離が分かっていれば、Ysは以下の式で算出される。
但しYtは任意の値、Xsは画像中央の値とする。 Ys=Yt+( B点とC点の距離)*(Xk-Xn)*(Xp-Xs) /[(A点
とB点の距離)*(Xp-Xn)] 尚、A点とB点を結ぶ線とB点とC点を結ぶ線が直行せ
ず、θ゜で交わっている場合は、Xsは画像中央の値と
し、f= (A点とB点の距離) /(B点とC点の距離) と
して、Ys=Yt+(Xp-Xs)*sin θ/[f*(Xp-Xn)/(Xk-Xn)-cos
θ] で求められる。 Yb-Ys=(Yt-Ys)*(Xb-Xs)/(Xm-Xs) 、Xc-Xs=Hm*(Xb-Xs)*
(Xp-Xs)/[Hp*(Xm-Xs)]、Yc-Ys=(Yt-Ys)*(Xc-Xs)/(Xp-X
s) 、Ya=Yb 、Xa-Xs=(Xk-Xs)*(Yb-Ys)/(Yt-Ys) で求める。
When the line connecting the points J and M and the line connecting the points K and N are parallel, the image has a one-point perspective composition. If the two wall surfaces are orthogonal to each other, in this case, the X coordinate of the intersection of the line connecting the points O and M and the line connecting the points P and N is the X coordinate Xs of the viewpoint. If the distance between the points A and B and the distance between the points C and B are known, Ys is calculated by the following equation.
However, Yt is an arbitrary value, and Xs is a value at the center of the image. Ys = Yt + (distance between points B and C) * (Xk-Xn) * (Xp-Xs) / [(distance between points A and B) * (Xp-Xn)] If the connecting line and the line connecting the points B and C do not cross each other but intersect at θ ゜, Xs is the value at the center of the image, and f = (distance between points A and B) / (points B and C Ys = Yt + (Xp-Xs) * sin θ / (f * (Xp-Xn) / (Xk-Xn) -cos
θ]. Yb-Ys = (Yt-Ys) * (Xb-Xs) / (Xm-Xs), Xc-Xs = Hm * (Xb-Xs) *
(Xp-Xs) / [Hp * (Xm-Xs)], Yc-Ys = (Yt-Ys) * (Xc-Xs) / (Xp-X
s), Ya = Yb, Xa-Xs = (Xk-Xs) * (Yb-Ys) / (Yt-Ys).

【0053】次に3点透視図法の場合を説明する。建物
を見上げながら撮影する場合、写真の構図は図5に示す
ように、上方にすぼまった構図となる。このような場
合、3点透視図法による配置の割り出しが適する。ま
ず、2点透視図法と同様にして、2消点Q(Xq、Yq)、
R(Xr、Yr)を求め、Yq=Yr となるよう画像の中心点を
軸に画像全体を回転させる。画像からのデータ入力が適
切であれば、J点とK点を結ぶ線の延長、M点とN点を
結ぶ線の延長、O点とP点を結ぶ線の延長は全て一点に
収束するはずである。
Next, the case of the three-point perspective projection will be described. When taking a picture while looking up at a building, the composition of the photograph is a composition narrowed upward as shown in FIG. In such a case, it is appropriate to determine the arrangement by three-point perspective. First, similarly to the two-point perspective projection, two vanishing points Q (Xq, Yq),
R (Xr, Yr) is obtained, and the entire image is rotated around the center point of the image so that Yq = Yr. If the data input from the image is appropriate, the extension of the line connecting the points J and K, the extension of the line connecting the points M and N, and the extension of the line connecting the points O and P should all converge to one point. It is.

【0054】しかし、実際は各点の入力誤差から微妙に
ずれることが予測される。そこで、各2線の交点の座標
の平均値(Xu、Yu)を求め、このX座標を視点の座標Xs
(=Xu)とし、更に2点透視図法と同様にして視点のY 座
標Ysを求める。尚、このXsは、画像の中央値X0としても
よく、入力誤差が少ないと思われる方を選ぶ。ここで、
画面の傾き、即ち撮影の際の仰角をφとすると、 sinφ
=(Yt-Ys)/(Yu-Yq)となる。尚、このφは sinφ=(Y0-Y
q)/(Yt-Ys)として求めてもよく、同じく入力誤差が少な
いと考えられる方を選択する。
However, in practice, it is expected that there will be slight deviations from the input error at each point. Therefore, the average value (Xu, Yu) of the coordinates of the intersection of each two lines is obtained, and this X coordinate is calculated as the coordinate Xs of the viewpoint.
(= Xu), and the Y coordinate Ys of the viewpoint is obtained in the same manner as in the two-point perspective projection. It should be noted that this Xs may be the median value X0 of the image, and a person who seems to have a small input error is selected. here,
If the tilt of the screen, that is, the elevation angle at the time of shooting is φ, sin φ
= (Yt-Ys) / (Yu-Yq). Note that this φ is sinφ = (Y0-Y
q) It may be obtained as / (Yt-Ys), and the person who thinks that the input error is small is selected.

【0055】そして、3点透視図法の画像を以下の処理
により2点透視図法の画面に変換する。新たに作成する
2点透視図法の各点(Xw、Yw)の色データCLR(Xw、Yw)
は、次の計算式に基づく3点透視図法の画面上の座標
(Xv、Yv)の色データCLR(Xv、Yv) とする。 Xw=Xs+(Yt-Ys)*(Xv-Xs)/[(Yt-Ys)-(Yv-Yq)*sinφ] Yw=Yq+(Yt-Ys)*(Yv-Yq)*cos φ/[(Yt-Ys)-(Yv-Yq)*sin
φ] 以下、2点透視図法の場合と同様にして、各部位の立体
データを得る。
Then, the three-point perspective image is converted into a two-point perspective image by the following processing. Color data CLR (Xw, Yw) of each point (Xw, Yw) of the newly created two-point perspective projection
Is the color data CLR (Xv, Yv) of the coordinates (Xv, Yv) on the screen of the three-point perspective projection based on the following formula. Xw = Xs + (Yt-Ys) * (Xv-Xs) / [(Yt-Ys)-(Yv-Yq) * sinφ] Yw = Yq + (Yt-Ys) * (Yv-Yq) * cos φ / [( Yt-Ys)-(Yv-Yq) * sin
φ] Hereinafter, three-dimensional data of each part is obtained in the same manner as in the case of the two-point perspective projection method.

【0056】そして、第二段階では、先に得た空間の基
本構図の上に、読み込んだ画像の各パーツの空間データ
を落とす。読み込んだ画像情報は、その部位毎に分割す
る。分割の方法は任意でよく、下記の方法の他、市販の
ソフトを用いてもよい。画像データは、色データの変化
を利用して、図7に示すように複数のパーツに分解す
る。この場合、各パーツは壁面AーB、B−C、天井、
床、カーテン、家具、小物など各部位単位に分解するこ
とが望まれるが、各部位に落とされた他の部位の影、小
さな縁取りなど色情報の変化だけでは捉えきれない場合
が出てくる。そこで、パーツに分解して認識するための
色データの変化の基準を適当な値に定めて、さらに影に
なっている部分とそうでない部分が別のパーツと認識さ
れた場合などに、それを同一の部位であることをキーボ
ード、マウスなどで入力することにより、各パーツが各
部位に割り振られる。これにより、各部位はそれぞれ単
一あるいは複数の画像パーツと関連付けられる。
In the second stage, the spatial data of each part of the read image is dropped on the basic composition of the space obtained earlier. The read image information is divided for each part. The dividing method may be arbitrary, and commercially available software may be used in addition to the following method. The image data is decomposed into a plurality of parts as shown in FIG. 7 using the change in the color data. In this case, each part is a wall AB, BC, ceiling,
It is desirable to disassemble each part such as a floor, a curtain, furniture, and an accessory. However, there are cases in which a change in color information such as a shadow or a small outline of another part dropped on each part cannot be captured. Therefore, the standard of color data change for disassembly and recognition of parts is set to an appropriate value, and when the shaded part and the other part are recognized as different parts, it is determined. Each part is allocated to each part by inputting the same part with a keyboard, a mouse, or the like. As a result, each part is associated with one or more image parts.

【0057】家具などの立体情報は与えられていないた
め、使用者は各部位毎に、別に予め用意されている家
具、カーテン、小物などの部位別立体データモデルの中
から類似したものを選び、各部位に選んだ部位別立体デ
ータモデルを関連づけることにより、各部位の形状を決
定する。但し画面上は、別の物への置き換えを行わない
限り、元のデータのまま画像表示されている。部位別立
体データモデルは、単純平面を組み合わせた場合と微細
なポリゴン立体データの集合体で構成されている場合と
2通りある。
Since no three-dimensional information such as furniture is given, the user selects similar ones from the three-dimensional data models for each part, such as furniture, curtains and accessories, which are prepared separately for each part. The shape of each part is determined by associating the selected part-specific three-dimensional data model with each part. However, the image is displayed as it is on the screen as it is, unless it is replaced with another object. There are two types of region-specific three-dimensional data models: a case where a simple plane is combined and a case where the three-dimensional data model is composed of an aggregate of minute polygon three-dimensional data.

【0058】また、部位別立体データモデルは立体デー
タの相対的な位置関係を表すものであり、絶対的な大き
さ、上下左右奥行きのプロポーションを決定しているも
のではない。従って、各部位の部位別立体データモデル
が選ばれた際は、その大きさ、上下左右奥行きのプロポ
ーションは配置図、立面図上のデータから決定され、図
8に示す例のようにその画像の空間に合わせて表示され
る。また、各部位の立体データには、初期値としてその
高さなどの仮データが付けられている。
The three-dimensional data model for each part represents the relative positional relationship of the three-dimensional data, and does not determine the absolute size and the proportions of the upper, lower, left and right depths. Accordingly, when a site-specific three-dimensional data model of each site is selected, the size, proportions of the top, bottom, left, and right are determined from the data on the layout drawing and the elevation view, and the image is displayed as in the example shown in FIG. It is displayed according to the space of. In addition, temporary data such as the height is attached to the three-dimensional data of each part as an initial value.

【0059】また、立体データモデルは、全体の大き
さ、プロポーションだけでなく、その一部の大きさ、プ
ロポーションのみも変えることができるように設計して
おくと、より汎用性の高いものにできる。例えば、ソフ
ァーであれば、背もたれの中央部分だけを周囲より高く
できる、肘掛けの部分の厚みだけを変えられるといった
ようにしておくとよい。壁面の窓枠などは、得られた立
体データ空間において、画像に合わせて壁面の一部を直
方体状に引き出す、あるいは奥へ引っ込めるといったよ
うな操作をできるようにしておくことで、精緻な立体デ
ータを容易に作成できる。立体データモデルの一部は、
既存の3次元CG、CADソフトなどに納められている
ものを用いてもよい。
Further, if the three-dimensional data model is designed so as to be able to change not only the entire size and the proportion but also a part of the size and the proportion, the versatility can be increased. . For example, in the case of a sofa, it is preferable that only the central portion of the backrest can be made higher than the surroundings, and only the thickness of the armrest portion can be changed. The window frame on the wall surface can be used in the obtained three-dimensional data space so that operations such as pulling out a part of the wall in a rectangular parallelepiped shape or retracting it to the back in accordance with the image can be performed. Can be easily created. Part of the 3D data model is
Those stored in existing three-dimensional CG, CAD software or the like may be used.

【0060】また、壁面、床、天井は図3に示す基本構
図に従って配される。初期段階では各部位は、平面図上
で適当な位置に配される。平面図上の部屋の傾きが解っ
ているため、各部位の3次元ポリゴン立体データは、そ
の傾きに沿って位置し、且つ画像の形状に合わせて左右
上下奥行きのプロポーションが定められる。更に、視点
からの距離は、各部位の高さなどの仮データに従って仮
決定される。
The walls, floor, and ceiling are arranged according to the basic composition shown in FIG. At the initial stage, each part is arranged at an appropriate position on the plan view. Since the inclination of the room on the plan view is known, the three-dimensional polygon three-dimensional data of each part is positioned along the inclination, and the proportions of the left, right, up, and down are determined according to the shape of the image. Furthermore, the distance from the viewpoint is provisionally determined according to provisional data such as the height of each part.

【0061】また、ある部位の画像から床や地表面に水
平な直線を抽出できる場合は、その部位の当該空間にお
ける配置の向きが判別できる。即ち、この抽出した直線
の当該空間における向きは、画像上のこの直線の延長線
とY=Yqで表される線との交点と視点を結ぶ線と平行に
ある。もし、その延長線がY=Yqと交わらない場合は、
その向きは画像に平行にある。このことを利用して、基
本構図上に配置することもできる。従って、その抽出し
た直線の実際の長さ、例えばソファーの幅やカップボー
ドの奥行きなどが分かっていれば、1枚の画像だけから
でもその部位の位置を特定できる。このことを利用し
て、各部位を基本構図上に配置することもできる。
When a straight line parallel to the floor or the ground surface can be extracted from an image of a part, the orientation of the arrangement of the part in the space can be determined. That is, the direction of the extracted straight line in the space is parallel to a line connecting the viewpoint and the intersection of the extended line of the straight line on the image and the line represented by Y = Yq. If the extension does not intersect with Y = Yq,
Its orientation is parallel to the image. By utilizing this fact, it can be arranged on the basic composition. Therefore, if the actual length of the extracted straight line, for example, the width of the sofa or the depth of the cupboard, is known, the position of that part can be specified from only one image. By utilizing this, each part can be arranged on the basic composition.

【0062】また、カーテン、家具、小物などの部位
は、一定の仮定条件に従って配置図上に示される。例え
ば、背の高い家具や応接セット、カーテンは壁に接して
配され、小物などはテーブル、花台の中心に配される。
さらに、カーソル、キーボードからの入力によって、そ
の位置(視点からの距離)を修正する。その際、各部位
の大きさは、位置の修正に応じて元の画像に合致するよ
う自動的に修正される。
Further, parts such as curtains, furniture, small articles, etc. are shown on the layout drawing according to certain assumed conditions. For example, tall furniture, reception sets, and curtains are arranged in contact with walls, and small items are arranged in the center of tables and flower stands.
Further, the position (distance from the viewpoint) is corrected by input from the cursor and the keyboard. At that time, the size of each part is automatically corrected so as to match the original image according to the position correction.

【0063】同一視点あるいは比較的近い視点からの画
像を合成する場合、こうした小物などに一つ一つ個別に
立体データを与える必要はなく、それらの画像を一つに
まとめてY=Yt上に単純平面として立体データを与えて
もよい。また、各部位別に、該当する位置に単純平面デ
ータとして立体データを与えることで、作業を簡略化し
てもよい。以上により、各部位の立体ポリゴンないし単
純平面立体データの3次元空間における座標及びその高
さの座標が決定される。
When synthesizing images from the same viewpoint or from a relatively close viewpoint, it is not necessary to individually give stereoscopic data to each of these small objects and the like. Three-dimensional data may be given as a simple plane. In addition, the operation may be simplified by giving three-dimensional data as simple plane data to a corresponding position for each part. As described above, the coordinates of the three-dimensional polygon or the simple three-dimensional data of each part in the three-dimensional space and the coordinates of its height are determined.

【0064】そして、上記で位置が決定された各立体デ
ータの任意の点(Xw、Yw、Zw)の色データは、その点と
視点を結ぶ線と該当部位の画像の交点の色データとす
る。即ち、(Xw、Yw、Zw)の色データは、画像上のXu=X
s+(Xw-Xs)*(Yt-Ys)/(Yw-Ys) 、Yu=Yq+(Zw-Zs)*(Yt-Ys)/
(Yw-Ys) で求められる座標(Xu、Yu)の色データCLR(X
u、Yu) とする。立体データ上の点と視点を結ぶ線が当
該部位の画像領域と交わらない場合は、とりあえず透明
色が与えられる。
The color data of an arbitrary point (Xw, Yw, Zw) of each of the three-dimensional data whose position is determined as described above is the color data of the intersection of the line connecting the point and the viewpoint and the image of the corresponding part. . That is, the color data of (Xw, Yw, Zw) is Xu = X on the image.
s + (Xw-Xs) * (Yt-Ys) / (Yw-Ys), Yu = Yq + (Zw-Zs) * (Yt-Ys) /
Color data CLR (X) of coordinates (Xu, Yu) obtained by (Yw-Ys)
u, Yu). If the line connecting the point and the viewpoint on the three-dimensional data does not intersect the image area of the part, a transparent color is given for the time being.

【0065】また、立体データの内、視点から見えない
ために画像に写っていない部分は色データが透明色とな
るが、当該部位の他の部分の色データを適当に流用する
ことで、近似的に色データを与えることができる。これ
により、上述したように読み込んだ空間を撮影した、あ
るいは描いた画像から、立体データモデルで近似されて
はいるものの、対象となった空間全体の立体データが得
られることになる。
In the three-dimensional data, the color data is a transparent color in a portion which is not shown in the image because it cannot be seen from the viewpoint. However, by appropriately diverting the color data of the other portion of the portion, the approximation is performed. Color data. As a result, three-dimensional data of the entire target space, although approximated by the three-dimensional data model, can be obtained from the captured or drawn image of the space read as described above.

【0066】壁面などは家具に隠れている部分も多い
が、通常は壁面の素材、色は他の箇所と同じであるた
め、立体データで色データを持たない箇所に他の箇所の
色データと同一のものをコピーすることで全ての箇所に
色データを与えられる。壁紙に模様がある場合は、その
コピーする箇所を選ぶことで連続した模様とすることが
できる。
Although the wall and the like are often hidden behind furniture, the material and color of the wall are usually the same as those of other places. Color data can be given to all locations by copying the same thing. If there is a pattern on the wallpaper, a continuous pattern can be obtained by selecting the portion to be copied.

【0067】カーテンなどの複雑な形状の物の場合は、
実際の画像はそのまま四角形の平面として立体データを
与える。尚、実際の形状と四角形の合致しない箇所は色
データとして透明色を与える。新たに素材サンプルから
選んで立体データを得る場合は、その素材サンプルの色
データをカーテンの立体データモデルの色データとして
与えて、立体データを得る。家具などの場合は、近似さ
せた立体データモデルに元の画像の色データを与え、他
の家具の陰になって見えなかった箇所は、色データを得
た箇所から適当に色データをコピーして得る。
In the case of an object having a complicated shape such as a curtain,
The actual image gives stereoscopic data as a square plane as it is. In addition, a portion where the actual shape does not match the rectangle is given a transparent color as color data. When three-dimensional data is obtained by newly selecting from material samples, color data of the material sample is given as color data of a three-dimensional data model of the curtain to obtain three-dimensional data. In the case of furniture, etc., the color data of the original image is given to the approximated three-dimensional data model, and in the places that were not visible behind other furniture, copy the color data appropriately from the place where the color data was obtained. Get it.

【0068】別途に様々な素材サンプル画面が用意され
ており、各素材サンプルの形状は先の部位別立体データ
モデルの一つを指定することによって、近似的に立体デ
ータが与えられている。例えば、ソファーであれば、そ
の布地のサンプル画像が色データとして与えられ、カッ
プボードであれば、複雑な配色となっている前面はその
画像をそのまま使い、側面はその一部の色データを繰り
返し使うことにより、近似させた立体データに色データ
が指定される。使用者が素材サンプルから新たな素材と
それに関連づけられている部位別立体データモデルを選
び、画面上の一つの部位と交換した場合、当該部位の立
体データは新しく選ばれた立体データに置き換えられ
る。選んだ素材サンプルの位置を配置図上で指定して変
えることも可能である。
Various material sample screens are separately prepared, and the shape of each material sample is given approximately three-dimensional data by designating one of the above-mentioned three-dimensional data models for each part. For example, in the case of a sofa, a sample image of the cloth is given as color data, and in the case of a cupboard, the front side, which has a complicated color scheme, uses the image as it is, and the side repeatedly repeats some color data. By using this, color data is specified for the approximated three-dimensional data. When the user selects a new material and a three-dimensional model for each part associated with the new material from the material sample and replaces it with one part on the screen, the three-dimensional data of the part is replaced with the newly selected three-dimensional data. It is also possible to change the position of the selected material sample by designating it on the layout drawing.

【0069】各立体データモデルについて、元々素材サ
ンプルデータとして内蔵されたもの、あるいはスキャナ
ーなどで得られる実物のテクスチャーを反映したサンプ
ルデータのテクスチャーをどのようにして立体データモ
デルの各立体データに色データとして与えるか、その方
式について予め定めておく。この方法については特に特
定するものではない。既存のソフトを用いることでも可
能であるし、一つの方法としては、立体データモデル毎
にそのポリゴンを平面に展開するルール付けをしてお
き、その平面に展開されたポリゴンに商品サンプルデー
タの色データを移し、色データを持った各ポリゴンを先
のルールと逆の手順で立体化していくやり方がある。
For each three-dimensional data model, how the texture of the sample data originally incorporated as material sample data or the sample data reflecting the actual texture obtained by a scanner or the like is used as the color data for each three-dimensional data of the three-dimensional data model. Or the method is determined in advance. This method is not particularly specified. It is also possible to use existing software. One method is to set a rule to develop the polygon on a plane for each three-dimensional data model, and to add the color of the product sample data to the polygon developed on the plane. There is a method of transferring data and three-dimensionalizing each polygon having color data in a procedure reverse to the above rule.

【0070】次に、立体データから配置図、平面図ある
いは立面図を作成する手順を説明する。対象となる空間
の立体データが得られれば、以下に示す以外に種々の隠
面消去法を使った市販のバーチャルリアリティの制作ソ
フトを用いることもできる。配置図、平面図を作成する
場合は、立体データ(Xu,Yu,Zu)のZ軸の値が小さいデー
タから順にそのCLR(Xu,Yu,Zu) を取り出し、別に用意し
たファイルの座標(Xu,Yu) の画素の色データCLR(Xu,Yu)
にその値を入れていき、後に同じ座標に他の色データの
値が与えられたときは、色データが透明色でなければそ
の新しい値としていくことで、配置図、平面図が作成さ
れる。
Next, a procedure for creating an arrangement plan, a plan view, or an elevation view from three-dimensional data will be described. If the three-dimensional data of the target space can be obtained, commercially available virtual reality production software using various hidden surface elimination methods other than those described below can be used. When creating a layout drawing or plan view, take out the CLR (Xu, Yu, Zu) of the three-dimensional data (Xu, Yu, Zu) in ascending order of the Z-axis data, and read the coordinates (Xu , Yu) pixel color data CLR (Xu, Yu)
When the value of another color data is given to the same coordinates later, if the color data is not transparent color, it will be used as the new value, and the layout drawing and plan view will be created .

【0071】この場合、壁面は厚みを与えられていない
ため、予め適当な厚みを入力しておく。立面図を作成す
る場合は、別に用意したファイルに以下の式によって座
標系を変換した立体データ及びその色データを作成す
る。 Xw=Xu*cosδ−Yu*sinδ、 Yw=Xu*sinδ+ Yu*cosδ、Zw=
Zu CLR(Xw,Yw,Zw)=CLR(Xu,Yu,Zu) ここでδは図4に示す例で言えば、壁面A−Bを背景と
する場合はδ1 (負の値)、壁面B−Cを背景とする場
合はδ2 (正の値)とする。
In this case, since the wall surface is not given a thickness, an appropriate thickness is input in advance. When an elevation is created, three-dimensional data whose coordinate system is converted by the following equation and its color data are created in a separately prepared file. Xw = Xu * cosδ−Yu * sinδ, Yw = Xu * sinδ + Yu * cosδ, Zw =
Zu CLR (Xw, Yw, Zw) = CLR (Xu, Yu, Zu) Here, in the example shown in FIG. 4, δ1 (negative value) when wall AB is the background, wall B When -C is used as the background, it is δ2 (positive value).

【0072】立体データのY 軸の値が大きいデータから
順にそのCLR(Xw,Yw,Zw) を取り出し、別に用意したファ
イルの座標(Xw,Zw) の画素の色データCLR(Xw,Yw)にその
値を入れていき、後に同じ座標に他の色データの値が与
えられたときは、色データが透明色でなければその新し
い値としていくことで、立面図が作成される。
The CLR (Xw, Yw, Zw) is extracted in order from the data having the largest Y-axis value of the three-dimensional data, and the color data CLR (Xw, Yw) of the pixel at the coordinates (Xw, Zw) of the separately prepared file is extracted. The value is entered, and when a value of another color data is given to the same coordinates later, if the color data is not a transparent color, the elevation is created by setting the new value to the new value.

【0073】次に、書き換えられた立体データに対し、
同一の視点から見た場合の画像、あるいは視点を移動
し、視線方向を変えて見た場合の画像を作成する手順を
示す。新たな視点S' の座標を(Xs' 、Ys' )とし、視
線方向をΔθ変えたとすると、元の各立体データの座標
(Xu、Yu)を次のようにして新しい座標(Xv、Yv)変換
する。Xv =Xu*cosΔθ−Yu*sinΔθ, Yv =Xu*sinΔθ+
Yu*cosΔθ、Zv=Zu とする。また、視点S' はS" (X
s" 、Ys" )に変換する。 Xs" =Xs'*cosΔθ− Ys'*sinΔθ, Ys" =Xs'*sinΔθ+
Ys'*cosΔθ
Next, for the rewritten three-dimensional data,
A procedure for creating an image when viewed from the same viewpoint, or an image when viewed from different viewpoints while moving the viewpoint is described. Assuming that the coordinates of the new viewpoint S ′ are (Xs ′, Ys ′) and the viewing direction is changed by Δθ, the coordinates (Xu, Yu) of each original three-dimensional data are changed to new coordinates (Xv, Yv) as follows. Convert. Xv = Xu * cosΔθ−Yu * sinΔθ, Yv = Xu * sinΔθ +
Yu * cosΔθ, Zv = Zu. Also, the viewpoint S 'is S "(X
s ", Ys"). Xs "= Xs' * cosΔθ- Ys' * sinΔθ, Ys" = Xs' * sinΔθ +
Ys' * cosΔθ

【0074】新たに求めた立体データ(Xv、Yv、Zv)か
ら、Xw=Xs+(Xv-Xs)*(Yt-Ys)/(Yv-Ys) 、Yw=Yq+(Zv-Zs)*
(Yt-Ys)/(Yv-Ys) として画像上の位置(Xw、Yw)を求
め、そこに立体データの色データCLR(Xv、Yv、Zv) と同
じ値を与えて画像を作成する。この場合、新たに作製さ
れた座標系での(Yt-Ys) と元の座標系での(Yt-Ys) とは
同じ値とする。この値を少しずつ変えれば、カメラの焦
点距離を変えていくのと同様の効果を得ることもでき
る。画像を作成する際は、奥の部位から色データを写し
始め、後に同じ画素で異なる色データが写された場合
は、その色が透明色でなければその新しい色データに変
えるという操作によって、重なって見えない部分が隠
れ、実際に見た場合と同じ画像が作製される。
From the newly obtained three-dimensional data (Xv, Yv, Zv), Xw = Xs + (Xv-Xs) * (Yt-Ys) / (Yv-Ys), Yw = Yq + (Zv-Zs) *
The position (Xw, Yw) on the image is obtained as (Yt-Ys) / (Yv-Ys), and an image is created by giving the same value as the color data CLR (Xv, Yv, Zv) of the three-dimensional data. In this case, (Yt-Ys) in the newly created coordinate system and (Yt-Ys) in the original coordinate system have the same value. By changing this value little by little, the same effect as changing the focal length of the camera can be obtained. When creating an image, color data is started to be copied from the back part, and if different color data is captured in the same pixel later, if the color is not transparent, it is changed to the new color data, so that overlapping is performed. The invisible part is hidden, and the same image as when actually seen is created.

【0075】視点、視線方向を変えた場合、図9、図1
0を例に取ると、視点1から見た元の画像の部位fのd1
-d2 面の色データは、立体データの部位fのd3-d4 面に
コピーされている。視点2から見た画像を作成する場
合、その画像の部位fのd5-d6面の色データをd3-d4 面
から取り出すことにより、ポリゴン立体データ計算をし
なくても元の画像の質感まで忠実に反映した画像を作成
できる。図10はこれを立面図で示したものである。こ
のときのデータの変換の手順は上述した方法を用いる。
When the viewpoint and the line of sight are changed, FIGS.
Taking 0 as an example, d1 of the part f of the original image viewed from the viewpoint 1
The color data of the -d2 plane is copied to the d3-d4 plane of the part f of the three-dimensional data. When an image viewed from the viewpoint 2 is created, the color data of the d5-d6 surface of the portion f of the image is extracted from the d3-d4 surface, so that the texture of the original image can be faithfully obtained without calculating the polygon three-dimensional data. You can create an image that reflects on FIG. 10 shows this in an elevation view. The data conversion procedure at this time uses the above-described method.

【0076】また、立体データモデルからポリゴン立体
データ計算によって作成された画像も、元のデータモデ
ルの形状が複数の単純平面に近似できるものであれば、
その画像を元に、立体データモデルを単純平面のものに
置き換えて、同様の方法で別の視点からの画像を作成す
ることができる。これによって、計算量を削減しつつ、
質感のある画像を近似的に作成することができる。
Also, an image created by a polygon three-dimensional data calculation from a three-dimensional data model can be used if the shape of the original data model can be approximated to a plurality of simple planes.
Based on the image, the three-dimensional data model can be replaced with a simple plane model, and an image from another viewpoint can be created in a similar manner. This reduces the amount of computation,
A textured image can be approximately created.

【0077】連続する異なる視点から見た場合の画像を
作成し、それらを順次表示していくことにより、一枚な
いし複数枚の写真、パースからその室内を歩き回る映像
を制作することができる。
By creating images as viewed from successive different viewpoints and displaying them sequentially, it is possible to produce an image of walking around the room from one or more photos and perspectives.

【0078】同一室内の異なる2点の視点から撮影した
写真から、上述した方法で配置図を作成してより正確に
各部位の位置を定め、その各部位を照合して同一部位と
して捉え、共通しないデータを補完し合うことで、より
広い範囲の情報を得ることが可能になる。図9に示すよ
うに複数の写真から作製された基本構図を重ね、全部の
写真の座標系をその内の1枚の座標系に統一することに
よって、同一空間での視点の相互関係が確定する。
From the photographs taken from two different viewpoints in the same room, a layout drawing is created by the above-described method, and the positions of the respective parts are determined more accurately. By complementing the data that is not used, a wider range of information can be obtained. As shown in FIG. 9, the basic composition made from a plurality of photographs is overlapped, and the coordinate system of all the photographs is unified into one of the coordinate systems, whereby the mutual relation of viewpoints in the same space is determined. .

【0079】各視点から同一部位が見える方向は少しず
つ異なるが、どの視点からも共通する箇所が1箇所あ
り、そこがその部位の位置する座標であると特定するこ
とができ、その結果、当該部位の大きさも特定できる。
また、各部位の立体データの内、1枚の画像からは色デ
ータが得られなかった箇所も別の画像に写っているとこ
ろであれば、先に述べたと同じ方法により、色データを
得ることができる。
The direction in which the same part can be seen from each viewpoint is slightly different, but there is one common point from all viewpoints, and it can be specified that this is the coordinate where the part is located. The size of the site can also be specified.
In addition, if a portion of the three-dimensional data of each part where color data was not obtained from one image is also reflected in another image, color data can be obtained by the same method as described above. it can.

【0080】別の言い方をすれば、2つの立体パース画
像から同一部位の位置を照合してより厳密に設定するこ
とで、測量を行わなくても多くの部位の位置関係を正確
に知ることも可能になる。以上は、室内においての例で
示したが、建築物を屋外から見た写真、パースの場合も
同様である。この場合は、壁面を建物のファサード、床
を地表、他の部位を植裁、塀などと置き換えて考えれば
よい。
In other words, by comparing the positions of the same part from two stereoscopic perspective images and setting the same more strictly, it is possible to accurately know the positional relationship between many parts without performing surveying. Will be possible. The above description has been given of an example in which the building is indoors, but the same applies to a case where a building is viewed from the outside and a perspective view. In this case, the wall may be replaced with the facade of the building, the floor may be replaced with the ground surface, and the other parts may be replaced with a planting wall or a fence.

【0081】立体データ上の影の座標と、その影を落と
している部位の該当する箇所とを結んだ線上に太陽や照
明などの光源があると推定できる。即ち、これにより太
陽の高度、方角を割り出し、あるいはその線の延長上で
天井から数十センチ下がったところを照明の位置として
設定する。影になっているところとそうでないところの
色データCLR(X 、Y 、Z)の値の違いがわかっているた
め、光源の位置を変えた場合の影になる部分の変化を計
算して座標を求め、影になっていた箇所で光が当たるこ
ととなった部分は色データとして光の当たっている箇所
のCLR の値を与え、影になった部分には影の箇所のCLR
の値を与えることで、光源の位置、方角を変えた場合の
画像を作製することもできる。
It can be estimated that there is a light source such as the sun or illumination on a line connecting the coordinates of the shadow on the three-dimensional data and the corresponding part of the part where the shadow is cast. That is, the altitude and the direction of the sun are calculated, or a position which is several tens of centimeters below the ceiling along the extension of the line is set as the illumination position. Because the difference between the values of the color data CLR (X, Y, Z) where shadows are not and where it is not is known, the change in the shadow part when the position of the light source is changed is calculated and the coordinates are calculated The CLR value of the illuminated part is given as color data for the part that was illuminated in the shadowed part, and the CLR of the shadowed part is given as the shaded part.
By giving the value of, it is also possible to produce an image when the position and the direction of the light source are changed.

【0082】以上の画像処理コンピュータ20での処理
によって得られた新たな平面図、立面図、合成された写
真、パース、それらを連続した動画像などの新たな画像
をモニタ30に表示し、あるいはプリンタ、プロッター
31に出力する。尚、立体データから得られた画素の座
標は、元の画像のように均一な配列になっていないた
め、適当な方法を選択して均等な配列に修正して出力す
る。
A new image such as a new plan view, an elevation view, a synthesized photograph, a perspective, and a continuous moving image obtained by the above processing by the image processing computer 20 is displayed on the monitor 30. Alternatively, the data is output to a printer or a plotter 31. Since the coordinates of the pixels obtained from the three-dimensional data are not in a uniform arrangement as in the original image, an appropriate method is selected to correct and output the uniform arrangement.

【0083】現在のデジタルカメラでは、画素の数は多
くても百数十万程度である。境界線や特定の点を抽出す
る際、画素数が限定されていることによる読みとり誤差
は避けることができない。しかし、境界線を特定する場
合や交点を求める場合などは、その境界線を表す画素全
体を抽出し、最小二乗法によってその誤差を小さくする
ことが可能であり、また最小二乗法によって導きだした
線の交点を求めて、測定精度を高めることができ、この
手法は一般に広くつかわれているところである。
In a current digital camera, the number of pixels is at most one hundred and several hundred thousand. When extracting a boundary line or a specific point, a reading error due to the limited number of pixels cannot be avoided. However, when specifying a boundary line or finding an intersection, it is possible to extract the entire pixel representing the boundary line and reduce the error by the least squares method, and also derived by the least squares method The intersection of the lines can be determined to increase the measurement accuracy, and this technique is widely used.

【0084】また、色データの相違から境界線を求める
に当たっても、その境界線を直線あるいは曲線と想定し
て、その境界に位置する隣接する画素の色データが異な
る画素群から最小二乗法によって境界線を求め、且つそ
れらの画素が求めた境界線を越えないような単位で画素
をグルーピングし直して境界線を修正することができ
る。上述したような基本構図の抽出の際も、その点を
壁、床などの境界線を最小二乗法によって求め、その線
上に修正して配することで、読みとり誤差を低減するこ
とができる。
When a boundary line is determined from a difference in color data, the boundary line is assumed to be a straight line or a curved line, and the color data of adjacent pixels located at the boundary is determined by the least squares method from a different pixel group. The boundary line can be corrected by determining the line and regrouping the pixels in such a unit that the pixels do not exceed the determined boundary line. Also in the case of extracting the basic composition as described above, the reading error can be reduced by finding the boundary line such as a wall or a floor by the least square method and arranging it on the line.

【0085】また、複数の画像から得られた色データを
持つ立体データを合わせて、より緻密な立体データとす
ることも可能である。即ち、その面の傾斜角度によって
は一のカメラ画像からは十分な色データが得られないも
のを他方のカメラ画像で補うことができる。
Further, by combining three-dimensional data having color data obtained from a plurality of images, more precise three-dimensional data can be obtained. In other words, one in which sufficient color data cannot be obtained from one camera image can be supplemented by the other camera image depending on the inclination angle of the surface.

【0086】複数の視点から撮影した画像の基本構図を
重ね、任意の点を複数の画像中で照合して同一対象と判
断しその位置を特定する場合、画像中の色データの変化
から自動的に判断していくことは、現状では誤り率が高
いと考えられる。しかし対話型モデルであれば、画像中
の色データの変化から計算によって自動的に判断したも
のを画面に表示し、それを人が確認することによって、
誤りを排除しつつ作業を効率化できる。一の画面A上に
おいて色データが顕著に変化した点の位置は、他方の画
面B上では、画面Aの視点と画像上の当該点を結ぶ延長
線上にあることになる。従って、画面B上の当該線上
で、類似した色データを持つ点、及び類似した色データ
の変化をする点を求めれば、かなり高い確度で自動的に
立体的な位置を確定することができる。その候補が複数
あればそれら全部を表示し、人が選択することによって
位置を確定すればよい。これによって、対象とした空間
の立体データを迅速に得ることが可能になる。
When the basic composition of images taken from a plurality of viewpoints is superimposed, and an arbitrary point is collated in the plurality of images to determine the same object and its position is specified, changes in color data in the image are automatically performed. It is considered that the error rate is high at present. However, in the case of an interactive model, what is automatically determined by calculation from the change in color data in the image is displayed on the screen, and by confirming it by a person,
Work can be streamlined while eliminating errors. On the other screen B, the position of the point at which the color data has significantly changed on one screen A is on an extension line connecting the viewpoint of the screen A and the point on the image. Therefore, if a point having similar color data and a point at which similar color data changes are obtained on the line on the screen B, a three-dimensional position can be automatically determined with considerably high accuracy. If there are a plurality of candidates, all of them may be displayed, and the position may be determined by selection by a person. This makes it possible to quickly obtain three-dimensional data of the target space.

【0087】また、図9に示すように、異なる二つの視
点から撮影した写真から導いた空間を同一座標系に置い
た場合に、撮影された空間の1点が、その二つの視点と
その点を撮影した画像を結んだ線の交点にあることを利
用して、複雑な形状の物体でもその二つの画像を解析す
ることで、その撮影対象となった物体の形状を立体デー
タとして得ることができる。その場合、既知の角度で接
合した各辺の長さが既知の二つの長方形状の枠を予め撮
影しておけば、前述のようにその二つのカメラ画像から
導かれる基本構図は同一座標系に設定できる。
As shown in FIG. 9, when a space derived from photographs taken from two different viewpoints is placed in the same coordinate system, one point in the photographed space is defined by the two viewpoints and the points. By taking advantage of the fact that it is at the intersection of the lines connecting the captured images, it is possible to obtain the shape of the captured object as three-dimensional data by analyzing the two images even if the object has a complicated shape. it can. In this case, if two rectangular frames with known lengths of the sides joined at a known angle are photographed in advance, the basic composition derived from the two camera images is in the same coordinate system as described above. Can be set.

【0088】また、2台のカメラの中間に照明を配し、
予め一定角度で接する二つの長方形状の枠を撮影して基
本構図を求め、2台のカメラ画像の視点と対象空間を同
一座標系に置き、対象物体に当てるスポットないしはス
リット光源の波長、幅、向き、位置などを変えた複数枚
の写真を2台同時に撮影し、写真の各画素単位にその複
数枚の光の当たった経歴を空間コードとして与えれば、
対象物体の表面を微細な領域に分割でき、その任意の領
域を両方のカメラの画面上において画素単位あるいは少
数の画素群単位で同一か否か認識することができる。即
ち、複数回の撮影に置いて、物体表面の任意の点に光の
当たる、当たらないと言う情報が数値化されて蓄積さ
れ、その任意の点が他の点とデータ上から判別できるこ
とになる。これを2台のカメラそれぞれの画素単位で照
合することにより、物体表面の任意の微細な領域が2台
のカメラで撮影した画像上で同一と判別することが可能
になる。
Also, an illumination is arranged between the two cameras,
The basic composition is obtained by photographing two rectangular frames that are in contact with each other at a certain angle in advance, the viewpoint of the two camera images and the target space are placed in the same coordinate system, and the wavelength or width of the spot or slit light source applied to the target object is If two or more pictures with different orientations and positions are taken at the same time, and the history of the light exposure is given as a spatial code to each pixel of the picture,
The surface of the target object can be divided into fine regions, and it is possible to recognize whether or not any of the regions is the same in pixel units or a small number of pixel groups on the screens of both cameras. That is, in a plurality of times of photographing, information that an arbitrary point on the surface of the object is illuminated or not illuminated is digitized and stored, and the arbitrary point can be distinguished from other points from the data. . By collating this on a pixel-by-pixel basis for each of the two cameras, it is possible to determine that any fine area on the surface of the object is the same on images captured by the two cameras.

【0089】例として、スリットパターン光を縦方向と
横方向に分けて当てる場合は以下のようなコード化を行
う。 画素n=N(x,y,a,b,c,d,e, ・・・・・・・・,p,q,r,s,t,u,v, ・・・・・・・・,CLR) 但し、Nは画素ナンバー、x 、y は画素の座標、a以降
はx軸方向の撮影回毎の光の当たる、当たらないなどの
情報、p以降はy軸方向の撮影回毎の光の当たる、当た
らないなどの情報、CLR はその画素の色データである。
As an example, when the slit pattern light is applied separately in the vertical direction and the horizontal direction, the following coding is performed. Pixel n = N (x, y, a, b, c, d, e, ..., p, q, r, s, t, u, v, ... , CLR) where N is the pixel number, x and y are the coordinates of the pixel, a and later are information such as light hitting or not hitting each time of shooting in the x-axis direction, and p and thereafter are information of each hitting time in the y-axis direction. CLR is the color data of the pixel, such as information on whether or not light is applied.

【0090】このように、光の波長、幅、向き、位置な
どの変更を工夫して多数回撮影を行えば、一のカメラの
画像上での同一データを持つ画素の単位が小さくなり、
物体表面を微細な領域に分割することができる。この手
法については様々な方法が開発され実用化されている。
特にスリット光の投影によってグレイコードパターンを
与える手法は、一定方向にその数値が高まるという特性
があり、後に述べる空間のサブピクセル化を容易にする
優れた手法である。さらに、これを縦方向、横方向に使
い分けることにより、空間を微細な領域に分けることが
できる。虹状の光パターンを照射し、画素毎にその波長
を読みとれば、縦方向、横方向2回の撮影で、空間を完
全にコード化できる。
As described above, if a large number of shots are taken while changing the wavelength, width, direction, position, etc. of the light, the unit of pixels having the same data on one camera image becomes small.
The object surface can be divided into fine regions. Various methods have been developed and put into practical use for this method.
In particular, the method of giving a gray code pattern by projecting slit light has a characteristic that its numerical value increases in a certain direction, and is an excellent method for easily converting a sub-pixel into a space described later. Furthermore, by using this vertically and horizontally, the space can be divided into fine regions. By irradiating a rainbow-like light pattern and reading the wavelength for each pixel, the space can be completely coded by photographing twice in the vertical and horizontal directions.

【0091】また、画像中の各画素が得た空間コード
は、形状が未知の対象物体の微細表面の画像情報を読み
込んだ場合に、受動型計測においては2台のカメラの画
素の持つ情報は一対一対応せず、光の照射箇所を読み込
むような能動型撮影においてはその位置が画素の大きさ
だけ標本誤差を生じる。そのため周辺の画素の状態から
推定して、照合する画像上の位置を修正して定める必要
が生じる。これについても既に実用化されているところ
であるが、この方法を先のスリット光源によるグレイコ
ードパターンによる方法を例として示す。
The spatial code obtained by each pixel in the image is obtained by reading the image information of the fine surface of the target object whose shape is unknown. In active imaging in which a light irradiation location is read without corresponding one-to-one, a sampling error occurs at the position corresponding to the size of a pixel. Therefore, it is necessary to estimate and determine the position on the image to be collated by estimating from the state of peripheral pixels. Although this method has already been put into practical use, this method will be described as an example using a gray code pattern using a slit light source.

【0092】画面上の当該画素の周辺にシャープエッジ
が無ければ、その周囲を微細平面と仮定し、その画面の
法線方向に空間コードの数値を軸とした微細3次元空間
を仮定的において、グレイコードパターンの空間コード
値から最小二乗法により求めた平面を縦方向、横方向そ
れぞれ設定し、当該画素の空間コード値と一致する線の
平面投影線の交わる座標をその2次元の空間コードの値
を持つ点の座標とする。この結果、2台のカメラの画像
上でそれぞれ座標が得られることになる。それらの点と
それぞれの視点の結んだ線の延長上で最も接近する点の
組を求め、その2点の中間点を当該画素の表す対象物体
の3次元座標とする。
If there is no sharp edge around the pixel on the screen, the periphery is assumed to be a fine plane, and a fine three-dimensional space is assumed on the axis of the numerical value of the space code in the normal direction of the screen. The plane determined by the least-squares method from the spatial code values of the gray code pattern is set in the vertical and horizontal directions, respectively, and the coordinates where the plane projection line of the line corresponding to the spatial code value of the pixel intersects are defined as the coordinates of the two-dimensional spatial code. The coordinates of a point having a value. As a result, coordinates are obtained on the images of the two cameras. A set of points closest to each other on the extension of a line connecting these points and the respective viewpoints is obtained, and an intermediate point between the two points is set as the three-dimensional coordinates of the target object represented by the pixel.

【0093】最小二乗法によって仮想平面を求める場合
に、シャープエッジに近いなどの理由により、その相関
係数が一定値以下となる場合は、選択した周辺画素が適
正でないと考えられるため、その平面から大きく離れる
画素を除外できるよう画素を選択する領域を狭め、計算
し直す。計測対象物体の表面の微細領域を平面に近似さ
せて考えられれば、このような方法や、単純に隣接する
画素の値を比例按分して、空間をより細かくサブピクセ
ル化できる。
When a virtual plane is obtained by the least squares method, if the correlation coefficient is less than a certain value due to a reason such as closeness to a sharp edge, it is considered that the selected peripheral pixel is not appropriate. The area for selecting pixels is narrowed so that pixels far away from are excluded, and the calculation is performed again. If it is conceivable to approximate a minute area on the surface of the measurement target object to a plane, such a method or simply proportionally dividing the values of adjacent pixels can make the space more subpixel.

【0094】本発明による手法に於いては、視点の位置
を定めるためにサンプルとして抽出する点は5ないし6
点と従来の手法と同じであるが、その計算過程における
加減乗除のステップ数が少なく、パラメーター自体の誤
差を小さくできるという特長がある。上述したように消
点を求める手順は、線状に読みとった多数の点から最小
二乗法によって導いた線の交点を求めることに他ならな
い。元来標本誤差を低減して1点を抽出する手続き自体
が、そうした最小二乗法により求めた線の交点を算出す
ることであるから、消点の算出あたっての標本誤差の増
大はないことになる。
In the method according to the present invention, the number of points to be sampled to determine the position of the viewpoint is 5 to 6 points.
This is the same as the conventional method, except that the number of steps of addition, subtraction, multiplication, and division in the calculation process is small, and the error of the parameter itself can be reduced. As described above, the procedure for finding a vanishing point is nothing but finding the intersection of a line derived by the least squares method from a number of points read linearly. Originally, the procedure of extracting one point by reducing the sampling error is to calculate the intersection of the lines obtained by such a least squares method, so there is no increase in the sampling error when calculating the vanishing point. Become.

【0095】視点の位置が決まれば、画像までの距離、
いわゆる焦点距離も同じ消点と視点の座標から算定され
る。従って、本発明におけるパラメーター算定時の誤差
の拡大は、消点から視点を求める手続きによるもの程度
である。ちなみに、本発明におけるパラメーターは、基
本構図をおいた計測対象のある実際の3次元空間の座標
系における視点及び画像面の座標である。カメラ画像の
中心点の決定にあたっては、前もってカメラ個々に試験
を行うことで、誤差を取り除くことができる。視点を求
める際の誤差が小さければ、2台のカメラをそれぞれ独
立して使ったシステムでも、画像の任意の点の読みとり
誤差は許容しうると考えられる。
Once the position of the viewpoint is determined, the distance to the image,
The so-called focal length is also calculated from the same vanishing point and the coordinates of the viewpoint. Therefore, the enlargement of the error at the time of parameter calculation in the present invention is only due to the procedure for obtaining the viewpoint from the vanishing point. Incidentally, the parameters in the present invention are the coordinates of the viewpoint and the image plane in the coordinate system of the actual three-dimensional space where the measurement target having the basic composition is located. In determining the center point of the camera image, an error can be removed by performing a test on each camera in advance. If the error in obtaining the viewpoint is small, it is considered that a reading error at an arbitrary point in the image is acceptable even in a system using two cameras independently.

【0096】上述したようなITVカメラとパターン光
プロジェクタを用いた測定方法は優れたものであるが、
プロジェクタ自体に機械的な機構がない、歪みが少ない
など高い性能を求める必要が生じ、コストがかかる、容
易に持ち運びができないなどの課題があった。
Although the measuring method using the ITV camera and the pattern light projector as described above is excellent,
There is a need for high performance, such as no mechanical mechanism in the projector itself, little distortion, etc., and there have been problems such as high cost and inability to carry easily.

【0097】本発明による手法では2台のカメラ画像に
よって測定しているため、まずプロジェクタそのものの
性能にそれほど高いものを求めなくてもよいという特長
がある。これにより、プロジェクタに機械的な機構を用
いても読みとり誤差が大きくならず、スリット光源を縦
横に使い分け、あるいはスリット光源ないしはスリット
状の遮蔽物を縦横に走らせて画素毎の時系列データによ
って空間をコード化することによって、微細なスポット
光源と同じ効果を少ない画像数で得られるという効果が
生じる。
In the method according to the present invention, since the measurement is performed by using two camera images, there is a feature that the performance of the projector itself does not need to be so high. As a result, even if a mechanical mechanism is used for the projector, the reading error does not become large, and the slit light source is used vertically and horizontally, or a slit light source or a slit-shaped shield is run vertically and horizontally to create a space by time-series data for each pixel. By coding, the same effect as that of a fine spot light source can be obtained with a small number of images.

【0098】また、スリット光源の歪みによる誤差の影
響も大きく軽減できる。さらに、2台のカメラで同時に
撮影するため、ケースによっては撮影対象の色彩分布、
反射率などの影響も受けにくくなるという利点が生じ
る。その結果、計測システムが安価となり、持ち運びも
容易になり、移動できない計測対象を多数の角度から計
測するに当たっても、基準立方体の代わりに長方形を一
定角度で接合した枠状の基準体を撮影対象周囲に配して
撮影することで代用しうる。
Further, the influence of errors due to the distortion of the slit light source can be greatly reduced. Furthermore, since two cameras shoot simultaneously, depending on the case, the color distribution of the shooting target,
There is an advantage that it is hardly affected by the reflectance and the like. As a result, the measurement system is inexpensive, easy to carry around, and when measuring immovable measurement objects from many angles, instead of the reference cube, a frame-shaped reference body joined by a rectangle at a fixed angle around the shooting object It can be substituted by arranging and photographing.

【0099】さらに画素単位以下に空間をサブピクセル
化するにあたって、双方の画像と視線を結ぶ線が3次元
空間で交差するという条件によって2台のカメラ画像の
標本誤差を低減できる。同一座標系に置いた二つの視点
をそれぞれ(X1、Y1、Z1)、(X2、Y2、Z2)として、そ
れぞれの視点と画像上の該当する点を結んだ線を(α*a
1+X1、α*b1+Y1、α*c1+Z1)、(β*a2+X2、β*b2+Y2、
β*c2+Z2)となるようなa1、a2、b1、b2、c1、c2を設定
する。ここで、α、βは変数である。本来はその2線は
交わるはずであるが、実際は測定誤差、画像の歪みから
微妙にすれ違うことが予想される。
Further, when sub-pixels are formed in the space below the pixel unit, the sampling error between the two camera images can be reduced by the condition that the lines connecting both images and the line of sight intersect in the three-dimensional space. The two viewpoints placed in the same coordinate system are (X1, Y1, Z1) and (X2, Y2, Z2), and the line connecting each viewpoint and the corresponding point on the image is (α * a
1 + X1, α * b1 + Y1, α * c1 + Z1), (β * a2 + X2, β * b2 + Y2,
a1, a2, b1, b2, c1, and c2 are set so that β * c2 + Z2). Here, α and β are variables. Originally, the two lines should intersect, but in reality, it is expected that the two lines slightly pass from each other due to measurement errors and image distortion.

【0100】従って、2本の線上の2点が相互に一番接
近することとなる点のα、βを求め、その2点の中間値
を交点に代用する。2点の距離の二乗をα、βという変
数の関数と捉えると、その関数をそれぞれα、βで微分
した式が共に0となるようなα、βを求める。
Accordingly, the points α and β at which the two points on the two lines are closest to each other are determined, and the intermediate value of the two points is substituted for the intersection. If the square of the distance between two points is regarded as a function of variables α and β, α and β are obtained so that the expressions obtained by differentiating the function with α and β are both 0.

【0101】即ち、 d1=a12 +b12 +c12 、 d2=a22
b22 +c22 、d3=a1*a2+b1*b2+c1*c2、d4=a1*(X1-X2)+b1
*(Y1-Y2)+c1*(Z1-Z2) 、d5=a2*(X1-X2)+b2*(Y1-Y2)+c2*
(Z1-Z2) とし、α=(-d2*d4+d3*d5)/(d1*d2-d32 ) 、β
=(d1*d5-d3*d4)/( d1*d2-d32 ) でα、βが求められ、
その上でその交点の代用となる点を以下の座標とする。 [(α*a1+β*a2+X1+X2)/2、 (α*b1+β*b2+Y1+Y2)/2、
(α*c1+β*c2+Z1+Z2)/2]
[0101] In other words, d1 = a1 2 + b1 2 + c1 2, d2 = a2 2 +
b2 2 + c2 2 , d3 = a1 * a2 + b1 * b2 + c1 * c2, d4 = a1 * (X1-X2) + b1
* (Y1-Y2) + c1 * (Z1-Z2), d5 = a2 * (X1-X2) + b2 * (Y1-Y2) + c2 *
(Z1-Z2), α = (-d2 * d4 + d3 * d5) / (d1 * d2-d3 2 ), β
= (D1 * d5-d3 * d4) / (d1 * d2-d3 2) with α, β is found,
Then, a point serving as a substitute for the intersection is set as the following coordinates. [(α * a1 + β * a2 + X1 + X2) / 2, (α * b1 + β * b2 + Y1 + Y2) / 2,
(α * c1 + β * c2 + Z1 + Z2) / 2]

【0102】そして、出来上がった立体データにおい
て、隣接する複数のデータを適当な曲線、曲面を使って
近似させ、この曲線、曲面を使ってさらにデータを微細
化することにより、より滑らかな面を持つ立体データが
得られる。それらの隣接した3点を線で結んでポリゴン
として設定することにより、計測した物体の立体データ
を近似的に得られる。3次元ポリゴンの大きさは任意に
定められる。
In the completed three-dimensional data, a plurality of adjacent data are approximated by using appropriate curves and curved surfaces, and the data is further refined by using the curved lines and curved surfaces, so that a smoother surface is obtained. Three-dimensional data is obtained. By connecting these three adjacent points with a line and setting it as a polygon, three-dimensional data of the measured object can be approximately obtained. The size of the three-dimensional polygon is arbitrarily determined.

【0103】以上により、2台のカメラを用いること
で、標本誤差を低減しつつ安価なシステムで、且つ持ち
運びも容易なものを用いて物体形状を立体データ化する
ことが可能になる。当然に対象物体の一部を拡大して計
測し、部分部分の立体データを合成して全体の立体デー
タとすることにより、より詳細な立体データを得ること
も可能である。これによって様々な家具、樹木、その他
の形状が複雑な部材などについて、上述した立体データ
モデルを簡単に作成することが可能になる。
As described above, by using two cameras, it is possible to convert an object shape into three-dimensional data using an inexpensive system that is easy to carry while reducing sampling errors. Naturally, it is also possible to obtain more detailed three-dimensional data by enlarging and measuring a part of the target object and combining the three-dimensional data of the partial part into the entire three-dimensional data. This makes it possible to easily create the above-described three-dimensional data model for various furniture, trees, and other members having complicated shapes.

【0104】また、航空写真から地表画面を作成したり
地図を作製する場合も、上述したと同様に座標が既知の
任意の6点の座標から画像と地表の座標系を一致させる
手法がある。しかし、画像上での当該6点の読みとりに
あたって標本誤差がある限り、12元方程式を解いてパ
ラメーターを決定しても、その煩雑な計算式により拡大
した誤差を避けることはできない。航空写真の場合、受
動型計測に依らざるを得ないためこの誤差を軽減する方
法がなく、地表面の色彩情報の変化から座標が既知の点
に照合する点を探さざるをえないため、元々データ読み
とりの誤差が生じやすいという課題を持っている。特に
2枚の航空写真から同一位置を特定する場合、その大き
な誤差が重なってしまい、問題を大きくしてしまう。
Also, in the case of creating a ground surface screen or a map from an aerial photograph, there is a method of matching the coordinate system between the image and the ground surface from the coordinates of arbitrary six points whose coordinates are known as described above. However, as long as there are sampling errors in reading the six points on the image, even if the parameters are determined by solving the 12-way equation, it is not possible to avoid the error enlarged by the complicated calculation formula. In the case of aerial photography, there is no way to reduce this error because it must rely on passive measurement, and from the change in color information on the ground surface, it has to search for a point whose coordinates are known to a known point. There is a problem that an error in data reading easily occurs. In particular, when the same position is specified from two aerial photographs, the large errors overlap, and the problem is exacerbated.

【0105】そこで、より少ない地点の画像上の読みと
りと比較的単純な数式によって視点の位置と視線方向、
画像の位置を求めることができれば、標本誤差から生じ
る影響を数段軽減することができる。
Therefore, the position of the viewpoint and the direction of the line of sight,
If the position of the image can be obtained, the influence caused by the sampling error can be reduced by several steps.

【0106】地表面に一つの平面にある二辺の長さが分
かっている長方形を設定できる場合、その四隅A、B、
C、Dの各点の座標を(Va、Za)、(Vb、Zb)、(Vc、
Zc)、(Vd、Zd)として、A点とB点を結ぶ線の延長と
C点とD点を結ぶ線の延長の交点をR点(Vr、Zr)、A
点とD点を結ぶ線の延長とC点とB点を結ぶ線の延長の
交点をQ点(Vq、Zq)を求め、Zq=Zr となるよう画像の
中心点を軸に画像全体を回転させる。そして、画像の中
心の座標を(V0 、Z0) とすると、視点のV座標Vsは、Vs
=V0となる。また、図6に示される視点直下の座標Zsは
次の式で求められる。
When a rectangle whose length of two sides on one plane is known can be set on the ground surface, its four corners A, B,
The coordinates of each point of C and D are (Va, Za), (Vb, Zb), (Vc,
Zc) and (Vd, Zd) are the points of intersection of the extension of the line connecting point A and point B and the extension of the line connecting point C and point D, as point R (Vr, Zr), A
Find the Q point (Vq, Zq) at the intersection of the extension of the line connecting the points D and D and the extension of the line connecting the points C and B, and rotate the entire image around the center point of the image so that Zq = Zr. Let it. When the coordinates of the center of the image are (V0, Z0), the V coordinate Vs of the viewpoint is Vs
= V0. The coordinates Zs immediately below the viewpoint shown in FIG. 6 are obtained by the following equation.

【0107】Zs= Zq+(Vq-V0)*(Vr-V0)/(Zq-Z0) 視点から地上を見下ろす角度φは、sin φ=(Zq-Z0) /
√[-(Vr-Vs)*(Vq-Vs)]となる。尚、地表に設定した四
角形が長方形でなく平行四辺形である場合は、A−B線
とB−C線の交差する角度をθ゜、β= cotθとして次
の式から求める。 sinφ={β*(Vr-Vq)+ √([ β*(Vq-Vr)] 2 -4*(Vs-V
q)*(Vs-Vr))}/[2*(Zr-Zs)]
Zs = Zq + (Vq−V0) * (Vr−V0) / (Zq−Z0) The angle φ that looks down on the ground from the viewpoint is sin φ = (Zq−Z0) /
√ [-(Vr-Vs) * (Vq-Vs)]. If the quadrangle set on the ground is not a rectangle but a parallelogram, the angle at which the AB line intersects with the BC line is determined from the following equation as θ ゜, β = cotθ. sinφ = {β * (Vr-Vq) + √ ([β * (Vq-Vr)] 2 -4 * (Vs-V
q) * (Vs-Vr))} / [2 * (Zr-Zs)]

【0108】航空写真、鳥瞰パース上の任意の点(Vw 、
Zw) の地表面の座標を(Xw 、Yw) とすると、Xw=(Vw-Vs)
*Hs/[(Zr-Zw)*cosφ] 、 Yw=(Zw-Zs)*Hs*tanφ/(Zr-Zw)
となる。ここで、A点とB点の距離が分かっている場
合、f1=(Va-Vs)/(Zr-Za)、f2=(Vb-Vs)/(Zr-Zb)、f3=(Za
-Zs)/(Zr-Za)、f4=(Zb-Zs)/(Zr-Zb)として、Hsは次の式
の値となる。ちなみに視点の座標は(0 、0 、Hs)とな
る。 Hs=(A点とB点の距離)* cosφ/√{ (f1-f2)2 +[(f3-
f4)*sin φ] 2
Aerial photograph, any point on bird's-eye view perspective (Vw,
If the coordinates of the ground surface of (Zw) are (Xw, Yw), Xw = (Vw-Vs)
* Hs / [(Zr-Zw) * cosφ], Yw = (Zw-Zs) * Hs * tanφ / (Zr-Zw)
Becomes Here, if the distance between the points A and B is known, f1 = (Va-Vs) / (Zr-Za), f2 = (Vb-Vs) / (Zr-Zb), f3 = (Za
Assuming that -Zs) / (Zr-Za) and f4 = (Zb-Zs) / (Zr-Zb), Hs is a value of the following equation. Incidentally, the coordinates of the viewpoint are (0, 0, Hs). Hs = (distance between point A and point B) * cosφ / √ {(f1-f2) 2 + [(f3-
f4) * sin φ] 2

【0109】尚、地表に設定した長方形に既知の傾斜が
ある場合は、一旦作製した立体データをその傾斜に従っ
て変換して、地表に水平な立体データに変換する。地表
に設定した長方形ないし平行四辺形がY軸を軸にδy
゜、X軸を軸にδx゜、H軸を軸にδh゜回転した状態
であれば、作製された画像の各点及び視点の座標(Xw 、
Yw、Zw) を以下の計算式から地平面に水平な座標系の座
標(Xu 、Yu、Zu) に変換する。
If the rectangle set on the ground surface has a known inclination, the created three-dimensional data is converted according to the inclination to convert it into three-dimensional data horizontal to the ground surface. A rectangle or parallelogram set on the ground surface is δy around the Y axis.
゜, δx ゜ around the X axis and δh ゜ around the H axis, the coordinates (Xw,
Yw, Zw) is converted to coordinates (Xu, Yu, Zu) in a coordinate system horizontal to the ground using the following formula.

【0110】X2=Xw*cosδy−Hw*sinδy、Y2=Yw 、H2=
Hw*cos δy+Xw*sinδy Y3=Yw*cosδx+H2*sinδx、Hu=H2*cos δx−Yw*sin
δx、Xu=X2*cosδh+Y3*sinδh、Yu=Y3*cos δh−X
2*sinδh
X2 = Xw * cosδy−Hw * sinδy, Y2 = Yw, H2 =
Hw * cos δy + Xw * sinδy Y3 = Yw * cosδx + H2 * sinδx, Hu = H2 * cos δx−Yw * sin
δx, Xu = X2 * cosδh + Y3 * sinδh, Yu = Y3 * cosδh−X
2 * sinδh

【0111】以上の計算式は比較的地表面が水平な地形
の写真から算出するときに適している。高層ビルから地
上を撮影した場合などでは、鉄筋コンクリート造の建物
が多く映し出され、地表面に適当なポイントを多く求め
られない場合が多いが、その一つの高さが既知のビルの
屋上の画像を利用でき、この方法はそうした場合などに
も適用できる。
The above formula is suitable for calculating from a photograph of a terrain where the ground surface is relatively horizontal. When photographing the ground from a high-rise building, many reinforced concrete buildings are projected, and in many cases it is not possible to find many suitable points on the ground surface. Yes, and this method can be applied to such cases.

【0112】地表面の高低差が大きく、平面として平行
四辺形のポイントを抽出できないときでも、地表面の位
置と標高が既知のポイントが2ないし3点解っており、
写真上でその箇所を特定できれば、以下の方法によって
画像を地表画面に変換し、複数の視点からの地表画面を
照合することによって、地形を正確に確定できる。この
場合、当然に画像の視線方向は下方に傾斜しているが、
その際の画像の左右は水平に保たれていることが望まし
い。即ち、カメラの両端を水平に保って撮影するか、画
像中に水平な線を落とし込める機能を持つカメラである
ことが望ましい。後者の場合は、画像中心を軸に画像を
水平に回転させてから計算する。
Even when the height difference of the ground surface is large and a parallelogram point cannot be extracted as a plane, two or three points whose positions and altitudes on the ground surface are known are known.
If the location can be identified on the photograph, the image can be converted into a ground surface screen by the following method, and the terrain can be accurately determined by comparing the ground surface screen from a plurality of viewpoints. In this case, of course, the line of sight of the image is inclined downward,
It is desirable that the left and right sides of the image at that time be kept horizontal. That is, it is desirable that the camera has a function of taking pictures while keeping both ends of the camera horizontal or dropping a horizontal line in an image. In the latter case, the calculation is performed after rotating the image horizontally about the center of the image.

【0113】画像中にその正面に水平線を収められれ
ば、それによって画像を水平に回転させられる。画像の
左右を水平にして撮影できたか否か不確かな場合でも、
画像中に建物などから地平面に垂直な線を複数本取り出
せる場合は、そこから画像を水平に修正することができ
る。地平面に垂直な線を伸ばすと、読みとり誤差が無け
れば複数の垂直線は画像中の1点で相互に交差する。こ
れが(Vs、Zs)の点であるので、画像の中心点とを結ん
で、その線が垂直になるように画像を回転させる。
If a horizontal line is contained in the front of the image, the image can be rotated horizontally. Even if you are unsure whether you were able to shoot horizontally with the left and right sides of the image,
If a plurality of lines perpendicular to the ground plane can be extracted from a building or the like in the image, the image can be corrected horizontally from there. When a line perpendicular to the ground plane is extended, if there is no reading error, the plurality of vertical lines intersect each other at one point in the image. Since this is the point of (Vs, Zs), the image is rotated so that the line is vertical by connecting to the center point of the image.

【0114】画像の中心点を(V0、Z0)とおく。画像中
心から上下に走る線をV=0とし、その地表面への投影
線を地表面のY軸としてX=0を与え、地表のX座標、
Y座標を変換する。その結果の画像上の2点ないしは3
点の座標をA(Va、Za)、B(Vb、Zb)、C(Vc、Zc)
とし、それぞれに対応する地表面の座標をA'(Xa、Ya、
Ha) 、B'(Xb 、Yb、Hb) 、C'(Xc、Yc、Hc) 、視点の
座標を(Xs、Ys、Hs)とする。座標が既知の2点から視
点の位置等を求める場合は、以下の方法による。
The center point of the image is set to (V0, Z0). A line running up and down from the center of the image is set to V = 0, and a projection line on the ground surface is given as X = 0 with the Y axis of the ground surface being given.
Transform the Y coordinate. 2 or 3 points on the resulting image
The coordinates of the point are A (Va, Za), B (Vb, Zb), C (Vc, Zc)
And the coordinates of the ground surface corresponding to each are A ′ (Xa, Ya,
Ha), B '(Xb, Yb, Hb), C' (Xc, Yc, Hc), and the coordinates of the viewpoint are (Xs, Ys, Hs). When the position of the viewpoint or the like is obtained from two points whose coordinates are known, the following method is used.

【0115】図6のθは、次の式から求める。 (Ya-Yb)*sinθ+(Ha-Hb)*cosθ=Xa*(Za-Z0)/Va-Xb*(Zb-Z
0)/Vb さらに、fa=Xa/Va、fb=Xb/Vbとおいて、 Zs=[(fa*Za-fb*Zb)-(Ya-Yb) /sin θ] /(fa-fb) 、 Zq=[(fa*Za-fb*Zb)-(Ha-Hb) /cos θ] /(fa-fb) 、 Ys=Ya-fa*(Za-Zs)*sinθ、 Hs=Ha+fa*(Zq-Za)*cosθ、Xs=0
In FIG. 6, θ is obtained from the following equation. (Ya-Yb) * sinθ + (Ha-Hb) * cosθ = Xa * (Za-Z0) / Va-Xb * (Zb-Z
0) / Vb Further, assuming that fa = Xa / Va and fb = Xb / Vb, Zs = [(fa * Za-fb * Zb)-(Ya-Yb) / sin θ] / (fa-fb), Zq = [(fa * Za-fb * Zb)-(Ha-Hb) / cos θ] / (fa-fb), Ys = Ya-fa * (Za-Zs) * sinθ, Hs = Ha + fa * (Zq -Za) * cosθ, Xs = 0

【0116】数式の性格上、 sinθおよび cosθは2通
りの解が得られるが、 cosθ、 sinθともに正の値とな
るという条件からと、撮影の際の概ねの撮影位置、高
度、角度が分かっていれば、適切な方を選択できる。画
像からの座標の読みとり誤差と、画像が水平から若干傾
いていた場合の誤差から、上記式から算出される値は誤
差を含むが、カメラの焦点距離より画像と視点の距離K
が分かっていれば、 (Zq-Z0)/tanθ=(Z0-Zs)* tanθ=
Kとなることを利用して、画像をその中心を軸として微
妙に回転させ、画像がより水平と推定される位置を求め
て、誤差を小さくすることができる。
From the nature of the mathematical expression, two solutions can be obtained for sin θ and cos θ. However, from the condition that both cos θ and sin θ are positive values, the general shooting position, altitude, and angle at the time of shooting are known. Then you can choose the appropriate one. The value calculated from the above expression includes an error due to an error in reading coordinates from the image and an error when the image is slightly inclined from the horizontal, but the distance K between the image and the viewpoint is larger than the focal length of the camera.
Is known, then (Zq-Z0) / tanθ = (Z0-Zs) * tanθ =
By utilizing the fact that K is used, the image can be delicately rotated about the center of the image, and a position where the image is estimated to be more horizontal can be obtained to reduce the error.

【0117】3点から求める場合は、図6のXs、Zs、
θ、Zq、Hs、Ysは以下の式により求められる。 Xs = 0、fa=Xa/Va、fb=Xb/Vb、fc=Xc/Vc、F=Ya*(fb-f
c)+Yb*(fc-fa)+Yc*(fa-fb) とおいて、 Zs=(Ya*(fb*Zb-fc*Zc)+Yb*(fc*Zc-fa*Za)+Yc*(fa*Za-fb
*Zb)) /F sinθ= F/[fa*Za*(fb-fc)+fb*Zb*(fc-fa)+fc*Zc*(fa-f
b)]
When obtaining from three points, Xs, Zs,
θ, Zq, Hs, and Ys are obtained by the following equations. Xs = 0, fa = Xa / Va, fb = Xb / Vb, fc = Xc / Vc, F = Ya * (fb-f
c) + Yb * (fc-fa) + Yc * (fa-fb), Zs = (Ya * (fb * Zb-fc * Zc) + Yb * (fc * Zc-fa * Za) + Yc * (fa * Za-fb
* Zb)) / F sinθ = F / [fa * Za * (fb-fc) + fb * Zb * (fc-fa) + fc * Zc * (fa-f
b)]

【0118】G=Ha*(fb-fc)+Hb*(fc-fa)+Hc*(fa-fb) と
おいて、 Zq=(Ha*(fb*Zb-fc*Zc)+Hb*(fc*Zc-fa*Za)+Hc*(fa*Za-fb
*Zb)) /G cosθ= G/[fa*Za*(fb-fc)+fb*Zb*(fc-fa)+fc*Zc*(fa-f
b)] Hs=Xa*(Zq-Za)* cosθ/Va+Ha、Ys=Ya-Xa*(Za-Zs)*sinθ
/Va
G = Ha * (fb-fc) + Hb * (fc-fa) + Hc * (fa-fb), and Zq = (Ha * (fb * Zb-fc * Zc) + Hb * (fc * Zc-fa * Za) + Hc * (fa * Za-fb
* Zb)) / G cosθ = G / [fa * Za * (fb-fc) + fb * Zb * (fc-fa) + fc * Zc * (fa-f
b)] Hs = Xa * (Zq-Za) * cosθ / Va + Ha, Ys = Ya-Xa * (Za-Zs) * sinθ
/ Va

【0119】但し先の方法と同様に、画像からの読みと
り誤差と画像が完全に水平でない場合はその誤差によっ
て、上記の sinθと cosθは完全には整合が取れないこ
とが予想される。この場合も画像と地表面の座標を微妙
に回転させ、下記の式を最も満たすよう、また sinθと
cosθが整合をとれるよう画像の傾きを修正してより水
平に近い状態を探し、誤差の少ない解を求めることがで
きる。先の場合と同様にカメラの焦点距離が既知であれ
ば、その条件も合わせて修正する。
However, similarly to the above method, if the reading error from the image and the image are not perfectly horizontal, it is expected that the above sin θ and cos θ will not be perfectly matched due to the error. In this case as well, the coordinates of the image and the ground surface are delicately rotated, so that the following formula is best satisfied.
The inclination of the image is corrected so that cos θ can be matched, a state closer to horizontal is searched, and a solution with less error can be obtained. If the focal length of the camera is known as in the previous case, the condition is also corrected.

【0120】Hs=Xa*(Zq-Za)*cosθ/Va+Ha=Xb*(Zq-Zb)*
cosθ/Vb+Hb=Xc*(Zq-Zc)*cosθ/Vc+Hc これは、既知の2点から視点の位置を求める方法におい
て、画像が水平でないとした場合及び地表面の座標が画
像に合致しておかれていない場合の傾き角度を変数にお
いて、既知の座標点の数を増やし、その傾きを求めるこ
とを近似的に行っているものであり、ある程度読みとり
誤差が避けられない航空写真の性格上、また画像内に多
数の座標が既知な点を得られない場合に、算定式を低次
のものとし、誤差の拡大を最小限に抑える方法として有
効なものと思われる。
Hs = Xa * (Zq-Za) * cosθ / Va + Ha = Xb * (Zq-Zb) *
cosθ / Vb + Hb = Xc * (Zq-Zc) * cosθ / Vc + Hc This is a method for determining the position of the viewpoint from two known points. By using the angle of inclination when it does not match as a variable, the number of known coordinate points is increased and the inclination is obtained approximately. If a large number of coordinates cannot be obtained in the image due to the nature of the image or the point at which a known point cannot be obtained, it is considered to be effective as a method of reducing the calculation formula to a low order and minimizing the error.

【0121】画像上の任意の点の座標(V 、Z )は、次
の式により、地表面と同一の座標系における座標(X 、
Y 、H )変換される。 X=V 、Y=(Z-Zs)*sinθ、 H=Hs-(Zq-Z)*cosθ 視点の座標と画像上の任意の点の座標が地表の座標系で
与えられる結果、視点と画像上の任意点を結ぶ線の延長
上の地表面の点をその任意に選んだ点の地表上の位置と
して変換し、その点に当該点の色データをコピーするこ
とにより、地表面の合成画像(以下、地表画像という)
が得られる。尚、この方式では地表面がほとんど水平な
場合などは正確な数値が期待しにくく誤差が生じやすい
ため、先の方式とは逆に高低差がある程度大きい場合に
適する。従って、地表面の状況に合わせ、二つの方式を
選択していくことになる。
The coordinates (V, Z) of an arbitrary point on the image can be calculated by the following equations using the coordinates (X, Z) in the same coordinate system as the ground surface.
Y, H) are converted. X = V, Y = (Z-Zs) * sinθ, H = Hs- (Zq-Z) * cosθ The coordinates of the viewpoint and the coordinates of any point on the image are given in the coordinate system of the ground surface, and the viewpoint and image By converting the point on the ground surface on the extension of the line connecting the above arbitrary points as the position on the ground surface of the arbitrarily selected point, and copying the color data of the point to that point, a composite image of the ground surface (Hereinafter referred to as ground image)
Is obtained. It should be noted that this method is difficult to obtain an accurate numerical value when the ground surface is almost horizontal and an error is likely to occur. Therefore, two methods will be selected according to the condition of the ground surface.

【0122】通常、地表面の各点は高低差があり、写さ
れた区域全体が水平であるか傾斜が一定していない限
り、このようにして作製された画像は、地表面の位置関
係を正確に反映していない。先に述べたように、この地
表画像は地表面の高低差によって歪んだままなので、複
数の視点から撮影した画像から得られた地表画像を照合
することにより、その点の正確な位置と標高を求め、地
表面の正確な立体データとする必要がある。
Normally, each point on the ground surface has a difference in elevation, and unless the whole area is horizontal or the inclination is not constant, the image created in this way indicates the positional relationship of the ground surface. Not accurately reflected. As mentioned earlier, this ground image remains distorted due to the difference in elevation of the ground surface, so by comparing the ground surface images obtained from images taken from multiple viewpoints, the exact position and elevation of that point can be determined. It is necessary to obtain accurate three-dimensional data of the ground surface.

【0123】この場合、複数の画像から得た基本構図を
重ねても、図12に示すように一般に地表面には高低差
があるため、基本構図以外では対象物の位置が重ならな
い箇所が多く生じる。これを利用して、基本構図を設定
した位置と対象物の位置の高低差を知ることができる。
即ち、複数の航空写真から地表画像を作製し、それらを
同一座標系で重ね合わせ、それぞれの地表画像毎に対象
物の位置と視点を結ぶ線を描くと、それらの交点が本来
その対象物が存在する座標であり、その交点と一の地表
図面の当該対象物の位置の差違が高低差によるズレであ
ると見なすことができる。
In this case, even if the basic compositions obtained from a plurality of images are superimposed, there is generally a difference in elevation on the ground surface as shown in FIG. Occurs. By utilizing this, it is possible to know the height difference between the position where the basic composition is set and the position of the object.
That is, a ground surface image is created from a plurality of aerial photographs, they are superimposed in the same coordinate system, and a line connecting the position and the viewpoint of the target object is drawn for each ground surface image. It is a coordinate that exists, and the difference between the intersection and the position of the object on the ground map can be regarded as a deviation due to a height difference.

【0124】尚、この交点は標本誤差から3次元空間で
は微妙にすれ違うことが予想されるため、上述したよう
にして求めることが望ましい。航空写真の座標(Xu 、Z
u) にある対象物の位置の地表図面上の差違がY軸方向
にΔYあるとすると、基準とした長方形のある位置とそ
の対象物の高低差は、−ΔY*(Zt-Zu)*cotφ/(Zu-Zs)と
なる。この両画面での同一点の照合作業は、上述した手
法によって半自動化できる。この場合、点だけでなく、
建物の壁面の直交する線を使うこともできる。
It is to be noted that this intersection is expected to pass slightly in a three-dimensional space from the sampling error, and thus it is desirable to obtain the intersection as described above. Aerial image coordinates (Xu, Z
Assuming that the difference of the position of the object in u) on the ground surface drawing is ΔY in the Y-axis direction, the position of the reference rectangle and the height difference of the object are −ΔY * (Zt-Zu) * cotφ / (Zu-Zs). The collation work of the same point on both screens can be semi-automated by the method described above. In this case, not just the point,
Orthogonal lines on building walls can be used.

【0125】画面上の4点以上の座標から複数の3点の
組み合わせを選んで、算出した視点の位置等の平均値を
求めれば、標本誤差を低減できる。2枚だけでなく、さ
らに多くの同じ地区を撮影した航空写真によって照合す
れば、各画面での読みとり誤差が薄まり、より正確な立
体データが得られ、地表画面が作成できる。
If a combination of a plurality of three points is selected from the coordinates of four or more points on the screen and the average value of the calculated viewpoint position and the like is obtained, the sampling error can be reduced. If collation is performed not only with two images but also with more aerial photographs of the same area, the reading error on each screen is reduced, more accurate three-dimensional data is obtained, and a ground surface screen can be created.

【0126】尚、地表面に水平に撮影した画像も同様に
して、この1枚として使える。この場合は、θ=90゜
になるためZqが無限大となり、この式は使えず、別途の
算式を用いる必要がある。即ち、視点は画像の中心点の
直上で、高度は次の式によって求める。 Hs=(Zb*Ya*Hb-Za*Yb*Ha)/(Ya*Zb-Yb*Za) しかし、各点の実際の位置は、画像の中心点と画像上の
当該点を結ぶ線の地表投影線上、あるいはその延長線上
にあるので、これと他の画像を重ね合わせれば、同様に
して各点の正確な座標を求めることができる。
Incidentally, an image photographed horizontally on the ground surface can be similarly used as this one image. In this case, since θ = 90 °, Zq becomes infinite, this formula cannot be used, and a separate formula needs to be used. That is, the viewpoint is just above the center point of the image, and the altitude is obtained by the following equation. Hs = (Zb * Ya * Hb-Za * Yb * Ha) / (Ya * Zb-Yb * Za) However, the actual position of each point is the ground surface of the line connecting the center point of the image and the point on the image. Since it is on the projection line or an extension thereof, if this image is superimposed on another image, accurate coordinates of each point can be obtained in the same manner.

【0127】この方式によれば、隣り合う写真の視点を
それぞれ異なる3点から求めても、その1対の写真から
得られた地表画面を同一の3次元座標系におけるため、
その重なる部分について、任意の点の正確な位置と標高
を求めることができる。
According to this method, even if the viewpoints of adjacent photographs are obtained from three different points, the ground surface screen obtained from the pair of photographs is in the same three-dimensional coordinate system.
With respect to the overlapping portion, an accurate position and altitude of an arbitrary point can be obtained.

【0128】また、多数の点の地表面上の位置と標高を
確定することにより、隣接する3点を結んでポリゴンを
作り、それらのポリゴンで地表面を近似的に表現する立
体データが得られる。即ち、元の画像の3点、A、B、
Cの座標(Xa、Ya、0 )、(Xb、Yb、0 )、(Xc、Yc、
0 )は、修正された3点、A'(Xa' 、Ya' 、Ha')、B'
(Xb' 、Yb' 、Hb')、C'(Xc' 、Yc' 、Hc')に変換され
る。さらに三角形ABC内の各点は修正された三角形
A' B' C' 内に変換し、その色データを移すことによ
って、地表面の正しい地図が作製される。このとき、変
換された各点は色データと共にその位置の標高もデータ
として持つことになる。
Further, by determining the positions and elevations of many points on the ground surface, polygons are formed by connecting three adjacent points, and three-dimensional data that approximately expresses the ground surface with these polygons can be obtained. . That is, three points of the original image, A, B,
C coordinates (Xa, Ya, 0), (Xb, Yb, 0), (Xc, Yc,
0) is the corrected three points, A '(Xa', Ya ', Ha'), B '
(Xb ', Yb', Hb ') and C' (Xc ', Yc', Hc '). Further, each point in triangle ABC is transformed into a modified triangle A'B'C ', and the color data is transferred to create a correct map of the ground surface. At this time, each converted point has the altitude of the position as data together with the color data.

【0129】図13に見るように、元の画像の各点(画
素)は、視点とその点(画素)を結ぶ線と、三角形A'
B' C' の交点に対応し、その立体データの座標に当該
点の色データが与えられる。地表画面(地図)は、この
立体データの内、X座標とY座標のみを抽出して作成す
る。
As shown in FIG. 13, each point (pixel) of the original image is represented by a line connecting the viewpoint and the point (pixel) and a triangle A ′.
Corresponding to the intersection of B'C ', the color data of the point is given to the coordinates of the three-dimensional data. The ground surface screen (map) is created by extracting only the X coordinate and the Y coordinate from the three-dimensional data.

【0130】修正された立体データの各点は、元々の画
像のように均等には配されていない。画像を作成する上
では、それらの情報から、均等に配された画素毎に色デ
ータを割り当て、地表画面を作成する。地表面の高低差
に対し各ポリゴンが十分に微細であれば、作成された画
像は歪みの少ないかなり正確なものが作成される。
[0130] The points of the corrected stereoscopic data are not equally distributed as in the original image. In creating an image, color data is assigned to each pixel evenly arranged based on the information, and a ground surface screen is created. If each polygon is sufficiently fine with respect to the height difference of the ground surface, a fairly accurate image with little distortion is created.

【0131】前項において、各ポリゴンの変換は地表面
の起伏をなぞるようにしてなされる。従って、傾斜があ
る地点では、建物、構築物、樹木など(以下、建物等と
いう)の画像までが地表面の傾斜に併せて修正されてし
まうことになる。当然に各建物等は地表面の傾斜に沿っ
て修正れるべきものではないので、前項の変換手続きの
前に元の画像を切り取って別に保存しておき、最終的に
作成された地表画面上にはめ込むことになる。
In the preceding paragraph, each polygon is converted so as to trace the undulation of the ground surface. Therefore, at a point with a slope, even an image of a building, a building, a tree, or the like (hereinafter, referred to as a building, etc.) is corrected according to the slope of the ground surface. Naturally, each building etc. should not be corrected along the slope of the ground surface, so cut out the original image and save it separately before the conversion procedure in the previous section, and save it on the finally created ground surface screen You will be inset.

【0132】建物等の画像は、F1 点とF2 点の標高差
を考慮し、視点との高低差に比例してその大きさを修正
し、図14の例のように、立体形状に修正して立体デー
タを得る。通常の建物等は、壁面が垂直に構成されてい
るため、壁面の下部の位置の直上に屋根があることにな
る。それを利用して、建物の形状と位置を特定すること
ができる。地表画面に建物等を配した場合、その屋根部
分の画像のみが描かれる。同時に、視点から建物の陰に
なって見えなかった所には色データが与えられないこと
になるが、最も近い周辺の地表面の色データを近似的に
与え、これをもって代用することとする。尚、複数の視
点からの画像情報によって、この点を補うことも可能で
ある。
An image of a building or the like is corrected in size in proportion to the height difference from the viewpoint in consideration of the elevation difference between the F1 point and the F2 point, and is corrected into a three-dimensional shape as shown in FIG. To obtain 3D data. Since a normal building or the like has a vertical wall surface, a roof is located immediately above a lower position of the wall surface. Using this, the shape and position of the building can be specified. When buildings and the like are arranged on the ground surface screen, only the image of the roof portion is drawn. At the same time, color data is not given to a place where the building is not seen from the viewpoint because it is not visible. However, color data of the nearest surrounding ground surface is approximately given, and this is substituted. It should be noted that this point can be supplemented by image information from a plurality of viewpoints.

【0133】以上、各項において様々な算出方法を示し
たが、それらの算出方法を相互に他の項の算出方法に応
用することも可能である。即ち、上述した2台のカメラ
の中間に照明を配し、予め一定角度で接する二つの長方
形状の枠を撮影して基本構図を求めて、物体の立体デー
タを求める手順では、上述した、地表面に一つの平面に
ある二辺の長さが分かっている長方形を設定できる場合
や、地表面の位置と標高が既知のポイントが2ないし3
点解っており、写真上でその箇所を特定できる場合の算
出方法を用いれば、基準枠を使わなくても、3ないし4
箇所をピンポイントで測定した位置データに基づいて視
点等の位置を定めることができる。
As described above, various calculation methods have been described in each section, but these calculation methods can be applied to calculation methods of other terms. That is, in the procedure of arranging illumination between the two cameras described above, photographing two rectangular frames that are in contact with each other at a predetermined angle in advance, finding the basic composition, and finding the three-dimensional data of the object, When it is possible to set a rectangle whose surface has a known length of two sides on one plane, or when there are two or three points whose ground surface position and altitude are known
If you use the calculation method when you know the point and you can identify the location on the photograph, you can use 3 to 4 without using the reference frame.
The position of a viewpoint or the like can be determined based on position data obtained by measuring a point in a pinpoint manner.

【0134】室内空間を撮影した写真から読みとる場合
も、その中に相対的な位置関係が分かった1平面にない
3点、例えば相互間の距離が既知の天井と壁面の境界線
にある2点と床上の1点といったようなものを確認でき
れば、視点の位置を定められる。建物に張り付けられた
モニュメントなどを計測する場合は、基準枠に代えて、
その建物の壁面上の線などを使ってもよく、長さも一辺
が分かればよい。
In the case of reading from a photograph taken of the indoor space, three points not present on one plane whose relative positional relationship is known, for example, two points present on the boundary line between the ceiling and the wall surface whose distance between them is known are known. If you can see something like a point on the floor, you can determine the position of the viewpoint. When measuring monuments attached to buildings, etc., instead of the reference frame,
A line on the wall of the building may be used, and the length may be one side.

【0135】この実施の形態では、写真やパースなどの
静止画像から簡単な構成、簡単な処理で精度良く、立体
データを作成することができるので、家具などを購入す
る場合、家にいてカタログなどを見ただけでは、その使
い勝手を体感することができないとともに、部屋におい
た場合にどんな雰囲気になるかを把握することもできな
いし、家具店に行って実物を見れば、その使い勝手は体
感できるが、自分の家に置いた場合の状況、壁紙、カー
テン、他の家具との取り合わせなどを想定することは難
しいが、家具店に、この実施の形態の立体データ作成装
置があり、購入予定の家具を置こうと考えている場所の
写真を持っていけば、家具を選んだその場で、部屋にそ
れを置いた場合の画像を見ることができ、納得して家具
を選ぶことが可能となる。
In this embodiment, three-dimensional data can be created from still images such as photographs and perspectives with a simple configuration and simple processing with high accuracy. You can't feel the usability just by looking at it, you can't grasp what kind of atmosphere it will be if you put it in a room, and if you go to a furniture store and see the real thing, you can feel the usability It is difficult to imagine the situation when placed in your own home, wallpaper, curtains, combination with other furniture, etc., but there is a three-dimensional data creation device of this embodiment in a furniture store. If you bring a picture of the place you are thinking of putting, you can see the image of placing it in the room at the place where you selected the furniture, you can understand and select the furniture It made.

【0136】また、建物をリフォームする場合も、現在
の外観写真から、どうリフォームしたらどんな見え方に
なるかを予め合成写真で見ることができ、一枚ないし数
枚だけの室内写真から、その部屋を歩き回っている映像
を作り出すことも可能である。
Also, when a building is renovated, it is possible to see in advance a composite photograph of how the house will look if it is remodeled from the current exterior photo. It is also possible to create an image of walking around.

【0137】街並みの立体データを得ることができれ
ば、見知らぬ海外の街並みを歩き回る仮想旅行体験や、
そうした実際の街を舞台としたゲームをリアリティ高く
実現できる。
If three-dimensional data of a cityscape can be obtained, a virtual travel experience of walking around a strange overseas cityscape,
Such a game set in an actual city can be realized with high reality.

【0138】また、膨大な数のポリゴン立体データを基
に、移動する視点から視線方向を少しずつ変えた動画像
を作成する場合、その膨大な数のポリゴン立体データ計
算を行って作成する画像を数枚の内の一枚だけとし、残
りの画像は本発明の手法に基づいて作成することで、コ
ンピュータの負荷を軽減し、リアルタイムにリアリティ
の高い動画像を近似的に作成することも可能になる。
When a moving image in which the direction of the line of sight is gradually changed from a moving viewpoint is created based on a huge number of polygon three-dimensional data, an image created by calculating the huge number of polygon three-dimensional data is used. By making only one of the several images and creating the remaining images based on the method of the present invention, it is possible to reduce the load on the computer and approximately create a highly realistic moving image in real time Become.

【0139】また、複数枚の画像から得られた立体デー
タを照合すれば、屋内はもちろんのこと、屋外において
も数多くの植裁や構築物の位置関係を測量することなく
配置図にして見ることもでき、形状の複雑な物体でも、
その周囲に直方体状の枠を配して、その枠と当該物体を
同時に画像に収めることで、当該物体の複雑な形状を立
体データ化することも可能である。
Further, if the three-dimensional data obtained from a plurality of images is collated, it is possible not only to measure the positional relationship between a large number of transplants and buildings, but also indoors, as well as to view the layout without measuring the positional relationship. Can be done, even for objects with complex shapes,
By arranging a rectangular parallelepiped frame around the frame and simultaneously storing the frame and the object in an image, it is also possible to convert a complicated shape of the object into three-dimensional data.

【0140】この実施の形態の優れた特徴は、撮影する
際のカメラの角度や焦点距離についての精緻な情報を予
め必要としない点である。複数の視点から撮影された画
像が、同一対象を同一状態で撮影されたことさえ既知で
あれば、立体データを導くことができる。従って、航空
写真を撮影する場合や屋外の複雑な形状の物体を撮影す
る場合も、持ち運びの容易な、簡易なシステムで目的を
達することができる。必要とされるのは、画像中央の点
を視線のベクトル上に置くことが望ましいため、カメラ
のレンズに対し画像を収めるフィルムや素子の配置に誤
差が生じないという性能程度である。
An excellent feature of this embodiment is that it does not require detailed information on the angle and focal length of the camera at the time of shooting. If it is known that images taken from a plurality of viewpoints have taken the same object in the same state, stereoscopic data can be derived. Therefore, even when taking an aerial photograph or taking an object having a complicated shape outdoors, the purpose can be achieved with a simple system that is easy to carry. What is required is that the center of the image is desirably placed on the vector of the line of sight, so that there is no error in the arrangement of the film or the element for storing the image with respect to the camera lens.

【0141】また、複雑な形状の物体の3次元計測も、
計測誤差を低減しつつ、持ち運び可能な簡単な装置で行
えるようになり、先に述べた部位別立体データモデルを
容易に作成でき、座標の読みとり誤差による影響を少な
く抑えて複数枚の航空写真から地表面の立体データを得
ることも可能である。航空写真から立体データを得られ
れば、その地域の高低差情報を含む測量図を現地の作業
を省いて作製することが可能となる。
In addition, three-dimensional measurement of an object having a complicated shape is also performed.
The measurement error can be reduced, and the measurement can be performed with a simple portable device.The three-dimensional data model for each part described above can be easily created. It is also possible to obtain three-dimensional data of the ground surface. If three-dimensional data can be obtained from the aerial photograph, it becomes possible to create a survey map including elevation information of the area without omitting local work.

【0142】[0142]

【発明の効果】以上のように、本発明によれば、空間構
造が未知の空間の静止画像を取り込み、その取り込んだ
静止画像内の直線の位置関係に基づいて、静止画像に対
する視点を割り出し、静止画像及び視点の情報に基づい
て、静止画像内の空間構造の立体データを作成するよう
にしたので、写真やパースなどの静止画像から簡単な構
成、簡単な処理で精度良く、立体データを作成すること
ができるという効果を有する。
As described above, according to the present invention, a still image in a space whose spatial structure is unknown is fetched, and a viewpoint for the still image is determined based on the positional relationship between straight lines in the fetched still image. 3D data of the spatial structure in the still image is created based on the information of the still image and the viewpoint, so the 3D data can be created accurately from the still images such as photographs and perspectives with a simple configuration and simple processing. It has the effect that it can be done.

【0143】また、同一対象空間の視点の異なる静止画
像の画像情報から得られた立体データを照合し、同一対
象空間内に配された各部位の相対的位置関係を求めて、
対象となった空間に映し出された全ての部位の立体デー
タを得るようにしたので、屋内はもちろんのこと、屋外
においても数多くの植裁や構築物の位置関係を測量する
ことなく配置図にして見ることもでき、形状の複雑な物
体でも、その周囲に直方体状の枠を配して、その枠と当
該物体を同時に画像に収めることで、当該物体の複雑な
形状を立体データ化することができるという効果を有す
る。
Further, the three-dimensional data obtained from the image information of the still images having different viewpoints in the same object space are collated, and the relative positional relationship between the parts arranged in the same object space is obtained.
Because we obtained three-dimensional data of all parts projected in the target space, we see it as a layout drawing without measuring the positional relationship of many transplants and buildings indoors as well as outdoors Even for an object having a complicated shape, a rectangular parallelepiped frame is arranged around the object, and the frame and the object are simultaneously included in the image, so that the complicated shape of the object can be converted into three-dimensional data. It has the effect of.

【0144】また、静止画像をその静止画像内の各部位
毎の複数のパーツに分類し、各部位の立体データは、予
め用意された複数の部位別立体データモデルの中から最
も近いものに近似させてその立体データとして、静止画
像から作成された立体データに加えるようにしたので、
静止画像内の各部位の立体データを容易に作成すること
が可能となる。
Further, the still image is classified into a plurality of parts for each part in the still image, and the three-dimensional data of each part is approximated to the closest one of a plurality of three-dimensional data models prepared in advance. Then, as the three-dimensional data, it was added to the three-dimensional data created from the still image,
It is possible to easily create three-dimensional data of each part in the still image.

【0145】また、立体データに、静止画像からの色情
報を移して、静止画像の色情報を含んだ立体データを作
成するようにしたので、立体データに色情報が付加さ
れ、立体データを表示したときに、見やすくすることが
できるという効果を有する。また、任意の部位の立体デ
ータを別に用意された複数のサンプルから選んだ別の部
位の立体データに置き替え、その部位が置き替わった対
象空間をその視点から見た場合の画像を作成するように
したので、いろいろな空間構造の立体データを簡単に作
成することができるという効果を有する。
Further, since the color information from the still image is transferred to the three-dimensional data to create three-dimensional data including the color information of the still image, the color information is added to the three-dimensional data and the three-dimensional data is displayed. This has the effect of making it easier to see. In addition, the three-dimensional data of an arbitrary part is replaced with three-dimensional data of another part selected from a plurality of separately prepared samples, and an image is created when the target space in which the part is replaced is viewed from that viewpoint. Therefore, there is an effect that three-dimensional data having various spatial structures can be easily created.

【0146】また、静止画像から作成された立体データ
から、平面図、配置図、立面図、及び視点と視線方向を
任意に変えた場合の静止画像を合成するようにしたの
で、静止画像から簡単に平面図、配置図、立面図等を作
成でき、その視点、視線方向を任意に変えた立体画像を
少ない処理で作成することが可能となる。また、連続し
て移動する視点、視線方向に従って、合成された視点と
視線方向を任意に変えた場合の静止画像を順次表示し、
対象となった空間を移動しながら見ているような動画像
を作成するようにしたので、静止画像から作成した立体
データを動画像として見ることができるという効果を有
する。
Further, since a plan view, a layout view, an elevation view, and a still image when the viewpoint and the line of sight direction are arbitrarily changed are synthesized from the three-dimensional data created from the still image, A plan view, a layout view, an elevation view, and the like can be easily created, and a stereoscopic image whose viewpoint and viewing direction are arbitrarily changed can be created with a small amount of processing. In addition, according to the continuously moving viewpoint, the viewpoint direction, the combined viewpoint and the still image when the viewpoint direction is arbitrarily changed are sequentially displayed,
Since a moving image as viewed while moving in the target space is created, there is an effect that stereoscopic data created from a still image can be viewed as a moving image.

【0147】また、計測の対象となる物体の表面の複数
の点を位置の異なる複数の視点に位置するカメラから同
時に計測すると共に、同じ空間に基準となる枠を置いて
消点を計測してカメラの視点を求め、当該複数のカメラ
で撮影した画像から導かれる基本構図を重ねて照合し、
その多数の点の位置を特定して撮影の対象となった物体
の立体データを作成するようにしたので、簡単な構成
で、カメラの設置条件を厳しくしなくても、精度の良い
立体データを作成することができるという効果を有す
る。
Further, a plurality of points on the surface of the object to be measured are simultaneously measured from cameras located at a plurality of viewpoints having different positions, and a vanishing point is measured by placing a reference frame in the same space. Obtain the viewpoint of the camera, superimpose and match the basic composition derived from the images taken by the plurality of cameras,
Since the three-dimensional data of the object to be photographed is created by specifying the positions of these many points, accurate three-dimensional data can be created with a simple configuration without having to tighten the camera installation conditions. It has the effect that it can be created.

【0148】また、計測の対象となる物体の表面の複数
の点を位置の異なる複数の視点に位置するカメラから同
時に計測すると共に、同一空間の座標が既知の2、3又
は4点からカメラの視点を求め、当該複数のカメラで撮
影した画像から導かれる基本構図を重ねて照合し、その
多数の点の位置を特定して撮影の対象となった物体の立
体データを作成するようにしたので、同一空間の2、3
又は4点の座標が既知であれば、簡単な構成で、撮影の
対象となった物体の立体データを作成することができる
という効果を有する。
In addition, a plurality of points on the surface of the object to be measured are simultaneously measured from cameras located at a plurality of viewpoints having different positions, and the camera coordinates are calculated from two, three or four points whose coordinates in the same space are known. Since the viewpoint is obtained, the basic composition derived from the images taken by the plurality of cameras is overlapped and collated, the positions of the many points are specified, and the three-dimensional data of the object to be photographed is created. , Two or three in the same space
Alternatively, if the coordinates of four points are known, there is an effect that three-dimensional data of an object to be photographed can be created with a simple configuration.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係る立体データ作成装置
の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a three-dimensional data creation device according to an embodiment of the present invention.

【図2】実施の形態の立体データ作成処理の概要を示す
フローチャートである。
FIG. 2 is a flowchart illustrating an outline of a stereoscopic data creating process according to the embodiment;

【図3】実施の形態の立体データ作成処理の各処理での
詳細について説明するための説明図である。
FIG. 3 is an explanatory diagram for describing details of each process of a three-dimensional data creation process according to the embodiment;

【図4】実施の形態の立体データ作成処理の各処理での
詳細について説明するための説明図である。
FIG. 4 is an explanatory diagram for describing details of each process of a three-dimensional data creation process according to the embodiment;

【図5】実施の形態の立体データ作成処理の各処理での
詳細について説明するための説明図である。
FIG. 5 is an explanatory diagram for describing details of each processing of the three-dimensional data creation processing according to the embodiment;

【図6】実施の形態の立体データ作成処理の各処理での
詳細について説明するための説明図である。
FIG. 6 is an explanatory diagram for describing details of each processing of the three-dimensional data creation processing according to the embodiment;

【図7】実施の形態の立体データ作成処理の各処理での
詳細について説明するための説明図である。
FIG. 7 is an explanatory diagram for describing details of each processing of the three-dimensional data creation processing according to the embodiment;

【図8】実施の形態の立体データ作成処理の各処理での
詳細について説明するための説明図である。
FIG. 8 is an explanatory diagram for describing details of each processing of the three-dimensional data creation processing according to the embodiment;

【図9】実施の形態の立体データ作成処理の各処理での
詳細について説明するための説明図である。
FIG. 9 is an explanatory diagram for describing details of each processing of the three-dimensional data creation processing according to the embodiment;

【図10】実施の形態の立体データ作成処理の各処理で
の詳細について説明するための説明図である。
FIG. 10 is an explanatory diagram for describing details of each processing of the three-dimensional data creation processing according to the embodiment;

【図11】実施の形態の立体データ作成処理の各処理で
の詳細について説明するための説明図である。
FIG. 11 is an explanatory diagram for describing details of each processing of the three-dimensional data creation processing according to the embodiment;

【図12】実施の形態の立体データ作成処理の各処理で
の詳細について説明するための説明図である。
FIG. 12 is an explanatory diagram for describing details of each processing of the three-dimensional data creation processing according to the embodiment;

【図13】実施の形態の立体データ作成処理の各処理で
の詳細について説明するための説明図である。
FIG. 13 is an explanatory diagram for describing details of each processing of the three-dimensional data creation processing according to the embodiment;

【図14】実施の形態の立体データ作成処理の各処理で
の詳細について説明するための説明図である。
FIG. 14 is an explanatory diagram for describing details of each processing of the three-dimensional data creation processing according to the embodiment;

【符号の説明】[Explanation of symbols]

10 デジタル入力装置 11 スキャナ 12 カメラ 13 パターンプロジェクタ 20 画像処理コンピュータ 21 部位別立体データモデル 22 商品サンプルデータ 23 マウス・キーボード 30 モニタ 31 プリンタ・プロッタ DESCRIPTION OF SYMBOLS 10 Digital input device 11 Scanner 12 Camera 13 Pattern projector 20 Image processing computer 21 Three-dimensional data model for each part 22 Product sample data 23 Mouse / keyboard 30 Monitor 31 Printer / plotter

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 BB05 FF04 FF05 JJ03 JJ05 JJ19 JJ26 QQ31 UU05 5B050 AA09 BA06 BA09 BA11 BA13 BA15 DA02 DA04 EA05 EA24 EA27 EA29 FA06 5B057 AA01 AA13 BA02 CA01 CA08 CA12 CA16 CB08 CB13 CC01 CD01 CD14 CE08 DA07 DA17 DB02  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA04 BB05 FF04 FF05 JJ03 JJ05 JJ19 JJ26 QQ31 UU05 5B050 AA09 BA06 BA09 BA11 BA13 BA15 DA02 DA04 EA05 EA24 EA27 EA29 FA06 5B057 AA01 AA13 CD02 CA01 CA08 CD08 CE08 DA07 DA17 DB02

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 空間構造が未知の空間の静止画像を取り
込み、その取り込んだ静止画像内の直線の位置関係に基
づいて、前記静止画像に対する視点を割り出し、前記静
止画像及び視点の情報に基づいて、前記静止画像内の空
間構造の立体データを作成することを特徴とする立体デ
ータ作成方法。
1. A still image in a space whose spatial structure is unknown is captured, a viewpoint for the still image is determined based on a positional relationship of a straight line in the captured still image, and based on information of the still image and the viewpoint. A method of creating three-dimensional data having a spatial structure in the still image.
【請求項2】 空間構造が未知の空間の静止画像を取り
込む手段と、 前記取り込まれた静止画像を空間の投影された画像とし
て捉えて、その静止画像内の直線の位置関係に基づい
て、前記静止画像に対する視点を割り出す手段と、 前記静止画像及び視点の情報に基づいて、前記静止画像
内の空間構造の立体データを作成する手段と、 作成された立体データを出力する手段とを備えることを
特徴とする立体データ作成装置。
2. A means for capturing a still image of a space whose spatial structure is unknown, wherein the captured still image is captured as a projected image of the space, and based on a positional relationship of straight lines in the still image, Means for calculating a viewpoint for a still image, means for creating three-dimensional data of a spatial structure in the still image based on information of the still image and the viewpoint, and means for outputting the created three-dimensional data. Characteristic three-dimensional data creation device.
【請求項3】 同一対象空間の視点の異なる静止画像の
画像情報から得られた立体データを照合し、前記同一対
象空間内に配された各部位の相対的位置関係を求めて、
対象となった空間に映し出された全ての部位の立体デー
タを得る手段を備えることを特徴とする請求項2記載の
立体データ作成装置。
3. Matching three-dimensional data obtained from image information of still images having different viewpoints in the same target space to obtain a relative positional relationship between respective parts arranged in the same target space,
3. The three-dimensional data creating apparatus according to claim 2, further comprising means for obtaining three-dimensional data of all the parts projected in the target space.
【請求項4】 前記静止画像をその静止画像内の各部位
毎の複数のパーツに分類し、各部位の立体データは、予
め用意された複数の部位別立体データモデルの中から最
も近いものに近似させてその立体データとして、前記静
止画像から作成された立体データに加える手段を備える
ことを特徴とする請求項2又は3記載の立体データ作成
装置。
4. The still image is classified into a plurality of parts for each part in the still image, and the three-dimensional data of each part is set to a closest one from a plurality of part-specific three-dimensional data models prepared in advance. 4. The three-dimensional data creating apparatus according to claim 2, further comprising means for approximating and adding the three-dimensional data to the three-dimensional data created from the still image.
【請求項5】 前記立体データに、前記静止画像からの
色情報を移して、前記静止画像の色情報を含んだ立体デ
ータを作成する手段を備えることを特徴とする請求項
2、3又は4記載の立体データ作成装置。
5. The apparatus according to claim 2, further comprising means for transferring color information from said still image to said three-dimensional data to create three-dimensional data including color information of said still image. 3D data creation device as described.
【請求項6】 任意の部位の立体データを別に用意され
た複数のサンプルから選んだ別の部位の立体データに置
き替え、その部位が置き替わった対象空間をその視点か
ら見た場合の画像を作成する手段を備えることを特徴と
する請求項4又は5記載の立体データ作成装置。
6. A three-dimensional data of an arbitrary part is replaced with a three-dimensional data of another part selected from a plurality of separately prepared samples, and an image obtained when the target space in which the part is replaced is viewed from the viewpoint is obtained. The three-dimensional data creation device according to claim 4 or 5, further comprising a creation unit.
【請求項7】 前記静止画像から作成された立体データ
から、平面図、配置図、立面図、及び視点と視線方向を
任意に変えた場合の静止画像を合成する手段を備えるこ
とを特徴とする請求項2、3、4、5又は6記載の立体
データ作成装置。
7. A method for combining a three-dimensional data created from the still image with a plan view, a layout view, an elevation view, and a still image when a viewpoint and a viewing direction are arbitrarily changed. The three-dimensional data creation device according to claim 2, 3, 4, 5, or 6.
【請求項8】 連続して移動する視点、視線方向に従っ
て、前記合成された視点と視線方向を任意に変えた場合
の静止画像を順次表示し、対象となった空間を移動しな
がら見ているような動画像を作成する手段を備えること
を特徴とする請求項7記載の立体データ作成装置。
8. A still image in which the synthesized viewpoint and the line of sight are arbitrarily changed according to the viewpoint and the line of sight moving continuously, and the moving image is viewed while moving in the target space. 8. The three-dimensional data creating apparatus according to claim 7, further comprising means for creating such a moving image.
【請求項9】 複数のカメラと、 計測の対象となる物体の表面の複数の点を位置の異なる
複数の視点に位置するカメラから同時に計測すると共
に、同じ空間に基準となる枠を置いて消点を計測してカ
メラの視点を求め、当該複数のカメラで撮影した画像か
ら導かれる基本構図を重ねて照合し、その多数の点の位
置を特定して撮影の対象となった物体の立体データを作
成する手段とを備えることを特徴とする立体データ作成
装置。
9. Simultaneously measure a plurality of cameras and a plurality of points on the surface of an object to be measured from cameras located at a plurality of viewpoints having different positions, and erase a reference frame in the same space. Measure points to obtain camera viewpoints, superimpose and compare basic compositions derived from images captured by the multiple cameras, identify the positions of many points, and obtain three-dimensional data of the object that was captured. And a means for creating a three-dimensional data.
【請求項10】 複数のカメラと、 計測の対象となる物体の表面の複数の点を位置の異なる
複数の視点に位置するカメラから同時に計測すると共
に、同一空間の座標が既知の2、3又は4点からカメラ
の視点を求め、当該複数のカメラで撮影した画像から導
かれる基本構図を重ねて照合し、その多数の点の位置を
特定して撮影の対象となった物体の立体データを作成す
る手段を備えることを特徴とする立体データ作成装置。
10. Simultaneously measure a plurality of cameras and a plurality of points on a surface of an object to be measured from cameras located at a plurality of viewpoints having different positions, and obtain two, three or three coordinates whose coordinates in the same space are known. Obtain the viewpoint of the camera from four points, superimpose and compare the basic composition derived from the images taken by the plurality of cameras, specify the positions of the many points, and create the three-dimensional data of the object to be photographed A three-dimensional data creating apparatus, comprising:
JP10243660A 1998-08-28 1998-08-28 Three-dimensional data preparing method and its device Pending JP2000076453A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10243660A JP2000076453A (en) 1998-08-28 1998-08-28 Three-dimensional data preparing method and its device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10243660A JP2000076453A (en) 1998-08-28 1998-08-28 Three-dimensional data preparing method and its device

Publications (1)

Publication Number Publication Date
JP2000076453A true JP2000076453A (en) 2000-03-14

Family

ID=17107119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10243660A Pending JP2000076453A (en) 1998-08-28 1998-08-28 Three-dimensional data preparing method and its device

Country Status (1)

Country Link
JP (1) JP2000076453A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6975361B2 (en) 2000-02-22 2005-12-13 Minolta Co., Ltd. Imaging system, two-dimensional photographing device and three-dimensional measuring device
US7733851B2 (en) 2005-05-06 2010-06-08 Idis Co., Ltd. Name service system and method thereof
WO2011148250A2 (en) 2010-05-27 2011-12-01 Toyota Jidosha Kabushiki Kaisha Method for creating three-dimensional shape data, apparatus for creating three-dimensional shape data, and computer-readable storage medium
US8269766B2 (en) 2005-12-28 2012-09-18 Toyota Jidosha Kabushiki Kaisha Method for generating three-dimensional shape data, apparatus for generating three-dimensional shape data, and three-dimensional shape data generating program
JP2013064618A (en) * 2011-09-16 2013-04-11 Mitsubishi Electric Corp Photogrammetry system and photographing condition determination method for photogrammetry
JPWO2018105117A1 (en) * 2016-12-09 2019-03-14 三菱電機ビルテクノサービス株式会社 Construction photo management system
KR20200079736A (en) * 2018-12-26 2020-07-06 (주)신한항업 Method And System For Making 3D Indoor Space
JP2021528794A (en) * 2018-07-03 2021-10-21 上海亦我信息技術有限公司 How to reconstruct a 3D spatial scene based on shooting
WO2022049653A1 (en) * 2020-09-02 2022-03-10 日本電信電話株式会社 Estimation method, estimation device, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6975361B2 (en) 2000-02-22 2005-12-13 Minolta Co., Ltd. Imaging system, two-dimensional photographing device and three-dimensional measuring device
US7733851B2 (en) 2005-05-06 2010-06-08 Idis Co., Ltd. Name service system and method thereof
US8269766B2 (en) 2005-12-28 2012-09-18 Toyota Jidosha Kabushiki Kaisha Method for generating three-dimensional shape data, apparatus for generating three-dimensional shape data, and three-dimensional shape data generating program
WO2011148250A2 (en) 2010-05-27 2011-12-01 Toyota Jidosha Kabushiki Kaisha Method for creating three-dimensional shape data, apparatus for creating three-dimensional shape data, and computer-readable storage medium
US9214039B2 (en) 2010-05-27 2015-12-15 Toyota Jidosha Kabushiki Kaisha Method for creating three-dimensional shape data, apparatus for creating three-dimensional shape data, and corresponding computer-readable storage medium
JP2013064618A (en) * 2011-09-16 2013-04-11 Mitsubishi Electric Corp Photogrammetry system and photographing condition determination method for photogrammetry
JPWO2018105117A1 (en) * 2016-12-09 2019-03-14 三菱電機ビルテクノサービス株式会社 Construction photo management system
JP2021528794A (en) * 2018-07-03 2021-10-21 上海亦我信息技術有限公司 How to reconstruct a 3D spatial scene based on shooting
JP7162933B2 (en) 2018-07-03 2022-10-31 上海亦我信息技術有限公司 Method, apparatus and system for establishing an internal spatial model of an object, and computer apparatus and computer readable storage medium
KR20200079736A (en) * 2018-12-26 2020-07-06 (주)신한항업 Method And System For Making 3D Indoor Space
KR102193974B1 (en) 2018-12-26 2020-12-22 (주)신한항업 Method And System For Making 3D Indoor Space
WO2022049653A1 (en) * 2020-09-02 2022-03-10 日本電信電話株式会社 Estimation method, estimation device, and program
JP7385159B2 (en) 2020-09-02 2023-11-22 日本電信電話株式会社 Estimation method, estimation device and program

Similar Documents

Publication Publication Date Title
CA3103844C (en) Method for reconstructing three-dimensional space scene based on photographing
US11282279B2 (en) System, etc. for creating mixed-reality environment
Kadobayashi et al. Comparison and evaluation of laser scanning and photogrammetry and their combined use for digital recording of cultural heritage
US20140125654A1 (en) Modeling and Editing Image Panoramas
Haala et al. 3D urban GIS from laser altimeter and 2D map data
Woodward et al. Mixed reality for mobile construction site visualization and communication
JP4685905B2 (en) System for texture rising of electronic display objects
El-Hakim et al. Detailed 3D reconstruction of large-scale heritage sites with integrated techniques
CN109945845A (en) A kind of mapping of private garden spatial digitalized and three-dimensional visualization method
Klinker et al. Augmented reality for exterior construction applications
JP2011523110A (en) System and method for synchronizing a three-dimensional site model and a two-dimensional image in association with each other
Brenner et al. Fast production of virtual reality city models
CN109360262A (en) The indoor locating system and method for threedimensional model are generated based on CAD diagram
Brenner et al. Rapid acquisition of virtual reality city models from multiple data sources
Cavallo et al. Riverwalk: Incorporating historical photographs in public outdoor augmented reality experiences
CN108629828B (en) Scene rendering transition method in the moving process of three-dimensional large scene
JP2023546739A (en) Methods, apparatus, and systems for generating three-dimensional models of scenes
JP2000076453A (en) Three-dimensional data preparing method and its device
Reitinger et al. Augmented reality scouting for interactive 3d reconstruction
Themistocleous et al. The use of digital twin models to document cultural heritage monuments
JPH06348815A (en) Method for setting three-dimensional model of building aspect in cg system
JP6134874B1 (en) System for creating a mixed reality environment
CN110122958A (en) Three-dimensional scanner and application method
Zimmermann et al. Showing the invisible–documentation and research on the Roman Domitilla catacomb, based on image laser scanning and 3D modelling
Dursun et al. 3D city modelling of Istanbul historic peninsula by combination of aerial images and terrestrial laser scanning data