JPH02253378A - Automatic deciding device for photographing position - Google Patents

Automatic deciding device for photographing position

Info

Publication number
JPH02253378A
JPH02253378A JP7200789A JP7200789A JPH02253378A JP H02253378 A JPH02253378 A JP H02253378A JP 7200789 A JP7200789 A JP 7200789A JP 7200789 A JP7200789 A JP 7200789A JP H02253378 A JPH02253378 A JP H02253378A
Authority
JP
Japan
Prior art keywords
information
key
shape
pattern information
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7200789A
Other languages
Japanese (ja)
Other versions
JP2573347B2 (en
Inventor
Teruo Hamano
浜野 輝夫
Tomio Kishimoto
岸本 登美夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP7200789A priority Critical patent/JP2573347B2/en
Publication of JPH02253378A publication Critical patent/JPH02253378A/en
Application granted granted Critical
Publication of JP2573347B2 publication Critical patent/JP2573347B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To secure a fixed difference of information between pictures by preparing a key position extracting part and selecting a photographing position based on the form information on an object and the pattern information of the object surface so as to secure an approximately fixed changing value of the extracted surface information between the pictures contiguous to each other. CONSTITUTION:The form information inputted via a form information input part 1 is approximately divided into plural polygonal planes omegai and at the same time the correspondence is secured between the planes omegai and the pattern information inputted via a pattern information input part 2 via a form/pattern information approximation part 3. A surface information changing value detecting part 4 detects the changing value of the surface information based on the changes of visual points to the planes omegai. Then a key position extracting part 5 extracts a key longitude and a key latitude of a photographing position so that the changing value of the surface information detected by the part 4 is approximately fixed between pictures contiguous to each other. Then a key photographing position 6 is set at the key longitude and key latitude extracted by the part 5. As a result, a fixed difference of information is kept between pictures.

Description

【発明の詳細な説明】 (発明の属する技術分野) 本発明は商品、美術品、動植物などの実在する物体を複
数方向から撮影する場合にその撮影位置を自動決定する
装置に関するものである。本発明によって決定された撮
影位置から撮影された画像情報はセンタ装置に蓄積され
、これを伝送路を介して端末装置に検索提供を行なう画
像情報提供装置などに利用される。
DETAILED DESCRIPTION OF THE INVENTION (Technical field to which the invention pertains) The present invention relates to a device that automatically determines the photographing position when photographing real objects such as products, works of art, animals and plants from a plurality of directions. Image information photographed from a photographing position determined according to the present invention is stored in a center device, and is used by an image information providing device or the like that searches and provides information to a terminal device via a transmission path.

(従来の技術) 商品、美術品、動植物等の実在する物体を複数方向から
撮影する場合、その撮影位置を決定するための従来手法
としては、第8図に示すような物体Oを覆う仮想半球O
Aを想定し、この仮想半球の経度方向ψ(横方向)と緯
度方向λ(縦方向)に均等な角度間隔で撮影位置を決定
する手法がある。
(Prior art) When photographing real objects such as products, works of art, animals and plants from multiple directions, a conventional method for determining the photographing position is to use a virtual hemisphere that covers the object O as shown in Figure 8. O
There is a method of assuming A and determining photographing positions at equal angular intervals in the longitude direction ψ (horizontal direction) and latitude direction λ (vertical direction) of this virtual hemisphere.

しかしこの場合、仮想半球○Aの緯度λが高くなる極点
OCに近付くにつれて撮影位置の密度は高くなり、極点
付近から撮影した画像は(画面内での物体の姿勢は変化
するが)実質的にほとんど同じ情報しか持たない。そこ
で撮影位置間の半球上での距離を一定にする必要がある
ことがわかる。
However, in this case, as the latitude λ of the virtual hemisphere ○A increases, the density of photographing positions increases as it approaches the pole OC, and the image photographed from near the pole (although the attitude of the object within the screen changes) is substantially They have almost the same information. Therefore, it can be seen that it is necessary to keep the distance between the shooting positions on the hemisphere constant.

しかし仮にこのようにして複数の撮影位置を決めたとし
ても、各撮影位置から撮影した画像に対し、それを見る
人が実質的に受ける情報の差は、物体の形状と撮影位置
によって大きく変化する。
However, even if multiple shooting positions are determined in this way, the difference in information that the viewer receives from images taken from each shooting position will vary greatly depending on the shape of the object and the shooting position. .

たとえば第9図に示すような直方体を■の方向から見た
画像(第1θ図(a))と、これを10度だけ回転して
見た画像(第10図(b))とを比較してみた場合に感
じる画像間の差異と、■の方向から見た画像(第11図
(a))と、これを10度だけ回転して見た画像(第1
1図(b))とを比較した場合の差異では明かに■の方
向から見た場合の差異の方が大きく感じられる。
For example, compare the image of a rectangular parallelepiped shown in Figure 9 viewed from the direction of ■ (Figure 1θ (a)) and the image viewed by rotating it by 10 degrees (Figure 10 (b)). The differences between the images when viewed from the direction of
1 (b)), the difference when viewed from the direction of ■ is clearly felt to be larger.

これは、たとえ半球上で、の撮影位置の間隔を一定にし
ても、各画像間の情報の差は一定にはならないことを意
味している。従ってこれらの画像を撮像位置の隣接する
順に次々と表示すると、見る人が実質的に受ける情報は
ある区間では大きくなり、別の区間では小さくなる。す
なわちこのような画像の集合を蓄積すると、見る人に対
して実質的にどれだけの情報を与えるかという意味での
蓄積効率は悪くなる。
This means that even if the interval between the shooting positions on the hemisphere is constant, the difference in information between each image will not be constant. Therefore, when these images are displayed one after another in the order of adjacent imaging positions, the information received by the viewer becomes larger in one section and smaller in another section. In other words, when such a set of images is stored, the storage efficiency in terms of how much information is actually given to the viewer deteriorates.

従来、このような問題点を解決するために、各画像間の
情報の差が一定になる撮影位置を自動決定する方法が提
案されていた。この従来手法では、視点位置移動にとも
ない発生する情報量と消失する情報量の総和を、撮影対
象物体の形状のみに基づいて求め、各画像間の情報の差
としていた。
Conventionally, in order to solve such problems, a method has been proposed for automatically determining a photographing position where the difference in information between images becomes constant. In this conventional method, the sum of the amount of information generated and the amount of information lost as the viewpoint position moves is calculated based only on the shape of the object to be photographed, and is used as the difference in information between each image.

しかし実際には、撮影対象となる物体表面上には、色な
どによる模様情報が存在する。従って各画像間の情報の
差には模様情報の変化も含まれるべきであるが、従来手
法では含まれていなかった。
However, in reality, pattern information such as color exists on the surface of the object to be photographed. Therefore, the difference in information between each image should include changes in pattern information, but this was not included in the conventional method.

このため形状による画像間の情報差がたとえ小さくても
、模様によって情報が大きく変動するような場合に、各
画像間の報情差は一定にはならないという欠点を有して
いた。
For this reason, even if the information difference between images depending on the shape is small, the information difference between each image will not be constant if the information varies greatly depending on the pattern.

(発明の目的) 本発明の目的は、物体を覆う仮想の半球に沿って複数枚
の画像を撮影する場合に、撮影された各画像間の情報の
差にバラツキが生じる点を物体形状および物体表面上の
模様情報に基づいて解決することにより、各画像間の情
報の差が一定になる撮影位置を自動決定する装置を提供
することにある。
(Objective of the Invention) An object of the present invention is to identify the point where the difference in information between the captured images occurs when a plurality of images are captured along a virtual hemisphere covering the object. An object of the present invention is to provide a device that automatically determines a photographing position at which the difference in information between images becomes constant by solving the problem based on pattern information on the surface.

(発明の構成) (発明の特徴と従来の技術との差異) 本発明は物体Oを覆う仮想の半球に沿って複数枚の画像
を撮影する場合に、その撮影された各画像間の情報の差
に対応する表面情報変化量を物体形状と物体表面上の模
様に基づいて求め、これが各画像間で一定になるように
撮影位置を決定することを最も主要な特徴とする。
(Structure of the Invention) (Characteristics of the Invention and Differences from the Prior Art) The present invention provides information on the information between each image when capturing a plurality of images along a virtual hemisphere covering the object O. The most important feature is that the amount of surface information change corresponding to the difference is determined based on the object shape and the pattern on the object surface, and the photographing position is determined so that this amount is constant between each image.

本発明は物体形状と物体表面上の模様に基づく表面情報
変化量とは以下のように定義される。まず、第31ff
l(a)に示す撮影対象となる物体O(ハツチングは模
様を意味する)を第3図(b)に示すようにm個の三角
パッチ等の微細な多角形ω1(i=o。
In the present invention, the amount of surface information change based on the object shape and the pattern on the object surface is defined as follows. First, the 31st ff.
The object O to be photographed shown in l(a) (hatching means a pattern) is formed into fine polygons ω1 (i=o) such as m triangular patches as shown in FIG. 3(b).

1、・・1−1)で平面近似する。この各多角形ωiは
物体Oの対応する位置における色情報を与えられている
とする。
1, . . . 1-1) for plane approximation. It is assumed that each polygon ωi is given color information at a corresponding position of the object O.

第4図に示すように、まず位!Iuから物体Oを撮影し
た場合、複数のうちのある多角形ωiがスクリーン面へ
投影された領域をsuとする9次に位置Vから物体Oを
撮影すると、前記多角形ωiのスクリーン面への投影領
域はsvであるとする。
As shown in Figure 4, first place! When an object O is photographed from Iu, if the object O is photographed from a 9th position V, where su is the area where a certain polygon ωi is projected onto the screen surface, then the projection of the polygon ωi onto the screen surface is It is assumed that the projection area is sv.

物体0の表面上のn種類の色をIj(j=o、・・・n
−1)とする、このとき領域suに投影されたn種類の
色Ijの投影面積をpjとすると、各色の投影面積は p(s u)  =  (po、  、  、  −、
pn−1)      (1)なるベクトルp(su)
で表わすことができる。簡単のために平行投影であると
仮定すると、位1iuと位l!■から撮影した二枚の画
像間で、スクリーン面に投影される多角形ωiの各色の
投影面積の変化diは di  −p(su)  p(sv) = (Δpop−−−gΔp n−1)    (2)
となる、diの成分Δpjが正であるのなら、視点移動
によってn種類の色Ijに関してΔpjに比例する量だ
け情報が増えたとみなすことができる。
Let n types of colors on the surface of object 0 be Ij (j=o,...n
-1), and if the projected area of n types of colors Ij projected onto the area su is pj, then the projected area of each color is p(s u) = (po, , , -,
pn-1) (1) Vector p(su)
It can be expressed as Assuming parallel projection for simplicity, place 1iu and place l! The change di in the projected area of each color of the polygon ωi projected on the screen surface between the two images taken from ■ is di −p(su) p(sv) = (Δpop−−−gΔp n−1) (2)
If the component Δpj of di is positive, it can be considered that the information about the n types of colors Ij has increased by an amount proportional to Δpj due to the movement of the viewpoint.

また負であるのなら、−八pjに比例する量だけ情報が
減少したとみなすことができる。
If it is negative, it can be considered that the information has decreased by an amount proportional to -8pj.

したがって各多角形ωiについて求めた投影面積の変化
diのノルム(norm) [d i lの総和Duv
は、物体Oを位[uから撮影した画像と1位置Vから撮
影した画像間での情報の変化量とみなすことができる。
Therefore, the norm of the change di in projected area obtained for each polygon ωi [d i l summation Duv
can be regarded as the amount of change in information between an image taken from a position [u] and an image taken from a position V of the object O.

Duvを表面情報変化量と呼ぶことにする。Duv will be referred to as surface information variation amount.

本発明ではこの表面情報変化量が二枚の画像間の情報量
の変化量に比例し、しかも物体の形状情報と表面の模様
情報だけから抽出可能な点に着目し1表面情報変化量が
隣接する画像間でほぼ一定になるように撮影位置を選ぶ
ことによって、各画像間の情報の差を一定にすることを
特徴としている。
In the present invention, we focus on the fact that the amount of change in surface information is proportional to the amount of change in information between two images, and that it can be extracted only from the shape information of the object and the pattern information on the surface. The feature is that the difference in information between each image is made constant by selecting the shooting position so that it is almost constant between the images.

これに対して従来の技術では単純に撮影位置を均等間隔
で決定しているために、各画像間の物体○に関する情報
の変化量は一定にはならない。
On the other hand, in the conventional technique, the photographing positions are simply determined at equal intervals, so the amount of change in information regarding the object ○ between each image is not constant.

(実施例) 第1図は本発明の基本構成のブロック図であり、図にお
いて、1は物体の形状情報を入力する形状情報入力部、
2は物体の表面の模様情報を入力する模様情報入力部、
3は前記形状情報入力部1から入力された形状情報を複
数の多角形平面ωiに近似分割し、かつ前記模様情報入
力部2から入力された模様情報を前記複数の多角形平面
ωiに対応付けるようにした形状/模様情報近似部、4
は該形状/模様情報近似部3で平面近似され、かつ模様
情報に対応付けられた複数の多角形平面ωiに対する視
点変化に基づく表面情報変化量を検出する表面情報変化
量検出部、5は該表面情報変化量検出部4で検出された
表面情報変化量が、隣接する画像間でほぼ一定となるよ
うに撮影位置の代表経度・代表緯度を抽出する代表位置
抽出部、6は該代表位置抽出部5で抽出された代表経度
・代表緯度に設定される代表撮影位置を示す。
(Embodiment) FIG. 1 is a block diagram of the basic configuration of the present invention, and in the figure, 1 is a shape information input unit for inputting shape information of an object;
2 is a pattern information input unit for inputting pattern information on the surface of the object;
3 approximately divides the shape information input from the shape information input section 1 into a plurality of polygon planes ωi, and associates the pattern information input from the pattern information input section 2 with the plurality of polygon planes ωi. Shape/pattern information approximation part, 4
5 is a surface information change amount detection unit that detects a surface information change amount based on a viewpoint change with respect to a plurality of polygonal planes ωi that are plane-approximated by the shape/pattern information approximation unit 3 and are associated with pattern information; A representative position extractor 6 extracts representative longitudes and representative latitudes of photographing positions so that the surface information change amount detected by the surface information change amount detector 4 is approximately constant between adjacent images; 6 is a representative position extractor; The representative photographing position set to the representative longitude and representative latitude extracted in section 5 is shown.

上記、具体的な構成を第2図に示し、形状/模様情報近
似部3は、形状近似部31と、模様近似部32と、形状
/模様情報蓄積部33とでなる。表面情報変化量検出部
4は、緯度方向変化量測定部41と。
The above-described specific configuration is shown in FIG. 2, and the shape/pattern information approximation section 3 includes a shape approximation section 31, a pattern approximation section 32, and a shape/pattern information storage section 33. The surface information change amount detection section 4 and the latitude direction change amount measurement section 41.

平均化部42と、経度方向変化量測定部43とでなり、
前記平均化部42は、更に蓄積部421と演算部422
とでなる。代表位置抽出部5は、代表緯度抽出部51と
代表経度抽出部52とからなり、これら両部には夫々蓄
積部511.521及び抽出部512.522からなる
It consists of an averaging section 42 and a longitudinal change measurement section 43,
The averaging section 42 further includes an accumulation section 421 and a calculation section 422.
It becomes. The representative position extraction unit 5 includes a representative latitude extraction unit 51 and a representative longitude extraction unit 52, and both of these units include a storage unit 511.521 and an extraction unit 512.522, respectively.

また、代表撮影位置6には代表緯度61と代表経度62
が代表位置抽出部5の各抽出部512.522から夫々
出力される。
In addition, the representative shooting position 6 has a representative latitude 61 and a representative longitude 62.
are output from each extractor 512 and 522 of the representative position extractor 5, respectively.

これを動作するには形状情報入力部lに物体の形状情報
を入力する。また模様情報入力部2に物体表面の模様情
報(色情報)を入力する。形状/模様情報近似部3の形
状近似部31は形状情報入力部1から物体の形状情報を
読みだし、物体の形状をm個の微細な多角形ωi(i”
otl*・・・m−1)で平面近似し、各多角形ωiの
形状情報とその外向きの法線ベクトル情報を形状/[様
情報蓄積部33に蓄積する。
To operate this, the shape information of the object is input to the shape information input section l. Further, pattern information (color information) on the surface of the object is input to the pattern information input section 2. The shape approximation unit 31 of the shape/pattern information approximation unit 3 reads the shape information of the object from the shape information input unit 1, and converts the shape of the object into m minute polygons ωi(i”
otl*...m-1), and the shape information of each polygon ωi and its outward normal vector information are stored in the shape/[-like information storage unit 33.

一方、模様近似部32は模様情報入力部2から該物体表
面の模様情報(色情報)を読みだし、n種類の色工j(
j:0.・・・、 n−1)に量子化して、各多角形ω
iと対応付けて形状/模様情報蓄積部33に蓄積する。
On the other hand, the pattern approximation unit 32 reads pattern information (color information) on the surface of the object from the pattern information input unit 2, and calculates n types of color schemes j (
j:0. ..., n-1), and each polygon ω
It is stored in the shape/pattern information storage section 33 in association with i.

表面情報変化量検出部4の緯度方向変化量測定部41は
形状/模様情報蓄積部33から多角形で平面近似された
物体の形状情報と各多角形ωiに対応付けられた模様情
報を読みだし、これに基づいて第5図に示すように物体
を撮影する撮影位置の経度をψ=0に固定し、緯度λを
微細な角度Δλずつ移動させた場合の表面情報変化量D
O(λ)を(3)式から求める。ただし角度Δλ=π/
(2・C0)(COは自然数)とする。
The latitudinal change amount measurement unit 41 of the surface information change amount detection unit 4 reads the shape information of the object plane-approximated by polygons and the pattern information associated with each polygon ωi from the shape/pattern information storage unit 33. , based on this, as shown in Fig. 5, the amount of surface information change D when the longitude of the photographing position of the object is fixed at ψ = 0 and the latitude λ is moved by minute angles Δλ.
Obtain O(λ) from equation (3). However, the angle Δλ=π/
(2・C0) (CO is a natural number).

ついで経度ψを微細な角度Δψだけ移動し同様にしてD
Δψ(λ)を求める。ただしΔφ=2π/C1(C1は
自然数)とする、これを緯度ψ=2πになるまで繰り返
し、緯度方向の表面情報変化量Dφ(λ)(φ=Δψ、
2Δψ# ++1+l 2π、λ=Δλ。
Next, move the longitude ψ by a minute angle Δψ and do the same to get D
Find Δψ(λ). However, Δφ = 2π/C1 (C1 is a natural number). This is repeated until the latitude ψ = 2π, and the amount of change in surface information in the latitude direction Dφ (λ) (φ = Δψ,
2Δψ# ++1+l 2π, λ=Δλ.

2Δλp mamg π/2)を演算し、平均化部42
の蓄積部421に蓄積する。
2Δλp mamg π/2), and the averaging unit 42
The data is stored in the storage unit 421 of.

演算部422は蓄積部421に蓄積された緯度方向の表
面情報変化量Dψ(λ)を読みだし、経度ψについでの
平均値Da(λ) (λ=Δλ、2Δλ@ ass@ π/2)     
 (4)を演算し、代表緯度抽出部51の蓄積部511
に蓄積する。
The calculation unit 422 reads out the surface information change amount Dψ(λ) in the latitude direction accumulated in the storage unit 421, and calculates the average value Da(λ) for the longitude ψ (λ=Δλ, 2Δλ@ass@π/2)
(4) is calculated, and the storage unit 511 of the representative latitude extraction unit 51
Accumulate in.

抽出部512は蓄積部511から平均値Da(λ)(λ
=Δλ、2Δλe −−−e 寓/2)を読みだすとと
もに、あらかじめ決定されている緯度方向の表面情報変
化量の間隔値δを用いて第6図に示すように平均値Da
(λ)の積分値を均等に分割する。そして分割位置とな
るX個の緯度Ai(i=0.、、、、x−1)を代表緯
度61として出力するとともに、これを経度方向変化量
測定部43に出力する。
The extraction unit 512 extracts the average value Da(λ)(λ
=Δλ, 2Δλe −−−e f/2), and using the predetermined interval value δ of the amount of change in surface information in the latitude direction, the average value Da is calculated as shown in FIG.
Divide the integral value of (λ) equally. Then, the X latitudes Ai (i=0., . . . , x-1) serving as the division positions are outputted as representative latitudes 61, and are also outputted to the longitudinal direction variation measuring section 43.

経度方向変化量測定部43は形状/模様情報蓄積部33
から物体形状を平面近似した形状情報と模様情報を読み
だし、ついで代表緯度抽出部51の抽出部512から出
力された緯度A 1(i=o、 、 、 、 、x−1
)を読みだす、そして緯度方向変化量測定部41と同様
にして、経度方向の表面情報変化量DAi(ψ) (C
o。
The longitudinal change measurement unit 43 is the shape/pattern information storage unit 33
The shape information and pattern information obtained by plane approximation of the object shape are read out from , and then the latitude A 1 (i=o, , , , x-1
), and in the same way as the latitudinal direction variation measuring unit 41, the surface information variation DAi(ψ) (C
o.

***gX−12ψ=Δψ、2Δψe**mg2π)を
測定し、代表経度抽出部52の蓄積部521に蓄積する
***gX−12ψ=Δψ, 2Δψe**mg2π) is measured and stored in the storage unit 521 of the representative longitude extraction unit 52.

蓄積部521に蓄積された経度方向の表面情報変化量D
Ai(ψ)を読みだし1代表緯度抽出部51と同様にし
て、第7図に示すようにDAi(ψ)の積分値を間隔値
δで均等に分割する。そして分割位置となるyi個の経
度マlj (j”Ot*e−s y−1e l”Ot−
、、x−1)を求めこれを代表経度62として出力する
Surface information change amount D in the longitudinal direction accumulated in the accumulation section 521
Ai(ψ) is read out, and in the same manner as the first representative latitude extraction unit 51, the integrated value of DAi(ψ) is equally divided by the interval value δ as shown in FIG. Then, yi longitude marks lj (j”Ot*e-s y-1e l”Ot-
, , x-1) and outputs it as the representative longitude 62.

なお本実施例では表面情報変化量の間隔値δが装置内部
に予め設定されているものとして説明したが、この間隔
値δは外部から入力しても良い。
Although this embodiment has been described on the assumption that the interval value δ of the amount of change in surface information is preset inside the apparatus, this interval value δ may be input from the outside.

このようにして物体の形状情報と模様情報に基づいて代
表緯度と代表経度が決定されれば、この代表緯度と代表
経度から定まる仮想半球上の撮影位置から物体を撮影し
た画像は、隣接する画像間の表面情報変化量がほぼ一定
になる。
If the representative latitude and longitude are determined based on the shape information and pattern information of the object in this way, the image taken of the object from the shooting position on the virtual hemisphere determined by the representative latitude and representative longitude will be the same as the adjacent image. The amount of change in surface information between the two becomes almost constant.

(発明の効果) 以上説明したように本発明における表面情報変化量は形
状情報と模様情報に基づいて抽出されるから、たとえ形
状による情報量変化が小さくとも模様による変化が大き
い場合にも、各画像間の情報差を一定に保つことが可能
である。従って物体を均等間隔で撮影した場合に比べて
、これらの画像を連続的に表示すると、より滑らかに表
示することが出来る。またこれらの画像をデータベース
等に蓄積する場合に、単純に均等間隔で撮影するよりも
、見る人に実質的に与える情報量の意味での蓄積効率を
改善することが出来る。
(Effects of the Invention) As explained above, the amount of change in surface information in the present invention is extracted based on shape information and pattern information. It is possible to keep the information difference between images constant. Therefore, when these images are displayed continuously, they can be displayed more smoothly than when objects are photographed at equal intervals. Furthermore, when storing these images in a database or the like, it is possible to improve the storage efficiency in terms of the amount of information actually given to the viewer, compared to simply taking images at equal intervals.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の基本構成を示すブロック図。 第2図はその具体構成を示すブロック図、第3図は撮影
対象となる物体の多角形ωiによる平面近似の説明図、
第4図は第3図の多角形ωiを位置u、vから撮影した
場合のスクリーン面上の投影面積pjを示す図、第5図
は物体の表面情報変化量を求める説明図、第6図は予め
決定されている緯度方向の表面情報変化量の間隔値δを
用いて平均値Da(λ)の積分値を均等分割するときの
説明図、第7図は予め決定されている経度方向の表面情
報変化量の間隔値δを用いて平均値DAi(ψ)の積分
値を均等分割するときの説明図、第8図は従来手法によ
る物体の経度方向と緯度方向の撮影位置の決定を行う説
明図、第9図は直方体を2方向から見る図、第10図及
び第11図は第9図の直方体を2方向からみた場合の画
像の差異を示す図である。 1 ・・・形状情報入力部、 2・・・模様情報入力部
、 3・・・形状/模様情報近似部、4・・・表面情報
変化量検出部、 5・・・代表位置抽出部、 6・・・
代表撮影位置、31・・・形状近似部、32・・・模様
近似部、33・・・形状/模様情報蓄積部、”41・・
・緯度方向変化量測定部、42・・・平均化部、43・
・・経度方向変化量測定部、51・・・代表緯度抽出部
、52・・・代表経度抽出部。 61・・・代表緯度、62・・・代表経度、  421
゜511、521・・・蓄積部、422・・・演算部、
512、522・・・抽出部。 第 図 第 図 (a) (b) 第 図 第 図 μシ勿りイーーー〇 ψ・0 位Jlv 第 図 第 図 ん X牌屋 第 ア 図 ψ・・托友 第 図 ■ 重め 重L1 重L2 ψ経度 第 図 第 図 (b) (b)
FIG. 1 is a block diagram showing the basic configuration of the present invention. Fig. 2 is a block diagram showing its specific configuration, Fig. 3 is an explanatory diagram of plane approximation by polygon ωi of the object to be photographed,
Fig. 4 is a diagram showing the projected area pj on the screen surface when polygon ωi in Fig. 3 is photographed from positions u and v, Fig. 5 is an explanatory diagram for calculating the amount of change in surface information of an object, and Fig. 6 is an explanatory diagram when the integral value of the average value Da(λ) is equally divided using the predetermined interval value δ of the amount of surface information change in the latitude direction, and FIG. An explanatory diagram when the integral value of the average value DAi (ψ) is equally divided using the interval value δ of the amount of change in surface information, and FIG. 8 shows the determination of the photographing position of the object in the longitude and latitude directions using the conventional method. The explanatory diagram, FIG. 9, is a diagram of the rectangular parallelepiped viewed from two directions, and FIGS. 10 and 11 are diagrams showing differences in images when the rectangular parallelepiped of FIG. 9 is viewed from two directions. 1... Shape information input section, 2... Pattern information input section, 3... Shape/pattern information approximation section, 4... Surface information change amount detection section, 5... Representative position extraction section, 6 ...
Representative photographing position, 31... Shape approximation section, 32... Pattern approximation section, 33... Shape/pattern information storage section, "41...
・Latitude direction change measurement unit, 42... Averaging unit, 43・
. . . Longitudinal direction change amount measuring section, 51 . . . Representative latitude extraction section, 52 . . . Representative longitude extraction section. 61... Representative latitude, 62... Representative longitude, 421
゜511, 521...Storage unit, 422...Calculation unit,
512, 522...extraction section. (a) (b) (a) (b) (a) (b) (b) (a) (b) (b) (a) (b) (b) (b) (a) (b) (b) (b) ψ longitude diagram (b) (b)

Claims (1)

【特許請求の範囲】[Claims] 物体の形状情報を入力する形状情報入力部と、該物体の
表面の模様情報を入力する模様情報入力部と、前記形状
情報入力部から入力された形状情報を複数の多角形平面
に近似分割し、かつ前記模様情報入力部から入力された
模様情報を前記複数の多角形平面に対応付けるようにし
た形状/模様情報近似部と、該形状/模様情報近似部で
平面近似され、かつ模様情報を対応付けられた複数の多
角形平面に対する視点変化に基づく表面情報変化量を検
出する表面情報変化量検出部と、該表面情報変化量検出
部で検出された表面情報変化量が隣接する画像間でほぼ
一定となるように撮影位置の代表経度・代表緯度を抽出
する代表位置抽出部とから構成されることを特徴とする
撮影位置自動決定装置。
a shape information input section for inputting shape information of an object; a pattern information input section for inputting pattern information on the surface of the object; and approximately dividing the shape information input from the shape information input section into a plurality of polygonal planes. , and a shape/pattern information approximation unit that associates the pattern information input from the pattern information input unit with the plurality of polygonal planes; A surface information change amount detection section that detects a surface information change amount based on a viewpoint change for a plurality of attached polygonal planes; An automatic photographing position determination device comprising: a representative position extracting unit that extracts a representative longitude and latitude of a photographing position so that the representative longitude and latitude of the photographing position are constant.
JP7200789A 1989-03-27 1989-03-27 Automatic shooting position determination device Expired - Lifetime JP2573347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7200789A JP2573347B2 (en) 1989-03-27 1989-03-27 Automatic shooting position determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7200789A JP2573347B2 (en) 1989-03-27 1989-03-27 Automatic shooting position determination device

Publications (2)

Publication Number Publication Date
JPH02253378A true JPH02253378A (en) 1990-10-12
JP2573347B2 JP2573347B2 (en) 1997-01-22

Family

ID=13476929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7200789A Expired - Lifetime JP2573347B2 (en) 1989-03-27 1989-03-27 Automatic shooting position determination device

Country Status (1)

Country Link
JP (1) JP2573347B2 (en)

Also Published As

Publication number Publication date
JP2573347B2 (en) 1997-01-22

Similar Documents

Publication Publication Date Title
US5259037A (en) Automated video imagery database generation using photogrammetry
EP0896267B1 (en) Position recognizing system of autonomous running vehicle
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
US10846885B2 (en) Methods and computer program products for calibrating stereo imaging systems by using a planar mirror
KR102607517B1 (en) Generate composite images from 3D point clouds
US20060215935A1 (en) System and architecture for automatic image registration
US20020118874A1 (en) Apparatus and method for taking dimensions of 3D object
US7023472B1 (en) Camera calibration using off-axis illumination and vignetting effects
US6766270B2 (en) Gravity-reference vision system
US6616347B1 (en) Camera with rotating optical displacement unit
Frobin et al. Calibration and model reconstruction in analytical close-range stereophotogrammetry
JPH02253378A (en) Automatic deciding device for photographing position
Hsu Geocoded terrestrial mosaics using pose sensors and video registration
Sayed Extraction and photogrammetric exploitation of features in digital images
JPH11194027A (en) Three-dimensional coordinate measuring instrument
JPH0771215B2 (en) Automatic shooting position determination device
JPH1062154A (en) Processing method of measured value, method and device for shape reconstruction
JP3652741B2 (en) How to create map data
JP5409451B2 (en) 3D change detector
JPH06221832A (en) Method and device for calibrating focusing distance of camera
JP3587585B2 (en) Photogrammetry equipment
Chong A rigorous technique for forensic measurement of surveillance video footage
JP2004038514A (en) Method and device for restoring building three-dimensional shape, program for restoring building three-dimensional shape, and storage medium with the program stored therein
Hideghéty Real-Time Deformation Measurements Using Single Image Photogrammetry
Tjahjadi et al. A robust method of rectifying a tilted image to truly vertical

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071024

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081024

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091024

Year of fee payment: 13

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091024

Year of fee payment: 13