JP2573347B2 - Automatic shooting position determination device - Google Patents

Automatic shooting position determination device

Info

Publication number
JP2573347B2
JP2573347B2 JP7200789A JP7200789A JP2573347B2 JP 2573347 B2 JP2573347 B2 JP 2573347B2 JP 7200789 A JP7200789 A JP 7200789A JP 7200789 A JP7200789 A JP 7200789A JP 2573347 B2 JP2573347 B2 JP 2573347B2
Authority
JP
Japan
Prior art keywords
information
representative
longitude
pattern
latitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP7200789A
Other languages
Japanese (ja)
Other versions
JPH02253378A (en
Inventor
輝夫 浜野
登美夫 岸本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP7200789A priority Critical patent/JP2573347B2/en
Publication of JPH02253378A publication Critical patent/JPH02253378A/en
Application granted granted Critical
Publication of JP2573347B2 publication Critical patent/JP2573347B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】 (発明の属する技術分野) 本発明は商品、美術品、動植物などの実在する物体を
複数方向から撮影する場合にその撮影位置を自動決定す
る装置に関するものである。本発明によって決定された
撮影位置から撮影された画像情報はセンタ装置に蓄積さ
れ、これを伝送路を介して端末装置に検索提供を行なう
画像情報提供装置などに利用される。
Description: TECHNICAL FIELD The present invention relates to an apparatus for automatically determining a photographing position when a real object such as a product, a work of art, a flora and fauna is photographed from a plurality of directions. The image information photographed from the photographing position determined by the present invention is stored in the center device, and is used for an image information providing device that searches and provides the terminal device via a transmission line.

(従来の技術) 商品、美術品、動植物等の実在する物体を複数方向か
ら撮影する場合、その撮影位置を決定するための従来手
法としては、第8図に示すような物体0を覆う仮想半球
OAを想定し、この仮想半球の経度方向ψ(横方向)と緯
度方向λ(縦方向)に均等な角度間隔で撮影位置を決定
する手法がある。
(Prior Art) When a real object such as a product, a work of art, a flora and fauna is photographed from a plurality of directions, a virtual hemisphere covering an object 0 as shown in FIG.
Assuming OA, there is a method of determining the photographing position at equal angular intervals in the longitude direction ψ (horizontal direction) and the latitude direction λ (vertical direction) of this virtual hemisphere.

しかしこの場合、仮想半球OAの緯度λが高くなる極点
OCに近付くにつれて撮影位置の密度は高くなり、極点付
近から撮影した画像は(画面内での物体の姿勢は変化す
るが)実質的にほとんど同じ情報しか持たない。そこで
撮影位置間の半球上での距離を一定にする必要があるこ
とがわかる。
However, in this case, the extreme point where the latitude λ of the virtual hemisphere OA increases
As approaching OC, the density of photographing positions increases, and images photographed from near the poles have substantially the same information (although the posture of the object in the screen changes). Therefore, it is understood that the distance between the photographing positions on the hemisphere needs to be constant.

しかし仮にこのようにして複数の撮影位置を決めたと
しても、各撮影位置から撮影した画像に対し、それを見
る人が実質的に受ける情報の差は、物体の形状と撮影位
置によって大きく変化する。
However, even if a plurality of photographing positions are determined in this way, a difference in information substantially received by a viewer of the image photographed from each photographing position greatly changes depending on the shape of the object and the photographing position. .

たとえば第9図に示すような直方体をの方向から見
た画像(第10図(a))と、これを10度だけ回転して見
た画像(第10図(b))とを比較してみた場合に感じる
画像間の差異と、の方向から見た画像(第11図
(a))と、これを10度だけ回転して見た画像(第11図
(b))とを比較した場合の差異では明かにの方向か
ら見た場合の差異の方が大きく感じられる。
For example, an image of a rectangular parallelepiped as shown in FIG. 9 (FIG. 10 (a)) is compared with an image obtained by rotating the rectangular parallelepiped by 10 degrees (FIG. 10 (b)). The difference between the images felt when viewed, and the comparison between the image viewed from the direction (FIG. 11 (a)) and the image rotated by 10 degrees (FIG. 11 (b)) As for the difference, the difference when viewed from the obvious direction is larger.

これは、たとえ半球上での撮影位置の間隔を一定にし
ても、各画像間の情報の差は一定にはならないことを意
味している。従ってこれらの画像を撮像位置の隣接する
順に次々と表示すると、見る人が実質的に受ける情報は
ある区間では大きくなり、別の区間では小さくなる。す
なわちこのような画像の集合を蓄積すると、見る人に対
して実質的にどれだけの情報を与えるかという意味での
蓄積効率は悪くなる。
This means that even if the interval between the photographing positions on the hemisphere is constant, the difference in information between the images is not constant. Therefore, when these images are displayed one after another in the order in which the imaging positions are adjacent to each other, the information that the viewer substantially receives increases in one section and decreases in another section. That is, when such a set of images is stored, the storage efficiency in terms of substantially how much information is given to a viewer deteriorates.

従来、このような問題点を解決するために、各画像間
の情報の差が一定になる撮影位置を自動決定する方法が
提案されていた。この従来手法では、視点位置移動にと
もない発生する情報量と消失する情報量の総和を、撮影
対象物体の形状のみに基づいて求め、各画像間の情報の
差としていた。
Conventionally, in order to solve such a problem, there has been proposed a method of automatically determining a shooting position at which a difference in information between images is constant. In this conventional method, the sum of the amount of information generated and the amount of information disappeared due to the movement of the viewpoint position is obtained based only on the shape of the object to be photographed, and is determined as the difference between the images.

しかし実際には、撮影対象となる物体表面上には、色
などによる模様情報が存在する。従って各画像間の情報
の差には模様情報の変化も含まれるべきであるが、従来
手法では含まれていなかった。このため形状による画像
間の情報差がたとえ小さくても、模様によって情報が大
きく変動するような場合に、各画像間の情報差は一定に
はならないという欠点を有していた。
However, actually, pattern information such as color exists on the surface of the object to be photographed. Therefore, the information difference between the images should include the change in the pattern information, but not in the conventional method. For this reason, even if the information difference between the images due to the shape is small, the information difference between the images does not become constant when the information greatly varies depending on the pattern.

(発明の目的) 本発明の目的は、物体を覆う仮想の半球に沿って複数
枚の画像を撮影する場合に、撮影された各画像間の情報
の差にバラツキが生じる点を物体形状および物体表面上
の模様情報に基づいて解決することにより、各画像間の
情報の差が一定になる撮影位置を自動決定する装置を提
供することにある。
(Object of the Invention) It is an object of the present invention to provide a method for capturing a plurality of images along a virtual hemisphere that covers an object, by using a point at which a difference in information difference between the captured images is generated. It is an object of the present invention to provide an apparatus for automatically determining a shooting position at which a difference in information between images becomes constant by solving based on pattern information on a surface.

(発明の構成) (発明の特徴と従来の技術との差異) 本発明は物体Oを覆う仮想の半球に沿って複数枚の画
像を撮影する場合に、その撮影された各画像間の情報の
差に対応する表面情報変化量を物体形状と物体表面上の
模様に基づいて求め、これが各画像間で一定になるよう
に撮影位置を決定することを最も主要な特徴とする。
(Structure of the Invention) (Differences between the Features of the Invention and the Conventional Technique) In the present invention, when a plurality of images are taken along a virtual hemisphere covering the object O, information of the information between the taken images is obtained. The most important feature is that the amount of change in surface information corresponding to the difference is obtained based on the shape of the object and the pattern on the surface of the object, and the photographing position is determined so that this is constant between the images.

本発明では物体形状と物体表面上の模様に基づく表面
情報変化量とは以下のように定義される。まず、第3図
(a)に示す撮影対象となる物体O(ハッチングは模様
を意味する)を第3図(b)に示すようにm個の三角パ
ッチ等の微細な多角形ωi(i=0,1,…m−1)で平面
近似する。この各多角形ωiは物体Oの対応する位置に
おける色情報を与えられているとする。
In the present invention, the object shape and the surface information change amount based on the pattern on the object surface are defined as follows. First, as shown in FIG. 3 (b), an object O to be photographed (hatching means a pattern) shown in FIG. 3 (a) is converted into a fine polygon ωi (i = 0, 1,..., M−1). It is assumed that each polygon ωi is given color information at a corresponding position of the object O.

第4図に示すように、まず位置uから物体Oを撮影し
た場合、複数のうちのある多角形ωiがスクリーン面へ
投影された領域をsuとする。次に位置vから物体Oを撮
影すると、前記多角形ωiのスクリーン面への投影領域
はsvであるとする。
As shown in FIG. 4, when the object O is first photographed from the position u, an area where a certain polygon ωi is projected on the screen surface among a plurality is defined as su. Next, when the object O is photographed from the position v, the projection area of the polygon ωi on the screen surface is sv.

物体Oの表面上のn種類の色をIj(j=0,…n−1)
とする。このとき領域suに投影されたn種類の色Ijの投
影面積をpjとすると、各色の投影面積は p(su)=(p0,...,pn−1) (1) なるベクトルp(su)で表わすことができる。簡単のた
めに平行投影であると仮定すると、位置uと位置vから
撮影した二枚の画像間で、スクリーン面に投影される多
角形ωiの各色の投影面積の変化diは di=p(su)−p(sv) =(Δp0,...,Δpn−1) (2) となる。diの成分Δpjが正であるのなら、視点移動によ
ってn種類の色Ijに関してΔpjに比例する量だけ情報が
増えたとみなすことができる。また負であるのなら、−
Δpjに比例する量だけ情報が減少したとみなすことがで
きる。
The n kinds of colors on the surface of the object O are represented by Ij (j = 0,..., N−1).
And At this time, if the projection area of the n kinds of colors Ij projected on the area su is pj, the projection area of each color is p (su) = (p0,..., Pn-1) (1) ). Assuming parallel projection for simplicity, the change di of the projected area of each color of the polygon ωi projected on the screen surface between two images taken from positions u and v is di = p (su ) −p (sv) = (Δp0,..., Δpn−1) (2) If the component Δpj of di is positive, it can be considered that the information has increased by an amount proportional to Δpj for the n types of colors Ij due to the viewpoint movement. If it is negative,
It can be considered that the information has decreased by an amount proportional to Δpj.

したがって各多角形ωiについて求めた各色の投影面
積の変化diのノルム(norm)‖di‖の総和Duv (3) は、物体Oを位置uから撮影した画像と、位置vから撮
影した画像間での情報の変化量とみなすことができる。
Duvを表面情報変化量と呼ぶことにする。
Therefore, the sum Duv of the norm {di} of the change di of the projected area of each color obtained for each polygon ωi (3) can be regarded as the amount of change in information between the image photographed from the position u and the image photographed from the position v.
Duv is called a surface information change amount.

本発明ではこの表面情報変化量が二枚の画像間の情報
量の変化量に比例し、しかも物体の形状情報と表面の模
様情報だけから抽出可能な点に着目し、表面情報変化量
が隣接する画像間でほぼ一定になるように撮影位置を選
ぶことによって、各画像間の情報の差を一定にすること
を特徴としている。
The present invention focuses on the fact that the amount of change in surface information is proportional to the amount of change in the amount of information between two images, and can be extracted from only the shape information of the object and the pattern information of the surface. It is characterized in that the photographing position is selected so as to be substantially constant between the images to be processed, thereby making the difference in information between the images constant.

これに対して従来の技術では単純に撮影位置を均等間
隔で決定しているために、各画像間の物体Oに関する情
報の変化量は一定にはならない。
On the other hand, in the related art, since the photographing positions are simply determined at equal intervals, the amount of change in the information on the object O between the images is not constant.

(実施例) 第1図は本発明の基本構成のブロック図であり、図に
おいて、1は物体の形状情報を入力する形状情報入力
部、2は物体の表面の模様情報を入力する模様情報入力
部、3は前記形状情報入力部1から入力された形状情報
を複数の多角形平面ωiに近似分割し、かつ前記模様情
報入力部2から入力された模様情報を前記複数の多角形
平面ωiに対応付けるようにした形状/模様情報近似
部、4は該形状/模様情報近似部3で平面近似され、か
つ模様情報に対応付けられた複数の多角形平面ωiに対
する視点変化に基づく表面情報変化量を検出する表面情
報変化量検出部、5は該表面情報変化量検出部4で検出
された表面情報変化量が、隣接する画像間でほぼ一定と
なるように撮影位置の代表経度・代表緯度を抽出する代
表位置抽出部、6は該代表位置抽出部5で抽出された代
表経度・代表緯度に設定される代表撮影位置を示す。
(Embodiment) FIG. 1 is a block diagram of a basic configuration of the present invention. In the figure, reference numeral 1 denotes a shape information input unit for inputting shape information of an object, and 2 denotes pattern information input for inputting pattern information of the surface of the object. The unit 3 approximately divides the shape information input from the shape information input unit 1 into a plurality of polygon planes ωi, and converts the pattern information input from the pattern information input unit 2 into the plurality of polygon planes ωi. The shape / pattern information approximation unit 4 that is associated with the surface / plane information is approximated by the shape / pattern information approximation unit 3, and the surface information change amount based on the viewpoint change for a plurality of polygon planes ωi associated with the pattern information. The detected surface information change amount detection unit 5 extracts a representative longitude and a representative latitude of the photographing position so that the surface information change amount detected by the surface information change amount detection unit 4 is substantially constant between adjacent images. Representative position extraction unit, Reference numeral 6 denotes a representative photographing position set to the representative longitude and representative latitude extracted by the representative position extracting unit 5.

上記、具体的な構成を第2図に示し、形状/模様情報
近似部3は、形状近似部31と、模様近似部32と、形状/
模様情報蓄積部33とでなる。表面情報変化量検出部4
は、緯度方向変化量測定部41と、平均化部42と、経度方
向変化量測定部43とでなり、前記平均化部42は、更に蓄
積部421と演算部422とでなる。代表位置抽出部5は、代
表緯度抽出部51と代表経度抽出部52とからなり、これら
両部には夫々蓄積部511,521及び抽出部512,522からな
る。また、代表撮影位置6には代表緯度61と代表経度62
が代表位置抽出部5の各抽出部512,522から夫々出力さ
れる。
FIG. 2 shows a specific configuration described above. The shape / pattern information approximating unit 3 includes a shape approximating unit 31, a pattern approximating unit 32, and a shape / pattern approximating unit 32.
It is a pattern information storage unit 33. Surface information change amount detection unit 4
Is composed of a latitude direction change amount measurement unit 41, an averaging unit 42, and a longitude direction change amount measurement unit 43. The averaging unit 42 further includes a storage unit 421 and a calculation unit 422. The representative position extracting unit 5 includes a representative latitude extracting unit 51 and a representative longitude extracting unit 52, and both of these units include storing units 511 and 521 and extracting units 512 and 522, respectively. The representative shooting position 6 includes a representative latitude 61 and a representative longitude 62.
Are output from the extraction units 512 and 522 of the representative position extraction unit 5, respectively.

これを動作するには、形状情報入力部1はあらかじめ
得られている対象物体の形状情報を入力し、同様に、模
様情報入力部2は当該物体表面の模様情報(これは一般
に、モノクロすなわち単一の色情報、または、フルカラ
ーなどの色情報によって構成される)を入力する。な
お、物体の3次元形状情報は、例えばレーザー光やスリ
ット光などの参照光を物体表面に投影し、この参照光の
該物体表面上での投影像をカメラなどで撮影し、得られ
た画像上における参照光の投影像の位置と参照光の発射
位置との関係から、三角測量の原理に基づいて求める手
法などが知られている。また、物体表面の模様情報はビ
デオカメラなどの一般的な撮影装置で物体を撮像するこ
とで容易に得られる。勿論、これらに限定される必要は
ない。いずれにしろ、ここでは、対象物体の形状情報、
模様情報はあらかじめ得られて図示しない記憶装置等に
蓄積されているとし、形状情報入力部1や模様情報入力
部2は、この種の記憶装置から対象物体の形状情報、模
様情報を入力するものである。形状/模様情報近似部3
の形状近似部31は形状情報入力部1から物体の形状情報
を読みだし、物体の形状をm個の微細な多角形ωi(i
=0,1,…m−1)で平面近似し、各多角形ωiの形状情
報とその外向きの法線ベクトル情報を形状/模様情報蓄
積部33に蓄積する。
To operate this, the shape information input unit 1 inputs the shape information of the target object obtained in advance, and similarly, the pattern information input unit 2 outputs the pattern information of the object surface (this is generally monochrome, that is, One color information or color information such as full color). The three-dimensional shape information of the object is obtained by projecting a reference light such as a laser beam or a slit light on the surface of the object, photographing a projected image of the reference light on the surface of the object with a camera or the like, and obtaining an image. From the relationship between the position of the projected image of the reference light and the emission position of the reference light, there is known a method of obtaining the position based on the principle of triangulation. The pattern information on the surface of the object can be easily obtained by imaging the object with a general photographing device such as a video camera. Of course, it is not necessary to be limited to these. In any case, here, the shape information of the target object,
It is assumed that the pattern information is obtained in advance and stored in a storage device or the like (not shown). The shape information input unit 1 and the pattern information input unit 2 are used to input shape information and pattern information of a target object from this type of storage device. It is. Shape / pattern information approximation unit 3
The shape approximation unit 31 reads the shape information of the object from the shape information input unit 1 and converts the shape of the object into m fine polygons ωi (i
= 0, 1,..., M−1), and stores the shape information of each polygon ωi and its outward normal vector information in the shape / pattern information storage unit 33.

一方、模様近似部32は模様情報入力部2から該物体表
面の模様情報を読みだし、n種類の色Ij(j=0,…,n−
1)に量子化して、例えば、該模様情報を該m個の多角
形ωiで平面近似された物体上に逆投影することで、各
多角形ωiと該多角形ωi上に逆投影された該模様情報
の部分を対応づけて、形状/模様情報蓄積部33に蓄積す
る。
On the other hand, the pattern approximating unit 32 reads the pattern information of the object surface from the pattern information input unit 2 and selects n types of colors Ij (j = 0,.
1), for example, by back-projecting the pattern information onto an object planarly approximated by the m polygons ωi, the polygons ωi and the polygons ωi back-projected onto the polygons ωi. The pattern information portions are stored in the shape / pattern information storage unit 33 in association with each other.

表面情報変化量検出部4の緯度方向変化量測定部41は
形状/模様情報蓄積部33から多角形で平面近似された物
体の形状情報と各多角形ωiに対応付けられた模様情報
を読みだし、これに基づいて第5図に示すように物体を
撮影する撮影位置の経度をψ=0に固定し、緯度λを微
細な角度Δλずつ移動させた場合の表面情報変化量D0
(λ)を(3)式から求める。ただし角度Δλ=π/
(2・C0)(C0は自然数)とする。
The latitude direction change amount measuring section 41 of the surface information change amount detecting section 4 reads out the shape information of the object approximated by a polygon and the pattern information associated with each polygon ωi from the shape / pattern information storage section 33. Based on this, as shown in FIG. 5, the surface information change amount D0 when the longitude of the shooting position where the object is shot is fixed at 変 化 = 0 and the latitude λ is moved by a fine angle Δλ
(Λ) is determined from equation (3). Where the angle Δλ = π /
(2 · C0) (C0 is a natural number).

ついで経度ψを微細な角度Δψだけ移動し同様にして
DΔψ(λ)を求める。ただしΔψ=2π/C1(C1は自
然数)とする。これを経度φ=2πになるまで繰り返
し、緯度方向の表面情報変化量Dψ(λ)(ψ=Δψ,2
Δψ,...,2π,λ=Δλ,2Δλ,...,π/2)を演算し、
平均化部42の蓄積部421に蓄積する。
Then, the longitude ψ is moved by a fine angle Δψ, and DΔψ (λ) is similarly obtained. However, Δψ = 2π / C1 (C1 is a natural number). This is repeated until the longitude φ = 2π, and the surface information change amount Dψ (λ) (ψ = Δψ, 2
Δψ, ..., 2π, λ = Δλ, 2Δλ, ..., π / 2)
The data is accumulated in the accumulation unit 421 of the averaging unit 42.

演算部422は蓄積部421に蓄積された緯度方向の表面情
報変化量Dψ(λ)を読みだし、経度ψについての平均
値Da(λ) を演算し、代表緯度抽出部51の蓄積部511に蓄積する。
The arithmetic unit 422 reads the surface information change amount Dψ (λ) in the latitude direction stored in the storage unit 421, and calculates the average value Da (λ) for the longitude ψ. Is calculated and stored in the storage unit 511 of the representative latitude extraction unit 51.

抽出部512は蓄積部511から平均値Da(λ)(λ=Δ
λ,2Δλ,...,π/2)を読みだすとともに、第6図に示
すように、平均値Da(λ)の積分値があらかじめ決定
されている緯度方向の表面情報変化量の間隔値δと等し
くなるように、緯度方向(λ方向)の分割位置を求め
る。そして分割位置となるx個の緯度Λi(i=0,...,
x−1)を代表緯度61として出力するとともに、これを
経度方向変化量測定部43に出力する。
The extraction unit 512 obtains the average value Da (λ) (λ = Δ
λ, 2Δλ,..., π / 2) and, as shown in FIG. 6, the integral of the average value D a (λ) is a predetermined interval of the surface information change in the latitude direction. A division position in the latitude direction (λ direction) is determined so as to be equal to the value δ. Then, x latitudes Λi (i = 0, ...,
x-1) is output as the representative latitude 61, and this is output to the longitude direction change amount measuring unit 43.

経度方向変化量測定部43は形状/模様情報蓄積部33か
ら物体形状を平面近似した形状情報と模様情報を読みだ
し、ついで代表緯度抽出部51の抽出部512から出力され
た緯度Λi(i=0,...,x−1)を読みだす。そして緯
度方向変化量測定部41と同様にして、経度方向の表面情
報変化量DΛi(ψ)(i=0,...,x−1,ψ=Δψ,2Δ
ψ,...,2π)を測定し、代表経度抽出部52の蓄積部521
に蓄積する。
The longitude direction change amount measuring unit 43 reads out shape information and pattern information obtained by planarly approximating the object shape from the shape / pattern information storage unit 33, and then outputs the latitude Λi (i = 0, ..., x-1). Then, similarly to the latitude direction change amount measuring unit 41, the surface information change amount D 変 化 i (Λ) (i = 0,..., X−1, ψ = Δψ, 2Δ) in the longitude direction.
ψ, ..., 2π), and accumulates in the representative longitude extractor 52
To accumulate.

蓄積部521に蓄積された経度方向の表面情報変化量D
Λi(ψ)を読みだし、代表緯度抽出部51と同様にし
て、第7図に示すようにDΛi(ψ)の積分値を間隔値
δで均等に分割する。そして分割位置となるyi個の経度
Ψij(j=0,...,y−1,i=0,...,x−1)を求めこれを
代表経度62として出力する。
Longitudinal surface information change amount D stored in storage unit 521
Λi (ψ) is read out, and the integral value of DΛi (ψ) is equally divided by the interval value δ as shown in FIG. Then, yi longitudes Ψij (j = 0,..., Y−1, i = 0,..., X−1) serving as division positions are obtained and output as the representative longitude 62.

なお本実施例では表面情報変化量の間隔値δが装置内
部に予め設定されているものとして説明したが、この間
隔値δは外部から入力しても良い。
In this embodiment, the description has been given assuming that the interval value δ of the surface information change amount is preset in the apparatus, but the interval value δ may be input from the outside.

このようにして物体の形状情報と模様情報に基づいて
代表緯度と代表経度が決定されれば、この代表緯度と代
表経度から定まる仮想半球上の撮影位置から物体を撮影
した画像は、隣接する画像間の表面情報変化量がほぼ一
定になる。
If the representative latitude and the representative longitude are determined based on the shape information and the pattern information of the object in this manner, the image obtained by shooting the object from the shooting position on the virtual hemisphere determined by the representative latitude and the representative longitude is an adjacent image. The amount of change in surface information during this period becomes substantially constant.

(発明の効果) 以上説明したように本発明における表面情報変化量は
形状情報と模様情報に基づいて抽出されるから、たとえ
形状による情報量変化が小さくとも模様による変化が大
きい場合にも、各画像間の情報差を一定に保つことが可
能である。従って物体を均等間隔で撮影した場合に比べ
て、これらの画像を連続的に表示すると、より滑らかに
表示することが出来る。またこれらの画像をデータベー
ス等に蓄積する場合に、単純に均等間隔で撮影するより
も、見る人に実質的に与える情報量の意味での蓄積効率
を改善することが出来る。
(Effects of the Invention) As described above, the amount of change in surface information in the present invention is extracted based on shape information and pattern information. It is possible to keep the information difference between the images constant. Therefore, when these images are continuously displayed, the images can be displayed more smoothly than when the objects are photographed at equal intervals. When these images are stored in a database or the like, the storage efficiency in terms of the amount of information substantially given to a viewer can be improved as compared with the case where the images are simply taken at equal intervals.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の基本構成を示すブロック図、第2図は
その具体構成を示すブロック図、第3図は撮影対象とな
る物体の多角形ωiによる平面近似の説明図、第4図は
第3図の多角形ωiを位置u,vから撮影した場合のスク
リーン面上の投影面積pjを示す図、第5図は物体の表面
情報変化量を求める説明図、第6図は予め決定されてい
る緯度方向の表面情報変化量の間隔値δを用いて平均値
Da(λ)の積分値を均等分割するときの説明図、第7図
は予め決定されている経度方向の表面情報変化量の間隔
値δを用いて平均値DΛi(ψ)の積分値を均等分割す
るときの説明図、第8図は従来手法による物体の経度方
向と緯度方向の撮影位置の決定を行う説明図、第9図は
直方体を2方向から見る図、第10図及び第11図は第9図
の直方体を2方向からみた場合の画像の差異を示す図で
ある。 1……形状情報入力部、2……模様情報入力部、3……
形状/模様情報近似部、4……表面情報変化量検出部、
5……代表位置抽出部、6……代表撮影位置、31……形
状近似部、32……模様近似部、33……形状/模様情報蓄
積部、41……緯度方向変化量測定部、42……平均化部、
43……経度方向変化量測定部、51……代表緯度抽出部、
52……代表経度抽出部、61……代表緯度、62……代表経
度、421,511,521……蓄積部、422……演算部、512,522
……抽出部。
FIG. 1 is a block diagram showing a basic configuration of the present invention, FIG. 2 is a block diagram showing a specific configuration thereof, FIG. 3 is an explanatory diagram of a plane approximation of an object to be photographed by a polygon ωi, and FIG. FIG. 3 is a diagram showing a projected area pj on the screen surface when the polygon ωi is photographed from the positions u and v, FIG. 5 is an explanatory diagram for obtaining a surface information change amount of an object, and FIG. 6 is predetermined. Average value using the interval value δ of the surface information change amount in the latitude direction
FIG. 7 is an explanatory diagram when the integral value of Da (λ) is equally divided, and FIG. 7 is a diagram for equalizing the integral value of the average value DΛi (ψ) using a predetermined interval value δ of the surface information change amount in the longitudinal direction. FIG. 8 is an explanatory diagram for dividing an object, FIG. 8 is an explanatory diagram for determining a photographing position in a longitude direction and a latitude direction of an object by a conventional method, FIG. 9 is a diagram of a rectangular parallelepiped viewed from two directions, FIG. 10 and FIG. 10 is a diagram showing a difference between images when the rectangular parallelepiped in FIG. 9 is viewed from two directions. 1 ... shape information input section, 2 ... pattern information input section, 3 ...
Shape / pattern information approximation unit, 4 ... surface information change amount detection unit,
5 ... representative position extraction unit, 6 ... representative shooting position, 31 ... shape approximation unit, 32 ... pattern approximation unit, 33 ... shape / pattern information storage unit, 41 ... latitude direction change amount measurement unit, 42 ...... Averaging part,
43 …… Longitudinal change amount measurement unit, 51 …… Representative latitude extraction unit,
52 ... representative longitude extraction unit, 61 ... representative latitude, 62 ... representative longitude, 421,511,521 ... storage unit, 422 ... calculation unit, 512,522
.... Extraction unit.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】物体を覆う空間上に仮想的な半球(以下、
仮想半球という)を想定し、該仮想半球上の前記物体の
模様および形状を表現するのに適した複数の代表的な撮
影位置(以下、代表緯度、代表経度という)を自動決定
する撮影位置自動決定装置であって、 前記物体の形状情報を入力する手段と、 前記物体の表面模様の色情報によって構成される模様情
報を入力する手段と、 前記入力された形状情報の3次元形状を複数の多角形で
平面近似するとともに、前記入力された模様情報を、該
平面近似した複数の多角形に対応づける手段と、 前記複数の多角形を、前記物体と同一位置から前記仮想
半球上の任意の位置と該位置から微少距離だけ離れた位
置とに投影した場合の、前記複数の各多角形に対応した
模様情報を構成する各色情報の投影面積の差分の絶対値
の総和を表面情報変化量と定義し、前記仮想半球上の全
域にわたって、前記複数の多角形を投影する位置の緯
度、経度を別々に微少位置ずつ移動させて各表面情報変
化量を検出する手段と、 前記仮想半球の緯度方向、経度方向の各々について、前
記表面情報変化量の微少領域の和として求めた積分値を
あらかじめ定めた緯度方向の値と等しくなるように緯度
方向の分割位置を求め、同様に前記積分値をあらかじめ
定めた経度方向の値と等しくなるように経度方向の分割
位置を求めて、各分割位置を代表緯度、代表経度と決定
する手段と、 から構成されることを特徴とする撮影位置自動決定装
置。
1. A virtual hemisphere (hereinafter, referred to as a hemisphere) on a space covering an object.
A virtual hemisphere), and automatically determines a plurality of representative shooting positions (hereinafter, representative latitude and representative longitude) suitable for expressing the pattern and shape of the object on the virtual hemisphere. A determining device, comprising: means for inputting shape information of the object; means for inputting pattern information constituted by color information of a surface pattern of the object; and a plurality of three-dimensional shapes of the input shape information. Means for approximating a plane with a polygon, and associating the input pattern information with a plurality of polygons whose planes are approximated; and setting the plurality of polygons on the virtual hemisphere from the same position as the object. When projected onto a position and a position separated by a minute distance from the position, the sum of the absolute values of the differences between the projection areas of the color information constituting the pattern information corresponding to the plurality of polygons is defined as the surface information change amount. Define Over the entire area on the virtual hemisphere, a means for detecting each surface information change amount by separately moving the latitude and longitude of the position where the plurality of polygons are projected by a minute position, and the latitude and longitude of the virtual hemisphere. For each of the directions, the division value in the latitudinal direction was determined so that the integral value obtained as the sum of the small areas of the surface information change amount was equal to a predetermined latitudinal value, and the integral value was similarly predetermined. Means for determining a division position in the longitude direction so as to be equal to the value in the longitude direction, and determining each division position as a representative latitude and a representative longitude.
JP7200789A 1989-03-27 1989-03-27 Automatic shooting position determination device Expired - Lifetime JP2573347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7200789A JP2573347B2 (en) 1989-03-27 1989-03-27 Automatic shooting position determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7200789A JP2573347B2 (en) 1989-03-27 1989-03-27 Automatic shooting position determination device

Publications (2)

Publication Number Publication Date
JPH02253378A JPH02253378A (en) 1990-10-12
JP2573347B2 true JP2573347B2 (en) 1997-01-22

Family

ID=13476929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7200789A Expired - Lifetime JP2573347B2 (en) 1989-03-27 1989-03-27 Automatic shooting position determination device

Country Status (1)

Country Link
JP (1) JP2573347B2 (en)

Also Published As

Publication number Publication date
JPH02253378A (en) 1990-10-12

Similar Documents

Publication Publication Date Title
US11721067B2 (en) System and method for virtual modeling of indoor scenes from imagery
US5259037A (en) Automated video imagery database generation using photogrammetry
CA2577840C (en) A method for automated 3d imaging
US6271890B1 (en) Chromakeying system
US7627196B2 (en) Image processing device and image capturing device
Fechteler et al. Fast and high resolution 3D face scanning
US11689808B2 (en) Image synthesis system
JPH01167610A (en) Method and apparatus for determining distance between surface section and camera for 3-d space scene
CN108537885B (en) Method for acquiring three-dimensional topographic data of mountain wound surface
US20220078385A1 (en) Projection method based on augmented reality technology and projection equipment
JP2953154B2 (en) Shape synthesis method
CN110766731A (en) Method and device for automatically registering panoramic image and point cloud and storage medium
Hirschmüller et al. Stereo vision based reconstruction of huge urban areas from an airborne pushbroom camera (HRSC)
WO2019044038A1 (en) Imaging object tracking device and imaging object tracking method
JP2007025863A (en) Photographing system, photographing method, and image processing program
Martell et al. Benchmarking structure from motion algorithms of urban environments with applications to reconnaissance in search and rescue scenarios
JP2573347B2 (en) Automatic shooting position determination device
KR101996226B1 (en) Apparatus for measuring three-dimensional position of subject and method thereof
CN114463489B (en) Oblique photography modeling system and method for optimizing unmanned aerial vehicle route
Briese et al. Analysis of mobile laser scanning data and multi-view image reconstruction
Hsu Geocoded terrestrial mosaics using pose sensors and video registration
JPH1062154A (en) Processing method of measured value, method and device for shape reconstruction
KR20220078447A (en) Operation method of image restoration apparatus for restoring low-density area
JP5409451B2 (en) 3D change detector
JP2004038514A (en) Method and device for restoring building three-dimensional shape, program for restoring building three-dimensional shape, and storage medium with the program stored therein

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20071024

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 12

Free format text: PAYMENT UNTIL: 20081024

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 13

Free format text: PAYMENT UNTIL: 20091024

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 13

Free format text: PAYMENT UNTIL: 20091024