KR20040049832A - Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments - Google Patents

Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments Download PDF

Info

Publication number
KR20040049832A
KR20040049832A KR1020040032291A KR20040032291A KR20040049832A KR 20040049832 A KR20040049832 A KR 20040049832A KR 1020040032291 A KR1020040032291 A KR 1020040032291A KR 20040032291 A KR20040032291 A KR 20040032291A KR 20040049832 A KR20040049832 A KR 20040049832A
Authority
KR
South Korea
Prior art keywords
image
camera
camera unit
unit
adjusting device
Prior art date
Application number
KR1020040032291A
Other languages
Korean (ko)
Inventor
송문호
Original Assignee
주식회사 오피브이알솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 오피브이알솔루션 filed Critical 주식회사 오피브이알솔루션
Priority to KR1020040032291A priority Critical patent/KR20040049832A/en
Publication of KR20040049832A publication Critical patent/KR20040049832A/en

Links

Classifications

    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03FSEWERS; CESSPOOLS
    • E03F11/00Cesspools
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29DPRODUCING PARTICULAR ARTICLES FROM PLASTICS OR FROM SUBSTANCES IN A PLASTIC STATE
    • B29D22/00Producing hollow articles
    • B29D22/003Containers for packaging, storing or transporting, e.g. bottles, jars, cans, barrels, tanks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29KINDEXING SCHEME ASSOCIATED WITH SUBCLASSES B29B, B29C OR B29D, RELATING TO MOULDING MATERIALS OR TO MATERIALS FOR MOULDS, REINFORCEMENTS, FILLERS OR PREFORMED PARTS, e.g. INSERTS
    • B29K2023/00Use of polyalkenes or derivatives thereof as moulding material
    • B29K2023/04Polymers of ethylene
    • B29K2023/06PE, i.e. polyethylene
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2103/00Nature of the water, waste water, sewage or sludge to be treated
    • C02F2103/005Black water originating from toilets

Abstract

PURPOSE: A device for visualizing and operating a 3-dimensional object under network environment is provided to remove a rendering process and a model fabrication process, thereby visualizing or dealing with a 3-dimensional object in real time through a network by using a general PC as a client. CONSTITUTION: A turn table firmly locates a photographed target object in an upper part, and rotates at predetermined rotative angle by responding to a turn table control signal. A camera photographs an image of the photographed target object. A camera position controlling device supports the camera such that the camera can rise or fall to photograph the target object by responding to the control signal, and maintains a distance between the target object and the camera. At least one motor rotates the turn table, and moves the camera. An image manager supplies the control signal, and generates a 3-dimensional image of the target object by using images from the camera.

Description

네트워크 환경에서 3차원 물체의 시각화와 조작을 위한 방법 및 장치{Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments}Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments

전통적으로 이는 컴퓨터 그래픽의 영역이었고 메쉬나 기타의 물체 모델을 기반으로 이미지를 렌더링 하였다 (Girod00, Robb00). 이러한 기존 패러다임의 문제점은 렌더링 과정의 계산비용이 비싸다는 것이다. 비록 렌더링 과정을 최적에 근접하게 향상할 수 있는 방법들이 있기는 하지만 기본적으로 격자/메쉬 요소의 확대와 같은 근사법들에 기반을 두고 있다. 이러한 기법들을 통해 얻어진 이미지들은 당연히 현실감이 떨어지며 특히, 자연적으로 복잡한 물체는 모델링하기가 곤란하므로 이러한 현상이 두드러진다 (Girod00).Traditionally, this has been a domain of computer graphics and rendered images based on meshes or other object models (Girod00, Robb00). The problem with this existing paradigm is that the computational cost of the rendering process is expensive. Although there are ways to improve the rendering process to an optimal level, it is basically based on approximations, such as the expansion of grid / mesh elements. The images obtained through these techniques are of course less realistic, especially because of the difficulty in modeling naturally complex objects (Girod00).

현재 이용할 수 있는 대부분의 시각화 패러다임은 반드시 모델링과 렌더링의 2단계 과정을 따른다 (Girod00). 먼저 모델링 단계에서는 물체를 표현하는 파라미터들을 추출하여 저장한다. 다음으로 렌더링 단계에서는 (되도록 이면 실시간으로) 저장된 물체의 파라미터들을 기반으로 사용자가 요청한 특정 뷰에 대한 물체의 이미지를 렌더링한다. 모델링 단계는 오프라인으로 수행할 수도 있고 매우 복잡한 알고리즘을 적용할 수도 있지만, 렌더링 단계는 물체의 현실감 있는 조작을 위해 실시간으로 수행되어야 한다.Most of the visualization paradigms currently available must follow a two-step process of modeling and rendering (Girod00). First, in the modeling step, parameters representing an object are extracted and stored. The rendering step then renders an image of the object for the particular view requested by the user based on the parameters of the stored object (preferably in real time). The modeling step can be performed offline or a very complex algorithm can be applied, but the rendering step must be performed in real time for realistic manipulation of the object.

한편, 웹상의 클라이언트는 제한된 계산능력을 가진 PC가 대부분이기 때문에 자연적으로 복잡한 물체에 대한 렌더링 과정은 일반적으로 클라이언트 측에서는 수행될 수 없는 문제점이 있다.On the other hand, since most of the clients on the Web are PCs with limited computing power, the rendering process for naturally complex objects generally cannot be performed on the client side.

한편, 서버측 (예를 들어, 슈퍼컴퓨터) 에 렌더링 단계를 두더라도 서버가 동시에 서비스할 수 있는 렌더링 요청 횟수를 제한할 것이므로 이것 또한 문제를 해결하지는 못한다는 문제점이 있다.On the other hand, even if the rendering step on the server side (for example, supercomputer) will limit the number of rendering requests that the server can serve at the same time, this also does not solve the problem.

본 발명의 목적은 모델링 단계를 이미지 획득 단계로, 렌더링 단계를 간단한 영상 압축을 푸는 단계로 대신하는 솔루션을 제공할 수 있는 네트워크 환경에서 3차원 물체의 시각화와 조작을 위한 방법 및 장치를 제공하는데 있다.An object of the present invention is to provide a method and apparatus for visualization and manipulation of three-dimensional objects in a network environment that can provide a solution that replaces the modeling step with an image acquisition step and the rendering step with a simple image compression step. .

본 발명의 다른 목적은 기존 시각화 기법에 있던 계산을 요구하는 부분들과 모델링 파라미터를 추출하는 수 작업 부분을 제거할 수 있는 네트워크 환경에서 3차원 물체의 시각화와 조작을 위한 방법 및 장치를 제공하는데 있다. 본 발명의또 다른 목적은 사용자가 실제 3차원 물체를 인터넷을 통해 실시간으로 보고 조작할 수 있는 네트워크 환경에서 3차원 물체의 시각화와 조작을 위한 방법 및 장치를 제공하는데 있다.It is another object of the present invention to provide a method and apparatus for visualizing and manipulating a three-dimensional object in a network environment capable of eliminating parts requiring calculations and manual parts extracting modeling parameters from existing visualization techniques. . Still another object of the present invention is to provide a method and apparatus for visualizing and manipulating a 3D object in a network environment in which a user can view and manipulate a real 3D object in real time through the Internet.

도 1은 이미지 획득 장치의 기하학적 구조를 보여주는 다이어그램1 is a diagram showing the geometry of an image acquisition device

도 2는 "fuzz-ball" 카메라의 위치에서 시작하여 원점(물체의 중심)을 지나는 모든 직선의 집합을 보여주는 다이어그램2 is a diagram showing a set of all straight lines starting at the position of the "fuzz-ball" camera and passing through the origin (center of the object).

도 3a는 슬라이스 샘플링 전략에서 이미지를 촬영하는 위치를 보여주는 다이어그램으로서, 모든 영상을 촬영하는 위치(점)와 3차원 궤적(선)을 보여주는 다이어그램Figure 3a is a diagram showing the position to shoot the image in the slice sampling strategy, a diagram showing the position (point) and three-dimensional trajectory (line) to shoot all the images

도 3b는 슬라이스 샘플링 전략에서 이미지를 촬영하는 위치를 보여주는 다이어그램으로서, 샌슨투영에 의해 사상된 모든 촬영 위치를 보여주는 다이어그램Fig. 3B is a diagram showing the positions at which images are taken in the slice sampling strategy, showing all the shooting positions mapped by Sanson projection.

도 4a는 비등방 나선형 전략에서 이미지 촬영 위치를 보여주는 다이어그램으로서, 이미지 촬영 위치의 3차원 궤적을 보여주는 다이어그램4A is a diagram showing the image capture position in an anisotropic spiral strategy, showing a three-dimensional trajectory of the image capture position.

도 4b는 비등방 나선형 전략에서 이미지 촬영 위치를 보여주는 다이어그램으로서, 이미지 촬영 위치의 샌슨투영을 보여주는 다이어그램4B is a diagram showing image capture positions in an anisotropic spiral strategy, showing Sandson projection of image capture positions.

도 5a는 등방 나선형 샘플링 전략에서 이미지 촬영 위치를 보여주는 다이어그램으로서, 이미지를 촬영하는 위치(점)과 3차원 궤적(선)을 보여주는 다이어그램FIG. 5A is a diagram showing the image capturing position in an isotropic spiral sampling strategy, showing a position (point) and a three-dimensional trajectory (line) of capturing an image.

도 5b는 등방 나선형 샘플링 전략에서 이미지 촬영 위치를 보여주는 다이어그램으로서, 샌슨 투영에 의해서 사상된 촬영 위치를 보여주는 다이어그램FIG. 5B is a diagram showing image shooting positions in an isotropic spiral sampling strategy, showing the shooting positions mapped by the Sandson projection. FIG.

도 6은 3차원 이미지 촬영 시스템의 실물을 보여주는 다이어그램6 is a diagram showing the real of the three-dimensional imaging system

도 7은 3차원 이미지 편집기 프로그램의 메인 화면을 보여주는 다이어그램7 is a diagram showing the main screen of the three-dimensional image editor program

도 8a는 디스플레이 프로그램에서 NEWS 모드의 동작 방식을 보여주는 다이어그램8A is a diagram showing how the NEWS mode operates in a display program.

도 8b는 디스플레이 프로그램에서 AVIATION 모드의 동작 방식을 보여주는 다이어그램8B is a diagram showing how the AVIATION mode operates in a display program.

도 9는 3차원 영상 시각화물체의 3차원 시각화의 주요 목표는 사용자가 바라보는 각도에 따라 물체의 이미지를 보여주는 다이어그램9 is a diagram showing an image of an object according to an angle viewed by a user as a main goal of a 3D visualization of a 3D image visualization object.

본 발명에서, 3차원 데이터를 가진 서버는 요청한 클라이언트에게 데이터를 전송하기만 한다. 이하에서, 먼저 이미지 획득 장치,그리고 3차원 이미지 데이터베이스에 접근하여 실시간으로 물체를 보고 조작하기 위한 3차원 재생기 (3D player) 에 대하여 상세히 설명하기로 한다.In the present invention, the server with three-dimensional data only transmits data to the requesting client. Hereinafter, an image acquisition apparatus and a 3D player for accessing and manipulating an object in real time by accessing a 3D image database will be described in detail.

* 이미지 획득 장치 (Image Acquisition Device)Image Acquisition Device

도 1은 이미지 획득 장치의 기하학적 구조를 보여주는 다이어그램이다.1 is a diagram showing the geometry of an image acquisition device.

도 1을 참조하면, 물체를 원점에 놓고 거리가 R만큼 떨어진 카메라를 물체 주위로 회전하여 미리 정한 다양한 각도θ와 φ에서 이미지를 촬영한다. 한편 사용자가 요청할 수도 있는 특정 뷰 각도에 해당하는 물체 이미지를 재생하기 위해서는 물체는 모든 가능한 뷰 각도에서의 이미지로 표현되어야 한다.Referring to FIG. 1, an image is taken at various angles θ and φ by placing the object at the origin and rotating the camera about a distance R apart around the object. On the other hand, in order to reproduce an object image corresponding to a specific viewing angle that a user may request, the object must be represented as an image at all possible viewing angles.

모든 가능한 뷰 각도의 정의는 원점으로부터 모든 가능한 직선 (Ray) 들 (모든 가능한 뷰 각도) 의 부분 집합을 그려서 이해할 수 있다. 이러한 모든 선들은 동시에 모아서 보면 도 2와 같은 퍼즈볼(fuzz ball)이 될 것이다. 도2는 퍼즈-볼, 카메라의 위치에서 시작해서 원점(물체의 중심)을 지나는 모든 직선의 집합을 보여주는 다이어그램이다.The definition of all possible view angles can be understood by drawing a subset of all possible straight lines (all possible view angles) from the origin. All of these lines will be fuzz balls as shown in FIG. 2 is a diagram showing a set of all straight lines starting from the position of the fuzz-ball, camera and passing through the origin (center of the object).

도 2에서 θ와 φ는 θ=와 φ=(0.5+n) pi /7에 의해 샘플링 되며 여기서 m=0,1,,31 이고 n=0,1,,6이다. 기본적으로 선들 사이의 간격이 해당 방향 θ와 φ로의뷰 해상도 (viewing resolution)를 조절하는 것에 주목해야 한다. 뷰 해상도는 마우스를 움직여 θ와 φ를 변경해 뷰 각을 회전할 때의 매끄러움을 결정한다.2 and θ is θ = And φ = (0.5 + n) pi / 7, where m = 0,1, , 31 and n = 0,1, , 6. Note that basically the spacing between the lines controls the viewing resolution in the corresponding directions θ and φ. View resolution determines the smoothness of rotating the view angle by moving the mouse to change θ and φ.

카메라가 각 직선들의 위치에서 원점을 향해 촬영을 할 때 카메라는 물체를 둘러싼 표면 주위로 움직여야 한다. 따라서 카메라의 이동 거리 최소화의 관점에서 최적의 표면은 물체를 포함하면서 가장 작은 표면적을 가진 표면이 된다.When the camera shoots from the position of each straight line towards the origin, the camera must move around the surface surrounding the object. Therefore, in view of minimizing the moving distance of the camera, the optimum surface is the surface having the smallest surface area while including the object.

카메라는 물체에서 떨어져 있어야 하기 때문에, 가령 원점에서 정해진 거리 R만큼, 최적 표면은 반경 R인 구이다.Since the camera must be away from the object, the optimum surface is a sphere with radius R, for example by a distance R defined at the origin.

물체가 표면 (카메라가 원점을 향해 보고 있는) 상의 모든 점에 투영된다면, 모든 가능한 뷰 각에서 물체를 투영할 수 있는 것이 된다. 반경 R인 구가 최적의 표면이라고 설정한 후에도, 우리는 뷰 각 θ와 φ를 매개변수를 결정하고 이를 불연속적으로 나눌 필요가 있다. 매개 변수 화된 각도는, 즉 θ(t)와 φ(t), 0 = t <=T [T는 전체 획득 시간], 카메라 경로를 결정한다. 뷰 각을 불연속적인 값들로 구분함으로써, 즉 θk와, φk, k=0,1,,N-1, 유한개의 시퀀스의 이미지들을 얻을 수 있다. 두 각도 시퀀스, θk와, φk, k=0,1,,N-1는 카메라의 유일한 경로를 설정한다.If an object is projected to every point on the surface (the camera is looking towards the origin), then the object can be projected at all possible viewing angles. Even after setting the sphere with radius R to be the optimal surface, we still need to determine the parameters and divide the view angles θ and φ discontinuously. The parameterized angle determines the camera path, namely θ (t) and φ (t), 0 = t <= T [ T is the total acquisition time] By dividing the view angle into discrete values, i.e., θ k and φ k , k = 0,1, Images of, N-1, finite sequences can be obtained. Two angle sequences, θ k and φ k , k = 0,1, N-1 sets the camera's unique path.

또한 이 시퀀스는 촬영시간을 줄이기 위해 효율적으로 설계되어야 한다. 카메라의 위치가 원점으로부터 거리 R에 고정되기 때문에 카메라의 움직임이 한 번에 반경 R인 구의 표면을 포함할 수 있다면 제일 좋을 것이다. 이러한 세 가지 설계 안을 제안한다.This sequence should also be designed efficiently to reduce shooting time. Since the camera's position is fixed at a distance R from the origin, it would be best if the camera's movement could include the surface of a sphere with radius R at one time. We propose these three designs.

* 슬라이스 샘플링 전략 (Slice Sampling Strategy)Slice Sampling Strategy

도 3a는 카메라가 반경 R의 구를 한 번에 포함할 수 있는 하나의 이동 경로를 보여주고 있다. 도 3b는 도 2가 수평면에 샌슨 투영 (Sanson projection, Kreyszig91) 을 이용해 맵핑된 3차원 도면을 보여주고 있다. 산손 투영은 지리적인 맵핑을 하는 응용분야에 자주 이용된다. Nθ와 Nφ는 각각 범위 [0,2 pi ] 과 [0, pi ] 에서 촬영된 평균 (또는 정확한) 프레임 수를 나타낸다고 하자. Nθ와 Nφ는 정수일 필요는 없다. 이때 촬영된 전체 이미지들의 수는 NNθNφ가 된다. 다음 이미지 촬영 지점들을 고려해보자:3A shows one travel path in which the camera can contain a sphere of radius R at one time. FIG. 3b shows a three dimensional view of FIG. 2 mapped using a Sanson projection (Kreyszig91) on a horizontal plane. Sanson projection is often used for geographic mapping applications. Let N θ and N φ represent the average (or exact) number of frames taken in the range [0,2 pi] and [0, pi], respectively. N θ and N φ need not be integers. The total number of images taken at this time is N N θ N φ . Consider the following image capture points:

여기서, 연산자는 버림 연산 (floor operation) 을 나타내며 이는 인자보다 작거나 같은 최대 정수를 취한다. 이와 같이 Nθ와 Nφ는 각각 θ와 φ방향에 대한뷰 해상도(viewing resolution) 를 결정한다. 예를 들어, Nθ=Nφ는 θ와 φ방향에 대해 뷰 해상도가 같음을 의미한다. 도 3a와 도 3b는 수학식 1과 수학식 2의 촬영 지점을 이용한 결과를 보여준다.Where operator Represents a float operation, which takes the largest integer less than or equal to the argument. Thus N θ and φ N determines the resolution of the view (viewing resolution) for θ and φ direction. For example, N θ = N φ means that the view resolution is the same for the θ and φ directions. 3A and 3B show results using photographing points of Equations 1 and 2.

가장 편리한 모터 제어방법은 일정한 각속도로 θ를 회전하면서 φ를 불연속적인 값만큼 회전 시키는 것이다.TN프레임을 촬영하는데 걸리는 시간이므로 2개의 모터는 다음을 따라 제어된다.The most convenient motor control method is to discontinue φ while rotating θ at a constant angular velocity. It will rotate as much. Since T is the time taken to shoot N frames, the two motors are controlled as follows.

여기서, Tθ는 카메라가 θ방향으로 1회 회전하는데 걸리는 시간이다. 따라서 두 개의 모터가 수학식 3과 수학식 4에 따라 제어되고 이미지 획득 시점을 다음과 같이 취하면 :Here, T θ is a time taken for the camera to rotate once in the θ direction. Thus, if two motors are controlled according to equations 3 and 4 and the image acquisition point is taken as:

이미지 촬영 지점들은 수학식 1과 수학식 2에 의해 주어진 점들과 정확히 일치한다. 도 3a와 도 3b는 촬영 각을 보여주고 있으며 여기의 점들은 실제 카메라가 이미지를 촬영하는 지점을 가리킨다. 정확한 매개 변수들의 설정은 도면의 설명을 보면 알 수 있다.The image capture points coincide exactly with the points given by equations (1) and (2). 3A and 3B show photographing angles where the points indicate the point where the actual camera takes the image. The exact setting of the parameters can be seen from the description of the drawings.

* 비등방 나선형 샘플링 전략 (Anisotropic Spiral Sampling Strategy)* Anisotropic Spiral Sampling Strategy

수학식 3과 수학식 4에 의한 모터제어는 θ방향으로의 각각의 회전에 대해 θ방향으로는 단속적(斷續的)인 여러 단계로 진행된다. 특히 시간이 중요한 임계 값이 될 경우에 실제로 이와 같은 방식의 모터 제어는 어렵다. 이러한 단속성(斷續性)을 제거하면 다음의 모터 제어식이 된다:The motor control according to the equations (3) and (4) proceeds in several steps intermittently in the θ direction for each rotation in the θ direction. In practice, motor control in this manner is difficult, especially when time becomes an important threshold. Eliminating this interruption results in the following motor control formula:

수학식 5에 의해 이미지 획득 시점을 취하고 수학식 6과 수학식 7을 따르는 모터 제어를 하면 다음과 같은 이미지 촬영 위치를 구할 수 있다.When the image acquisition time is taken by Equation 5 and motor control is performed according to Equations 6 and 7, the following image capturing positions can be obtained.

도 4a 내지 도 4b는 도 3a 내지 도 3b와 동일한 매개 변수를 취했을 경우의 이미지 촬영 위치를 보여준다. 도 3a 및 도 3b와 마찬가지로 도 4a와 도 4b는 이미지 촬영 위치의 3차원 궤적과 샌슨 투영을 보여준다. 사용된 매개 변수들은 (Nθ,Nψ)=(16,16), (θoo)=(0,) 이다. 슬라이스 샘플링 전략과 마찬가지로 이 방법을 이용해서 총 256장의 프레임을 촬영한다.4A to 4B show image capturing positions when the same parameters as those of FIGS. 3A to 3B are taken. Similar to FIGS. 3A and 3B, FIGS. 4A and 4B show a three-dimensional trajectory and a Sandson projection of the image capturing position. The parameters used are (N θ , Nψ) = (16,16), (θ o , ψ o ) = (0, ) to be. Like the slice sampling strategy, this method shoots a total of 256 frames.

단순하기는 하나 슬라이스 샘플링 (수학식 1 및 수학식 2) 이나 위의 비등방 나선형 샘플링 (수학식 8과 수학식 9) 는 모든 곳에서 동일한 뷰 해상도를 제공하지 못한다. 도 3a 내지 도 3b 및 도 4a 내지 도 4b 처럼 두 극 가까이 에 더 많은 이미지 촬영 지점들이 있다. 따라서 뷰 해상도는 양극으로 갈수록 더 높다. 보통 투사될 3차원 물체는 전체 투사 면에 등방 형으로 투사될 필요가 있다. 두 극에서 편중하여 많은 이미지를 촬영할 필요는 없다.Although simple, slice sampling (Equations 1 and 2) or anisotropic spiral sampling (Equations 8 and 9) above do not provide the same view resolution everywhere. There are more imaging points near the two poles as in FIGS. 3A-3B and 4A-4B. Therefore, the view resolution is higher towards the anode. Usually the three-dimensional object to be projected needs to be projected isotropically over the entire projection plane. You don't have to take a lot of images because you're biased in two plays.

뷰 해상도의 불균형 (구의 적도부분에서의 저 해상도) 은 부자연스럽기 때문에 이는 스캐닝 전략을 재 설계하여 제거할 수 있다. 다음절에서 개발된 다른 스캐닝 전략은 뷰 해상도를 모든 이미지 촬영 지점들이 존재하는 전체 구면에 대해 동일하게 한다.Since the imbalance of view resolution (low resolution at the equator of the sphere) is unnatural, this can be eliminated by redesigning the scanning strategy. Another scanning strategy developed in the next section makes the view resolution the same for the entire sphere in which all image capture points exist.

* 등방 나선형 샘플링 전략 (Isotropic Spiral Sampling Strategy)Isotropic Spiral Sampling Strategy

이전 기법에서는 두개의 모터를 일정한 속도로 회전하면서 시간적으로 동일한 간격으로 이미지를 촬영하였다. 도 3a 내지 도 3b 및 도 4a내지 도 4b에서 볼 수 있는 것처럼 이미지 촬영 지점들은 양 극점에 가까울수록 밀도가 높다. 그러나 극 주위에서 이미지를 낮은 빈도로 촬영한다면, 수학식 6과 수학식 7에 의해 주어진 모터 제어 식으로, 즉 모터를 일정한 속도로 회전시키면서, 등방 형의 뷰 해상도를 얻을 수 있을 것이다. 당연히 이 경우 이미지 촬영 시간은 시간적으로 동일한 간격은 아닐 것이다.In the previous technique, two motors were rotated at a constant speed and images were taken at equal intervals in time. As can be seen in FIGS. 3A-3B and 4A-4B, the image capture points are denser as they get closer to the poles. However, if the image is taken at a low frequency around the pole, it is possible to obtain an isotropic view resolution with the motor control equation given by Equations 6 and 7, ie, rotating the motor at a constant speed. Naturally, in this case, the image capturing time will not be the same interval in time.

등방형 나선 스캐닝 전략에서는 우선 두 각의 ,(θ(t),φ(t)), 0 = t <=T , t는 [0,T]인 시간, 매개변수를 결정한다. 물체를 포함하는 구의 반경을 R이라고 하고 이미지 촬영 지점들은 이 구 위에 존재한다고 가정하면 카메라의 경로의 미소(微少) 변화량은 다음과 같다.In the isotropic spiral scanning strategy, we first determine the time and parameters of the two angles, (θ (t), φ (t)), where 0 = t <= T and t is [0, T]. Assuming that the radius of the sphere containing the object is R and the image capture points are on the sphere, the amount of micro-change in the path of the camera is as follows.

여기서, 수학식 10에 의해 위치 벡터r은 항상 반경 R인 구 위에 존재한다. 미소(微少)거리 dr(벡터)을 매개변수t에 대해 일정하게 유지하고 카메라 위치벡터r을 매개변수t에 대해 일정한 간격으로 샘플링 하는 방법이 있다. 따라서 이웃하는 촬영 지점들은 경로를 따라 같은 간격을 유지한다.Here, by the equation (10), the position vector r always exists on the sphere of radius R. Minute (微少), there is a method to maintain a constant for a distance d r (vector) the parameter t is sampled at regular intervals for the camera position vector r to the parameter t. Therefore, neighboring shooting points maintain the same distance along the path.

그러나 수직방향 φ로의 간격은 실제 φ의 각도에 따라 다를 수도 있다. 즉, 수직방향으로의 간격은 sin(φ)에 따라 변화할 것이다. 따라서 미소거리 dr t에 대해 항상 일정하게 설계하게 되면 등방형 이미지 촬영 지점들은 제공되지 못할 것이다. 따라서 다음과 같은 다른 해결책을 찾아 본다.However, the gap in the vertical direction φ may vary depending on the actual angle of φ. That is, the gap in the vertical direction will change according to sin (φ). So the micro distance drthis If you always design a constant for t, the isotropic imaging points will not be provided. So look for other solutions such as:

구현하기가 단순하므로 다음 모터 제어 식을 계속 사용한다.Since it is simple to implement, we continue to use the following motor control equations.

여기서, 앞에서와 같이, T와 Tθ는 각각 카메라가 φ와 θ방향으로 한바퀴 회전하는데 걸리는 시간이다. 이 수학식들을 수학식 10에 대입하면 다음의 수학식을 구할 수 있다.Here, as before, T and T θ are the time taken for the camera to rotate one turn in the? And θ directions, respectively. Substituting these equations into equation 10 yields the following equation.

수학식 11 및 수학식 12에서 알 수 있듯이 설계에 의해 θ를 제어하는 모터는 φ를 제어하는 모터보다 더 빨리 회전한다. 따라서 아주 적은 값 t와 초기값 φ0에 대해성분은 무시할 수 있다고 가정한다. 따라서 다음의 근사값을 이용할 수 있다:As can be seen from Equations 11 and 12, the motor controlling θ by design rotates faster than the motor controlling φ. So for a very small value t and an initial value φ 0 The component is assumed to be negligible. Therefore, the following approximation can be used:

위 수학식을 적분하면 다음의 호 길이를 구할 수 있고 이것은 카메라의 이동 거리가 된다.Integrating the above equation, we can find the next arc length, which is the moving distance of the camera.

따라서 카메라가 이동하는 전체 거리 (t=0에서t=T까지) 는 다음과 같다.Therefore, the total distance the camera moves (from t = 0 to t = T ) is

등간 격으로 떨어진 카메라 궤적을 샘플링 하는 것이 목적이므로 위의 전체 거리를 전체 프레임 수 N(-1)로 나눈 것을 이미지 촬영 지점들 사이의 간격으로 정한다. 따라서 이미지 촬영 지점들은 다음과 같이 나타낼 수 있다.Since the purpose is to sample the camera trajectories separated by equal intervals, the total distance divided by the total number of frames N (-1) is determined as the interval between image capture points. Therefore, the image capture points can be represented as follows.

수학식 15 및 수학식 17을 등식으로 놓고 촬영시간에 대해 풀면 다음의 결과를 얻을 수 있다.The following results can be obtained by solving Equation 15 and Equation 17 with equations and solving for the shooting time.

촬영시간 t와 인덱스 k는와 같은 관계를 가지고 있다. 또한N은 사용자가 뷰 해상도를 결정하기 위한 매개변수로 이용할 수 있다. 이전 방법들에서 (도 3a 내지 도 3b 및 도 4a 내지 도 4b)일 때 뷰 해상도를 유지하기 위해서다음과 같이 놓을 수 있다.Shooting time t and index k Has the same relationship as N can also be used as a parameter for the user to determine the view resolution. In previous methods (FIGS. 3A-3B and 4A-4B) To maintain view resolution when

여기서,은 반올림 연산을 나타낸다. 이전 두 가지 방법에서는 촬영된 전체 이미지의 수가 NNθNφ이었다. 나선형 샘플링 전략에서는 이전 방법들에 비해 총 프레임 수가의 비율로 감소한다. 이러한 감소는 다른 두 방법들에서는 불필요하게 너무 많이 촬영되었던 양극 주위에서의 프레임의 수를 줄인 대가이다.here, Indicates a rounding operation. In the previous two methods, the total number of images taken was N N θ N φ . In the spiral sampling strategy, the total number of frames compared to the previous methods Decreases at the rate of. This reduction is the cost of reducing the number of frames around the anode, which were unnecessarily too many shots in the other two methods.

도 5a 및 도 5b는 이에 따른 이미지 촬영 지점들을 보여준다. 촬영 위치가 시각적으로 동일한 간격이고 이는 사실상 등방형 뷰 해상도를 제공한다.5A and 5B show the image capture points accordingly. The shooting positions are visually equally spaced, which in effect provides an isotropic view resolution.

사용된 매개 변수들은 (Nθ,Nφ)=(16,16),이다. 이전의 접근 방법들과는 다르게, 이 방법에 의해서는 총 163개의 이미지를 촬영한다. 여기서, 등방 형의 뷰 해상도와 총 프레임 수가의 비율로 감소했다는 사실에 주목해야 한다.The parameters used are (N θ , N φ ) = (16,16), to be. Unlike the previous approaches, this approach totals 163 Take a picture of the dog. Where isotropic view resolution and total number of frames It should be noted that the ratio decreases.

* 이미지 촬영과 각도정보 첨부 (Image Capture and Frame Tagging)* Image Capture and Frame Tagging

이미지 시퀀스를 얻기 위해서 어떤 접근 방법을 사용하던지, 이미지획득장비는 차후 네트웍을 통한 접속을 위해서 다음의 두 데이터를 중앙 (또는 분산) 데이터 베이스에 저장할 것이다:Whatever approach is used to obtain the image sequence, the image acquisition device will store the following two data in a central (or distributed) database for future network access:

압축된 이미지 시퀀스f(k), k=0,1,,N-1.Compressed image sequence f ( k ), k = 0,1, , N-1.

각각의 이미지에 대응하는 θk와 φk, k=0,1,,N-1.Θ k and φ k corresponding to each image, k = 0,1, , N-1.

각각의 프레임을 얻은 위치 θk와 φk가 프레임과 함께 저장된다는 점에 유의해야 한다.Note that the positions θ k and φ k from which each frame was obtained are stored with the frame.

도 6은 3-D 이미지 획득 장비의 사진이다. 물체는 턴테이블 위에 놓이게 되고 이송체에 부착되어 있는 카메라에 의해서 촬영된다. 모터에 의해서 구동되는 이송체는 타이밍 벨트가 부착되어 있는 수직축의 C 암(C arm)을 따라서 움직인다. 턴테이블은 또 다른 독립적인 모터에 의해서 구동된다. 턴테이블(θ)와 카메라 이송체(φ)를 제어하는 이 두 개의 모터는 오퍼레이터 콘솔(PC)에서 정해진 방법에 의해서 미리 프로그램되어 있다.6 is a picture of the 3-D image acquisition equipment. The object is placed on the turntable and photographed by a camera attached to the carrier. The conveying body driven by the motor moves along the C arm of the vertical axis to which the timing belt is attached. The turntable is driven by another independent motor. These two motors that control the turntable θ and the camera carrier φ are preprogrammed by a method defined in the operator console PC.

두 모터 모두 부호화기가 장착되어 있고 부호화기가 모든 이미지를 촬영하는 순간의 각도(θ)와 (φ)를 기록한다.Both motors are equipped with an encoder and record the angles (θ) and (φ) at the moment the encoder captures all images.

두개의 모터가 카메라의 위치를 결정짓는 두개의 각도를 제어한다. 턴테이블이 돌면서 θ값을 제어하는 동안 카메라는 수직축의 C-arm (φ방향) 을 따라서 움직인다. 이렇게 해서 이 기계는 이미지 시퀀스들을 획득하면서 모터에 장착된 부호기에서 발생된 두개의 각도 θ와 φ도 같이 저장한다.Two motors control two angles that determine the position of the camera. The camera moves along the C-arm (φ direction) of the vertical axis while the turntable rotates to control the value of θ. The machine thus acquires image sequences and stores the two angles θ and φ generated by the encoder mounted on the motor.

* 3차원 이미지 편집기 (The 3-D Image Editor)* The 3-D Image Editor

이미지의 시퀀스f(k), k=0,1,,N-1를 획득하고 난 뒤, 얻어진 3차원 이미지들은 배경제거, 프레임들의 삽입/삭제, 칼러 보정, unsharp 매스킹 등의 다양한 편집 작업이 가능하다. 도 7은 3-D 이미지 편집기를 보여준다. 편집기 프로그램은 3개의 주요 창으로 나누어져 있다. 첫째는 산손 투영 창(도 7에서 좌측 상단)으로서 실제 이미지를 얻은 위치(점으로 표시)를산손 투영 (Sanson projection)방법으로 보여준다. 둘째는 획득 된 이미지를 3차원으로 보여주는 3-D 뷰 창 (도 7에서 좌측 하단)이고, 샛째는 썸네일 창으로서 모든 프레임의 썸네일을 보여준다.Sequence of images f ( k ), k = 0,1, After acquiring N-1, the obtained three-dimensional images can be edited variously, including background removal, frame insertion / deletion, color correction, and unsharp masking. 7 shows a 3-D image editor. The editor program is divided into three main windows. The first is a Sanson projection window (upper left in FIG. 7) showing the position (marked with a dot) where the actual image was obtained by the Sanson projection method. The second is a 3-D view window (lower left in Fig. 7) showing the acquired image in three dimensions, and the second is a thumbnail window showing thumbnails of all frames.

3개의 창은 내부적으로 서로 연계 되어있다. 예를 들어 사용자가 산손 투영 창에서 한 점을 클릭 했을 경우 선택된 점의 색이 바뀌게 되고, 동시에 3-D 뷰 창에는 그 점에 해당되는 프레임이 나타나고, 썸네일 창에서는 해당되는 이미지가 강조 된다. 마찬가지로 다른 창 (3-D 뷰 창과 썸네일 창) 에서의 동작은 나머지 창들이 상응하는 동작을 하게 한다.The three windows are interconnected internally. For example, when a user clicks on a point in the Sanson projection window, the color of the selected point changes. At the same time, the frame corresponding to the point appears in the 3-D view window, and the image is highlighted in the thumbnail window. Similarly, actions in other windows (3-D view window and thumbnail window) cause the remaining windows to perform the corresponding action.

이하에서, 3차원 재생기 (The 3-D Viewer)에 대하여 설명하기로 한다.Hereinafter, the 3D player will be described.

* 룩업 테이블의 생성 (Generation of the look-up-table)Generation of the look-up-table

각각의 이미지들 (비디오 프레임들) 은 획득과정에서 그에 해당하는 각도들 (θ,φ) 과 함께 저장된다. 효율적인 동작을 위해서 3-D 재생기는 반드시 뷰 각도들 (θ,φ)을 프레임 번호에 사상(寫像) 시켜주는 룩업테이블, LUT(θ,φ)을 필요로 한다. 이 작업에 필요한 시간은 미미하기 때문에 이미지 데이터를 서버로부터 전송 받는 도중에도 계산할 수 있다. LUT는 다음 과정에 따라서 만들어진다.Each of the images (video frames) is stored with corresponding angles θ, φ in the acquisition process. For efficient operation, the 3-D player requires a lookup table, LUT (θ, φ), which maps the view angles (θ, φ) to the frame number. The time required for this task is minimal, so it can be calculated while receiving image data from the server. The LUT is created according to the following procedure.

LθxLφ크기의 LUT는 다음 과정에 의해서 한번씩 채워진다.The LUT of size L θ xL φ is filled once by the following procedure.

반복: k=0,1,,N-1Iterations: k = 0,1, , N-1

반복 종료End of loop

여기서,는 실수를 인자보다 작거나 같은 정수로 바꾸는 버림 연산을 나타낸다. 의심의 여지도 없이 위의 연산을 했을 경우에는 채워지지 않은 셀(-1을 가지는)이 존재 한다. 이 셀들은 가장 근접한 프레임의 값으로 채워지게 된다. 예를 들어 다음과 같은 과정을 거치게 된다.here, Denotes a truncation operation that converts a real number to an integer less than or equal to the argument. Undoubtedly, the above operation results in an unfilled cell (with -1). These cells are filled with the value of the nearest frame. For example, the following process occurs.

LUT(i,j)=-1를 만족하는 모든 에 대해서 반복Iterate over all satisfying LUT (i, j) =-1

을 만족시키는 가장 근접한를 찾는다. Closest to satisfy Find it.

반복종료End of repetition

앞서 언급한 가장 근접한 프레임 값은 가장 작은l 2 -norm을 가지는 어떤 값으로 생각할 수 있다:The nearest frame value mentioned above can be thought of as any value with the smallest l 2 -norm :

여기서는 각각에 해당하는 프레임 번호들이다.here Wow Are frame numbers corresponding to each.

위의 Loop에서 사용한 연산은 '팽창 (dilate)'과 같은 몰폴로지 (morphological) 연산을 반복함으로써 수행 할 수 있다 (Serra82). 다른 거리나간격도 가장 근접한 셀을 찾는 과정에서 사용될 수 있음을 유념하라.The operation used in the above Loop can be performed by repeating morphological operations such as 'dilate' (Serra82). Note that other distances or intervals can also be used to find the closest cell.

사용자의 입력 (θ와φ) 을 받자마자 3-D 재생기는 다음의 프레임 번호에 해당하는 프레임을 압축을 푼 다음 화면에 출력하게 된다.As soon as the user inputs (θ and φ), the 3-D player decompresses the frame corresponding to the next frame number and outputs it to the screen.

시각 응용프로그램에서는 각도정보 (θ와φ ) 의 정확도가 중요한 요소가 될 수 있다 (Parker97, Schlkoff89). 그러나 제안된 3-D 시각화 응용에서는 이미지를 조밀하게 획득 하는 한도 내에서는, 이미지를 단지 시각화 목적으로 보여주는 경우처럼 두 각도의 정확성이 심각한 문제는 아니다. 따라서 식 (23)에 의해서 가장 근접한 프레임 즉, 현재의 (θ와φ ) 에 가장 가까운 프레임을 보여 주는 일이 해결된다.In visual applications, the accuracy of angle information θ and φ can be an important factor (Parker97, Schlkoff89). However, in the proposed 3-D visualization application, the accuracy of the two angles is not a serious problem, as long as the image is only for visualization purposes, as long as the image is densely acquired. Therefore, the equation (23) solves the task of showing the nearest frame, that is, the frame closest to the current (θ and φ).

* 랜덤 액세스에 의한 3차원 물체 디스플레이 (Display of 3-D Objects by Random Access)* Display of 3-D Objects by Random Access

3-D 재생기는 사용자가 화면에 보여지는 물체 위에서 클릭이나 마우스 드래그를 할 때 3-D 이미지 시퀀스f(k),k=0,1,,N-1를 보여줄 수 있다. 처음에는 사용자에게 이미지 시퀀스 중의 하나를 보여주게 되고 사용자가 마우스를 드래그 하게 되면 화면이 실제 3-D 물체를 다루는 것처럼 느낄 수 있게 하는 규칙에 따라서 적절한 순서의 이미지들로 화면을 재출력 한다. 화면에 보이는 물체를 다루는 방법은 다음의 두 가지 모드중의 하나에 기반 하게 된다: NEWS (north-east-west-south) 와 AVIATION. 이 두 모드는 동일한 마우스 동작에 대해서 서로 다른 행동을 하게 된다.The 3-D player uses the 3-D image sequence f ( k ), k = 0,1, when the user clicks or drags the mouse over an object on the screen. Can show N-1. Initially, the user is shown one of the sequence of images, and when the user drags the mouse, the screen is reprinted with images in the proper order according to the rules that make the screen feel like a real 3-D object. The handling of visible objects is based on one of two modes: NEWS (north-east-west-south) and AVIATION. These two modes will behave differently for the same mouse movement.

NEWS 모드에서, 왼쪽 (또는 오른쪽)으로 드래그 하는 것은 물체를 서쪽 (또는 동쪽) 방향으로 돌린다. 아래 (또는 위) 방향으로 드래그를 하면 물체는 남쪽 (또는 북쪽) 방향으로 돌아간다. 반면, AVIATION 모드에서는 한 쪽 방향으로 드래그를 하게 되면 물체도 그 방향으로 돌아가게 된다. 다시 말해서 AVIATION 모드에서는 마우스 드래그 방향은 항상 두개의 직각인 원의 방향과 일치하고, 그 중의 하나는 현재 물체의 방향과 일치한다. 도 8a는 디스플레이 프로그램에서의 NEWS 모드의 동작 방식을 보여주는 다이어그램이고, 도 8b는 디스플레이 프로그램에서의 AVIATION 모드의 동작 방식을 보여주는 다이어그램이다. 도 8a와 도 8b은 상기 두 방법들의 동작 차이를 보여주고 있다. 도 8a 와 도 8b에서 사용자가 마우스 드래그를 통해서 입력한 δU와 δR를 각각 U축과 R축에서의 변이로 간주한다. NEWS 모드에서는 U축과 R축은 각각 북쪽과 동쪽에 대응한다. AVIATION 모드의 경우, U축과 R축은 두 개의 직각인 대원에 의해서 정의된 평면 위에 놓이게 된다. 이때 하나의 원은 북극과 Ψ의 각을 이룬다.In NEWS mode, dragging left (or right) turns the object west (or east). Dragging down (or up) returns the object to the south (or north) direction. In AVIATION mode, on the other hand, dragging in one direction will return the object in that direction. In other words, in AVIATION mode, the mouse drag direction always corresponds to the direction of two orthogonal circles, one of which corresponds to the direction of the current object. FIG. 8A is a diagram showing an operation method of the NEWS mode in the display program, and FIG. 8B is a diagram showing an operation method of the AVIATION mode in the display program. 8A and 8B show the difference in operation between the two methods. 8A and 8B, δU and δR input by the user by dragging the mouse are regarded as variations in the U axis and the R axis, respectively. In the NEWS mode, the U and R axes correspond to north and east, respectively. In AVIATION mode, the U and R axes lie on a plane defined by two orthogonal members. One circle then forms an angle between the North Pole and Ψ.

수학적으로는 두 작동 모드가 다음과 같이 정리 될 수 있다.Mathematically, the two modes of operation can be summarized as follows.

현재 물체의 방향이 북극을 기준으로 했을 때 의 각도를 가지고 있고 사용자가 마우스를 와 만큼 드래그를 했다고 가정하자. 그러면 NEWS 모드의 경우 갱신 공식은 다음과 같다:Suppose the current object has an angle relative to the north pole and the user has dragged the mouse by as much as. Then for NEWS mode the renewal formula is:

또한, AVIATION 모드의 경우는In the AVIATION mode,

AVIATION 모드에서 갱신 함수 θ()φ() PSI ()에 대해서 몇 가지 사용 가능한 시스템이 있다. 특히 항법 시스템에서 일반적으로 사용되는 다음 north reference system 이 적용 가능하다.Update function θ (in AVIATION mode ) φ ( ) PSI ( There are several systems available. In particular, the following north reference systems commonly used in navigation systems are applicable.

위의 두 가지 경우 모두 PSI 는 마우스의 움직임에 따라 변하지 않고, 사용자는 원하는 각도의 이미지를 보기 위해서 수동으로 이미지를 회전시켜야 한다. 물론 다른 방법도 가능하다. 도7에서 좌측하단의 창 (3-D뷰 창) 은 3차원 물체를 컨트롤 할 수 있는 두 가지의 방법, 즉NEWS 와 AVIATION 모드를 구현한 ActiveX 컨트롤이다.In both cases, the PSI does not change with the movement of the mouse, and the user must manually rotate the image to view the desired angle. Of course, other methods are possible. In FIG. 7, the lower left window (3-D view window) is an ActiveX control that implements two methods that can control a three-dimensional object, that is, NEWS and AVIATION modes.

웹서핑 하는 사람이 3차원 물체를 볼 수 있게 하기위해서는 ActiveX 컨트롤 (3-D 뷰 창) 만 보이게 하면 된다. 어떤 경우든 간에 두 가지 모드 모두 화면에 디스플레이 되는 프레임은이 된다. 여기서 아래 첨자 PSI 는 이미지 (물체) 의 회전 각도를 나타낸다. 따라서 3-D 뷰어는 물체의 회전 뿐만 아니라 임의의 프레임으로의 랜덤 액세스도 지원해야 한다. 또한 3-D 뷰어는 확대/축소 (zoom) 와 상,하,좌, 그리고 우 이동 (pan) 과 같은 일반적인 기능도 제공한다.In order for web surfers to see 3D objects, only the ActiveX control (3-D view window) needs to be visible. In either case, the frames displayed on the screen in both modes Becomes Where the subscript PSI represents the angle of rotation of the image (object). The 3-D viewer must therefore support rotation of the object as well as random access to any frame. The 3-D viewer also provides general functions like zoom and pan up, down, left and right.

* 사전 복호화(Pre-Decode for Fast Display)* Pre-Decode for Fast Display

이미지 시퀀스가 비디오로 부호화 되기 때문에, 실시간 조작을 용이하게 만들기 위해서는 특정한 프레임들을 사전에 복호화 하는 작업이 수행되어야 한다. 예를 들면, MPEG 표준은 비디오 시퀀스들은 GOP (group of pictures) 단위로 부호화 된다 (bhaskaran95). 12프레임으로 이루어진 GOP 의 구조의 한 예로IBBPBBPBBPBB 이 가능할 것이다. 여기서 각각의 알파벳은 프레임 타입을 나타낸다. I-프레임은 독자적으로 복호가 가능하다; P-프레임은 이전의 앵커프레임 (I-또는 P-프레임) 이 먼저 복호화 되어 있어야 한다; 그리고 B-프레임은 앞뒤로 2 개의 앵커 프레임이 미리 복호화 되어 있어야 한다.Since the image sequence is encoded as video, a task of decoding certain frames in advance is required to facilitate real time operation. For example, the MPEG standard encodes video sequences in units of GOP (bhaskaran95). An example of the structure of a 12-frame GOP may be IBBPBBPBBPBB. Where each alphabet represents a frame type. I-frames can be decoded independently; P-frames must have a previous anchor frame (I- or P-frame) decoded first; And in the B-frame, two anchor frames must be decoded before and after.

우리와 같이 GOP 내의 임의의 프레임으로의 랜덤 액세스를 하는 특별한 경우에는, GOP 내의 특정한 프레임을 복호 하기 전에 그 프레임의 앞과 뒤에 있는 몇 개의 프레임을 미리 복호 해야 한다. 물론 일반 비디오나 동영상처럼 부호 화된 영상을 플레이하는 경우에는 모든 프레임을 순차적으로 복호화 하면 되기 때문에 앞서 언급한 문제는 발생하지 않는다. 그러나 우리의 경우는 순차적이지 않은 프레임도 복호 할 수 있어야 한다.In our special case of random access to any frame within a GOP, we need to decode some frames before and after that frame before decoding that particular frame within the GOP. Of course, when playing a coded video like a normal video or video, the above-mentioned problem does not occur because all the frames must be decoded sequentially. But in our case, we should be able to decode non-sequential frames.

IBBPBBPBBPBB의 순서를 가지는 GOP 의 경우, I-프레임들만 미리 복호해 놓았다면, 마지막 2 개의 B-프레임으로 랜덤 액세스를 하기 위해서는 4 번의 복호 과정을 거쳐야 한다. 그러나 모든 I-프레임과 P-프레임이 미리 복호 되어 메모리에 저장되어 있다면, GOP 내의 하나의 영상을 풀기 위해서 단 한번의 복호화 과정이면 충분하다(또는 한번도 필요없다).In the case of a GOP having an order of IBBPBBPBBPBB, if only I-frames are decoded in advance, four decoding processes are required to perform random access to the last two B-frames. However, if all I-frames and P-frames are decoded in advance and stored in memory, only one decoding process is sufficient (or no need for one) to solve one image in the GOP.

본 발명에서 택한 방법이 바로 이 것이다. 다시 말해서, 모든 I-프레임과 P-프레임을 로컬 버퍼에 미리 복호 화 해 두었기 때문에, 특정한 프레임을 보기 위해서 최대 한 번의 복호만 하면 된다. 사용되는 메모리의 크기를 줄이기 위해서 미리 복호된 영상들은 비 손실 압축방법으로 압축되어있다.This is the method chosen in the present invention. In other words, since all I-frames and P-frames are pre-decoded in the local buffer, you only need to decode at most once to see a particular frame. In order to reduce the size of the memory used, previously decoded images are compressed using a lossless compression method.

다른 가능성의 하나는 IBBBBBBBBBBB 와 같은 GOP 구조로 부호화하고 I-프레임을 미리 복호화 하는 경우일 것이다. 이 경우, 만약 비디오 내의 모든 I-프레임들이 복호화 되었다면, 한 번 또는 복호화 과정 없이 원하는 프레임에 랜덤 액세스 할 수 있다.One other possibility would be the case of encoding with a GOP structure such as IBBBBBBBBBBB and decoding the I-frames in advance. In this case, if all I-frames in the video have been decoded, random access can be made to the desired frame once or without decoding.

* 멀티미디어 스트리밍 (Multimedia Streaming)Multimedia Streaming

디스플레이 응용프로그램 (ActiveX 컨트롤) 을 이용해 3 차원 이미지를 화면에서 보거나 조작할 때 모든 데이터가 들어 올 때 까지 기다릴 필요가 없다. 데이터가 네트웍을 통해서 전송될 때 하나 이상의 프레임만 들어오면 이미지를 화면으로 보거나 조작할 수가 있다.When viewing or manipulating a 3D image on the screen using a display application (ActiveX control), there is no need to wait for all the data to come in. When data is transmitted over the network, only one or more frames are required to view or manipulate the image.

구현된 응용프로그램은 우선 전체 프레임의 개수, GOP 구조의 세세한 부분, bit rate 등을 포함하는 데이터 헤더를 받은 다음에 이것을 복호화 하게 된다. 상기 과정을 통해서 모든 필요한 정보가 얻어지게 되면, 독립적인 Thread (우선 순위가 낮은) 가 활성화되어 나머지 데이터를 받아들인다. Thread 는 데이터를 받을 때 어떤 프레임이 전송이 되었고 어떤 것은 전송이 되지 않았는지에 대해서 메인 프로그램과 통신하게 된다. 또한 MPEG 시퀀스의 전송 순서는 모든 I-프레임을 먼저 보내고, 모든 P-프레임을 그 다음에, 모든 B-프레임을 마지막으로 보내도록 바뀌어진다.The implemented application first receives the data header including the total number of frames, the details of the GOP structure, the bit rate, and then decodes it. When all the necessary information is obtained through the above process, an independent thread (low priority) is activated to receive the remaining data. When a thread receives data, it communicates with the main program as to which frames were sent and which were not. The order of transmission of the MPEG sequences is also changed to send all I-frames first, all P-frames and then all B-frames last.

같은 프레임 타입, 예를 들어 I-프레임, 중에서도 중요도가 높은 프레임이 낮은 프레임 보다 먼저 전송되도록 한다. 프레임을 전송 받으면서 응용프로그램은 I-프레임과 P-프레임들을 사전에 복호화 한다. 이미지를 화면에 보여주는 프로그램이 이미 들어와 있는 프레임만을 사용하도록 전송 받은 프레임들에는 표시를 한다.The same frame type, e.g., I-frame, among the higher priority frames is transmitted before the lower frame. Upon receiving the frame, the application program decodes the I-frame and P-frames in advance. The program that displays the image on the screen marks frames that have been sent to use only the frames that are already present.

파일은 비디오 데이터뿐만 아니라 사용자의 요구가 있을 때 다운로드 되어야 할 다른 데이터들, 예를 들면 줌 데이터나 또 다른 비디오 데이터로 구성되어 있다. 예를 들어 만약 사용자가 어떤 각도에서 좀더 세밀한 이미지를 보고 싶어한다면, 사용자의 요구가 있을 때, 별개의 멀티미디어 데이터의 다운로드가 시작된다. 사용자의 요구에 의해 특정한 비디오 (냉장고 문을 여는) 을 다운로드 하는 것이 다른 예가 될 수 있을 것이다.The file consists of not only video data but also other data to be downloaded at the user's request, for example zoom data or another video data. For example, if a user wants to see a more detailed image from an angle, the download of separate multimedia data begins when the user asks. Another example would be to download a specific video (opening the refrigerator door) at the user's request.

도 9는 우리의 3 차원 물체를 다루는 방법에 대한 one-stop 모델을 개념적으로 보여준다. 도 9는 인터넷에 연결된 3 차원 이미지 획득 장치를 가지고 있는 3-D 이미지 센터를 포함하고 있다. 3 차원 물체를 가지고 있는 개인이 그 물체를 3 차원으로 시각화하기 위해서 3-D 이미지 센터를 찾을 것이다.9 conceptually shows a one-stop model for how to handle our three-dimensional objects. 9 includes a 3-D image center having a three-dimensional image acquisition device connected to the Internet. An individual with a three-dimensional object will look for a 3-D image center to visualize the object in three dimensions.

도 9에 따르면, 모든 가능한 각도에서, 슬라이스형 샘플링 또는 나선형 샘플링을 사용하여, 물체의 이미지를 얻은 즉시 이미지 시퀀스들은 중앙의 (또는 분산된) 데이터 베이스로 보내져서 저장된다. 서비스를 이용한 개인은 3 차원 물체 파일의 URL 만을 가지고 서비스센터를 나선다.According to FIG. 9, at all possible angles, using sliced sampling or spiral sampling, as soon as an image of the object is obtained, the image sequences are sent to a central (or distributed) database for storage. The individual using the service leaves the service center with only the URL of the 3D object file.

상기 이용자는 그 URL 을 자신의 웹에 공개해서 다른 웹서핑을 하는 사람들이 이 3-D 데이터에 접속할 수 있도록 한다. URL 을 특정 웹페이지에 올려 놓지 않더라도 이용자는 단순히 웹 브라우저에 URL 을 타이핑하는 것만으로도 자기가 만든 3차원 물체를 볼 수 있다. URL (3차원 데이터) 은 패스워드에 의해서 보호 될 수 도 있고 그렇지 않을 수 도 있다. 3-D 이미지 센터의 고객은 개인만이 아니라 인터넷을 통해서 물체를 3 차원으로 보여주기를 원하는 크고 작은 기업도 될 수 있다.The user publishes the URL on his web so that other web surfers can access this 3-D data. Even if you don't put the URL on a specific web page, you can see the three-dimensional object you created by simply typing the URL in a web browser. The URL (three-dimensional data) may or may not be protected by a password. The customers of the 3-D Image Center can be not only individuals, but also large and small companies who want to see objects in three dimensions over the Internet.

이하에서, 본 발명의 효과들을 언급하기로 한다.In the following, the effects of the present invention will be mentioned.

첫째, 현존하는 대부분의 3 차원 시각화 기술들은 2 단계의 과정을 거친다. 우선 물체의 모델을 만든 다음 이것을 저장한다. 사용자가 특정한 각도에서 물체를 보고자 하면, 사용자에게 보여주기 전에 미리 제작된 모델에 기반해서 렌더링을 하게 된다. 바로 이러한 이미지 렌더링 과정 때문에 복잡하고 자연스러운 물체의 경우 사용자가 실시간으로 물체를 다룰 수 없게 만든다. 본 발명에 따르면, 렌더링 뿐만 아니라 모델 제작 과정이 제거된다. 그 결과 일반 PC 를 클라이언트로 사용해서 네트웍을 통해 실시간으로 3 차원 물체를 시각화하거나 다룰 수 있다.First, most existing three-dimensional visualization techniques go through a two-step process. First create a model of the object and save it. When the user wants to see an object from a certain angle, it renders it based on a pre-made model before showing it to the user. This image rendering process makes it difficult for users to manipulate objects in real time for complex and natural objects. According to the present invention, not only rendering but also model making process is eliminated. As a result, a normal PC can be used as a client to visualize or manipulate three-dimensional objects in real time over the network.

둘째, 물체를 3 차원으로 시각화하거나 다루는 방법은 비디오나 이미지가 누렸던 대중성을 얻지는 못하고 있다. 그 이유는 아마도 웹을 통해서 3 차원 물체를 보여주기를 원했던 대부분의 개인들이 3 차원 물체를 자신의 홈페이지에 올려 놓기 위해서는 많은 노력과 시간을 투자해야 하기 때문일 것이다. 본 발명에 따른 3 차원 물체 one-stop 서비스 개념은 개인이나 전문가가 3 차원 물체를 홈페이지에 넣기 위해서 겪어야 했던 이러한 노력과 시간을 근본적으로 줄여줄 수 있다.Second, the method of visualizing or manipulating objects in three dimensions does not gain the popularity that video or images enjoyed. The reason is probably that most individuals who wanted to show 3D objects through the web have to invest a lot of effort and time to put them on their homepage. The three-dimensional object one-stop service concept according to the present invention can fundamentally reduce the effort and time that an individual or an expert has to put into the homepage.

셋째, 본 발명에 따른 시스템은 실제 물체를 3 차원으로 시각화를 하기 위해서 오늘날의 모든 사용자들이 알아야 하는 자세한 기술적인 내용들을 모두 제거했기 때문에 비 전문가도 사용할 수 있다.Third, the system according to the present invention can be used by non-professionals because it removes all the technical details that all users of today need to know in order to visualize real objects in three dimensions.

Claims (8)

상부에 촬영 대상물을 고정 위치시키고 턴테이블 제어 신호에 응답하여 소정 회전 각도로 회전하는 턴 테이블부; 상기 촬영 대상물의 이미지를 촬영하기 위한 카메라부; 카메라 위치 제어 신호에 응답하여 상기 카메라부가 상승 또는 하강하며 상기 대상물을 촬영하도록 상기 카메라부를 지지하고 상기 카메라부가 상승 또는 하강 중 상기 대상물과 상기 카메라부와의 거리를 일정하게 유지시키는 카메라 위치 조절 장치; 상기 턴테이블 부를 회전시키고 상기 카메라부를 이동시키는 적어도 하나의 모터; 그리고A turn table unit fixedly positioning a photographing object on an upper portion and rotating at a predetermined rotational angle in response to a turntable control signal; A camera unit for capturing an image of the photographing object; A camera position adjusting device configured to support the camera unit to raise or lower the camera unit in response to a camera position control signal and to maintain the distance between the object and the camera unit while the camera unit is raised or lowered; At least one motor for rotating the turntable unit and moving the camera unit; And 상기 제어 신호들을 제공하고 상기 카메라부로부터의 이미지들을 이용하여 상기 촬영 대상물의 3차원 이미지를 생성하는 이미지 관리부를 구비한 3차원 이미지 생성 장치.And an image manager which provides the control signals and generates a 3D image of the object to be photographed using the images from the camera unit. 제 1 항에 있어서, 상기 카메라부는 상기 카메라 위치 조절 장치 상에서 상승 또는 하강 중 상기 대상물과의 거리를 일정하게 유지하면서 동시에 상기 카메라 위치 조절 장치에 의해 상기 촬영 대상물의 내부 중심과 일직선이 되는 촬영 각도를 갖는 것을 특징으로 하는 3차원 이미지 생성 장치.The photographing apparatus of claim 1, wherein the camera unit maintains a constant distance from the object during the ascending or descending on the camera position adjusting device while simultaneously adjusting a photographing angle aligned with the inner center of the object to be photographed by the camera position adjusting device. 3D image generating apparatus characterized by having. 제 1 항에 있어서, 상기 이미지 관리부는 상기 디지털 이미지를 저장하는 저장부를 포함하는 것을 특징으로 하는 3차원 이미지 생성 장치.The apparatus of claim 1, wherein the image manager comprises a storage configured to store the digital image. 제2항에 있어서, 상기 디지털 이미지는 상기 턴테이블 제어 신호에 상응하는 상기 턴 테이블부의 회전 각도 정보, 그리고 상기 카메라 위치 제어 신호에 상응하는 상기 카메라부의 이동 위치에 해당하는 각도와 함께 저장됨을 특징으로 하는 3차원 이미지 생성 장치.3. The digital image of claim 2, wherein the digital image is stored together with rotation angle information of the turntable part corresponding to the turntable control signal, and an angle corresponding to a movement position of the camera part corresponding to the camera position control signal. 3D image generating device. 제 1 항에 있어서, 상기 이미지 관리부는 컴퓨터인 것을 특징으로 하는 3차원 이미지 생성 장치.The apparatus of claim 1, wherein the image manager is a computer. 제 1 항에 있어서, 상기 카메라 위치 조절 장치는 "C" 형 암인 것을 특징으로 하는 3차원 이미지 생성 장치.The apparatus of claim 1, wherein the camera position adjusting device is a "C" type arm. 제 1 항에 있어서, 상기 동작 제어 신호들은 상기 디지털 이미지가 생성될 때마다 갱신 되는 것을 특징으로 하는 3차원 이미지 생성 장치.The apparatus of claim 1, wherein the operation control signals are updated every time the digital image is generated. 3차원 이미지 생성 방법을 수행하기 위해 컴퓨터에서 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며, 상기 컴퓨터에 의해 판독될 수 있는 기록 매체에 있어서, 턴테이블부, 카메라부, 카메라 위치 조절 장치 및 적어도 하나의 모터 제어용 동작 제어 신호들을 생성하고,A program of instructions that can be executed in a computer is tangibly embodied to perform a three-dimensional image generating method, the recording medium readable by the computer, comprising: a turntable unit, a camera unit, a camera position adjusting device and at least one Generate motion control signals for motor control of 이미지 관리부에서 상기 카메라부로부터 촬영 대상물에 상응하는 복수의 디지털 이미지를 수신하고,The image manager receives a plurality of digital images corresponding to the object to be photographed from the camera unit, 상기 이미지 관리부내 저장부에서 상기 수신된 복수의 디지털 이미지를 저장하고,Storing the received plurality of digital images in a storage unit in the image manager; 상기 이미지 관리부에서 상기 복수의 디지털 이미지를 이용하여 3차원 이미지를 생성하는 스텝들을 실행하고,Executing the steps of generating a 3D image using the plurality of digital images in the image manager; 여기서 상기 카메라부가 상기 카메라 위치 조절 장치 상에서 상승 또는 하강 할 때 상기 대상물과 상기 카메라부의 거리를 일정하게 유지하면서 동시에 상기 카메라 위치 조절 장치에 의해 상기 촬영 대상물의 내부 중심과 일직선이 되는 촬영 각도를 갖도록 하는 스텝들을 실행하는 것을 특징으로 하는 기록 매체.Here, when the camera unit ascends or descends on the camera position adjusting device, the distance between the object and the camera unit is kept constant and at the same time the camera position adjusting device has a photographing angle that is in line with the inner center of the object to be photographed. A recording medium characterized by executing steps.
KR1020040032291A 2004-05-07 2004-05-07 Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments KR20040049832A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040032291A KR20040049832A (en) 2004-05-07 2004-05-07 Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040032291A KR20040049832A (en) 2004-05-07 2004-05-07 Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020010027296A Division KR20020081661A (en) 2001-04-19 2001-05-18 Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments

Publications (1)

Publication Number Publication Date
KR20040049832A true KR20040049832A (en) 2004-06-12

Family

ID=37344144

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040032291A KR20040049832A (en) 2004-05-07 2004-05-07 Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments

Country Status (1)

Country Link
KR (1) KR20040049832A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100553637B1 (en) * 2005-06-08 2006-02-22 (주)정우엔터프라이즈 3-dimension image generating apparatus
US8159523B2 (en) 2004-11-11 2012-04-17 Electronics And Telecommunications Research Institute Method for capturing convergent-type multi-view image
WO2018110810A1 (en) * 2016-12-16 2018-06-21 (주)태원이노베이션 Vr content creation system
WO2018128424A1 (en) * 2017-01-04 2018-07-12 가이아쓰리디 주식회사 Method for providing three-dimensional geographic information system web service
KR20180080550A (en) * 2017-01-04 2018-07-12 가이아쓰리디 주식회사 Method of providing 3d gis web service

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8159523B2 (en) 2004-11-11 2012-04-17 Electronics And Telecommunications Research Institute Method for capturing convergent-type multi-view image
KR100553637B1 (en) * 2005-06-08 2006-02-22 (주)정우엔터프라이즈 3-dimension image generating apparatus
WO2018110810A1 (en) * 2016-12-16 2018-06-21 (주)태원이노베이션 Vr content creation system
WO2018128424A1 (en) * 2017-01-04 2018-07-12 가이아쓰리디 주식회사 Method for providing three-dimensional geographic information system web service
KR20180080550A (en) * 2017-01-04 2018-07-12 가이아쓰리디 주식회사 Method of providing 3d gis web service
US11127201B2 (en) 2017-01-04 2021-09-21 Gaia3D Inc. Method for providing 3D GIS web services

Similar Documents

Publication Publication Date Title
KR20020081661A (en) Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments
US6525732B1 (en) Network-based viewing of images of three-dimensional objects
Massey et al. Salient stills: Process and practice
JP6884856B2 (en) Streaming of video data based on content
US10650590B1 (en) Method and system for fully immersive virtual reality
EP2143267B1 (en) Displaying and navigating panoramic video browser-based application
EP2279497B1 (en) Swoop navigation
US6330281B1 (en) Model-based view extrapolation for interactive virtual reality systems
US6278466B1 (en) Creating animation from a video
US6633317B2 (en) Image-based walkthrough system and process employing spatial video streaming
CN104735464A (en) Panorama video interactive transmission method, server and client end
US20190297332A1 (en) System and method for supporting video bit stream switching
KR102587230B1 (en) Apparatus and method for generating an image data bitstream
WO2020064381A1 (en) Image synthesis
Zhu et al. Towards peer-assisted rendering in networked virtual environments
EP1097568A2 (en) Creating animation from a video
WO2022001865A1 (en) Depth map and video processing and reconstruction methods and apparatuses, device, and storage medium
US6628282B1 (en) Stateless remote environment navigation
KR20040049832A (en) Method and Apparatus for Visualization and Manipulation of Real 3-D Objects in Networked Environments
CN114513702B (en) Web-based block panoramic video processing method, system and storage medium
JP7447266B2 (en) View encoding and decoding for volumetric image data
Moezzi et al. An emerging Medium: Interactive three-dimensional digital video
Mayhew et al. Three-dimensional visualization of geographical terrain data using temporal parallax difference induction
Yoon et al. Web-based virtual tour using the Tour Into the Picture (TIP) technique
Yoon et al. Real-time interactive virtual tour on the World Wide Web (WWW)

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application