KR101588935B1 - A method using 3d geometry data for virtual reality image presentation and control in 3d space - Google Patents

A method using 3d geometry data for virtual reality image presentation and control in 3d space Download PDF

Info

Publication number
KR101588935B1
KR101588935B1 KR1020130141843A KR20130141843A KR101588935B1 KR 101588935 B1 KR101588935 B1 KR 101588935B1 KR 1020130141843 A KR1020130141843 A KR 1020130141843A KR 20130141843 A KR20130141843 A KR 20130141843A KR 101588935 B1 KR101588935 B1 KR 101588935B1
Authority
KR
South Korea
Prior art keywords
photo
mesh
image file
matched
photo image
Prior art date
Application number
KR1020130141843A
Other languages
Korean (ko)
Other versions
KR20150058733A (en
Inventor
더글라스 웨이-밍 왕
펑-청 라이
Original Assignee
오테리 테크놀러지스 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오테리 테크놀러지스 인코포레이티드 filed Critical 오테리 테크놀러지스 인코포레이티드
Priority to KR1020130141843A priority Critical patent/KR101588935B1/en
Publication of KR20150058733A publication Critical patent/KR20150058733A/en
Application granted granted Critical
Publication of KR101588935B1 publication Critical patent/KR101588935B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Abstract

이 방법은, 포토 이미지들의 각 프레임에 대한 한 세트의 키 기하학 파라미터들과 함께, 상이한 뷰잉 앵글들에서 촬상된 오브젝트의 사진 이미지들의 컬렉션을 이용하여, 오브젝트의 3D 모델링 데이터와 연관지으며, 이는 컴퓨팅 디바이스에서 리얼타임으로 고품질, 포토-리얼리스틱 3D 이미지를 나타내는데 이용될 수 있다. 이는 또한, 자동 또는 수동 포토-촬상 시스템을 이용하는 물리적 어플리케이션을 위한 3D 기하학 데이터를 제공하고, 동일 하드웨어 시스템을 가지고 또는 독립적 3D 기하학 스케닝 시스템으로부터의 동일 오브젝트의 수입된 3D 모델링 데이터는, 수동, 세미-자동 도는 자동 소프트웨어 툴에 의하여, 이들 정보를 파일들의 완전한 패키지로 컴포즈하고, 이는 3D 환경을 가지는 뷰잉 프로그램에 의하여 나타내어진다. 이는 또한, 스테레오스코픽 시스템에 확장될 수 있고, 리얼타임 물리적 조작 능력, 고품질, 리얼리스틱 비주얼 효과를 제공할 수 있다.This method, with a set of key geometry parameters for each frame of photo images, is associated with 3D modeling data of the object, using a collection of photographic images of the object captured at different viewing angles, In real-time, high-quality, photo-realistic 3D images. It also provides 3D geometry data for physical applications using an automatic or manual photo-imaging system and imported 3D modeling data of the same object with the same hardware system or from an independent 3D geometry scanning system, The automatic or automatic software tool compiles this information into a complete package of files, which is represented by a viewing program with a 3D environment. It can also be extended to a stereoscopic system and can provide real-time physical manipulation capabilities, high quality, and realistic visual effects.

Figure R1020130141843
Figure R1020130141843

Description

가상현실 이미지 프레젠테이션 및 3D 공간 내에서의 컨트롤을 위한 3D 기하학 데이터의 이용방법 {A METHOD USING 3D GEOMETRY DATA FOR VIRTUAL REALITY IMAGE PRESENTATION AND CONTROL IN 3D SPACE}TECHNICAL FIELD [0001] The present invention relates to a virtual reality image presentation method and a 3D geometry data presentation method,

본 발명은, 일반적으로 3D 사진 프레젠테이션 분야에 관한 것이다. 가상현실 기술이 고품질 포토 이미지를 나타내는데 이용된다. 이는, 물리적 측정이나 컨트롤을 위한 기하학 데이터를 제공하는데, 3D 모델링 기술의 장점을 취하고, 증강현실 어플리케이션에 이용될 수 있다. 이는 또한, 리얼타임 어플리케이션을 위한 스테레오스코픽(stereoscopic) 디스플레이 시스템에 확장될 수 있다.The present invention relates generally to the field of 3D photographic presentation. Virtual reality technology is used to represent high quality photo images. It provides geometric data for physical measurement or control, takes advantage of 3D modeling techniques, and can be used for augmented reality applications. It can also be extended to a stereoscopic display system for real-time applications.

가상현실은, 상이한 뷰 앵글에서 보이는 입체 오브젝트를 나타내는데에 한 세트의 포토 이미지들을 이용한다. 이는, 프레젠테이션 어플리케이션용 고품질 포토 이미지들을 제공한다. 하지만, 포토 프레임의 수가 제한적이라면, 뷰잉 앵글은 몇몇 포토 촬상 위치의 수에 제한이 되어, 매끄럽지 못한 애니메이션이 되고 만다. 포토 이미지는 또한, 기하학(치수) 데이터를 포함하지 않는다. 포토 이미지들은 프레젠테이션 내에서 정확하게 정렬될 수가 없어서, 측정용 또는 컨트롤용의 물리 관련 어플리케이션 내에서는 이용될 수 없다.The virtual reality uses a set of photo images to represent a stereoscopic object seen at different view angles. This provides high quality photo images for presentation applications. However, if the number of photo frames is limited, the viewing angle is limited to the number of several image pickup positions, resulting in a non-smooth animation. The photo image also does not include geometry (dimension) data. Photo images can not be precisely aligned within a presentation and therefore can not be used in physics-related applications for measurement or control.

3D 모델링은, 입체 오브젝트를 나타내는 다른 어프로치이다. 이는, 기하학 정보를 가져서, 증강현실을 포함하는 물리적 어플리케이션에서 이용될 수 있다. 하지만, 정확한 기하학 데이터를 얻고, 좋은 품질의 프레젠테이션을 위한 텍스쳐 매핑 기술을 나타내기 위해서, 기하학 데이터를 얻고, 방대한 양의 텍스쳐 이미지들을 저장하는 것은 매우 고비용이 된다. 또한, 저성능 개인 컴퓨팅 디바이스를 가지고 리얼타임으로 포토-리얼리스틱 렌더링을 하는 것은 어렵다.3D modeling is another approach that represents a three-dimensional object. It has geometry information and can be used in a physical application that includes an augmented reality. However, it is very expensive to obtain geometry data and store vast amounts of texture images in order to obtain accurate geometry data and to represent texture mapping techniques for good quality presentations. In addition, it is difficult to render photo-realistic rendering in real time with low-performance personal computing devices.

특히 데스크탑 퍼스널 컴퓨터 또는 태블릿 PC와 스마트폰과 같은 모바일 디바이스에 대하여, 상업적 어플리케이션용으로 고품질 이미지의 포토-리얼리스틱 가상현실 프레젠테이션을 생성하고자 하는 니즈가 있고, 물리적 측정 또는 컨트롤용 기하학 데이터의 증강현실 어플리케이션에의 제공에 대하여 기하학 정보를 포함시키고자 하는 니즈가 있다. 고품질 뷰잉 성능과 물리적 정보 양쪽을 제공하기 위해서는, 가상현실과 3D 모델링이라는 상이한 두 가지 어프로치의 장점을 결합하는 것이, 경제적인 솔루션을 제공하고 이용가능한 컴퓨팅 디바이스에 대한 품질 요구조건을 만족시키는 한가지 방법이다. 본 발명은, 이들 목표를 달성하고자 하며, 현존하는 컴퓨팅 디바이스 및 메카니컬 시스템에서 구현될 수 있다.There is a need to create photo-realistic virtual reality presentations of high quality images for commercial applications, particularly for mobile devices such as desktop personal computers or tablet PCs and smart phones, and to provide augmented reality applications of geometric data for physical measurement or control There is a need to include geometry information for provision to Combining the advantages of two different approaches, virtual reality and 3D modeling, is one way to provide an economical solution and meet the quality requirements for available computing devices, in order to provide both high quality viewing performance and physical information . The present invention seeks to achieve these goals and may be implemented in existing computing devices and mechanical systems.

본 발명은, 3D 사진 프레젠테이션 분야에 있어서, 고품질 포토 이미지를 나타내는데 이용되는 가상현실 기술이, 물리적 측정이나 컨트롤을 위한 기하학 데이터를 제공하는데, 3D 모델링 기술의 장점을 취하여, 증강현실 어플리케이션에 이용될 수 있고, 리얼타임 어플리케이션을 위한 스테레오스코픽(stereoscopic) 디스플레이 시스템에 확장될 수 있는 기술을 제공한다.In the field of 3D photographic presentation, the present invention provides the geometric data for physical measurement or control, which takes advantage of the 3D modeling technique and can be used for augmented reality applications And provides a technology that can be extended to a stereoscopic display system for real-time applications.

본 발명의 한가지 측면에 의하면, 한 세트의 포트 프레임들을 한 세트의 기하학 정보와 결합하는 방법이 설명되고, 2D 포토들을 컴퓨팅 디바이스의 뷰잉 윈도우에 있는 3D 공간 내에 나타내는 체계적 방식이 설명된다. 이미지 프레임 관련 파라미터들과 3D 프레젠테이션 공간에서의 입체 오브젝트의 뷰잉 변환 사이의 수학적 관계가 설명된다.In accordance with one aspect of the invention, a method of combining a set of port frames with a set of geometry information is described, and a systematic manner of representing 2D photos in a 3D space in a viewing window of a computing device is described. The mathematical relationship between the image frame related parameters and the viewing transformation of the stereoscopic object in the 3D presentation space is described.

본 발명의 다른 측면에 의하면, 상이한 뷰 앵글로 자동적으로 포토 이미지들을 캡쳐하기 위한, 컴퓨터로 컨트롤되는 메카니컬 시스템으로 이루어지는 시스템이 설명된다. 다양한 광학 스캐닝 하드웨어에 기초하는 3D 기하학 데이터 스캐닝 서브시스템, 또는 실루엣 또는 레퍼런싱 매트 또는 스트라이프에 의하여 3D 기하학 데이터를 추출하기 위한 포토 촬상 카메라가 설명된다.According to another aspect of the present invention, a system comprising a computer-controlled mechanical system for automatically capturing photo images with different view angles is described. A 3D geometry data scanning subsystem based on various optical scanning hardware, or a photo imaging camera for extracting 3D geometry data by a silhouette or referencing mat or stripe is described.

본 발명의 다른 측면에 의하면, 본 발명을 실행하기 위한 워크스테이션, 스토리지 시스템 및 리모트 서버 및 클라이언트 뷰잉 디바이스로 이루어지는 소프트웨어 시스템이 설명된다. 2D 포토 프레임들을 스캔된 3D 기하학 데이터와 컴포즈하여 한 세트의 컨트롤링 파라미터를 수동적으로 또는 자동적으로 생성하는 소프트웨어 프로그램이 설명된다. 이미지 및 기하학 데이터를 로드하고, 포토-리얼리스틱 입체 오브젝트의 뷰잉, 측정 및 컨트롤을 행하는 소프트웨어 프로그램이 설명된다.In accordance with another aspect of the present invention, a software system comprising a workstation, a storage system, a remote server, and a client viewing device for implementing the present invention is described. A software program is described that compares 2D photo frames with scanned 3D geometry data to manually or automatically generate a set of control ring parameters. A software program for loading image and geometry data, and for viewing, measuring, and controlling photo-realistic stereoscopic objects is described.

본 발명의 다른 측면에 의하면, 스테레오스코픽 디스플레이 및 컨트롤 기능에의 하드웨어 및 소프트웨어 시스템의 확장이 설명된다.In accordance with another aspect of the present invention, an extension of hardware and software systems to stereoscopic display and control functions is described.

본 발명은, 3D 사진 프레젠테이션 분야에 있어서, 고품질 포토 이미지를 나타내는데 이용되는 가상현실 기술이, 물리적 측정이나 컨트롤을 위한 기하학 데이터를 제공하는데, 3D 모델링 기술의 장점을 취하여, 증강현실 어플리케이션에 이용될 수 있고, 리얼타임 어플리케이션을 위한 스테레오스코픽(stereoscopic) 디스플레이 시스템에 확장될 수 있는 기술을 제공한다.In the field of 3D photographic presentation, the present invention provides the geometric data for physical measurement or control, which takes advantage of the 3D modeling technique and can be used for augmented reality applications And provides a technology that can be extended to a stereoscopic display system for real-time applications.

본 발명은, 첨부도면을 이용한 하기 설명에 의하여 보다 잘 이해될 수 있지만, 상세한 설명은 시각적 도면에 의하여 제한되지 않는 보다 추상적인 시스템을 커버하는 것으로 이해되어야 한다.
도 1: 3D 모델링 데이터를 가지는 3D 공간 내에 있어서의 가상현실 이미지 프레젠테이션의 예시도,
실제 오브젝트, 뷰 윈도우, 고해상도 이미지 및 3D 메쉬, 그리고 뷰어(관찰자)의 관계를 나타낸다.
도 2: 3D 가상현실 시스템의 구축예시도,
메카니컬 이미지 및 3D 데이터 캡쳐링 시스템, 컴포징 컴퓨터, 데이터 및 프로그램 서버, 그리고 클라이언트 뷰잉 디바이스를 나타낸다.
도 3: 데이터 캡쳐링, 컴포징 및 뷰잉 시스템의 블럭 다이어그램,
데이터를 캡쳐하고, 데이터가 저장되는 프로세스, 컴포징 프로그램 및 뷰잉프로그램을 나타낸다.
도 4: 포토 이미지 캡쳐링 시스템도,
포토 캡쳐링용 메카니컬 시스템 및 생성되는 이미지 파일의 워크플로우(workflow)를 나타낸다.
도 5: 포토 카메라 또는 3D 스캐너에 의한 3D 모델링 데이터 캡쳐링의 설명도,
포토 카메라 또는 3D 스캐너의 메카니컬 시스템 및 생성된 3D 기하학 데이터의 워크플로우를 나타낸다.
도 6: 임베딩(embedding) 3D 데이터 시스템 다이어그램,
이미지들에 대하여 6 자유도 변수를 할당하기 위한 3D 기하학 데이터와 2D 포토들의 프레임별 임베딩을 나타낸다.
자동 프로세스를 행하기 위하여 필요한 참조 프레임들을 나타낸다.
도 7: 스케일링, 트랜슬레이팅 및 로테이팅에 의한 프레임 파라미터의 조정 설명도,
각 프레임에 대한 6 변수들 또는 그 대응되는 데이터를 조정하기 위한 유저 인터페이스(구현된 3개의 주요 조정 프로시져)를 나타낸다.
도 8: 모든 프레임들을 생성하는 자동 파라미터들의 설명도,
각 프레임에 대한 6 변수들 또는 그 대응되는 데이터를 조정하기 위한 유저 인터페이스 (구현된 3개의 주요 조정 프로시져)를 나타낸다.
도 9: 이미징, 3D 데이터 및 프로파일링을 위한 파일시스템의 구성과 뷰잉 프로그램의 플로우챠트,
생성되는 데이터 파일 및 대응되는 이미징 및 기하학 데이터 파일들을 나타낸다.
이미지 및 데이터 로딩을 나타내는 뷰잉 프로그램 플로우챠트를 나타낸다.
도 10: 3D 프레젠테이션 및 컨트롤을 가지는 뷰잉 프로그램 예시도,
엔드유저용 뷰잉 프로그램 기능 및 컨트롤을 나타낸다.
고해상도 프레젠테이션을 위한 데이터 리소스 구조 및 부드러운 동작을 위한 모핑(morphing) 기술을 나타낸다.
도 11: 스테레오스코픽 시스템으로의 확장 설명도,
스테레오스코픽 디스플레이 및 컨트롤을 위한 사양에 따르는 프레임들을 가지는 2 세트의 포토 이미지들을 얻기 위하여 동일 시스템이 이용된다.
BRIEF DESCRIPTION OF THE DRAWINGS While the invention may be better understood by reference to the following description with reference to the accompanying drawings, it is to be understood that the detailed description covers a more abstract system which is not limited by the visual drawings.
Figure 1: An illustration of a virtual reality image presentation in 3D space with 3D modeling data,
It shows the relationship between the real object, the view window, the high-resolution image and the 3D mesh, and the viewer (observer).
2 is a diagram illustrating an example of construction of a 3D virtual reality system,
Mechanical image and 3D data capturing systems, composing computers, data and program servers, and client viewing devices.
Figure 3: Block diagram of data capturing, composing and viewing system,
A process in which data is captured, data is stored, a composition program, and a viewing program.
Figure 4: Photo image capturing system,
A mechanical system for photo capturing, and a workflow of the generated image file.
5 is an explanatory diagram of 3D modeling data capturing by a photo camera or a 3D scanner;
The mechanical system of the photocamera or 3D scanner and the generated 3D geometry data.
Figure 6: Embedding 3D data system diagram,
3D geometry data for assigning 6 degrees of freedom variable to images and frame-by-frame embedding of 2D photos.
It shows the reference frames needed to perform an automatic process.
Fig. 7 is an explanatory diagram of adjustment of frame parameters by scaling, translating and rotating;
A user interface (three main coordination procedures implemented) for adjusting six variables or corresponding data for each frame.
Figure 8: An illustration of automatic parameters generating all frames,
A user interface (three main coordination procedures implemented) for adjusting six variables or corresponding data for each frame.
Figure 9: Flowchart of the configuration and viewing of the file system for imaging, 3D data and profiling,
The generated data file and the corresponding imaging and geometry data files.
Lt; RTI ID = 0.0 > flowchart < / RTI > illustrating image and data loading.
Figure 10: An example of a viewing program with 3D presentation and control,
Represents end user viewing program functions and controls.
A data resource structure for high-resolution presentations, and a morphing technique for smooth operation.
Figure 11: Schematic representation of an extension to a stereoscopic system,
The same system is used to obtain two sets of photo images with frames conforming to the specification for stereoscopic display and control.

본 발명의 특정 실시예에 대하여 상세히 참조한다. 이들 실시예들은, 첨부도면에 예시되어 있다. 본 발명이 이들 특정 실시예를 가지고 설명되지만, 이들 실시예로 본 발명을 제한하고자 하는 의도가 아닌 것으로 이해되어야 한다. 실제로는, 첨부된 청구범위에서 정의되는 본 발명의 사상 및 범위 내에 속하는 대체물, 변형물, 및 등가물을 커버하고자 한다. 다음 상세한 설명, 수많은 특정 세부사항들은, 본 발명의 보다 완전한 이해를 제공하기 위하여 기재되어 있다. 본 발명은, 이들 특정 세부사항의 일부 또는 전부가 없더라도 실시될 수도 있다. 한편, 주지의 프로세스 동작은, 본 발명을 모호하게 하지 않게 하기 위하여 상세히 설명되지 않았다. 그리고, 하기 모든 실시예에 있어서, 동일 또는 유사한 구성요소에는 상이한 실시예 내에서 설명되더라도 동일 부호가 붙여져 있다.Reference will now be made in detail to specific embodiments of the invention. These embodiments are illustrated in the accompanying drawings. While the present invention has been described with reference to these specific embodiments, it should be understood that they are not intended to limit the invention to these embodiments. In fact, it is intended to cover alternatives, modifications, and equivalents falling within the spirit and scope of the present invention as defined by the appended claims. The following detailed description, numerous specific details, are set forth in order to provide a more thorough understanding of the present invention. The present invention may be practiced without some or all of these specific details. On the other hand, well-known process operations have not been described in detail in order to not obscure the present invention. In all the following embodiments, the same or similar components are denoted by the same reference numerals even if they are described in different embodiments.

도 1을 참조하면, 2D 뷰 윈도우(106) 상에 프로젝트된 매핑을 가지는 2D 포토 이미지(108)를 위한 방법(100)이 예시되어 있다.Referring to Figure 1, a method 100 for a 2D photo image 108 having a projected mapping on a 2D view window 106 is illustrated.

입체적인 대상물로서의 입체 오브젝트(102)에 대하여 6 자유도를 가지는 매트릭스 변환을 이용함으로써 2D 포토 이미지(108)는 3D 메쉬(110)와 매칭된다. 여기서, 입체 오브젝트는, 설명을 위하여 머그컵으로 예시되어 있지만, 다른 예시되지 않은 실시예에서는 그 대신에 신발, 전구 등의 다른 입체 오브젝트일 수 있다. 3D 스캐너로부터 생성된 기하학(치수) 파라미터들이 3D 메쉬(110)를 구축할 수 있다.The 2D photo image 108 is matched with the 3D mesh 110 by using a matrix transformation having six degrees of freedom with respect to the three-dimensional object 102 as a three-dimensional object. Here, the three-dimensional object is exemplified as a mug for explanatory purposes, but may be another three-dimensional object such as a shoe, a bulb, etc. instead of the other unillustrated embodiment. The geometry (dimension) parameters generated from the 3D scanner can build the 3D mesh 110.

뷰어(관찰자, 104)는, 이미지들을 인터렉티브하게 보고 컨트롤한다. 2D 포토들은, 각 컬럼(열), 로우(행) 위치 내의 한 세트의 프레임들에 의하여 나타내어지는 스케일(s)로 줌되고, 스크린 좌표(x, y)에 의하여 팬(pan, 팽행이동)되고, ω 앵글, 플러스 (θ, φ) 앵글로 회전될 수 있다.A viewer (observer) 104 interactively views and controls the images. The 2D ports are zoomed in on a scale s indicated by a set of frames within each column row and row position and are paned by screen coordinates x, y , ω angle, plus (θ, φ) angles.

도 2를 참조하면, 구축예(120)는, 메카니컬 컨트롤, 이미지 프로세싱 및 데이터 컴포지션(합성)을 위한 컴퓨터 시스템(126)으로 이루어진다. 포토 캡쳐 시스템(121)은, 컨트롤드 회전 플랫폼(122) 및 카메라(123)들을 가지는 멀티암(124)으로 이루어지고, 입체 오브젝트(102)의 상이한 (θ, φ) 위치에서 포토들을 촬상하도록 컨트롤되는 렌즈 줌 및 틸팅을 가지고 φ 방향으로 움직인다.Referring to Figure 2, an implementation 120 comprises a computer system 126 for mechanical control, image processing, and data composition (synthesis). The photo capturing system 121 comprises a multiarm arm 124 having a controlled rotating platform 122 and cameras 123 and is configured to capture images at different (?,?) Positions of the three- With the zooming and tilting of the lens.

(하드웨어 또는 소프트웨어 향상된) 3D 스캐너 서브시스템(128)은, 3D 메쉬(110)(도 1에 도시)로 구축될 3D 기하학 데이터를 캡쳐링하기 위하여 포함되어 있다. 3D 모델링을 위하여 2D 포토 이미지(108)(도 1에 도시)의 실루엣에 사진 측량법(photogrammetry)이 이용된다면, 상기 스캐너 서브시스템(128)은 카메라들(123)로 대체될 수 있다.(Hardware or software enhanced) 3D scanner subsystem 128 is included for capturing 3D geometry data to be built into the 3D mesh 110 (shown in FIG. 1). If photogrammetry is used for the silhouette of the 2D photo image 108 (shown in FIG. 1) for 3D modeling, the scanner subsystem 128 may be replaced with cameras 123.

컴퓨터 시스템(126)은, 2D 포토 이미지(108)와 3D 메쉬(110)를 컴포즈(합성)하고, 이들을 인터넷망(130)에 링크되어 있는 리모트 서버 및 네트워크 스토리지 시스템(134)에 인터넷망(130)을 통하여 보낸다.The computer system 126 compiles the 2D photo image 108 and the 3D mesh 110 and transmits them to the remote server and the network storage system 134 linked to the Internet network 130 via the Internet network 130).

클라이언트 디바이스(132)는, 뷰잉 및 컨트롤 소프트웨어를 구비하고, 인터넷에 접속되어 있는 PC, 태블릿 PC, 스마트폰 등과 같은 것으로서, 2D 포토 이미지(108) 및 3D 메쉬(110)를 인터렉티브하게 뷰 및 컨트롤하는데 이용된다.Client device 132 includes viewing and control software and interactively views and controls 2D photo image 108 and 3D mesh 110, such as a PC, tablet PC, smart phone, etc., .

도 3을 참조하면, 어떻게 데이터가 캡쳐되고, 처리되고, 저장되고, 그 후 클라이언트 측에서 뷰어에 의하여 소비되는지를, 블럭 다이어그램(140)이 보여준다.Referring to FIG. 3, a block diagram 140 shows how data is captured, processed, stored, and then consumed by the viewer on the client side.

블럭 142에서, 각 뷰 위치에서 프레임별로 2D 포토 이미지들이 캡쳐되고, 이들은 필요하다면 이미지 배경을 제거하기 위하여 전처리되거나, 또는 계층적 픽셀 해상도, 투명도 정보를 가지는 JPEG 포맷으로 압축되고, 그 후 나아가서 블럭 144에 보인 바와 같이, 2D 포토 이미지 파일 내에 저장된다.At block 142, 2D photo images are captured per frame at each view location, which are preprocessed to remove the image background if necessary, or compressed into a JPEG format with hierarchical pixel resolution, transparency information, Is stored in the 2D photo image file, as shown in Fig.

블럭 146에서. 3D 기하학 데이터가, 예컨대 (단, 이에 한하지 않음) 3D 모델링 데이터 스캔에 의하여, 상이한 뷰 위치들에서 스캔된다. 하지만, 신뢰할 수 있는 데이터를 얻기 위하여, 필터링 프로세스를 거친 후에, 이들은 더욱 3D 메쉬로 알려진 블럭 148에 나타낸 바와 같은 입체 오브젝트 파일과 같은 글로벌 좌표 시스템을 가지는 한 세트의 메쉬로 컴포즈된다.At block 146. 3D geometry data is scanned at different view positions, for example, but not exclusively, by 3D modeling data scans. However, in order to obtain reliable data, after a filtering process, they are further compiled into a set of meshes having a global coordinate system, such as a solid object file as shown at block 148, known as a 3D mesh.

블럭 150에서, 컴포징 시스템이 2D 포토 이미지 파일 및 입체 오브젝트 파일을 프로세스하여, 고품질 이미지의 포토-리얼리스틱 가상현실 프레젠테이션 및 물리적 측정 또는 컨트롤용 기하학 데이터의 증강현실 어플리케이션에의 제공을 위하여, 3D 메쉬의 3D 기하학 파라미터들이 대응되는 2D 이미지 파일 내의 2D 포토 이미지들의 2D 포토 이미지 파라미터들에 따르게 하고, 그 후 2D 포토 이미지 파일이 3D 메쉬와 매칭이 이루어지게 할 수 있다. 컴포즈된 결과는, 블럭 152에 나타낸 바와 같은 어플리케이션 및 데이터 폴더와 같은 파일구조에 저장되는데, 이는 상이한 해상도 레벨의 포토 이미지들, 입체 오브젝트 파일 및 대응하는 파라미터를 저장하는 프로파일을, 예컨대 (단, 이에 한하지 않음) xml 파일 구조로 저장하기 위함이다.At block 150, the compositing system processes the 2D photo image file and the stereoscopic object file to provide photo-realistic virtual reality presentation of high quality images and geometric data for physical measurement or control to the augmented reality application, To conform to the 2D photo image parameters of the 2D photo images in the corresponding 2D image file, and then cause the 2D photo image file to be matched with the 3D mesh. The resulting results are stored in a file structure, such as an application and a data folder, as shown in block 152, which stores a profile that stores photo images, stereoscopic object files, and corresponding parameters at different resolution levels, But not limited to) an xml file structure.

블럭 154에 나타낸 바와 같이, 뷰잉 프로그램은, 매칭되는 파라미터들을 디코딩하여, 엔드유저와 인터랙티브하게 고품질로 포토 이미지를 나타내기 위하여 클라이언트 디바이스에서 실행되고, 증강현실과 같은 특정 어플리케이션을 위한 3D 메쉬의 컨트롤 및 측정을 추가적으로 제공할 수도 있다.As shown in block 154, the viewing program is executed on the client device to decode the matching parameters, interactively with the end user to represent the photo image with high quality, and to control the 3D mesh for a particular application, such as augmented reality, Additional measurements may be provided.

도 4를 참조하면, 2D 포토 캡쳐링 시스템(160)이, 컴퓨터 컨트롤드 회전기구(162)에 위치된 입체 오브젝트의 포토 이미지들을 촬상한다.Referring to FIG. 4, the 2D photo capturing system 160 images the photo images of the three-dimensional object located in the computer-controlled rotation mechanism 162.

입체 오브젝트는, 고정된 회전축을 가지고, 입체 오브젝트 주변에서 수평으로 및 수직으로 적어도 한대의 카메라가 움직이면서, 상이한 뷰 앵들들로부터 보여지게 된다. 본 실시예에 있어서, 입체 오브젝트는, 컴퓨터 컨트롤드 회전기구(162)의 예컨대 0°, 45°, 90°, 135°, 180°, 225°, 270° 및 315°의 회전을 통하여, 예시적으로 상이한 뷰 앵글들, 예컨대 바닥측, 하방우측, 우측, 상방우측 및 상측에서, 그리고 입체 오브젝트에 대한 8가지 상이한 수평 오리엔테이션으로 5대의 상이한 포토 카메라들에 의하여 가능한 가장 높은 해상도로 포토들이 촬상되어, 40개의 상이한 이미지 파일들을 형성하고, 이미지 파일들은 특정 네이밍 컨벤션(164)을 가지고 프레임별로 저장된다. 하지만, 예시되지 않은 다른 실시예에 있어서는, 입체 오브젝트에 대하여 더 적거나 더 많은 포토들을 촬상하는 것도 가능하다.The three-dimensional object has a fixed rotation axis, and at least one camera moves horizontally and vertically around the three-dimensional object, and is viewed from different view-ins. In this embodiment, the three-dimensional object is rotated by the rotation of the computer-controlled rotating mechanism 162, for example, at 0 属, 45 属, 90 属, 135 属, 180 属, 225 属, 270 属, and 315 属, The pictures are picked up at the highest resolution possible by the five different photo cameras with different view angles, e.g., bottom side, bottom right side, right side, top right and top side, and eight different horizontal orientations for the three- 40 different image files, and the image files are stored frame by frame with a specific naming convention (164). However, in another embodiment, which is not illustrated, it is also possible to capture fewer or more photos for a three-dimensional object.

이미지 파일들은, 장래의 컴포징 또는 뷰잉 프로세스를 위하여, 원하지 않는 배경 이미지들을 제거하도록 전처리되거나, 투명도 정보가 추가되거나, 계층적 저해상도로 전환되고, 단일 루트 디렉토리 하에 저장될 수도 있음을 유의하여야 한다.It should be noted that the image files may be preprocessed to remove unwanted background images, added transparency information, switched to a hierarchical lower resolution, and stored under a single root directory, for future composing or viewing processes.

도 5를 참조하면, 3D 기하학 데이터 캡쳐링 시스템(180)이 입체 오브젝트의 기하학(치수) 데이터를 획득하는데 이용된다. 이는 물리적으로 도 4에서 설명된 바와 같은 포토 캡쳐링 시스템에 대하여 독립 시스템이거나, 서브시스템일 수도 있다.Referring to FIG. 5, a 3D geometry data capturing system 180 is used to obtain the geometry (dimension) data of the stereoscopic object. This may be an independent system, or a subsystem, for the photographic capturing system physically as described in FIG.

3D 기하학 데이터 캡쳐링 시스템(180)은, 각 오브젝트 기하학의 깊이 데이터(182)를 획득함으로써, 또는, 단순히 2D 포토 이미지(108)의 실루엣을 촬상함으로써, 가시적 특정 파장의 광학 카메라, 레이저빔, 또는 비가시적 적외선 및 반사 캡쳐링 시스템을 이용한다. The 3D geometry data capturing system 180 may be implemented by obtaining depth data 182 of each object geometry or simply by imaging the silhouette of the 2D photo image 108 to obtain an optical camera, Invisible infrared and reflective capturing systems.

3D 기하학 데이터는, 신뢰할 수 없는 데이터를 필터하는 컴퓨팅 루틴(184)과 같이, 신뢰할 수 없는 노이즈 데이터가 먼저 제거된 후에, 측정에 의하여 프로세스되며, 그 후 통계적으로 기하학 데이터를 계산하는 루틴(186)과 같이, 3D 글로벌 좌표 시스템 내의 최종 노드 위치로서 통계학적으로 보다 정확한 데이터를 계산한다.3D geometry data is processed by measurement after unreliable noise data is first removed, such as computing routine 184, which filters unreliable data, and then statistically computes geometry data 186, And calculates the statistically more accurate data as the end node position in the 3D global coordinate system, as shown in FIG.

기하학 데이터(186)는, 비교되어, 글로벌 데이터셋(188)에 합병되고, 저장되어 스탠다드 입체 오브젝트 파일(190) 내에 축적된다.The geometry data 186 are compared and merged into a global data set 188, stored and stored in the standard three-dimensional object file 190.

입체 오브젝트에 대한 모든 필요한 기하학 데이터 및 파라미터들을 얻기 위한 수많은 주요 위치로부터의 반복된 측정 및 데이터 연산에 의하여, 복수개의 3D 기하학 파라미터들로부터 최종 3D 메쉬(192)가 구축될 수 있다.The final 3D mesh 192 can be constructed from a plurality of 3D geometry parameters by repeated measurement and data operations from a number of key locations to obtain all the necessary geometry data and parameters for the 3D object.

도 6을 참조하면, 파라미터 매칭 시스템(200)이 2D 포토들을 3D 기하학 데이터와 매칭하기 위하여 생성되어 있다.Referring to FIG. 6, the parameter matching system 200 is created to match 2D photos with 3D geometry data.

포토 이미지들은 각 뷰 앵글로 각 포토 프레임들(202) 내에 저장되므로, 3D 메쉬(204)의 3D 기하학 파라미터들은 대응되는 2D 포토 이미지들/프레임들(202)의 2D 포토 이미지 파라미터들과 매치시켜서, 동일 프레젠테이션 공간에서 보이도록 해야 한다.Since the photo images are stored in respective photo frames 202 with respective view angles, the 3D geometry parameters of the 3D mesh 204 are matched with the 2D photo image parameters of the corresponding 2D photo images / frames 202, Should be visible in the same presentation space.

어떠한 입체 오브젝트도 6 자유도로 표현될 수 있음이 알려져 있다. 포토 이미지와 3D 기하학 데이터 사이의 상관관계를 나타내기 위하여, 3D 공간 (x, y, z)에서 레퍼런스 포인트 및 오브젝트의 오리엔테이션 앵글 (θ, φ, ω)을 선택할 수 있다.It is known that any three-dimensional object can be represented in six degrees of freedom. To represent the correlation between the photo image and the 3D geometry data, the orientation angle (?,?,?) Of the reference point and the object in the 3D space (x, y, z) can be selected.

따라서, 각 포토 프레임(202)에 대하여, 장래의 프레젠테이션 및 컨트롤 기능을 위하여, 한 세트의 6 파라미터들을 할당하고, 이들을 함께 묶을 필요가 있다. 본 실시예에 있어서, 예컨대 (단, 이에 한하지 않음), 포토 프레임(202)은, 프레임i,j.jpg로 네이밍되어, M개의 컬럼(열) 및 N개의 로우(행)로 이루어지고, 그 레퍼런스 포인트(206)는 (xi,j, yi,j, zi,j)로 나타내어질 수 있다. 결국, 3D 기하학 데이터의 6 파라미터들은, (x0,0, y0,0, z0,0, θ0,0, φ0,0, ω0,0)로 나타내어질 수 있고, 포토 프레임(202)들의 6 파라미터들은 (xi,j, yi,j, zi,j, θi,j, φi,j, ωi,j) (여기서, i=1, 2...M, 및 J=1, 2...N)로 나타내어질 수 있다.Thus, for each photo frame 202, it is necessary to allocate a set of six parameters and bundle them together for future presentation and control functions. In this embodiment, for example, but not exclusively, the photo frame 202 is represented by a frame i, j.jpg and consists of M columns (columns) and N rows (rows) The reference point 206 may be represented by (xi, j, yi, j, zi, j). As a result, the six parameters of the 3D geometry data can be represented by (x0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0), and the six parameters of the photo frames 202 (where i = 1, 2, ..., M, and J = 1, 2, ..., N), where x i, j, y i, j, z i, j, θ i, j, φ i, j, .

도 7을 참조하면, 이들 파라미터들을 각 포토 프레임들과 매칭시키기 위하여, 파라미터 매칭 소프트웨어 프로그램(220)이 이용될 수 있다.Referring to FIG. 7, a parameter matching software program 220 may be used to match these parameters with each of the photo frames.

매칭 소프트웨어 프로그램(220)은, 오리지널 2D 포토 이미지들과 3D 메쉬(226)의 3D 기하학 파라미터들을 로드하고, 컴포즈된 데이터를 저장하기 위한 기능(222)들을 가진다.The matching software program 220 has functions 222 for loading original 2D photo images and 3D geometry parameters of the 3D mesh 226 and for storing the compassed data.

매칭 소프트웨어 프로그램(220)은, 프레임 셀렉션(230) 내에 나타낸 바와 같이 2D 이미지 프레임 중의 어느 하나 속의 포토 이미지(224)와 3D 메쉬(226)의 양측을 다 나타냄으로써, 유저와 인터랙트하도록 디자인되어 있다.The matching software program 220 is designed to interact with the user by displaying both the photo image 224 and either side of the 3D mesh 226 in any of the 2D image frames as shown in the frame selection 230. [

컴퓨터 스크린 상의 마우스 커서는, 오직 2 자유도로만 움직일 수 있으므로, 유저는, 파라미터 매칭을 수동적으로 할 수 있다. 이는, θ 및/또는 φ의 값을 컨트롤하기 위하여 축의 선단을 움직임으로써, 그 후 ω의 값을 컨트롤하기 위하여 입체 오브젝트 바디 축(236)을 회전시킴으로써, 입체 오브젝트 바디 축(236)을 컨트롤할 수 있다.The mouse cursor on the computer screen can only be moved in two degrees of freedom, so the user can do parameter matching manually. This allows the stereoscopic object body axis 236 to be controlled by rotating the stereoscopic object body axis 236 to control the value of? By moving the tip of the axis to control the values of? And / or? have.

레퍼런스 포인트(234)는 그 후, x, y 값을 컨트롤하기 위하여 스크린 상에서 팬(pan)될 수 있고, 3D 메쉬의 사이즈를 컨트롤하기 위하여 마우스 휠을 사용할 수 있으며, 이는 오브젝트의 스케일 및 결국 프로젝트된 z 위치와 등가이다. 본 실시예에 있어서, 2D 이미지 프레임(224)을 3D 메쉬(226)에 수동으로 매칭시키기 위하여, 6 파라미터(x, y, z, θ, φ, ω)들이 모두 조정되고 있음을 유의하여야 한다. 하지만, 예시되지 않은 다른 실시예에 있어서는, 만일 필요치 않다면, 6 파라미터들 모두를 조정하지 않는 것도 가능함은 물론이다.The reference point 234 can then be panned on the screen to control the x, y values and the mouse wheel can be used to control the size of the 3D mesh, z position. It should be noted that, in this embodiment, to manually match the 2D image frame 224 to the 3D mesh 226, all six parameters (x, y, z,?,?,?) Are adjusted. However, in other embodiments not illustrated, it is of course possible not to adjust all six parameters, if not necessary.

반면에, 파라미터들을 매칭하는 것을 돕기 위한 오토 컴퓨팅 매칭 프로세스(228)가 더욱 제공되고, 이는 파라미터들을 프로그램적으로 단일 프레임에 대하여, 또는 복수의 프레임들에 대하여, 더욱 매칭시킬 수 있으며, 이에 대해서는 도 8에서 설명된다.On the other hand, there is further provided an autocomputing matching process 228 to assist in matching the parameters, which may further programmatically match the parameters for a single frame or for a plurality of frames, 8.

수동 매칭 프로세스(232)는, 캡쳐링 프로세스를 함께 행하고 있는 동안에, 오토 컴퓨팅 매칭 프로세스(228)를 이용함으로써, 직접 연산에 의하여 더욱 대체될 수 있음에 유의하여야 한다. 2D 포토 이미지 파일을 3D 메쉬와 자동으로 매칭하는 것은, 3D 기하학 스캔 메카니즘이 2D 포토 이미지들과 3D 메쉬 사이의 파라미터의 관계를 제공할 수 있는 동안에, 2D 포토 이미지들의 파라미터들을 3D 메쉬의 3D 기하학 파라미터들과 프로그램적으로 자동 매칭하는 것이다.It should be noted that the manual matching process 232 may be further substituted by direct computation by using the autocomputing matching process 228 while performing the capturing process together. Automatically matching a 2D photo image file with a 3D mesh means that while the 3D geometry scan mechanism can provide a relationship of parameters between the 2D photo images and the 3D mesh, the parameters of the 2D photo images are converted to 3D geometry parameters To automatically match them programmatically.

도 8을 참조하면, 자동으로 각 포토 프레임에서의 모든 뷰잉 앵글에 대하여 파라미터 매칭을 생성하기 위하여, 연산 스킴(scheme)(240)이 개발되어 있다.Referring to FIG. 8, an operation scheme 240 has been developed to automatically generate a parameter match for all viewing angles in each photo frame.

쿼터니언(Quaternion, 4원수) 기법을 적용함으로써, 레퍼런스 포인트 및 바디 축을 나타내는 어떠한 3D 벡터 v도, 회전 단위 축 n을 중심으로 회전 앵글 θ로 회전한 후에 3D 공간 내의 새로운 벡터 r를 획득하도록 계산될 수 있다.By applying the quaternion (quaternion) technique, any 3D vector v representing the reference point and body axis can be computed to obtain a new vector r in 3D space after rotating at the rotation angle? About the rotation unit axis n have.

따라서, 회전 단위 축 n을 연산하기 위하여 파라미터들을 이용함으로써, 기지(旣知)의 회전 앵글을 가지는 동일 로우의 어떠한 2개의 프레임도 이용할 수 있다. 일단 알려지면, 동일 로우(242)의 각 프레임들의 어떠한 다른 레퍼런스 포인트와 바디 축도 연산될 수 있고, 따라서 자동으로 파라미터들을 매칭시킨다.Thus, by using the parameters to compute the rotation unit axis n, any two frames of the same row with known rotation angles can be used. Once known, any other reference point and body axis of each frame of the same row 242 may be computed, thus automatically matching the parameters.

상이한 로우(252)의 단일 컬럼(254)에서의 이미지 프레임들에 대하여, 동일 연산이 수직방향으로 이루어질 수 있다. 동일 프로세스를 반복함으로써, 모든 프레임들이 계산될 수 있다.For image frames in a single column 254 of different rows 252, the same operation can be made in the vertical direction. By repeating the same process, all frames can be calculated.

이론적으로, 수평 및 수직방향의 회전 단위 축을 연산하기 위하여, 단지 3개의 수동적으로 매칭된 프레임들이 필요할 뿐이어서, 매칭 파라미터들을 찾아내기 위한 엄청난 수고를 덜 수 있다. 하지만, 실제 실행에 있어서는, 카메라의 회전 궤적은 완벽한 원형 패스에 위치되지 않을 수 있어서, 틸팅 앵글 및 줌 렌즈가 포토 이미지들을 비선형적 방식으로 프로젝트할 수 있으므로, 보다 신뢰가능한 데이터를 획득하기 위해서는, 5개 또는 7개 정도의 보다 많은 수동적으로 매칭된 프레임들이 필요할 수 있다. 매칭 연산을 검토하기 위한 시각적 조정이 또한, 미세 조정을 행하기 위하여 제공된다.In theory, only three passively matched frames are needed to compute the horizontal and vertical rotation unit axes, thus avoiding the tremendous effort to find the matching parameters. However, in actual practice, the camera trajectory may not be located in a perfect circular path, so that tilting angles and zoom lenses can project photo images in a non-linear manner, so to obtain more reliable data, More or fewer passively matched frames may be needed. A visual adjustment for reviewing the matching operation is also provided for fine adjustment.

도 9를 참조하면, 그 클라이언트 디바이스에서 고해상도 포토 이미지들 플러스 3D 기하학 데이터를 보도록 하는 뷰잉 메카니즘을 엔드유저에게 제공하기 위하여, 인터넷 서버(260)에 파일 시스템이 구축되어 있다.Referring to FIG. 9, a file system is built in the Internet server 260 in order to provide the end user with a viewing mechanism for viewing high resolution photo images plus 3D geometry data at the client device.

뷰어 프로그램들, 리얼타임의 고해상도 이미지 데이터, 기하학 데이터, 보조 데이터 및 프레젠테이션 프로파일은 모두, 크로스 도메인 액세스 문제가 없는 것이 확실한 루트 디렉토리(262) 하에 저장된다.Viewer programs, real-time high-resolution image data, geometry data, ancillary data, and presentation profiles are all stored under root directory 262 that is free of cross-domain access problems.

엔드유저에 의하여 억세스되는 뷰어 프로그램은, 블럭 264에 나타낸 바와 같이, 모든 필요한 프로그램 루틴들과, 여기에 네이밍된 뷰어를 로드하고, 그 후 블럭 266에 나타낸 바와 같이, 자동으로 3D 메시의 리얼타임 이미지 및 기하학 데이터를 획득한다. 다음으로, 블럭 269에 나타낸 바와 같이, 고해상도 이미지들을 획득하기 위하여, 블럭 268에 나타낸 바와 같이, 고해상도 이미지 및 3D 메쉬를 보이기 위한 인터렉티브 조작이 가능하다. 게다가, 블럭 272에 나타낸 바와 같이 필요한 3D 측정을 위한 증강현실 어플리케이션이나, 블럭 274에 나타낸 바와 같이 3D 컨트롤 기능에 따라서는, 블럭 270에 나타낸 바와 같은 기능적 조작이 더욱 가능하다.The viewer program accessed by the end user loads all necessary program routines and the viewer named herein, as shown in block 264, and then automatically loads the real-time image of the 3D mesh, as shown in block 266 And geometry data. Next, in order to obtain high resolution images, as shown in block 269, an interactive operation is possible to show high resolution images and 3D meshes, as shown in block 268. [ In addition, depending on the augmented reality application for the required 3D measurement, as shown in block 272, or the 3D control function as shown in block 274, the functional operation as shown in block 270 is further possible.

프로그램은, OpenGL 또는 WebGL, 기타 다른 3D 환경 등의 3D 오퍼레이팅 환경을 가지는 클라이언트 디바이스 상에서 실행될 수 있다.The program may be executed on a client device having a 3D operating environment, such as OpenGL or WebGL, or any other 3D environment.

도 10을 참조하면, 도 9에서 설명된 기능들을 실행하기 위하여, 클라이언트측 뷰잉 프로그램(280)이 개발되어 있다.Referring to FIG. 10, in order to execute the functions described in FIG. 9, a client-side viewing program 280 has been developed.

뷰잉 프로그램(280)은, 데스크탑 컴퓨터, 모바일 디바이스 또는 조작 윈도우(282)를 나타낼 수 있는 임의의 디바이스와 같은 컴퓨터 시스템(126)(도 2에 나타냄)을 위한 윈도우 플랫폼용 WebGL-enabled browser-based HTML5 뷰잉 프로그램, 또는 OpenGL ES enabled 모바일 디바이스에 있는 네이티브 프로그램일 수 있다.The viewing program 280 may include a WebGL-enabled browser-based HTML5 for Windows platform for a computer system 126 (shown in Figure 2), such as a desktop computer, a mobile device, or any device capable of representing an operation window 282 A viewing program, or a native program on an OpenGL ES enabled mobile device.

프로그램은, 인터렉티브하게 포토 이미지를 볼 때의 줌, 팬(pan) 및 회전기능을 수행하기 위한 조작버튼(286)을 가지고, 상이한 투명도로, 고품질로 포토 이미지를 보거나 3D 메쉬를 보거나, 이들 둘 다 보기 위한 슬라이더 컨트롤러를 가진다.The program has operation buttons 286 for performing zoom, pan and rotation functions when viewing a photo image interactively, to view the photo image with high transparency, high quality, or 3D mesh, or both It has a slider controller for viewing.

3D 공간 내의 2D 포토 이미지들의 매끄러운 정도를 나타내기 위하여, 앵글 0<Δθ<θ 증분 및/또는 앵글 0<Δφ<φ 증분을 변화시킴으로써, 2D 포토 이미지(들)(284)의 앵귤러 모핑을 더욱 수행할 수 있다.To further illustrate the smoothness of the 2D photo images within the 3D space, angular morphing of the 2D photo image (s) 284 is further performed by varying the angle 0 < [theta] < theta increment and / or the angle 0 & can do.

어플리케이션에 따라서는, 측정 및 어플리케이션 컨트롤, 기타 필요한 임의의 기능을 수행하기 위한 기능버튼(288)을 더욱 구비한다.Depending on the application, a function button 288 for performing measurement, application control, and other necessary functions is further provided.

도 11을 참조하면, 인간의 눈의 인지로 인한, 보다 리얼한 감각으로 오브젝트를 보이기 위하여, 시스템이 스테레오스코픽(stereoscopic) 시스템(300)으로 더욱 확장될 수 있다.Referring to FIG. 11, the system can be further extended to a stereoscopic system 300 to show objects in a more realistic sense due to the perception of the human eye.

뷰잉 윈도우는, 좌측 눈(302) 및 우측 눈(304)에 각각 이미지들을 제공하는, 좌측 스테레오그램(306) 및 우측 스테레오그램(308)의 양쪽을 위한 2개의 독립적인 것들이다.The viewing window is two independent ones for both the left stereo gram 306 and the right stereo gram 308, which provide images to the left eye 302 and the right eye 304, respectively.

두 세트의 이미지들 및 매칭 파라미터들은, 동일 오브젝트(310)에 대한 뷰 앵글 차이를 고려하여 획득된다. 좌측 것(312) 및 우측 것(314)의 세트가, 독립적으로 존재한다. 본 실시예에 있어서는, 예컨대 (단, 이에 한하지 않음), 좌측 것(312) 및 우측 것(314)이 각각, 프레임Li,j.jpg 및 프레임Ri,j.jpg로 네이밍될 수 있고, 그 레퍼런스 포인트(316 및 318)가 각각, (xi,j, yi,j, zi,j)R 및 (xi,j, yi,j, zi,j)L로 나타내어질 수 있다. 결국, 좌측 것(312) 및 우측 것(314)에 대한 3D 기하학 데이터의 6 파라미터들은 각각, (x0,0, y0,0, z0,0, θ0,0, φ0,0, ω0,0)R 및 (x0,0, y0,0, z0,0, θ0,0, φ0,0, ω0,0)L로 나타내어질 수 있고, 좌측 것(312) 및 우측 것(314)의 6 파라미터들이 각각, (xi,j, yi,j, zi,j, θi,j, φi,j, ωi,j)R 및 (xi,j, yi,j, zi,j, θi,j, φi,j, ωi,j)L (여기서, i=1, 2...M, 및 J=1, 2...N)로 나타내어질 수 있다.The two sets of images and matching parameters are obtained in consideration of the view angle difference for the same object 310. The set of left one 312 and right one 314 are independently present. In this embodiment, the left one 312 and the right one 314 may be named as frame Li, j.jpg and frame Ri, j.jpg, respectively (but not exclusively) Reference points 316 and 318 may be represented by (xi, j, yi, j, zi, j) R and (xi, j, yi, j, zi, j) L, respectively. As a result, the six parameters of the 3D geometry data for the left one 312 and the right one 314 are (x0,0, y0,0, z0,0, 0,0,0,0,0,0,0,0,0,0,0) And the six parameters of the left one 312 and the right one 314 may be represented by (x0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0) L, j, yi, j, zi, j,? i, j,? i, j, j) L (where i = 1, 2 ... M, and J = 1, 2 ... N).

하지만, 이미지들의 동일 로우에 대한 상이한 컬럼 인덱스를 가지는 2D 포토들의 단일 세트를 이용하는 것도 또한 가능하다. 이는, 뷰잉 앵글 및 거리 시뮬레이션에 있어서 매우 정확하지는 않겠으나, 평균적 뷰어들에 대하여 충분한 깊이감을 제공할 것이다.However, it is also possible to use a single set of 2D photos with different column indices for the same row of images. This is not very accurate in viewing angle and distance simulations, but it will provide a sufficient depth sense for average viewers.

뷰 윈도우는, TV, 무비 스크린, 또는 아예 뷰 안경을 가지는 신규 웨어러블 기기에도 적용될 수 있다.The view window can also be applied to a new wearable device having a TV, movie screen, or even view glasses.

비록 본 발명의 특정 실시예가 설명되었지만, 설명된 실시예와 등가인 다른 실시예가 있을 것이라는 점을, 이 기술분야의 통상의 전문가는 이해할 것이다. 따라서, 본 발명은 예시된 특정 실시예에 의하여 한정되는 것이 아니고, 오직 첨부된 청구항의 범위에 의할 것임은 당연하다.Although specific embodiments of the invention have been described, it will be appreciated by those of ordinary skill in the art that there will be alternative embodiments that are equivalent to the described embodiments. Accordingly, it is to be understood that the invention is not to be limited by the specific embodiments shown, but is only intended to fall within the scope of the appended claims.

본 발명은, 일반적으로 3D 사진 프레젠테이션 분야에 이용될 수 있다.The present invention is generally applicable to the 3D photo presentation field.

100: 방법, 102: 입체 오브젝트, 104: 뷰어, 106: 2D 뷰 윈도우, 108: 2D 포토 이미지, 110: 3D 메쉬, 120: 구축예, 140: 블럭 다이어그램, 160: 2D 포토 캡쳐링 시스템, 180: 3D 기하학 데이터 캡쳐링 시스템, 200: 파라미터 매칭 시스템, 220: 파라미터 매칭 소프트웨어 프로그램, 240: 연산 스킴, 260: 인터넷 서버, 280: 클라이언트측 뷰잉 프로그램, 300: 스테레오스코픽 시스템The present invention relates to a 2D photo capturing system and a 2D photo capturing system using the same. The present invention relates to a 2D photo capturing system, and more particularly, A 3D geometry data capturing system 200 a parameter matching system 220 a parameter matching software program 240 an operation scheme 260 an internet server 280 a client side viewing program 300 a stereoscopic system

Claims (10)

입체 오브젝트에 대한 6 자유도를 가지는 매트릭스 변환을 이용함으로써 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법으로서,
카메라에 의해 캡쳐되는 가능한 최상의 이미지 품질의 포토-리얼리스틱 가상현실 프레젠테이션을 제공하기 위하여, 그리고 물리적 측정용 기하학 데이터를 제공하거나 증강현실 어플리케이션용 컨트롤을 제공하기 위하여, 3D 메쉬의 3D 기하학 파라미터들이 2D 이미지 파일의 2D 포토 이미지 파라미터들과 대응되도록 구성됨
을 특징으로 하는 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법.
A method of matching a 2D photo image file to a 3D mesh by using a matrix transformation having six degrees of freedom for a three-dimensional object,
In order to provide a photo-realistic virtual reality presentation of the best possible image quality captured by the camera and to provide geometric data for physical measurements or to provide control for an augmented reality application, It is configured to correspond to the 2D photo image parameters of the file.
Wherein the 2D photo image file is matched to a 3D mesh.
청구항 1에 있어서,
상기 2D 포토 이미지 파일 내의 2D 포토 이미지들이,
(1) 그 이미지 배경을 제거하는 이미지 처리;
(2) 계층적 픽셀 해상도, 투명도 정보를 가지는 JPEG 포맷으로 압축되는 이미지 처리; 및
(3) 상기한 이미지 처리가 수행되거나 수행되지 않고, 상기 2D 포토 이미지 파일 내에 저장되는 처리
중의 적어도 하나로 선택적으로 처리되는 것
을 특징으로 하는 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법.
The method according to claim 1,
The 2D photo images in the 2D photo image file,
(1) image processing to remove that image background;
(2) image processing in a JPEG format having hierarchical pixel resolution and transparency information; And
(3) the processing to be performed in the 2D photo image file,
Lt; RTI ID = 0.0 &gt;
Wherein the 2D photo image file is matched to a 3D mesh.
청구항 1에 있어서,
3D 기하학 파라미터들이, 상기 2D 포토 이미지 파일 내의 2D 포토 이미지들의 실루엣 또는 입체 오브젝트의 각 오브젝트 기하학의 깊이 데이터를 획득함으로써, 특정 파장의 가시적 광학 카메라, 레이저 빔 또는 비가시적 적외선 및 반사 캡쳐링 시스템으로부터 생성될 수 있음
을 특징으로 하는 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법.
The method according to claim 1,
The 3D geometry parameters are generated from a visible optical camera, laser beam or invisible infrared and reflective capturing system of a specific wavelength by obtaining the depth data of each object geometry of the silhouette or 2D object of the 2D photo images in the 2D photo image file Can be
Wherein the 2D photo image file is matched to a 3D mesh.
청구항 1에 있어서,
상기 입체 오브젝트에 대한 6 자유도를 가지는 파라미터 매칭은, 수동으로 또는 자동으로 행하여지는 것
을 특징으로 하는 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법.
The method according to claim 1,
Parameter matching having six degrees of freedom for the three-dimensional object is performed manually or automatically
Wherein the 2D photo image file is matched to a 3D mesh.
청구항 4에 있어서,
수동으로 행하여지는 것은
(1) 수평각도 θ의 값을 컨트롤하기 위하여 상기 입체 오브젝트의 축의 선단을 수동으로 움직이는 것;
(2) 수직각도 φ의 값을 컨트롤하기 위하여 상기 입체 오브젝트의 축의 선단을 수동으로 움직이는 것;
(3) 회전각도 ω의 값을 컨트롤하기 위하여 상기 입체 오브젝트의 바디 축을 수동으로 회전시키는 것; 및
(4) 오브젝트의 스케일 및 프로젝트된 z 위치와 등가인 3D 메쉬의 사이즈를 컨트롤하기 위하여 마우스 휠을 사용하는 것
중의 적어도 하나를 포함하고,
여기서,
적어도 3개의 수동 매칭된 프레임들은, 수평 및 수직방향으로 회전하는 단위 축을 연산하는데 이용됨
을 특징으로 하는 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법.
The method of claim 4,
What is done manually
(1) manually moving the tip of the axis of the three-dimensional object to control the value of the horizontal angle?;
(2) manually moving the tip of the axis of the three-dimensional object to control the value of the vertical angle?;
(3) manually rotating the body axis of the three-dimensional object to control the value of the rotational angle [omega]; And
(4) using the mouse wheel to control the size of the 3D mesh, which is equivalent to the object's scale and projected z-position
At least one of &lt; RTI ID = 0.0 &gt;
here,
At least three manually matched frames are used to calculate the unit axes rotating in the horizontal and vertical directions
Wherein the 2D photo image file is matched to a 3D mesh.
청구항 4에 있어서,
자동으로 행하여지는 것은, 상기 2D 포토 이미지 파일 내의 2D 포토 이미지들과 상기 3D 메쉬 사이의 파라미터 관계가 3D 기하학 스캔 메카니즘에 의해 제공되는 동안에, 2D 포토 이미지 파라미터들을 3D 기하학 파라미터들과 프로그램적으로 자동 매칭시키는 것임
을 특징으로 하는 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법.
The method of claim 4,
What is done automatically is to automatically match the 2D photo image parameters with the 3D geometry parameters programmatically while the 2D geometry scan mechanism provides the parameter relationship between the 2D photo images in the 2D photo image file and the 3D mesh To do.
Wherein the 2D photo image file is matched to a 3D mesh.
청구항 1에 있어서,
상기 카메라에 의해 캡쳐되는 가능한 최상의 이미지 품질의 포토-리얼리스틱 가상현실 프레젠테이션 장치는,
카메라에 의해 캡쳐되는 가능한 최상의 이미지 품질의 포토 이미지들 및 상기 3D 메쉬를 보기 위한 뷰잉 메카니즘을 엔드유저에게 제공하고, 3D 측정 또는 3D 컨트롤 기능을 위한 물리적 증강현실 어플리케이션을 제공하도록 구축되어 있는 인터넷 서버에 있는 파일시스템에 연결되어 있음
을 특징으로 하는 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법.
The method according to claim 1,
A photo-realistic virtual reality presentation device of the highest possible image quality captured by the camera,
An internet server that is provided to provide end users with photo images of the best possible image quality captured by the camera and a viewing mechanism for viewing the 3D mesh and to provide physical augmented reality applications for 3D measurement or 3D control functions You are connected to a file system
Wherein the 2D photo image file is matched to a 3D mesh.
청구항 7에 있어서,
카메라에 의해 캡쳐되는 가능한 최상의 이미지 품질의 포토 이미지들과 상기 3D 메쉬는, 상이한 투명도로 함께 나타내어짐
을 특징으로 하는 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법.
The method of claim 7,
The 3D meshes and the photo images of the best possible image quality captured by the camera are displayed together with different transparency
Wherein the 2D photo image file is matched to a 3D mesh.
청구항 7에 있어서,
상기 카메라에 의해 캡쳐되는 가능한 최상의 이미지 품질의 포토-리얼리스틱 가상현실 프레젠테이션은, 각각 스테레오스코픽 시스템의 좌측 스테레오그램 및 우측 스테레오그램에 적용됨
을 특징으로 하는 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법.
The method of claim 7,
The photo-realistic virtual reality presentation of the best possible image quality captured by the camera is applied to the left and right stereograms of the stereoscopic system, respectively.
Wherein the 2D photo image file is matched to a 3D mesh.
청구항 7에 있어서,
상기 카메라에 의해 캡쳐되는 가능한 최상의 이미지 품질의 포토-리얼리스틱 가상현실 프레젠테이션은, 수평각도 θ 방향 및 수직각도 φ 방향 중의 적어도 하나에 있어서의 2D 포토 이미지들의 앵귤러 모핑을 통하여, 3D 공간 내의 2D 포토 이미지 파일 내의 2D 포토 이미지의 매끄러운 정도를 나타내도록 더욱 확장됨
을 특징으로 하는 2D 포토 이미지 파일을 3D 메쉬에 매칭하는 방법.
The method of claim 7,
The photo-realistic virtual reality presentation of the highest possible image quality captured by the camera is achieved through angular morphing of 2D photo images in at least one of the horizontal angle? Direction and the vertical angle? Direction, Expands to show the smoothness of the 2D photo image within the file
Wherein the 2D photo image file is matched to a 3D mesh.
KR1020130141843A 2013-11-21 2013-11-21 A method using 3d geometry data for virtual reality image presentation and control in 3d space KR101588935B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130141843A KR101588935B1 (en) 2013-11-21 2013-11-21 A method using 3d geometry data for virtual reality image presentation and control in 3d space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130141843A KR101588935B1 (en) 2013-11-21 2013-11-21 A method using 3d geometry data for virtual reality image presentation and control in 3d space

Publications (2)

Publication Number Publication Date
KR20150058733A KR20150058733A (en) 2015-05-29
KR101588935B1 true KR101588935B1 (en) 2016-01-26

Family

ID=53392876

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130141843A KR101588935B1 (en) 2013-11-21 2013-11-21 A method using 3d geometry data for virtual reality image presentation and control in 3d space

Country Status (1)

Country Link
KR (1) KR101588935B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10270965B2 (en) 2015-12-04 2019-04-23 Ebay Inc. Automatic guided capturing and presentation of images
CN106097425A (en) * 2016-06-07 2016-11-09 天津天大求实电力新技术股份有限公司 Power equipment information retrieval based on augmented reality and methods of exhibiting and system
CN106774935B (en) * 2017-01-09 2020-03-31 京东方科技集团股份有限公司 Display device
KR102075454B1 (en) * 2018-01-19 2020-02-10 재단법인대구경북과학기술원 Web-based system and method for providing 3d brain neural circuit image
KR102098794B1 (en) * 2018-11-05 2020-04-08 재단법인대구경북과학기술원 Web based system and method for analyzing cell profile using 3d brain neural circuit image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101212231B1 (en) 2012-07-13 2012-12-13 송헌주 Method for displaying advanced virtual reality blended of freedom movement

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG115546A1 (en) * 2003-06-23 2005-10-28 Affineon Technologies Pte Ltd Computer input device tracking six degrees of freedom
KR20120064557A (en) * 2010-12-09 2012-06-19 한국전자통신연구원 Mixed reality display platform for presenting augmented 3d stereo image and operation method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101212231B1 (en) 2012-07-13 2012-12-13 송헌주 Method for displaying advanced virtual reality blended of freedom movement

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kim, Jung-Sik, Jin-Mo Kim, and Hyung-Je Cho. "3D Face Modeling from a Frontal Face Image by Mesh-Warping." Journal of Korea Multimedia Society 16.1 (2013)

Also Published As

Publication number Publication date
KR20150058733A (en) 2015-05-29

Similar Documents

Publication Publication Date Title
US9286718B2 (en) Method using 3D geometry data for virtual reality image presentation and control in 3D space
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US11869205B1 (en) Techniques for determining a three-dimensional representation of a surface of an object from a set of images
US9282321B2 (en) 3D model multi-reviewer system
TWI547901B (en) Simulating stereoscopic image display method and display device
KR101588935B1 (en) A method using 3d geometry data for virtual reality image presentation and control in 3d space
Schroers et al. An omnistereoscopic video pipeline for capture and display of real-world VR
Thatte et al. Depth augmented stereo panorama for cinematic virtual reality with head-motion parallax
WO2010085549A1 (en) System and method for three-dimensional visualization of geographical data
US9025007B1 (en) Configuring stereo cameras
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
CN114998559A (en) Real-time remote rendering method for mixed reality binocular stereoscopic vision image
KR20170091710A (en) Digital video rendering
JP5252703B2 (en) 3D image display device, 3D image display method, and 3D image display program
CN110060349B (en) Method for expanding field angle of augmented reality head-mounted display equipment
TWI603288B (en) Method using 3d geometry data for virtual reality image presentation and control in 3d space
GB2518673A (en) A method using 3D geometry data for virtual reality presentation and control in 3D space
JP5878511B2 (en) Method of using 3D geometric data for representation and control of virtual reality image in 3D space
Radkowski et al. Enhanced natural visual perception for augmented reality-workstations by simulation of perspective
JP2017215706A (en) Video synthesis method, video acquisition device, video synthesis system, and computer program
Krasil’nikov et al. Method of converting a 2D image into a stereoscopic 3D image
CN104574497B (en) A kind of method of one 2D photographic image files of pairing and a 3D grid
Thatte et al. Real-World Virtual Reality With Head-Motion Parallax
JP5200141B2 (en) Video presentation system, video presentation method, program, and recording medium
WO2015156128A1 (en) Display control device, display control method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181115

Year of fee payment: 4