KR20120118462A - Concave surface modeling in image-based visual hull - Google Patents
Concave surface modeling in image-based visual hull Download PDFInfo
- Publication number
- KR20120118462A KR20120118462A KR1020127017661A KR20127017661A KR20120118462A KR 20120118462 A KR20120118462 A KR 20120118462A KR 1020127017661 A KR1020127017661 A KR 1020127017661A KR 20127017661 A KR20127017661 A KR 20127017661A KR 20120118462 A KR20120118462 A KR 20120118462A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- virtual
- concave region
- images
- concave
- Prior art date
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000012545 processing Methods 0.000 claims abstract description 21
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 6
- 238000003709 image segmentation Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000009877 rendering Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
여기에서 개시된 장치 및 방법은 오브젝트의 전체 오목 영역을 캡쳐하기 위한 관점으로부터 얻은 참조 이미지 및 카메라로부터 얻은 참조 이미지의 집합; 오브젝트의 오목 영역의 실루엣 이미지를 얻기 위한 실루엣 처리 모듈; 및 실루엣 처리 모듈에 연결되어 연산된 실루엣 이미지로부터 오목 영역의 가상의 뒤집힌 이미지를 합성하고 오목 영역을 가지는 오브젝트의 비주얼 헐을 생성하는 가상 이미지 합성 모듈을 제공한다.The apparatus and methods disclosed herein comprise a collection of reference images obtained from a camera and a reference image obtained from a perspective for capturing the entire concave area of an object; A silhouette processing module for obtaining a silhouette image of the concave region of the object; And a virtual image synthesizing module connected to the silhouette processing module for synthesizing a virtual inverted image of the concave region from the calculated silhouette image and generating a visual hull of an object having the concave region.
Description
이미지 기반 렌더링(Image Based Rendering(IBR))은 참조 이미지의 세트로부터 새로운 장면을 생성하는 방법이다. 참조 이미지는 오브젝트(object)의 실제적인 사진이며 색은 참조 이미지에서의 픽셀(pixel)로부터 계산될 수 있다. 따라서, IBR은 포토 리얼리즘(photo realism)을 달성하기 위한 방법이다. 이미지 기반의 비주얼 헐(Image-based Visual Hull(IBVH))은 오브젝트의 참조 이미지의 그룹으로부터 3차원(3D) 모델을 재구성하는데 이용될 수 있는 이미지 기반 렌더링의 유형이다. 종래의 IBVH 기술은 입력으로서 사진의 그룹을 이용하여 목적 오브젝트의 볼록 헐(convex hull)을 생성하는 3D 복원 방법을 수반한다.Image Based Rendering (IBR) is a method of creating a new scene from a set of reference images. The reference image is an actual picture of the object and the color can be calculated from the pixels in the reference image. Thus, IBR is a method for achieving photo realism. Image-based Visual Hull (IBVH) is a type of image-based rendering that can be used to reconstruct a three-dimensional (3D) model from a group of reference images of an object. Conventional IBVH techniques involve a 3D reconstruction method that generates a convex hull of a target object using a group of photos as input.
종래의 IBVH 기술은 기하학적 정보를 복원하기 위하여 참조 이미지에서 오브젝트 실루엣(object silhouette)을 이용한다. 그러나, 이러한 종래 기술이 가지는 문제점은 실루엣이 오브젝트의 표면 상에 오목 영역(concave region)(즉, 오목한 오브젝트라 칭함)의 정보를 보여줄 수 없는 것이다. 그 결과, 오목한 오브젝트는 복원하기 어렵다. 특히, 종래의 IBVH 기술은 융기된 결점을 초래하고, 그 결과 포토 리얼리즘을 감소시킬 수 있다. 융기된 결점을 가지는 재구성된 오브젝트의 예시는 도 2에 도시된다. 융기된 결점의 성장은 부분적으로, 오목 영역이 언제나 오브젝트의 남은 부분에 의해 둘러싸인다는 점에 기인한다. 그 결과, 종래의 IBVH 기술은 참조 이미지로 오목한 오브젝트의 기하학적 구조를 얻는 것에 있어서 문제가 있다. Conventional IBVH techniques use object silhouettes in a reference image to recover geometric information. However, a problem with this prior art is that the silhouette cannot show the information of a concave region (ie, called a concave object) on the surface of the object. As a result, concave objects are difficult to recover. In particular, conventional IBVH techniques result in raised defects, and as a result can reduce photo realism. An example of a reconstructed object with raised defects is shown in FIG. 2. The growth of raised defects is due in part to the fact that the concave area is always surrounded by the remainder of the object. As a result, conventional IBVH techniques have problems in obtaining the geometry of concave objects as reference images.
본 개시에서는, 컴퓨터에서 실행 가능한 프로그램이 저장된 컴퓨터 판독가능 매체 및 방법이 개시되며, 이 방법은 오목 영역 혹은 오목 영역 들을 가지는 오브젝트의 복수의 참조 이미지를 얻는 단계; 및 참조 이미지에 기초하여 오목 영역에 대한 가상의 뒤집힌 이미지(virtual inside-out image)를 생성하는 단계를 포함한다.In the present disclosure, a computer readable medium and a method in which a computer executable program is stored are disclosed, the method comprising: obtaining a plurality of reference images of an object having a concave region or concave regions; And generating a virtual inside-out image of the concave region based on the reference image.
대안적으로, 본 개시에서 장치가 기술되며, 이 장치는 오목 영역을 가지는 오브젝트에 대한 카메라로부터 얻은 복수의 참조 이미지 및 오브젝트의 오목 영역을 캡쳐하는 관점(view point)으로부터 얻은 참조 이미지를 저장하기 위한 저장 장치; 각각의 참조 이미지의 실루엣을 얻는 실루엣 처리 모듈(silhouette processing module); 및 오목 영역의 가상의 뒤집힌 이미지를 얻고 오브젝트의 비주얼 헐(visual hull)을 합성하는 가상 이미지 합성 모듈을 포함한다.Alternatively, an apparatus is described in the present disclosure, the apparatus for storing a plurality of reference images obtained from a camera for an object having a concave region and a reference image obtained from a view point for capturing the concave region of the object. Storage devices; A silhouette processing module for obtaining a silhouette of each reference image; And a virtual image compositing module for obtaining a virtual inverted image of the concave region and composing a visual hull of the object.
대안적으로, 본 개시에서 장치가 기술되며, 이 장치는 카메라로부터 얻은 오브젝트의 복수의 참조 이미지 및 오브젝트의 오목 영역의 전체 경계를 캡쳐하는 관점으로부터 얻은 참조 이미지를 저장하는 저장 장치; 각각의 참조 이미지에 대한 실루엣과 오목 영역의 경계를 얻기 위한 실루엣 처리 모듈; 및 실루엣 처리 모듈에 연결되어 오목 영역의 가상의 뒤집힌 이미지를 얻고 가상의 뒤집힌 이미지에 기초하여 오목 영역을 가지는 오브젝트에 대한 비주얼 헐을 합성하는 가상 이미지 합성 모듈을 포함한다.Alternatively, an apparatus is described in the present disclosure, the apparatus comprising: a storage device for storing a plurality of reference images of an object obtained from a camera and a reference image obtained from a perspective of capturing an entire boundary of a concave region of the object; A silhouette processing module for obtaining a boundary of a silhouette and a concave region for each reference image; And a virtual image synthesizing module coupled to the silhouette processing module to obtain a virtual inverted image of the concave region and to synthesize a visual hull for an object having a concave region based on the virtual inverted image.
대안적으로, 본 개시에서는 방법이 기술되며, 이 방법은 오목 영역을 가지는 오브젝트의 복수의 참조 이미지를 얻는 단계; 복수의 참조 이미지에 기초하여 오목 영역에 대한 가상의 뒤집힌 이미지를 생성하는 단계; 및 가상의 참조 이미지로서 생성된 가상의 뒤집힌 이미지를 이용하여, 상기 복수의 참조 이미지와 함께, 가상의 참조 이미지로부터 매핑(mapping)된 대응하는 세그먼트(segment)에 대한 뺄셈 불린 연산(subtraction Boolean operation)을 수행하고 상기 참조 이미지로부터 매핑된 대응하는 세그먼트에 대한 교차 불린 연산(intersection Boolean operation)을 수행하는 것에 의하여 비주얼 헐을 얻는 단계를 포함한다.Alternatively, a method is described in this disclosure, the method comprising obtaining a plurality of reference images of an object having a concave area; Generating a virtual inverted image for the concave region based on the plurality of reference images; And a subtraction Boolean operation on a corresponding segment mapped from the virtual reference image, with the plurality of reference images, using the virtual inverted image generated as the virtual reference image. And obtaining a visual hull by performing an intersection Boolean operation on the corresponding segment mapped from the reference image.
이상은 요약이며, 따라서 필요에 의해, 단순화, 일반화 및 상세한 내용의 생략이 들어있으며, 따라서 당업자는 요약이 단지 예시적인 것이고, 어떠한 방식으로든 제한을 의도한 것이 아니라는 것을 인식할 것이다. 여기에서 기술된 장치 및/또는 프로세스(process) 및/또는 기타 대상의 기타 태양, 특징, 및 장점은 여기에서 제시된 교시에서 분명하게 될 것이다. 요약은 이하의 상세한 설명에서 더 기술되는 단순화한 형태의 개념의 선택을 도입하도록 제공된다. 이 요약은 청구된 대상의 중요한 특징이나 필수 특징을 확인하도록 의도된 것이 아니고, 청구된 대상의 범위를 결정하는 보조로 사용되도록 의도된 것도 아니다.The foregoing is a summary, and therefore, where necessary, simplifications, generalizations, and omissions of detail are included, and thus those skilled in the art will recognize that the summary is merely exemplary and is not intended to be limiting in any way. Other aspects, features, and advantages of the devices and / or processes and / or other objects described herein will become apparent in the teachings presented herein. The summary is provided to introduce a selection of concepts in a simplified form that are further described below in the Detailed Description. This Summary is not intended to identify key features or essential features of the claimed subject matter, nor is it intended to be used as an aid in determining the scope of the claimed subject matter.
도 1은 예시적인 실시예에 따른, 본 개시의 방법에 따라 디스플레이(display)된 이미지를 재구성하도록 배열된 컴퓨팅 장치의 구성의 예를 예시한 블록도이다.
도 2는 IBVH를 이용하여 오목한 오브젝트의 융기된 모양의 왜곡이 있는 렌더링 결과를 예시한다.
도 3a는 개시된 방법에 따른 처리 이전의 이미지를 예시한다.
도 3b는 예시적인 실시예에 따라, 오목한 오브젝트의 모델링 방법을 이용한 렌더링 결과를 예시한다.
도 4는 예시적인 실시예에 따라, 도 1의 컴퓨팅 장치에서 실행된 모듈을 예시하는 블록도이다.
도 5는 예시적인 실시예에 따라, 오브젝트의 오목 영역에 대한 가상 실루엣 콘(visual silhouette cone)을 생성하는 방법을 예시하는 흐름도이다.
도 6은 도 5의 3D 좌표를 결정하는 방법에 대한 단계를 예시하는 흐름도이다.
도 7은 참조 이미지로부터 얻은 비주얼 헐을 예시하는 개념도이다.
도 8은 예시적인 실시예에 따라, 오목 영역의 가상의 뒤집힌 이미지를 얻기 위한 가상의 카메라의 개념을 예시한다.
도 9는 3D에서 2D로의 원근 투영(perspective projection)에 의해 얻어진 오목 영역의 투사된 뒤집힌 이미지를 예시한다.
도 10a는 예시적인 실시예에 따라, 바로 위에서 얻은 오브젝트의 참조 이미지이다.
도 10b는 예시적인 실시예에 따라, 이미지 세그멘테이션(segmentation)을 이용하여 얻은 중간 결과를 예시한다.
도 10c는 예시적인 실시예에 따라, 합성된 가상 이미지를 예시한다.
도 11은 참조 이미지로서 오목 영역의 투사된 뒤집힌 이미지를 이용하여 비주얼 헐을 결정하는 방법을 예시하는 흐름도이다.
도 12는 참조 이미지로서 오목 영역의 투사된 뒤집힌 이미지를 이용하여 얻은 비주얼 헐을 예시한다.1 is a block diagram illustrating an example of a configuration of a computing device arranged to reconstruct an image displayed in accordance with the method of the present disclosure, in accordance with an example embodiment.
2 illustrates the rendering result with the distortion of the raised shape of the concave object using IBVH.
3A illustrates an image before processing in accordance with the disclosed method.
3B illustrates a rendering result using a method of modeling a concave object, according to an exemplary embodiment.
4 is a block diagram illustrating a module executed in the computing device of FIG. 1, in accordance with an example embodiment.
5 is a flowchart illustrating a method of generating a visual silhouette cone for a concave region of an object, in accordance with an exemplary embodiment.
FIG. 6 is a flowchart illustrating steps for a method of determining 3D coordinates of FIG. 5.
7 is a conceptual diagram illustrating a visual hull obtained from a reference image.
8 illustrates the concept of a virtual camera for obtaining a virtual flipped image of a recessed area, according to an exemplary embodiment.
9 illustrates a projected flipped image of the concave region obtained by perspective projection from 3D to 2D.
10A is a reference image of an object obtained directly above, according to an exemplary embodiment.
10B illustrates intermediate results obtained using image segmentation, according to an example embodiment.
10C illustrates the synthesized virtual image, in accordance with an example embodiment.
11 is a flowchart illustrating a method of determining a visual hull using a projected flipped image of a concave region as a reference image.
12 illustrates a visual hull obtained using the projected flipped image of the concave region as a reference image.
이하의 상세한 설명에서, 여기의 일부를 구성하는 첨부 도면에 대한 참조가 이루어진다. 도면에서, 유사한 부호는, 문맥에서 다른 지시가 없다면, 일반적으로 유사한 구성요소를 식별한다. 상세한 설명, 도면 및 청구항에서 기술된 예시적 실시예들은 제한하는 것으로 의미되지 않는다. 여기에 제시된 대상의 범위와 사상을 벗어나지 않고, 다른 실시예가 이용될 수 있고, 다른 변형이 이루어질 수 있다. 여기에서 일반적으로 기술되고 도면에서 도시된 바와 같은 본 개시의 태양들이 다양한 다른 구성으로 배열, 대체, 조합 및 설계될 수 있음과, 이 모두가 명시적으로 고려되고 본 개시의 일부가 됨이 쉽게 이해될 것이다.In the following detailed description, reference is made to the accompanying drawings which form a part hereof. In the drawings, like reference numerals identify generally similar components, unless otherwise indicated in the context. The illustrative embodiments described in the detailed description, drawings, and claims are not meant to be limiting. Without departing from the scope and spirit of the objects set forth herein, other embodiments may be utilized and other modifications may be made. It is readily understood that aspects of the present disclosure, as generally described herein and illustrated in the figures, may be arranged, substituted, combined, and designed in a variety of different configurations, all of which are expressly considered and part of the present disclosure. Will be.
본 개시는, 다른 무엇 보다도, 오브젝트의 이미지를 재구성하는 것에 관련된 방법, 장치, 컴퓨터 프로그램 및 시스템에 관한 것이다.The present disclosure, among other things, relates to a method, apparatus, computer program and system related to reconstructing an image of an object.
도 3a 및 도 3b에서의 예시에 대하여 도시될 수 있는 바와 같이, 종래의 처리 방법(도 3a)의 렌더링 결과와 비교하여, 본 개시의 처리 방법인 오목한 오브젝트 모델링은 타겟 오목 오브젝트의 모양 및 텍스쳐(texture)를 정확하게 재구성하고 고품질의 포토리얼리스틱(photorealistic)한 결과(도 3b)를 생성한다.As can be seen for the example in FIGS. 3A and 3B, compared to the rendering result of the conventional processing method (FIG. 3A), the concave object modeling, which is the processing method of the present disclosure, is characterized by the shape and texture of the target concave object ( texture is accurately reconstructed and produces high quality photorealistic results (FIG. 3B).
본 개시의 예시적인 실시예에 따르면, 가상의 카메라 및 이미지가 오목한 오브젝트의 기하학적 정보를 특징 짓는 가상 실루엣 콘을 제공하기 위하여 채택되는 한편, 텍스쳐 정보는 오목한 오브젝트 바로 위로부터 얻어진 이미지에 의해 제공된다.According to an exemplary embodiment of the present disclosure, a virtual camera and an image are employed to provide a virtual silhouette cone characterizing the geometric information of the concave object, while the texture information is provided by an image obtained directly above the concave object.
도 1은 본 개시의 방법에 따라 디스플레이된 이미지를 재구성하도록 배열된 컴퓨팅 장치의 구성의 예시를 예시하는 블록도이다.1 is a block diagram illustrating an example of a configuration of a computing device arranged to reconstruct an image displayed in accordance with the methods of the present disclosure.
도 1은 전처리 모듈(pre-processing module), 가상 이미지 합성 모듈, 및 포인트 재배치 모듈(point relocation module)을 구현하기 위한 예시적인 컴퓨팅 장치(100)를 나타낸 블럭도이다. 기초적인 구성(101)에서, 컴퓨팅 장치(100)는 일반적으로 하나 이상의 프로세서(110) 및 시스템 메모리(120)를 포함한다. 메모리 버스(130)는 프로세서(110) 및 시스템 메모리(120) 사이에서 통신하기 위하여 사용될 수 있다.1 is a block diagram illustrating an exemplary computing device 100 for implementing a pre-processing module, a virtual image composition module, and a point relocation module. In the basic configuration 101, the computing device 100 generally includes one or more processors 110 and system memory 120. The memory bus 130 may be used to communicate between the processor 110 and the system memory 120.
요구되는 구성에 따라, 프로세서(110)는 마이크로 프로세서(μP), 마이크로 컨트롤러(μC), 디지털 신호 프로세서(DSP), 또는 그들의 임의의 조합을 포함하는 임의의 유형이 될 수 있으나, 이에 제한되지는 않는다. 프로세서(110)는 레벨 1 캐시(111), 레벨 2 캐시(112)와 같은 하나 이상의 레벨(level)의 캐시(cache), 프로세서 코어(113), 및 레지스터(114)를 포함할 수 있다. 프로세서 코어(113)는 산술 논리 연산장치(arithmetic logic unit; ALU), 부동 소수점 장치(floating point unit; FPU), 디지털 신호 처리 코어(DSP Core), 또는 그들의 임의의 조합을 포함할 수 있다. 메모리 컨트롤러(115)는 또한 프로세서(110)와 함께 사용될 수 있고, 또는 일부 구현예에서 메모리 컨트롤러(115)는 프로세서(110)의 내적인 일부가 될 수 있다.Depending on the configuration desired, the processor 110 may be of any type including, but not limited to, a microprocessor (μP), a microcontroller (μC), a digital signal processor (DSP), or any combination thereof. Do not. The processor 110 may include one or more levels of cache, such as a level 1 cache 111, a level 2 cache 112, a
요구되는 구성에 따라, 시스템 메모리(120)는 (RAM 같은) 휘발성 메모리, (ROM, 플래시 메모리 등과 같은) 비휘발성 메모리, 또는 그들의 임의의 조합을 포함하는 임의의 유형일 수 있으나, 이에 제한되지는 않는다. 시스템 메모리(120)는 일반적으로 운영 체제(121), 하나 이상의 어플리케이션(application)(122), 및 프로그램 데이터(124)를 포함한다. 어플리케이션(122)은 오브젝트를 획득하여 렌더링하도록 배열된 오목한 오브젝트의 모델링 처리 어플리케이션(concave object modeling processing application)(123)을 포함한다. 프로그램 데이터(124)는, 이하에서 추가로 기술될 바와 같이, 참조 이미지 데이터(125)를 포함한다. 일부 실시예에서, 어플리케이션(122)은 입체 영상 데이터가 생성될 수 있도록 운영 체제(121) 상에서 프로그램 데이터(224)로 동작하도록 배열될 수 있다. 이러한 기술된 기초적인 구성은 파선(201) 내의 그 구성요소들에 의해 도 1에서 도시된다.Depending on the configuration desired, system memory 120 may be of any type, including but not limited to volatile memory (such as RAM), nonvolatile memory (such as ROM, flash memory, etc.), or any combination thereof. . System memory 120 generally includes an operating system 121, one or more applications 122, and program data 124. The application 122 includes a concave object modeling processing application 123 arranged to acquire and render the object. Program data 124 includes reference image data 125, as will be described further below. In some embodiments, application 122 may be arranged to operate on program data 224 on operating system 121 such that stereoscopic image data may be generated. This described basic configuration is shown in FIG. 1 by its components in dashed line 201.
컴퓨팅 장치(100)는 기초적인 구성(101) 및 임의의 요구되는 장치 및 인터페이스(interface) 사이에서 통신을 용이하게 하도록 추가적인 특징 또는 기능, 및 추가적인 인터페이스를 가질 수 있다. 예를 들어, 버스/인터페이스 컨트롤러(140)는 기초적인 구성(101) 및 하나 이상의 데이터 저장 장치(150) 사이에서 저장 인터페이스 버스(141)를 통하여 통신을 용이하게 하도록 사용될 수 있다. 데이터 저장 장치(150)는 분리 가능한 저장 장치(151), 분리 불가능한 저장 장치(152), 또는 그 조합일 수 있다. 분리 가능한 저장 장치 및 분리 불가능한 저장 장치의 예를 몇 가지 들자면, 플렉서블 디스크 드라이브(flexible disk drive) 및 하드 디스크 드라이브(HDD)와 같은 자기 디스크 장치, 컴팩트 디스크(CD) 드라이브 또는 디지털 다목적 디스크(DVD) 드라이브와 같은 광 디스크 드라이브, 고체 상태 드라이브(SSD), 및 테이프 드라이브 등을 포함한다. 예시적인 컴퓨터 저장 매체는 컴퓨터 판독가능 명령, 데이터 구조, 프로그램 모듈(program module), 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술에서 구현되는 휘발성 및 비휘발성의 분리 가능한 매체 및 분리 불가능한 매체를 포함할 수 있다.Computing device 100 may have additional features or functionality, and additional interfaces to facilitate communication between the basic configuration 101 and any desired devices and interfaces. For example, bus /
시스템 메모리(120), 분리 가능한 저장 장치(151) 및 분리 불가능한 저장 장치(152)는 모두 컴퓨터 저장 매체의 예이다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, 디지털 다목적 디스크(DVD) 또는 기타 광 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 요구되는 정보를 저장하도록 사용될 수 있고, 컴퓨팅 장치(100)에 의해 접근될 수 있는 임의의 기타 매체를 포함하나, 이에 제한되지는 않는다. 임의의 그러한 컴퓨터 저장 매체는 장치(100)의 일부일 수 있다.System memory 120, removable storage 151, and non-removable storage 152 are all examples of computer storage media. Computer storage media may include RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROMs, digital versatile disks (DVDs) or other optical storage devices, magnetic cassettes, magnetic tapes, magnetic disk storage devices or other magnetic storage devices, or Any other medium that can be used to store the required information and can be accessed by the computing device 100 includes, but is not limited to. Any such computer storage media may be part of device 100.
컴퓨팅 장치(100)는 또한 버스/인터페이스 컨트롤러(140)를 통하여 다양한 인터페이스 장치(예컨대, 출력 인터페이스, 주변 인터페이스, 및 통신 인터페이스)로부터 기초적인 구성(101)으로의 통신을 용이하게 하기 위한 인터페이스 버스(142)를 포함할 수 있다. 예시적인 출력 장치(160)는 그래픽 처리 유닛(161) 및 오디오 처리 유닛(162)을 포함하며, 이는 하나 이상의 A/V 포트(163)를 통하여 디스플레이 또는 스피커와 같은 다양한 외부 장치로 통신하도록 구성될 수 있다. 예시적인 주변 인터페이스(170)는 직렬 인터페이스 컨트롤러(171) 또는 병렬 인터페이스 컨트롤러(172)를 포함하며, 이는 하나 이상의 I/O 포트(173)를 통하여 입력 장치(예컨대, 키보드, 마우스, 펜, 음성 입력 장치, 터치 입력 장치 등) 또는 기타 주변 장치(예컨대, 프린터, 스캐너 등)와 같은 외부 장치와 통신하도록 구성될 수 있다. 예시적인 통신 장치(180)는 네트워크 컨트롤러(181)를 포함하며, 이는 하나 이상의 통신 포트(182)를 통하여 네트워크(102) 통신으로 하나 이상의 컴퓨팅 장치(190)와의 통신을 용이하게 하도록 배열될 수 있다. 통신 연결은 통신 매체의 하나의 예이다. 통신 매체는 일반적으로 컴퓨터 판독가능 명령, 데이터 구조, 프로그램 모듈, 또는 반송파 또는 기타 수송 메커니즘(transport mechanism)과 같은, 변조된 데이터 신호에서의 기타 데이터에 의해 구현될 수 있고 임의의 정보 전달 매체를 포함한다. "변조된 데이터 신호"는 신호 내에 정보를 인코딩하는 방식으로 설정되거나 변경된 하나 이상의 특성을 갖는 신호일 수 있다. 예를 들어, 통신 매체는 유선 네트워크 또는 직접 유선 연결(direct-wired connection)과 같은 유선 매체, 및 음향, 라디오 주파수(RF), 적외선(IR) 및 기타 무선 매체와 같은 무선 매체를 포함할 수 있으나, 이에 제한되지 않는다. 여기에서 사용된 컴퓨터 판독 가능 매체라는 용어는 저장 매체 및 통신 매체 둘 다를 포함할 수 있다.Computing device 100 also provides an interface bus for facilitating communication from various interface devices (eg, output interface, peripheral interface, and communication interface) to underlying configuration 101 via bus /
컴퓨팅 장치(100)는 휴대 전화기, 개인 휴대용 단말기(personal data assistant; PDA), 개인 미디어 재생 장치, 무선 웹워치 장치(wireless web-watch device), 개인 헤드셋 장치, 특정 용도 장치, 또는 상기 기능 중 임의의 것을 포함하는 융합 장치와 같은 소형 폼팩터 휴대용(이동) 전자 장치의 일부로 구현될 수 있다. 컴퓨팅 장치(100)는 또한 랩탑 컴퓨터나 랩탑이 아닌 컴퓨터 구성 둘 다를 포함하는 개인 컴퓨터로 구현될 수 있다.Computing device 100 may be a mobile phone, personal data assistant (PDA), personal media playback device, wireless web-watch device, personal headset device, special purpose device, or any of the above functions. It can be implemented as part of a small form factor portable (mobile) electronic device, such as a fusion device including that of. Computing device 100 may also be implemented as a personal computer that includes both a laptop computer and a non-laptop computer configuration.
도 4에서 예시된 바와 같이, 오목한 오브젝트의 모델링 처리 어플리케이션(123)은 두 부분, 실루엣 처리 모듈(402) 및 가상 이미지 합성 모듈(404)을 포함할 수 있다. 실루엣 처리 모듈(402)은 오브젝트의 이미지를 캡쳐 혹은 이에 접근하여 오브젝트의 실루엣을 추출한다. 가상 이미지 합성 모듈(404)은 가상의 카메라를 오목한 오브젝트의 저면에 설정하고, 실루엣을 가상의 카메라의 이미지 공간에 매핑하며, 비주얼 헐을 형성하도록 가상 이미지를 합성한다.As illustrated in FIG. 4, the modeling processing application 123 of the concave object may include two parts, a
오목한 오브젝트의 모델링 처리 어플리케이션(123)은 실루엣 기반 3D 재구성(shape-from-silhouette 3D reconstruction)에 기초하는 IBVH 기술을 수반한다. 일반적으로 실루엣 기반 3D 재구성은 실루엣 콘(silhouette cone)이라 지칭되는 기하학적 구조의 엔티티(entity)를 생성한다. 실루엣 기반 3D 재구성에서, 원본 이미지는 실루엣 이미지라 지칭되는 전경/배경의 바이너리 이미지를 생성하도록 경계화(thresholding)지어진다. 실루엣으로 알려진 전경 마스크(foreground mask)는 대응하는 3D 전경 오브젝트의 2D 투사이다. 카메라 보기 파라미터(camera viewing parameter)에 따라, 실루엣은 3D 오브젝트를 둘러싸는 역 투사된 일반화된 콘(back-projected generalized cone)을 정의한다. 이러한 일반화된 콘이 실루엣 콘이다.The modeling processing application 123 of the concave object involves IBVH technology based on silhouette-from-silhouette 3D reconstruction. Silhouette-based 3D reconstruction generally creates a geometrical entity called a silhouette cone. In silhouette based 3D reconstruction, the original image is thresholded to produce a binary image of the foreground / background referred to as the silhouette image. A foreground mask, known as a silhouette, is a 2D projection of the corresponding 3D foreground object. According to the camera viewing parameter, the silhouette defines a back-projected generalized cone surrounding the 3D object. This generalized cone is a silhouette cone.
이미지 기반 비주얼 헐(IBVH) 프로세스는 일반화된 콘의 교차로 비주얼 헐을 생성한다. 일반적으로, IBVH 프로세스는 입력으로서 사진의 그룹을 얻어, 목적 오브젝트의 볼록한 헐을 생성한다. 볼록한 헐은 오브젝트에 대한 비주얼 헐이다. 프로세스에서, 각각의 참조 이미지는 전경 및 후경으로 나뉜다. 전경 마스크, 즉 실루엣은, 카메라의 보정 정보(calibration information)에 따라, 타겟 오브젝트를 포함하는 3D 공간에서 역 투사된 콘을 정의한다. 카메라의 보정 정보는 초점 거리 및 카메라 위치를 포함한다. 모든 실루엣 콘의 교차는 오브젝트의 볼록한 헐을 형성한다. 비주얼 헐의 예시는 도 7에 도시된다.An image based visual hull (IBVH) process creates a visual hull at the intersection of a generalized cone. In general, the IBVH process takes a group of photos as input and produces a convex hull of the object. Convex hull is a visual hull for an object. In the process, each reference image is divided into a foreground and a background. The foreground mask, or silhouette, defines a back projected cone in the 3D space containing the target object according to the camera's calibration information. The correction information of the camera includes a focal length and a camera position. The intersection of all silhouette cones forms the convex hull of the object. An example of a visual hull is shown in FIG. 7.
도 5 및 도 6은 오브젝트에 대한 비주얼 헐로부터의 융기된 모양의 왜곡을 제거하는 방법을 예시한다. 도 7에서의 비주얼 헐은 방법의 단계에서 설명되는 요소를 예시한다. 도 5에서 도시된 바와 같이, 단계 502에서, 오목 영역을 가지는 오브젝트에 대한 비주얼 헐(704)은, 오브젝트의 바깥쪽 측면으로부터 얻어지는, 참조 이미지(702)의 세트로서의 사진의 그룹으로부터 얻어진다. 도 5의 단계 504에서 오목 영역의 경계의 3D 좌표는 비주얼 헐 상에서 계산된다. 도 10a는 오목 영역의 바로 위에서부터 얻은 예시적인 참조 오목 영역 이미지를 도시한다.5 and 6 illustrate a method of removing the distortion of the raised shape from the visual hull for the object. The visual hull in FIG. 7 illustrates the elements described in the steps of the method. As shown in FIG. 5, in step 502, a
도 6은 비주얼 헐 상에서 오목 영역의 경계의 3D좌표를 결정하는 단계 504를 수행하는 단계를 예시한다.6 illustrates performing step 504 of determining the 3D coordinates of the boundary of the concave region on the visual hull.
도 6의 단계 602에서, 2D 참조 사진(706) 상에서 오목 영역의 경계(708)는 수동의 상호 작용 또는 이미지 세그멘테이션 기술에 의해 결정된다.In
이미지 세그멘테이션 기술은 일반적으로 디지털 이미지를 픽셀의 세트[슈퍼 픽셀(superpixel)로도 알려짐] 복수의 세그먼트로 분할하는 프로세스를 지칭한다. 이미지 세그멘테이션의 목적은 이미지의 표현을 더 의미 있고 분석하기 쉬운 것으로의 단순화 및/또는 변경하는 것이다. 특히, 이미지 세그멘테이션은 동일한 라벨이 있는 픽셀이 일정한 가상의 특징을 공유하도록 이미지에서 모든 픽셀에 라벨(label)을 배정하는 것을 포함한다. 이미지 세그멘테이션은 이미지에서 오브젝트 및 경계(선, 곡선, 등)를 찾아내도록 사용된다. 단계 602의 경우에, 이미지 세그멘테이션은 오목 영역에 대한 경계를 찾는데 이용될 수 있다.Image segmentation techniques generally refer to the process of dividing a digital image into a plurality of segments of a set of pixels (also known as superpixels). The purpose of image segmentation is to simplify and / or change the representation of an image to something more meaningful and easier to analyze. In particular, image segmentation involves assigning labels to all pixels in an image such that pixels with the same label share certain virtual features. Image segmentation is used to find objects and boundaries (lines, curves, etc.) in an image. In the case of
이미지 세그멘테이션의 결과는 전체 이미지를 선별적으로 덮는 세그먼트의 세트 혹은 이미지로부터 추출된 윤곽(contour)의 세트이다. 영역 내의 각각의 픽셀은 일부 특징 또는 색, 강도 또는 텍스쳐와 같은 연산된 속성에 있어 유사하다. 이웃한 영역은 동일한 특징에 있어 상당히 다르다.The result of image segmentation is a set of segments that selectively cover the entire image or a set of contours extracted from the image. Each pixel in the area is similar in some feature or computed properties such as color, intensity, or texture. Neighboring regions differ considerably in the same features.
도 10b는 오목 영역의 경계가 식별되는, 이미지 세그멘테이션을 이용하여 얻은 중간 결과의 예시를 도시한다.10B shows an example of an intermediate result obtained using image segmentation, in which the boundary of the concave region is identified.
도 6의 단계 604에서, 비주얼 헐(704) 상에서 오목 영역의 경계(710)에 대한 3D 좌표는 2D 참조 사진 상에서의 위치를 3D 공간으로 다시 투사함으로써 단계 602에서 결정된 2D 참조 사진(706)에서의 오목 영역의 경계(708)를 이용하여 결정된다. 2D 참조 사진 상에서의 위치를 3D 공간으로 다시 투사하는 것을 수행하는 단계는 IBVH 프로세스 단계이다.In
도 5에 예시된 방법에서 계속하여, 단계 506에서, 오목 영역 안쪽에 가상의 카메라에 대한 위치가 선택된다. 가상의 카메라의 위치는 오목 영역의 안쪽으로부터 바깥쪽을 향하여 오브젝트를 관찰하는 것에 부합하여 선택된다. 도 8에서의 예시로서 도시된 바와 같이 일 실시예에서, 가상의 카메라가 오목 영역의 저면의 중심에 배치된 위치가 선택될 수 있다. 대안적으로, 오목 영역의 저면의 모서리에서와 같은 기타의 위치가 마찬가지로 선택될 수 있다. 선택된 위치는 완전한 오목 영역의 경계를 포함하도록 그러한 위치에서 생성될 가상의 뒤집힌 이미지를 허용한다. 그 후에, 가상의 뒤집힌 이미지가 완전한 오목 용역의 경계를 전체적으로 덮을 수 있는 여러 위치가 선택될 수 있다. Continuing with the method illustrated in FIG. 5, at step 506, a location for the virtual camera is selected inside the recessed area. The position of the virtual camera is selected in accordance with observing the object from the inside of the concave area outward. In one embodiment, as shown by way of example in FIG. 8, a position where a virtual camera is disposed at the center of the bottom of the recessed area may be selected. Alternatively, other positions, such as at the corners of the bottom of the recessed area, can likewise be selected. The selected location allows the virtual flipped image to be created at that location to include the boundaries of the complete concave area. Thereafter, several locations can be selected where the virtual flipped image can entirely cover the boundaries of the complete concave service.
단계 508에서, 가상의 카메라의 카메라 파라미터는 선택된 위치에 기초하여 결정된다. In step 508, camera parameters of the virtual camera are determined based on the selected position.
가상의 카메라의 중심이 설정되면, 카메라의 외부 파라미터의 변환 벡터(transformation vector)가 결정된다. 외부 파라미터의 회전 행렬(rotation matrix)에 대하여, 세 개의 회전 각이 로 공통적으로 설정되어, 가상의 카메라의 방향은 위쪽으로 및 오브젝트의 저면에 수직으로 머물러, 오목한 오브젝트의 바로 아래의 저면으로부터 캡쳐하는 시뮬레이션을 가능하게 한다. 내부 파라미터에 관해서는, 초점 거리(f)만이 수정될 필요가 있으며, 기타 요소들은 참조 이미지를 찍는 실제 카메라의 대응하는 요인과 일치하여 남아있게 된다. 보통, 가상의 카메라의 초점 거리는 오목한 오브젝트의 깊이에 비례한다. 참조 이미지를 찍는 카메라의 알려진 파라미터에 기초하여, 오목 영역의 경계의 전체 영역이 가상의 카메라에 의해 찍힌 가상 이미지 내에 있도록 가상 이미지의 초점거리(f)의 값이 설정될 수 있다.When the center of the virtual camera is set, a transformation vector of external parameters of the camera is determined. For a rotation matrix of external parameters, three rotation angles In common, the direction of the virtual camera remains upward and perpendicular to the bottom of the object, enabling simulation to capture from the bottom just below the concave object. Regarding internal parameters, only the focal length f needs to be corrected, and other factors remain consistent with the corresponding factors of the actual camera taking the reference image. Usually, the focal length of the virtual camera is proportional to the depth of the concave object. Based on the known parameters of the camera taking the reference image, the value of the focal length f of the virtual image may be set such that the entire area of the boundary of the concave area is in the virtual image taken by the virtual camera.
카메라 파라미터는 그 카메라 파라미터에 기초하여 가상의 카메라에 의해 얻어진 가상의 뒤집힌 이미지가 전체적으로 완전한 오목 영역의 경계를 덮도록 선택된다.The camera parameter is selected such that the virtual flipped image obtained by the virtual camera based on the camera parameter entirely covers the boundary of the complete concave area.
단계 510에서, 실루엣의 이미지 및 오목 영역의 텍스쳐는, 예컨대, 완전한 오목 영역의 경계가 포함되어 있는, 참조 오목 영역의 이미지로서, 오목 영역 바로 위 및 바깥쪽으로부터 캡쳐된다. 대안적으로, 완전한 오목 영역의 경계가 여러 이미지에 의하여 전체적으로 덮어질 수 있는 여러 이미지가 얻어질 수 있다.In step 510, the image of the silhouette and the texture of the concave region are captured from directly above and outside the concave region, for example, as an image of the reference concave region that contains the boundaries of the complete concave region. Alternatively, several images may be obtained in which the boundaries of the complete concave area may be entirely covered by the various images.
단계 512에서, 단계 504에서 생성된 오목 영역의 경계의 3D 좌표, 단계 508에서 생성된 카메라 파라미터, 및 단계 510에서 얻은 참조 오목 영역 이미지에 기초하여, 3D에서 2D로의 원근 투영에 관한 종래의 기술을 이용함으로써, 가상의 뒤집힌 이미지가 생성된다.In step 512, based on the 3D coordinates of the boundary of the concave area created in step 504, the camera parameters generated in step 508, and the reference concave area image obtained in step 510, the prior art relating to perspective projection from 3D to 2D is described. By using this, a virtual inverted image is generated.
3D에서 2D로의 원근 투영의 단계 512가 도 9에 도시된다. 단계 512에서 3D에서 2D로의 원근 투영은 2D 평면에 있는 참조 오목 영역 이미지(902)가 3D공간(904)으로 투사되는 방법이다. 3D 공간에서 오목 영역의 경계(906)는 2D 평면에서의 가상의 뒤집힌 이미지(908)로 투사된다.Step 512 of perspective projection from 3D to 2D is shown in FIG. 9. Perspective projection from 3D to 2D in step 512 is how the reference
(상이한 가상의 카메라의 위치로)하나 또는 여러 가상의 뒤집힌 이미지는 그러한 하나 또는 여러 가상의 뒤집힌 이미지가 완전한 오목 영역의 경계를 덮을 수 있는 한 생성될 수 있다. One or several virtual flipped images (to the location of different virtual cameras) can be generated as long as such one or several virtual flipped images can cover the boundaries of the complete concave area.
도 10c는 가상의 카메라에 의해 얻어진 가상의 뒤집힌 이미지의 예시를 도시한다.10C shows an example of a virtual inverted image obtained by the virtual camera.
3D에서 2D로의 원근 투영의 프로세스는 이미지 기반 비주얼 헐(IBVH) 프로세스를 이용하여 생성된 비주얼 헐을 이용하여 수행될 수 있다.The process of perspective projection from 3D to 2D can be performed using a visual hull created using an image based visual hull (IBVH) process.
또한, 오목한 오브젝트의 수정된 비주얼 헐은 추가적인 참조 이미지로서 하나 또는 여러 가상의 뒤집힌 이미지와 마찬가지로 원본 참조 이미지를 이용하여 생성될 수 있다. 하나 또는 여러 가상의 뒤집힌 이미지는 참조 이미지로 이용되며, 가상의 뒤집힌 이미지의 교차 점 사이에서의 세그먼트는 시선(view ray)으로부터 (뺄셈 불린 연산을 통하여) 빼지게(subtracted) 된다. 또한, 여러 가상의 뒤집힌 이미지가 참조 이미지로 이용되는 경우에는, 그 세그먼트는 전체적으로 빼지게 된다.In addition, the modified visual hull of the concave object can be generated using the original reference image as well as one or several virtual inverted images as additional reference images. One or several virtual inverted images are used as reference images, and segments between intersections of the virtual inverted images are subtracted (via subtraction operations) from the view ray. In addition, when several virtual inverted images are used as reference images, the segments are totally subtracted.
특히, 오목한 오브젝트에 대한 수정된 비주얼 헐을 생성함에 있어서, 뺄셈 불린 연산은 가상의 카메라에 기초하여 생성된 가상의 뒤집힌 이미지로부터 매핑된 세그먼트에 대하여 수행되며, 교차 불린 연산은 기타의 참조 사진으로부터 매핑된 세그먼트에 대하여 수행된다.In particular, in generating a modified visual hull for a concave object, a subtraction Boolean operation is performed on segments mapped from a virtual flipped image generated based on a virtual camera, and the cross Boolean operation is mapped from other reference photos. Is performed on the segment.
오목 영역에 대한 수정된 비주얼 헐을 계산하는 단계를 입증하는 예시가 도 12에 예시되고, 도 11에서 도시된 바와 같이 다음의 단계를 포함한다.An example demonstrating calculating the modified visual hull for the concave region is illustrated in FIG. 12 and includes the following steps as shown in FIG. 11.
도 11의 단계 1102에서, 새로운 카메라["새로운" 카메라는 도 12에서의 모든 기타의 참조 이미지(1204)의 보는 방향과 상이한 새로운 관점으로부터 오브젝트를 찍는 실제의 카메라를 의미함]에 의해 찍힌 새로운 관점의 이미지(도 12에서 도면 부호 1202)의 픽셀에 대하여, 시선이 계산되며, 이는 새로운 카메라의 중심으로부터 방출되어(emitted) 새로운 관점 이미지의 픽셀을 통과한다. 참조 이미지(1204)에서 이러한 시선의 투사, 즉 투사된 시선은 새로운 카메라의 위치 정보를 이용함에 의하여 결정될 수 있다.In
유사한 방식으로, 투사된 시선이 또한 가상의 참조 이미지로서의 가상의 뒤집힌 이미지(1208)에 대하여 결정된다.In a similar manner, the projected gaze is also determined for the virtual
도 11의 단계 1104에서, 투사된 시선이 참조 이미지(1204) 상에서 2D 실루엣과 교차하는 점은 참조 이미지 상에서 2D 인터벌(interval)의 세트을 야기한다.In
도 11의 단계 1106에서, 참조 이미지에서의 2D 인터벌은 시선 상에서 대응하는 3D 세그먼트가 얻어지도록 3D 공간(1206)으로 다시 투사된다.In
도 11의 단계 1108에서, 1D 불린 교차 연산은 모든 참조 이미지(1204)로부터 투사된 모든 투사된 3D 선 세그먼트에 수행되며, 그 결과, 즉 모든 참조 이미지(1204)로부터의 모든 3D 세그먼트의 교차가 새로운 관점 이미지의 픽셀에 대한 비주얼 헐의 경계를 나타낸다.In
도 11의 단계 1110에서, 하나 이상의 가상의 뒤집힌 이미지(1208)에서의 2D 인터벌은 시선 상의 대응하는 세그먼트를 얻기 위하여 3D 공간(1206)으로 다시 투사되며, 이후에 오목 영역을 가지는 오브젝트에 대한 비주얼 헐을 얻도록 시선 및 가상의 뒤집힌 이미지로부터 매핑된 세그먼트에 대하여 뺄셈 불린 연산이 수행된다.In
여기에서 개시된 방법, 컴퓨터 판독가능 저장 매체 및 장치에 따르면, 오목 영역의 가상의 뒤집힌 이미지 또는 오브젝트의 오목 영역이 생성될 수 있다. 가상의 뒤집힌 이미지는 종래의 이미지 기반 비주얼 헐 기술로는 불가능한 오브젝트의 뷰(view)를 가능하게 한다. 추가적으로, 가상의 뒤집힌 이미지는 오목 영역을 가지는 오브젝트의 정제된 비주얼 헐을 생성하는데에 사용될 수 있고, 비주얼 헐은 오브젝트의 기하학적 구조를 정확히 묘사한다. 추가적으로, 정제된 비주얼 헐은 융기된 결점이 없는 오브젝트의 포토리얼리스틱한 이미지를 얻는 데에 이용될 수 있다.In accordance with the methods, computer readable storage media and apparatus disclosed herein, a concave region of a virtual inverted image or object of the concave region may be created. The virtual inverted image enables a view of the object which is not possible with conventional image-based visual hull techniques. In addition, a virtual inverted image can be used to create a refined visual hull of an object with concave regions, with the visual hull accurately depicting the object's geometry. In addition, refined visual hulls can be used to obtain photorealistic images of objects without raised defects.
전술한 상세한 설명은 블록도, 흐름도, 및/또는 예를 통해 장치의 다양한 실시예 및/또는 프로세스를 설명하였다. 그러한 블록도, 흐름도, 및/또는 예는 하나 이상의 기능 및/또는 동작을 포함하는 한, 당업자라면 그러한 블록도, 흐름도, 또는 예 내의 각각의 기능 및/또는 동작은 하드웨어, 소프트웨어, 펌웨어, 또는 가상의 그들의 임의의 조합의 넓은 범위에 의해 개별적으로 및/또는 집합적으로 구현될 수 있다는 것이 이해될 것이다. 일 실시예에서, 본 개시에 기재된 대상의 몇몇 부분은 ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array), DSP(Digital Signal Processor) 또는 다른 집적의 형태를 통해 구현될 수 있다. 그러나, 당업자라면, 본 개시의 실시예의 일부 양상은, 하나 이상의 컴퓨터 상에 실행되는 하나 이상의 컴퓨터 프로그램(예를 들어, 하나 이상의 컴퓨터 시스템 상에 실행되는 하나 이상의 프로그램), 하나 이상의 프로세서 상에서 실행되는 하나 이상의 프로그램(예를 들어, 하나 이상의 마이크로프로세서 상에서 실행되는 하나 이상의 프로그램), 펌웨어 또는 실질적으로 이들의 조합으로써, 전체적으로 또는 부분적으로 균등하게 집적회로에 구현될 수 있다는 알 수 있으며, 소프트웨어 및/또는 펌웨어를 위한 코드의 작성 및/또는 회로의 설계는 본 개시에 비추어 당업자에게 자명할 것이다. 또한, 당업자라면, 본 개시의 대상의 매커니즘(mechanism)들이 다양한 형태의 프로그램 제품으로 분포될 수 있음을 이해할 것이며, 본 개시의 대상의 예시는, 분배를 실제로 수행하는데 사용되는 신호 포함 매체(signal bearing medium)의 특정 유형과 무관하게 적용됨을 이해할 것이다. 신호 포함 매체의 예는, 플로피 디스크, 하드 디스크 드라이브, CD, DVD, 디지털 테이프, 컴퓨터 메모리 등과 같은 판독가능 유형의 매체, 디지털 및/또는 아날로그 통신 매체(예를 들어, 섬유 광학 케이블, 웨이브가이드, 유선 통신 링크, 무선 통신 링크 등)와 같은 전송 유형 매체를 포함할 수 있으나, 이에 제한되지는 않는다.The foregoing detailed description has described various embodiments and / or processes of the apparatus through block diagrams, flowcharts, and / or examples. As long as such block diagrams, flowcharts, and / or examples include one or more functions and / or operations, those skilled in the art will appreciate that each function and / or operation within such block diagrams, flowcharts, or examples is hardware, software, firmware, or virtual. It will be understood that they may be implemented individually and / or collectively by a wide range of any combination of these. In one embodiment, some portions of the subject matter described in this disclosure may be implemented in the form of an Application Specific Integrated Circuit (ASIC), a Field Programmable Gate Array (FPGA), a Digital Signal Processor (DSP), or other integrated form. However, those skilled in the art will appreciate that some aspects of the embodiments of the present disclosure may include one or more computer programs running on one or more computers (eg, one or more programs running on one or more computer systems), one running on one or more processors. It will be appreciated that the software and / or firmware may be implemented as a whole or in part, evenly, in whole or in part, with one or more programs (eg, one or more programs running on one or more microprocessors), firmware, or substantially a combination thereof. Writing code for and / or designing a circuit will be apparent to those skilled in the art in light of the present disclosure. Moreover, those skilled in the art will understand that the mechanisms of the subject matter of the present disclosure may be distributed in various forms of program products, and examples of the subject matter of the present disclosure are signal bearing media used to actually perform the distribution. It will be understood that this applies regardless of the particular type of medium). Examples of signal bearing media include readable type media such as floppy disks, hard disk drives, CD, DVD, digital tape, computer memory, etc., digital and / or analog communication media Wired communication link, wireless communication link, etc.), but is not limited thereto.
당업자라면, 여기서 설명된 형식으로 장치 및/또는 프로세스를 기술하고, 이후, 공학 실무를 사용하여 그러한 기술된 장치(예를 들면, 전송기, 수신기, 컴퓨팅 플랫폼, 컴퓨팅 장치 등) 및/또는 방법을 데이터 처리 시스템에 통합한다는 것은 당해 분야에서는 일반적이란 것을 인식할 것이다. 즉, 여기서 기술된 장치 및/또는 방법의 적어도 일부는 합당한 실험량을 통해 데이터 처리 시스템에 통합될 수 있다. 당업자라면, 전형적인 데이터 처리 시스템은 일반적으로 하나 이상의 시스템 유닛 하우징, 비디오 디스플레이 장치, 휘발성 및 비휘발성 메모리 같은 메모리, 마이크로프로세서 및 디지털 신호 프로세서 같은 프로세서, 운영 체제, 드라이버, 그래픽 사용자 인터페이스 및 애플리케이션 프로그램과 같은 컴퓨터 엔티티(computational entities), 터치 패드 또는 스크린 같은 하나 이상의 상호작용 장치, 및/또는 피드백 루프 및 제어 모터(예를 들면, 위치 및/또는 속도를 감지하기 위한 피드백; 컴포넌트 및/또는 양(quantities)을 이동하고 및/또는 조정하기 위한 제어 모터)를 포함하는 제어 시스템을 일반적으로 포함한다는 것을 인식할 것이다. 전형적인 데이터 처리 시스템은 데이터 컴퓨팅/통신 및/또는 네트워크 컴퓨팅/통신 시스템에서 전형적으로 발견되는 바와 같은 임의의 적절한 상업적으로 이용가능한 컴포넌트를 이용하여 구현될 수 있다.Those skilled in the art will describe the devices and / or processes in the format described herein, and then use engineering practice to describe such described devices (eg, transmitters, receivers, computing platforms, computing devices, etc.) and / or methods. It will be appreciated that integrating into a processing system is common in the art. That is, at least some of the devices and / or methods described herein may be incorporated into a data processing system through reasonable experimental quantities. As those skilled in the art, typical data processing systems typically include one or more system unit housings, video display devices, memory such as volatile and nonvolatile memory, processors such as microprocessors and digital signal processors, operating systems, drivers, graphical user interfaces and application programs. One or more interactive devices, such as computerized entities, touch pads or screens, and / or feedback loops and control motors (eg, feedback for sensing position and / or speed; components and / or quantities) It will be appreciated that it generally includes a control system comprising a control motor for moving and / or adjusting the motor. Typical data processing systems may be implemented using any suitable commercially available components as are typically found in data computing / communication and / or network computing / communication systems.
여기서 기술된 대상은 때때로 상이한 다른 컴포넌트 내에 포함되거나 접속된 상이한 컴포넌트를 도시한다. 도시된 그러한 아키텍처는 단순히 예시적인 것이고, 사실상 동일한 기능을 달성하는 다른 많은 아키텍처가 구현될 수 있다는 것이 이해되어야 한다. 개념적으로, 동일한 기능을 달성하기 위한 컴포넌트의 임의의 배치는 원하는 기능이 달성되도록 유효하게 "연관"된다. 이에 따라, 특정 기능을 달성하기 위해 여기서 결합된 임의의 두 개의 컴포넌트는, 아키텍처 또는 중간 컴포넌트와는 무관하게, 원하는 기능이 달성되도록 서로 "연관"된 것으로 볼 수 있다. 마찬가지로, 연관된 두 개의 컴포넌트는 또한 원하는 기능을 달성하기 위해 서로 "동작적으로 접속"되거나 또는 "동작적으로 연결"되는 것으로 간주될 수 있고, 그와 같이 연관될 수 있는 임의의 두 개의 컴포넌트는 또한 원하는 기능을 달성하기 위해 서로 "동작적으로 연결가능"한 것으로 볼 수 있다. 동작적으로 연결 가능하다는 것의 특정 예는 물리적으로 양립가능(mateable)하고 및/또는 물리적으로 상호작용하는 컴포넌트 및/또는 무선으로 상호작용이 가능하고 및/또는 무선으로 상호작용하는 컴포넌트 및/또는 논리적으로 상호작용하고 및/또는 논리적으로 상호작용이 가능한 컴포넌트를 포함하지만, 이에 한정되는 것은 아니다.The subject matter described herein sometimes illustrates different components contained within or connected to different other components. It is to be understood that the illustrated architecture is merely exemplary and that many other architectures may be implemented that substantially achieve the same functionality. Conceptually, any arrangement of components to achieve the same functionality is effectively "associated" such that the desired functionality is achieved. Thus, any two components combined herein to achieve a particular function may be viewed as “associated with” each other such that the desired function is achieved, regardless of the architecture or intermediate components. Likewise, two associated components may also be considered to be "operatively connected" or "operatively connected" to each other to achieve the desired functionality, and any two components that may be associated as such It can be seen that they are "operably connectable" with one another to achieve a desired function. Certain examples of being operatively connectable are components that are physically compatible and / or physically interacting and / or wirelessly interacting and / or wirelessly interacting and / or logically. And / or logically interactable components with, but are not limited to.
여기에서 실질적으로 임의의 복수 및/또는 단수의 용어의 사용에 대하여, 당업자는 맥락 및/또는 응용에 적절하도록, 복수를 단수로 및/또는 단수를 복수로 해석할 수 있다. 다양한 단수/복수의 치환은 명확성을 위해 여기에서 명시적으로 기재될 수 있다.With respect to the use of virtually any plural and / or singular term herein, one skilled in the art can interpret the plural to singular and / or the plural to plural, as appropriate to the context and / or application. Various singular / plural substitutions may be explicitly described herein for clarity.
당업자라면, 일반적으로 본 개시에 사용되며 특히 첨부된 청구범위(예를 들어, 첨부된 청구범위)에 사용된 용어들이 일반적으로 "개방적(open)" 용어(예를 들어, 용어 "포함하는"은 "포함하지만 이에 제한되지 않는"으로, 용어 "갖는"는 "적어도 갖는"으로, 용어 "포함하다"는 "포함하지만 이에 한정되지 않는" 등으로 해석되어야 함)로 의도되었음을 이해할 것이다. 또한, 당업자라면, 도입된 청구항의 기재사항의 특정 수가 의도된 경우, 그러한 의도가 청구항에 명시적으로 기재될 것이며, 그러한 기재사항이 없는 경우, 그러한 의도가 없음을 또한 이해할 것이다. 예를 들어, 이해를 돕기 위해, 이하의 첨부 청구범위는 "적어도 하나" 및 "하나 이상" 등의 도입 구절의 사용을 포함하여 청구항 기재사항을 도입할 수 있다. 그러나, 그러한 구절의 사용이, 부정관사 "하나"("a" 또는 "an")에 의한 청구항 기재사항의 도입이, 그러한 하나의 기재사항을 포함하는 실시예로, 그러한 도입된 청구항 기재사항을 포함하는 특정 청구항을 제한함을 암시하는 것으로 해석되어서는 안되며, 동일한 청구항이 도입 구절인 "하나 이상" 또는 "적어도 하나" 및 "하나"("a" 또는 "an")과 같은 부정관사(예를 들어, "하나"는 "적어도 하나" 또는 "하나 이상"을 의미하는 것으로 일반적으로 해석되어야 함)를 포함하는 경우에도 마찬가지로 해석되어야 한다. 이는 청구항 기재사항을 도입하기 위해 사용된 정관사의 경우에도 적용된다. 또한, 도입된 청구항 기재사항의 특정 수가 명시적으로 기재되는 경우에도, 당업자라면 그러한 기재가 일반적으로 적어도 기재된 수(예를 들어, 다른 수식어가 없는 "두개의 기재사항"을 단순히 기재한 것은, 일반적으로 적어도 두 개의 기재사항 또는 두 개 이상의 기재사항을 의미함)를 의미하도록 해석되어야 함을 이해할 것이다. 또한, "A, B 및 C,등 중의 적어도 하나"와 유사한 규칙이 사용된 경우에는, 일반적으로 그러한 해석은 당업자가 그 규칙을 이해할 것이라는 전제가 의도된 것이다(예를 들어, "A, B 및 C 중의 적어도 하나를 갖는 시스템"은, A만을 갖거나, B만을 갖거나, C만을 갖거나, A 및 B를 함께 갖거나, A 및 C를 함께 갖거나, B 및 C를 함께 갖거나, A, B, 및 C를 함께 갖는 시스템을 포함하지만 이에 제한되지 않음). "A, B 또는 C 중의 적어도 하나"와 유사한 규칙이 사용된 경우에는, 일반적으로 그러한 해석은 당업자가 그 규칙을 이해할 것이라는 전제가 의도된 것이다(예를 들어, "A, B 또는 C 중의 적어도 하나를 갖는 시스템"은, A만을 갖거나, B만을 갖거나, C만을 갖거나, A 및 B를 함께 갖거나, A 및 C를 함께 갖거나, B 및 C를 함께 갖거나, A, B, 및 C를 함께 갖는 시스템을 포함하지만 이에 제한되지 않음). 또한 당업자라면, 실질적으로 어떠한 이접 접속어(disjunctive word) 및/또는 두 개 이상의 대안적인 용어들을 나타내는 구절은, 그것이 상세한 설명, 청구범위 또는 도면에 있는지와 상관없이, 그 용어들 중의 하나, 그 용어들 중의 어느 하나, 또는 그 용어들 두 개 모두를 포함하는 가능성을 고려했음을 이해할 것이다. 예를 들어, "A 또는 B"라는 구절은 "A" 또는 "B" 또는 "A 및 B"의 가능성을 포함하는 것으로 이해될 것이다.Those skilled in the art will generally appreciate that the terms used in the present disclosure and specifically used in the appended claims (eg, appended claims) are generally "open" terms (eg, the term "comprising"). It is to be understood that the term "having" is intended to be interpreted as "including, but not limited to", "having" at least, and the term "comprising" should be interpreted as "including but not limited to" and the like. Moreover, those skilled in the art will also understand that, where a specific number of descriptions in the appended claims are intended, such intent will be expressly stated in the claims, and in the absence of such description, no such intention is intended. For example, to facilitate understanding, the following claims are intended to incorporate the claims, including the use of introduction phrases such as "at least one" and "one or more". It is to be understood, however, that the use of such phrases is not intended to limit the scope of the present invention to the use of an indefinite article "a" or "an" And should not be construed to limit the inclusion of a particular claim and should not be construed to imply that the same claim is not to be construed as an admission that it has been disclosed as an adverbial phrase such as "one or more" or "at least one" and " Quot; one "should be interpreted generally as meaning" at least one "or" at least one "). This also applies to the case of articles used to introduce claims. In addition, even if a particular number of introduced claim descriptions are expressly stated, it is generally known to one skilled in the art that such descriptions generally describe at least the number described (eg, “two descriptions” without other modifiers). Will be interpreted to mean at least two entries or two or more entries). In addition, where rules similar to “at least one of A, B and C, etc.” are used, it is generally intended that such interpretations will be understood by those skilled in the art (eg, “A, B and A system having at least one of C "has only A, has only B, has only C, has A and B together, has A and C together, has B and C together, or A Including, but not limited to, systems having B, and C together). If a rule similar to "at least one of A, B, or C" is used, then generally such interpretation is intended to assume that a person skilled in the art will understand the rule (e.g., A " and " B " together, A and C together, B and C together, or A, B, C together). It will also be understood by those skilled in the art that substantially any disjunctive word and / or phrase that represents more than one alternative term, whether in the detailed description, the claims or the drawings, , Or any combination of the terms < RTI ID = 0.0 > and / or < / RTI > For example, the phrase "A or B" will be understood to include the possibility of "A" or "B" or "A and B".
다양한 양상 및 실시예들이 본 개시에서 기술되었지만, 다른 양상 및 실시예들이 당업자에게 명확할 것이다. 본 개시에 기재된 다양한 양상 및 실시예는 예시의 목적으로 제시된 것이고, 제한하려고 의도된 것은 아니며, 진정한 범위 및 사상은 이하 청구범위에 의해 나타낸다.While various aspects and embodiments have been described in this disclosure, other aspects and embodiments will be apparent to those skilled in the art. The various aspects and embodiments described in this disclosure are presented for purposes of illustration and are not intended to be limiting, with the true scope and spirit being indicated by the following claims.
Claims (16)
상기 복수의 참조 이미지에 기초하여 상기 오목 영역에 대한 가상의 뒤집힌 이미지(virtual inside-out image)를 생성하는 단계Obtaining a plurality of reference images of an object having a concave region; And
Generating a virtual inside-out image for the concave region based on the plurality of reference images
상기 가상의 뒤집힌 이미지를 생성하는 단계는
상기 복수의 참조 이미지에 기초하여 상기 오브젝트의 바깥쪽 경계에 대한 비주얼 헐(visual hull)을 얻는 단계;
상기 비주얼 헐 상에 상기 오목 영역의 경계의 3D 좌표를 결정하는 단계;
상기 오목 영역의 가상의 뒤집힌 이미지를 계산하기 위하여 상기 오목 영역의 안쪽에 위치를 선택하는 단계;
상기 선택된 위치에 대한 이미지 파라미터들(image parameters)을 결정하는 단계;
참조 오목 영역 이미지(reference concave region image)로서 상기 오목 영역의 상기 완전한 경계(complete boundary)를 덮는(covering) 이미지를 캡쳐하는 단계; 및
3D에서 2D로의 원근 투영(perspective projection)을 수행함에 의하여 상기 결정된 3D 좌표, 상기 이미지 파라미터들, 및 상기 캡쳐된 참조 오목 영역 이미지에 기초하여 상기 오목 영역에 대한 상기 가상의 뒤집힌 이미지를 생성하는 단계
를 더 포함하는 방법.The method of claim 1,
Generating the virtual flipped image
Obtaining a visual hull for an outer boundary of the object based on the plurality of reference images;
Determining 3D coordinates of a boundary of the concave region on the visual hull;
Selecting a location inside the recessed area to calculate a virtual flipped image of the recessed area;
Determining image parameters for the selected location;
Capturing an image covering the complete boundary of the concave region as a reference concave region image; And
Generating the virtual inverted image for the concave region based on the determined 3D coordinates, the image parameters, and the captured reference concave region image by performing perspective projection from 3D to 2D.
≪ / RTI >
상기 3D 좌표를 결정하는 단계는
이미지 세그멘테이션(image segmentation)에 의하여 2D 참조 사진에서 상기 오목 영역의 경계를 결정하는 단계; 및
상기 비주얼 헐 상에서 상기 오목 영역의 상기 경계의 대응하는 3D 좌표를 결정하는 단계를 포함하는 방법.The method of claim 2,
The determining of the 3D coordinates
Determining a boundary of the concave region in a 2D reference photograph by image segmentation; And
Determining a corresponding 3D coordinate of the boundary of the concave region on the visual hull.
가상의 참조 이미지로서 생성된 상기 가상의 뒤집힌 이미지를 이용하여,
상기 복수의 참조 이미지와 함께, 상기 가상의 참조 이미지로부터 매핑된 대응하는 세그먼트들(segments)에 대한 뺄셈 불린 연산(subtraction Boolean operation)을 수행하고 상기 참조 이미지로부터 매핑된 대응하는 세그먼트들에 대한 교차 불린 연산(intersection Boolean operation)를 수행함으로써 수정된 비주얼 헐을 얻는 단계를 더 포함하는 방법.The method of claim 2,
Using the virtual flipped image generated as a virtual reference image,
Perform a subtraction Boolean operation on corresponding segments mapped from the virtual reference image with the plurality of reference images and cross Boolean on corresponding segments mapped from the reference image. Obtaining a modified visual hull by performing an intersection Boolean operation.
여러 가상의 뒤집힌 이미지가 상기 오목 영역을 가지는 상기 오브젝트에 대하여 생성되고 상기 여러 가상의 뒤집힌 이미지는 가상의 참조 이미지로 이용되며, 상기 가상의 뒤집힌 이미지의 교차점(intersecting points)을 연결하는 상기 세그먼트들은 불린 뺄셈 연산을 수행함에 있어 전체적으로 빼지게 되는(subtracted) 것인 방법.The method of claim 4, wherein
Several virtual flipped images are generated for the object having the concave area and the multiple virtual flipped images are used as virtual reference images, and the segments connecting the intersecting points of the virtual flipped images are called A method that is totally subtracted in performing a subtraction operation.
오목 영역을 가지는 오브젝트의 복수의 참조 이미지를 얻는 단계; 및
상기 복수의 참조 이미지에 기초하여 상기 오목 영역에 대한 가상의 뒤집힌 이미지를 생성하는 단계
를 포함하는 단계를 수행하는 컴퓨터 실행 가능한 프로그램 코드를 저장한 컴퓨터 판독 가능한 저장 매체.A computer readable storage medium storing program code executable on a computer, when executed by the computer,
Obtaining a plurality of reference images of an object having a concave region; And
Generating a virtual flipped image for the concave region based on the plurality of reference images
A computer readable storage medium storing computer executable program code for performing the step comprising a.
상기 생성하는 단계는
상기 복수의 참조 이미지에 기초하여 상기 오브젝트의 바깥쪽 경계에 대한 비주얼 헐을 얻는 단계;
상기 비주얼 헐 상에서 상기 오목 영역의 경계의 3D 좌표를 결정하는 단계;
상기 오목 영역의 가상의 뒤집힌 이미지를 계산하기 위하여 상기 오목 영역의 안쪽에 위치를 선택하는 단계;
상기 선택된 위치에 대한 이미지 파라미터들을 결정하는 단계;
참조 오목 영역의 이미지로서 상기 오목 영역의 상기 완전한 경계를 덮는 이미지를 캡쳐하는 단계; 및
3D에서 2D로의 원근 투영(3D to 2D perspective projection)을 수행함에 의하여 상기 결정된 3D 좌표, 상기 이미지 파라미터, 및 상기 캡쳐된 참조 오목 영역의 이미지에 기초하여 상기 오목 영역에 대한 상기 가상의 뒤집힌 이미지를 생성하는 단계를 더 포함하는 컴퓨터 판독 가능한 저장 매체.The method of claim 6,
The generating step
Obtaining a visual hull of an outer boundary of the object based on the plurality of reference images;
Determining 3D coordinates of a boundary of the concave region on the visual hull;
Selecting a location inside the recessed area to calculate a virtual flipped image of the recessed area;
Determining image parameters for the selected location;
Capturing an image covering the complete boundary of the concave region as an image of a reference concave region; And
Performing 3D to 2D perspective projection generates the virtual inverted image for the concave region based on the determined 3D coordinates, the image parameters, and the image of the captured reference concave region. And a computer readable storage medium.
이미지 세그멘테이션에 의하여 2D 참조 사진에서 상기 오목 영역의 경계를 결정하고;
상기 비주얼 헐 상에서 상기 오목 영역의 상기 경계의 대응하는 3D 좌표를 결정하는
컴퓨터 판독 가능한 저장 매체The method of claim 7, wherein
Determine a boundary of the concave region in the 2D reference photograph by image segmentation;
Determine a corresponding 3D coordinate of the boundary of the concave region on the visual hull
Computer readable storage media
가상의 참조 이미지로서 상기 생성된 가상의 뒤집힌 이미지를 이용하여, 상기 복수의 참조 이미지와 함께, 상기 가상의 참조 이미지로부터 매핑된 대응하는 세그먼트에 대한 뺄셈 불린 연산을 수행하고 상기 참조 이미지로부터 매핑된 대응하는 세그먼트에 대한 교차 불린 연산을 수행함으로써 수정된 비주얼 헐을 얻는 단계를 더 포함하는 컴퓨터 판독 가능한 저장 매체.The method of claim 7, wherein
Using the generated virtual inverted image as a virtual reference image, perform a subtraction boolean operation on a corresponding segment mapped from the virtual reference image, with the plurality of reference images, and correspondence mapped from the reference image. And obtaining a modified visual hull by performing a cross Boolean operation on the segment.
여러 가상의 뒤집힌 이미지가 상기 오목 영역을 가지는 상기 오브젝트에 대하여 생성되고 상기 여러 가상의 뒤집힌 이미지는 가상의 참조 이미지로 이용되며, 상기 가상의 뒤집힌 이미지의 상기 교차점을 연결한 상기 세그먼트는 상기 불린 뺄셈 연산을 수행함에 있어서 전체적으로 빼지게 되는 컴퓨터 판독 가능한 저장 매체.10. The method of claim 9,
Several virtual flipped images are generated for the object having the concave area and the multiple virtual flipped images are used as virtual reference images, and the segment connecting the intersection of the virtual flipped images is the boolean subtraction operation. Computer-readable storage media that is totally eliminated in performing the operation.
카메라로부터 얻은 오브젝트의 복수의 참조 이미지 및 상기 오브젝트의 오목 영역의 전체 경계를 캡쳐한 관점으로부터 얻어진 참조 이미지를 저장하는 저장 장치;
상기 오목 영역의 상기 경계 및 각각의 참조 이미지에 대한 실루엣을 얻는 실루엣 처리 모듈; 및
상기 오목 영역의 가상의 뒤집힌 이미지를 얻고 상기 가상의 뒤집힌 이미지에 기초하여 상기 오목 영역을 가지는 상기 오브젝트에 대한 비주얼 헐을 합성하기 위한 상기 실루엣 처리 모듈에 연결된 가상 이미지 합성 모듈을 포함하는 장치.As an apparatus,
A storage device for storing a plurality of reference images of an object obtained from a camera and reference images obtained from a perspective of capturing the entire boundary of the concave area of the object;
A silhouette processing module for obtaining a silhouette for the boundary of the concave region and each reference image; And
And a virtual image synthesizing module coupled to the silhouette processing module for obtaining a virtual flipped image of the concave region and synthesizing a visual hull for the object having the concave region based on the virtual flipped image.
상기 실루엣 처리 모듈은 상기 배경으로부터 상기 오목 영역을 분리하고 상기 오목 영역의 상기 실루엣을 연산하는 장치.The method of claim 11,
And the silhouette processing module separates the concave region from the background and calculates the silhouette of the concave region.
상기 가상 이미지 합성 모듈은, 상기 가상의 카메라가 상기 오브젝트의 상기 오목 영역 안쪽에 배치되어, 초점 거리를 포함하는 가상의 카메라에 대한 파라미터를 결정하며, 상기 오목 영역의 상기 전체의 경계 영역을 덮는 상기 참조 이미지 및 상기 결정된 파라미터에 기초하여 상기 가상의 뒤집힌 이미지를 생성하는 장치.The method of claim 11,
The virtual image synthesizing module further comprises: the virtual camera being disposed inside the concave region of the object to determine a parameter for the virtual camera including a focal length and covering the entire boundary region of the concave region; And generate the virtual inverted image based on a reference image and the determined parameter.
상기 가상의 카메라는 상기 오브젝트의 상기 오목 영역의 저면에 배치된 장치.The method of claim 13,
And the virtual camera is disposed on a bottom surface of the concave area of the object.
오목 영역을 가지는 오브젝트의 복수의 참조 이미지를 얻는 단계;
상기 복수의 참조 이미지에 기초하여 상기 오목 영역에 대한 가상의 뒤집힌 이미지를 생성하는 단계; 및
가상의 참조 이미지로서 상기 생성된 가상의 뒤집힌 이미지를 이용하여, 상기 참조 이미지와 함께, 상기 가상의 참조 이미지로부터 매핑된 대응하는 세그먼트에 대한 뺄셈 불린 연산을 수행하고 상기 참조 이미지로부터 매핑된 대응하는 세그먼트에 대한 교차 불린 연산을 수행함에 의하여 비주얼 헐을 획득하는 단계를 포함하는 방법.As a method,
Obtaining a plurality of reference images of an object having a concave region;
Generating a virtual inverted image for the concave region based on the plurality of reference images; And
Using the generated virtual inverted image as a virtual reference image, perform a subtraction boolean operation on the corresponding segment mapped from the virtual reference image, with the reference image and corresponding segment mapped from the reference image. Obtaining a visual hull by performing a cross Boolean operation on the.
여러 가상의 뒤집힌 이미지는 상기 오목 영역을 가지는 상기 오브젝트에 대하여 생성되며 상기 가상의 뒤집힌 이미지는 가상의 참조 이미지로 이용되어, 상기 가상의 뒤집힌 이미지의 상기 교차점을 연결한 상기 세그먼트는 상기 불린 뺄셈 불린 연산을 수행함에 있어 전체적으로 빼지게 되는 방법.16. The method of claim 15,
Several virtual inverted images are generated for the object having the concave region and the virtual inverted image is used as a virtual reference image such that the segments connecting the intersections of the virtual inverted images are called Boolean subtraction operations. How to be subtracted as a whole.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2009/075367 WO2011069285A1 (en) | 2009-12-07 | 2009-12-07 | Concave surface modeling in image-based visual hull |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120118462A true KR20120118462A (en) | 2012-10-26 |
KR101566459B1 KR101566459B1 (en) | 2015-11-05 |
Family
ID=44145082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020127017661A KR101566459B1 (en) | 2009-12-07 | 2009-12-07 | Concave surface modeling in image-based visual hull |
Country Status (6)
Country | Link |
---|---|
US (2) | US8526713B2 (en) |
JP (1) | JP5473096B2 (en) |
KR (1) | KR101566459B1 (en) |
DE (1) | DE112009005423T5 (en) |
GB (1) | GB2489848A (en) |
WO (1) | WO2011069285A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101566459B1 (en) | 2009-12-07 | 2015-11-05 | 페킹 유니버시티 | Concave surface modeling in image-based visual hull |
US9338440B2 (en) | 2013-06-17 | 2016-05-10 | Microsoft Technology Licensing, Llc | User interface for three-dimensional modeling |
CN111429581B (en) * | 2020-03-12 | 2024-01-26 | 网易(杭州)网络有限公司 | Method and device for determining outline of game model and adding special effects of game |
CN116818063B (en) * | 2023-08-30 | 2023-11-14 | 江铃汽车股份有限公司 | Method and device for detecting coating quality of automobile chip heat dissipation glue and readable storage medium |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4982438A (en) | 1987-06-02 | 1991-01-01 | Hitachi, Ltd. | Apparatus and method for recognizing three-dimensional shape of object |
JPH1023465A (en) * | 1996-07-05 | 1998-01-23 | Canon Inc | Image pickup method and its device |
JP3819662B2 (en) * | 1999-12-24 | 2006-09-13 | 三洋電機株式会社 | Three-dimensional modeling apparatus, method and medium, and tertiary shape data recording apparatus, method and medium |
JP2001351119A (en) * | 2000-06-06 | 2001-12-21 | Ricoh Co Ltd | Method for generating triangular mesh, and recording medium for implementing the method |
US6792140B2 (en) * | 2001-04-26 | 2004-09-14 | Mitsubish Electric Research Laboratories, Inc. | Image-based 3D digitizer |
US6975756B1 (en) | 2002-03-12 | 2005-12-13 | Hewlett-Packard Development Company, L.P. | Image-based photo hulls |
GB0305315D0 (en) * | 2003-03-07 | 2003-04-09 | Weber Martin | Image processing system |
JP4125252B2 (en) * | 2004-03-02 | 2008-07-30 | 株式会社東芝 | Image generation apparatus, image generation method, and image generation program |
JP4808600B2 (en) | 2006-11-22 | 2011-11-02 | デジタルファッション株式会社 | Rendering program, rendering apparatus, and rendering method |
KR100914845B1 (en) * | 2007-12-15 | 2009-09-02 | 한국전자통신연구원 | Method and apparatus for 3d reconstructing of object by using multi-view image information |
US8363926B2 (en) * | 2008-02-06 | 2013-01-29 | University Of Central Florida Research Foundation, Inc. | Systems and methods for modeling three-dimensional objects from two-dimensional images |
CN100557640C (en) * | 2008-04-28 | 2009-11-04 | 清华大学 | A kind of interactive multi-vision point three-dimensional model reconstruction method |
KR101566459B1 (en) | 2009-12-07 | 2015-11-05 | 페킹 유니버시티 | Concave surface modeling in image-based visual hull |
JP5740559B2 (en) * | 2012-11-30 | 2015-06-24 | パナソニックIpマネジメント株式会社 | Image processing apparatus and endoscope |
-
2009
- 2009-12-07 KR KR1020127017661A patent/KR101566459B1/en active IP Right Grant
- 2009-12-07 GB GB1211470.8A patent/GB2489848A/en not_active Withdrawn
- 2009-12-07 DE DE112009005423T patent/DE112009005423T5/en not_active Ceased
- 2009-12-07 WO PCT/CN2009/075367 patent/WO2011069285A1/en active Application Filing
- 2009-12-07 JP JP2012542329A patent/JP5473096B2/en not_active Expired - Fee Related
- 2009-12-07 US US12/995,751 patent/US8526713B2/en not_active Expired - Fee Related
-
2013
- 2013-07-31 US US13/955,846 patent/US8891857B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US8526713B2 (en) | 2013-09-03 |
JP2013513172A (en) | 2013-04-18 |
GB2489848A (en) | 2012-10-10 |
GB201211470D0 (en) | 2012-08-08 |
US20110262031A1 (en) | 2011-10-27 |
US20130315471A1 (en) | 2013-11-28 |
JP5473096B2 (en) | 2014-04-16 |
US8891857B2 (en) | 2014-11-18 |
WO2011069285A1 (en) | 2011-06-16 |
KR101566459B1 (en) | 2015-11-05 |
DE112009005423T5 (en) | 2012-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109003325B (en) | Three-dimensional reconstruction method, medium, device and computing equipment | |
JP7403528B2 (en) | Method and system for reconstructing color and depth information of a scene | |
EP2992508B1 (en) | Diminished and mediated reality effects from reconstruction | |
CN115699114B (en) | Method and apparatus for image augmentation for analysis | |
Goesele et al. | Ambient point clouds for view interpolation | |
Zollmann et al. | Image-based ghostings for single layer occlusions in augmented reality | |
US8717390B2 (en) | Art-directable retargeting for streaming video | |
CN111243071A (en) | Texture rendering method, system, chip, device and medium for real-time three-dimensional human body reconstruction | |
US20130083021A1 (en) | Stereo-Aware Image Editing | |
US8373802B1 (en) | Art-directable retargeting for streaming video | |
CN109906600B (en) | Simulated depth of field | |
WO2013074561A1 (en) | Modifying the viewpoint of a digital image | |
US8633926B2 (en) | Mesoscopic geometry modulation | |
JP2004234350A (en) | Image processing device, image processing method, and image processing program | |
US8891857B2 (en) | Concave surface modeling in image-based visual hull | |
CN117011493B (en) | Three-dimensional face reconstruction method, device and equipment based on symbol distance function representation | |
Liu et al. | Fog effect for photography using stereo vision | |
Świrski et al. | Layered photo pop-up | |
US9330434B1 (en) | Art-directable retargeting for streaming video | |
Casas et al. | Props alive: a framework for augmented reality stop motion animation | |
JP5994320B2 (en) | Depth production support apparatus, depth production support method, and program | |
Heindl et al. | Capturing photorealistic and printable 3d models using low-cost hardware | |
Hao et al. | Interactive image completion with perspective constraint | |
Kolivand et al. | Livephantom: Retrieving virtual world light data to real environments | |
JP2015103960A (en) | Method, program and apparatus for specifying image depth |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20181129 Year of fee payment: 4 |