KR20230163920A - 목표 대상의 3차원 재구성 방법 및 시스템 - Google Patents

목표 대상의 3차원 재구성 방법 및 시스템 Download PDF

Info

Publication number
KR20230163920A
KR20230163920A KR1020230004895A KR20230004895A KR20230163920A KR 20230163920 A KR20230163920 A KR 20230163920A KR 1020230004895 A KR1020230004895 A KR 1020230004895A KR 20230004895 A KR20230004895 A KR 20230004895A KR 20230163920 A KR20230163920 A KR 20230163920A
Authority
KR
South Korea
Prior art keywords
image information
target object
viewing angle
preset
reconstruction
Prior art date
Application number
KR1020230004895A
Other languages
English (en)
Inventor
정취안 천
Original Assignee
쓰촨 중성 매트릭스 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 쓰촨 중성 매트릭스 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 쓰촨 중성 매트릭스 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20230163920A publication Critical patent/KR20230163920A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

본 발명은 3차원 이미지 분야에 적용되며, 목표 대상의 3차원 재구성 방법 및 시스템을 제공하고, 상기 방법은, 목표 대상을 획득하는 시야각 경계를 계산하는 단계(S10); 시야각 경계 내, 목표 대상의 여러 시야각에서의 초기 이미지 정보 및/또는 융합 이미지 정보를 포함하는 이미지 정보를 획득하는 단계(S20); 획득한 이미지 정보에 따라 목표 대상에 대한 3차원 재구성을 완료하는 단계(S30)를 포함한다. 본 출원의 목표 대상의 3차원 재구성 방법을 이용하면, 3차원 목표의 서로 다른 시점에서의 3차원 재구성을 실시간으로 진행할 수 있고, 중간에 다른 단계를 거치지 않고, 획득한 이미지 정보는 어떠한 손실도 없이, 실제 정보를 바로 재구성하여, 진정한 목표 대상의 3차원 재구성을 실현한다.

Description

목표 대상의 3차원 재구성 방법 및 시스템{Method and system for three-dimensional reconstruction of target object}
본 발명은 3차원 이미지 분야에 관한 것으로, 특히 목표 대상의 3차원 재구성 방법 및 시스템에 관한 것이다.
종래 기술에서, 물체는 2차원 픽처의 형태로 구현될 수도 있고, 3차원(입체)의 형태로 구현될 수도 있으며, 3차원 구현 방식은 일반적으로 3차원 모델링 방식 또는 3차원 스캐닝 기술로 얻은 데이터를 이용하여 면(surface) 또는 점군(point cloud) 형태로 구현한다.
그러나, 모델링 또는 3차원 스캐닝 기술을 통해 물체의 3차원 구현을 진행할 경우, 다음과 같은 문제가 발생할 수 있다: (1) 물체는 3차원 구현 과정에서 갖고 있던 정보가 분실될 수 있어, 물체의 실제, 모든 정보를 완전히 구현할 수 없어, 구현되는 3차원 물체는 진정한 의미의 물체의 3차원 구현이 아니며, 물체가 3차원으로 구현되고, 물체의 모든 정보가 구현되었다고 생각하여 시각적 착각을 일으키기 쉽다. (2) 종래 기술에는 일부 물체에 대해 스캐닝/모델링을 통해 구현할 수 없는 문제도 존재하는데, 예를 들어 물체가 화염, 연기, 물방울, 플라즈마 등일 경우, 이러한 물체는 고광택(高光), 고반사(高反), 고투명(高透) 특징을 가지므로, 현재의 3차원 스캐닝 기술을 통해서는 상기 물체에 대한 3차원 기록을 실현할 수 없으며, 그 이유는 기술적 원리, 경로 및 종래의 3차원 재구성 기술 체계에서 해당 방법을 분석하면 세부 사항, 물리적 속성, 물체 자체의 정보와 환경 사이의 반응 정보 등이 분실되기 때문이다.
종래 기술에 존재하는 상기 기술 문제를 해결하기 위해, 본 발명은 목표 대상의 3차원 재구성 방법 및 시스템을 제공한다.
본 발명의 제1 측면은 목표 대상의 3차원 재구성 방법을 제공하며, 상기 방법은,
목표 대상을 획득하는 시야각 경계를 계산하는 단계(S10);
시야각 경계 내, 목표 대상의 여러 시야각에서의 초기 이미지 정보 및/또는 융합 이미지 정보를 포함하는 이미지 정보를 획득하는 단계(S20);
획득한 이미지 정보에 따라 목표 대상에 대한 3차원 재구성을 완료하는 단계(S30);를 포함한다.
추가적으로, 단계(S10)은,
목표 대상이 위치한 시야각에서의 최대 경계 반경을 계산하는 단계(S11);
최대 경계 반경으로 형성된 가장자리를 시야각 경계로 하는 단계(S12);를 더 포함한다.
추가로, 단계(S20) 이후,
획득한 이미지 정보 내의 프리셋 영역을 계산하는 단계(S41);
프리셋 영역 밖의 영역을 컷팅하여, 프리셋 영역의 이미지 정보를 획득하는 단계(S42);를 더 포함한다.
추가로, 단계(S20)에서 융합 이미지 정보를 획득하는 단계는,
수집 장치와 대응 시야각에서의 목표 대상 사이의 수집 거리를 획득하는 단계(S21);
수집 거리를 프리셋 수량에 따라 복수의 프리셋 수집 거리로 분할하고, 수집 장치는 프리셋 수집 거리를 따라 컷팅 이미지 정보를 획득하는 단계(S22);
동일 시야각에서의 복수의 컷팅 이미지 정보를 융합하여, 융합 이미지 정보를 형성하는 단계(S23);를 포함한다.
추가로, 단계(S30)은,
이미지 정보를 호출하여 목표 대상에 대한 3차원 재구성을 완료하는 단계를 더 포함하거나,
획득한 여러 시야각에서의 이미지 정보에 따라, 속성 번호를 구축하고, 속성 번호에 따라 이미지 정보를 저장 유닛의 프리셋 위치에 저장하는 단계(S31);
재구성 유닛이 재구성 번호를 설정하는 단계(S32);
프리셋 위치 및 재구성 번호에 따라, 목표 대상에 대한 3차원 재구성을 완료하는 단계(S33);를 포함한다.
본 발명의 제2 측면은, 목표 대상의 3차원 재구성 시스템을 제공하며, 상기 시스템은,
목표 대상을 획득하는 시야각 경계를 계산하기 위한, 경계 계산 모듈;
시야각 경계 내, 목표 대상의 여러 시야각에서의 초기 이미지 정보 및/또는 융합 이미지 정보를 포함하는 이미지 정보를 획득하기 위한, 이미지 획득 모듈;
획득한 이미지 정보에 따라 목표 대상에 대한 3차원 재구성을 완료하기 위한, 재구성 모듈;을 포함한다.
추가로, 경계 계산 모듈은, 또한,
목표 대상이 위치한 시야각에서의 최대 경계 반경을 계산하는 것;
최대 경계 반경으로 형성된 가장자리를 시야각 경계로 하는 것;에 사용된다.
추가로, 프리셋 모듈을 더 포함하고,
상기 프리셋 모듈은, 또한,
획득한 이미지 정보 내의 프리셋 영역을 계산하는 것;
프리셋 영역 밖의 영역을 컷팅하여, 프리셋 영역의 이미지 정보를 획득하는 것;에 사용된다.
추가로, 이미지 획득 모듈은, 또한,
수집 장치와 대응 시야각에서의 목표 대상 사이의 수집 거리를 획득하는 것;
수집 거리를 프리셋 수량에 따라 복수의 프리셋 수집 거리로 분할하고, 수집 장치는 프리셋 수집 거리를 따라 컷팅 이미지 정보를 획득하는 것;
동일 시야각에서의 복수의 컷팅 이미지 정보를 융합하여, 융합 이미지 정보를 형성하는 것;에 사용된다.
추가로, 재구성 모듈은, 또한,
이미지 정보를 호출하여 목표 대상에 대한 3차원 재구성을 완료하는 것;에 사용되거나,
획득한 여러 시야각에서의 이미지 정보에 따라, 속성 번호를 구축하고, 속성 번호에 따라 이미지 정보를 저장 유닛의 프리셋 위치에 저장하는 것;
재구성 유닛이 재구성 번호를 설정하는 것;
프리셋 위치 및 재구성 번호에 따라, 목표 대상에 대한 3차원 재구성을 완료하는 것;에 사용된다.
종래 기술에 비해, 본 발명은 적어도 아래와 같은 기술 효과를 가진다.
(1) 본 출원에서는, 목표 대상의 이미지 정보를 획득하기 전에, 먼저 목표 대상의 대응 시야각에서의 표시 이미지의 최대 경계 반경을 계산하여, 최대 경계 반경으로 형성된 가장자리를 시야각 경계로 함으로써, 목표 대상의 대응 시야각에서의 표시 이미지를 시야각 경계 내에 수용하여, 목표 대상에 대한 이미지 정보의 수집 과정에서, 목표 대상의 대응 시야각에서의 시야각 경계 밖의 노이즈 정보를 제거하도록 함으로써, 필요한 정보만 획득하여, 후속 3차원 재구성에 대한 기타 정보의 영향을 피하고, 이미지의 정보량도 줄인다.
(2) 본 출원에서는, 동일한 시야각에서 수집 장치와 목표 대상 사이의 수집 거리를 획득한 후, 수집 거리를 프리셋 수량에 따라 분할하고, 대응되는 컷팅 이미지 정보를 획득하여, 복수의 컷팅 이미지를 융합시킨다. 해당 방법으로 획득한 동일 시야각에서의 이미지 정보는 더욱 선명하고, 이미지 정보에 포함된 노이즈 정보가 적어, 목표 물체의 3차원 재구성시 더욱 순조롭고, 빠르다.
(3) 본 출원에서는, 획득한 이미지 정보 내의 프리셋 영역을 계산한 후, 프리셋 영역 밖의 영역을 컷팅하여, 서로 다른 시야각에서의 대응되는 프리셋 영역의 이미지 정보를 획득하며, 이렇게 획득한 이미지 정보에서 목표 대상 이외의 정보를 컷팅하여, 이미지 정보에 포함된 노이즈 정보량을 크게 줄임으로써, 3차원 재구성의 정보량을 대폭 감소시켜, 3차원 재구성의 효율을 높인다.
(4) 본 출원의 목표 대상의 3차원 재구성 방법을 이용하면, 3차원 목표의 서로 다른 시점에서의 3차원 재구성을 실시간으로 진행할 수 있고, 중간에 다른 단계를 거치지 않고, 획득한 이미지 정보는 어떠한 손실도 없이, 실제 정보를 바로 재구성하여, 진정한 목표 대상의 3차원 재구성을 실현한다.
본 발명의 실시예의 기술 방안을 더욱 명백하게 설명하기 위해, 이하, 본 발명의 실시예 또는 종래 기술의 설명에서 사용할 첨부 도면에 대해 간략하게 소개하며, 이하 설명되는 첨부 도면은 본 발명의 일부 실시예이며, 당업자라면 창조적인 노동 없이 이들 도면에 따라 다른 도면을 얻을 수 있음은 자명하다.
도 1은 본 발명에 따른 목표 대상의 3차원 재구성 방법의 흐름도이다.
도 2는 본 발명에서 목표 대상의 시야각 경계의 개략도이다.
도 3은 본 발명에서 융합 이미지 정보를 획득하는 개략도이다.
도 4는 본 발명에서 3차원 재구성하는 제1 개략도이다.
도 5는 본 발명에서 3차원 재구성하는 제2 개략도이다.
이하의 설명은 본 발명의 서로 다른 특징을 구현하기 위한 다양한 실시예, 또는 예시를 제공한다. 이하 특정 예에서 설명되는 소자 및 배열 방식은 본 발명을 간단히 표현하기 위한 것으로, 단지 예시일 뿐, 본 발명을 제한하는 것은 아니다.
이하, 도면을 참고하여 본 발명의 각 측면에 대해 더욱 자세히 설명한다. 그러나, 본 발명은 다양한 서로 다른 형태로 구현될 수 있으며 본 발명에서 제시된 임의의 특정 구조 또는 기능에 제한되는 것으로 해석해서는 안된다. 오히려, 이러한 측면들은 본 발명을 면밀하고 완전하게 하며, 본 발명은 당업자에게 본 발명의 범위를 충분하게 전달한다. 명세서에서 제시한 내용에 기초하여, 본 발명의 임의의 기타 측면을 단독으로 또는 결합하여 명세서에 공개된 임의의 측면을 실현해도, 본 발명의 범위는 명세서에 공개된 임의의 측면을 포함한다는 점을 인식해야 한다. 예를 들면, 명세서에서 제시된 임의의 수량의 장치 또는 실행 방법으로 실현될 수 있다. 또한, 명세서에서 제시된 본 발명의 여러 측면 외에, 본 발명의 범위는 기타 구조, 기능 또는 구조 및 기능을 사용하여 실현되는 장치 또는 방법을 포함하도록 의도된다. 청구항의 하나 이상의 소자를 통해 명세서에서 공개한 임의의 측면을 구체화할 수 있음을 이해해야 한다.
여기서 사용된 용어는 단지 구체적인 실시예를 설명하기 위한 것일 뿐, 본 공개를 제한하려는 의도는 아니다. 여기서 사용된 “포함”, “함유”와 같은 용어는 설명되는 특징, 단계, 동작 및/또는 부재의 존재를 명시하려는 것이지, 하나 이상의 다른 특징, 단계, 동작 또는 부재를 배제하려는 것은 아니다.
별도의 정의가 없는 한, 여기서 사용되는 기술 용어 및 과학 용어를 포함하는 모든 용어는 해당 분야의 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 갖는다. 주의할 점은, 여기서 사용되는 용어는 본 명세서의 문맥과 일치하는 의미를 갖는 것으로 해석되며, 이상적이거나 매우 공식적인 의미로 해석도지 않는다.
본 발명의 목적은 목표 대상의 3차원 재구성 방법 및 시스템을 제공하여 종래 기술에 존재하는 상기 기술 문제를 해결하는 것이며, 주로 아래의 두 실시예를 포함한다.
실시예1:
도 1 내지 도 5에 도시한 바와 같이, 본 발명의 실시예는 목표 대상의 3차원 재구성 방법을 제공하고, 상기 방법은,
목표 대상을 획득하는 시야각 경계를 계산하는 단계(S10);
시야각 경계 내, 목표 대상의 여러 시야각에서의 초기 이미지 정보 및/또는 융합 이미지 정보를 포함하는 이미지 정보를 획득하는 단계(S20);
획득한 이미지 정보에 따라 목표 대상에 대한 3차원 재구성을 완료하는 단계(S30);를 포함한다.
종래 기술에서는 3차원 모델링 또는 3차원 스캐닝 방법을 이용하여 “표면적 의미”에서 물체의 3차원 재구성을 실현할 수 있어, 사람들에게 시각적 및 의식적인 착각을 주어, 현재 물체의 3차원 구현을 실현할 수 있다고 잘못 생각할 수 있지만, 실질적으로 3차원 모델링 또는 3차원 스캐닝 방법을 통해 물체의 3차원 구현을 진행하는 과정에서, 물체가 갖고 있는 실제 정보의 분실이 발생하여, 3차원 물체의 구현을 통해 현실 세계에서 물체의 3차원 구현을 얻을 수 없다. 이를 감안하여, 본 출원은 목표 대상(물체)의 “진정한 의미”의 3차원 구현을 제공하여, 실제 세계에서 목표 대상의 3차원 구현을 완전히 구현할 수 있으며, 본 출원에서의 실시 방식은 아래와 같다.
단계(S10): 목표 대상을 획득하는 시야각 경계를 계산한다.
추가적으로, 단계(S10)은,
목표 대상이 위치한 시야각에서의 최대 경계 반경을 계산하는 단계(S11);
최대 경계 반경으로 형성된 가장자리를 시야각 경계로 하는 단계(S12);를 더 포함한다.
수집 장치를 사용하여 목표 대상을 수집하기 전에, 목표 대상을 수집할 때 필요 없는 간섭 정보의 영향을 줄이기 위해, 획득해야 할 목표 대상의 서로 다른 시야각에서의 시야각 경계를 계산해야 한다.
예를 들면, 목표 대상의 수집해야 할 시야각은, 시야각 1, 시야각 2, 시야각 3, 시야각 4, ……, 시야각 N을 포함하고, 목표 대상의 시야각 1에서의 이미지 정보를 수집해야 할 경우, 먼저 목표 대상의 시야각 1에서의 표시 이미지를 획득하고, 이후 목표 대상의 시야각 1에서의 표시 이미지 중 목표 대상의 중심 위치를 계산하고, 이어서 중심 위치를 원심으로 하여, 대응되는 최대 경계 반경을 계산하고, 최대 경계 반경으로 형성된 원(또는 원, 또는 타원)의 가장자리를 시야각 경계로 하고, 이렇게 형성된 시야각 경계를 통해 목표 대상의 전체를 대응되는 시야각 경계 내에 수용한다. 이해를 돕기 위해, 목표 대상의 시야각 1에서의 표시 이미지를 장방형이라고 가정한 후, 장방형의 중심 위치를 계산하고, 중심 위치를 원심으로 하여, 원심을 기반으로 하는 최대 경계 반경(외접 반경), 즉 장방형의 외접원을 계산하고, 외접원의 가장자리를 시야각 경계로 하여, 장방형 전체가 외접원 내에 포함되도록 한다. 목표 대상의 시야각 2에서의 이미지를 삼각형이라고 가정한 후, 삼각형의 중심 위치를 계산하고, 중심 위치를 원심으로 하여, 원심을 기반으로 하는 최대 경계 반경(외접 반경), 즉 삼각형의 외접원을 계산하고, 외접원의 가장자리를 시야각 경계로 하여, 삼각형 전체가 외접원 내에 포함되도록 한다.
추가로, 목표 대상의 각 시야각에서의 최대 경계 반경을 비교하여, 그중 최대 경계 반경이 가장 긴 것을 목표 최대 경계 반경으로 선택하고 이로 형성된 구형 시야각 경계로 목표 대상을 완전히 감싸며, 이를 기초로 각 시야각에서의 목표 대상의 이미지 정보를 획득한다. 물론, 최대 경계 반경 중 임의의 2개 이상의 시야각의 최대 경계 반경을 병합하여 형성된 타원(또는 타원구)의 가장자리를 시야각 경계로 하여, 이 시야각 경계 내에서 목표 대상의 각 시야각에서의 이미지 정보를 획득할 수도 있다. 목표 대상의 서로 다른 시야각에서의 표시 이미지 형상은 모두 동일할 수도 있고, 일부 동일할 수도 있으며, 모두 상이할 수도 있다.
설명해야 할 점은, 본 출원에서의 수집 장치는 카메라, 웹캠, 가상 카메라 등일 수 있고, 목표 대상의 이미지를 수집할 수 있는 것이라면, 여기서는 구체적으로 제한하지 않는다.
본 출원에서 목표 대상의 이미지 정보를 획득하기 전에, 먼저 목표 대상의 대응 시야각에서의 표시 이미지의 최대 경계 반경을 계산하여, 최대 경계 반경으로 형성된 가장자리를 시야각 경계로 함으로써, 목표 대상의 대응 시야각에서의 표시 이미지를 시야각 경계 내에 수용하여, 목표 대상에 대한 이미지 정보의 수집 과정에서, 목표 대상의 대응 시야각에서의 시야각 경계 밖의 노이즈 정보를 제거하도록 함으로써, 필요한 정보만 획득하여, 후속 3차원 재구성에 대한 기타 정보의 영향을 피하고, 이미지의 정보량도 줄인다.
단계(S20): 시야각 경계 내, 목표 대상의 여러 시야각에서의 이미지 정보를 획득하고, 상기 이미지 정보는 초기 이미지 정보 및/또는 융합 이미지 정보를 포함한다.
추가로, 단계(S20)에서 융합 이미지 정보를 획득하는 단계는,
수집 장치와 대응 시야각에서의 목표 대상 사이의 수집 거리를 획득하는 단계(S21);
수집 거리를 프리셋 수량에 따라 복수의 프리셋 수집 거리로 분할하고, 수집 장치는 프리셋 수집 거리를 따라 컷팅 이미지 정보를 획득하는 단계(S22);
동일 시야각에서의 복수의 컷팅 이미지 정보를 융합하여, 융합 이미지 정보를 형성하는 단계(S23);를 포함한다.
목표 대상의 서로 다른 시야각에서의 표시 이미지 중의 경계 시야각 경계를 계산한 후, 수집 장치를 사용하여 목표 대상의 대응 시야각에서의 시야각 경계 내의 이미지 정보를 수집하기 시작하고, 이미지 정보를 수집할 때 아래와 같은 2가지 방식이 있다.
한가지 방식은 서로 다른 시야각에서의 목표 대상의 초기 이미지 정보를 직접 획득하는 것으로, 상기 초기 이미지는 촬영 당시 목표 대상 자체에 포함된 원래 정보를 포함하고, 이미지 정보는 수집 장치를 통해 목표 대상을 수집하는 시점에서의 목표 대상의 정보이며, 이미지는 어떠한 처리도 거치지 않는다.
다른 한가지 방식은 각 시야각에서 획득한 이미지 정보를 융합 처리하는 것으로, 구체적은 방법은 다음과 같다: 먼저, 각 시야각에서 목표 대상과 수집 장치 사이의 수집해야 할 거리를 획득한 후, 프리셋 수량을 설정하고, 상기 프리셋 수량은 수집 거리를 분할해야 할 수량을 의미하고, 대응 시야각에서의 각 분할점에서 대응되는 이미지 정보(컷팅 이미지 정보)를 획득하며; 마지막으로, 동일 시야각에서 각 분할점에 따른 컷팅 이미지 정보를 획득하면, 모든 컷팅 이미지 정보를 융합 규칙에 따라 융합하여, 동일 시야각에서의 융합 이미지 정보를 획득한다. 예를 들면, 시야각 1, 시야각 2, 시야각 3, 시야각 4, ……, 시야각 N이 있다고 가정하고, 먼저 대상 물체가 시야각 1에 있을 때, 수집 장치와 상기 시야각의 수집 거리를 획득한 후, 컷팅해야 할 프리셋 수량을 설정하고, 예를 들어 프리셋 수량은 3이며, 또한 각 컷팅 거리 또는 컷팅 지점에서의 컷팅 이미지 정보를 수집하고, 즉 컷팅 거리1에 위치한 컷팅 이미지 정보1, 컷팅 거리2에 위치한 컷팅 이미지 정보2, 컷팅 거리3에 위치한 컷팅 이미지 정보3을 수집하며, 컷팅 이미지1, 컷팅 이미지 정보2, 컷팅 이미지 정보3을 컷팅 거리 또는 수집 장치의 깊이 등 기타 규칙에 따라 규칙화하여, 목표 대상의 시야각 1에서의 융합 이미지 정보를 형성한다.
설명해야 할 점은, 서로 다른 시야각에서의 목표 대상과 수집 장치 사이의 수집 거리는 동일할 수 있고, 일부 동일할 수 있고, 모두 상이할 수 있으며; 서로 다른 시야각에서의 목표 대상과 수집 장치 사이의 수집 거리를 분할해야 할 프리셋 수량은 동일할 수도 있고, 일부 동일할 수도 있고, 모두 상이할 수도 있으며; 서로 다른 시야각에서의 목표 대상과 수집 장치 사이의 수집 거리의 분할 방식은 제한되지 않으며, 균일하게 분할할 수도 있고, 목표 대상의 이미지 정보가 많은 부분에서 조밀하게 분할할 수도 있고, 이미지 정보가 적은 부분에서 희소하게 분할할 수도 있다.
설명해야 할 점은, 목표 대상의 시야각 경계 내에서의 이미지 정보를 획득할 때, 규칙적인 수집 방식을 이용할 수도 있고, 불규칙적인 수집 방식을 이용할 수도 있으며; 목표 대상의 시야각 경계 내에서의 이미지 정보를 획득할 때, 동일한 시점에서 목표 대상의 서로 다른 시야각에서의 이미지 정보를 수집할 수도 있고, 일정한 시간 내에 목표 대상의 서로 다른 시야각에서의 이미지 정보를 수집할 수도 있다.
설명해야 할 점은, 목표 대상은 서로 다른 시야각에서 상이한 이미지 정보를 획득할 수도 있고, 동일한 이미지 정보를 획득할 수도 있으며, 예를 들어 시야각 1에서, 목표 대상의 초기 이미지 정보를 획득하고, 시야각 2에서, 목표 대상의 융합 이미지 정보를 획득하며, 또한 시야각 1에서 초기 이미지 정보 및 융합 이미지 정보를 동시에 획득하도록 선택할 수도 있으며, 이에 대해 한정하지 않는다.
설명해야 할 점은, 목표 대상은 서로 다른 시야각에서 이미지 정보를 획득하고, 상기 이미지 정보는 완전한 이미지 정보일 수도 있고, 복수의 서브 이미지 정보를 조합하여 형성한 완전한 이미지 정보일 수도 있다.
본 출원에서, 동일 시야각에서의 수집 장치와 목표 대상 사이의 수집 거리를 획득한 후, 수집 거리를 프리셋 수량에 따라 분할하여, 대응되는 컷팅 이미지 정보를 획득하고, 복수의 컷팅 이미지를 융합한다. 해당 방법으로 획득한 동일 시야각에서의 이미지 정보는 더욱 선명하고, 갖고 있는 노이즈 정보가 적어, 목표 물체의 3차원 재구성을 더욱 순조롭고, 빠르게 한다.
추가로, 단계(S20) 이후,
획득한 이미지 정보 내의 프리셋 영역을 계산하는 단계(S41);
프리셋 영역 밖의 영역을 컷팅하여, 프리셋 영역의 이미지 정보를 획득하는 단계(S42);를 더 포함한다.
상기 방안에서, 시야각 경계 내 목표 대상의 여러 시야각에서의 초기 이미지 정보 또는 융합 이미지 정보를 획득했을 경우, 획득한 것이 초기 이미지 정보이면, 먼저 초기 이미지 정보 내의 프리셋 영역을 계산하고, 프리셋 영역은 목표 대상이 위치하는 영역이며, 이후 분할법을 이용하여, 목표 대상이 포함되지 않은 영역을 컷팅하여, 목표 대상이 위치하는 영역만 포함된 프리셋 영역 이미지 정보를 획득하며; 획득한 것이 융합 이미지 정보이면, 동일 시야각에서의 각 컷팅 이미지 정보 내의 프리셋 영역을 계산하고, 이후 분할법을 이용하여, 컷팅 이미지 정보 내의 목표 대상이 포함되지 않은 영역을 컷팅하여, 각 컷팅 이미지 정보에 목표 대상이 위치하는 영역의 프리셋 영역 이미지 정보만 포함되도록 한다.
본 출원에서는 획득한 이미지 정보 내의 프리셋 영역을 계산한 후, 프리셋 영역 밖의 영역을 컷팅하여, 서로 다른 시야각에서의 대응되는 프리셋 영역의 이미지 정보를 획득하며, 이렇게 획득한 이미지 정보에서 목표 대상 이외의 정보를 컷팅하여, 이미지 정보에 포함된 노이즈 정보량을 크게 줄임으로써, 3차원 재구성의 정보량을 대폭 감소시켜, 3차원 재구성의 효율을 높인다.
단계(S30): 획득한 이미지 정보에 따라 목표 대상에 대한 3차원 재구성을 완료한다.
추가로, 단계(S30)은,
이미지 정보를 호출하여 목표 대상에 대한 3차원 재구성을 완료하는 단계;를 더 포함하거나,
획득한 여러 시야각에서의 이미지 정보에 따라, 속성 번호를 구축하고, 속성 번호에 따라 이미지 정보를 저장 유닛의 프리셋 위치에 저장하는 단계(S31);
재구성 유닛이 재구성 번호를 설정하는 단계(S32);
프리셋 위치 및 재구성 번호에 따라, 목표 대상에 대한 3차원 재구성을 완료하는 단계(S33);를 포함한다.
상기 방안에서, 목표 대상의 서로 다른 시야각에서의 이미지 정보를 획득한 후, 본 출원에서는 획득한 이미지에 따라 목표 대상에 대한 3차원 재구성을 완료할 수 있고, 3차원 재구성 방식은 아래와 같은 2가지가 있다.
첫번째 방식은, 목표 대상의 이미지 정보를 획득한 후, 표시단은 획득한 이미지에 따라 3차원 재구성을 직접 진행할 수 있고, 목표 대상의 이미지 정보를 획득함과 동시에 3차원 재구성을 진행하는 것으로 이해할 수 있으며, 3차원 목표의 서로 다른 시점에서의 3차원 재구성을 실시간으로 진행할 수 있고, 중간에 단계를 거치지 않고, 획득한 이미지 정보는 어떠한 손실도 없이, 실제 정보를 바로 재구성하여, 진정한 목표 대상의 3차원 재구성을 실현한다.
두번째 방식은, 목표 대상의 이미지 정보를 획득한 후, 먼저 획득한 서로 다른 시야각에서의 이미지 정보에 따라 속성 번호를 구축하고, 속성 번호는 이미지 정보 내의 시야각 정보, 방위 정보(예를 들면 경도 및 위도), 해당 시점 정보 등에 따라 번호를 설정하고, 예를 들면 시야각 1에서의 이미지 정보 번호는 1-45°-3, 001, abc, 1_1_0, 1~1~0 등이고, 현재 시점에서 현재 시야각에서의 이미지 정보를 나타낼 수만 있으면 속성 번호의 설정 규칙은 제한되지 않는다. 이후, 서로 다른 속성 번호의 이미지 정보를 저장 장치의 프리셋 위치에 저장하고, 속성 번호와 프리셋 위치 사이는 맵핑 관계가 형성되어 있으므로, 저장이 편리하고, 후속 호출이 편리하다. 마지막으로 목표 대상의 3차원 재구성을 실현할 때의 다른 시야각의 재구성 번호를 설정한 후, 프리셋 위치에 저장된 이미지 정보를 대응되는 재구성 번호가 위치하는 재구성 위치로 호출하고, 프리셋 위치와 재구성 번호 사이는 맵핑 관계가 형성되어 있으므로, 빨리 호출하여, 목표 대상에 대한 3차원 재구성을 완료하기 편리하다.
설명해야 할 점은, 저장 장치는 수집 장치일 수도 있고, 수집 장치와 연결된 백엔드 서버 등일 수 있으며, 여기서는 제한하지 않는다.
실시예2:
본 발명의 실시예에서 제공하는 목표 대상의 3차원 재구성 시스템은 목표 대상의 3차원 재구성 방법의 실시예 중의 각 실시방식, 및 상응한 유익한 효과를 실현할 수 있고, 중복되지 않도록, 설명을 생략한다.
본 발명의 실시예2는 목표 대상의 3차원 재구성 시스템을 제공하며, 상기 시스템은,
목표 대상을 획득하는 시야각 경계를 계산하기 위한, 경계 계산 모듈;
시야각 경계 내, 목표 대상의 여러 시야각에서의 초기 이미지 정보 및/또는 융합 이미지 정보를 포함하는 이미지 정보를 획득하기 위한, 이미지 획득 모듈;
획득한 이미지 정보에 따라 목표 대상에 대한 3차원 재구성을 완료하기 위한, 재구성 모듈;을 포함한다.
추가로, 경계 계산 모듈은, 또한,
목표 대상이 위치한 시야각에서의 최대 경계 반경을 계산하는 것;
최대 경계 반경으로 형성된 가장자리를 시야각 경계로 하는 것;에 상용된다.
추가로, 프리셋 모듈을 더 포함하고, 상기 프리셋 모듈은,
획득한 이미지 정보 내의 프리셋 영역을 계산하는 것;
프리셋 영역 밖의 영역을 컷팅하여, 프리셋 영역의 이미지 정보를 획득하는 것;에 사용된다.
추가로, 이미지 획득 모듈은, 또한,
수집 장치와 대응 시야각에서의 목표 대상 사이의 수집 거리를 획득하는 것;
수집 거리를 프리셋 수량에 따라 복수의 프리셋 수집 거리로 분할하고, 수집 장치는 프리셋 수집 거리를 따라 컷팅 이미지 정보를 획득하는 것;
동일 시야각에서의 복수의 컷팅 이미지 정보를 융합하여, 융합 이미지 정보를 형성하는 것;에 사용된다.
추가로, 재구성 모듈은, 또한,
이미지 정보를 호출하여 목표 대상에 대한 3차원 재구성을 완료하는 것;에 사용되거나,
획득한 여러 시야각에서의 이미지 정보에 따라, 속성 번호를 구축하고, 속성 번호에 따라 이미지 정보를 저장 유닛의 프리셋 위치에 저장하는 것;
재구성 유닛이 재구성 번호를 설정하는 것;
프리셋 위치 및 재구성 번호에 따라, 목표 대상에 대한 3차원 재구성을 완료하는 것;에 사용된다.
본 출원을 더욱 잘 이해하도록, 본 출원은 티포트(tea pot)를 예시로 설명한다.
광원이 티포트 표면을 비추면, 티포트는 서로 다른 시야각에서, 티포트 표면에 위치한 동일한 위치에서, 하이라이트가 나타내는 상태가 다르다(즉 티포트가 움직이지 않고, 서로 다른 시야각에서 동일한 위치를 본다). 예를 들어, 시야각 1에서(하이라이트 정시(正視) 시), 하이라이트는 티포트 표면에서 선명하게 나타나고, 티포트가 세라믹 재료인 경우, 상기 하이라이트에서의 티포트 표면의 무늬, 에나멜 및 기포 등 정보는 선명하게 나타나며; 시야각 2에서(하이라이트 사시(斜視) 시), 하이라이트는 티포트 표면에서 부분적으로 나타나고, 광택이 약해지며, 상기 하이라이트에서의 티포트 표면의 무늬, 에나멜 및 기포 등 정보는 선명하게 나타나지 않으며; 티포트 상에 위치한 동일한 위치에서, 서로 다른 시야각에서, 나타내는 상태가 다르며(즉 티포트가 회전하고, 동일한 위치가 서로 다른 시야각으로 회전하는 경우), 예를 들면, 상기 위치가 하이라이트 영역에 위치하면, 표면은 티포트 표면의 무늬, 기포 등 정보를 선명하게 볼 수 있으며, 상기 위치가 하이라이트와 멀리 떨어진 위치로 회전하면, 또 다른 상태로 나타낼 수 있다.
본 출원의 3차원 재구성 방법을 이용하여, 획득한 이미지 정보를 바로 3차원 재구성하는 것을 통해, 티포트의 3차원 상태에서, 서로 다른 시야각에 위치할 때의 서로 다른 표시 상태, 갖고 있는 서로 다른 이미지 정보를 그대로 구현할 수 있고, 현실에서 물체가 갖고 있는 속성 및 상태는 서로 다른 시점, 서로 다른 시야각, 서로 다른 환경에서 나타내는 상태가 다르기 때문에, 물체 상의 동일한 위치는 서로 다른 시야각, 서로 다른 환경, 서로 다른 상태에서 서로 다른 피드백을 나타낼 수 있다. 그러나, 종래 기술에서는, 모델링 및 3차원 스캐닝을 통해 동일하게 티포트에 대해 3차원 구현을 진행해도, 티포트 표면의 하이라이트 등 정보를 그대로 구현할 수 없다. 또한, 1) 본 발명과 종래 기술의 가장 큰 차이점은, 본 발명의 발명 포인트이기도 하고, 본 출원에서 제공하는 목표 대상의 3차원 재구성 방법을 통해, 고광택(高光), 고반사(高反), 고투명(高透) 특징을 가진 물체의 3차원 재구성(예를 들면, 화염, 연기, 물방울, 플라즈마 등과 같은 불확실한 형태를 가진 물체의3차원 재구성)을 실현할 수 있어, 물체와 환경 사이의 반응 정보를 그대로 반응하여, 종래 기술에서 이러한 물체에 대한 3차원 구현을 실현할 수 없는 기술 문제를 해결하였다. 2) 본 출원의 방법을 이용하여 목표 대상의 서로 다른 시야각에서의 프리셋의 데이터의 이미지 정보를 획득할 때, 목표에 대해 3차원 재구성을 진행하는 것 외에도, 목표 대상의 더 많은 정보 파라미터를 획득할 수 있고, 샘플의 데이터를 추출, 분석 및 종합하여, 목표 대상의 기타 규칙 및 속성 등 정보를 획득하여, 목표 대상에 대해 인식, 분류 및 추적 등 2차 데이터 응용 및 개발의 가치를 깊이 발굴한다.
여기서 공개된 실시예를 결합하여 설명한 각 예시의 유닛 및 알고리즘 단계는, 전자 하드웨어, 컴퓨터 소프트웨어 또는 이들의 조합에 의해 실현될 수 있고, 하드웨어 및 소프트웨어의 호환 가능성을 명확히 설명하기 위하여, 상술한 설명에서는 기능에 따라 각 예시의 구성 및 단계를 통상적으로 설명하였음을 전문가라면 추가로 이해할 수 있다. 이러한 기능이 하드웨어로 실행되는지 또는 소프트웨어로 실행되는지 여부는 기술방안의 특정 응용 및 설계 제약 조건에 따라 결정된다. 전문가라면 각 특정 응용에 대해 서로 다른 방법으로 설명되는 기능을 실현할 수 있으나, 본 발명의 범위를 초과해서는 안된다.
공개된 실시예에 대한 상술한 설명은, 당업자가 본 발명을 실현 또는 사용할 수 있도록 한다. 이러한 실시예의 다양한 보정은 당업자에게 자명한 것이며, 본 발명의 정신 또는 범위를 벗어나지 않는 한, 여기서 정의된 일반적인 원리는 기타 실시예에서 실현될 수 있다. 따라서, 본 발명은 여기서 예시된 실시예에 한정되지 않을 것이며, 여기서 공개된 원리 및 새로운 특징과 일치하는 가장 넓은 범위에 부합되어야 한다.
상기 내용은 단지 본 발명의 바람직한 실시예일 뿐, 본 발명을 제한하는 것은 아니며, 본 발명의 정신 및 원칙 내에서 행한 모든 보정, 균등한 치환 및 변경 등은 모두 본 발명의 보호 범위 내에 포함되어야 한다.

Claims (8)

  1. 목표 대상을 획득하는 시야각 경계를 계산하는 단계(S10);
    시야각 경계 내, 목표 대상의 여러 시야각에서의 초기 이미지 정보 및/또는 융합 이미지 정보를 포함하는 이미지 정보를 획득하는 단계(S20);
    획득한 이미지 정보에 따라 목표 대상에 대한 3차원 재구성을 완료하는 단계(S30);를 포함하고,
    단계(S10)은,
    목표 대상이 위치한 시야각에서의 최대 경계 반경을 계산하는 단계(S11);
    최대 경계 반경으로 형성된 가장자리를 시야각 경계로 하는 단계(S12); 를 더 포함하는, 목표 대상의 3차원 재구성 방법.
  2. 제1항에 있어서,
    단계(S20) 이후,
    획득한 이미지 정보 내의 프리셋 영역을 계산하는 단계(S41);
    프리셋 영역 밖의 영역을 컷팅하여, 프리셋 영역의 이미지 정보를 획득하는 단계(S42);를 더 포함하는, 목표 대상의 3차원 재구성 방법.
  3. 제1항에 있어서,
    단계(S20)에서 융합 이미지 정보를 획득하는 단계는,
    수집 장치와 대응 시야각에서의 목표 대상 사이의 수집 거리를 획득하는 단계(S21);
    수집 거리를 프리셋 수량에 따라 복수의 프리셋 수집 거리로 분할하고, 수집 장치는 프리셋 수집 거리를 따라 컷팅 이미지 정보를 획득하는 단계(S22);
    동일 시야각에서의 복수의 컷팅 이미지 정보를 융합하여, 융합 이미지 정보를 형성하는 단계(S23);를 포함하는, 목표 대상의 3차원 재구성 방법.
  4. 제1항에 있어서,
    단계(S30)은,
    이미지 정보를 호출하여 목표 대상에 대한 3차원 재구성을 완료하는 단계를 더 포함하거나,
    획득한 여러 시야각에서의 이미지 정보에 따라, 속성 번호를 구축하고, 속성 번호에 따라 이미지 정보를 저장 유닛의 프리셋 위치에 저장하는 단계(S31);
    재구성 유닛이 재구성 번호를 설정하는 단계(S32);
    프리셋 위치 및 재구성 번호에 따라, 목표 대상에 대한 3차원 재구성을 완료하는 단계(S33);를 포함하는, 목표 대상의 3차원 재구성 방법.
  5. 목표 대상을 획득하는 시야각 경계를 계산하는 경계 계산 모듈;
    시야각 경계 내, 목표 대상의 여러 시야각에서의 초기 이미지 정보 및/또는 융합 이미지 정보를 포함하는 이미지 정보를 획득하는 이미지 획득 모듈;
    획득한 이미지 정보에 따라 목표 대상에 대한 3차원 재구성을 완료하는 재구성 모듈;을 포함하고,
    경계 계산 모듈은, 추가로,
    목표 대상이 위치한 시야각에서의 최대 경계 반경을 계산하고;
    최대 경계 반경으로 형성된 가장자리를 시야각 경계로 하는데 사용되는, 목표 대상의 3차원 재구성 시스템.
  6. 제5항에 있어서,
    프리셋 모듈을 더 포함하고, 상기 프리셋 모듈은,
    획득한 이미지 정보 내의 프리셋 영역을 계산하고;
    프리셋 영역 밖의 영역을 컷팅하여, 프리셋 영역의 이미지 정보를 획득하는데 사용되는, 목표 대상의 3차원 재구성 시스템.
  7. 제5항에 있어서,
    이미지 획득 모듈은, 또한,
    수집 장치와 대응 시야각에서의 목표 대상 사이의 수집 거리를 획득하고;
    수집 거리를 프리셋 수량에 따라 복수의 프리셋 수집 거리로 분할하고, 수집 장치는 프리셋 수집 거리를 따라 컷팅 이미지 정보를 획득하며;
    동일 시야각에서의 복수의 컷팅 이미지 정보를 융합하여, 융합 이미지 정보를 형성하는데 사용되는, 목표 대상의 3차원 재구성 시스템.
  8. 제5항에 있어서,
    재구성 모듈은, 또한,
    획득한 여러 시야각에서의 이미지 정보에 따라, 속성 번호를 구축하고, 속성 번호에 따라 이미지 정보를 저장 유닛의 프리셋 위치에 저장하며;
    재구성 유닛이 재구성 번호를 설정하고;
    프리셋 위치 및 재구성 번호에 따라, 목표 대상에 대한 3차원 재구성을 완료하는데 사용되는, 목표 대상의 3차원 재구성 시스템.
KR1020230004895A 2022-05-24 2023-01-12 목표 대상의 3차원 재구성 방법 및 시스템 KR20230163920A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210566798.0A CN114648614B (zh) 2022-05-24 2022-05-24 一种目标对象的三维重现方法及系统
CN202210566798.0 2022-05-24

Publications (1)

Publication Number Publication Date
KR20230163920A true KR20230163920A (ko) 2023-12-01

Family

ID=81996994

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230004895A KR20230163920A (ko) 2022-05-24 2023-01-12 목표 대상의 3차원 재구성 방법 및 시스템

Country Status (7)

Country Link
US (1) US20230386160A1 (ko)
EP (1) EP4283562A1 (ko)
JP (1) JP7479729B2 (ko)
KR (1) KR20230163920A (ko)
CN (1) CN114648614B (ko)
AU (1) AU2022368363A1 (ko)
WO (1) WO2023226370A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114648614B (zh) * 2022-05-24 2022-07-26 四川中绳矩阵技术发展有限公司 一种目标对象的三维重现方法及系统
CN115134581A (zh) * 2022-08-30 2022-09-30 四川中绳矩阵技术发展有限公司 一种图像和声音的融合重现方法、系统、设备及存储介质
CN116320364B (zh) * 2023-05-25 2023-08-01 四川中绳矩阵技术发展有限公司 一种基于多层显示的虚拟现实拍摄方法及显示方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5011168B2 (ja) 2008-03-04 2012-08-29 日本電信電話株式会社 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
CN101650834A (zh) * 2009-07-16 2010-02-17 上海交通大学 复杂场景下人体表面三维重建方法
CN101938668B (zh) * 2010-09-10 2013-01-23 中国科学院自动化研究所 对多级透镜多视角场景的三维重建的方法
CN102238411B (zh) * 2011-06-29 2013-01-02 浙江大学 一种用于体视三维显示的图像显示方法
CN102609977B (zh) * 2012-01-12 2014-07-16 浙江大学 基于深度融合和曲面演变的多视点三维重建方法
CN103514625A (zh) * 2012-06-20 2014-01-15 上海路同信息科技有限公司 基于多视角自适应特征配准的三维重建方法
CN103047969B (zh) * 2012-12-07 2016-03-16 北京百度网讯科技有限公司 通过移动终端生成三维图像的方法及移动终端
CN104599284B (zh) * 2015-02-15 2017-06-13 四川川大智胜软件股份有限公司 基于多视角手机自拍图像的三维人脸重建方法
WO2017029487A1 (en) * 2015-08-14 2017-02-23 Metail Limited Method and system for generating an image file of a 3d garment model on a 3d body model
CN107093171B (zh) * 2016-02-18 2021-04-30 腾讯科技(深圳)有限公司 一种图像处理方法及装置、系统
CN106303175A (zh) * 2016-08-17 2017-01-04 李思嘉 一种基于单光场相机多重视角的虚拟现实三维数据采集方法
WO2020032113A1 (ja) * 2018-08-10 2020-02-13 シャープ株式会社 画像処理装置、3dデータ生成装置、制御プログラム及び記録媒体
WO2020067441A1 (ja) * 2018-09-28 2020-04-02 シャープ株式会社 3dデータ生成装置、3dデータ再生装置、制御プログラム及び記録媒体
CN109237248A (zh) * 2018-10-15 2019-01-18 江西师范大学 立体拍照装置及物体三维重现方法
CN109658497B (zh) * 2018-11-08 2023-04-14 北方工业大学 一种三维模型重建方法及装置
CN111669561B (zh) * 2019-03-07 2023-05-26 阿里巴巴集团控股有限公司 多角度自由视角图像数据处理方法及装置、介质、设备
CN111598993B (zh) * 2020-01-17 2022-07-08 江苏艾佳家居用品有限公司 基于多视角成像技术的三维数据重建方法、装置
CN113269864A (zh) * 2020-02-14 2021-08-17 福州非圆网络科技有限公司 一种多视角三维重建装置及方法
JP2022029239A (ja) 2020-08-04 2022-02-17 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN113781664B (zh) * 2021-11-09 2022-01-25 四川省交通勘察设计研究院有限公司 基于三维模型的vr全景图构造显示方法、系统及终端
CN114648614B (zh) * 2022-05-24 2022-07-26 四川中绳矩阵技术发展有限公司 一种目标对象的三维重现方法及系统

Also Published As

Publication number Publication date
AU2022368363A1 (en) 2023-12-14
WO2023226370A1 (zh) 2023-11-30
CN114648614B (zh) 2022-07-26
US20230386160A1 (en) 2023-11-30
CN114648614A (zh) 2022-06-21
JP7479729B2 (ja) 2024-05-09
EP4283562A1 (en) 2023-11-29
JP2023172882A (ja) 2023-12-06

Similar Documents

Publication Publication Date Title
KR20230163920A (ko) 목표 대상의 3차원 재구성 방법 및 시스템
Hedman et al. Scalable inside-out image-based rendering
US11947729B2 (en) Gesture recognition method and device, gesture control method and device and virtual reality apparatus
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
CN114730546A (zh) 具有定位服务和基于位置的共享内容的交叉现实系统
Jakob et al. Capturing hair assemblies fiber by fiber
CN109978984A (zh) 人脸三维重建方法及终端设备
US10846923B2 (en) Fusion of depth images into global volumes
CN109961401A (zh) 一种双目相机的图像校正方法和存储介质
EP3698275A1 (en) Data processing method, apparatus, system and storage media
WO2023000703A1 (zh) 图像采集系统、三维重建方法、装置、设备以及存储介质
CN109615664A (zh) 一种用于光学透视增强现实显示器的标定方法与设备
CN114255315A (zh) 一种渲染方法、装置及设备
CN109644280A (zh) 生成场景的分层深度数据的方法
CN109064533A (zh) 一种3d漫游方法及系统
JP2022518402A (ja) 三次元再構成の方法及び装置
CN110348351A (zh) 一种图像语义分割的方法、终端和可读存储介质
GB2584753A (en) All-around spherical light field rendering method
CN112511815B (zh) 图像或视频生成方法及装置
CN109669541B (zh) 一种用于配置增强现实内容的方法与设备
Liu et al. Stereo-based bokeh effects for photography
WO2020029815A1 (zh) 一种主动光场深度成像方法及系统
WO2023093279A1 (zh) 图像处理方法、装置、设备、存储介质及计算机程序产品
US11756267B2 (en) Method and apparatus for generating guidance among viewpoints in a scene
Kim et al. Single image–based 3D tree and growth models reconstruction