KR102416523B1 - 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법 - Google Patents

다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법 Download PDF

Info

Publication number
KR102416523B1
KR102416523B1 KR1020210008979A KR20210008979A KR102416523B1 KR 102416523 B1 KR102416523 B1 KR 102416523B1 KR 1020210008979 A KR1020210008979 A KR 1020210008979A KR 20210008979 A KR20210008979 A KR 20210008979A KR 102416523 B1 KR102416523 B1 KR 102416523B1
Authority
KR
South Korea
Prior art keywords
skeleton
camera
joint
view
parameter
Prior art date
Application number
KR1020210008979A
Other languages
English (en)
Other versions
KR20220085678A (ko
Inventor
서영호
박병서
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to US17/535,036 priority Critical patent/US11727637B2/en
Publication of KR20220085678A publication Critical patent/KR20220085678A/ko
Application granted granted Critical
Publication of KR102416523B1 publication Critical patent/KR102416523B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform

Abstract

분산 RGB-D 카메라로부터 각 시점의 부분 스켈레톤을 추출하고, 각 부분 스켈레톤의 조인트를 특징점으로 하여 카메라 파라미터를 계산하고, 파라미터를 기반으로 각 부분 스켈레톤을 3차원 스켈레톤으로 통합하는, 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 관한 것으로서, (a) 다시점 색상-깊이 영상을 획득하는 단계; (b) 각 시점의 색상-깊이 영상으로부터 각 시점의 3차원 스켈레톤을 생성하고, 각 시점의 스켈레톤의 조인트를 특징점으로 생성하는 단계; (c) 각 시점의 스켈레톤의 조인트를 이용하여 외부 파라미터를 최적화 하는 외부 캘리브레이션을 수행하는 단계; 및, (d) 외부 파라미터를 이용하여, 각 시점의 3차원 스켈레톤을 정렬하고 통합하는 단계를 포함하는 구성을 마련하여, 다시점 RGB-D 영상의 부분 스켈레톤의 조인트를 특징점으로 파라미터를 계산하고 이를 기반으로 스켈레톤을 통합함으로써, 높은 신뢰성을 갖는 3D 스켈레톤을 생성할 수 있고, 생성된 3D 스켈레톤은 시간적으로 끊김없이 3D 체적 정보의 형태와 움직임을 정확히 표현할 수 있다.

Description

다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법 { A 3D skeleton generation method using calibration based on joints acquired from multi-view camera }
본 발명은 분산 RGB-D 카메라로부터 각 시점의 부분 스켈레톤을 추출하고, 각 부분 스켈레톤의 조인트를 특징점으로 하여 카메라 파라미터를 계산하고, 파라미터를 기반으로 각 부분 스켈레톤을 3차원 스켈레톤으로 통합하는, 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 관한 것이다.
또한, 본 발명은 카메라 파라미터와 색상-깊이 영상으로부터 3차원 메쉬를 생성하고, 카메라 파라미터를 이용하여 각 부분의 스켈레톤을 정렬하고 3차원 메쉬로 보정하여, 통합된 3차원 스켈레톤을 생성하는, 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 관한 것이다.
최근 가상 현실(virtual reality)과 증강 현실(argumented reality) 산업이 활성화 되면서, 여러 시점에서 실감 넘치는 경험을 제공해 주는 3D 비디오 콘텐츠 기술 개발 또한 활발하게 이뤄지고 있다. 3D 비디오 콘텐츠는 게임 분야부터 영상서비스, 의료분야, 교육분야 등 여러 응용분야에 적용되고 있다.
이러한 3차원 콘텐츠를 생성하기 위하여, 3차원 객체에 대하여 3D 체적 메쉬 모델로 모델링하고, 이를 바탕으로 리깅 혹은 애니메이팅을 수행한다. 그런데 이러한 적용을 위하여 정밀한 3D 스켈레톤을 획득하는 방법이 필요하다.
현재까지 스켈레톤 추출을 위한 많은 연구가 진행되어 왔다. 스켈레톤 추출을 위한 많은 신호처리 기술들이 연구되었고, 최근에는 딥러닝을 기반으로 하는 많은 기술들이 연구되어 오고 있다.
전통적인 스켈레톤 추출 방법은 사람에게 센서와 같은 다양한 장비를 부착하는 것이다. 움직임을 실시간으로 정교하게 파악할 수 있지만 높은 비용이 들어가기도 하고 실생활에서 항상 장비를 착용하는 것이 아니어서 연구실 또는 한정된 영역에서만 가능한 방법이다.
그래서 몸에 부착하는 장비 없이, 사진에서 자세를 추정하는 인체 자세 추정 연구가 진행되었다. 자세를 추정하기 위해서는 사진에서 인체의 윤곽이나 특정 신체 부위를 추론할 만한 외곽선 등의 특징을 추출해야 한다. 그러나 아직 정밀도가 높지 않다.
Kevin Desai, Balakrishnan Prabhakaran, and Suraj Raghuraman. 2018. "Skeleton-based continuous extrinsic calibration of multiple RGB-D kinect cameras." 2018 Proceedings of the 9th ACM Multimedia Systems Conference. Association for Computing Machinery, New York, NY, USA, 250?257. DOI:https://doi.org/10.1145/3204949.3204969 Y. Wu, L. Gao, S. Hoermann and R. W. Lindeman, "Towards Robust 3D Skeleton Tracking Using Data Fusion from Multiple Depth Sensors," 2018 10th International Conference on Virtual Worlds and Games for Serious Applications (VS-Games), Wurzburg, 2018, pp. 1-4, doi: 10.1109/VS-Games.2018.8493443. Cao, Zhe, et al. "OpenPose: realtime multi-person 2D pose estimation using Part Affinity Fields." arXiv preprint arXiv:1812.08008 (2018).
본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 분산 RGB-D 카메라로부터 각 시점의 부분 스켈레톤을 추출하고, 각 부분 스켈레톤의 조인트를 특징점으로 하여 카메라 파라미터를 계산하고, 파라미터를 기반으로 각 부분 스켈레톤을 3차원 스켈레톤으로 통합하는, 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법을 제공하는 것이다.
또한, 본 발명의 목적은 카메라 파라미터와 색상-깊이 영상으로부터 3차원 메쉬를 생성하고, 카메라 파라미터를 이용하여 각 부분의 스켈레톤을 정렬하고 3차원 메쉬로 보정하여, 통합된 3차원 스켈레톤을 생성하는, 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법을 제공하는 것이다.
상기 목적을 달성하기 위해 본 발명은 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 관한 것으로서, (a) 다시점 색상-깊이 영상을 획득하는 단계; (b) 각 시점의 색상-깊이 영상으로부터 각 시점의 3차원 스켈레톤을 생성하고, 각 시점의 스켈레톤의 조인트를 특징점으로 생성하는 단계; (c) 각 시점의 스켈레톤의 조인트를 이용하여 외부 파라미터를 최적화 하는 외부 캘리브레이션을 수행하는 단계; 및, (d) 외부 파라미터를 이용하여, 각 시점의 3차원 스켈레톤을 정렬하고 통합하는 단계를 포함하는 것을 특징으로 한다.
또, 본 발명은 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 있어서, 상기 (a)단계에서, 상기 다시점 색상-깊이 영상은 적어도 2개의 수평층을 이루고 각 층에서 적어도 4개의 색상-깊이 카메라에 의해 촬영된 각 시점의 색상-깊이 영상들로 구성되는 것을 특징으로 한다.
또, 본 발명은 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 있어서, 상기 (b)단계에서, 애저 키넥트(Asure Kinect)의 SDK(software development kit)를 이용하여, 각 카메라별로 3D 스켈레톤을 추출하는 것을 특징으로 한다.
또, 본 발명은 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 있어서, 상기 (c)단계에서, 각 시점의 스켈레톤의 조인트들을 특징점 집합으로 구성하고, 상기 특징점 집합에 대해 외부 파라미터의 최적화를 수행하여 가장 큰 오차를 가진 특징점을 검출하고, 검출된 특징점을 상기 특징점 집합에서 제외하고 나머지 집합에 대해 최적화 작업을 반복하고, 최적화 오차가 가장 적은 경우의 최적화된 외부 파라미터를 최종 외부 파라미터로 획득하는 것을 특징으로 한다.
또, 본 발명은 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 있어서, 상기 (c)단계에서, 가장 오차가 심한 조인트의 오차가 특정 임계치 이하인 경우, 반복을 중단하고, 중단할 때의 카메라 파라미터를 최종 파라미터로 선정하는 것을 특징으로 한다.
또, 본 발명은 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 있어서, 상기 (c)단계에서, 기준 좌표계의 포인트 클라우드의 실제 좌표(Xref)와 상기 변환 파라미터에 의한 변환 좌표(Xi')의 오차가 최소화 되도록, 상기 변환 파라미터를 최적화하되, 다음 수식 1에 의하여, 현재 좌표변환 파라미터 Pn에서 다음 좌표변환 파라미터 Pn+1을 업데이트하여, 최적화를 반복하는 것을 특징으로 한다.
[수식 1]
Figure 112021008474550-pat00001
여기서, α는 사전에 설정된 상수이고, P는 변환 파라미터 회 전변환 행렬 R, 평행이동 행렬 t, 및, 스케일링 팩터 S를 의미하고, Pn은 현재 계산된 변환 파라미터의 값, 그리고 Pn+1은 보정될 좌표변환 파라미터 값이고, ∂fError/∂Pn 는 fError를 변환 파라미터로 편미분하는 것을 의미하고, fError는 기준 좌표계의 포인트 클라우드의 실제 좌표(Xref)와 변환 파라미터에 의한 변환 좌표(Xi')의 오차 함수임
또, 본 발명은 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 있어서, 상기 (d)단계에서, 각 시점의 외부 파라미터 또는 카메라 파라미터를 이용하여, 각 시점의 3차원 스켈레톤을 하나의 월드 좌표계로 정렬한 후 통합하는 것을 특징으로 한다.
또, 본 발명은 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 있어서, 상기 (d)단계에서, 다시점 색상-깊이 영상으로부터 3차원 메쉬 모델을 생성하고, 각 시점의 스켈레톤을 월드 좌표계로 변환하여 정렬한 후, 정렬된 3D 스켈레톤들과 3D 체적 메쉬 모델을 하나의 공간에 위치시키고, 3D 체적 메쉬 모델의 바깥에 존재하는 조인트들을 제외하여 보정하는 것을 특징으로 한다.
또, 본 발명은 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 있어서, 상기 (d)단계에서, 포인트 클라우드 통합 또는 메쉬 생성 방식을 사용하여 3차원 체적 모델을 생성하는 것을 특징으로 한다.
또한, 본 발명은 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
상술한 바와 같이, 본 발명에 따른 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 의하면, 다시점 RGB-D 영상의 부분 스켈레톤의 조인트를 특징점으로 파라미터를 계산하고 이를 기반으로 스켈레톤을 통합함으로써, 높은 신뢰성을 갖는 3D 스켈레톤을 생성할 수 있고, 생성된 3D 스켈레톤은 시간적으로 끊김없이 3D 체적 정보의 형태와 움직임을 정확히 표현할 수 있는 효과가 얻어진다.
도 1은 본 발명을 실시하기 위한 전체 시스템에 대한 구성도.
도 2는 본 발명의 일실시예에 따른 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법을 설명하는 흐름도.
도 3은 본 발명의 일실시예에 따른 실사 3D 체적 촬영 시스템에 대한 예시도로서, (a) 수직, (b) 수평 촬영 각도 및 범위에 대한 예시도.
도 4는 본 발명의 일실시예에 따른 RGB-D 카메라로부터 출력되는 영상과 스켈레톤의 조인트에 대한 예시도로서, (a) 색상 영상(RGB image), (b) 깊이 영상(depth image), (c) 추정된 스켈레톤과 정의된 조인트(estimated skeleton and defined joint)에 대한 예시도.
도 5는 본 발명의 일실시예에 따른 스켈레톤에서 특징점을 추출하는 예시도로서, (a) 스켈레톤과 (b) 조인트(joint)로 정의된 특징점에 대한 예시도.
도 6은 본 발명의 일실시예에 따른 스켈레톤 기반의 외부 캘리브레이션 방법을 나타낸 슈도 코드.
도 7은 본 발명의 일실시예에 따른 공간 상에서 조인트(joint)들 간의 거리를 이용하여 거리의 차이가 최소화되는 외부 파라미터 최적화 단계를 도식화한 도면.
도 8은 본 발명의 일실시예에 따른 통합된 3차원 모델의 포인트 클라우드 분포를 이용한 관절의 결정 및 보정 방법을 도식화 한 예시도로서, 굵은 점선은 3차원 모델의 표면을 나타내고, 붉은 점은 결정된 관절이고, 푸른 점은 정렬된 관절이며, (a) 정렬된 관절, (b) 불필요한 관절을 제외한 후에 보정된 관절에 대한 예시도.
이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.
또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.
먼저, 본 발명을 실시하기 위한 전체 시스템의 구성의 예들에 대하여 도 1을 참조하여 설명한다.
도 1에서 보는 바와 같이, 본 발명에 따른 3차원 스켈레톤 생성 방법은 분산 카메라 시스템(20)에 의해 촬영된 다시점 깊이 및 색상(RGB 등) 이미지(60)를 입력받아 3차원 스켈레톤을 생성하는 컴퓨터 단말(30) 상의 프로그램 시스템으로 실시될 수 있다. 즉, 3차원 스켈레톤 생성 방법은 프로그램으로 구성되어 컴퓨터 단말(30)에 설치되어 실행될 수 있다. 컴퓨터 단말(30)에 설치된 프로그램은 하나의 프로그램 시스템(40)과 같이 동작할 수 있다.
한편, 다른 실시예로서, 3차원 스켈레톤 생성 방법은 프로그램으로 구성되어 범용 컴퓨터에서 동작하는 것 외에 ASIC(주문형 반도체) 등 하나의 전자회로로 구성되어 실시될 수 있다. 또는 다시점 깊이 및 색상 이미지에서 3차원 스켈레톤을 생성하는 것만을 전용으로 처리하는 전용 컴퓨터 단말(30)로 개발될 수도 있다. 이를 3차원 스켈레톤 생성 시스템(40)이라 부르기로 한다. 그 외 가능한 다른 형태도 실시될 수 있다.
한편, 분산 카메라 시스템(20)은 객체(10)에 대해 서로 다른 시점으로 촬영하는 다수의 색상-깊이(RGB-D) 카메라(21)로 구성된다.
또한, 각 RGB-D 카메라(21)는 색상 정보 및 깊이 정보를 측정하여 색상 및 깊이 영상(또는 RGB-D 영상)을 획득하는 카메라이다. 바람직하게는, RGB-D 카메라(21)는 키넥트(kinect) 카메라이다. RGB-D 카메라(21)를 통해, 색상 및 깊이 영상은 2차원 픽셀들로 구성되고, 각 픽셀은 색상 값 및 깊이 값을 갖는다.
RGB-D 카메라(21)에 의해 촬영된 다시점 색상-깊이 영상(60)은 컴퓨터 단말(30)에 직접 입력되어 저장되고, 3차원 스켈레톤 생성 시스템(40)에 의해 처리된다. 또는, 다시점 색상-깊이 영상(60)은 컴퓨터 단말(30)의 저장매체에 미리 저장되고, 3차원 스켈레톤 생성 시스템(40)에 의해 저장된 색상-깊이 영상(60)을 읽어 입력될 수도 있다.
영상은 시간상으로 연속된 프레임으로 구성된다. 예를 들어, 현재시간 t의 프레임을 현재 프레임이라고 하면, 직전시간 t-1의 프레임은 이전 프레임이라고 하고, t+1의 프레임은 다음 프레임이라고 부르기로 한다. 한편, 각 프레임은 컬러영상(또는 컬러 이미지) 및 깊이영상(또는 깊이정보)을 갖는다.
특히, RGB-D 카메라(21)의 개수만큼 객체(10)에 대해 서로 다른 시점으로 촬영하고, 특정 시간 t에서, 카메라 개수만큼의 다시점 깊이 및 색상 영상(60)이 획득된다.
한편, 색상-깊이 영상(60)은 시간상으로 연속된 프레임으로 구성된다. 하나의 프레임은 하나의 이미지를 갖는다. 또한, 영상(60)은 하나의 프레임(또는 이미지)을 가질 수도 있다. 즉, 영상(60)은 하나의 이미지인 경우에도 해당된다.
다시점 색상-깊이 영상에서 다시점 클라우드 포인트를 정합하는 것은, 곧 깊이/색상 프레임(또는 이미지) 각각에서 검출하는 것을 의미하나, 이하에서 특별한 구별의 필요성이 없는 한, 영상이나 이미지의 용어를 혼용하기로 한다.
다음으로, 본 발명의 일실시예에 따른 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법을 전체적으로 설명한다.
일반적으로, 3D 체적의 모델링 결과는 정밀 동작 인식, 리깅, 혹은 영역 분할 등을 통해 AR 및 VR 서비스 위한 콘텐츠 제작 등에 널리 이용될 수 있다. 3D 체적은 다양한 형태와 특성을 갖는 분산된 카메라들로 만들 수 있다.
본 발명에서는 다양한 시점에서 촬영이 가능한 분산 RGB-D 카메라 네트워크를 이용하여 3D 체적 메쉬 모델에 리깅 혹은 애니메이팅을 적용하기 위해 정밀한 3D 스켈레톤을 획득하는 방법이다.
이를 위해, 공간의 임의의 위치에 분산되어 있는 RGB-D 카메라 네트워크를 이용하여 카메라 파라미터를 획득하고 하나의 통합된 3차원 스켈레톤을 생성하는 새로운 그래픽스 파이프라인을 구성한다.
본 발명에 따른 방법은 크게 두 가지 세 가지 과정으로 구성된다.
첫 번째 과정은 수정된 파라미터 최적화(Modified Parameter Optimization) 과정이다. 즉, 분산 카메라 네트워크에서 3차원 스켈레톤 정보를 이용하여 각 카메라의 파라미터를 획득하는 과정이다. 획득된 파라미터는 각 카메라별로 획득된 스켈레톤을 통합하는데 이용된다.
구체적으로, 카메라들로부터 획득된 부분 스켈레톤의 조인트를 특징점으로 이용하여 카메라 파라미터를 계산한다. 다수 개의 카메라들은 모두 임의의 위치에 존재할 수 있으므로, 통합을 위해 카메라 파라미터를 획득해야 한다. 본 발명에서는 일반적인 방식과 달리 특수 제작된 보정판을 이용하여 카메라들 간의 내부 및 외부 파라미터를 계산하지 않는다.
두 번째 과정은 3차원 스켈레톤 생성(3D Skeleton Generation) 과정이다. 분산 카메라 네트워크 내의 카메라들로부터 획득된 스켈레톤들을 카메라 파라미터를 이용하여 정렬한다.
즉, 계산된 카메라 파라미터를 이용하여 각 카메라들로부터 획득된 스켈레톤을 통합하여 하나의 3D 스켈레톤을 생성하고, 이와 동시에 등록된(registered) 포인트 클라우드 형식의 3D 체적 모델(volumetric model)을 재구성(reconstruction)한다. 즉, 획득된 카메라 파라미터를 이용하여 각 카메라로부터 독립적으로 획득한 부분 스켈레톤을 3D 공간상에서 정렬한다.
세 번째 과정은 3차원 체적 정보를 이용하여, 스켈레톤의 각 조인트를 보정하는 알고리즘으로 구성된다. 분산 카메라 네트워크로부터 생성된 카메라 파라미터와 깊이지도 및 RGB 영상을 이용하여 포인트 클라우드 혹은 메쉬 형태의 3D 체적 모델을 생성한다. 3차원 체적 모델을 이용하여 3차원 스켈레톤을 보정함으로써 통합된 3D 스켈레톤을 생성한다.
보정 방법은 공간 및 시간적으로 수행된다. 3D 포인트 클라우드를 RGB-D 카메라들을 이용하여 획득된 포인트 클라우드 정보를 통합하고 조인트의 위치를 보정함으로써 높은 신뢰성을 갖는 3D 스켈레톤을 생성한다. 특히, 3D 체적 모델을 생성하고, 이를 이용하여 정렬된 3D 스켈레톤 정보들을 통합한 후에 최종적으로 고품질의 3D 스켈레톤을 생성한다.
생성된 3D 스켈레톤은 시간적으로 끊김없이 3D 체적 정보의 형태와 움직임을 정확히 표현할 수 있다.
3D 체적을 획득하기 위해서 분산 카메라 네트워크를 일반적으로 많이 사용하고 있다. 앞서 설명한 바와 같이 분산 카메라 네트워크로부터 획득된 다시점 영상을 다양한 방법으로 활용하여 3D 체적을 생성할 수 있다. 분산 카메라 네트워크는 임의의 위치에 분포하기 때문에 객체의 크기 혹은 위치에 따라가 각 카메라에서 획득된 영상에서는 객체의 전부 혹은 일부가 포함될 수 있다. 최악의 경우에는 모든 카메라에서 객체의 일부만을 촬영할 수도 있다. 이와 같은 환경에서 3D 체적에 대한 3D 스켈레톤을 획득하는 경우에는 이러한 모든 카메라의 정보를 통합하여 하나의 3D 스켈레톤을 구해야만 할 것이다.
다음으로, 본 발명의 일실시예에 따른 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법을 도 2를 참조하여 보다 구체적으로 설명한다.
도 2에서 보는 바와 같이, 본 발명의 일실시예에 따른 3차원 스켈레톤 생성 방법은 (a) 다시점 색상-깊이 영상 획득 단계(S10), (b) 관절-기반의 특징점 생성 (Joint-based Feature Point Generation) 단계(S20), (c) 스켈레톤 기반의 외부 캘리브레이션 (Skeleton-based Dynamic Extrinsic Calibration) 단계(S30), (d) 스켈레톤 정렬 및 통합 (Skeleton Alignment and Integration) 단계(S40), (f) 스켈레톤 보정(Skeleton Refinement) 단계(S60)로 구성된다. 추가적으로, (e) 3차원 메쉬 모델 생성 단계(S50)를 더 포함할 수 있다.
즉, 분산 다시점 카메라의 경우에 객체가 이동함에 따라서 각 카메라가 촬영할 수 있는 객체의 영역이 달라진다. 이 경우에 각 카메라들이 촬영한 부분 정보를 하나로 모아서 하나의 정보를 생성하는 방법이 필요하다. 여기에서는 3D 스켈레톤을 생성하는 것을 목표로 하고 있으므로 각 위치에서 촬영한 객체의 부분에 대한 스켈레톤 일부를 얻고(DL-based 3D Skeleton Generation), 이 부분 스켈레톤을 정렬하고(Skeleton Alignment) 통합하여(Skeleton Integration) 완전한 3D 스켈레톤을 얻는다. 또한, 스켈레톤을 정렬하기 위해서는 분산 카메라에 대한 카메라 파라미터가 필요하고, 스켈레톤을 통합하는 과정에서는 3D 메쉬(Mesh) 정보를 이용하여 보정함으로써 정확한 3D 스켈레톤을 3D 체적 모델에 내장시킬 수 있다.
이하에서 보다 구체적으로 설명한다.
먼저, 다시점 색상-깊이(RGB-D) 카메라로부터 객체(10)를 촬영한 다시점 영상을 입력받는다(S10). 즉, 다시점 색상-깊이 카메라 시스템이 객체를 촬영하고, 촬영된 다시점 색상-깊이 영상을 입력받는다. 또한, RGB-D 카메라를 통해 촬영되는 깊이 및 RGB 이미지를 이용하여 깊이 카메라의 좌표계를 따르는 포인트 클라우드를 각 카메라에서 획득한다.
실사 기반의 3D 체적을 생성하기 위해 RGB-D 카메라를 사용한다. 3D 스켈레톤을 생성하는 것이 목표이므로, 공간의 여기저기에 분산하여 다수의 RGB-D 카메라를 설치한다. 바람직하게는, 다수의 RGB-D 카메라(8대 RGB-D 카메라 등)의 배치는 물체를 모든 높이에서 촬영하기 위해 높이가 다른 위치에 카메라를 설치할 수 있는 스탠드 형태의 촬영 장비를 사용하여 구성한다. 도 3은 본 발명에서 사용한 분산 카메라 네트워크이다.
분산 카메라 네트워크는 일정한 공간 내에 임의의 위치에 다수 개의 카메라를 위치시키고, 객체를 스캐닝하는 시스템을 의미한다. 특히, 분산 카메라 시스템(20)은 수평 방향으로 적어도 4개의 지점(시점)에서 객체를 향하는 카메라를 설치하고, 각 지점(시점)에서 수직 방향(위아래 방향)으로 적어도 2대의 카메라를 이격되도록 설치한다. 즉, 분산 카메라 시스템(20)은 적어도 4대의 카메라가 하나의 수평층을 이루고, 적어도 2개의 수평층을 갖는다. 모든 카메라가 정확한 위치에 설치될 필요는 없고, 대략적으로 유사한 위치에 설치될 수 있다.
일례로서, 도 3에서 보는 바와 같이, 8대의 RGB-D 카메라를 설치한다. 즉, 8대의 카메라는 공간의 중심을 향하도록 하고, 4대의 카메라는 아래에 위치하고, 4대의 카메라는 위쪽에 위치한다.
더욱 바람직하게는, 비교적 저가의 ToF(Time of Flight) 센서인 애저 키넥트 (Asure Kinect)를 이용한 색상-깊이(RGB-D) 센서를 사용한다. 그러나 애저 키넥트의 SDK 뿐만 아니라 3D 스켈레톤을 추출할 수 있는 어떠한 장치나 시스템도 이용할 수 있다.
한편, 분산 RGB-D 카메라 네트워크를 통해서 생성된 다수 개의 RGB와 깊이지도 영상은 전처리 과정을 거쳐서 보정된다.
다음으로, 각 시점의 색상-깊이 영상으로부터 각 시점의 3차원 스켈레톤을 생성하고, 각 시점의 스켈레톤의 조인트를 특징점으로 생성한다(S20).
바람직하게는, DL 기반(DL-based)으로 3차원 스켈레톤(3D Skeleton)을 생성한다. 즉, 오픈포즈(OpenPose)와 같은 딥러닝(deep learning)을 이용하여 스켈레톤을 추출한다.
특히, 애저 키넥트(Asure Kinect)의 SDK(software development kit)를 이용하여, 각 카메라별로 3D 스켈레톤을 추출한다. 각 카메라별로 3D 스켈레톤을 추출하기 위한 통상의 방법은 어떠한 것을 사용하여도 무관하고, 카메라별로 다른 방식을 사용하여도 상관없다.
색상-깊이 영상에서 스켈레톤을 추출하는 예가 도 4에 도시되고 있다.
일례로서, 신경망 방식의 오픈포즈(OpenPose)를 이용하여 2D 스켈레톤을 추출할 수 있다[비특허문헌 3]. 오픈포즈(OpenPose)는 CNN(Convolutional Neural Network)을 기반으로 하며, 사진에서 실시간(real-time)으로 여러 사람의 몸, 손, 그리고 얼굴의 특장점을 추출할 수 있는 라이브러리이다. 특히, 오픈포즈는 여러 사람의 자세(pose)를 빠르게 찾는다. 오픈포즈(OpenPose)는 바텀업(Bottom-Up) 방식의 일종으로 반복적인 처리 없이 성능을 향상시켰다. 바텀업(Bottom-Up) 방식은 모든 사람의 관절을 추정하고, 각 관절의 위치를 이은 다음, 각각에 해당하는 사람의 관절 위치로 재생성하는 방식이다. 오픈포즈(OpenPose)를 이용하여 스켈레톤을 추출된 결과는 이미지(Image)와 제이슨(json) 파일로 출력된다.
또한, 추출된 3차원 스켈레톤에서 조인트들을 각 시점의 특징점으로 생성한다. 스켈레톤의 조인트를 특징점으로 생성하는 예가 도 5에 도시되고 있다.
다음으로, 각 시점의 스켈레톤의 조인트를 이용하여 외부 파라미터를 최적화 하는 외부 캘리브레이션을 수행한다(S30).
도 6은 스켈레톤을 이용하여 카메라 파라미터를 구하기 위한 외부 캘리브레이션 (extrinsic calibration) 과정을 나타낸 슈도코드를 나타내고, 도 7은 외부 캘리브레이션의 과정을 도식화 하고 있다.
도 6 또는 도 7에서 보는 바와 같이, 각 시점의 스켈레톤의 조인트들을 특징점 집합으로 구성한다. 그리고 특징점 집합에 대해 외부 파라미터의 최적화를 수행하여 가장 큰 오차를 가진 특징점을 검출하고, 검출된 특징점을 특징점 집합에서 제외하고 나머지 집합에 대해 최적화 작업을 반복한다. 이때, 특징점 집합의 크기가 1일 때까지 반복한다. 그리고 최적화 오차가 가장 적은 경우의 최적화된 외부 파라미터를 최종 외부 파라미터로 획득한다.
구체적으로, 각 카메라로부터 획득된 유효한 조인트 정보를 특징점으로 하여 1차 최적화를 수행한다. 다음으로 이전 최적화 이후에 가장 오차가 심한 조인트를 제외하고 최적화를 다시 수행하고 전체 조인트에 대한 오차를 다시 계산하여 저장한다. 이러한 과정은 이전 조인트 세트에 의한 최적화 오차의 수렴한 값과 다음 조인트 세트의 최적화 오차의 수렴한 값 사이의 차이값이 특정 임계치 이하일 때까지 반복한다. 즉, 특정 임계치 이하이면 반복을 중단한다. 그리고 중단하고 중단시의 현재의 최적화에 의해 획득된 카메라 파라미터를 획득한다. 이 과정은 모든 카메라로부터 획득된 8개의 스켈레톤(skeleton) 정보를 이용하여 반복 수행한다.
다음으로, 이하에서, 특징점 집합에 대하여 외부 파라미터를 최적화 하는 과정을 설명한다. 즉, 캘리브레이션을 위해 포인트 클라우드 세트들(또는 특징점 집합)에서 매칭되는 좌표를 이용하여 각 카메라들의 외부(extrinsic parameter)들을 구하는 방법은 다음과 같다.
이 파라미터들은 최적화 알고리즘을 이용하여 매칭되는 좌표들의 유클리드 제곱거리가 최소가 되도록 계산된다. 좌표계의 변환행렬에는 x, y, z 축 각각의 회전각과 평행이동 값들의 파라미터가 포함되어 있다. 하나의 카메라를 기준 좌표계로 설정한 후에, 기준 좌표계로 다른 카메라들의 그것들을 변환시키는 파라미터를 구한다. Xref는 기준 카메라의 좌표를 나타내고 Xi는 나머지 카메라들의 좌표를 나타낸다. Ri->ref와 ti->ref은 각 카메라에서 기준 카메라로의 회전과 평행이동 행렬을 나타낸다. 초기 R은 단위행렬이고 ti->ref는 모두 제로(zero)로 되어있다.
도 6의 식 (1)은 초기 파라미터를 적용하게 되면 결과는 Xi가 되고, 최적화를 진행하면서 Xref에 수렴하게 된다. 최적화를 진행할 손실(loss) 함수는 Xref와 Xi'의 SED(Squared Euclidean Distance, 유클리드 제곱 거리)의 평균값이다. 식 (2)는 오차 함수를 나타낸다.
손실(loss) 함수를 좌표계 변환 파라미터들에 대해 미분하고 함수가 최소가 되도록 파라미터를 갱신해 나가는 과정을 식 (3)과 같이 나타낼 수 있다. α는 상수로써 학습률이고, 사전에 정해지는 상수값으로서, 바람직하게는, 0.01값을 사용한다. P는 카메라 파라미터 또는 외부 파라미터를 나타내고, Pn+1과 Pn는 각각 n+1과 n번째 반복연산에서의 파라미터이다.
실험에 의하면, 이 과정을 200,000번 이상 수행하면, 8대 카메라들의 평균 오차는 2.98mm까지 낮아진다.
다음으로, 외부 파라미터를 이용하여, 각 시점의 3차원 스켈레톤을 정렬하고 통합한다(S40).
즉, 앞서 구한 각 시점의 외부 파라미터 또는 카메라 파라미터를 이용하여, 각 시점의 3차원 스켈레톤을 하나의 월드 좌표계로 정렬한 후 통합한다. 앞서의 예에서, 카메라를 8대 사용하므로, 최대 8개의 부분 스켈레톤을 하나의 월드 좌표계로 정렬하여 통합한다.
구체적으로, 최적화 과정에 의해 각 카메라의 파라미터가 구해지면, 다음 수학식 4를 이용하여 각 시점의 카메라 좌표계에서 월드 좌표계로 변환을 수행하고, 통일된 좌표계를 기준으로 포인트 클라우드를 정렬할 수 있다.
분산 카메라 네트워크에서 획득된 8쌍의 색상(RGB)와 깊이영상을 이용하여 스켈레톤의 정렬을 위한 스켈레톤 위치 이동 및 회전 변환 파라미터를 계산한다. 이동 및 회전 변환 파라미터는 앞서 외부 파라미터의 최적화 과정에서 획득한 각 시점의 변환 파라미터(카메라 파라미터)이다.
함수 최적화 기법을 이용하여 최적화된 각 카메라별 회전(R) 및 이동(t) 매트릭스(행렬)를 각 카메라 좌표계를 기준으로 정의된 각 카메라로부터 추출된 3D 스켈레톤에 적용하면 모든 3D 스켈레톤은 월드 좌표계를 기준으로 정렬된다.
이와 같은 관계는 수학식 4 및 5와 같이 정의된다. PW는 월드 좌표(기준 카메라 좌표)를 나타내고, SC는 카메라 좌표를 나타낸다[18].
[수학식 4]
Figure 112021008474550-pat00002
[수학식 5]
Figure 112021008474550-pat00003
다음으로, 다시점 색상-깊이 영상으로부터 3차원 메쉬 모델을 생성한다(S50).
즉, 앞서 단계에서, 각 시점의 스켈레톤을 정렬하고, 이로부터 포인트 클라우드 혹은 메쉬 형태의 3차원 체적 모델을 생성한다. 여기에서 TSDF(truncated signed distance function)를 사용할 수 있으나 이에 한정되지 않는다. 즉, 통합된 포인트 클라우드의 공간적인 분포를 확인할 수 있는 방식이면 어떠한 방식이든 적용될 수 있다.
다음으로, 통합된 3차원 스켈레톤에 대해 보정을 수행한다(S60).
분산 카메라를 통해서 획득된 부분적인, 그리고 불완전한 3차원 스켈레톤들은 스켈레톤 통합 과정을 거치면서 하나로 합쳐진다. 이 과정에서 잘못 추출된 조인트는 삭제되고, 나머지 조인트 정보들을 공간에서 평균하여 정확한 스켈레톤을 추출한다.
바람직하게는, 도 8에서 보는 바와 같이, 3차원(3D) 체적 메쉬 모델의 정보를 이용하여, 통합된 3차원 스켈레톤을 보정한다. 즉, 정렬된 3D 스켈레톤들과 3D 체적 메쉬 모델을 하나의 공간에 위치시킨 후, 3D 체적 메쉬 모델의 바깥에 존재하는 조인트들은 잘못 추출된 조인트들로 간주하여 삭제한다.
도 8은 보정 과정을 예시한 것으로서, 도 8(a)는 보정전 정렬된 관절(조인트)을 나타내고, 도 8(b)는 보정후 관절을 나타낸다. 특히, 도 8에서, 굵은 점선은 3차원 모델의 표면을 나타내고, 붉은 점은 결정된 관절이고, 푸른 점은 정렬된 관절이다.
한편, 각 시점의 스켈레톤을 월드 좌표계로 변환하여 정렬한 후, 체적 메쉬로 보정을 하고, 보정한 뒤 남은 스켈레톤을 평균하여 통합한다.
이상, 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.
10 : 물체 20 : 카메라 시스템
30 : 컴퓨터 단말 40 : 프로그램 시스템

Claims (10)

  1. 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법에 있어서,
    (a) 다시점 색상-깊이 영상을 획득하는 단계;
    (b) 각 시점의 색상-깊이 영상으로부터 각 시점의 3차원 스켈레톤을 생성하고, 각 시점의 스켈레톤의 조인트를 특징점으로 생성하는 단계;
    (c) 각 시점의 스켈레톤의 조인트를 이용하여 외부 파라미터를 최적화 하는 외부 캘리브레이션을 수행하는 단계; 및,
    (d) 외부 파라미터를 이용하여, 각 시점의 3차원 스켈레톤을 정렬하고 통합하는 단계를 포함하고,
    상기 (c)단계에서,
    각 시점의 스켈레톤의 조인트들을 특징점 집합으로 구성하고, 상기 특징점 집합에 대해 외부 파라미터의 최적화를 수행하고,
    상기 특징점 집합의 각 좌표에 대하여 해당 카메라의 외부 파라미터에 의한 변환 파라미터로 각 시점의 좌표를 기준 좌표계로 변환하고,
    기준 좌표계의 포인트 클라우드의 실제 좌표(Xref)와, 상기 변환 파라미터에 의한 변환 좌표(Xi')의 오차가 최소화 되도록, 상기 변환 파라미터를 최적화하되, 다음 수식 1에 의하여, 현재 변환 파라미터 Pn에서 다음 변환 파라미터 Pn+1을 업데이트하여, 상기 오차가 최소화 될 때까지 반복하고, 상기 오차가 최소화될 때의 변환 파라미터를 최적화된 변환 파라미터로 설정하고,
    최적화된 변환 파라미터에 대응되는 해당 카메라의 외부 파라미터를 최적화된 외부 파라미터로 설정하는 것을 특징으로 하는 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법.
    [수식 1]
    Figure 112022017526593-pat00013

    여기서, α는 사전에 설정된 상수이고, P는 변환 파라미터 회전변환 행렬 R, 평행이동 행렬 t, 및, 스케일링 팩터 S를 의미하고, Pn은 현재 계산된 변환 파라미터의 값, 그리고 Pn+1은 보정될 변환 파라미터 값이고, ∂fError/∂Pn 는 fError를 변환 파라미터로 편미분하는 것을 의미하고, fError는 기준 좌표계의 포인트 클라우드의 실제 좌표(Xref)와 변환 파라미터에 의한 변환 좌표(Xi')의 오차 함수임.
  2. 제1항에 있어서,
    상기 (a)단계에서, 상기 다시점 색상-깊이 영상은 적어도 2개의 수평층을 이루고 각 층에서 적어도 4개의 색상-깊이 카메라에 의해 촬영된 각 시점의 색상-깊이 영상들로 구성되는 것을 특징으로 하는 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법.
  3. 제1항에 있어서,
    상기 (b)단계에서, 애저 키넥트(Asure Kinect)의 SDK(software development kit)를 이용하여, 각 카메라별로 3D 스켈레톤을 추출하는 것을 특징으로 하는 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법.
  4. 제1항에 있어서,
    상기 (c)단계에서, 상기 특징점 집합에 대해 외부 파라미터의 최적화를 수행하고, 최적화된 외부 파라미터에 의한 가장 큰 오차를 가진 특징점을 검출하고, 검출된 특징점을 상기 특징점 집합에서 제외하고 나머지 집합에 대해 최적화 작업을 반복하고, 최적화 오차가 가장 적은 경우의 최적화된 외부 파라미터를 최종 외부 파라미터로 획득하고,
    각 특징점의 오차는 기준 좌표계의 실제 좌표(Xref)와, 최적화된 외부 파라미터에 의한 변환 좌표(Xi') 간의 오차로 산출되는 것을 특징으로 하는 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법.
  5. 제4항에 있어서,
    상기 (c)단계에서, 가장 오차가 심한 조인트의 오차가 특정 임계치 이하인 경우, 반복을 중단하고, 중단할 때의 카메라 파라미터를 최종 파라미터로 선정하는 것을 특징으로 하는 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법.
  6. 삭제
  7. 제1항에 있어서,
    상기 (d)단계에서, 각 시점의 외부 파라미터 또는 카메라 파라미터를 이용하여, 각 시점의 3차원 스켈레톤을 하나의 월드 좌표계로 정렬한 후 통합하는 것을 특징으로 하는 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법.
  8. 제7항에 있어서,
    상기 (d)단계에서, 다시점 색상-깊이 영상으로부터 3차원 메쉬 모델을 생성하고, 각 시점의 스켈레톤을 월드 좌표계로 변환하여 정렬한 후, 정렬된 3D 스켈레톤들과 3D 체적 메쉬 모델을 하나의 공간에 위치시키고, 정렬된 스켈레톤의 조인트들 중에서 3D 체적 메쉬 모델의 바깥에 존재하는 조인트들을 제외하는 것을 특징으로 하는 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법.
  9. 제8항에 있어서,
    상기 (d)단계에서, 포인트 클라우드 통합 또는 메쉬 생성 방식을 사용하여 3차원 체적 모델을 생성하는 것을 특징으로 하는 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법.
  10. 제1항 내지 제5항, 제7항 내지 제9항 중 어느 한 항의 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020210008979A 2020-12-15 2021-01-21 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법 KR102416523B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/535,036 US11727637B2 (en) 2020-12-15 2021-11-24 Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200174947 2020-12-15
KR1020200174947 2020-12-15

Publications (2)

Publication Number Publication Date
KR20220085678A KR20220085678A (ko) 2022-06-22
KR102416523B1 true KR102416523B1 (ko) 2022-07-05

Family

ID=82216957

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210008979A KR102416523B1 (ko) 2020-12-15 2021-01-21 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법

Country Status (1)

Country Link
KR (1) KR102416523B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102621435B1 (ko) 2022-07-12 2024-01-09 주식회사 래비노 레이저광을 이용한 다중 스테레오 카메라 캘리브레이션 방법 및 시스템
KR20240008690A (ko) 2022-07-12 2024-01-19 주식회사 래비노 움직이는 카메라들의 영상 보정을 이용한 3d 이미지 생성 시스템 및 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758237B (zh) * 2023-08-17 2023-10-20 山东萌山钢构工程有限公司 一种基于实时建模的装配建筑监测系统
CN117557700B (zh) * 2024-01-12 2024-03-22 杭州优链时代科技有限公司 一种用于人物建模的方法及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102152436B1 (ko) 2019-03-04 2020-09-04 광운대학교 산학협력단 3차원 포인트 클라우드 기반의 동적 3차원 모델 생성을 위한 뼈대 정보 처리 시스템 및 방법
KR102152432B1 (ko) * 2019-03-04 2020-10-26 광운대학교 산학협력단 동적 3차원 모델을 이용한 실사 콘텐츠 생성 시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102152436B1 (ko) 2019-03-04 2020-09-04 광운대학교 산학협력단 3차원 포인트 클라우드 기반의 동적 3차원 모델 생성을 위한 뼈대 정보 처리 시스템 및 방법
KR102152432B1 (ko) * 2019-03-04 2020-10-26 광운대학교 산학협력단 동적 3차원 모델을 이용한 실사 콘텐츠 생성 시스템 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kevin Desai ET AL., "Skeleton-based Continuous Extrinsic Calibration of Multiple RGB-D Kinect Cameras", ACM Press the 9th ACM Multimedia Systems Conference-Amsterdam, Netherlands, 2018년 6월. 1부.*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102621435B1 (ko) 2022-07-12 2024-01-09 주식회사 래비노 레이저광을 이용한 다중 스테레오 카메라 캘리브레이션 방법 및 시스템
KR20240008690A (ko) 2022-07-12 2024-01-19 주식회사 래비노 움직이는 카메라들의 영상 보정을 이용한 3d 이미지 생성 시스템 및 방법

Also Published As

Publication number Publication date
KR20220085678A (ko) 2022-06-22

Similar Documents

Publication Publication Date Title
KR102416523B1 (ko) 다시점 카메라로부터 획득된 조인트 기반의 캘리브레이션을 이용한 3차원 스켈레톤 생성 방법
US10334168B2 (en) Threshold determination in a RANSAC algorithm
JP6426968B2 (ja) 情報処理装置およびその方法
EP2614487B1 (en) Online reference generation and tracking for multi-user augmented reality
US11727637B2 (en) Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera
CN107833270A (zh) 基于深度相机的实时物体三维重建方法
US20150243035A1 (en) Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest
KR102152432B1 (ko) 동적 3차원 모델을 이용한 실사 콘텐츠 생성 시스템 및 방법
CN104715479A (zh) 基于增强虚拟的场景复现检测方法
JP2009536731A (ja) 深度マップによるヒューマノイド形状のモデル化
KR102206108B1 (ko) 체적형 객체 촬영을 위한 다중 rgb-d 카메라 기반의 포인트 클라우드 정합 방법
CN110288712B (zh) 室内场景的稀疏多视角三维重建方法
JP2017194935A (ja) 三次元再構成方法
KR102152436B1 (ko) 3차원 포인트 클라우드 기반의 동적 3차원 모델 생성을 위한 뼈대 정보 처리 시스템 및 방법
KR100951309B1 (ko) 광학식 모션 캡처 장비를 위한 다중 카메라 보정 방법
JP2020042772A (ja) 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム
JP2005326247A (ja) 校正装置及び校正方法並びに校正プログラム
CN115035235A (zh) 三维重建方法及装置
Islam et al. Stereo vision-based 3D positioning and tracking
CN114935316B (zh) 基于光学跟踪与单目视觉的标准深度图像生成方法
KR20160049639A (ko) 부분 선형화 기반의 3차원 영상 정합 방법
JP4675368B2 (ja) 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体
KR102146839B1 (ko) 실시간 가상현실 구축을 위한 시스템 및 방법
KR101904170B1 (ko) 구면 모델링을 통한 깊이 정보 보정 및 부호화 방법과 부호화장치
Mkhitaryan et al. RGB-D sensor data correction and enhancement by introduction of an additional RGB view

Legal Events

Date Code Title Description
GRNT Written decision to grant