KR100753965B1 - 퍼펫의 자세캡쳐 시스템 및 그 방법 - Google Patents

퍼펫의 자세캡쳐 시스템 및 그 방법 Download PDF

Info

Publication number
KR100753965B1
KR100753965B1 KR1020060031795A KR20060031795A KR100753965B1 KR 100753965 B1 KR100753965 B1 KR 100753965B1 KR 1020060031795 A KR1020060031795 A KR 1020060031795A KR 20060031795 A KR20060031795 A KR 20060031795A KR 100753965 B1 KR100753965 B1 KR 100753965B1
Authority
KR
South Korea
Prior art keywords
puppet
dimensional
marker
color
joint
Prior art date
Application number
KR1020060031795A
Other languages
English (en)
Inventor
박성준
이성도
Original Assignee
(주)아이토닉
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이토닉 filed Critical (주)아이토닉
Priority to KR1020060031795A priority Critical patent/KR100753965B1/ko
Application granted granted Critical
Publication of KR100753965B1 publication Critical patent/KR100753965B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/20Dolls with parts moved due to movements of other parts, e.g. limbs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 퍼펫의 자세캡쳐 시스템 및 그 방법에 관한 것으로, 특히 관절인형인 퍼펫을 필요한 자세로 고정시키고, 2개의 카메라로 촬영한 후 촬영된 퍼펫의 2차원 이미지로부터 퍼펫의 관절위치에 대한 3차원 정보를 획득함으로써, 작은 공간에서도 손쉽게 3차원 캐릭터의 자세를 획득할 수 있도록 한 퍼펫의 자세캡쳐 시스템 및 그 방법에 관한 것이다.
본 발명의 퍼펫의 자세캡쳐 시스템 및 그 방법은 다수개의 뼈대 및 각각 미리 정해진 색상인 마커가 도포된 채로 상기 뼈대를 유동 가능하게 연결하는 다수개의 관절로 이루어진 퍼펫; 상기 퍼펫이 촬영영역 내에 위치하도록 소정 거리만큼 이격된 2개의 카메라 및 상기 2개의 카메라와 연결되며, 2차원 이미지 정보로부터 3차원 이미지 정보를 획득하며, 상기 색상에 매칭될 관절을 갖는 3차원 캐릭터가 저장된 컴퓨터를 포함하여 이루어진 퍼펫의 자세캡쳐 시스템에서 상기 컴퓨터에 의해 수행되며, 상기 2개의 카메라로부터 각각 상기 퍼펫의 2차원 이미지 정보를 입력받는 단계; 입력된 상기 2개의 2차원 이미지 정보로부터 상기 마커의 색상 및 3차원 위치정보를 획득하는 단계 및 획득된 상기 마커의 상기 색상을 근거로 상기 마커의 3차원 위치정보에 상기 3차원 캐릭터의 각 관절을 매칭시켜 표시하는 단계를 포함하여 이루어진다.
자세캡쳐, 퍼펫, 관절인형, 마커, 스테레오비젼

Description

퍼펫의 자세캡쳐 시스템 및 그 방법{Posture capture system of puppet and method thereof}
도 1은 본 발명에 따른 일 실시예의 퍼펫의 자세캡쳐 시스템의 구성도,
도 2는 본 발명에 적용될 수 있는 퍼펫의 정면사진,
도 3은 본 발명에 적용될 수 있는 퍼펫의 부분 분리사진
도 4a 및 도 4b는 본 발명에 따른 퍼펫의 3차원 이미지정보 획득을 설명하기 위한 도,
도 5a 및 도 5b는 본 발명에 따른 마커 획득 전 및 후 사진,
도 6a ~ 도 6c는 본 발명에 따른 마커의 3차원 위치정보 획득을 설명하기 위한 도,
도 7은 본 발명에 따른 일 실시예의 퍼펫의 자세캡쳐 방법의 흐름도,
도 8a 및 도 8c는 본 발명에 따른 퍼펫의 자세캡쳐 프로그램의 실행화면 및 캡쳐화면 사진,
도 9는 본 발명에 따른 다른 실시예의 퍼펫의 자세캡쳐 시스템의 구성도,
도 10은 본 발명에 적용될 수 있는 스테레오비젼의 전기적인 블록구성도,
도 11은 본 발명에 따른 다른 실시예의 퍼펫의 자세캡쳐 방법의 흐름도이다.
*** 도면의 주요 부분에 대한 부호의 설명 ***
100, 200: 퍼펫의 자세캡쳐 시스템 110: 퍼펫
111: 관절 111a: 관절낭
111b: 결합홈 111c: 관절포
113: 뼈대 115: 마커
130, 230: 카메라 150, 250: 컴퓨터
810: 자세캡쳐 프로그램 810: 카메라 이미지 표시창
830: 마커 추출 표시창 850: 3차원 좌표 표시창
870: 캐릭터
본 발명은 퍼펫의 자세캡쳐 시스템 및 그 방법에 관한 것으로, 특히 3차원 캐릭터의 자세를 관절인형으로부터 획득하기 위한 퍼펫의 자세캡쳐 시스템 및 그 방법에 관한 것이다.
일반적으로 모션 캡쳐 기술은 게임, 에니메이션, 영화, 광고 등 다양한 분야에서 사용되고 있으며, 스타워즈, 타이타닉, 배트맨, 터미네이터 등의 영화 속에서 놀랄 만큼 사실감 있는 에니메이션을 만들어 내는데 큰 역할을 담당해 왔다.
이러한 모션캡쳐기술은 한국공개특허 제415884호에 개시된 바와 같이 가변 저항 센서가 달린 슈트를 사람이 착용하고 동작을 취함에 따라 이를 각 센서가 변위량을 측정하여 공간좌표상의 수치데이터로 컴퓨터에 제공함으로써 달성된다. 또 한, 사람에 마커를 부착하여 다수의 카메라로 마커를 인식하는 광학 모션 캡쳐 방식을 이용함으로써 달성될 수도 있다.
그러나 전술한 모션캡쳐기술들은 사람이 착용하고 소정 동작을 해야하기 때문에 사람이 취하기 힘든 동작의 자세는 캡쳐하기 어렵고, 동작이 큰 자세를 얻어야 하는 경우 그만한 공간이 필요하며, 모션 캡쳐 시스템을 구성하는데 많은 비용이 필요하고, 사람이 아닌 동물과 같은 생물의 경우 사람의 의지대로 움직여 주지 않아서 필요한 자세를 얻기 어려운 문제점이 있었다.
본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 관절인형인 퍼펫을 필요한 자세로 고정시키고, 2개의 카메라로 촬영한 후 촬영된 퍼펫의 2차원 이미지로부터 퍼펫의 관절위치에 대한 3차원 정보를 획득함으로써, 작은 공간에서도 손쉽게 3차원 캐릭터의 자세를 획득할 수 있도록 한록 한 퍼펫의 자세캡쳐 시스템 및 그 방법을 제공하는데 그 목적이 있다.
전술한 목적을 달성하기 위해 본 발명의 퍼펫의 자세캡쳐 시스템 및 그 방법은 다수개의 뼈대 및 각각 미리 정해진 색상인 마커가 도포된 채로 상기 뼈대를 유동 가능하게 연결하는 다수개의 관절로 이루어진 퍼펫; 상기 퍼펫이 촬영영역 내에 위치하도록 소정 거리만큼 이격된 2개의 카메라 및 상기 2개의 카메라와 연결되며, 2차원 이미지 정보로부터 3차원 이미지 정보를 획득하며, 상기 색상에 매칭될 관절을 갖는 3차원 캐릭터가 저장된 컴퓨터를 포함하여 이루어진 퍼펫의 자세캡쳐 시스 템에서 상기 컴퓨터에 의해 수행되며, 상기 2개의 카메라로부터 각각 상기 퍼펫의 2차원 이미지 정보를 입력받는 단계; 입력된 상기 2개의 2차원 이미지 정보로부터 상기 마커의 색상 및 3차원 위치정보를 획득하는 단계 및 획득된 상기 마커의 상기 색상을 근거로 상기 마커의 3차원 위치정보에 상기 3차원 캐릭터의 각 관절을 매칭시켜 표시하는 단계를 포함하여 이루어진 퍼펫의 자세캡쳐 시스템 및 그 방법을 제공한다.
이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따라 퍼펫의 자세캡쳐 시스템 및 그 방법에 대해서 상세하게 설명한다.
도 1은 본 발명에 따른 일 실시예의 퍼펫의 자세캡쳐 시스템의 구성도이다.
도 1에 도시된 바와 같이 본 발명에 따른 일 실시예의 퍼펫의 자세캡쳐 시스템(100)은 다수개의 뼈대(113) 및 각각 미리 정해진 색상인 마커가 도포된 채로 뼈대(113)를 유동 가능하게 연결하는 다수개의 관절(111)로 이루어진 퍼펫(puppet)(110); 퍼펫(110)이 촬영영역 내에 위치하도록 퍼펫(110)으로부터 소정 거리만큼 이격되며, 촬영 방향이 평행하게 미리 정해진 거리만큼 이격된 2개의 카메라(130) 및 2개의 카메라(130)를 통하여 촬영되는 퍼펫의 2차원 이미지 각각으로부터 마커의 색상 및 3차원 위치정보를 획득한 후 색상을 근거로 획득된 마커의 3차원 위치정보에 미리 정해진 3차원 캐릭터의 각 관절을 매칭시켜 표시하는 컴퓨터(150)를 포함하여 이루어진다.
도 2는 본 발명에 적용될 수 있는 퍼펫의 정면사진이며, 도 3은 본 발명에 적용될 수 있는 퍼펫의 부분 분리사진인바, 철, 알루미늄, 플라스틱 또는 고무 등 의 재질로 달성될 수 있는 퍼펫(110)은 인체나 4발 짐승, 공룡 또는 조류 모형 등의 다양한 모양으로 달성될 수 있으며, 필요에 따라 적절한 개수의 뼈대(113)와 관절(111)을 가질 수 있다.
특히 관절(111)은 뼈대(113)의 일측 말단에 형성되며, 말단의 지름보다 큰 지름을 갖는 구형태의 관절포(111c) 및 뼈대(113)의 일측 말단에 형성되며, 관절포(111c)가 회전 가능하도록 결합되는 결합홈(111b)이 구비된 관절낭(111a)으로 이루어지는바, 결합홈(111b)은 관절포(111c)와 밀착 결합되도록 형성됨으로써 퍼펫(110)이 임의의 자세를 취했을 때 그 자세가 흐트러지지 않을 정도의 마찰력을 갖도록 하는 것이 바람직하다.
특히 마커가 도포되는 관절낭(111a)은 도포된 마커의 인식률을 높이기 위해서 뼈대(113)보다 큰 지름을 갖도록 형성되며, 결합홈(111b)은 관절포(111c)가 일 축으로는 360도 회전 가능하고 타 축으로는 90도 회전 가능하도록 형성된다. 물론 관절은 퍼펫(110)을 원하는 자세로 고정시킬 수 있는 결합구조이면 어떤 구조라도 상관없으나, 본 발명의 구조가 바람직할 것이다.
상술한 마커의 색상은 표1과 같이 달성될 수 있다.
관절 marker 색깔
왼팔 팔꿈치 red
왼손 cyan
오른팔 팔꿈치 red
오른손 green
왼다리 무릎 red
왼발 yellow
오른다리 무릎 red
오른발 brown
왼다리 골반 검정
오른다리 골반 검정
한편, 임의의 자세를 취하는 퍼펫(110)의 고정은 뼈대(113)를 지지하는 지지대(미도시)로 달성될 수도 있고 퍼펫(110)을 매달 수 있는 끈(미도시)으로 달성될 수도 있을 것이다. 이때 지지대 및 끈의 색상은 마커의 색상 이외의 색상 즉, 마커로 인식되지 않는 색상이어야 한다.
도 4a 및 도 4b는 본 발명에 따른 퍼펫의 3차원 이미지정보 획득을 설명하기 위한 도인바, 도 4a에 도시된 바와 같이 2개의 카메라(130)로부터 촬영된 이미지의 차이를 이용해서 퍼펫의 3차원 이미지 정보를 획득하게 된다.
먼저 2개의 카메라(130)로부터 약 8.3cm 뒤에 놓이는 물체에 대해서는 불일치 영역(Disparity region)을 계산할 수 있고, 2개의 이미지의 불일치 정도를 이용하면 물체의 3차원 위치를 계산할 수 있는바, 카메라(130)의 내부 특성값을 이용하여 2개의 카메라(130)를 통하여 입력되는 2개 이미지 사이의 결합쌍을 찾아내고 찾아낸 결합쌍의 거리를 계산함으로써 3차원 좌표 즉, 3차원 이미지 정보를 획득하게 된다.
한편, 퍼펫(110)이 2개의 카메라(130)로부터 40cm에 놓이게 될 경우 퍼펫(110)의 최대 가로 크기는 45cm가 되며, 퍼펫의 높이는 55cm 까지 가능하게 된다.
도 4b를 참조하여 퍼펫의 3차원 이미지 정보의 획득방법에 대해서 좀더 자세히 설명하면 먼저 닮은 삼각형 △PMC l 과 △p l RC r 으로부터
Figure 112006024376978-pat00001
을 얻고 수학식1과 비슷하게 삼각형 △PNC r 과 △p r RC r 으로부터
Figure 112006024376978-pat00002
를 얻은 후 수학식1과 수학식2에 의해
Figure 112006024376978-pat00003
을 도출할 수 있는바, 수학식3으로 xy 좌표도 구할 수 있고, 결과적으로 3D좌표 (x, y, z)를 계산할 수 있게 된다. 이때 분모 (x' l -x' r )는 불일치 값을 나타낸다.
한편 마커의 색상을 검출하기 위해서는 색검출 단계를 거쳐야 하는바, 색검출은 주위의 조명에 의한 영향을 많이 받게 된다. 따라서 조명의 영향을 받지 않게 하려면 마커의 RGB Component 별로 Normalization을 수학식4, 수학식5 및 수학식6과 같이 수행함으로써 달성된다.
Figure 112006024376978-pat00004
Figure 112006024376978-pat00005
Figure 112006024376978-pat00006
이와 같이 Normalized 된 R', G', B'은 ‘0’과 ‘1’사이의 값을 갖게 되는바, 조명에 의한 밝기 상태에 관계없이 Red, Green, Blue 색의 구분이 가능하게 된다.
도 5a 및 도 5b는 본 발명에 따른 마커 획득 전 및 후 사진인바, 도 5a에 도시된 마커(115)를 촬영한 후 전술한 색검출 과정을 거치게 되면, 도 5b와 같이 마커(115)의 색상이 검출된다.
도 6a ~ 도 6c는 본 발명에 따른 마커의 3차원 위치정보 획득을 설명하기 위한 도인바, 퍼펫(110)의 각 Link의 회전 값을 Quaternion으로 표시함으로써 달성되며, Reference Frame 즉, 기준마커에 대한 Link의 회전 값으로부터 Quaternion 계산하기 위해서는 Link의 End Points에 해당하는 2개의 Color Marker P1, P2로부터 Reference Frame에 대한 Vector V12를 구한 후 Vector V12로부터 Quaternion 계산함 으로써 달성된다.
먼저, 도 6a는 Quaternion 계산을 위한 Reference Frame 정의를 나타내는바, Vector V12를 구하기 위해서는 수학식7을 이용함으로써 달성된다.
V12(x12,y12,z12) = P2(x2, y2, z2)-P1(x1, y1, z1)
이때 2개의 Color Marker P1, P2와 Vector V12의 관계는 도 6b에 도시되어 있다.
다음 Link Vector V12에 대한 Quaternion Q를 계산하기 위해서는 Reference Frame의 X축의 Unit Vector ux와 V12 사이의 회전각 θ1과 θ2를 구함으로써 달성되는바, 수학식 8, 수학식 9 및 수학식 10으로 달성된다.
Figure 112006024376978-pat00007
Figure 112006024376978-pat00008
Figure 112006024376978-pat00009
이때 X축으로 Ø만큼 회전한 Quaternion RX(Ø), Y축으로 θ만큼 회전한 Quaternion RY(θ), Z축으로 ψ만큼 회전한 Quaternion RZ(ψ)는 수학식 11, 수학식 12 및 수학식 13으로 정의되며, θ 1θ 2 는 도 6c와 같이 정의된다.
RX(Ø) = cos(Ø/2)+isin(Ø/2)
Figure 112006024376978-pat00010
RZ(ψ) = cos(ψ/2)+ksin(ψ/2)
한편 Reference frame과 바로 연결되지 않은 관절의 Quaternion을 구하기 위해서는 바로 윗단 관절 즉, Parent Link의 회전값을 빼줘야 하는바, Parent Link에 대한 상대 Quaternion △Q는 수학식 14와 같이 Parent Link의 Quaternion을 보정하는 식으로 달성된다.
Figure 112006024376978-pat00011
이때, θ ' 1 , θ ' 2 는 Parent Link에 대해 수학식 8 및 수학식 9를 적용하여 구한 값이며, Parent Link가 없이 Reference Frame에 직접 연결된 Link의 경우 θ ' 1 θ ' 2 가 모두 0이므로 △Q=Q가 된다.
한편, Right Hand Rule (RHR)에 의해 정의된 Quaternion QRHR(q1, q2, q3, q4)값을 Left Hand Rule (LHR)에 의해 정의된 Quaternion QLHR(q' 1, q' 2, q' 3, q' 4) 값으로 변환하면 수학식 15가 되며,
Figure 112006024376978-pat00012
상술한 △Q는 RHR에 따르는 Quaternion인바, 수학식 15를 이용하면 Graphic Rendering Tool인 Movie Town에서 사용하는 LHR에 따르는 Quaternion을 구할 수 있게 된다.
도 7은 본 발명에 따른 일 실시예의 퍼펫의 자세캡쳐 방법의 흐름도인바, 컴퓨터에서 수행된다.
도 7에 도시된 바와 같이 본 발명에 따른 일 실시예의 퍼펫의 자세캡쳐 방법은 먼저 단계 S11에서는 자세캡처명령이 입력되었는가를 판단하며, 단계 S11에서의 판단결과, 자세캡쳐명령이 입력되지 않은 경우 단계 S11을 반복하며, 자세캡쳐명령이 입력된 경우 단계 S13으로 진행하여 각각의 2개의 카메라(130)로부터 입력되는 퍼펫(110)의 2차원 이미지 정보를 획득한 후 단계 S15로 진행하여 획득된 2개의 2 차원 이미지 정보로부터 마커의 3차원 위치 정보를 획득한다.
이후 단계 S17에서는 획득된 마커의 3차원 위치정보에 미리 지정된 캐릭터의 관절위치를 매칭시켜 표시한다.
도 8a 및 도 8c는 본 발명에 따른 퍼펫의 자세캡쳐 프로그램의 실행화면 및 캡쳐화면 사진인바, 컴퓨터의 화면을 나타낸다.
먼저 퍼펫의 자세캡쳐 프로그램(800)은 사용자에게 카메라로부터 입력되는 영상신호를 보여주는 카메라 이미지 표시창(810), 카메라로부터 입력되는 영상으로부터 추출한 마커를 표시하는 마커추출 표시창(830) 및 마커들의 3차원 위치가 수치로 표시되는 3차원 좌표 표시창(850)을 포함하여 이루어진다.
상술한 퍼펫의 자세캡쳐 방법에 의해 얻은 자세를 미리 정해진 캐릭터(870)에 매칭시킨 결과 화면이 도 8b 및 도 8c에 도시되어 있다.
도 8b 및 도 8c에 도시된 바와 같이 미리 지정된 캐릭터(870)는 퍼펫을 촬영함으로써 얻어진 자세를 취하고 있다.
도 9는 본 발명에 따른 다른 실시예의 퍼펫의 자세캡쳐 시스템의 구성도이며, 도 10은 본 발명에 적용될 수 있는 스테레오비젼(230)의 전기적인 블록구성도인바, 본 발명에 따른 다른 실시예의 퍼펫의 자세캡쳐 시스템(200)은 다수개의 뼈대(113) 및 각각 미리 정해진 색상인 마커가 도포된 채로 뼈대(113)를 유동 가능하게 연결하는 다수개의 관절(111)로 이루어진 퍼펫(110); 퍼펫(110)이 촬영영역 내에 위치하도록 퍼펫(110)으로부터 소정 거리만큼 이격되며, 촬영 방향이 평행하게 미리 정해진 거리만큼 이격된 2개의 카메라(231) 및 2개의 카메라(231)를 통하여 촬영된 퍼펫의 2차원 이미지 정보 각각으로부터 퍼펫의 3차원 이미지 정보를 생성하여 출력하는 마이컴(250)을 포함하여 이루어진 스테레오비젼(230) 및 스테레오비젼(230)으로부터 퍼펫(110)의 3차원 이미지 정보를 입력받아 마커의 색상 및 3차원 위치정보를 추출한 후 색상을 근거로 마커의 3차원 위치정보에 미리 정해진 3차원 캐릭터의 각 관절 매칭시켜 표시하는 컴퓨터(250)를 포함하여 이루어진다.
카메라(231), 카메라(231)로부터 입력되는 2차원 이미지정보를 3차원 이미지 정보로 생성하여 출력하는 마이컴(250)을 포함하여 이루어진다.
도 11은 본 발명에 따른 다른 실시예의 퍼펫의 자세캡쳐 방법의 흐름도이다.
도 11에 도시된 바와 같이 다른 실시예의 퍼펫의 자세캡쳐 방법은 먼저 스테레오비젼(230)에서 수행되며, 단계 S21에서 촬영명령이 입력되었는가를 판단하며, 단계 S21에서의 판단결과, 촬영명령이 입력되지 않은 경우 단계 S21을 반복하며, 촬영명령이 입력된 경우 단계 S23으로 진행하여 각각의 카메라(231)로부터 입력되는 퍼펫의 2차원 이미지 정보를 획득한 후 단계 S25로 진행하여 획득된 2개의 2차원 이미지 정보를 이용하여 3차원 이미지 정보로 가공 및 출력한다.
이후부터는 컴퓨터(250)에서 수행되며 단계 S31에서는 스테레오비젼(230)으로부터 3차원 이미지 정보의 입력이 있는가를 판단하며, 단계 S31에서의 판단 결과, 입력이 없으면 단계 S31을 반복하며, 입력이 있으면 단계 S33으로 진행하여 입력되는 3차원 이미지 정보로부터 마커의 3차원 위치 정보를 획득한다.
이후 단계 S35에서는 획득된 마커의 3차원 위치정보에 따라 미리 저장된 캐릭터와 매칭시켜 퍼펫의 자세를 표시한다.
본 발명의 퍼펫의 자세캡쳐 시스템 및 그 방법은 전술한 실시 예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.
이상에서 설명한 바와 같은 본 발명의 퍼펫의 자세캡쳐 시스템 및 그 방법에 따르면, 관절인형인 퍼펫을 필요한 자세로 고정시키고, 2개의 카메라로 촬영한 후 촬영된 퍼펫의 2차원 이미지로부터 퍼펫의 관절위치에 대한 3차원 정보를 획득함으로써, 사람이 취하기 힘든 자세도 쉽게 캡쳐할 수 있으며, 사람형태가 아닌 다양한 종류의 캐릭터의 필요한 자세를 쉽게 획득할 수 있는 효과가 있다.

Claims (8)

  1. 다수개의 뼈대 및 각각 미리 정해진 색상인 마커가 도포된 채로 상기 뼈대를 유동 가능하게 연결하는 다수개의 관절로 이루어진 퍼펫;
    상기 퍼펫이 촬영영역 내에 위치하도록 상기 퍼펫으로부터 소정 거리만큼 이격되며, 촬영 방향이 평행하게 미리 정해진 거리만큼 이격된 2개의 카메라 및
    상기 2개의 카메라를 통하여 촬영되는 상기 퍼펫의 2차원 이미지 각각으로부터 상기 마커의 색상 및 3차원 위치정보를 획득한 후 상기 색상을 근거로 획득된 상기 마커의 3차원 위치정보에 미리 정해진 3차원 캐릭터의 각 관절을 매칭시켜 표시하는 컴퓨터를 포함하여 이루어진 퍼펫의 자세캡쳐 시스템.
  2. 다수개의 뼈대 및 각각 미리 정해진 색상인 마커가 도포된 채로 상기 뼈대를 유동 가능하게 연결하는 다수개의 관절로 이루어진 퍼펫;
    상기 퍼펫이 촬영영역 내에 위치하도록 상기 퍼펫으로부터 소정 거리만큼 이격되며, 촬영 방향이 평행하게 미리 정해진 거리만큼 이격된 2개의 카메라 및 상기 2개의 카메라를 통하여 촬영된 상기 퍼펫의 2차원 이미지 정보 각각으로부터 상기 퍼펫의 3차원 이미지 정보를 생성하여 출력하는 마이컴을 포함하여 이루어진 스테레오비젼 및
    상기 스테레오비젼으로부터 상기 퍼펫의 3차원 이미지 정보를 입력받아 상기 마커의 색상 및 3차원 위치정보를 추출한 후 상기 색상을 근거로 상기 마커의 3차 원 위치정보에 미리 정해진 3차원 캐릭터의 각 관절 매칭시켜 표시하는 컴퓨터를 포함하여 이루어진 퍼펫의 자세캡쳐 시스템.
  3. 제 1항 또는 제 2항에 있어서,
    상기 퍼펫의 관절은 상기 뼈대의 일측 말단에 형성되며, 상기 말단의 지름보다 큰 지름을 갖는 구형태의 관절포 및 상기 뼈대의 일측 말단에 형성되며, 상기 관절포가 회전 가능하도록 결합되는 결합홈이 형성된 관절낭으로 이루어진 것을 특징으로 하는 퍼펫의 자세캡쳐 시스템.
  4. 제 3항에 있어서,
    상기 결합홈은 상기 관절포가 일 축으로는 360도 회전 가능하며, 타 축으로는 90도 회전 가능하도록 형성된 것을 특징으로 하는 퍼펫의 자세캡쳐 시스템.
  5. 다수개의 뼈대 및 각각 미리 정해진 색상인 마커가 도포된 채로 상기 뼈대를 유동 가능하게 연결하는 다수개의 관절로 이루어진 퍼펫; 상기 퍼펫이 촬영영역 내에 위치하도록 소정 거리만큼 이격된 2개의 카메라 및 상기 2개의 카메라와 연결되며, 2차원 이미지 정보로부터 3차원 이미지 정보를 획득하며, 상기 색상에 매칭될 관절을 갖는 3차원 캐릭터가 저장된 컴퓨터를 포함하여 이루어진 퍼펫의 자세캡쳐 시스템에서 상기 컴퓨터에 의해 수행되며,
    상기 2개의 카메라로부터 각각 상기 퍼펫의 2차원 이미지 정보를 입력받는 단계;
    입력된 상기 2개의 2차원 이미지 정보로부터 상기 마커의 색상 및 3차원 위치정보를 획득하는 단계 및
    획득된 상기 마커의 상기 색상을 근거로 상기 마커의 3차원 위치정보에 상기 3차원 캐릭터의 각 관절을 매칭시켜 표시하는 단계를 포함하여 이루어진 퍼펫의 자세캡쳐 방법.
  6. 다수개의 뼈대 및 각각 미리 정해진 색상인 마커가 도포된 채로 상기 뼈대를 유동 가능하게 연결하는 다수개의 관절로 이루어진 퍼펫; 상기 퍼펫이 촬영영역 내에 위치하도록 소정 거리만큼 이격된 2개의 카메라가 구비되며, 상기 2개의 카메라로부터 입력되는 2차원 이미지 정보를 3차원 이미지 정보로 생성하여 출력하는 마이컴이 구비된 스테레오비젼 및 상기 색상에 매칭될 관절을 갖는 3차원 캐릭터가 저장된 컴퓨터를 포함하여 이루어진 퍼펫의 자세캡쳐 시스템에서 상기 컴퓨터를 포함하여 이루어진 퍼펫의 자세캡쳐 시스템에서 상기 스테레오비젼 및 컴퓨터 사이에서 수행되며,
    상기 스테레오비젼이 상기 2개의 카메라로부터 각각 상기 퍼펫의 2차원 이미지 정보를 입력받은 후 상기 2개의 2차원 이미지 정보로부터 상기 마커의 색상 및 3차원 위치정보를 획득하여 상기 컴퓨터로 출력하는 단계 및
    상기 컴퓨터가 상기 획득된 마커의 상기 색상을 근거로 상기 마커의 3차원 위치정보에 상기 3차원 캐릭터의 각 관절을 매칭시켜 표시하는 단계를 포함하여 이 루어진 퍼펫의 자세캡쳐 방법.
  7. 제 5항 또는 제 6항에 있어서,
    상기 퍼펫의 관절은 상기 뼈대의 일측 말단에 형성되며, 상기 말단의 지름보다 큰 지름을 갖는 구형태의 관절포 및 상기 뼈대의 일측 말단에 형성되며, 상기 관절포가 회전 가능하도록 결합되는 결합홈이 형성된 관절낭으로 이루어진 것을 특징으로 하는 퍼펫의 자세캡쳐 방법.
  8. 제 7항에 있어서,
    상기 결합홈은 상기 관절포가 일 축으로는 360도 회전 가능하며, 타 축으로는 90도 회전 가능하도록 형성된 것을 특징으로 하는 퍼펫의 자세캡쳐 방법.
KR1020060031795A 2006-04-07 2006-04-07 퍼펫의 자세캡쳐 시스템 및 그 방법 KR100753965B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060031795A KR100753965B1 (ko) 2006-04-07 2006-04-07 퍼펫의 자세캡쳐 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060031795A KR100753965B1 (ko) 2006-04-07 2006-04-07 퍼펫의 자세캡쳐 시스템 및 그 방법

Publications (1)

Publication Number Publication Date
KR100753965B1 true KR100753965B1 (ko) 2007-08-31

Family

ID=38615923

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060031795A KR100753965B1 (ko) 2006-04-07 2006-04-07 퍼펫의 자세캡쳐 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR100753965B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101852939B1 (ko) * 2016-11-18 2018-04-30 한국과학기술연구원 사용자의 얼굴 표정 및 손동작으로 3차원 캐릭터를 제어하는 방법 및 장치
WO2021212411A1 (en) * 2020-04-23 2021-10-28 Intel Corporation Kinematic interaction system with improved pose tracking

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236520A (ja) * 2000-02-21 2001-08-31 Nippon Telegr & Teleph Corp <Ntt> 仮想空間における動作入力方法および装置およびその動作入力プログラムを記録した記録媒体および仮想空間システム
KR100361462B1 (ko) * 1999-11-11 2002-11-21 황병익 모션 캡쳐 데이터 획득 방법
KR20030082160A (ko) * 2002-04-17 2003-10-22 백수곤 실시간 스프라이트 생성방법
KR100529721B1 (ko) * 2004-12-20 2005-11-22 주식회사 오피브이알솔루션 다관절 로봇을 이용한 3d 이미지 생성장치 및 그 방법
KR20060061564A (ko) * 2004-12-02 2006-06-08 (주)다림시스템 모션캡쳐 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100361462B1 (ko) * 1999-11-11 2002-11-21 황병익 모션 캡쳐 데이터 획득 방법
JP2001236520A (ja) * 2000-02-21 2001-08-31 Nippon Telegr & Teleph Corp <Ntt> 仮想空間における動作入力方法および装置およびその動作入力プログラムを記録した記録媒体および仮想空間システム
KR20030082160A (ko) * 2002-04-17 2003-10-22 백수곤 실시간 스프라이트 생성방법
KR20060061564A (ko) * 2004-12-02 2006-06-08 (주)다림시스템 모션캡쳐 장치
KR100529721B1 (ko) * 2004-12-20 2005-11-22 주식회사 오피브이알솔루션 다관절 로봇을 이용한 3d 이미지 생성장치 및 그 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101852939B1 (ko) * 2016-11-18 2018-04-30 한국과학기술연구원 사용자의 얼굴 표정 및 손동작으로 3차원 캐릭터를 제어하는 방법 및 장치
US10713833B2 (en) 2016-11-18 2020-07-14 Korea Institute Of Science And Technology Method and device for controlling 3D character using user's facial expressions and hand gestures
WO2021212411A1 (en) * 2020-04-23 2021-10-28 Intel Corporation Kinematic interaction system with improved pose tracking

Similar Documents

Publication Publication Date Title
KR101183000B1 (ko) 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법
US9727787B2 (en) System and method for deriving accurate body size measures from a sequence of 2D images
US8786680B2 (en) Motion capture from body mounted cameras
CN101520902A (zh) 低成本动作捕捉与演示系统及方法
WO2014081394A1 (en) Method, apparatus and system for virtual clothes modelling
KR100753965B1 (ko) 퍼펫의 자세캡쳐 시스템 및 그 방법
JP6799468B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
CN111179341B (zh) 一种增强现实设备与移动机器人的配准方法
Lim et al. 3-D reconstruction using the kinect sensor and its application to a visualization system
Zhao et al. Human motion reconstruction from monocular images using genetic algorithms
KR20180051727A (ko) 키넥트기반 인체 관절정보 측정 방법 및 장치
Islam 3D Motion Capture Using Wide Baseline Stereo Cameras
Wendelin Combining multiple depth cameras for reconstruction
Peng et al. Acquisition of 3-D surface shape of human body from monocular images without pose estimation
Zhao et al. Motion Recovery Based on Feature Extraction from 2D Images
Buades et al. Human body analysis with biomechanics criteria
Park Stereo vision based intuitive posture input system using a portable color marked puppet
Carsky Human motion reconstruction fom video sequences with MPEG-4 compliant animation parameters.
Maaoui et al. Desargues theorem for augmented reality applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100630

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee