KR100915298B1 - 3차원 가상 신발 착용 시스템 및 이의 운용방법 - Google Patents

3차원 가상 신발 착용 시스템 및 이의 운용방법

Info

Publication number
KR100915298B1
KR100915298B1 KR1020070107477A KR20070107477A KR100915298B1 KR 100915298 B1 KR100915298 B1 KR 100915298B1 KR 1020070107477 A KR1020070107477 A KR 1020070107477A KR 20070107477 A KR20070107477 A KR 20070107477A KR 100915298 B1 KR100915298 B1 KR 100915298B1
Authority
KR
South Korea
Prior art keywords
camera
dimensional
unit
rendering
virtual
Prior art date
Application number
KR1020070107477A
Other languages
English (en)
Other versions
KR20090041804A (ko
Inventor
정다운
서융호
두경수
최종수
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020070107477A priority Critical patent/KR100915298B1/ko
Publication of KR20090041804A publication Critical patent/KR20090041804A/ko
Application granted granted Critical
Publication of KR100915298B1 publication Critical patent/KR100915298B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

3차원 가상 신발 착용 시스템 및 이의 운용방법이 개시된다. 상기 3차원 가상 신발 착용 시스템은 서로 이격되어 다른 각도에서 사람의 다리 부위에 대한 이미지 정보를 수집하는 두 개의 카메라, 상기 카메라에서 동시에 촬영된 두 개의 이미지를 이용하여 3차원 깊이 보정을 수행하는 교정유닛, 상기 다리 부위 중 발 영역의 경계선(silhouette)을 생성하고, 특징점(specific point)을 취득하며, 3차원 위치 값을 계산하는 연산 제어 유닛, 상기 3차원 위치값의 변위에 따라 가상 신발의 자세를 추정하는 추정유닛 및 상기 가상 신발의 좌표를 실제 좌표로 변환하여 상기 발 영역에 렌더링 하는 렌더링 유닛을 포함한다. 따라서, 두 개의 카메라를 구비하여 3차원 입체 데이터를 획득하도록 하므로 상대적으로 가려지는 영역이 적어지게 되고, 또한, 일반적으로 상용되는 카메라를 구비하여 시스템을 구성할 수 있으므로, 상대적으로 적은 비용으로 효율적으로 시스템을 구축할 수 있는 이점이 있다.

Description

3차원 가상 신발 착용 시스템 및 이의 운용방법{A SYSTEM FOR WEARING IMAGINARY 3D FOOTWEAR AND AN OPERATION METHOD OF THE SAME}
본 발명은 3차원 가상 신발 착용 시스템 및 이의 운용방법에 관한 것으로 보다 상세하게는 2개의 카메라에서 수집된 사람의 다리 영역에 대한 이미지 정보를 보정, 교정, 계산 및 분석하여 입체 데이터를 획득하고, 이에 따라 가상 신발에 렌더링 함으로써 가상으로 사람의 발과 가상 신발을 일치시켜 착용시킬 수 있는 3차원 가상 신발 착용 시스템 및 이의 운용방법에 관한 것이다.
증강현실(Augmented Reality; AR)이란 현실세계 위에, 컴퓨터에 의해서 생성된 정보를 덧붙여 표현하는 것으로서 증강현실이라고 한다. 즉, AR시스템의 사용자는 현실세계를 보면서 상호 작용할 수 있을 뿐만 아니라, 수행중인 작업에서의 특정한 순서라든지, 중요한 특징의 설명 등의 부가적인 정보들도 얻을 수 있다.
특히, 상기 증강현실 시스템은 의학 분야나 군사훈련, 오락, 광고 등 많은 분야에서 유용하게 사용될 수 있다.
좀 더 상세하게 설명하면, 상기 증강 현실이란, 가상현실(Virtual Reality; VR)의 한 분야로서 VR과는 또 다른 의미를 가지는 분야이다. VR기술들은 일반적으로 컴퓨터에 의해 임의로 생성된 환경에 사용자가 완전히 몰입하게 하는 것이다. 즉, 몰입해 있는 동안은 사용자는 그 주위의 현실세계에 대한 어떤 것도 볼 수가 없이 가상현실에만 몰입한다. 마치 영화 매트릭스와 같은 경우이다. 반면, 상기 증강현실시스템에서의 사용자는 현실세계를 볼 수 있음과 동시에 그 현실 세계 위에 겹쳐진 가상의 물체들도 볼 수 있다.
다시 말해, VR은 현실세계를 대체하여 사용자에게 보여주지만, AR은 현실세계를 보충하여 사용자에게 보여준다. 이러한 상기 증강 현실 시스템은 여러 분야에서 활발하게 연구가 진행되고 있다.
특히, 상기 증강현실 시스템은 온라인 패션 산업에 있어 직접 입어보거나 만져볼 수 없는 구매자의 한계를 최소화할 수 있는 시뮬레이션 시스템으로 사용자에게 편의를 제공할 수 있다. 현재 국내의 패션 쇼핑몰 산업은 2001년 대비하여 홈쇼핑 업체들과 대형 종합 쇼핑몰을 중심으로 2~4배의 초고속 성장 할 것으로 전망하고 있다.
그러나, 상기 증강현실 시스템은 한 대의 카메라를 사용하여 3차원 특징점을 취득하기 때문에 가상 의복을 입힐 때 가려지는 영역에 대한 정보를 처리하는데 문제점이 있다.
또한, 상기 증강현실 시스템은 한 대의 카메라로 촬영한 연속 영상에서 얼굴, 몸통, 팔, 다리를 연결하는 관절점의 3차원 좌표를 취득하여 가상 의복의 자세를 추정한 후, 몸에 입히도록 구비되므로, 신체의 특정부위에 착용할 수 있는 의복을 매칭(matching)하는 데는 한계가 있다.
상술한 문제점을 해결하기 위한 본 발명의 일 목적은 가상 의복을 입힐 때 상대적으로 가려지는 영역이 적은 3차원 가상 신발 착용 시스템 및 이의 운용방법을 제공함에 있다.
본 발명의 다른 목적은, 신체의 특정부위에 착용할 수 있는 의복을 매칭(matching)할 수 있는 3차원 가상 신발 착용 시스템 및 이의 운용 방법을 제공함에 있다.
상술한 본 발명의 목적들을 달성하기 위한 본 발명의 바람직한 실시예에 따르면, 3차원 가상신발 착용 시스템은 서로 이격되어 다른 각도에서 사람의 다리 부위에 대한 이미지 정보를 수집하는 두 개의 카메라, 상기 카메라에서 동시에 촬영된 두개의 이미지를 이용하여 3차원 깊이 보정을 수행하는 교정유닛, 상기 다리 부위 중 발 영역의 경계선(silhouette)을 생성하고, 특징점(specific point)을 취득하며, 3차원 위치 값을 계산하는 연산 제어 유닛, 상기 3차원 위치값의 변위에 따라 가상 신발의 자세를 추정하는 추정유닛 및 상기 가상 신발의 좌표를 실제 좌표로 변환하여 상기 발 영역에 렌더링 하는 렌더링 유닛을 포함한다.
여기서, 상기 교정 유닛은 Zhengyou Zhang’s 카메라 교정(Camera Calibration)을 이용하는 것이 바람직하다.
또한, 상기 카메라는 별도로 이격되어 배치되고, 상기 카메라에서 수집된 상기 이미지 정보는 유선 또는 무선 통신망을 이용하여 상기 연산제어유닛으로 송수신되는 것이 더욱 바람직하다.
그리고, 상기 연산제어유닛은 보정 유닛을 더 포함하는 것도 가능하며, 이 때, 상기 보정유닛은 상기 카메라에서 수집된 상기 이미지 정보에서 발 영역 이외의 배경을 제거하고 상기 발 영역의 스킨컬러 영역을 검출하는 것이 바람직하다.
더불어, 상기 보정유닛은 상기 배경과 상기 발 영역의 그레이 레벨(gray-level) 차이를 이용하여 상기 배경을 제거하는 것이 바람직하며, 또한, 상기 보정 유닛은 상기 배경을 제거하는 과정에서 발생하는 노이즈를 모폴로지(morphology) 기법을 이용하여 제거하는 것이 더욱 바람직하다.
상기 3차원 가상 신발 착용 시스템은 영상 정보를 표시하는 디스플레이 유닛을 더 포함하는 것이 바람직하며, 여시서, 상기 디스플레이 유닛은 상기 렌더링 유닛에서 렌더링된 상기 가상신발과 발 영역에 대한 렌더링 정보를 제시하도록 구비되는 것디 바람직하다.
또한, 본 발명의 다른 바람직한 실시예에 따르면, 3차원 가상 신발 착용 시스템 운용방법은 3차원 가상 신발 착용 시스템을 제공하는 단계, 카메라에서 사람의 다리 부위에 대한 이미지 정보를 수집하는 단계, 상기 다리 부위 중 발 영역의 경계선(silhouette)을 생성하고 특징점을 취득하며 3차원 위치 값을 계산하는 단계, 상기 3차원 위치 값의 변위에 따라 가상 신발의 자세를 추정하는 단계 및 상기 가상신발의 좌표를 실제 좌표로 변환하여 상기 발 영역에 렌더링하는 렌더링 단계를 포함한다.
여기서, 상기 3차원 가상신발 착용 시스템 운용방법은 상기 카메라에서 수집된 상기 이미지 정보를 송수신하는 단계를 더 포함하는 것이 바람직하다.
그리고, 상기 카메라에서 수집된 상기 이미지 정보에서 상기 발 영역을 제외한 배경을 제거하고 상기 발 영역의 스킨컬러 영역을 검출하는 단계를 더 포함하는 것이 더욱 바람직하다.
또한, 상기 렌더링 단계는 디스플레이 유닛에서 상기 렌더링된 상기 가상신발과 발 영역에 대한 렌더링 정보를 제시하는 단계를 더 포함하는 것이 바람직하다.
본 발명에 따르면, 두 개의 카메라를 구비하여 3차원 입체 데이터를 획득하도록 하므로 상대적으로 가려지는 영역이 적어지는 효과가 있다.
또한, 신체의 특정 부위, 특히, 다리부위 중에서도 발 부위에 착용할 수 있는 신발을 가상으로 착용시켜 볼 수 있는 이점이 있다.
또한, 일반적으로 상용되는 카메라를 구비하여 시스템을 구성할 수 있으므로, 상대적으로 적은 비용으로 효율적으로 시스템을 구축할 수 있는 이점이 있다.
또한, 홈쇼핑이나, 인터넷 쇼핑과 같이 원격지에서 신발을 신어보지 못하는 경우에 실제의 신발을 직접 착용하는 것과 유사하게 렌더링 해 볼 수 있는 효과가 있다.
도 1은 본 발명의 제 1실시예에 따른 3차원 가상 신발 착용 시스템을 개략적으로 도시한 블록도이다.
도 2는 상기 Zhengyou Zhang’s 카메라 교정 과정 시 필요한 영상인 평면패턴(planar pattern)을 도시한 평면도이다.
도 3은 3차원 정보를 보다 정확하게 정합하기 위한 육면체(retangular parllelepipe)를 도시한 평면도이다.
도 4는 연산제어유닛의 단계적 작동을 도시한 순서도이다.
도 5는 추정유닛에 의한 가상 신발의 위치 추정을 설명하기 위하여 도시한 순서도이다.
도 6은 본 발명의 제 2실시예에 따른 3차원 가상 신발 착용 시스템 운용방법을 도시한 순서도이다.
<도면의 주요 부분에 대한 부호의 설명>
110:카메라 120:교정유닛
130:연산제어유닛 140:추정유닛
150:렌더링유닛
이하 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다. 참고로, 이하 설명에서는 구성 및 기능이 거의 동일하여 동일하게 취급될 수 있는 요소는 동일한 참조번호로 특정될 수 있다.
1실시예
본 발명의 제 1실시예에 따른 3차원 가상 신발 착용 시스템을 설명하면 다음과 같다. 도 1은 본 발명의 제 1실시예에 따른 3차원 가상 신발 착용 시스템을 개략적으로 도시한 블록도이다.
이에 도시된 바와 같이 상기 3차원 가상 신발 착용 시스템은 두 개의 카메라(110), 교정유닛(120), 연산제어유닛(130), 추정유닛(140) 및 렌더링유닛(150)을 포함한다.
상기 카메라(110)는 제 1카메라(111) 및 제 2카메라(112)를 포함하고, 상기 제 1 및 제 2카메라(111, 112)는 서로 이격되어 다른 각도에서 사람의 다리 부위에 대한 이미지 정보를 수집하도록 1394CCD 카메라로 구비되며, 해상도는 640 X 480 픽셀이고, 비주얼 C++6과 오픈 CV라이브러리(OpenCV LIBRARY)로 프로그램 되어 구비된다.
또한, 상기 교정유닛(120)은 상기 카메라(110)에서 촬영된 두개의 이미지를 이용하여 3차원 깊이 보정을 수행하도록 구비된다.
이 때, 상기 교정유닛(120)은 상기 카메라(110)에서 수집된 상기 이미지를 Zhengyou Zhang’s 카메라 교정(Camera Calibration)을 이용하여 깊이 보정을 실시한다.
상기 Zhengyou Zhang’s 카메라 교정(Camera Calibration)에 대해 좀 더 상세히 설명하기 위하여 도 2내지 도 3을 제시한다. 도 2는 상기 Zhengyou Zhang’s 카메라 교정 과정 시 필요한 영상인 평면패턴(planar pattern)을 도시한 평면도이고, 도 3은 3차원 정보를 보다 정확하게 정합하기 위한 육면체(retangular parllelepipe)를 도시한 평면도이다.
먼저, 상기 카메라(110)에서 수집된 이미지 정보를 교정하기 위하여, 도 2에 제시된 바와 같이, 격자형태로 검은 색과 흰색이 배열된 평면 패턴(planar pattern) 을 이용한다. 참고로, 설명의 편의를 위하여 상기 평면패턴의 일측을 왼쪽, 타측을 오른쪽으로 상정하고 설명하기로 한다.
좀 더 상세히 설명하면, 상기 카메라(110)를 상기 평면패턴의 왼쪽에 배치하고, 상기 카메라(110)에서 수집된 왼쪽 이미지(left image)와 또한, 상기 카메라(110)를 상기 평면패턴의 오른쪽에 배치한 후 상기 카메라(110)에서 수집된 오른쪽 이미지(right image)에서 대응점을 찾고, 상기 대응점을 이용하여 정보 수집 작업을 진행한다.
여기서, 상기 정보 수집 작업은 상기 카메라(110)의 정보, 즉 상기 카메라(110)의 내, 외부 정보를 취득하는 과정이다.
이 후에 3차원 정보를 얻기위하여 점 삼각법(Point Triangulation)을 사용한다. 즉, 상기 카메라(110)를 복수 개 배치하고, 복수 개의 상기 카메라(110)에서 수집되는 정보를 바탕으로 상기 점 삼각법을 사용하여 상기 3차원 정보를 계산한다.
이 때, 상기 점 삼각법을 사용하여 계산된 상기 3차원 정보를 보다 정확하게 정합(registration)하기 위하여 도 3에 제시된 육면체의 입체 데이터를 이용한다. 여기서, 상기 카메라(110)는 제 1카메라(111) 및 제 2카메라(112)를 포함하고, 상기 제 1카메라(111)에서 수집된 육면체의 왼쪽 이미지와 상기 제 2카메라(112)에서 수집된 육면체의 오른쪽 이미지를 바탕으로 규칙적인 입체 데이터를 이용하여 정확한 측정을 실시한다.
바꿔 말하면, 상기 육면체에서 측정된 입체 데이터와 시스템에서 계산된 위치 간의 오차를 계산하여 상기 정합 작업을 완료한다.
여기서, 평면 이미지로부터 정확한 입체 정보를 얻기위하여 평면 데이터와 입체데이터 간의 상관관계를 처리하는 과정이 필요하다. 이 때, Zhengyou Zhang’s 카메라 교정(Camera Calibration) 및 상기 점 삼각법을 이용한다.
상기 카메라교정은 기하학(geometry)에 관계없이 강건하므로(robust), 상기 카메라(110)의 위치를 고려할 필요는 없다. 또한, 상기 카메라(110)에서 수집된 정보는 점 삼각법(Point Triangulation)을 이용하여 두 개의 이미지의 입체 상관 관계를 계산할 필요가 있다.
상기 교정 과정에 대한 설명을 위한 수학식 1은 다음과 같다.
여기서, 상기 수학식 1은 절대좌표계(world coordination)에서 카메라 좌표계(Camera coordination)으로 변환하기 위한 카메라 교정 수식을 나타낸다. 이 때, 상기 카메라 교정 수식을 도 2에 제시한 상기 평면 패턴을 이용하여 수행하는 경우, Z축(Z coordination)은 0이 된다.
상기 카메라(110)의 교정이 완료된 이후에는 두 개의 투영행렬(Projection matrixes) P를 산출할 수 있으며, 그 중 하나는 대응점에 대하여 x=PX이고, 다른 하나는 대응점에 대하여 x'=P'X이다.
이 때, 1차 방정식은 AX=0이라하면 X를 구할 수 있으며, 이를 나타낸 수학식 2는 다음과 같다.
여기서, 상기 입체 정보가 상기 카메라 교정과 삼각 측량에 의해 획득된 경우에는 상기 평면 이미지의 각 프레임에서 특수점(specific point)의 회전과 뼈의 움직임(movement of the skeleton)을 계산하고, 이에 따라 입체 신발 모델의 위치를 추정할 수 있다.
상기 연산제어유닛(130)은 상기 카메라(110)에서 수집된 상기 이미지에서 발 영역의 경계선(silhouette)을 생성하고 특징점(specific point)를 취득하여 3차원 위치 값을 계산하도록 구비된다.
이 때, 상기 연산제어유닛(130)은 보정유닛(미도시)을 더 포함한다.
상기 보정유닛은 상기 카메라에서 수집된 상기 이미지 정보에서 발 영역 이외의 배경을 제거하고 상기 발 영역의 스킨컬러 영역을 검출하도록 구비되며, 좀 더 상세한 설명을 위하여 도 4를 제시한다. 도 4는 연산제어유닛의 단계적 작동을 도시한 순서도이다.
이에 도시한 바와 같이, 먼저, 상기 보정유닛은 발 영역을 감지하기 위하여, 배경 차분(background subtraction)을 실시한다. 상기 배경 차분은 일반적으로 관절을 감지하는 데 사용된다(a).
다음, 상기 배경 차분을 좀 더 원할하게 진행하기 위하여, 그레이 레벨(gray level) 차이를 이용하여 발 영역과 배경 영역의 차이를 구분한다(b). 이 때, 상기 그레이 스케일의 문턱치(threshold of gray-scale)를 계산하여 상기 작업을 진행한다.
이 때, 모폴로지법(the morphology method)을 이용하여 노이즈를 제거한다(c). 즉, 상기 b단계의 그레이 레벨은 상기 노이즈에 의해 영향을 받으므로, 상기 a단계에서, 상기 배경 차분 작업에 의해 생성된 노이즈를 제거한다.
상기 모폴로지법은 상기 그레이 레벨 차이에 의해 생긴 발 영역의 홀(the hole of foot object)을 채우고, 침식과 팽창(eroding and dilating)에 의해 좀 더 작은 노이즈를 제거한다.
여기서, 상기 팽창은 영상 이미지를 확대 및 내부의 영역을 채우거나 끊어진 부분을 연결하는데 적합하며, 또한 이 연산을 수행하면 이미지의 크기가 커지게 되므로 상기 침식 연산을 수행해서 크기를 원래대로 돌려놓는데 사용되며, 상기 모폴로지법은 공지의 기술이므로 별도의 설명은 생략하기로 한다.
다음, 발 영역을 감지함으로써(d), 상기 보정유닛의 작업이 완료된다.
상기 추정유닛(140)은 상기 연산제어유닛(130)에서 계산된 상기 3차원 위치값의 변위에 따라 가상 신발의 자세를 추정하도록 구비된다.
좀 더 상세한 설명을 위하여 도 5를 제시한다. 도 5는 추정유닛에 의한 가상 신발의 위치 추정을 설명하기 위하여 도시한 순서도이다.
이에 도시된 바와 같이, 먼저, 가상 신발 모델과 상기 연산제어유닛(130)에서 계산된 발 영역을 제시한다(S11).
다음, 상기 연산제어유닛(130)에서 계산된 3차원 위치 값의 변위에 따라, 즉, 상기 발영역의 이미지 정보에서 추출된 특징점과 경계선의 위치에 따라, 상기 가상 신발 모델의 위치를 추정한다(S12).
여기서, 상기 렌더링 유닛(150)은 상기 가상 신발의 좌표를 실제 좌표로 변환하여 상기 발영역에 렌더링 하도록 구비된다.
즉, 상기 S12단계에서 위치가 추정된 상기 가상 신발 모델을 상기 발 영역의 이미지에 일치시켜 렌더링한다(S13).
여기서, 상기 3차원 가상 신발 착용 시스템은 영상 정보를 표시하는 디스플레이유닛(미도시)를 더 포함하는 것도 가능하며, 이 때, 상기 디스플레이 유닛은 상기 렌더링 유닛(150)에서 렌더링된 상기 가상 신발과 발 영역에 대한 렌더링 정보를 제시하도록 구비되는 것도 가능함은 물론이다.
2실시예
본 발명의 제 2실시예에 따른 3차원 가상 신발 착용 시스템 운용 방법을 설명하면 다음과 같다. 도 6은 본 발명의 제 2실시예에 따른 3차원 가상 신발 착용 시스템 운용방법을 도시한 순서도이다.
이에 도시된 바와 같이, 상기 3차원 가상 신발 착용 시스템 운용방법은 먼저, 3차원 가상 신발 착용 시스템을 제공한다(S1). 참고로, 설명의 편의를 위하여, 제 1실시예에서 상술한 상기 3차원 가상 신발 착용 시스템을 참조로 하여 설명하기로 하고, 참조 번호 또한 도 1의 참조번호를 대체하여 사용하기로 한다.
다음, 상기 3차원 가상 신발 착용 시스템에 구비된 카메라(110)에서 사람의 다리 부위에 대한 이미지 정보를 수집한다(S2). 이 때, 상기 카메라(110)는 제 1카메라(111) 및 제 2카메라(112)를 포함하여 서로 다른 각도에서 상기 이미지 정보를 수집하도록 구비된다. 이 때, 상기 카메라(110)는 상기 교정유닛(120) 또는 상기 추정유닛(130)과 서로 원거리에 별도로 떨어진 상태로 배치되어, 상기 카메라(110)에서 수집된 상기 이미지 정보가 유선 또는 무선 통신망 중 적어도 하나를 이용하여 상기 연산제어유닛(130) 또는 상기 교정유닛(120) 중 적어도 하나로 송수신되도록 하는 것도 가능하다.
또한, 일반적으로 상기 3차원 가상 신발 착용 시스템은 원격지에서 인터넷을 통하여 신발을 구매하고자 하는 사람이 자신의 다리부위를 이미지 정보를 송신하고, 원격지의 상기 3차원 가상 신발 착용 시스템에서 상기 이미지 정보를 수신하여 이후의 작업을 수행하게 되므로, 상기 카메라(110)가 상기 교정유닛(120) 또는 상기 연산제어유닛(130)에서 원격지에 위치하는 것이 더욱 바람직하다.
다음, 상기 카메라에서 수집된 다리 부위에 대한 이미지 정보 중 발 영역의 경계선(silhouette)을 생성하고, 특징점을 취득하며 3차원 위치값을 계산한다(S3). 일반적으로 사람 신체의 골격은 관절과 피부로 둘러쌓여 있으므로 상기 단계(S3)가 곤란하게 된다. 따라서, 제 1실시예에서 상술한 바와 같이, 상기 카메라(110)에서 수집된 상기 이미지 정보에서 상기 발 영역을 제외한 배경을 제거하고 상기 발 영역의 스킨컬러 영역을 검출하는 단계를 더 수행하는 것이 바람직하다.
다음, 상기 추정유닛(140)에서 상기 3차원 위치값의 변위에 따라 가상 신발의 자세를 추정하는 단계(S4)를 수행한다.
다음, 상기 렌더링유닛(150)에서 상기 가상신발의 좌표를 실제 좌표로 변환하여 상기 발 영역에 렌더링하는 렌더링 단계(S5)를 거친다. 여기서, 상기 S2 단계에서 상술한 바와 같이, 상기 카메라(110)가 별도로 배치되어 있는 경우에는 상기 렌더링된 정보를 송수신하는 단계를 더 포함하는 것도 가능하다.
또한, 상기 렌더링 단계(S5)는 영상 정보를 제시하는 디스플레이 유닛(미도시)에서 상기 렌더링된 가상신발과 발 영역에 대한 렌더링 정보를 제시하는 단계를 더 포함하는 것도 가능하다.
상술한 바와 같이, 본 발명의 바람직한 실시예를 참조하여 설명하였지만 해당 기술분야의 숙련된 당업자라면 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (11)

  1. 서로 이격되어 다른 각도에서 사람의 다리 부위에 대한 이미지 정보를 수집하는 두 개의 카메라;
    상기 카메라에서 동시에 촬영된 두개의 이미지를 이용하여 3차원 깊이 보정을 수행하는 교정유닛;
    상기 다리 부위 중 발 영역의 경계선(silhouette)을 생성하고, 특징점(specific point)을 취득하며, 3차원 위치 값을 계산하는 연산 제어 유닛;
    상기 3차원 위치값의 변위에 따라 가상 신발의 자세를 추정하는 추정유닛; 및
    상기 가상 신발의 좌표를 실제 좌표로 변환하여 상기 발 영역에 렌더링 하는 렌더링 유닛;
    을 포함하고, 상기 카메라는 상기 연산제어유닛과 별도로 이격되어 배치되고, 상기 카메라에서 수집된 상기 이미지 정보는 유선 또는 무선 통신망을 이용하여 상기 연산제어유닛으로 송수신되는 3차원 가상 신발 착용 시스템.
  2. 제 1항에 있어서,
    상기 교정 유닛은 Zhengyou Zhang’s 카메라 교정(Camera Calibration)을 이용하는 것을 특징으로 하는 3차원 가상 신발 착용 시스템.
  3. 삭제
  4. 제 1항에 있어서,
    상기 연산제어유닛은 보정 유닛을 더 포함하고, 상기 보정유닛은 상기 카메라에서 수집된 상기 이미지 정보에서 발 영역 이외의 배경을 제거하고 상기 발 영역의 스킨컬러 영역을 검출하는 것을 특징으로 하는 3차원 가상 신발 착용 시스템.
  5. 제 4항에 있어서,
    상기 보정유닛은 상기 배경과 상기 발 영역의 그레이 레벨(gray-level) 차이를 이용하여 상기 배경을 제거하는 것을 특징으로 하는 3차원 가상 신발 착용 시스템
  6. 제 5항에 있어서,
    상기 보정 유닛은 상기 배경을 제거하는 과정에서 발생하는 노이즈를 모폴로지(morphology) 기법을 이용하여 제거하는 것을 특징으로 하는 3차원 가상 신발 착용 시스템.
  7. 제 1항에 있어서,
    영상 정보를 표시하는 디스플레이 유닛을 더 포함하고, 상기 디스플레이 유닛은 상기 렌더링 유닛에서 렌더링된 상기 가상신발과 발 영역에 대한 렌더링 정보를 제시하는 것을 특징으로 하는 3차원 가상 신발 착용 시스템.
  8. 3차원 가상 신발 착용 시스템을 제공하는 단계;
    카메라에서 사람의 다리 부위에 대한 이미지 정보를 수집하는 단계;
    상기 카메라에서 수집된 상기 이미지 정보를 상기 카메라와 별도로 이격되어 배치되는 연산제어유닛에서 송수신하는 단계;
    상기 다리 부위 중 발 영역의 경계선(silhouette)을 생성하고 특징점을 취득하며 3차원 위치 값을 계산하는 단계;
    상기 3차원 위치 값의 변위에 따라 가상 신발의 자세를 추정하는 단계; 및
    상기 가상신발의 좌표를 실제 좌표로 변환하여 상기 발 영역에 렌더링하는 렌더링 단계;
    를 포함하는 3차원 가상 신발 착용 시스템 운용 방법.
  9. 삭제
  10. 제 8항에 있어서,
    상기 카메라에서 수집된 상기 이미지 정보에서 상기 발 영역을 제외한 배경을 제거하고 상기 발 영역의 스킨컬러 영역을 검출하는 단계를 더 포함하는 것을 특징으로 하는 3차원 가상 신발 착용 시스템 운용 방법.
  11. 제 8항에 있어서,
    상기 렌더링 단계는 디스플레이 유닛에서 상기 렌더링된 상기 가상신발과 발 영역에 대한 렌더링 정보를 제시하는 단계를 더 포함하는 것을 특징으로 하는 3차원 가상 신발 착용 시스템 운용 방법.
KR1020070107477A 2007-10-24 2007-10-24 3차원 가상 신발 착용 시스템 및 이의 운용방법 KR100915298B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070107477A KR100915298B1 (ko) 2007-10-24 2007-10-24 3차원 가상 신발 착용 시스템 및 이의 운용방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070107477A KR100915298B1 (ko) 2007-10-24 2007-10-24 3차원 가상 신발 착용 시스템 및 이의 운용방법

Publications (2)

Publication Number Publication Date
KR20090041804A KR20090041804A (ko) 2009-04-29
KR100915298B1 true KR100915298B1 (ko) 2009-09-03

Family

ID=40764768

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070107477A KR100915298B1 (ko) 2007-10-24 2007-10-24 3차원 가상 신발 착용 시스템 및 이의 운용방법

Country Status (1)

Country Link
KR (1) KR100915298B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230115006A (ko) 2022-01-26 2023-08-02 (주)먼슬리슈즈 신발의 커스터마이징 및 가상 착용이 가능한 신발 증강현실 시스템

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101242551B1 (ko) * 2011-05-30 2013-03-19 (주)포스트미디어 입체 디지털 정보 표시 기능을 갖는 입체 영상 디스플레이 장치 및 입체 영상에서 입체 디지털 정보 표시 방법
KR101377340B1 (ko) * 2012-12-28 2014-04-01 주식회사 에스원 복면 감지 시스템 및 그의 구동 방법
KR101932537B1 (ko) * 2013-01-08 2019-03-15 한화테크윈 주식회사 3차원 전자지도상에 촬영영상을 표시하는 방법 및 장치
BR112016023494B1 (pt) * 2014-04-09 2022-08-30 Scholl's Wellness Company Llc Aparelho e processo para identificar um produto recomendado para um usuário dentre um conjunto de produtos candidatos pré-fabricados
KR101899242B1 (ko) * 2017-03-27 2018-09-14 고려대학교 세종산학협력단 질감정보를 이용한 돈방의 배경 제거 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010055957A (ko) * 1999-12-13 2001-07-04 오길록 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한영상 정합 방법
KR20010089065A (ko) * 2000-03-21 2001-09-29 이건우 신체 측정 장치 및 그 방법
JP2002058045A (ja) * 2000-08-08 2002-02-22 Komatsu Ltd 現実の物体をバーチャル3次元空間に登場させるためのシステム及び方法
JP2007102478A (ja) * 2005-10-04 2007-04-19 Toshiba Corp 画像処理装置、画像処理方法、及び半導体集積回路

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010055957A (ko) * 1999-12-13 2001-07-04 오길록 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한영상 정합 방법
KR20010089065A (ko) * 2000-03-21 2001-09-29 이건우 신체 측정 장치 및 그 방법
JP2002058045A (ja) * 2000-08-08 2002-02-22 Komatsu Ltd 現実の物体をバーチャル3次元空間に登場させるためのシステム及び方法
JP2007102478A (ja) * 2005-10-04 2007-04-19 Toshiba Corp 画像処理装置、画像処理方法、及び半導体集積回路

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230115006A (ko) 2022-01-26 2023-08-02 (주)먼슬리슈즈 신발의 커스터마이징 및 가상 착용이 가능한 신발 증강현실 시스템

Also Published As

Publication number Publication date
KR20090041804A (ko) 2009-04-29

Similar Documents

Publication Publication Date Title
Colyer et al. A review of the evolution of vision-based motion analysis and the integration of advanced computer vision methods towards developing a markerless system
Stenum et al. Two-dimensional video-based analysis of human gait using pose estimation
JP5583087B2 (ja) 画像処理装置、方法、及びプログラム
EP2973417B1 (en) A method and system for three-dimensional imaging
Auvinet et al. Multiple depth cameras calibration and body volume reconstruction for gait analysis
KR100915298B1 (ko) 3차원 가상 신발 착용 시스템 및 이의 운용방법
WO2019035155A1 (ja) 画像処理システム、画像処理方法、及びプログラム
JP2002058045A (ja) 現実の物体をバーチャル3次元空間に登場させるためのシステム及び方法
JP5795250B2 (ja) 被写体姿勢推定装置および映像描画装置
KR20120017948A (ko) 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법
CN110751716A (zh) 基于单视角rgbd传感器的虚拟试鞋方法
KR101586010B1 (ko) 증강 현실 기반 가상 피팅을 위한 의상의 물리적 시뮬레이션 장치 및 방법
KR20150124518A (ko) 증강 현실 기반 가상 피팅을 위한 가상 의상 생성 장치 및 방법
KR20140123229A (ko) 깊이 정보 기반으로 사용자의 3차원 신체 모델을 생성하는 방법 및 장치
Alnowami et al. Feasibility study of markerless gait tracking using kinect
US10798360B2 (en) Information processing system, method for controlling same, and program
EP3971683A1 (en) Human body portion tracking method and human body portion tracking system
Penelle et al. Human motion tracking for rehabilitation using depth images and particle filter optimization
JP2024501161A (ja) 画像または映像におけるオブジェクトの3次元場所特定
WO2020026677A1 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
JP2014179135A (ja) 画像処理装置、方法、及びプログラム
JP7494692B2 (ja) 深度推定方法
CN114283447B (zh) 一种动作捕捉系统及方法
JP6483782B2 (ja) 画像処理装置、方法、及びプログラム
US20180168487A1 (en) Measurement device and measurement method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130805

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140701

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160926

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170823

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180823

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190822

Year of fee payment: 11