KR100362383B1 - 3차원 인터페이스를 채용한 동작 정보 후처리 방법 - Google Patents

3차원 인터페이스를 채용한 동작 정보 후처리 방법 Download PDF

Info

Publication number
KR100362383B1
KR100362383B1 KR1019990062471A KR19990062471A KR100362383B1 KR 100362383 B1 KR100362383 B1 KR 100362383B1 KR 1019990062471 A KR1019990062471 A KR 1019990062471A KR 19990062471 A KR19990062471 A KR 19990062471A KR 100362383 B1 KR100362383 B1 KR 100362383B1
Authority
KR
South Korea
Prior art keywords
motion
marker
information
processing
dimensional
Prior art date
Application number
KR1019990062471A
Other languages
English (en)
Other versions
KR20010058255A (ko
Inventor
이인호
박찬종
성운재
원광연
설창환
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1019990062471A priority Critical patent/KR100362383B1/ko
Publication of KR20010058255A publication Critical patent/KR20010058255A/ko
Application granted granted Critical
Publication of KR100362383B1 publication Critical patent/KR100362383B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 3차원 영상 생성 기술을 응용하여 작업자에게 작업 내용에 대한 3차원적 직관을 제공하는 동작 정보 후처리 방법을 제공하는데 그 목적이 있다.
본 발명에 따르면, 동작 정보 전처리 방법에 의하여 기록된 마커(Marker) 정보 중 불완전한 마커 정보를 완전한 마커 정보로 가공하는 동작 정보 후처리 방법에 있어서, 상기 동작 정보 전처리 방법에 의하여 기록된 2차원 평면에 표시되는 관절의 동작을 스테레오(Stereo) 영상으로 변환하는 제 1 단계; 및 상기 제 1 단계에서 변환된 스테레오 영상을 입체 영상 제시 장치를 사용하여 입체적으로 나타냄으로써, 관절의 동작을 3차원 위치 정보로 재구성하는 제 2 단계를 포함하여 이루어진 것을 특징으로 하는 동작 정보 후처리 방법이 제공된다.

Description

3차원 인터페이스를 채용한 동작 정보 후처리 방법 {Post-processing method for motion captured data using 3D interface}
본 발명은 3차원 인터페이스를 이용한 동작 정보 후처리 방법에 관한 것이며, 특히, 3차원 영상 생성 기술을 응용하여 작업자에게 작업 내용에 대한 3차원적 직관을 제공하는 동작 정보 후처리 방법에 관한 것이다.
동작 정보 획득 시스템의 목적은 사람 또는 동물과 같이 복수의 관절을 갖는 다관절체의 시간에 따른 움직임을 기록한 동작 정보를 얻는 것이다.
도 1은 종래의 광학식 동작 획득 시스템을 개략적으로 나타낸 구성도로서, 상기 광학식 동작 획득 시스템은 2차원 영상 기록 장치(201) 및 동작 정보 획득 후처리 시스템(202)을 포함하여 구성된다.
먼저, 연기자의 신체에 마커(Marker)를 부착하고, 복수의 카메라를 설치한다. 연기자의 움직임은 각 카메라에 대하여 프레임(Frame)이라 불리우는 동일한 시간 간격마다 상기 2차원 영상 기록 장치(201)에 의하여 2차원 영상면에서 관찰된 마커의 위치, 크기 및 형태 정보로 기록된다. 이것이 상기 동작 정보 획득 후처리 시스템(202)에 의하여 3차원 동작 정보의 계산에 사용되는 1차 정보가 된다.
도 2는 도 1에 의하여 추출된 1차 정보의 가공을 통하여 3차원 동작 정보를 얻는 과정을 나타낸 도면으로서, 동작 정보의 계산이란 각 카메라에서 기록된 2차원 마커 정보들의 묶음을 여러 과정를 거쳐 대상체의 관절각 정보로 복원하는 것이다.
카메라를 통하여 기록된 2차원 마커의 연속 영상(301)은 매칭 과정을 거쳐 3차원 마커의 움직임으로 변환되는데(302), 이때 각 마커는 프레임과 프레임 사이에대응 관계를 설정할 수 없는, 상호 식별되지 않은 마커이다. 마커의 식별 및 추적 과정을 거치면, 3차원 마커는 고유하게 식별되어 각 마커의 시간에 따른 궤적을 구할 수 있다(303). 모든 마커의 3차원 궤적이 결정되면, 이를 대상체의 관절 운동으로 변환하는 과정을 거쳐 최종적으로 동작 정보를 얻게 된다(304).
일반적으로 동작 정보의 후처리 과정에서 가장 많은 자원과 노력이 소비되는 부분은 마커 매칭 및 3차원 마커 식별/추적 과정이다. 타 과정이 알고리즘에 의하여 자동으로 계산되는 반면, 마커 매칭 및 3차원 마커 식별/추적 과정은 완전 자동화하기 어려운데, 그 이유는 영상면에서 각 마커가 서로 구별되지 않으며, 대상체에 의하여 가려지기 때문에, 모든 마커가 항상 관찰되지는 않기 때문이다. 따라서, 작업자의 수작업에 의하여 각각의 마커들을 식별해야만 한다.
그러나, 모든 마커의 상이 한 장의 2차원 창에 복잡하게 투영되기 때문에 종종 마커 간 상호 식별이 용이하지 않게 된다. 이때 사용자는 2차원 영상에 투영된 마커를 관찰하여 그들의 3차원 위치를 스스로 추정해야 하는데, 통상 사용되는 2차원 창 인터페이스만을 사용할 경우, 숙련된 사용자라 할 지라도 마커들의 3차원 공간에서의 위치 관계를 파악하여 각각의 마커를 정확히 구별하기 어렵다는 문제점이 있다.
본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로서, 3차원 영상 생성 기술을 응용하여 작업자에게 작업 내용에 대한 3차원적 직관을 제공하는 동작 정보 후처리 방법을 제공하는데 그 목적이 있다.
도 1은 종래의 광학식 동작 획득 시스템을 개략적으로 나타낸 구성도이고,
도 2는 도 1에 의하여 추출된 1차 정보의 가공을 통하여 3차원 동작 정보를 얻는 과정을 나타낸 도면이고,
도 3은 본 발명의 일 실시예에 따른 동작 정보 획득 후처리 과정을 나타낸 흐름도이고,
도 4a는 본 발명의 일 실시예에 따른 후처리 이전의 부분 마커 궤적을 나타낸 예시도이고, 도 4b는 본 발명의 일 실시예에 따른 수작업 이후의 완전한 마커 궤적을 나타낸 예시도이고,
도 5는 본 발명의 일 실시예에 따른 OpenGL 상에서의 3차원 영상 제시를 위한 좌/우측 영상의 합성 방법을 나타낸 도면이다.
앞서 설명한 바와 같은 목적을 달성하기 위한 본 발명에 따르면, 동작 정보 전처리 방법에 의하여 기록된 마커(Marker) 정보 중 불완전한 마커 정보를 완전한 마커 정보로 가공하는 동작 정보 후처리 방법에 있어서, 상기 동작 정보 전처리 방법에 의하여 기록된 2차원 평면에 표시되는 관절의 동작을 스테레오(Stereo) 영상으로 변환하는 제 1 단계; 및 상기 제 1 단계에서 변환된 스테레오 영상을 입체 영상 제시 장치를 사용하여 입체적으로 나타냄으로써, 관절의 동작을 3차원 위치 정보로 재구성하는 제 2 단계를 포함하여 이루어진 것을 특징으로 하는 동작 정보 후처리 방법이 제공된다.
또한, 동작 정보 전처리 방법에 의하여 기록된 마커(Marker) 정보 중 불완전한 마커 정보를 완전한 마커 정보로 가공하는 동작 정보 후처리 방법을 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 상기 동작 정보 전처리 방법에 의하여 기록된 2차원 평면에 표시되는 관절의 동작을 스테레오(Stereo) 영상으로 변환하는 제 1 단계; 상기 제 1 단계에서 얻어진 관절의 3차원 움직임 정보를 화면을 통하여 스테레오 영상으로 표시하는 제 2 단계; 및 상기 제 2 단계에서 표시된 스테레오 영상을 입체 영상 제시 장치를 사용하여 3차원 동작에 대한 마커 정보를 가공하는 제 3 단계를 포함하여 이루어진 것을 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체가 제공된다.
아래에서, 본 발명에 따른 양호한 일 실시예를 첨부한 도면을 참조로 하여 상세히 설명하겠다.
도 3은 본 발명의 일 실시예에 따른 동작 정보 획득 후처리 과정을 나타낸 흐름도로서, 동작 획득 장치에 의하여 기록된 1차 동작 정보(301), 즉, 마커 영상 정보가 동작 정보 획득 후처리 과정(302)을 거쳐 최종 동작 정보인 대상체의 관절각 정보(303)로 가공된다.
또한, 도 4a는 본 발명의 일 실시예에 따른 후처리 이전의 부분 마커 궤적을 나타낸 예시도이고, 도 4b는 본 발명의 일 실시예에 따른 수작업 이후의 완전한 마커 궤적을 나타낸 예시도이다.
(1) 자동화 알고리즘에 의한 전처리
1차 정보인 마커 영상으로부터 3차원의 식별된 마커 궤적으로의 가공을 위한 자동화 알고리즘에 의해 전처리가 일어난다. 세부적으로는 마커 매칭 알고리즘에 의하여 마커 영상으로부터 상호 식별되지 아니하는 마커의 궤적을 얻고, 이를 다시 마커 추적 알고리즘에 의하여 상호 식별되는 마커 궤적으로 가공한다. 마커 매칭 및 추적 알고리즘의 세부적인 이론은 본 발명의 본질과 무관하므로 상세히 기술하지 않는다.
그러나, 현재까지 개발된 어떤 자동화 알고리즘도 일반적인 마커 영상에 대하여 3차원의 식별된 마커 궤적을 완전하게 계산하지 못한다. 따라서, 자동화 알고리즘 만으로는 관절각 정보를 계산할 수 있는 식별된 3차원 마커 궤적을 얻을 수 없고, 이것이 후처리 수작업이 필요한 이유이다.
자동화 알고리즘의 수행으로 얻는 중간 결과는 다음과 같다.
연기자의 몸에 M 개의 마커를 부착했을 때, 우리는 M' 개의 부분 마커 궤적을 얻게 된다. 자동화 알고리즘의 불완전성으로 인하여 일반적으로 M' ≥ M 이 성립한다. M' 개의 부분 마커 궤적들은 각각 특정한 마커 mi의 시간에 따른 움직임을 나타내는데, 이것은 동작의 처음부터 끝까지의 시간축상에서 완전하게 연결되지 않은 상태이다.
도 4a는 본 발명의 일 실시예에 따른 후처리 이전의 부분 마커 궤적을 나타낸 예시도로서, 일반적으로 자동화 알고리즘으로 얻을 수 있는 부분 마커 궤적의 예가 나타나 있다. 여기에서 이어진 직선은 자동화 알고리즘이 하나의 마커가 움직인 궤적을 놓치지 않고 추적하고 있다는 표시이다. 끊어진 부분은 이러한 추적이 실패했음을 의미한다. 도 4a에서 번호 M 이후의 마커들은 이렇게 끊어진 조각들에 해당하지만, 어느 1 ~ M 사이의 어느 마커에 속하는 것인지 계산되지 않은 마커들이다. 주의할 것은 1 ~ M 사이의 연결된 부분 마커 궤적들도 완전히 옳은 것은 아니며, 알고리즘이 잘못된 결과를 계산해 낼 수도 있다는 점이다.
(2) 후처리 수작업
후처리 수작업은 도 4a와 같은 부분 마커 궤적을 도 4b와 같은 완전한 마커궤적으로 가공하는 과정이라 할 수 있다. 즉, 불완전하게 끊어진 M' 개의 부분 마커 궤적을 조합하여 완전하게 연결된 M 개의 올바른 마커 궤적을 얻는 것이다.
후처리 수작업에서 빈번히 사용되는 작업 형태 중 하나는 궤적이 끊어진 프레임 주변에서 3차원 공간상에 배치된 마커들의 움직임을 관찰하고, 이로부터 끊어진 마커 궤적에 해당하는 조각을 찾거나, 잘못 연결된 마커 궤적을 바로 잡는 것이다. 기존의 후처리 소프트웨어들은 이와 같은 목적을 위하여 2차원 창에 3차원 공간의 마커들을 시각화하는 인터페이스를 제공하고 있다. 이 인터페이스를 이용하여 후처리 작업자는 3차원 공간을 시각화하는 가상 시점의 매개 변수를 조절하면서 원하는 위치에서 마커들의 시간에 따른 움직임을 관찰한다.
본 발명의 핵심은 이와 같은 시각화 인터페이스를 3차원 입체 인터페이스로 제공하는 것이다. 먼저, 작업자에게 3차원 마커의 움직임을 입체 영상으로 볼 것인지, 2차원 창에 기존의 방법대로 시각화할 것인지를 결정할 수 있는 인터페이스를 제공한다.
입체 영상 인터페이스가 선택되면, 마커들의 3차원 움직임을 관찰할 가상 시점의 매개 변수를 결정한다. 가상 시점의 매개 변수는 그 위치 P, 방향 Q 및 시각(field of view)으로 주어진다. 위치 P 및 방향 Q의 결정에는 전통적인 입력 도구인 키보드와 마우스를 이용한 직선 운동 및 회전 운동을 통하여 작업자가 현재 위치 및 방향에서 원하는 위치 및 방향으로 이동하는 방법과, 작업자의 머리에 3차원 위치/방향 센서를 부착하여 시점의 위치 및 방향을 직접 얻는 두 가지 방법이 있다.
키보드를 이용한 제어의 경우에는 다음과 같이 화살표 키를 이용한다.
: 시점을 앞쪽(시점 좌표계 -Z축 방향)으로 정하여진 거리 만큼 이동.
: 시점을 뒷쪽(시점 좌표계 +Z축 방향)으로 정하여진 거리 만큼 이동.
: 시점을 왼쪽(시점 좌표계 +Y축 중심)으로 정하여진 각도 만큼 회전.
: 시점을 오른쪽(시점 좌표계 -Y축 중심)으로 정하여진 각도 만큼 회전.
Shift +: 시점을 윗쪽(시점 좌표계 +X축 중심)으로 정하여진 각도 만큼 회전.
Shift +: 시점을 아래쪽(시점 좌표계 -X축 중심)으로 정하여진 각도 만큼 회전.
Shift +: 시점을 왼쪽(시점 좌표계 -X축 방향)으로 정하여진 거리 만큼 이동.
Shift +: 시점을 오른쪽(시점 좌표계 +X 축 방향)으로 정하여진 거리 만큼 이동.
0 : 시점의 방향을 초기화.
Ctrl +: 마커 중점과 시점으로 이루어진 반구 상에서 윗쪽으로 이동.
Ctrl +: 마커 중점과 시점으로 이루어진 반구 상에서 아래쪽으로 이동.
Ctrl +: 마커 중점과 시점으로 이루어진 반구 상에서 왼쪽으로 이동.
Ctrl +: 마커 중점과 시점으로 이루어진 반구 상에서 오른쪽으로 이동.
즉 상하좌우 키는 아무런 특수 키를 누르지 않은 상태에서는 기본적인 이동과 회전, Shift 조합은 상대적으로 덜 쓰이는 이동과 회전을 제공한다. Ctrl 조합은 시점의 방향이 마커들의 중심점을 항상 바라보도록 하면서 움직이도록 하는데, 이것은 항상 마커들을 볼 수 있으면서, 관찰하는 위치를 변화시킬 수 있는 유용한 인터페이스이다.
마우스를 이용할 때는 창의 중심으로부터의 마우스 커서의 위치 관계에 따라 이들을 각각 위의 상하좌우 화살표 키와 같은 명령으로 받고, 여기에 Shift, Ctrl 키를 조합하여 위의 키보드 인터페이스와 동일하게 제어한다.
3차원 위치, 방향 센서를 이용할 경우에도 시점 좌표계의 위치와 방향의 기준점을 정할 필요가 생기는데, 이는 위의 키보드 인터페이스를 이용한다. 즉, 키보드 인터페이스는 전체적인 위치와 방향을 제어하고, 여기에 3차원 센서로부터의 변화량을 누적 적용하여 시점의 위치와 방향을 얻는다.
시각 θ는 고정된 값을 사용하며, 별도의 인터페이스를 제공하여 필요한 경우 이 값을 제어할 수 있도록 하였다. 3차원 입체 영상을 제어하기 위하여 부가적으로 더 필요한 매개 변수는 두 눈 사이의 거리 p, 두 눈으로부터 영상면까지의 거리 c로 이 값 역시 고정된 값을 사용하며, 별도의 인터페이스를 통하여 제어 가능하도록 하였다.
가상 시점의 매개변수가 모두 결정되면 좌, 우 두 눈에 해당하는 별도의 영상을 각각 두 눈에 별도로 보이도록 그리게 된다. 본 발명에서는 쉽게 구할 수 있는 필드 인터레이스 스테레오(Field Interlace Stereo) 방식의 입체 영상 제시 장치를 사용한다. 이는 모니터 디스플레이의 홀수/짝수번째 줄에 각각 좌/우 영상을 나누어 디스플레이하면, 안경 형태의 영상 제시 장치가 이를 각각 좌/우측 눈에 나누어 보여주는 것이다.(이러한 영상 제시 장치의 예로는 VR Standard Corp.의 VRJoy 제품 등이 있다.)
도 5는 본 발명의 일 실시예에 따른 OpenGL 상에서의 3차원 영상 제시를 위한 좌/우측 영상의 합성 방법을 나타낸 도면으로서, 이를 상세히 설명하면 다음과 같다.
즉, 본 발명에서는 3차원 마커 움직임의 시각화를 위하여 OpenGL 라이브러리를 사용하고 있으며 이를 이용하여 좌/우측 눈에서 본 영상이 번갈아 그려지도록 하기 위해 다음과 같은 방법을 사용한다.
OpenGL의 후면 버퍼(BACK_BUFFER)를 상하 방향으로 2개의 서로 다른 뷰포트(Viewport)로 나누고, 여기에 좌/우측 눈에서 본 영상을 본래 해상도에서 세로 해상도가 절반인 상태로 낮추어 3차원 공간의 마커들을 렌더링(Rendering)한다. 다음으로, 별도의 메모리 버퍼에 이를 복사한 뒤, BACK_BUFFER에 이를 좌/우 영상에서의 각 줄이 번갈아 나타나도록 다시 배치한다. 배치가 완료되면, 버퍼를 교체하여(Swap Buffer) 완성된 입체 영상을 디스플레이 한다.
작업자는 3차원 마커의 움직임을 입체적으로 관찰 할 수 있을 뿐 아니라, 입체적으로 보이는 마커들을 선택할 수 있다. 이는 3차원 커서를 제공하여 줌으로써, 가능하다. 마커의 선택을 위한 3차원 커서의 제어는 3차원 입력 장치를 사용하거나, 조이 스틱과 같은 별도의 입력 장치를 사용하거나, 키보드를 이용할 수 있다. 제어 방법은 가상 시점의 제어 방법과 유사하다. 다만, 3차원 커서의 경우에는 회전이 의미가 없으므로, 조이스틱의 전후좌우 선택, 키보드의 상하좌우 키가 직접 3차원 커서의 시점 좌표계 상에서의 움직임으로 직접 매핑된다. 작업자는 3차원 커서를 사용하여 후처리에 필요한 마커의 식별 정보를 입력할 수 있다.
작업자의 입력에 의하여 마커 정보가 관절각 계산에 적합한 수준까지 가공되면, 관절각을 계산하여 최종적인 동작 정보로 출력한다.
상기와 같은 본 발명은 컴퓨터로 읽을 수 있는 기록 매체로 기록되고, 컴퓨터에 의해 처리될 수 있다.
앞서 상세히 설명한 바와 같이 본 발명은 3차원 인터페이스에 의해 동작 정보 획득 후처리 과정을 수행하는 작업자들은 종전의 2차원 인터페이스에만 의존할 때보다 빠르고 정확하게 작업할 수 있다는 효과가 있다.
특히, 본 발명은 종전까지 동작 정보 획득에서 가장 시간 비용이 큰 과정인 후처리 수작업의 효율을 높임으로써, 전체 동작 정보 획득 과정이 빠르게 진행될 수 있도록 한다.
또한, 본 발명에서 제안하는 3차원 인터페이스의 응용은 비단 동작 정보 획득 후처리에만 국한되지 않고, 다루는 대상이 3차원적 성격이 강한 경우에 이에 대한 직관적인 상호 작용 방법으로 사용될 수 있으므로, 가상 현실감, 게임 등의 분야에서도 활용을 기대할 수 있다.
이상에서 본 발명에 대한 기술 사상을 첨부 도면과 함께 서술하였지만 이는본 발명의 가장 양호한 일 실시예를 예시적으로 설명한 것이지 본 발명을 한정하는 것은 아니다. 또한, 이 기술 분야의 통상의 지식을 가진 자이면 누구나 본 발명의 기술 사상의 범주를 이탈하지 않는 범위 내에서 다양한 변형 및 모방이 가능함은 명백한 사실이다.

Claims (4)

  1. 동작 정보 전처리 방법에 의하여 기록된 마커(Marker) 정보 중 불완전한 마커 정보를 완전한 마커 정보로 가공하는 동작 정보 후처리 방법에 있어서,
    상기 동작 정보 전처리 방법에 의하여 기록된 2 차원 평면에 표시되는 관절의 동작을 스테레오(Stereo) 영상으로 변환하는 단계;
    상기 변환된 스테레오 영상으로부터 얻어지는 관절의 3 차원 움직임 정보를 화면을 통하여 스테레오 영상으로 표시하는 단계; 및
    상기 표시된 스테레오 영상을 입체 영상 제시 장치를 사용하여 3 차원 동작에 대한 마커 정보를 가공하는 단계를 포함하고,
    상기 마커 정보 가공은, 상기 스테레오 영상으로 표시된 관절의 동작을 관찰하고 수정하기 위하여, 사용자의 시점을 임의의 각도 및 거리로 움직일 수 있도록 가공하는 것을 특징으로 하는 동작 정보 후처리 방법.
  2. 삭제
  3. 삭제
  4. 동작 정보 전처리 방법에 의하여 기록된 마커(Marker) 정보 중 불완전한 마커 정보를 완전한 마커 정보로 가공하는 동작 정보 후처리 프로그램을 실행시킬 수 있는 컴퓨터로 읽을 수 있는 기록 매체에 있어서,
    상기 동작 정보 전처리 방법에 의하여 기록된 2 차원 평면에 표시되는 관절의 동작을 스테레오(Stereo) 영상으로 변환하는 단계;
    상기 변환된 스테레오 영상으로부터 얻어지는 관절의 3 차원 움직임 정보를 화면을 통하여 스테레오 영상으로 표시하는 단계; 및
    상기 표시된 스테레오 영상을 입체 영상 제시 장치를 사용하여 3 차원 동작에 대한 마커 정보를 가공하는 단계를 포함하고,
    상기 마커 정보 가공은, 상기 스테레오 영상으로 표시된 관절의 동작을 관찰하고 수정하기 위하여, 사용자의 시점을 임의의 각도 및 거리로 움직일 수 있도록 가공하는 것을 특징으로 하는 동작 정보 후처리 프로그램을 실행시킬 수 있는 컴퓨터로 읽을 수 있는 기록 매체.
KR1019990062471A 1999-12-27 1999-12-27 3차원 인터페이스를 채용한 동작 정보 후처리 방법 KR100362383B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990062471A KR100362383B1 (ko) 1999-12-27 1999-12-27 3차원 인터페이스를 채용한 동작 정보 후처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990062471A KR100362383B1 (ko) 1999-12-27 1999-12-27 3차원 인터페이스를 채용한 동작 정보 후처리 방법

Publications (2)

Publication Number Publication Date
KR20010058255A KR20010058255A (ko) 2001-07-05
KR100362383B1 true KR100362383B1 (ko) 2002-11-23

Family

ID=19630016

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990062471A KR100362383B1 (ko) 1999-12-27 1999-12-27 3차원 인터페이스를 채용한 동작 정보 후처리 방법

Country Status (1)

Country Link
KR (1) KR100362383B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101094137B1 (ko) * 2004-12-02 2011-12-14 (주)다림시스템 모션캡쳐 장치

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100426313B1 (ko) * 2001-12-28 2004-04-06 한국전자통신연구원 영상 제작에서 관절형 객체 자세 변경 방법
KR100672288B1 (ko) * 2005-11-07 2007-01-24 신믿음 마커간 융합을 이용하여 증강현실을 구현하는 방법 및 그장치
KR100834793B1 (ko) * 2006-07-13 2008-06-05 엠텍비젼 주식회사 본 애니메니션 그래픽 처리를 위한 변환 장치 및 이를포함한 그래픽 처리 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08235340A (ja) * 1991-12-25 1996-09-13 Hokkaido Prefecture 特定動作骨格画像を含む時系列運動骨格画像作成法
JPH09153151A (ja) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き生成装置
JPH09330424A (ja) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き変換装置
KR19990037933A (ko) * 1999-02-25 1999-05-25 국태용 애니메이션의 다관절체 운동궤적 발생장치
JPH11175692A (ja) * 1997-12-05 1999-07-02 Hitachi Denshi Ltd 関節の動きデータ収集装置
KR20000017755A (ko) * 1999-11-11 2000-04-06 황병익 몸 동작에 대한 데이터 획득 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08235340A (ja) * 1991-12-25 1996-09-13 Hokkaido Prefecture 特定動作骨格画像を含む時系列運動骨格画像作成法
JPH09153151A (ja) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き生成装置
JPH09330424A (ja) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き変換装置
JPH11175692A (ja) * 1997-12-05 1999-07-02 Hitachi Denshi Ltd 関節の動きデータ収集装置
KR19990037933A (ko) * 1999-02-25 1999-05-25 국태용 애니메이션의 다관절체 운동궤적 발생장치
KR20000017755A (ko) * 1999-11-11 2000-04-06 황병익 몸 동작에 대한 데이터 획득 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101094137B1 (ko) * 2004-12-02 2011-12-14 (주)다림시스템 모션캡쳐 장치

Also Published As

Publication number Publication date
KR20010058255A (ko) 2001-07-05

Similar Documents

Publication Publication Date Title
US6734847B1 (en) Method and device for processing imaged objects
US7965304B2 (en) Image processing method and image processing apparatus
JP4434890B2 (ja) 画像合成方法及び装置
JP3148045B2 (ja) 三次元物体cg作成装置
US9135513B2 (en) Image processing apparatus and method for obtaining position and orientation of imaging apparatus
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP6643170B2 (ja) 作業支援システム及び方法
US20160155262A1 (en) Method of constructing 3d clothing model based on a single image
US7782320B2 (en) Information processing method and information processing apparatus
Zollmann et al. Interactive 4D overview and detail visualization in augmented reality
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7182976B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Zhang et al. A multi-regional computation scheme in an AR-assisted in situ CNC simulation environment
Duffin et al. Spiders: a new user interface for rotation and visualization of n-dimensional point sets
KR20110088995A (ko) 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
JPH0997355A (ja) モデリング方法およびモデリングシステム
Mulligan et al. Stereo-based environment scanning for immersive telepresence
JP6364389B2 (ja) 検査方法及び検査システム
KR100362383B1 (ko) 3차원 인터페이스를 채용한 동작 정보 후처리 방법
CN107368188B (zh) 介导现实中的基于多重空间定位的前景抽取方法及系统
Leubner et al. Computer-vision-based human-computer interaction with a back projection wall using arm gestures
US20230267667A1 (en) Immersive analysis environment for human motion data
CN113345104B (zh) 基于vr的盾构管片虚拟拼装方法、系统及数据处理终端
JP3413145B2 (ja) 仮想空間の編集方法及び仮想空間の編集装置
CN113326751A (zh) 一种手部3d关键点的标注方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20071024

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee