KR101288590B1 - 적외선 카메라를 이용한 모션제어 장치 및 방법 - Google Patents

적외선 카메라를 이용한 모션제어 장치 및 방법 Download PDF

Info

Publication number
KR101288590B1
KR101288590B1 KR1020130016453A KR20130016453A KR101288590B1 KR 101288590 B1 KR101288590 B1 KR 101288590B1 KR 1020130016453 A KR1020130016453 A KR 1020130016453A KR 20130016453 A KR20130016453 A KR 20130016453A KR 101288590 B1 KR101288590 B1 KR 101288590B1
Authority
KR
South Korea
Prior art keywords
motion
image
setting
infrared camera
unit
Prior art date
Application number
KR1020130016453A
Other languages
English (en)
Inventor
안병주
류벽우
신재호
Original Assignee
(주) 엔텍코아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 엔텍코아 filed Critical (주) 엔텍코아
Priority to KR1020130016453A priority Critical patent/KR101288590B1/ko
Application granted granted Critical
Publication of KR101288590B1 publication Critical patent/KR101288590B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 적외선 카메라를 이용한 모션제어 장치 및 방법에 관한 것으로서, 구체적으로는 휴대용 입력장비를 사용하지 않고 컴퓨터와 인터페이스 하기 위한 기술로, 미리 정해진 모션을 적외선 카메라를 이용하여 감지하고, 이에 따라, 이미지 영상이 상호 반응 하여 사용자가 원하는 이미지 배경이나 영상을 영상 출력 장치를 이용하여 투사하여 다이나믹하고 다양한 비주얼 이미지를 연출할 수 있도록 구현하는 적외선 카메라를 이용한 모션제어 장치 및 방법을 제공한다.

Description

적외선 카메라를 이용한 모션제어 장치 및 방법{APPARATUS AND METHOD FOR MOTION CONTROL USING INFRARED RADIATION CAMERA}
본 발명은 적외선 카메라를 이용한 모션제어 장치 및 방법에 관한 것으로서, 구체적으로는 휴대용 입력장비를 사용하지 않고 컴퓨터와 인터페이스 하기 위한 기술로, 미리 정해진 모션을 적외선 카메라를 이용하여 감지하고, 이에 따라, 이미지 영상이 상호 반응 하여 사용자가 원하는 이미지 배경이나 영상을 영상 출력 장치를 이용하여 투사하여 다이나믹하고 다양한 비주얼 이미지를 연출할 수 있도록 구현하는 적외선 카메라를 이용한 모션제어 장치 및 방법에 관한 것이다.
현재 교육, 훈련, 게임 산업에서 많이 사용되는 3D 입체영상의 구현방법은 터치패드 및 조이스틱을 이용하여 조작되어진 화면을 3D 입체영상으로 소비자에게 시각적으로 표현하는 기술이다.
단안시(單眼視, Monocular Depth Cue)는 후천적인 경험적 학습으로 습득하는 입체감의 인지요인을 말한다. 단안시 요인은 대기원근법, 선형원근법, 진출색과 후퇴색, 사물의 겹침, 텍스쳐 구배, 명암, 운동시차 등 세부적인 여러 요인들로 나뉘게 된다.
대기원근법은 대기의 질감을 통해 가까운 것은 진하게, 멀리 있는 것은 흐리게 표현되면서 얻게 되는 입체감의 요인을 말한다. 동양화에서 공간감을 불어넣기 위해서 흔히 사용하는 농담법 역시 대기원근법에 속한다고 볼 수 있다.
선형원근법은 소실점을 통해 공긴을 기하학적인 형태로 만들어 입체감을 불어넣는 수법이다. 선형원극법은 르네상스 시대의 화가들이 처음 개발하여 사용했으며 기존의 영화나 회화처럼 2D 평면예술이 사람들에게 무의식적으로 입체감을 전달하기 위해서 흔히 쓰는 수법으로 발전되었다.
색을 이용해서도 미세한 입체감의 표현을 쓸 수 있다. 일반적으로 빨간색처럼 따뜻한 계열의 색은 튀어나와 보이는 느낌을, 파란색처럼 차가워 보이는 느낌의 색은 들어가 보이는 느낌을 무의식중에 전달한다고 알려져 있다. 또한 똑같은 색이라 할지라도 명도와 채도가 높아지면 진출, 반대로 낮아지면 후퇴되어 보이는 색으로 인기된다. 또한 사물의 겹침 정도에 따라 입체감이 달라지기도 한다. 다른 주변사물과 많이 겹쳐있어 온전하게 제 모습을 드러내지 못하면 우리는 그 사물이 멀리 있다고 느끼고 반대로 온전하게 제 모습을 드러낼수록 가깝다고 느끼게 된다.
공간이 조밀함 정도에 따라서도 입체감이 달라질 수 있다. 예를 들어 잔디축구장 안에 심어진 잔디를 살펴보면 간격이 넓게 보이는 것은 가깝게, 거의 붙어있는 잔디는 멀리 있는 것처럼 느끼게 된다. 이러한 현상을 전문용어로 '텍스쳐 구배'라고 부른다.
사물에 드리운 빛과 그림자를 통해서도 우리는 입체감을 느낀다. 이를 명암법이라 부른다. 운동시차는 사물의 속도차를 통해서 공간감을 느끼게 되는 원리를 말한다. 우리는 운동시차의 원리를 이용해 똑같은 속도를 지닌 자동차라도 빠르게 지나가는 것은 가깝게, 느리게 이동하는 것은 멀리 있다고 느낀다. 단안시 요인은 이러한 세부요인들로 구성되어 있으며 잘 만들어진 3D 입체영상에는 이러한 단안시 요인들이 효과적으로 연출되어 있다.
최근 각광받고 있는 터치스크린을 통한 제어는 직관적이지만 고가의 비용을 지불해야 하는 터치스크린을 사용해야 하는 비용적인 부담이 있고 직접 터치스크린에 접촉할 수 있는 가까운 거리에서 제어해야 하는 공간적인 제약이 있다.
또한, 체감형 3차원 응용프로그램 및 게임들의 개발과 더불어 그에 적합한 새로운 개념의 제어 장치들이 개발되고 있다. 닌텐도 Wii 게임기는 리모콘을 통해 사용자의 움직임과 이동방향 속도 등을 인지하여 게임을 제어할 수 있다. 이와 같이 키보드나 마우스와 같은 과거의 복잡하고 간접적인 제어 장치에서 단순하면서도 직관적인 모션 처리방법으로 점차 변화하는 추세이다.
한국공개특허 [10-2007-0078828]("사람의 동작에 따라 반응하는 실시간 동영상 제어방법")에서는 사용자의 동작을 그림자 등으로 처리하여 동화상으로 받아들여서 동화상을 분석하여 사용자의 동작을 인식하며, 사용자의 동작에 따라 화면에 보이는 객체를 변화시켜서 마치 사용자가 가상의 세계에서 체험을 하는듯한 효과를 주는 시스템이 개시되어 있다.
한국공개특허 [10-2007-0078828]
따라서, 본 발명은 일반적인 평면 바닥 또는 벽면 등에 영상 출력 장치를 이용하여 스토리 라인 영상을 출력하고, 일정한 공간에서 이루어지는 모션을 감지하여 감지된 모션에 따른 제어를 하기위한 적외선 카메라를 이용한 모션제어 장치 및 방법을 제공함에 있다.
또한, 본 발명은 일차적인 배경화면 영상의 처리기법에 동영상, 사진, 특수효과(음향 등)를 전송하여 동작인식이 감지되지 않는 상황에서도 배경화면이 스토리라인으로 진행될 수 있도록 하기위한 적외선 카메라를 이용한 모션제어 장치 및 방법을 제공함에 있다.
아울러, 본 발명은 적외선 카메라의 반응속도 및 방향성에 따라 검출영역 및 검출된 영상에 대한 해상도 등을 조절할 수 있는 적외선 카메라를 이용한 모션 제어 그 방법을 제공함에 있다.
상기한 바와 같은 문제점을 해결하기 위한 본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 장치에 있어서, 복수개의 영상 출력 공간(7)과 각각 겹쳐지는 모션인식 영역(5)의 영상을 각각 촬영하는 복수개의 적외선 카메라(100); 상기 적외선 카메라(100)로부터 촬영된 영상을 입력받아 최대 검출 좌표를 설정하는 검출영역 설정부(300); 상기 검출영역 설정부(300)로부터 설정된 영역에서 모션(4)을 검출하는 모션 검출부(400); 상기 모션 검출부(400)로부터 검출된 모션을 입력받아 해당 포인트별 모션 좌표 신호를 생성하는 모션처리부(500); 상기 모션처리부(500)로부터 입력된 상기 모션 좌표 신호를 입력받아 모션에 따른 연동영상과 배경영상이 연동되도록 데이터 처리를 수행하는 데이터 처리부(600); 및 상기 데이터 처리부(600)에서 처리된 하나의 영상을 복수개로 분할하여 복수개의 영상 출력 장치(2)를 통하여 하나의 영상으로 이어지도록 출력하는 영상 출력부(700);를 포함하여 구성되는 것을 특징으로 한다.
또한, 상기 모션제어 장치(1000)는 상기 적외선 카메라(100)의 응답신호를 분석하는 응답신호 분석부(200); 및 상기 응답신호 분석부(200)로부터 분석된 결과에 따라 상기 적외선 카메라(100)의 영상 품질을 설정하는 영상품질 설정부(250);를 더 포함하여 구성되는 것을 특징으로 한다.
또, 상기 영상품질 설정부(250)는 상기 적외선 카메라(100)의 밝기, 채도, 명암, 좌우 대칭 및 상하 변경 중 선택되는 적어도 어느 하나를 설정하는 것을 특징으로 한다.
또한, 상기 모션 검출부(400)는 상기 적외선 카메라(100)로부터 촬영된 영상 중 모션을 감지하기 위해 감지레벨을 설정하는 감지레벨 설정부(410); 및 상기 적외선 카메라(100)로부터 촬영된 영상 중 검출된 모션의 좌표 범위를 설정하는 범위 설정부(420);를 포함하여 구성되는 것을 특징으로 한다.
또, 상기 모션처리부(500)는 상기 모션 검출부(400)로부터 검출된 모션을 입력받아, 상기 감지레벨 설정부(410)에서 설정된 감지레벨과 상기 범위 설정부(420)에서 설정된 범위를 적용하여, 모션 좌표 신호로 변환 시키는 것을 특징으로 한다.
또한, 상기 데이터 처리부(600)는 해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 설정하는 동작영상 설정부(610); 배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 설정하는 배경화면 설정부(620); 화면의 구성, 동작인식에 따른 모션 효과, 에니메이션의 구성, 사운드효과 및 동작시간 중 선택되는 적어도 어느 하나를 설정하는 운영프로그램 데이터 설정부(630); 상기 모션처리부(500)로부터 모션 좌표 신호를 입력받아 상기 동작영상 설정부(610)에서 설정된 데이터를 적용하여 해당 포인트별 임펙트를 입체 영상으로 구현하는 동작영상 생성부(640); 및 상기 동작영상 생성부(640)에서 생성된 입체영상을 상기 동작영상 설정부(610), 상기 배경화면 설정부(620) 및 상기 운영프로그램 데이터 설정부(630)에서 설정된 내용을 접목하여 하나의 영상처리를 수행하는 출력 영상 처리부(650);를 포함하여 구성되는 것을 특징으로 한다.
아울러, 상기 영상 출력부(700)는 각각의 영상 출력 장치(2)로부터 보여지는 영상의 화면 모서리 4부분에 대한 교정과 각각의 영상 출력 장치(2) 화면이 겹쳐지는 영상을 보정하는 영상 보정부(710);를 포함하여 구성되는 것을 특징으로 한다.
본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 방법에 있어서, 복수개의 적외선 카메라(100) 및 복수개의 영상 출력 장치(2)를 이용한 모션제어 방법으로서, 스토리 라인 배경 및 출력 환경을 설정하는 환경 설정 단계(S10); 상기 환경 설정 단계(S10)에서 설정된 스토리 라인 배경 영상을 출력하는 스토리 라인 출력 단계(S20); 상기 적외선 카메라(100)로부터 촬영된 영상을 입력받아 최대 검출 좌표를 설정하는 검출 영역 설정 단계(S30); 상기 적외선 카메라(100)로부터 상기 검출 영역 설정 단계(S30)에서 설정된 각각의 검출 영역의 모션을 감지하는 모션 감지 단계(S40); 상기 적외선 카메라(100)로부터 촬영된 영상 중 모션이 감지된 영역을 설정하는 모션 영역 설정 단계(S50); 상기 모션 영역 설정 단계(S50)에서 설정된 모션 영역의 영상을 입력받아 모션 좌표 신호로 변환하는 모션처리 단계(S60); 상기 모션처리 단계(S60)에서 생성된 상기 좌표 데이터를 입력받고, 상기 환경 설정 단계(S10)에서 설정된 값을 입력받아 동작인식에 따른 연동영상과 상기 스토리 라인의 배경 영상 및 효과가 연동되도록 데이터 처리를 수행하는 데이터 처리 단계(S70); 및 상기 데이터 처리 단계(S70)에서 생성된 영상을 복수개의 영상 출력 장치를 통하여 하나의 영상으로 이어지도록 출력하는 영상 출력 단계(S80);를 포함하여 이루어지는 것을 특징으로 한다.
또한, 상기 환경 설정 단계(S10)는 배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 설정하는 배경화면 설정 단계(S11); 해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 설정하는 동작 영상 설정 단계(S12); 및 화면의 구성, 동작인식에 따른 임펙트 효과, 에니메이션의 구성, 사운드효과, 동작시간을 설정하는 운영프로그램 데이터 설정 단계(S13); 를 포함하여 이루어지는 것을 특징으로 한다.
또, 상기 운영프로그램 데이터 설정 단계(S13)에서 상기 에니메이션의 구성은 동작영상 생성부에서 생성된 입체 영상을 나타내기, 사라지기, 밀어내기, 당기기, 닦기 및 회전하기 중 선택되는 적어도 어느 하나인 것을 특징으로 한다.
또한, 상기 검출 영역 설정 단계(S30)는 상기 적외선 카메라(100)의 응답신호를 분석하는 응답신호 분석 단계(S31); 및 상기 응답신호 분석 단계(S31)로부터 분석된 결과에 따라 상기 적외선 카메라(100)의 영상 품질을 설정하는 영상품질 설정 단계(S32);를 포함하여 이루어지는 것을 특징으로 한다.
또, 상기 영상품질 설정 단계(S32)는 상기 적외선 카메라(100)의 밝기, 채도, 명암, 좌우 대칭 및 상하 변경 중 선택되는 적어도 어느 하나를 설정하는 것을 특징으로 한다.
또한, 상기 모션 감지 단계(S40)는 상기 적외선 카메라(100)로부터 촬영된 영상 중 모션을 감지하기 위해 감지레벨을 설정하는 것을 특징으로 한다.
또, 상기 모션 영역 설정 단계(S50)는 상기 적외선 카메라(100)로부터 촬영된 영상 중 검출된 모션의 좌표 범위를 설정하는 것을 특징으로 한다.
또한, 상기 모션처리 단계(S60)는 상기 모션 영역 설정 단계(S50)로부터 설정된 모션이 감지된 영역의 영상을 입력받아, 모션 좌표 신호로 변환 시키는 것을 특징으로 한다.
아울러, 영상 출력 단계(S80)는 각각의 영상 출력 장치(2)로부터 보여지는 영상의 화면 모서리 4부분에 대한 교정과 각각의 영상 출력 장치(2) 화면이 겹쳐지는 영상을 보정하는 것을 특징으로 한다.
본 발명에 의하면, 적외선 카메라를 이용한 모션제어에 대한 개발은 현재까지 개발되고 운영 중인 모션제어의 응용분야 및 연구활동에 많은 기술로 활용될 것이며 적외선 카메라의 영상 기반 모션 인식 방법을 통하여 영상, 게임, 교육, 훈련, 문화 산업의 기술혁신에 중추적인 기반산업으로 자리 잡을 수 있다.
또한, 본 발명은 배경화면 및 적외선 카메라를 이용한 모션제어에 따른 영상처리에 대하여 3D 입체 기술을 융합하여 체험형 컨텐츠와 영상 프로모션 형태로 구현하고 3D 입체영상구현 시 실감나는 액션 및 현장감을 원하는 동시에 어지럼증이나, 안구피로와 같은 부작용을 최소화 할 수 있다.
또, 적외선 카메라를 이용한 모션제어를 이용한 3차원 영상물과 조합 할 수 있는 제품을 개발하여 3D 입체영상물 산업의 수입국가에서 3D 입체산업의 독보적인 기술을 보유하고 있는 수출국가로 탈바꿈 할 수 있다.
또한, 일반 사용자에게 현실감과 몰입감을 주어 편리함과 흥미를 줄 수 있으며, 어린이와 노인에게는 직관적인 제어기기 사용법으로 좀 더 쉽게 장치를 제어할 수 있는 효과가 있다.
아울러, 적외선 카메라를 이용한 모션제어는 특별한 도구를 가지지 않고도 언제 어디서든 사용이 가능하며, 기존에 사용하던 몸의 일상적 움직임을 제어수단으로 그대로 사용하므로 제어기기의 학습에 대한 부담감을 줄여주는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 장치를 도시한 개략도이다.
도 2 내지 도 5는 본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 장치 블럭도이다.
도 6 내지 도 8은 본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 방법 순서도이다.
이하, 본 발명의 바람직한 실시 예에 따른 입체영상 체험 장치 및 방법은 첨부한 도면을 참조하여 상세하게 설명하면 다음과 같다.
도 1은 본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 장치를 도시한 개략도이고, 도 2 내지 도 5는 본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 장치 블록도이며, 도 6 내지 도 8은 본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 방법 순서도이다.
도 1 내지 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 장치는 적외선 카메라(100), 검출영역 설정부(300), 모션 검출부(400), 모션처리부(500), 데이터 처리부(600) 및 영상 출력부(700)를 포함하여 구성된다. 여기서, 검출영역 설정부(300), 모션 검출부(400), 모션처리부(500), 데이터 처리부(600) 및 영상 출력부(700)는 메인컴퓨터(3)에 구성될 수 있다.
적외선 카메라(100)를 이용하는 이유는 적외선(IR) 발광다이오드(LED) 방식 동작인식 센서를 이용하여 기존 카메라보다 획기적으로 원가와 소비전력을 줄일 수 있기 때문이다.
또한, 적외선 카메라(100)를 이용하면 직접 터치 입력을 하지 않아도 원하는 기능을 구현할 수 있기 때문에 사용자 편의성을 강화할 수 있다.
동작인식 센서는 크게 카메라모듈 방식과 적외선 발광다이오드 방식으로 나눌 수 있다.
카메라모듈방식은 센서에 달린 상보성 금속산화막반도체(CMOS) 카메라로 사용자의 움직임을 촬영하고 센서IC가 그 영상을 인식한다. 그러나 카메라가 촬영한 영상을 센서IC로 전송하고 인식하는 데까지 시간이 걸려 인식 감도가 떨어진다. 또한, 다양한 동작을 동시에 처리하기 어렵고 전력 소모량이 많다. 카메라 부품의 원가가 높은 탓에 비용 부담도 크다.
적외선 발광다이오드 방식은 사물에 닿으면 굴절하는 빛의 특성을 이용한 기술이다. 센서가 내보내는 적외선이 사용자의 손이나 사물에 닿아 진행 방향이 바뀌면 센서IC가 이를 인식하여 처리장치로 신호를 보낸다. 신호 처리 과정이 단순한 덕분에 카메라모듈 방식보다 두 배 이상 인식 감도가 빠르다. 마이크로컨트롤러유닛(MCU)이나 고가의 부품이 필요 없어 원가는 카메라모듈방식의 10% 수준에 불과하다. 적외선 LED를 활용하여 화면이나 기기 등을 터치하지 않고 동작인식이 가능하다. 높낮이를 인식해 줌인 줌아웃 및 접근 감도의 세기를 조정하여 다양한 형태의 입력장치로 활용할 수 있다.
적외선 카메라(100)는 복수개의 영상 출력 공간(7)과 각각 겹쳐지는 모션인식 영역(5)의 영상을 각각 촬영하는 복수개로 구성된다.
상기 영상 출력 공간(7)은 스크린, 벽 또는 바닥 등에 구현할 수 있으며 하나의 영상 출력 장치(2)를 이용하여 넓은 공간에 영상을 출력하는 것이 어려우므로 넓은 공간을 복수개로 분할한 복수개의 상기 영상 출력 공간(7)에 복수개의 영상 출력 장치(2)를 이용하여 영상을 출력함으로써 넓은 공간에 출력되는 영상이 하나의 영상으로 이어지도록 구현할 수 있다. 또한, 상기 적외선 카메라(100)는 각각의 상기 영상 출력 공간(7)과 각각 겹쳐지는 모션인식 영역(5)의 영상을 복수개의 상기 적외선 카메라(100)를 이용하여 각각 촬영할 수 있다. 상기 각각의 영상 출력 공간(7)과 각각 겹쳐지는 모션인식 영역(5)을 각각의 적외선 카메라(100)가 담당함으로 보다 디테일한 영상을 촬영할 수 있다.
검출영역 설정부(300)는 상기 적외선 카메라(100)로부터 촬영된 영상을 입력받아 최대 검출 좌표를 설정한다. 예를 들어, 최대 검출 좌표는 X축, Y축, Z축 별로 설정할 수 있다. 여기서 X축, Y축, Z축은 일반적인 직교좌표계의 기준 축을 말한다. 이해를 돕기 위해 직교좌표계를 예로 들었으나, 본 발명이 직교좌표계에 한정되는 것은 아니며 입체적인 좌표를 표시할 수 있는 모든 좌표계의 적용이 가능하다.
모션 검출부(400)는 상기 검출영역 설정부(300)로부터 설정된 영역에서 모션(4)을 검출한다.
도 3에 도시된 바와 같이, 상기 모션 검출부(400)는 감지레벨 설정부(410) 및 범위 설정부(420)를 포함하여 구성될 수 있다.
감지레벨 설정부(410)는 상기 적외선 카메라(100)로부터 촬영된 영상 중 모션을 감지하기 위해 감지레벨을 설정한다. 여기서, 감지레벨 설정부(410)는 상기 모션 검출부(400)의 데이터 감지레벨을 설정하여 불필요한 잡음을 제거함으로써 더욱 디테일한 모션 감지가 가능하게 할 수 있다.
범위 설정부(420)는 상기 적외선 카메라(100)로부터 촬영된 영상 중 검출된 모션의 좌표 범위를 설정한다. 다시 말해, 각각의 적외선 카메라(100)가 촬영한 영상 중 모션이 감지된 영역의 좌표를 각각 설정하여 각각의 모션인식 영역(5)에 대한 동작 인식을 담당하게 할 수 있다.
모션처리부(500)는 상기 모션 검출부(400)로부터 검출된 모션을 입력받아 해당 포인트별 모션 좌표 신호를 생성한다. 다시말해, 인간의 시각기능과 같이 컴퓨터가 인식할 수 있는 특정 물체(인간 등)의 모션의 패턴이나 형태를 통해서 물체(인간 등)를 컴퓨터가 인식할 수 있는 형태(모션 좌표 신호)로 변환한다.
이때, 상기 모션처리부(500)는 상기 모션 검출부(400)로부터 검출된 모션을 입력받아, 상기 감지레벨 설정부(410)에서 설정된 감지레벨과 상기 범위 설정부(420)에서 설정된 범위를 적용하여, 모션 좌표 신호로 변환 시키는 것을 특징으로 할 수 있다.
데이터 처리부(600)는 상기 모션처리부(500)로부터 입력된 상기 모션 좌표 신호를 입력받아 모션에 따른 연동영상과 배경영상이 연동되도록 데이터 처리를 수행한다. 상기 적외선 카메라(100)를 이용한 3차원 실시간 스캐닝/트래킹(추적)을 통해서 사용자의 움직임 그 자체를 입체영상 체험 장치 등에 적용, 카메라에 장착된 적외선 센서(입출력되는 형태)를 통해서 사물에 적외선을 쏘고, 반사되어 돌아오는 값을 통해서 깊이 값(Z축 값)을 가지게 함으로써 3차원적인 처리를 가능하게 할 수 있다. 미래를 그린 영화 등에서 보는 미래의 모습에서 컴퓨터를 자판을 두드리지 않고 손동작으로 자료를 옮기고 기록하는 것을 보았을 것이다. 그리고 현재의 Wii, XBOX 등에서 동작인식으로 게임을 즐기는 모습도 흔히 볼 수 있는 모습이다. 하지만 그것들은 장비와 소프트웨어를 구입해서 설치해야 하는 복잡함, 비용, 공간적인 제약이 있어, 이 기술의 보급화를 가로막는 하나의 장애물로서 받아들여지고 있다. 본 발명은 이러한 문제점을 해결하여, 간단하고 적은 비용으로 모션에 따른 제어가 가능하다.
도 4에 도시된 바와 같이, 상기 데이터 처리부(600)는 동작영상 설정부(610), 배경화면 설정부(620), 운영프로그램 데이터 설정부(630), 동작영상 생성부(640) 및 출력 영상 처리부(650)를 포함하여 구성될 수 있다.
동작영상 설정부(610)는 해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 설정한다.
배경화면 설정부(620)는 배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 설정한다.
운영프로그램 데이터 설정부(630)는 화면의 구성, 동작인식에 따른 모션 효과, 에니메이션의 구성, 사운드효과 및 동작시간 중 선택되는 적어도 어느 하나를 설정한다.
동작영상 생성부(640)는 상기 모션처리부(500)로부터 모션 좌표 신호를 입력받아 상기 동작영상 설정부(610)에서 설정된 데이터를 적용하여 해당 포인트별 임펙트를 입체 영상으로 구현한다.
출력 영상 처리부(650)는 상기 동작영상 생성부(640)에서 생성된 입체영상을 상기 동작영상 설정부(610), 상기 배경화면 설정부(620) 및 상기 운영프로그램 데이터 설정부(630)에서 설정된 내용을 접목하여 하나의 영상처리를 수행한다.
예를 들어, 응용프로그램 등을 통하여 최종 설정된 영역에서 직접적으로 프로그램을 실행 시키고 각각의 설정에 따라 임펙트 및 효과를 발생시킬 수 있으며, 레이어(프레임) 추가 형식으로 하여 트리플을 생성하여도 각각의 화면을 다른 설정 다른 이미지를 추가할 수 있고, 영역지정 또는 화면지정을 통해 원하는 영역에 원하는 반응을 사용자에 취향에 맞게 자유자재로 제작 할 수 있다. 또한, 영상에서 빠질 수 없는 사양이 사운드 효과 인데 배경화면의 설정 또는 각각의 콘텐츠의 설정에 따라 각각의 음향장치에 사운드 효과를 출력 할 수 있다.
아울러, 다양한 콘텐츠를 보다 쉽고 빠르고 다양하게 제작할 수 있으며, 보다 리얼한 3D콘텐츠 제작을 위해 3D게임에서 사용하는 3D엔진을 접목시킬 수 있다.
영상 출력부(700)는 상기 데이터 처리부(600)에서 처리된 하나의 영상을 복수개로 분할하여 복수개의 영상 출력 장치(2)를 통하여 하나의 영상으로 이어지도록 출력한다. 여기서, 상기 영상 출력 장치(2)는 액정디스플레이(LCD), 박막액정디스플레이(TFT-LCD), 플라스마디스플레이(PDP), 엘이디(LED) 디스플레이, 플렉시블(Flexible) 디스플레이, 헤드마운티드 디스플레이(HMD:head mounted display), 모니터, 터치 스크린, 프로젝터, 빔프로젝터 중 선택되는 어느 하나로 구성될 수 있다.
도 5에 도시된 바와 같이, 각각의 영상 출력 장치(2)로부터 보여지는 영상의 화면 모서리 4부분에 대한 교정과 각각의 영상 출력 장치(2) 화면이 겹쳐지는 영상을 보정하는 영상 보정부(710)를 포함하여 구성될 수 있다. 예를 들어, 하드웨어 적으로 프로젝터를 하나 이상으로 구성 시 프로젝터 설치를 아무리 잘 하더라도 프로젝터 화면의 위치나 각도에 따라 화면이 겹치거나 간격이 생기며, 프로젝터 기능으로 보정 하더라도 같은 문제가 발생하는데, 이러한 문제점을 출력 영상을 보정하여 하나의 화면으로 보이도록 최대한 보정 할 수 있다.
다시 말해, 각각의 상기 영상 출력 장치(2)가 담당하는 각각의 상기 영상 출력 공간(7)에 각각의 상기 적외선 카메라(100)를 설치하여 영상 출력 장치(2)의 한 포인트에 동작이 감지되면 해당되는 영상 출력 장치(2)의 영상이 동작인식과 같이 연동되도록 출력할 수 있다.
적외선 카메라(100)를 이용한 모션 인식 기술은 다른 장비 없이 적외선 카메라(100)를 기반으로 간단한 손 움직임 등을 인식하여 페이지 이동과 확대, 축소, 입체영상을 나타내기, 사라지기, 밀어내기, 당기기, 닦기, 회전하기 등이 가능하게 한다. 그리고 저전력, 저사양, 최적화된 환경에서 사용할 수 있기 때문에 적외선 카메라(100)와 연계되어 아주 간편히 적용할 수 있다.
불과 몇 년 전만해도 무언가를 입력한다는 것은 숫자, 키보드, 장비 작동 On/off 버튼 등을 누름으로서 하나의 버튼이 한정된 역할을 하는 제한적인 입력수단으로서 표현이 되었다. 그래서 컴퓨터 같은 다양한 작업을 하는 시스템들은 입력을 하기 위한 엄청나게 많은 수의 버튼이 존재하였다. 하지만 터치 스크린이 개발되면서 수동적인 버튼과 마우스의 기능을 대체하면서 입력수단이 화면 안으로 들어가 화면상 공간의 마찰이 수많은 접점을 낳게 되었다.
즉, 화면과 버튼이 동일 시 되면서 화면상의 한 곳의 좌표가 수많은 역할을 하게 된다. 예를 들어 문자를 쓸 때는 숫자, 한글, 영어 그리고 화면상에서의 클릭이 기존의 키보드나 마우스의 한정된 기능이 아닌 다양한 기능들을 할 수 있게 되는 것이다. 그리고 이러한 2차원 적인 동작 인식 기술은 허공이라는 공간에서 3차원 적인 동작을 가능하게 하여 공간적 제한이 없는 곳에서의 움직임이 제한적인 기능을 할 수 있는 개념이 생성될 수 있다. 그러므로 일정한 공간 안에서 3차원 적인 수많은 좌표를 생성하고, 좌표들을 지나치는 모션이 입력수단을 이용한 입력을 대체 할 수 있다.
도 6에 도시된 바와 같이, 본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 장치는 응답신호 분석부(200) 및 영상품질 설정부(250)를 더 포함하여 구성될 수 있다.
응답신호 분석부(200)는 상기 적외선 카메라(100)의 응답신호를 분석한다.
영상품질 설정부(250)는 상기 응답신호 분석부(200)로부터 분석된 결과에 따라 상기 적외선 카메라(100)의 영상 품질을 설정한다.
이때, 상기 영상품질 설정부(250)는 상기 적외선 카메라(100)의 밝기, 채도, 명암, 좌우 대칭 및 상하 변경 중 선택되는 적어도 어느 하나를 설정하는 것을 특징으로 할 수 있다.
도 7에 도시된 바와 같이, 본 발명의 일 실시예에 따른 적외선 카메라를 이용한 모션제어 방법은 복수개의 적외선 카메라(100) 및 복수개의 영상 출력 장치(2)를 이용한 모션제어 방법으로서, 환경 설정 단계(S10), 스토리 라인 출력 단계(S20), 검출 영역 설정 단계(S30), 모션 감지 단계(S40), 모션 영역 설정 단계(S50), 모션처리 단계(S60), 데이터 처리 단계(S70) 및 영상 출력 단계(S80)를 포함하여 이루어진다.
환경 설정 단계(S10)는 스토리 라인 배경 및 출력 환경을 설정한다.
상기 환경 설정 단계(S10)는 바탕이 되는 스토리 라인 배경 및 출력 환경을 지정해 주며, 사용자가 원하는 배경화면에 원하는 효과를 적용 시킬 수 있다. 적용시킬 수 있는 효과는 화면 전환에 따른 변환효과에서부터 동영상 추가 시 재생시간 시작의 모션, 종료의 모션을 지정할 수 있으며 배경화면 효과에서도 독립적인 효과음을 추가할 수 있다.
도 8에 도시된 바와 같이, 상기 환경 설정 단계(S10)는 배경화면 설정 단계(S11), 동작 영상 설정 단계(S12) 및 운영프로그램 데이터 설정 단계(S13)를 포함하여 이루어질 수 있다.
배경화면 설정 단계(S11)는 배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 설정한다.
동작 영상 설정 단계(S12)는 해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 설정한다.
운영프로그램 데이터 설정 단계(S13)는 화면의 구성, 동작인식에 따른 임펙트 효과, 에니메이션의 구성, 사운드효과, 동작시간을 설정한다.
여기서, 상기 운영프로그램 데이터 설정 단계(S13)에서 상기 에니메이션의 구성은 동작영상 생성부에서 생성된 입체 영상을 나타내기, 사라지기, 밀어내기, 당기기, 닦기 및 회전하기 중 선택되는 적어도 어느 하나인 것을 특징으로 할 수 있다.
나타내기는 미리 결정된 나타내기 모션이 감지되면 화면의 이미지 혹은 동영상 등을 나타내줌으로써 사용자의 설정에 따른 크기, 개수, 효과, 사운드 등의 설정에 따라 다양한 반응을 나타낼 수 있게 한다.
사라지기는 나타내기와의 반대로 미리 결정된 사라지기기 모션이 감지되면 영상에 존재 하는 화면의 이미지 혹은 동영상을 화면에서 없어지는 효과를 줌으로써 사라지는 효과의 시간, 순서, 사운드 등의 효과를 적용 할 수 있다.
밀어내기는 미리 결정된 밀어내기 모션이 감지되면 다른 임의 방향 또는 설정에 따른 방향으로 밀리게 되는 효과로서 선형 또는 임의 효과 등의 설정을 할 수 있으며, 영상에 간섭이 없을 시에도 고정, 선형 등의 움직임을 설정 할 수 있다. 또한, 콘텐츠의 힘과 저항을 조 함에 따라 어떠한 반응이 연속 적으로 들어오는지에 따라서 효과가 나타는 설정도 가능하며 효과 후 복귀 하는 시간 등의 다양한 설정을 함에 따라서 다양한 임펙트를 얻을 수 있다.
당기기는 밀어내기의 반대 효과로, 미리 결정된 당기기 모션이 감지되면 설정되어 있는 콘텐츠들이 모이는 효과이다. 이 효과 역시 여러 가지 효과를 다르게 설정함에 따라 다양한 임팩트 효과가 가능 하며, 밀기 효과와 같이 힘과 저항을 설정하여 모이는 반응을 조절 할 수 있다.
닦기는 미리 결정된 닦기 모션이 감지되면 화면의 이미지 혹은 동영상 등을 닦아내는 효과를 주며 사라지게 하며, 사용자의 설정에 따라 다양한 임팩트 효과가 가능 하며, 밀기 효과와 같이 힘과 저항을 설정하여 닦이는 반응을 조절 할 수 있다.
회전하기는 미리 결정된 회전하기 모션이 감지되면 화면의 이미지 혹은 동영상 등을 회전시키는 효과를 주며, 사용자의 설정에 따라 다양한 임팩트 효과가 가능 하며, 밀기 효과와 같이 힘과 저항을 설정하여 회전하는 반응을 조절 할 수 있다.
스토리 라인 출력 단계(S20)는 상기 환경 설정 단계(S10)에서 설정된 스토리 라인 배경 영상을 출력한다.
검출 영역 설정 단계(S30) 상기 적외선 카메라(100)로부터 촬영된 영상을 입력받아 최대 검출 좌표를 설정한다.
도 9에 도시된 바와 같이, 상기 검출 영역 설정 단계(S30)는 응답신호 분석 단계(S31) 및 영상품질 설정 단계(S32)를 포함하여 이루어질 수 있다.
응답신호 분석 단계(S31)는 상기 적외선 카메라(100)의 응답신호를 분석한다.
영상품질 설정 단계(S32)는 상기 응답신호 분석 단계(S31)로부터 분석된 결과에 따라 상기 적외선 카메라(100)의 영상 품질을 설정한다.
여기서, 상기 영상품질 설정 단계(S32)는 상기 적외선 카메라(100)의 밝기, 채도, 명암, 좌우 대칭 및 상하 변경 중 선택되는 적어도 어느 하나를 설정하는 것을 특징으로 할 수 있다.
모션 감지 단계(S40)는 상기 적외선 카메라(100)로부터 상기 검출 영역 설정 단계(S30)에서 설정된 각각의 검출 영역의 모션을 감지한다.
이때, 상기 모션 감지 단계(S40)는 상기 적외선 카메라(100)로부터 촬영된 영상 중 모션을 감지하기 위해 감지레벨을 설정하는 것을 특징으로 할 수 있다.
모션 영역 설정 단계(S50)는 상기 적외선 카메라(100)로부터 촬영된 영상 중 모션이 감지된 영역을 설정한다.
이때, 상기 모션 영역 설정 단계(S50)는 상기 적외선 카메라(100)로부터 촬영된 영상 중 검출된 모션의 좌표 범위를 설정하는 것을 특징으로 할 수 있다.
모션처리 단계(S60)는 상기 모션 영역 설정 단계(S50)에서 설정된 모션 영역의 영상을 입력받아 모션 좌표 신호로 변환한다.
이때, 상기 모션처리 단계(S60)는 상기 모션 영역 설정 단계(S50)로부터 설정된 모션이 감지된 영역의 영상을 입력받아, 모션 좌표 신호로 변환 시키는 것을 특징으로 할 수 있다.
데이터 처리 단계(S70)는 상기 모션처리 단계(S60)에서 생성된 상기 좌표 데이터를 입력받고, 상기 환경 설정 단계(S10)에서 설정된 값을 입력받아 동작인식에 따른 연동영상과 상기 스토리 라인의 배경 영상 및 효과가 연동되도록 데이터 처리를 수행한다.
스케줄러 기능으로 응용프로그램을 통해 생성된 하나의 프로젝트를 실행 파일로 만들어서 사용자가 실제로 실행하는 프로그램으로 기존 외국 프로그램은 여러 종류의 프로젝트 실행파일이 있을 때 각 실행파일 마다 실행 지연시간이 길었는데 이러한 문제를 보완하고 개선하여 실행파일간 지연 시간을 최소화 하여 개발하고 탭 기능을 사용하여 사용용도에 따라 실행파일 실행 순서를 다양하게 지정하고 실행 할 수 있도록 설계 하였다.
위와 같이 각각의 실행 파일을 하나하나 선택하여 실행하는 것도 가능하지만 응용프로그램의 가장 큰 장점은 실행파일을 리스트 형식으로 정리 하여 시작 시간과 종료 시간을 정하고 순서에 맞추어 동작을 할 수 있어 시간관리 및 순서관리 편의성을 두었고 또한 스케줄러 실행 시 적외선카메라 모션제어 프로그램이 자동 실행되어 동작인식카메라 설정도 동시에 할 수 있다.
영상 출력 단계(S80)는 상기 데이터 처리 단계(S70)에서 생성된 영상을 복수개의 영상 출력 장치를 통하여 하나의 영상으로 이어지도록 출력한다.
이때, 영상 출력 단계(S80)는 각각의 영상 출력 장치(2)로부터 보여지는 영상의 화면 모서리 4부분에 대한 교정과 각각의 영상 출력 장치(2) 화면이 겹쳐지는 영상을 보정하는 것을 특징으로 할 수 있다.
다시 말하자면, 환경 설정 단계(S10)에서 설정한 배경화면 영상이 스토리 라인으로 출력(S20)되며, 검출 영역 설정 단계(S30)에서 설정된 영역을 각각의 적외선 카메라(100)가 촬영하고, 촬영된 영상 중 모션이 감지된 영역을 감지(S40)하여, 감지된 영역을 설정(S50)하고, 설정된 영역의 영상을 모션 좌표 신호로 변환(S60)하며, 해당 모션에 따라 출력 영상 데이터를 생성하고(S70), 생성된 영상을 복수개의 영상 출력 장치를 통하여 하나의 영상으로 이어지도록 출력(S80)한다.
이에 따라, 배경영상, 동작인식영상, 동작인식 효과, 사운드, 동영상재생, 화면전환의 기능을 설정하여 동작인식에 따른 입체영상을 체험할 수 있고 배경화면과 영상화면을 수정 편집하여 현장에 맞는 3D 입체영상 컨텐츠를 실행할 수 있다.
대부분의 과학적 기술은 복잡한 환경에서 보다 편해지기 위한 진보를 한다. 터치를 통한 입력도 버튼의 순서적인 과정과 쓰는 방법의 불편함에 벗어나기 위해서 터치스크린을 통해 보다 직관적인 입력방식을 택한 결과이다. 또한, 정보의 바다인 인터넷의 발달과 스마트폰의 탄생에서 버튼으로 조작하기에는 너무나도 복잡하여, 한 화면 안에서 보는 정보를 보고, 누르고, 전송하는 등의 입력을 보다 편리하고 직관적으로 하기 위한 것이다.
이제는 터치 스크린의 제한적인 환경을 극복하고 더욱 직관적이고 간편한 입력 기술이 필요하며, 이를 해결할 수 있는 기술이 모션인식을 통한 제어기술이며, 본 발명에 따른 적외선 카메라(100)를 이용한 모션제어 장치 및 방법으로 접점이 아닌 허공에서의 동작(모션)으로 다른 입력수단을 대체하여 사용자들에게 더욱 단순하고 직관적인 환경을 제공하기 위함이다.
본 발명에 따른 적외선 카메라를 이용한 모션제어 장치 및 방법은 아주 단순한 원리로 몇 가지의 모션 인식 기능만을 적용 할 수 있다. 예를 들어, 영상을 나타내기, 사라지기, 밀어내기, 당기기, 닦기 및 회전하기 등을 제어하기 위한 각각의 모션을 미리 결정하고, 해당 모션이 감지되면 해당 기능이 수행되도록 구성할 수 있다.
이제, 사람들은 획기적인 기술이 아닌 최대한 단순하고 접근하기 쉬운 기술을 원하고 있다. 앞으로의 기술들도 사람들에게 또 다른 복잡함을 주는 것이 아닌 단순하게 이용할 수 있는 기술들이 필요하며 본 발명은 그러한 용구를 충족시켜줄 수 있다.
본 발명은 상기한 실시예에 한정되지 아니하며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.
2 : 영상 출력 장치 3 : 메인컴퓨터
4 : 모션 5 : 모션인식 영역
7 : 영상 출력 공간
100: 적외선 카메라 200: 응답신호 분석부
250: 영상품질 설정부 300: 검출영역 설정부
400: 모션 검출부 410: 감지레벨 설정부
420: 범위 설정부 500: 모션 처리부
600: 데이터 처리부 610: 동작영상 설정부
620: 배경화면 설정부 630: 운영프로그램 데이터 설정부
640: 동작영상 생성부 650: 출력영상 처리부
700: 영상 출력부 710: 영상 보정부
1000: 모션제어 장치
S10: 환경 설정 단계 S11: 배경화면 설정 단계
S12: 동작영상 설정 단계 S13: 운영프로그램 데이터 설정
S20: 스토리 라인 출력 단계 S30: 검출 영역 설정 단계
S31: 응답신호 분석 단계 S32: 영상품질 설정 단계
S40: 모션 감지 단계 S50: 모션 영역 설정 단계
S60: 모션 처리 단계 S70: 데이터 처리 단계
S80: 영상 출력 단계

Claims (16)

  1. 복수개의 영상 출력 공간(7)과 각각 겹쳐지는 모션인식 영역(5)의 영상을 각각 촬영하는 복수개의 적외선 카메라(100);
    상기 적외선 카메라(100)의 응답신호를 분석하는 응답신호 분석부(200);
    상기 응답신호 분석부(200)로부터 분석된 결과에 따라 상기 적외선 카메라(100)의 영상 품질을 설정하는 영상품질 설정부(250);
    상기 적외선 카메라(100)로부터 촬영된 영상을 입력받아 최대 검출 좌표를 설정하는 검출영역 설정부(300);
    상기 검출영역 설정부(300)로부터 설정된 영역에서 모션(4)을 검출하는 모션 검출부(400);
    상기 모션 검출부(400)로부터 검출된 모션을 입력받아 해당 포인트별 모션 좌표 신호를 생성하는 모션처리부(500);
    상기 모션처리부(500)로부터 입력된 상기 모션 좌표 신호를 입력받아 모션에 따른 연동영상과 배경영상이 연동되도록 데이터 처리를 수행하는 데이터 처리부(600); 및
    상기 데이터 처리부(600)에서 처리된 하나의 영상을 복수개로 분할하여 복수개의 영상 출력 장치(2)를 통하여 하나의 영상으로 이어지도록 출력하는 영상 출력부(700);
    를 포함하여 구성되며,
    상기 영상품질 설정부(250)는
    상기 적외선 카메라(100)의 밝기, 채도, 명암, 좌우 대칭 및 상하 변경 중 선택되는 적어도 어느 하나를 설정하는 것을 특징으로 하고,
    상기 모션 검출부(400)는
    상기 적외선 카메라(100)로부터 촬영된 영상 중 모션을 감지하기 위해 감지레벨을 설정하는 감지레벨 설정부(410); 및
    상기 적외선 카메라(100)로부터 촬영된 영상 중 검출된 모션의 좌표 범위를 설정하는 범위 설정부(420);
    를 포함하여 구성되는 것을 특징으로 하는 적외선 카메라를 이용한 모션제어 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제 1항에 있어서, 상기 모션처리부(500)는
    상기 모션 검출부(400)로부터 검출된 모션을 입력받아, 상기 감지레벨 설정부(410)에서 설정된 감지레벨과 상기 범위 설정부(420)에서 설정된 범위를 적용하여, 모션 좌표 신호로 변환 시키는 것을 특징으로 하는 적외선 카메라를 이용한 모션제어 장치.
  6. 제 1항에 있어서, 상기 데이터 처리부(600)는
    해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 설정하는 동작영상 설정부(610);
    배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 설정하는 배경화면 설정부(620);
    화면의 구성, 동작인식에 따른 모션 효과, 에니메이션의 구성, 사운드효과 및 동작시간 중 선택되는 적어도 어느 하나를 설정하는 운영프로그램 데이터 설정부(630);
    상기 모션처리부(500)로부터 모션 좌표 신호를 입력받아 상기 동작영상 설정부(610)에서 설정된 데이터를 적용하여 해당 포인트별 임펙트를 입체 영상으로 구현하는 동작영상 생성부(640); 및
    상기 동작영상 생성부(640)에서 생성된 입체영상을 상기 동작영상 설정부(610), 상기 배경화면 설정부(620) 및 상기 운영프로그램 데이터 설정부(630)에서 설정된 내용을 접목하여 하나의 영상처리를 수행하는 출력 영상 처리부(650);
    를 포함하여 구성되는 것을 특징으로 하는 적외선 카메라를 이용한 모션제어 장치.
  7. 제 1항에 있어서, 상기 영상 출력부(700)는
    각각의 영상 출력 장치(2)로부터 보여지는 영상의 화면 모서리 4부분에 대한 교정과 각각의 영상 출력 장치(2) 화면이 겹쳐지는 영상을 보정하는 영상 보정부(710);
    를 포함하여 구성되는 것을 특징으로 하는 적외선 카메라를 이용한 모션제어 장치.
  8. 복수개의 적외선 카메라(100) 및 복수개의 영상 출력 장치(2)를 이용한 모션제어 방법으로서,
    스토리 라인 배경 및 출력 환경을 설정하는 환경 설정 단계(S10);
    상기 환경 설정 단계(S10)에서 설정된 스토리 라인 배경 영상을 출력하는 스토리 라인 출력 단계(S20);
    상기 적외선 카메라(100)로부터 촬영된 영상을 입력받아 최대 검출 좌표를 설정하는 검출 영역 설정 단계(S30);
    상기 적외선 카메라(100)로부터 상기 검출 영역 설정 단계(S30)에서 설정된 각각의 검출 영역의 모션을 감지하는 모션 감지 단계(S40);
    상기 적외선 카메라(100)로부터 촬영된 영상 중 모션이 감지된 영역을 설정하는 모션 영역 설정 단계(S50);
    상기 모션 영역 설정 단계(S50)에서 설정된 모션 영역의 영상을 입력받아 모션 좌표 신호로 변환하는 모션처리 단계(S60);
    상기 모션처리 단계(S60)에서 생성된 상기 좌표 데이터를 입력받고, 상기 환경 설정 단계(S10)에서 설정된 값을 입력받아 동작인식에 따른 연동영상과 상기 스토리 라인의 배경 영상 및 효과가 연동되도록 데이터 처리를 수행하는 데이터 처리 단계(S70); 및
    상기 데이터 처리 단계(S70)에서 생성된 영상을 복수개의 영상 출력 장치를 통하여 하나의 영상으로 이어지도록 출력하는 영상 출력 단계(S80);
    를 포함하여 이루어지며,
    상기 검출 영역 설정 단계(S30)는
    상기 적외선 카메라(100)의 응답신호를 분석하는 응답신호 분석 단계(S31); 및
    상기 응답신호 분석 단계(S31)로부터 분석된 결과에 따라 상기 적외선 카메라(100)의 영상 품질을 설정하는 영상품질 설정 단계(S32);
    를 포함하여 이루어지고,
    상기 영상품질 설정 단계(S32)는
    상기 적외선 카메라(100)의 밝기, 채도, 명암, 좌우 대칭 및 상하 변경 중 선택되는 적어도 어느 하나를 설정하는 것을 특징으로 하며,
    상기 모션 감지 단계(S40)는
    상기 적외선 카메라(100)로부터 촬영된 영상 중 모션을 감지하기 위해 감지레벨을 설정하는 것을 특징으로 하고,
    상기 모션 영역 설정 단계(S50)는
    상기 적외선 카메라(100)로부터 촬영된 영상 중 검출된 모션의 좌표 범위를 설정하는 것을 특징으로 하는 적외선 카메라를 이용한 모션제어 방법.
  9. 제 8항에 있어서, 상기 환경 설정 단계(S10)는
    배경화면, 동영상, 사진 및 특수효과 중 선택되는 적어도 어느 하나를 설정하는 배경화면 설정 단계(S11);
    해상도, 화면 변경, 임펙트 조절 중 선택되는 적어도 어느 하나를 설정하는 동작영상 설정 단계(S12); 및
    화면의 구성, 동작인식에 따른 임펙트 효과, 에니메이션의 구성, 사운드효과, 동작시간을 설정하는 운영프로그램 데이터 설정 단계(S13);
    를 포함하여 이루어지는 것을 특징으로 하는 적외선 카메라를 이용한 모션제어 방법.
  10. 제 9항에 있어서, 상기 운영프로그램 데이터 설정 단계(S13)에서 상기 에니메이션의 구성은
    동작영상 생성부에서 생성된 입체 영상을 나타내기, 사라지기, 밀어내기, 당기기, 닦기 및 회전하기 중 선택되는 적어도 어느 하나인 것을 특징으로 하는 적외선 카메라를 이용한 모션제어 방법.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 제 8항에 있어서, 상기 모션처리 단계(S60)는
    상기 모션 영역 설정 단계(S50)로부터 설정된 모션이 감지된 영역의 영상을 입력받아, 모션 좌표 신호로 변환 시키는 것을 특징으로 하는 적외선 카메라를 이용한 모션제어 방법.
  16. 제 8항에 있어서, 영상 출력 단계(S80)는
    각각의 영상 출력 장치(2)로부터 보여지는 영상의 화면 모서리 4부분에 대한 교정과 각각의 영상 출력 장치(2) 화면이 겹쳐지는 영상을 보정하는 것을 특징으로 하는 적외선 카메라를 이용한 모션제어 방법.
KR1020130016453A 2013-02-15 2013-02-15 적외선 카메라를 이용한 모션제어 장치 및 방법 KR101288590B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130016453A KR101288590B1 (ko) 2013-02-15 2013-02-15 적외선 카메라를 이용한 모션제어 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130016453A KR101288590B1 (ko) 2013-02-15 2013-02-15 적외선 카메라를 이용한 모션제어 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101288590B1 true KR101288590B1 (ko) 2013-07-22

Family

ID=48997840

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130016453A KR101288590B1 (ko) 2013-02-15 2013-02-15 적외선 카메라를 이용한 모션제어 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101288590B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016148401A1 (ko) * 2015-03-18 2016-09-22 모젼스랩 주식회사 모션을 활용한 퍼포먼스 구현 시스템 및 방법
KR20160132683A (ko) 2015-05-11 2016-11-21 (주)젠트정보기술 모션 인식 및 특수 효과 제어기술을 이용한 체감형 게임 콘텐츠 제공 시스템
KR20160140235A (ko) 2015-05-29 2016-12-07 모젼스랩(주) 모션 인식을 활용한 영상 매핑 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100742664B1 (ko) 2006-05-10 2007-07-25 주식회사 플러 인터랙티브 영상의 디스플레이 시스템 및 방법
KR200448452Y1 (ko) 2009-08-18 2010-04-13 (주)디스트릭트홀딩스 제스쳐를 이용한 홀로그램 프레젠테이션 장치
KR20120066120A (ko) * 2010-12-14 2012-06-22 전자부품연구원 홀로그램 기반 가상 모델링 작업 시스템
KR101177793B1 (ko) * 2012-04-18 2012-08-30 (주) 엔텍코아 입체영상 체험 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100742664B1 (ko) 2006-05-10 2007-07-25 주식회사 플러 인터랙티브 영상의 디스플레이 시스템 및 방법
KR200448452Y1 (ko) 2009-08-18 2010-04-13 (주)디스트릭트홀딩스 제스쳐를 이용한 홀로그램 프레젠테이션 장치
KR20120066120A (ko) * 2010-12-14 2012-06-22 전자부품연구원 홀로그램 기반 가상 모델링 작업 시스템
KR101177793B1 (ko) * 2012-04-18 2012-08-30 (주) 엔텍코아 입체영상 체험 장치 및 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016148401A1 (ko) * 2015-03-18 2016-09-22 모젼스랩 주식회사 모션을 활용한 퍼포먼스 구현 시스템 및 방법
KR20160113357A (ko) 2015-03-18 2016-09-29 모젼스랩(주) 모션을 활용한 퍼포먼스 구현 시스템 및 방법
KR20160132683A (ko) 2015-05-11 2016-11-21 (주)젠트정보기술 모션 인식 및 특수 효과 제어기술을 이용한 체감형 게임 콘텐츠 제공 시스템
KR101794233B1 (ko) * 2015-05-11 2017-11-07 (주)젠트정보기술 모션 인식 및 특수 효과 제어기술을 이용한 체감형 게임 콘텐츠 제공 시스템
KR20160140235A (ko) 2015-05-29 2016-12-07 모젼스랩(주) 모션 인식을 활용한 영상 매핑 방법

Similar Documents

Publication Publication Date Title
US9939914B2 (en) System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9619105B1 (en) Systems and methods for gesture based interaction with viewpoint dependent user interfaces
US9787943B2 (en) Natural user interface having video conference controls
KR101171660B1 (ko) 증강현실의 포인팅 장치
Zhang et al. Visual panel: virtual mouse, keyboard and 3D controller with an ordinary piece of paper
US8890812B2 (en) Graphical user interface adjusting to a change of user's disposition
US8957856B2 (en) Systems, methods, and apparatuses for spatial input associated with a display
US9247236B2 (en) Display with built in 3D sensing capability and gesture control of TV
CN110825245A (zh) 具有广泛使用性的三维图形用户界面的系统及方法
KR101815020B1 (ko) 인터페이스 제어 장치 및 방법
KR101890459B1 (ko) 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템
US20110304632A1 (en) Interacting with user interface via avatar
US20120287044A1 (en) Processing of gesture-based user interactions using volumetric zones
TW201539305A (zh) 使用姿勢控制基於計算的裝置
WO2015034973A1 (en) Dynamic displays based on user interaction states
TW201104494A (en) Stereoscopic image interactive system
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
TW201214266A (en) Three dimensional user interface effects on a display by using properties of motion
Valkov et al. Touching Floating Objects in Projection-based Virtual Reality Environments.
US8462110B2 (en) User input by pointing
Zhang et al. Low-cost interactive whiteboard using the Kinect
US20150049021A1 (en) Three-dimensional pointing using one camera and three aligned lights
KR101288590B1 (ko) 적외선 카메라를 이용한 모션제어 장치 및 방법
TW201016275A (en) Image system for adjusting displaying angle by detecting human face and visual simulation control apparatus thereof
KR101177793B1 (ko) 입체영상 체험 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170529

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180607

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190516

Year of fee payment: 7