KR101717490B1 - 모션을 활용한 퍼포먼스 구현 시스템 및 방법 - Google Patents

모션을 활용한 퍼포먼스 구현 시스템 및 방법 Download PDF

Info

Publication number
KR101717490B1
KR101717490B1 KR1020150037398A KR20150037398A KR101717490B1 KR 101717490 B1 KR101717490 B1 KR 101717490B1 KR 1020150037398 A KR1020150037398 A KR 1020150037398A KR 20150037398 A KR20150037398 A KR 20150037398A KR 101717490 B1 KR101717490 B1 KR 101717490B1
Authority
KR
South Korea
Prior art keywords
input
user
motion
performance
input area
Prior art date
Application number
KR1020150037398A
Other languages
English (en)
Other versions
KR20160113357A (ko
Inventor
최이권
김은진
최인헌
이재중
정현철
Original Assignee
박명자
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박명자 filed Critical 박명자
Priority to KR1020150037398A priority Critical patent/KR101717490B1/ko
Priority to PCT/KR2016/001415 priority patent/WO2016148401A1/ko
Publication of KR20160113357A publication Critical patent/KR20160113357A/ko
Application granted granted Critical
Publication of KR101717490B1 publication Critical patent/KR101717490B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자의 모션을 인식하여 기설정된 퍼포먼스를 구현하는 모션을 활용한 퍼포먼스 구현 시스템 및 방법에 관한 것으로, 더욱 상세하게는, 동작감지장치을 이용하여 특정 입력 영역에서 사용자의 기설정된 모션을 인식하면, 상기 모션에 대응하는 퍼포먼스를 구현하는 모션을 활용한 퍼포먼스 구현 시스템 및 방법에 관한 것으로, 사용자의 움직임과 형태를 인식하는 동작감지장치와; 입력 영역과 상기 입력 영역에 대한 입력 명령을 설정하는 입력영역설정부와; 상기 동작감지장치에 의해 인식된 상기 사용자의 공간 입력을 입력 명령으로 변환하는 입력명령변환부와; 상기 입력명령변환부에 의해 변환된 상기 입력 명령을 실행하는 입력명령실행부와; 상기 입력영역설정부에 의해 설정된 내역을 저장하는 데이터베이스를 포함하여 구성되는 제어장치; 그리고 다양한 퍼포먼스를 실행하는 퍼포먼스실행장치를 포함하여 구성된다. 이와 같은 본 발명에 의하면, 사용자로부터 입력 영역의 모양과 위치 그리고 해당 입력 영역에 대한 모션 입력 시 수행될 입력 명령을 설정받아, 상기 입력 영역에서 사용자의 모션 감지만으로 간단하게 사용자가 원하는 퍼포먼스를 구현할 수 있는 효과가 있다.

Description

모션을 활용한 퍼포먼스 구현 시스템 및 방법 { SYSTEM AND METHOD FOR IMPLEMENTING A PERFORMANCE USING MOTION }
본 발명은 사용자의 모션을 인식하여 기설정된 퍼포먼스를 구현하는 모션을 활용한 퍼포먼스 구현 시스템 및 방법에 관한 것으로, 더욱 상세하게는, 동작감지장치을 이용하여 특정 입력 영역에서 사용자의 기설정된 모션을 인식하면, 상기 모션에 대응하는 퍼포먼스를 구현하는 모션을 활용한 퍼포먼스 구현 시스템 및 방법에 관한 것이며, 한국 콘텐츠진흥원의 2014년도 선정 문화기술 연구개발 지원사업 ‘사용자의 모션에 반응하는 실시간 공연영상 VJ 소프트웨어 개발’ 과제 (수행기간 2014.11.01~2017.03.31)를 수행함에 있어 산출된 결과물에 대한 발명이다.
최근 공연, 전시회 등이 대형화되고 대중화됨에 따라, 이에 이용되는 퍼포먼스의 중요성이 증가되고 있다.
특히, 최근에는 센서기술의 발달과 더불어 사용자의 움직임(모션)을 인식하여 이로부터 사용자 명령을 추출하고 해당 명령에 따른 동작을 수행하는 제어기술이 활발하게 연구되고 있다.
이와 같은 노력의 결과로, 종래기술 대한민국 등록특허 제10-1288590호에는 미리 정해진 모션을 적외선 카메라를 이용하여 감지하고, 이에 따라 사용자가 원하는 이미지 배경이나 영상을 투사하는 적외선 카메라를 이용한 모션 제어 장치 및 방법에 관한 기술이 개발된 바 있다.
그러나, 종래 기술의 경우, 적외선 카메라로 촬영된 영상 중 모션이 감지된 영역을 검출하여 입력 영역이 설정되기 때문에, 사용자가 원하는 모양의 입력 영역을 설정하지 못하는 문제점이 있었다.
또한, 종래 기술에 의한 적외선 카메라를 이용한 모션 제어 장치 및 방법은 사용자가 직접 모션과 모션에 따른 명령을 설정해야 하므로, 사용자의 불편함이 야기되는 문제점이 있었다.
대한민국 등록특허 제10-1288590호
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명은 사용자가 원하는 위치의 입력 영역에 대하여 매칭되는 입력 명령을 설정하고, 동작감지장치로부터 인식된 사용자의 모션에 따라 손쉽게 퍼포먼스를 구현할 수 있는 모션을 활용한 퍼포먼스 구현 시스템 및 방법을 제공하는 것이다.
또한, 본 발명은 동작감지장치로 인식한 사용자의 모션 및 상기 모션 시의 입력 영역 그리고 퍼포먼스 실행 내역을 저장하여, 빈도수가 높은 입력 영역에 대하여 해당 입력 영역에 대한 사용자의 모션 시 입력 명령(퍼포먼스)을 사용자에게 제공하여, 사용자가 편리하게 입력 영역에 대한 퍼포먼스를 설정할 수 있는 모션을 활용한 퍼포먼스 구현 시스템 및 방법을 제공하는 것이다.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면 본 발명은, 사용자의 움직임과 형태를 인식하는 동작감지장치와: 입력 영역과 상기 입력 영역에 대한 입력 명령을 설정하는 입력영역설정부와; 상기 동작감지장치에 의해 인식된 상기 사용자의 공간 입력을 입력 명령으로 변환하는 입력명령변환부와; 상기 입력명령변환부에 의해 변환된 상기 입력 명령을 실행하는 입력명령실행부; 그리고 상기 입력영역설정부에 의해 설정된 내역을 저장하는 데이터베이스를 포함하여 구성되는 제어장치; 및 공연시 제공되는 퍼포먼스를 실행하는 퍼포먼스실행장치들을 포함하여 구성된다.
그리고 상기 입력영역설정부는, 분할된 입력 영역을 사용자에게 제공하고 사용자로부터의 입력에 의해 상기 입력 영역에 대한 입력 명령을 설정하고; 상기 분할된 입력 영역은, 상기 동작감지장치에 의해 인식된 사용자의 신체적 특징에 따라 비례적으로 설정될 수도 있다.
또한, 상기 데이터베이스에는, 사용자의 모션 위치와 실행된 퍼포먼스 효과가 누적되어 저장되고; 상기 입력영역설정부는, 상기 데이터베이스에 저장된 사용자의 모션 위치와 실행된 퍼포먼스효과의 누적 빈도수에 따라 입력 영역 및 입력 명령을 설정할 수도 있다.
그리고 상기 데이터베이스에는, 사용자의 모션 형태와 실행된 퍼포먼스 효과가 누적되어 저장되고; 상기 입력영역설정부는, 상기 데이터베이스에 저장된 사용자의 모션 형태 및 실행된 퍼포먼스 효과의 누적 빈도수에 따라 입력 모션 및 입력 명령을 설정할 수도 있다.
한편, 본 발명은 (A) 동작감지장치가 사용자 모션을 인식하여, 설정된 입력 영역에 대한 사용자의 공간 입력을 인식하는 단계와; (B) 제(A)단계에서 사용자의 모션에 의해 공간 입력이 발생되는 경우, 입력명령변환부가 상기 공간 입력에 따른 입력명령을 생성하는 단계; 그리고 (C) 입력명령실행부가 상기 입력명령을 실행하는 단계를 포함하여 수행되고: 상기 공간 입력은, 상기 입력 영역에서 설정된 사용자의 모션이 감지되는 것인 모션을 활용한 퍼포먼스 구현 방법을 포함한다.
이때, 상기 제(A)단계의 입력 영역 설정은, (A11) 사용자로부터 입력 영역 설정 명령을 수신하는 단계와; (A12) 사용자의 동작을 인식하여 특정 영역을 감지하는 단계; 그리고 (A13) 해당 영역에 대한 입력 명령을 수신하여 입력 영역 설정을 완료하는 단계를 포함하여 수행될 수도 있다.
그리고 상기 제(A)단계의 입력 영역 설정은, (A21) 사용자로부터 입력 영역 설정 명령을 수신하는 단계와; (A22) 공간 분할 영역을 출력하는 단계; 그리고 (A23) 해당 영역에 대한 입력 명령을 수신하여 입력 영역 설정을 완료하는 단계를 포함하여 수행되고: 상기 공간 분할 영역은, 사용자의 신체적 특징을 고려하여 공연 중 공간 입력이 가능한 영역들을 조합하여 생성될 수도 있다.
또한, 상기 제(A)단계의 입력 영역 설정은, (A31) 사용자로부터 입력 영역 설정 명령을 수신하는 단계와; (A32) 입력영역설정부가 데이터베이스에 누적 저장된 사용자 정보로부터 추천 입력 영역과 이에 대한 입력 명령을 산출하여 제공하는 단계; 그리고 (A33) 제공된 상기 추천 입력 영역과 입력 명령에 대하여, 사용자 승인을 통해 입력 영역 설정을 완료하는 단계를 포함하여 수행되고: 상기 사용자 정보는, 사용자 모션 위치와 실행된 퍼포먼스 효과가 누적된 데이터를 포함하며; 상기 추천 입력 영역 및 입력 명령 산출은, 사용자의 모션 위치와 실행된 퍼포먼스 효과의 누적 빈도수에 따라 산출될 수도 있다.
그리고 상기 제(A32)단계에 있어서, (A5) 기설정된 입력 영역과 충돌하는 경우, 빈도 별 우선 순위에 따라 입력 영역을 설정하는 단계를 더 포함하여 수행될 수도 있다.
위에서 살핀 바와 같은 본 발명에 의한 모션을 활용한 퍼포먼스 구현 시스템 및 방법에서는 다음과 같은 효과를 기대할 수 있다.
본 발명은 사용자로부터 입력 영역의 모양과 위치 그리고 해당 입력 영역에 대한 모션 입력 시 수행될 입력 명령을 설정받아, 상기 입력 영역에서 사용자의 모션 감지만으로 간단하게 사용자가 원하는 퍼포먼스를 구현할 수 있는 효과가 있다.
또한, 본 발명은 누적된 사용자의 행동 패턴에 따라, 입력 영역과 상기 입력 영역에 대한 모션 입력 시 수행될 퍼포먼스 내역을 사용자에게 추천, 제공하여 사용자가 입력 영역 및 이에 대한 실행 퍼포먼스를 효율적으로 설정할 수 있는 효과가 있다.
도 1은 종래기술에 의한 적외선 카메라를 이용한 모션제어 장치의 구성을 도시한 블록도.
도 2는 본 발명에 의한 모션을 활용한 퍼포먼스 구현 시스템의 구성을 도시한 블록도.
도 3은 본 발명에 의한 모션을 활용한 퍼포먼스 구현 방법에서 사용자의 동작 인식 후 퍼포먼스를 실행하는 방법을 도시한 흐름도.
도 4는 본 발명에 의해 사용자가 입력 영역과 입력 명령을 설정하는 방법을 도시한 흐름도.
도 5는 본 발명에 의해 사용자에게 입력 영역을 제공하여 입력 영역을 설정하는 방법을 도시한 흐름도.
도 6은 본 발명에 의해 사용자에게 빈도수가 높은 입력 영역과 이에 대응하는 입력 명령을 제공하여 입력 영역을 설정하는 방법을 도시한 흐름도.
도 7a 내지 도 7c는 본 발명에 의해 사용자가 입력 영역을 설정하는 모습을 도시한 예시도.
이하에서는 첨부된 도면을 참조하여 본 발명의 구체적인 실시예에 의한 모션을 활용한 퍼포먼스 구현 시스템 및 방법을 살펴보기로 한다.
먼저, 본 발명에 의한 모션을 활용한 퍼포먼스 구현 시스템의 구성을 설명하기로 한다.
도 2는 본 발명에 의한 모션을 활용한 퍼포먼스 구현 시스템의 구성을 도시한 블록도이다.
도 2에 도시된 바와 같이, 본 발명에 의한 모션을 활용한 퍼포먼스 구현 시스템은 동작감지장치(100), 제어장치(200) 그리고 퍼포먼스실행장치(300)를 포함하여 구성된다.
상기 동작감지장치(100)는 물체의 움직임을 인식할 수 있는 장치로, 기본적으로 움직임뿐만 아니라 물체의 형태를 인식할 수 있도록 구성된다. 따라서 상기 동작감지장치(100)는 사용자의 인체를 인식할 수 있다.
그리고 상기 제어장치(200)는 상기 동작감치장치(100) 그리고 상기 퍼포먼스 실행장치(300)와 연결되어 입력 영역과 입력 명령을 설정하기 위한 장치로, 입력영역설정부(210), 데이터베이스(220), 입력명령변환부(230) 그리고 입력명령실행부(240)를 포함하여 구성된다.
먼저, 상기 입력영역설정부(210)는 사용자의 입력 또는 설정으로 사용자의 모션을 인식할 영역을 설정하는 부분으로, 사용자가 직접 영역을 지정할 수도 있고, 상기 동작감지장치(100)가 인식한 사용자의 모션이 저장된 상기 데이터베이스(220)에서 빈도수가 높은 입력 영역을 제공하여 사용자로부터 설정받을 수 있다. 이에 대하여는, 이하 본 발명의 모션을 활용한 퍼포먼스 구현 방법을 설명함에 있어 상세히 설명하기로 한다.
그리고 상기 입력명령변환부(230)는 입력 영역에서 사용자 모션을 인식하여 기설정된 입력 명령으로 변환함으로써 컴퓨터가 인식할 수 있는 형태로 만드는 부분이고, 상기 입력명령실행부(240)는 상기 입력 명령을 실행하는 부분으로, 상기 입력 명령을 실행하여 퍼포먼스를 구현하는 역할을 한다.
한편, 상기 퍼포먼스실행장치(300)는 다양한 퍼포먼스를 실행하는 장치로, 공연에 사용되는 다양한 퍼포먼스 효과의 실행 명령으로, 예를 들어, 음향의 베이스 강조 효과, 효과음 출력, 스모그 분출 효과 그리고 레이저 효과, 특정 콘텐츠의 디스플레이 출력 등의 시각적이고 청각적인 퍼포먼스를 실행할 수 있다.
이하에서는 본 발명에 의한 모션을 활용한 퍼포먼스 구현 방법에서 사용자의 동작 인식 후 퍼포먼스를 실행하는 방법을 도 3을 참고하여 상세히 설명하도록 한다.
먼저, 사용자의 동작 인식 후 퍼포먼스를 실행하는 방법은 동작감지장치(100)가 사용자를 인식하는 것으로 시작된다(S110).
이후, 상기 동작감지장치(100)는 설정된 입력 영역을 인식하고(S120), 사용자의 모션을 인식하여(S130), 사용자의 모션에 의해 공간 입력이 발생되는지 여부를 감지한다(S140).
이때, 상기 공간 입력이란 상기 입력 영역으로 설정된 특정 영역에 대하여, 사용자의 모션에 감지되는 것을 의미하는 것으로, 예를 들어, 상기 입력 영역에서 사용자의 신체 일부가 감지되는 경우, 공간 입력이 이루어진 것으로 판단 할 수 있다.
한편, 제 140단계의 결과, 상기 공간 입력이 감지되는 경우, 상기 공간 입력을 매칭되는 입력 명령으로 변환하고(S150), 상기 입력 명령을 실행한다(S160).
이하에서는 본 발명에 의한 모션을 활용한 퍼포먼스 구현 방법에서 본 발명에 의해 사용자가 입력 영역과 입력 명령을 설정하는 방법을 도 4를 참고하여 상세히 설명하도록 한다.
먼저, 사용자가 입력 영역과 입력 명령을 설정하는 방법은 사용자로부터 입력 영역 설정 명령을 수신 받는 것으로 시작된다(S210).
이후, 상기 동작감지장치(100)가 사용자의 모션을 인식하여(S220), 사용자의 모션에 의해 특정 영역이 인식되는지 여부를 감지한다(S230).
구체적으로, 상기 제어장치(200)는 입력 영역 설정 모드 상에서 인식된 사용자의 활동성이 큰 부분을 특정하고, 해당 부분의 동작에 의해 형성되는 폐쇄 영역을 인식하여 이를 입력 영역으로 설정할 수 있다.
예를 들어, 도 7a에 도시된 바와 같이, 사용자는 원을 그리는 형태로 팔을 움직여 원형의 특정 영역을 생성할 수 있다.
이때, 사용자의 모션에 의해 특정 영역이 인식되었다면, 상기 특정 영역이 기설정된 입력 영역과 충돌하는지 여부를 검사한다(S240).
이는, 상기 입력 영역이 다수 설정되는 경우, 이들 영역 간의 충돌을 방지하기 위함이다.
상기 제 240단계의 결과, 상기 특정 영역이 기설정된 입력 영역과 충돌하지 않는다면, 해당 영역에 대한 입력 명령을 수신받아 해당 입력 영역에 대한 입력 명령을 매칭하여 저장하고(S250), 입력 영역의 설정이 완료된다(S260).
한편, 상기 입력 명령은 도 7b에 도시된 바와 같이, 공연에 사용되는 다양한 퍼포먼스 효과의 실행 명령으로, 예를 들어, 음향의 베이스 강조 효과, 효과음 출력, 스모그 분출 효과 그리고 레이저 효과, 특정 콘텐츠의 디스플레이 출력 등의 시각적이고 청각적인 효과가 지정될 수 있다.
한편, 제 240단계의 결과, 상기 특정 영역이 기설정된 입력 영역과 충돌하는 경우, 영역을 재입력받거나, 입력 영역을 변경하라는 메시지를 사용자에게 출력하게 된다(S270).
이하에서는 본 발명에 의한 모션을 활용한 퍼포먼스 구현 방법에서 본 발명에 의해 사용자에게 입력 영역을 제공하고, 사용자가 입력 명령을 설정하는 방법을 도 5를 참고하여 상세히 설명하도록 한다.
먼저, 사용자가 입력 영역과 입력 명령을 설정하는 다른 실시예 또한 사용자로부터 입력 영역 설정 명령을 수신 받는 것으로 시작된다(S310).
그리고 상기 입력영역설정부(210)는 사용자에게 공간 분할 영역을 출력한다(S320).
이때, 상기 공간 분할 영역은, 사용자의 신체적 특징을 고려하여 공연 중 자연스럽게 공간 입력이 가능한 영역들을 조합하여 생성된다.
예를 들어, 도 7c에 도시된 바와 같이, 사용자 주위로 입력 영역 지정이 가능한 공간을 분할하여 출력할 수 있다.
이후, 상기 동작감지장치(100)가 제공된 공간 분할 영역 중 한 곳에서 사용자의 모션을 인식하면(S330), 분할 영역에 대한 사용자 모션을 매칭하여(S340), 사용자로부터 분할 영역에 대해 조정을 받는다(S350).
그리고 분할 영역에서의 모션에 대한 입력 명령을 수신하여(S360), 입력 영역 설정을 완료한다(S370).
구체적으로는, 사용자가 공연 위치에서 상기 제어장치(200)와 연결된 디스플레이 화면을 보면서 특정 영역에 대한 공간 입력을 시도하고, 이에 대한 입력 명령을 설정하도록 할 수 있다. 또한, 전술한 과정 중 입력 영역에 대한 조정 과정 등은 선택적으로 수행될 수 있다.
이하에서는 본 발명에 의한 모션을 활용한 퍼포먼스 구현 방법에서 본 발명에 의해 사용자에게 빈도수가 높은 입력 영역과 입력 명령을 제공하여 설정하는 또 다른 실시예를 도 6을 참고하여 상세히 설명하도록 한다.
먼저, 본 발명에 의한 모션을 활용한 퍼포먼스 구현 방법의 또 다른 실시예도 마찬가지로 사용자로부터 입력 영역 설정 명령을 수신받는 것으로 시작된다(S410).
그리고 상기 입력영역설정부(210)는 상기 데이터베이스(220)에 저장된 사용자의 퍼포먼스 정보를 독출하여(S420), 사용자의 모션 위치(형태) 및 입력 명령에 대한 빈도를 산출한다(S430).
이때, 상기 데이터베이스(220)에는 사용자의 기 실시된 실공연 시 모션의 형태 및 위치와 이때 실행된 퍼포먼스 효과가 누적되어 저장된다.
그리고 상기 입력영역설정부(210)는 누적 빈도수가 높은 입력 영역을 특정하고(S440), 상기 입력 영역에 대한 사용자의 공간입력 시 실행된 퍼포먼스들 중 누적 빈도가 높은 퍼포먼스를 매칭하여 사용자에게 제공한다(S450).
이와 같은 경우, 사용자가 의식 또는 무의식적으로 특정 퍼포먼스를 수행 시 행하는 모션의 위치(형태)를 파악하여, 사용자가 동일한 모션을 행할 경우에 특정 퍼포먼스를 수행할 수 있다.
이후, 상기 입력 영역이 기설정된 입력 영역과 충돌하는지 여부를 감지하는데(S460), 만약 기설정된 입력 영역과 충돌하면, 실행 퍼포먼스의 누적 빈도수가 높은 쪽을 우선으로 설정하게 된다(S470).
그리고 기설정된 입력 영역과 충돌하지 않으면, 사용자로부터 수정 명령이 입력되는지 여부를 감지하고(S480), 수정 명령이 입력되었을 경우, 입력 영역 또는 입력 명령을 수정하게 된다(S490).
한편, 수정 명령이 입력되지 않았을 경우에는, 입력 영역 설정을 완료하게 된다(S240).
본 발명의 권리는 이상에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리 범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.
예를 들어, 본 명세서에서는 사용자의 공간 입력에 대하여 입력 명령(퍼포먼스 실행 명령)을 수행하는 것만을 예로 들어 설명하였으나, 같은 원리에 의해 사용자의 모션 입력에 따라 입력 명령을 수행하도록 하는 실시예도 가능하다.
본 발명은 사용자의 모션을 인식하여 기설정된 퍼포먼스를 구현하는 모션을 활용한 퍼포먼스 구현 시스템 및 방법에 관한 것으로, 더욱 상세하게는, 동작감지장치을 이용하여 특정 입력 영역에서 사용자의 기설정된 모션을 인식하면, 상기 모션에 대응하는 퍼포먼스를 구현하는 모션을 활용한 퍼포먼스 구현 시스템 및 방법에 관한 것으로, 본 발명은 사용자로부터 입력 영역의 모양과 위치 그리고 해당 입력 영역에 대한 모션 입력 시 수행될 입력 명령을 설정받아, 상기 입력 영역에서 사용자의 모션 감지만으로 간단하게 사용자가 원하는 퍼포먼스를 구현할 수 있는 효과가 있다.
100 : 동작감지장치 200 : 제어장치
210 : 입력영역설정부 220 : 데이터베이스
230 : 입력명령변환부 240 : 입력명령실행부
300 : 퍼포먼스실행장치

Claims (9)

  1. 사용자의 움직임과 형태를 인식하는 동작감지장치와:
    입력 영역과 상기 입력 영역에 대한 입력 명령을 설정하는 입력영역설정부와;
    상기 동작감지장치에 의해 인식된 상기 사용자의 공간 입력을 입력 명령으로 변환하는 입력명령변환부와;
    상기 입력명령변환부에 의해 변환된 상기 입력 명령을 실행하는 입력명령실행부; 그리고
    상기 입력영역설정부에 의해 설정된 내역을 저장하는 데이터베이스를 포함하여 구성되는 제어장치; 및
    공연시 제공되는 퍼포먼스를 실행하는 퍼포먼스실행장치들을 포함하여 구성되며:
    상기 데이터베이스에는,
    사용자의 모션 위치와 실행된 퍼포먼스 효과가 누적되어 저장되고;
    상기 입력영역설정부는,
    상기 데이터베이스에 저장된 사용자의 모션 위치와 실행된 퍼포먼스효과의 누적 빈도수에 따라 입력 영역 및 입력 명령을 설정함을 특징으로 하는 모션을 활용한 퍼포먼스 구현 시스템.
  2. 사용자의 움직임과 형태를 인식하는 동작감지장치와:
    입력 영역과 상기 입력 영역에 대한 입력 명령을 설정하는 입력영역설정부와;
    상기 동작감지장치에 의해 인식된 상기 사용자의 공간 입력을 입력 명령으로 변환하는 입력명령변환부와;
    상기 입력명령변환부에 의해 변환된 상기 입력 명령을 실행하는 입력명령실행부; 그리고
    상기 입력영역설정부에 의해 설정된 내역을 저장하는 데이터베이스를 포함하여 구성되는 제어장치; 및
    공연시 제공되는 퍼포먼스를 실행하는 퍼포먼스실행장치들을 포함하여 구성되며:
    상기 데이터베이스에는,
    사용자의 모션 형태와 실행된 퍼포먼스 효과가 누적되어 저장되고;
    상기 입력영역설정부는,
    상기 데이터베이스에 저장된 사용자의 모션 형태 및 실행된 퍼포먼스 효과의 누적 빈도수에 따라 입력 모션 및 입력 명령을 설정함을 특징으로 하는 모션을 활용한 퍼포먼스 구현 시스템.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 입력영역설정부는,
    분할된 입력 영역을 사용자에게 제공하고 사용자로부터의 입력에 의해 상기 입력 영역에 대한 입력 명령을 설정하고;
    상기 분할된 입력 영역은,
    상기 동작감지장치에 의해 인식된 사용자의 신체적 특징을 고려하여 공연 중 공간 입력이 가능한 영역 내에서 설정됨을 특징으로 하는 모션을 활용한 퍼포먼스 구현 시스템.
  4. 삭제
  5. (A) 동작감지장치가 사용자 모션을 인식하여, 설정된 입력 영역에 대한 사용자의 공간 입력을 인식하는 단계와;
    (B) 제(A)단계에서 사용자의 모션에 의해 공간 입력이 발생되는 경우, 입력명령변환부가 상기 공간 입력에 따른 입력명령을 생성하는 단계; 그리고
    (C) 입력명령실행부가 상기 입력명령을 실행하는 단계를 포함하여 수행되고:
    상기 공간 입력은,
    상기 입력 영역에서 설정된 사용자의 모션이 감지되며:
    상기 제(A)단계의 입력 영역 설정은,
    (A31) 사용자로부터 입력 영역 설정 명령을 수신하는 단계와;
    (A32) 입력영역설정부가 데이터베이스에 누적 저장된 사용자 정보로부터 추천 입력 영역과 이에 대한 입력 명령을 산출하여 제공하는 단계; 그리고
    (A33) 제공된 상기 추천 입력 영역과 입력 명령에 대하여, 사용자 승인을 통해 입력 영역 설정을 완료하는 단계를 포함하여 수행되고:
    상기 사용자 정보는,
    사용자 모션 위치와 실행된 퍼포먼스 효과가 누적된 데이터를 포함하며;
    상기 추천 입력 영역 및 입력 명령 산출은,
    사용자의 모션 위치와 실행된 퍼포먼스 효과의 누적 빈도수에 따라 산출됨을 특징으로 하는 모션을 활용한 퍼포먼스 구현 방법.
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제 5 항에 있어서,
    상기 제(A32)단계에 있어서,
    (A5) 기설정된 입력 영역과 충돌하는 경우, 빈도 별 우선 순위에 따라 입력 영역을 설정하는 단계를 더 포함하여 수행됨을 특징으로 하는 모션을 활용한 퍼포먼스 구현 방법.
KR1020150037398A 2015-03-18 2015-03-18 모션을 활용한 퍼포먼스 구현 시스템 및 방법 KR101717490B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150037398A KR101717490B1 (ko) 2015-03-18 2015-03-18 모션을 활용한 퍼포먼스 구현 시스템 및 방법
PCT/KR2016/001415 WO2016148401A1 (ko) 2015-03-18 2016-02-12 모션을 활용한 퍼포먼스 구현 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150037398A KR101717490B1 (ko) 2015-03-18 2015-03-18 모션을 활용한 퍼포먼스 구현 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20160113357A KR20160113357A (ko) 2016-09-29
KR101717490B1 true KR101717490B1 (ko) 2017-03-20

Family

ID=56919757

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150037398A KR101717490B1 (ko) 2015-03-18 2015-03-18 모션을 활용한 퍼포먼스 구현 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR101717490B1 (ko)
WO (1) WO2016148401A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102186607B1 (ko) * 2019-05-22 2020-12-03 백향은 증강현실을 통한 발레 공연 시스템 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7809214B2 (en) * 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Device and a method for identifying movement patterns
JP4324236B1 (ja) * 2008-10-31 2009-09-02 ネクストワンクリエイト有限会社 舞台装置及び舞台装置の制御方法
KR20110094679A (ko) * 2010-02-17 2011-08-24 에스이티아이(주) 조명 제어 장치
KR101288590B1 (ko) 2013-02-15 2013-07-22 (주) 엔텍코아 적외선 카메라를 이용한 모션제어 장치 및 방법
KR20140112316A (ko) * 2013-03-13 2014-09-23 모젼스랩(주) 모션인식을 이용한 스마트 디바이스 제어 장치 및 방법

Also Published As

Publication number Publication date
WO2016148401A1 (ko) 2016-09-22
KR20160113357A (ko) 2016-09-29

Similar Documents

Publication Publication Date Title
US10373244B2 (en) System and method for virtual clothes fitting based on video augmented reality in mobile phone
KR101603017B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
TWI467418B (zh) 效率高的姿勢處理方法及電腦程式產品
CN111492426B (zh) 注视启动的语音控制
US20110299737A1 (en) Vision-based hand movement recognition system and method thereof
KR102133728B1 (ko) 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체
KR101534742B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
JP6835218B2 (ja) 群衆状態認識装置、学習方法および学習プログラム
KR101718837B1 (ko) 응용프로그램의 제어방법, 장치 및 전자장비
WO2020135334A1 (zh) 电视应用主题切换方法、电视、可读存储介质及设备
CN107273869B (zh) 手势识别控制方法和电子设备
KR20150106823A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
US20150309583A1 (en) Motion recognizing method through motion prediction
KR101717490B1 (ko) 모션을 활용한 퍼포먼스 구현 시스템 및 방법
CN104065949A (zh) 一种电视虚拟触控方法及系统
US20190204931A1 (en) Sign language inputs to a vehicle user interface
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
JP5694471B2 (ja) 眼探索方法及び該方法を使用した眼状態検出装置と眼探索装置
KR102147930B1 (ko) 포즈 인식 방법 및 장치
WO2015136952A1 (ja) ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
JP2008085491A (ja) 画像処理装置及びその方法
CN114510142B (zh) 基于二维图像的手势识别方法及其系统和电子设备
JP7339604B2 (ja) 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
JP6209067B2 (ja) 画像認識装置、及び画像認識方法
KR20170093300A (ko) 제스쳐 인식을 통한 무대 효과 연출 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant