KR101564259B1 - 비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법 - Google Patents

비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법 Download PDF

Info

Publication number
KR101564259B1
KR101564259B1 KR1020140033628A KR20140033628A KR101564259B1 KR 101564259 B1 KR101564259 B1 KR 101564259B1 KR 1020140033628 A KR1020140033628 A KR 1020140033628A KR 20140033628 A KR20140033628 A KR 20140033628A KR 101564259 B1 KR101564259 B1 KR 101564259B1
Authority
KR
South Korea
Prior art keywords
gesture
motion vector
vector
image
feature
Prior art date
Application number
KR1020140033628A
Other languages
English (en)
Other versions
KR20150109965A (ko
Inventor
이엔거로 프라샨
차우두리 숩하시스
김계영
박영재
Original Assignee
숭실대학교산학협력단
인디언 인스티튜트 오브 테크놀러지 봄베이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단, 인디언 인스티튜트 오브 테크놀러지 봄베이 filed Critical 숭실대학교산학협력단
Priority to KR1020140033628A priority Critical patent/KR101564259B1/ko
Publication of KR20150109965A publication Critical patent/KR20150109965A/ko
Application granted granted Critical
Publication of KR101564259B1 publication Critical patent/KR101564259B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

영상 적응적인 방법으로 제스처를 추출하고, 고속 영상처리 알고리즘을 이용하여 제스처의 시작 및 종료 시점을 감지하는 비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법을 개시한다.
이동 단말은 제스처가 포함된 영상을 수집하는 카메라부 및 카메라부를 통해 수집되는 영상으로부터 제스처를 학습하는 학습 모드와, 카메라부를 통해 수집되는 영상으로부터 제스처를 인식하여 매칭되는 기능을 수행하는 동작 모드 중 적어도 하나의 모드에 따라 동작하며, 학습 모드에서 제스처를 특징 벡터로 코드화시켜 저장하며, 특징 벡터는 제스처의 강도 정보 및 방향 정보를 모두 포함하여 코드화하는 제어부를 포함하므로, 보다 효율적으로 제스처를 학습, 저장 및 인식할 수 있다.

Description

비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법{Mobile Apparatus for Providing Touch-Free Interface and Control Method Thereof}
제스처를 이용한 인터페이스를 제공하는 이동 단말 및 그 방법에 관한 것이다.
최근에 스마트폰 또는 태블릿 PC 등의 이동 단말이 소비자들에게 큰 인기를 얻고 있다. 아울러, 이동 단말을 이용하는 어플리케이션의 개발도 활발하게 진행되고 있다. 이러한 이동 단말은 주로 터치스크린을 포함하고 있으며, 사용자는 터치스크린을 통해 이동 단말을 조작할 수 있다.
이러한, 이동 단말은 일반적인 입력 수단으로 키패드, 터치스크린, 조이스틱 또는 스크롤 휠 등을 제공하고 있다. 이를 통해 사용자는 이동 단말의 조작에 필요한 신호를 입력하거나 이동 단말에서 제공하는 서비스를 이용하기 위한 각종 정보를 입력할 수 있다. 또한, 이동 단말은 앞면이나 측면에 구비된 버튼들, 키 패드의 특징 버튼 또는 스타일러스 펜 등을 사용자가 이용할 수 있도록 사용자 인터페이스를 제공한다.
최근에는 이동 단말을 개성적으로 사용하고자 하는 사용자가 증가하면서, 다양한 입력 수단을 제공할 수 있는 이동 단말이 요구되고 있다. 이와 함께, 이동 단말은 기존의 지정된 입력 수단 이외에도 사용자의 개성을 살릴 수 있고, 사용자에게 입력 조작의 즐거움과 편리함을 동시에 제공할 수 있는 사용자 인터페이스가 필요하게 되었다.
하지만, 종래의 단말기는 카메라부를 통해 제스터를 캡처하여 사용자의 제스처 형태를 인식하였고, 이는 단순한 정지상태의 제스처를 인식하는 것이기 때문에 제스처 인식률이 저하되는 문제가 있다.
본 발명의 일측면은 영상 적응적인 방법으로 제스처를 추출하고, 고속 영상처리 알고리즘을 이용하여 제스처의 시작 및 종료 시점을 감지하는 비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법을 제공한다.
이를 위한 본 발명의 일측면에 의한 비접촉 방식의 인터페이스를 제공하는 이동 단말은 제스처가 포함된 영상을 수집하는 카메라부; 및 학습 모드에서 상기 카메라부를 통해 수집되는 영상으로부터 제스처를 학습하는 학습 모드와, 상기 카메라부를 통해 수집되는 영상으로부터 제스처를 인식하여 매칭되는 기능을 수행하는 동작 모드에 따라 동작하며, 상기 제스처를 특징벡터로 코드화시켜 저장하며, 상기 특징 벡터는 강도 정보 및 방향 정보를 모두 포함하는 제어부를 포함할 수 있다.
상기 제어부는 연속된 프레임에서 상기 특징 벡터를 추출하고, 상기 강도 정보 및 방향 정보를 모두 포함하는 2차원 벡터를 추출하여 상기 특징 벡터로 사용하는 비접촉 방식의 인터페이스를 제공할 수 있다.
상기 제어부는 상기 제스처에 대한 방향 정보를 수집하고, 상기 방향 정보에 상기 강도 정보를 반영하여 상기 특징 벡터를 코드화시키는 비접촉 방식의 인터페이스를 제공하는 비접촉 방식의 인터페이스를 제공할 수 있다.
상기 제어부는 상기 특징 벡터의 집합인 모션 벡터를 추출하여 제스처로 저장 또는 인식하는 비접촉 방식의 인터페이스를 제공할 수 있다.
상기 제어부는 상기 영상에 포함되어 있는 제스처를 인식하기 위해 제스처의 시작과 멈춤을 인식하는 제스처 분리 과정을 수행하는 비접촉 방식의 인터페이스를 제공할 수 있다.
상기 제어부는 상기 제스처의 분리 과정을 수행하는 경우, 제스처에 의한 움직임이 임계치 이상이 되면 특징 벡터를 수집하고, 다시 임계치 이하가 되면 특징 벡터의 수집을 정지하고 모션 벡터를 생성하는 비접촉 방식의 인터페이스를 제공할 수 있다.
그리고, 본 발명의 일실시예에 의한 비접촉 방식의 인터페이스를 제공하는 이동 단말의 제어방법은 제스처가 포함된 영상을 수집하고, 상기 영상에 포함된 제스처의 움직임이 임계치 이상인 것으로 확인되면 특징 벡터를 수집하고, 다시 임계치 이하인 것으로 확인되면 상기 특징 벡터의 수집을 중단하고 모션벡터를 생성하며, 상기 특징 벡터는 방향 정보 및 강도 정보를 모두 포함하며, 상기 모션 벡터는 상기 특징 벡터의 집합을 나타내는 것일 수 있다.
상기 특징 벡터는 제스처의 방향 정보를 기준 단위로 나누어 샘플링하고, 샘플링된 방향 빈에 강도를 곱하여 그 정보가 생성되는 비접촉 방식의 인터페이스를 제공할 수 있다.
상기 모션 벡터를 학습하여 저장하거나, 상기 모션 벡터를 인식하여 미리 저장된 모션 벡터와 비교하고, 일치 여부에 따라 이동 단말의 미리 정해진 기능을 수행할 수 있다.
상기 모션 벡터를 학습 및 저장하는 학습 모드와, 상기 모션 벡터를 인식하여 매칭되는 기능을 수행하는 동작 모드에 따라 제어되는 비접촉 방식의 인터페이스를 제공할 수 있다.
이상에서 설명한 바와 같이, 본 발명의 일측면에 의하면 방향 정보와 강도 정보를 모두 저장하는 특징 벡터를 이용하여 보다 효율적으로 제스처를 학습, 저장 및 인식할 수 있게 된다.
도 1은 본 발명의 일실시예에 의한 이동 단말의 제어블록도
도 2 내지 10은 본 발명의 일실시예에 의한 이동 단말에 학습 및 저장되는 제스처의 일예를 도시한 도면
도 11은 본 발명의 일실시예에 의한 이동 단말에서 사용자가 수행하는 제스처를 검출하는 방법을 설명하기 위한 도면
도 12는 본 발명의 일실시예에 의한 이동 단말의 제어흐름도
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 사용하기로 한다.
도 1은 본 발명의 일실시예에 의한 이동 단말의 제어블록도이다.
이동 단말(100)은 입력부(10), 표시부(20), 저장부(30), 오디오 처리부(40), 통신부(50), 카메라부(60) 및 제어부(70)를 포함할 수 있다.
입력부(10)는 숫자 또는 문자 정보를 입력받고, 각종 기능들을 설정하기 위한 다수의 입력 키 및 기능키들을 포함할 수 있다. 여기서, 기능키들은 특정 기능을 수행하도록 설정된 방향키, 사이드 키 및 단축키 등을 포함할 수 있다. 입력부(10)는 제스처 설정 및 이동 단말(100)의 기능 제어와 관련하여 입력되는 키 신호를 생성하고, 이를 제어부(70)에 전달한다.
표시부(20)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 등이 적용될 수 있다. 표시부(20)는 LCD 또는 OLED 등의 표시 장치를 터치스크린 방식으로 구현하는 경우, 표시부(20)의 화면은 입력부(10)로 동작될 수 있다. 표시부(20)는 카메라부(60)를 통해 인식되는 사용자의 제스터를 화면에 표시할 수 있다. 표시부(20)는 사용자의 제스처에 대한 기능 실행 화면을 표시할 수 있다.
저장부(30)는 이동 단말(100)의 기능 동작에 필요한 응용 프로그램을 비롯하여, 카메라부(60)의 동작을 실행하기 위한 응용 프로그램 및/또는 제스처 인식을 위한 프로그램을 저장할 수 있다. 저장부(30)는 프로그램 영역과 데이터 영역을 포함할 수 있다.
프로그램 영역은 이동 단말(100)을 부팅시키는 운영체제(OS, Operating System), 영상 데이터를 획득하는 카메라부(60) 조작 및 오디오 수집을 위한 응용 프로그램, 이동 단말(100)의 기타 옵션 기능 예컨데, 소리 재생 기능, 이미지 또는 동영상 재생 기능 등에 필요한 응용 프로그램을 저장할 수 있다. 이동 단말(100)은 사용자의 요청에 상응하여 각 기능을 활성화하는 경우, 제어부(70)의 제어 하에 해당 응용 프로그램들을 실행하여 각각의 기능을 제공하게 된다. 특히, 본 발명의 일측면에 의한 프로그램 영역은 특징점 추출 프로그램, 제스처 인식 프로그램 및 기능 실행 프로그램 등을 포함할 수 있다. 이 때, 특징점 추출 프로그램, 제스처 인식 프로그램 및 기능 실행 프로그램은 제어부(70)에 로드되어, 구동하는 프로그램이 될 수 있다.
또한, 데이터 영역은 이동 단말(100)의 사용에 따라 발생하는 데이터가 저장되는 영역으로서, 카메라부(60)가 촬영한 영상 데이터 중 사용자가 저장하는 데이터, 이동 단말(100)이 제공하는 다양한 옵션 기능과 관련한 사용자 데이터들 예컨데, 동영상 데이터, 폰 북 데이터, 오디오 데이터 및 해당 컨텐츠 데이터 등을 저장할 수 있다. 특히, 본 발명의 일측면에 따른 데이터 영역은 카메라부(60)를 통해 촬영되는 영상 데이터, 획득된 영상 데이터를 분석하여 추출되는 특징점, 추출된 특징점의 좌표값, 사용자의 손동작 이동에 따라 변화하는 특징점의 좌표값 및 영상 데이터를 구성하는 다수 개의 프레임 등이 저장될 수 있다.
오디오 처리부(40)는 통화 기능 시 송수신되는 오디오 데이터를 재생하기 위한 스피커와, 통화 시 사용자의 음성 또는 기타 오디오 신호를 수집하기 위한 마이크를 포함할 수 있다. 여기서, 오디오 처리부(40)는 음성 통화를 위해 설치된 스피커와 별도로 화상 통화 시 수신된 오디오 데이터를 출력하기 위한 스피커를 더 포함할 수 있다.
통신부(50)는 제어부(70)의 제어에 따라 데이터를 송신 및 수신한다. 이 때, 통신부(50)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 무선 주파수 송신부와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강 변환하는 무선 주파수 수신부 등을 포함할 수 있다. 특히, 본 발명의 실시예에 따른 통신부(50)는 사용자의 손동작에 대응하는 기능이 통화 발신이나 수신 또는 메시지 서비스와 같은 통신과 연관되어 있는 경우, 제어부(70)의 제어에 따라 해당되는 기능을 수행할 수 있다.
카메라부(60)는 사용자의 손동작 제스처에 대한 영상 데이터를 수집할 수 있다. 카메라부(60)는 렌즈를 통해 촬상되는 영상을 촬영하여 아날로그 영상신호로 변환하는 카메라 센서와, 카메라 센서로부터 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부를 구비할 수 있다. 여기서, 카메라 센서는 CCD(Charge Coupled Device)센서, CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서 또는 적외선 센서가 적용될 수 있고, 신호처리부는 DSP(Digital Signal Processor)로 구현될 수 있으나, 이에 한정되는 것은 아니다. 카메라부(60)는 카메라 기능을 구동하기 위한 입력 신호가 수신되는 경우에 활성화될 수 있다. 카메라부(60)는 수집되는 영상 데이터를 제어부(70)에 전달할 수 있다. 카메라부(60)는 영상 처리부를 구비할 수 있다. 영상 처리부는 카메라 센서에서 출력되는 영상 신호를 영상 프레임 단위로 처리하며, 프레임 영상 데이터를 표시부(20)의 특성 및 크기에 대응하여 출력한다. 또한, 영상 처리부는 영상 코덱(CODEC)을 구비하며, 표시부(20)에 표시되는 프레임 영상 데이터를 설정된 방식으로 압축하거나 압축된 프레임 영상 데이터를 원래의 프레임 영상 데이터로 복원하는 기능을 수행한다. 여기서, 영상 코덱은 JPEG(Joint Photographic coding Experts Group) 코덱 또는 MPEG(Moving Picture Experts Group) 코덱 등이 될 수 있다.
제어부(70)는 이동 단말(100)의 각 구성을 초기화하고, 각 구성에 필요한 신호 제어를 수행할 수 있다. 제어부(70)는 카메라부(60)를 동작시켜 제스처에 대한 학습을 수행하는 학습 모드와, 제스처에 대한 인식을 수행하여 매칭되는 기능을 수행하는 동작 모드에 따라 동작할 수 있다.
제어부(70)는 제스처에 대한 학습 동작 시, 영상을 획득하고, 획득한 영상에서 피부 영역을 추출하며, 추출된 피부 영역을 기반으로 외각선을 추출하고 그 곡률을 이용하여 손영역을 검출하며, 손영역에서 특징 벡터를 추출하고, 추출된 특징 벡터를 조합하여 모션벡터를 추출하며, 모션벡터에 따른 손동작을 학습 및 저장할 수 있다.
제어부(70)는 사용자가 수행하는 손동작을 특징벡터로 코드화시켜 저장할 수 있다. 특징 벡터는 연속된 프레임에서 추출되며, 강도와 방향으로 이루어진 2차원 벡터로 정의될 수 있다. 여기서, 강도는 동작의 세기를 나타내고, 방향은 0 ~ 360 도 사이의 움직임을 나타낸다. 제어부(70)는 먼저 방향에 대한 정보를 저장하기 위해, 각 방향을 10도 단위로 샘플링한다. 이 때, 샘플링된 수치를 하나의 방향 빈(orientation bin)이라고 정의하게 된다. 이에 따라, 방향을 나타내는 벡터는 36개의 빈으로 이루어질 수 있다. 그리고, 각 빈에 강도를 곱하여 최종 특징을 얻을 수 있게 된다.
제어부(70)는 상술한 방법에 의해 추출된 특징으로 이용하여 각 제스처마다 특징벡터의 집합인 모션벡터를 생성하여 학습하고 분류할 수 있다.
제어부(70)는 제스처에 대한 판별 작업 시, 영상을 획득하고, 획득한 영상에서 피부 영역을 추출하며, 추출된 피부 영역을 기반으로 외각선을 추출하고 그 곡률을 이용하여 손영역을 검출하며, 손영역에서 특징 벡터를 추출하고, 추출된 특징 벡터를 조합하여 모션벡터를 추출하며, 모션벡터를 미리 저장된 정보와 비교하여 해당 동작을 판별하게 된다.
제어부(70)는 상술한 동작에서, 손 영역 검출 시 후술하는 영상 적응적 피부 색상 모델을 사용하여 빛, 조명, 화장, 인종 등에 관계없이 강건하게 작업을 수행할 수 있다.
도 2 내지 10은 본 발명의 일실시예에 의한 이동 단말에 학습 및 저장되는 제스처의 일예를 도시한 도면이다.
제어부(70)는 카메라부(60)를 통해 도 2 내지 10에 도시한 손동작을 학습하여 저장할 수 있다.
1) 펴기 - 본 동작은 주먹을 쥔 자세에서 손바닥 부분을 펴서, 모든 손가락이 충분히 펴지는 동작(도 2의 (a))
2) 닫기 - 본 동작은 모든 손가락이 쫙 펴진 상태에서 주먹을 쥐기 위해 손가락을 접는 동작(도 2의 (b))
3) 펴기와 접기 - 본 동작은 손 오므리기와 펴기 동작을 연속적으로 수행하는 동작(도 3의 (a))
4) 접기와 펴기 - 본 동작은 손 오므리기와 펴기 동작을 연속적으로 수행하는 동작(도 3의 (b))
5) 측면 펴기(Side view Opening)- 본 동작은 카메라가 손의 측면을 볼 수 있도록 손을 펴는 동작(도 4의 (a))
6) 측면 접기(Side view Closing)- 본 동작은 카메라가 손의 측면을 몰 수 있도록 손을 접는 동작(도 4의 (b))
7) 측면 펴기와 접기- 본 동작은 연속적으로 수행되는 측면 펴기와 접기르 한번 수행하는 동작(도 5의 (a))
8) 측면 접기와 펴기( Side view closing and opening)- 본 동작은 측면 오므리기와 펴기 제스처를 한 번 수행하는 동작(도 5의 (b))
9) V 사인 하기(Open V sign)- 본 동작은 주먹 쥔 자세에서 V 사인을 하기 위해 집게 및 가운데 손가락을 펴는 동작(도 6의 (a))
10) V 사인 접기(Close V sign) - 본 동작은 집게 및 가운데 손가락으로 취했던 V 자세에서 주먹 쥔 자세로 손가락을 접는 동작(도 6의 (b))
11) V 사인 폈다가 접기(Open and Close V sign) - 본 동작은 연속적 한 차례 V 사인 몸짓을 했다가 접는 동작(도 7의 (a))
12) V 사인 접었다 펴기(Close and Open V sign ) - 본 동작은 연속적 한 차례V 사인 손동작을 접었다가 펴는 동작(도 7의 (b))
13) -15에서 +15도로 손바닥을 기울임으로써 수행하는 손 흔드는 동작(도 8)
14) L 자 동작 하기 - 본 동작은 주먹 쥔 자세에서 엄지와 검지(집게 손가락)를 펴서 L자 모양 제스처를 취하는 동작(도 9의 (a))
15) L 자 동작 접기 - 본 동작은 엄지와 검지를 펴서 취한 L자 모양 제스처에서 주먹을 쥐기 위해 손가락을 접는 동작(도 9의 (b))
16) L 자로 폈다가 접기 - 본 동작은 연속 일회 L자 손 동작을 폈다 접는 동작(도 10의 (a))
17) L 자로 접었다 펴기 - 본 동작은 연속 일회 L자 손 동작을 접었다 펴는 동작(도 10의 (b))
도 11은 본 발명의 일실시예에 의한 이동 단말에서 사용자가 수행하는 제스처를 검출하는 방법을 설명하기 위한 도면이다.
제어부(70)는 사용자가 수행하는 동작을 제스처를 나타내는 특징벡터로 코드화한다. 특징벡터는 연속된 프레임에서 추출되는데, 강도와 방향으로 이루어진 2차원 벡터로 정의될 수 있다. 강도는 동작의 세기를 나타내고, 방향은 0~360도 사이의 움직임을 명시할 수 있다.
도 11의 (a)를 참조하면, 방향이 0~360도로 나누어져 계측되는 것을 알 수 있다. 제어부(70)는 먼저 방향에 대한 정보를 저장하기 위해 각 방향을 기준 단위로 나누어 샘플링할 수 있고, 본 실시예에서는 10도 단위로 샘플링하는 것을 예로 들어 설명한다. 이 때 샘플링된 수치를 방향 빈(orientation bin)이라고 한다. 이 경우, 방향을 나타내는 벡터는 36개의 빈으로 이루어진다. 그리고, 각 빈에 강도를 곱하여 최종 특징을 얻을 수 있다.
예를 들어, 방향을 나타내는 벡터가 10 10 20 30 30 40 40 40 50... 같은 수치로 방향에 대한 정보를 나타내고, 방향을 나타내는 벡터에 강도를 곱하면 도 11의 (b)와 같은 그래프로 방향과 강도가 모두 반영된 정보가 도출된다. 이렇게 사용자의 제스처에 대해 방향 정보 및 강도 정보가 모두 반영된 특징벡터의 집합인 모션벡터를 생성하여 학습하고 저장한다.
제어부(70)는 제스처 인식을 위해 제스처의 시작과 멈춤을 인식하는 제스처 분리과정을 수행할 수 있다. 제어부(70)는 동작을 취하기 전과 후에 멈춤 동작을 이용한다는 전제하여 제스처 분리과정을 수행할 수 있다. 제어부(70)는 손 영역의 움직임(또는 제스처)이 임계치 이상이 되면 특징 벡터를 수집하고 다시 임계치 이하가 되면 수집을 멈추고 모션벡터를 생성할 수 있다.
도 12는 본 발명의 일실시예에 의한 이동 단말의 제어흐름도이다.
카메라부(60)는 사용자의 손동작 제스처에 대한 영상 데이터를 수집할 수 있다.(200)
제어부(70)는 제스처 학습 단계에서, 영상을 획득하고, 획득한 영상에서 피부 영역을 추출하며, 추출된 피부 영역을 기반으로 외각선을 추출하고 그 곡률을 이용하여 손영역을 검출하며, 손영역에서 특징 벡터를 추출하고, 추출된 특징 벡터를 조합하여 모션벡터를 추출하며, 모션벡터에 따른 손동작을 학습 및 저장할 수 있다.(210,220,230,240,250)
제어부(70)는 제스처 인식 단계에서, 영상을 획득하고, 획득한 영상에서 피부 영역을 추출하며, 추출된 피부 영역을 기반으로 외각선을 추출하고 그 곡률을 이용하여 손영역을 검출하며, 손영역에서 특징 벡터를 추출하고, 추출된 특징 벡터를 조합하여 모션벡터를 추출하며, 모션벡터에 따른 손동작을 인식할 수 있다.(210,220,230,240,250)
제어부(70)는 상술한 작업에 의해 모션 벡터를 인식하게 되면, 해당 모션 벡터에 매칭되어 있는 기능을 실행시켜 이동 단말(100)을 동작시킬 수 있다.
비록 본 발명이 상기에서 언급한 바람직한 실시예와 관련하여 설명되어졌지만, 본 발명의 요지와 범위로부터 벗어남이 없이 다른 다양한 수정 및 변형이 가능한 것은 당업자라면 용이하게 인식할 수 있을 것이며, 이러한 변경 및 수정은 모두 첨부된 특허청구범위의 범위에 속함은 자명하다.

Claims (10)

  1. 제스처가 포함된 영상을 수집하는 카메라부; 및
    상기 카메라부를 통해 수집되는 영상으로부터 제스처를 학습하는 학습 모드와, 상기 카메라부를 통해 수집되는 영상으로부터 제스처를 인식하여 매칭되는 기능을 수행하는 동작 모드 중 적어도 하나의 모드에 따라 동작하도록 제어하며,
    상기 학습 모드에서 상기 제스처에 의한 움직임의 크기에 따라 일정 구간에서 연속되는 프레임에서 특징 벡터를 추출하여 상기 제스처를 특징 벡터로 코드화시켜 저장하며, 상기 특징 벡터는 학습되어야 하는 제스처에 대한 방향 정보 및 강도 정보가 모두 반영될 수 있도록, 상기 제스처의 크기에 따라 제스처의 0~360도의 각 방향을 일정 구간으로 나누어진 기준 단위로 샘플링하여 방향에 대한 정보를 수치로 나타내는 방향 빈을 복수 개 생성하고, 상기 복수 개의 방향 빈의 각각에 동작의 세기를 나타내는 강도를 곱하여 코드화하는 제어부를 포함하는 비접촉 방식의 인터페이스를 제공하는 이동 단말.
  2. 제 1 항에 있어서,
    상기 제어부는 연속된 프레임에서 상기 특징 벡터를 추출하고, 상기 강도 정보 및 방향 정보를 모두 포함하는 2차원 벡터를 추출하여 상기 특징 벡터로 사용하는 비접촉 방식의 인터페이스를 제공하는 이동 단말.
  3. 삭제
  4. 제 1 항에 있어서,
    상기 제어부는 상기 특징 벡터의 집합인 모션 벡터를 추출하여 제스처로 저장 또는 인식하는 비접촉 방식의 인터페이스를 제공하는 이동 단말.
  5. 제 1 항에 있어서,
    상기 제어부는 상기 영상에 포함되어 있는 제스처를 인식하기 위해 제스처의 시작과 멈춤을 인식하는 제스처 분리 과정을 수행하는 비접촉 방식의 인터페이스를 제공하는 이동 단말.
  6. 제 5 항에 있어서,
    상기 제어부는 상기 제스처의 분리 과정을 수행하는 경우, 제스처에 의한 움직임의 크기가 임계치 이상이 되면 특징 벡터를 수집하고, 다시 임계치 이하가 되면 특징 벡터의 수집을 정지하고 모션 벡터를 생성하는 비접촉 방식의 인터페이스를 제공하는 이동 단말.
  7. 제스처가 포함된 영상을 수집하고,
    상기 영상에 포함된 제스처의 움직임의 크기가 임계치 이상인 것으로 확인되면 특징 벡터를 수집하고, 상기 임계치 이하로 상기 움직임의 크기가 작아지면 상기 특징 벡터의 수집을 중단하고 모션벡터를 생성하며,
    상기 특징 벡터는 상기 제스처의 움직임의 크기에 따라 일정 구간에서 연속되는 프레임에서 추출하여 코드화시켜 저장하되, 학습되어야 하는 제스처에 대한 방향 정보 및 강도 정보가 모두 반영될 수 있도록, 상기 제스처의 크기에 따라 제스처의 0~360도의 각 방향을 일정 구간으로 나누어진 기준 단위로 샘플링하여 방향에 대한 정보를 수치로 나타내는 방향 빈을 복수 개 생성하고, 상기 복수 개의 방향 빈의 각각에 동작의 세기를 나타내는 강도를 곱하여 코드화시켜 저장하며, 상기 모션 벡터는 상기 특징 벡터의 집합을 나타내는 것인 비접촉 방식의 인터페이스를 제공하는 이동 단말의 제어방법.
  8. 삭제
  9. 제 7 항에 있어서,
    상기 모션 벡터를 학습하여 저장하거나, 상기 모션 벡터를 인식하여 미리 저장된 모션 벡터와 비교하고, 일치 여부에 따라 이동 단말의 미리 정해진 기능을 수행하는 비접촉 방식의 인터페이스를 제공하는 이동 단말의 제어방법.
  10. 제 7 항에 있어서,
    상기 모션 벡터를 학습 및 저장하는 학습 모드와, 상기 모션 벡터를 인식하여 매칭되는 기능을 수행하는 동작 모드에 따라 제어되는 비접촉 방식의 인터페이스를 제공하는 이동 단말의 제어방법.
KR1020140033628A 2014-03-21 2014-03-21 비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법 KR101564259B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140033628A KR101564259B1 (ko) 2014-03-21 2014-03-21 비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140033628A KR101564259B1 (ko) 2014-03-21 2014-03-21 비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법

Publications (2)

Publication Number Publication Date
KR20150109965A KR20150109965A (ko) 2015-10-02
KR101564259B1 true KR101564259B1 (ko) 2015-10-29

Family

ID=54341198

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140033628A KR101564259B1 (ko) 2014-03-21 2014-03-21 비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법

Country Status (1)

Country Link
KR (1) KR101564259B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108572778B (zh) * 2017-03-09 2021-01-15 漳州立达信光电子科技有限公司 输入方法及使用该输入方法的触控装置和手势侦测装置
KR102034277B1 (ko) * 2017-12-06 2019-10-18 서울과학기술대학교 산학협력단 행사 실시간 스트리밍 방송 시스템

Also Published As

Publication number Publication date
KR20150109965A (ko) 2015-10-02

Similar Documents

Publication Publication Date Title
US10095033B2 (en) Multimodal interaction with near-to-eye display
US20090153366A1 (en) User interface apparatus and method using head gesture
CN106105247B (zh) 显示装置及其控制方法
US8897490B2 (en) Vision-based user interface and related method
US20140306877A1 (en) Gesture Based Interface System and Method
CN108712603B (zh) 一种图像处理方法及移动终端
KR101592999B1 (ko) 휴대용 단말기에서 손 모양을 인식하기 위한 장치 및 방법
US10108334B2 (en) Gesture device, operation method for same, and vehicle comprising same
KR20130106833A (ko) 휴대용 전자 디바이스에 대한 입력을 증진시키기 위한 카메라 사용
CN110187771B (zh) 凌空手势交互方法、装置、可穿戴设备及计算机存储介质
KR20110053396A (ko) 제스처를 이용한 사용자 인터페이스 제공 단말기 및 방법
CN117130469A (zh) 一种隔空手势识别方法、电子设备及芯片系统
KR101564259B1 (ko) 비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법
JP4668345B1 (ja) 情報処理装置、および情報処理装置の制御方法
US8610831B2 (en) Method and apparatus for determining motion
CN110262767B (zh) 基于靠近嘴部检测的语音输入唤醒装置、方法和介质
WO2020034763A1 (zh) 手势识别方法、手势处理方法及装置
EP4290338A1 (en) Method and apparatus for inputting information, and storage medium
KR101742826B1 (ko) 손 회전인식 장치 및 방법
US9952671B2 (en) Method and apparatus for determining motion
CN111382598A (zh) 一种识别方法、装置和电子设备
KR101958201B1 (ko) 수화인식을 통한 의사전달 장치 및 그 방법
KR20100046805A (ko) 휴대 단말기의 메뉴수행 장치 및 방법
KR100687690B1 (ko) 카메라를 이용한 데이터 입력이 가능한 디지털 처리 장치및 그 입력 방법
KR20070115510A (ko) 무접점 기능을 수행하는 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181017

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191014

Year of fee payment: 5