KR101281461B1 - 영상분석을 이용한 멀티 터치 입력 방법 및 시스템 - Google Patents

영상분석을 이용한 멀티 터치 입력 방법 및 시스템 Download PDF

Info

Publication number
KR101281461B1
KR101281461B1 KR1020120042526A KR20120042526A KR101281461B1 KR 101281461 B1 KR101281461 B1 KR 101281461B1 KR 1020120042526 A KR1020120042526 A KR 1020120042526A KR 20120042526 A KR20120042526 A KR 20120042526A KR 101281461 B1 KR101281461 B1 KR 101281461B1
Authority
KR
South Korea
Prior art keywords
image
region
hand region
hand
feature point
Prior art date
Application number
KR1020120042526A
Other languages
English (en)
Inventor
주영훈
서효동
Original Assignee
군산대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 군산대학교산학협력단 filed Critical 군산대학교산학협력단
Priority to KR1020120042526A priority Critical patent/KR101281461B1/ko
Application granted granted Critical
Publication of KR101281461B1 publication Critical patent/KR101281461B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 영상분석을 이용한 멀티 터치 입력 방법 및 시스템에 관한 것으로, 보다 구체적으로는 특정 영역을 터치하고자 하는 사용자의 신체 일부를 포함하는 영상을 획득하는 영상획득단계; 상기 영상으로부터 상기 사용자의 신체 일부와 배경영역을 구분하도록 상기 영상 내 피부영역을 검출하는 피부영역검출단계; 상기 피부영역 내 각 화소에 대하여 레이블링(labeling)을 수행하여 손영역을 검출하는 손영역검출단계; 상기 영상 내 노이즈를 모폴로지(morphology) 알고리즘에 기초하여 제거하는 노이즈필터링단계; 상기 손영역 내 무게중심점을 검출하는 무게중심검출단계; 상기 손영역의 무게중심점으로부터 적어도 하나의 동심원을 형성하고, 상기 적어도 하나의 동심원과 교차하는 적어도 하나의 특징점을 검출하는 특징점검출단계; 및 상기 손영역의 무게중심점과 상기 특징점간에 거리를 연산하고, 그 연산결과에 기초하여 사용자의 터치여부를 판단하는 터치여부판단단계;를 포함한다.
본 발명의 영상분석을 이용한 멀티 터치 입력 방법 및 시스템은 조도가 다양하게 변화하는 환경에서 촬영된 영상으로부터 조도의 변화여부와 상관없이 사용자의 손동작에 따른 터치여부를 정확하게 인식할 수 있는 효과가 있다.

Description

영상분석을 이용한 멀티 터치 입력 방법 및 시스템{Multi-touch input method and system using image analysis}
본 발명은 영상분석을 이용한 멀티 터치 입력 방법 및 시스템에 관한 것으로, 특히 영상 내 포함된 손의 무게중심 검출을 통해 움직임을 분석하여 사용자의 터치 여부를 확인하는 영상분석을 이용한 멀티 터치 입력 방법 및 시스템에 관한 것이다.
컴퓨터 정보기술의 발전으로 인하여 정보기기의 사용이 보편화됨에 따라, 정보기기와 사용자 사이에 상호작용에 대한 중요성이 점차 증가하고 있다. 이러한 정보기기와 사용자 간에 상호작용은 텍스트 위주의 인터페이스에서 인간의 다양한 제스처 등을 사용하며, 사용자 경험을 중요시하는 MMI(Man-Machine Interface) 방식으로 발전하는 추세이다. 이러한 정보기기와 사용자간에 상호작용을 위해 사용되는 터치스크린은 사용자의 경험을 고려한 대표적인 입력장치로서, 스마트폰, 태블릿 PC, 게임 등에 널리 적용되고 있다. 이러한 터치스크린 입력방식은 직관적인 도구인 사용자의 손을 이용하여 직접 입력하기 때문에, 별도의 입력장치가 필요하지 않고, 사용자의 훈련 정도와 상관없이 사용할 수 있는 장점을 갖는다.
이러한 터치스크린 입력방식은 크게 저항막(감압) 방식, 정전용량 방식, 적외선 방식, 초음파 방식 등으로 나누어진다. 먼저, 저항막 방식은 모든 도구를 이용하여 화면을 터치할 수 있는 장점을 가진 반면, 터치스크린의 화면 선명도가 감소하고, 충격에 약하는 단점을 가진다. 또한, 정전용량 방식은 화면을 살짝 스치듯 만져도 터치 입력이 가능하고, 화질의 저하 또한 발생하지 않는 장점을 가지나, 손가락과 같이 전자를 유도하는 물질이 아닌 다른 물체가 화면을 터치하는 경우, 터치 입력이 불가능하고, 내구성이 약하는 단점을 갖는다. 또한 이러한 단점 외에도 종래의 터치스크린이 점차 대형화되고, 높은 곳에 위치하는 경우에는 사용자의 손가락 등이 닿지 않는 사각지역이 발생하게 되는 문제점이 발생했다.
이러한 문제점을 해결하기 위해, 비전을 기반으로 하는 사용자의 손동작을 인식하는 기술이 연구되고 있다. 이러한 손동작 인식 기술은 글러브 데이터를 이용하는 기술과, 비전을 이용하는 기술로 나누어진다. 먼저, 글러브 데이터를 이용한 손동작 인식기술을 살펴보면, 손의 각 부위에 굴절계측기를 장착한 장갑을 사용자가 손에 착용하고, 자신의 손가락을 굴절시키면, 상기 굴절계측기를 통해 출력된 출력값에 의해 손동작에 대한 정확한 위치를 획득하는 기술이다. 하지만, 이러한 글러브 데이터를 이용한 손동작 인식기술은 사용자의 손가락에 대한 굴절여부를 확인하기 위하여, 고가의 센서가 사용되고, 사용자와 센서간의 연결선이 필요하기 때문에 사용에 불편이 따르며, 손동작을 수행하는데 있어서, 상기 연결선에 의해 행동반경이 제약된다는 문제점이 존재했다.
이와 달리, 비전을 이용하여 손동작을 인식하는 기술은 별도의 기계장치를 이용하지 않고도, 비전 카메라를 통해 손동작을 포함하는 영상을 획득하여 손동작을 분석한다. 하지만, 이러한 비전을 이용한 손동작 인식 기술은 주변 환경의 조도 변화에 따라 매우 민감하여 사용자의 피부 뿐만 아니라, 피부와 유사한 색상에 대해서도 사용자의 피부로 인식하여 노이즈를 발생함에 따라, 다양하고 복잡한 환경 속에서 사용자의 손 형상만을 정확하게 검출하여 인식하기 어려운 문제점이 발생했다.
상기와 같은 종래 기술의 문제점을 해결하기 위해, 본 발명은 조도변화에 영향을 받지 않고, 사용자의 손 동작을 정확하게 인식할 수 있는 영상분석을 이용한 멀티 터치 입력 방법 방법 및 시스템을 제공하고자 한다.
위와 같은 과제를 해결하기 위한 본 발명의 한 실시 예에 따른 영상분석을 이용한 멀티 터치 입력 방법은 특정 영역을 터치하고자 하는 사용자의 신체 일부를 포함하는 영상을 획득하는 영상획득단계; 상기 영상으로부터 상기 사용자의 신체 일부와 배경영역을 구분하도록 상기 영상 내 피부영역을 검출하는 피부영역검출단계; 상기 피부영역 내 각 화소에 대하여 레이블링(labeling)을 수행하여 손영역을 검출하는 손영역검출단계; 상기 영상 내 노이즈를 모폴로지(morphology) 알고리즘에 기초하여 제거하는 노이즈필터링단계; 상기 손영역 내 무게중심점을 검출하는 무게중심검출단계; 상기 손영역의 무게중심점으로부터 적어도 하나의 동심원을 형성하고, 상기 적어도 하나의 동심원과 교차하는 적어도 하나의 특징점을 검출하는 특징점검출단계; 및 상기 손영역의 무게중심점과 상기 특징점간에 거리를 연산하고, 그 연산결과에 기초하여 사용자의 터치여부를 판단하는 터치여부판단단계;를 포함한다.
특히, 상기 사용자의 신체 일부를 포함하는 영상으로부터 획득한 RGB정보를 HSV(Hue Saturation Value) 컬러모델로 변환하는 영상획득단계를 포함할 수 있다.
보다 바람직하게는 상기 영상 내 화소 중 인접하는 화소에 대하여 동일한 이진신호를 포함하는지 여부를 검출하는 화소검출과정; 동일한 이진신호를 포함하는 각 화소에 대하여 고유번호를 할당하는 레이블링과정; 고유번호가 할당되고, 인접하여 배치된 각 화소 그룹 영역의 크기가 기준 손영역의 크기 보다 작은지 여부를 판단하는 손영역판단과정; 및 상기 화소 그룹 영역의 크기가 기준 손영역의 크기 보다 작은 경우 상기 화소 그룹을 제거하여 상기 영상 내 손영역을 검출하는 손영역검출과정;을 포함하는 손영역검출단계를 포함할 수 있다.
보다 바람직하게는 상기 영상의 배경영역을 확장하고, 상기 피부영역을 축소하는 침식연산과정; 상기 영상의 배경영역을 축소하고, 상기 피부영역을 확장하는 팽창연산과정; 상기 영상의 미세 노이즈를 제거하는 열림연산과정; 및 상기 영상의 상기 피부영역 내 빈 화소를 채우는 닫힘연산과정; 중 적어도 하나의 과정을 수행하는 노이즈필터링단계를 포함할 수 있다.
보다 바람직하게는 상기 손영역의 추출된 특징점의 위치를 칼만필터(Kalman filter)를 이용하여 추적하는 특징점추적과정; 을 더 포함하는 특징점검출단계를 포함할 수 있다.
보다 바람직하게는 상기 손영역의 무게중심점으로부터 적어도 하나의 특징점까지의 거리를 각각 연산하는 거리연산과정; 및 거리연산결과가 기설정된 기준거리보다 짧은 경우, 해당 특징점을 터치하였다고 판단하는 터치여부판단과정;을 포함하는 터치여부판단단계를 포함할 수 있다.
위와 같은 과제를 해결하기 위한 본 발명의 다른 실시 예에 따른 영상분석을 이용한 멀티 터치 입력 방법시스템은 특정 영역을 터치하고자 하는 사용자의 신체 일부를 포함하는 영상을 획득하는 영상획득부; 상기 영상으로부터 상기 사용자의 신체 일부와 배경영역을 구분하도록 상기 영상 내 피부영역을 검출하는 피부영역검출부; 상기 피부영역으로부터 각 화소별 레이블링(labeling)을 통해 손영역을 검출하는 손영역검출부; 상기 영상 내 노이즈를 모폴로지(morphology) 알고리즘에 기초하여 제거하는 노이즈필터링부; 상기 손영역 내 무게중심점을 검출하는 무게중심검출부; 상기 손영역의 무게중심점으로부터 적어도 하나의 동심원을 형성하고, 상기 적어도 하나의 동심원과 교차하는 적어도 하나의 특징점을 검출하는 특징점검출부; 및 상기 손영역의 무게중심점과 상기 특징점간에 거리를 연산하고, 그 연산결과에 기초하여 사용자의 터치여부를 판단하는 터치여부판단부;를 포함한다.
보다 바람직하게는 상기 사용자의 신체 일부를 포함하는 영상을 입력받는 영상입력모듈; 및 상기 영상으로부터 RGB정보를 획득하고, 상기 RGB정보를 HSV(Hue Saturation Value) 컬러모델로 변환하는 영상정보변환모듈;을 포함하는 영상획득부를 포함할 수 있다.
보다 바람직하게는 상기 영상 내 화소 중 인접하는 화소에 대하여 동일한 이진신호를 갖는 영역을 검출하는 이진신호검출모듈; 동일한 이진신호를 포함하는 각 화소에 대하여 고유번호를 할당하는 레이블링모듈; 상기 고유번호가 할당된 각 화소 그룹 영역의 크기가 기준 손영역의 크기 보다 작은지 여부를 판단하는 손영역판단모듈; 및 상기 화소 그룹 영역의 크기가 기준 손영역의 크기 보다 작다고 판단하는 경우, 상기 화소 그룹을 제거하여 상기 영상 내 손영역을 검출하는 검출모듈;을 포함하는 손영역검출부를 포함할 수 있다.
보다 바람직하게는 상기 영상의 배경영역을 확장하고, 상기 피부영역을 축소하는 침식연산모듈; 상기 영상의 배경영역을 축소하고, 상기 피부영역을 확장하는 팽창연산모듈; 상기 영상의 미세 노이즈를 제거하는 열림연산모듈; 및 상기 영상의 상기 피부영역 내 빈 화소를 채우는 닫힘연산모듈;을 포함하는 노이즈필터링부를 포함할 수 있다.
특히, 상기 손영역의 특징점의 위치를 추적하는 칼만필터(Kalman filter)를 포함하는 특징점추출부를 포함할 수 있다.
보다 바람직하게는 상기 손영역의 무게중심점으로부터 적어도 하나의 특징점까지의 거리를 각각 연산하는 거리연산모듈; 및 거리연산결과가 기설정된 기준거리보다 짧은 경우, 해당 특징점을 터치하였다고 판단하는 터치판단모듈;을 포함하는 터치여부판단부를 포함할 수 있다.
본 발명의 영상분석을 이용한 멀티 터치 입력 방법 및 시스템은 조도가 다양하게 변화하는 환경에서 촬영된 영상으로부터 조도의 변화여부와 상관없이 사용자의 손동작에 따른 터치여부를 정확하게 인식할 수 있는 효과가 있다.
또한 본 발명의 영상분석을 이용한 멀티 터치 입력 방법 및 시스템은 별도의 기계장치를 사용하지 않고도 비전 카메라를 통해 획득한 영상에 대한 분석을 통해 사용자의 손동작을 인식함에 따라, 시스템의 제조비용을 감소시킬 수 있는 효과가 있다.
더불어, 본 발명의 영상분석을 이용한 멀티 터치 입력 방법 및 시스템은 영상분석을 통해 사용자의 손동작에 따른 터치여부를 인식함에 따라, 터치여부 검출에 따른 소요시간을 감소시켜, 실시간으로 사용자의 터치 여부를 확인할 수 있는 효과가 있다.
이와 더불어, 본 발명의 영상분석을 이용한 멀티 터치 입력 방법 및 시스템은 사용자의 손동작에 대한 오차보정을 수행함에 따라, 보다 정확한 손동작을 확인할 수 있어, 사용자 만족도를 향상시킬 수 있는 효과가 있다.
도 1은 본 발명의 일 실시 예에 따른 영상분석을 이용한 멀티 터치 입력 시스템의 블록도이다.
도 2는 본 발명의 다른 실시 예에 따른 영상분석을 이용한 멀티 터치 입력 방법의 순서도이다.
도 3은 영상의 RGB 컬러모델 및 HSV 컬러모델에 따른 영상 내 피부영역 및 배경영역에 대한 색상분류를 나타낸 그래프이다.
도 4는 HSV 컬러모델에 따른 영상 내 피부영역을 검출하는 과정을 나타낸 도면이다.
도 5는 본 발명의 손영역검출단계에 대한 세부과정을 나타낸 순서도이다.
도 6은 영상 내 각 화소에 대한 레이블링과정을 나타낸 도면이다.
도 7은 영상 내 손영역을 검출하는 과정을 나타낸 도면이다.
도 8은 모폴로지 알고리즘 중 침식연산과정을 이용한 노이즈 제거과정을 나타낸 도면이다.
도 9는 모폴로지 알고리즘 중 팽창연산과정을 이용한 노이즈 제거과정을 나타낸 도면이다.
도 10은 손영역 내 검출된 무게중심점을 나타낸 도면이다.
도 11은 손영역 내 무게중심점을 기준으로 동심원이 형성된 도면이다.
도 12는 손영역 내 특징점 추출에 대한 일련의과정을 나타낸 도면이다.
도 13은 사용자의 각 손가락별 터치 동작감지를 나타내는 도면이다.
이하, 본 발명을 바람직한 실시 예와 첨부한 도면을 참고로 하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시 예에 한정되는 것은 아니다.
본 발명의 구성을 살펴보기에 앞서, 본 발명에서 사용되는 용어 중 '터치'란, 특정영역에 각종 수단을 통해 물리적으로 접촉하여 선택하는 상태를 나타내는 것외에도, 특정영역을 물리적으로 접촉하지는 않지만, 상기 특정영역을 선택하기 위한 사용자의 여러 행동(또는 각종 수단을 이용하는 행동)을 포함하는 것을 모두 통칭하여 '터치'로 사용하도록 한다.
이하, 도 1을 참조하여, 본 발명의 일 실시 예에 따른 영상분석을 이용한 멀티 터치 입력 시스템에 대하여 자세히 살펴보도록 한다.
도 1은 본 발명의 일 실시 예에 따른 영상분석을 이용한 멀티 터치 입력 시스템의 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 영상분석을 이용한 멀티 터치 입력 시스템(100)은 영상획득부(110), 피부영역검출부(120), 손영역검출부(132), 노이즈필터링부(140), 무게중심검출부(150), 특징점검출부(160) 및 터치여부판단부(170)를 포함한다.
영상획득부(110)는 터치를 수행하고자 하는 사용자의 신체 일부를 포함하는 영상을 촬영한 비전 카메라로부터 입력받아 획득하며, 영상입력모듈(112) 및 영상정보변환모듈(114)을 포함한다.
영상입력모듈(112)은 터치를 입력할 수 있는 상기 사용자의 신체 일부(예를 들면, 손)를 포함하는 영상을 입력받는다. 이때, 입력받은 영상은 사용자의 신체일부 뿐만 아니라, 배경과 같은 터치 입력과 관계없는 물체가 포함될 수 있다.
영상정보변환모듈(114)은 입력받은 상기 영상으로부터 RGB정보를 획득하고, 상기 RGB정보를 HSV(Hue Saturation Value) 컬러모델로 변환한다. 이때 변환되는 HSV 컬러모델이라 함은, 컴퓨터 공간에서 각 컬러를 규정지어 재현할 수 있는 색의 공간을 나타내는 것으로서, 색의 삼속성에 기인하여 H는 색상(Hue), S는 채도(Saturation), V는 명도(Value)를 나타낸 것을 말한다. 이처럼, 획득한 영상을 HSV 컬러모델로 변환함에 따라, 외부 요인 중 조도의 영향과 상관없이 사용자의 손영역을 보다 정확하게 확인할 수 있다.
피부영역검출부(120)는 입력받은 상기 영상 내 포함된 사용자의 신체 일부와 배경영역을 구분하기 위하여, 상기 영상으로부터 사용자의 신체를 나타내는 피부영역을 검출한다. 이때, 검출된 피부영역은 사용자가 터치 입력을 수행하고자 하는 손 뿐만 아니라, 사용자의 얼굴, 어깨, 전신의 일 부분 등이 포함될 수 있다.
손영역검출부(130)는 상기 피부영역검출부(120)를 통해 검출된 피부영역 중 각 화소별 레이블링(labeling)과정을 통해 터치 입력을 수행할 수 있는 손영역을 검출하며, 이진신호검출모듈(132), 레이블링모듈(134), 손영역판단모듈(136) 및 검출모듈(138)을 포함한다. 상기 레이블링과정이란, 배열구조로 이루어지는 영상(이미지)에 대하여 화소영역을 각각 구분하는 것이다.
이진신호검출모듈(132)은 HSV 컬러모델로 변환되어 이진신호를 갖는 영상 내 화소 중 특정화소를 기준으로 상기 특정화소와 상하, 좌우, 대각선에 인접하여 위치하는 화소가 상호 밀접한 연관이 존재하는지 즉, 상기 특정화소가 갖는 이진신호와 동일한 이진신호를 갖는지 여부를 확인하여, 동일한 이진신호를 갖는 적어도 하나의 화소를 검출한다.
레이블링모듈(134)은 상기 이진신호검출모듈(132)이 검출한 특정화소와 동일한 이진신호를 갖는 상하, 좌우, 대각선에 각각 인접하여 위치하는 화소에 서로 동일한 고유번호를 할당하여, 화소 그룹을 생성한다.
손영역판단모듈(136)은 동일한 고유번호가 할당된 각 화소 그룹의 크기가 기설정된 기준 손영역의 크기 보다 작은지 여부를 판단한다. 이러한 판단과정은 검출된 화소 그룹이 사용자의 터치 입력을 위한 손이 아닌 다른 신체 일부 예를 들면, 얼굴, 어깨와 같은 부분을 손으로 오인하여 검출하는 것을 방지하며, 또한 정확한 손영역을 검출하도록 한다. 이러한 손영역판단모듈(136)은 영상 내 존재하는 모든 화소 그룹에 대하여 기준 손영역의 크기보다 작은지 여부를 판단하는 과정을 수행한다.
검출모듈(138)은 상기 손영역판단모듈(136)이 해당 화소 그룹의 크기가 기준 손영역의 크기 보다 작다고 판단하는 경우에는, 영상 내 검출된 적어도 하나의 화소 그룹 중에서 해당하는 화소 그룹을 제거하며, 이러한 판단과정을 상기 손영역판단모듈(136)이 각 화소그룹마다 반복 수행함에 따라, 최종적으로 영상 내 존재하는 손영역을 검출한다.
노이즈필터링부(140)는 상기 영상 내 노이즈를 모폴로지(morphology) 알고리즘에 기초하여 제거하며, 침식연산모듈(142), 팽창연산모듈(144), 열림연산모듈(146) 및 닫힘연산모듈(148)을 포함한다.
침식연산모듈(142)은 상기 영상의 배경영역을 확장하고, 검출하고자 하는 상기 피부영역을 축소한다.
팽창연산모듈(144)은 상기 영상의 배경영역을 축소하고, 상기 피부영역을 확장한다.
열림연산모듈(146)은 상기 영상 내 존재하는 미세 노이즈를 제거한다.
닫힘연산모듈(148)은 상기 영상의 피부영역 내 빈 화소를 채운다.
무게중심검출부(150)는 모멘트(moment) 이론에 기초하여 상기 손영역 내 무게중심점(Center Of Gravity)을 검출한다.
특징점검출부(160)는 상기 손영역의 무게중심점으로부터 상기 손영역 내 손가락의 끝단까지 적어도 하나의 동심원을 형성하고, 손가락 마디와 상기 동심원이 교차하는 적어도 하나의 지점을 특징점으로서 검출한다. 이러한 특징점검출부(160)는 손영역 내 특징점의 위치를 추적하는 칼만필터(Kalman filter)를 포함하여, 상기 칼만필터를 통해 영상 내 손이 빠르게 움직이거나, 영상 내 존재하는 노이즈로 인하여 손영역의 특징점을 검출하기 어려운 경우에 손영역 내 추출된 특징점의 위치를 추적한다. 이러한 칼만필터는 시간변화, 비정상여부, 다중 채널 시스템을 포함하는 모든 선형시스템에 적용할 수 있는 순환필터로서, 인공위성 항법 자료의 실시간 처리에 주로 활용되고, 탐사자료의 필터링에도 사용된다.
터치여부판단부(170)는 영상 내 손영역의 무게중심점과 적어도 하나의 특징점간에 거리를 각각 연산하고, 그 연산결과에 기초하여 손에 의한 사용자의 터치여부를 판단하며, 거리연산모듈(172) 및 터치판단모듈(174)을 포함할 수 있다.
거리연산모듈(172)은 상기 손영역의 무게중심점으로부터 적어도 하나의 특징점까지의 거리를 각각 연산한다.
터치판단모듈(174)은 상기 무게중심점으로부터 각 특징점까지의 거리연산결과가 기설정된 기준거리보다 짧은 경우에는 손영역의 손가락부분이 터치 동작을 위해 접혔다고 보아, 해당 특징점이 사용자에 의해 터치되었다고 판단한다.
이하에서, 도 2를 참조하여, 본 발명의 다른 실시 예에 따른 영상분석을 이용한 멀티 터치 입력 방법에 대하여 자세히 살펴보도록 한다.
도 2는 본 발명의 다른 실시 예에 따른 영상분석을 이용한 멀티 터치 입력 방법의 순서도이다.
도 2에 도시된 바와 같이, 본 발명의 영상분석을 이용한 멀티 터치 입력방법은 먼저, 특정 영역을 터치하고자 하는 사용자의 신체 일부를 포함하는 영상을 촬영한 비전카메라로부터 촬영한 영상을 획득한다(S210). 이때, 상기 사용자의 신체 일부를 포함하는 영상으로부터 RGB정보를 획득한 후, 획득한 영상을 하기의 수학식 1에 따라 HSV(Hue Saturation Value) 컬러모델로 변환한다.
[수학식 1]
Figure 112012032557324-pat00001
이때, 변환되는 상기 HSV 컬러모델은 색상의 분포(H), 순수한 색상에 하얀 빛이 포함된 정도를 나타낸 채도(S) 및 빛의 밝기를 나타내는 명도(V)를 나타내는 것으로서, 명도값을 제거 또는 조절하는 경우에는 외부 요인에 의한 조도변화로부터 영향을 받지 않는 색상모델을 생성할 수 있다.
도 3(a)는 영상의 RGB 컬러모델에 따른 영상 내 피부영역 및 배경영역에 대한 색상분류를 나타낸 그래프이고, 도 3(b)는 HSV 컬러모델에 따른 영상 내 피부영역 및 배경영역에 대한 색상분류를 나타낸 그래프이다.
도 3에 도시된 바와 같이, 비전 카메라로부터 획득한 영상을 RGB 컬러모델에 따라 나타낸 것을 외부 요인에 의한 조도 변화에 영향을 받지 않는 색상모델을 생성하기 위해, HSV 컬러모델로 변환한다.
이처럼, 영상의 색상표현 중 피부영역과 배경영역에 분리가 어려운 RGB컬러모델에서 HSV컬러모델로 변환함에 따라, 영상 내 사용자의 신체 일부를 나타내는 피부영역과 배경영역을 용이하게 분리할 수 있게 된다.
상술한 바와 같이, 원본영상을 HSV 컬러모델로 변환함에 따라 이진신호로 표현된 이진영상으로부터 피부영역을 검출한다(S220).
도 4(a)는 카메라로부터 획득한 원본영상을 나타낸 도면이고, 도 4(b)는 상기 원본영상에 대하여 HSV 컬러모델로 변환한 영상을 나타낸 도면이다.
도 4(a)에 도시된 바와 같이, 원본영상에서는 사용자의 손, 얼굴 뿐만 아니라, 배경까지 모두 포함되어 있으나, 도 4(b)에서는 배경영역은 모두 검은색으로 처리되어 있으며, 사용자의 피부영역을 나타내는 손과 얼굴에 대하여 하얀색으로 처리되는 것을 알 수 있다. 즉, 도 4(b)에서는 0과 1의 이진신호를 통해 영상이 표현됨에 따라 피부영역과 배경영역을 분리할 수 있다.
상기 피부영역 내 각 화소에 대하여 레이블링(labeling)을 수행하여 손영역을 검출한다(S230).
도 5를 참조하여, 피부영역 내 손영역 검출과정에 대하여 보다 자세히 살펴보도록 한다.
도 5는 도 2의 손영역검출단계의 세부과정을 나타낸 순서도이다.
도 5에 도시된 바와 같이, 상기 영상 내 화소 중 특정화소를 선별하고, 선별된 특정화소를 기준으로 상기 특정화소와 상하, 좌우, 대각선에 인접하여 위치하는 화소에 대하여 상기 특정화소가 갖는 이진신호와 동일한 이진신호를 포함하는지 여부를 검출한다(S231).
만약 상기 특정화소에 인접하여 위치하는 화소에 대하여 동일한 이진신호를 포함(S232)하는 경우, 동일한 이진신호를 갖는 적어도 하나의 화소에 대하여 고유번호를 할당한다(S233).
도 6은 영상 내 각 화소에 대한 레이블링과정을 나타낸 도면이다.
도 6(a)에 도시된 바와 같이, 각 화소가 0과 1로 표현되는 이진영상에 있어서, 특정화소에 대하여 0 또는 1 중 동일한 이진신호를 가지며, 인접하여 위치하는 화소가 존재하는 것을 알 수 있으며, 이러한 화소들은 하나의 화소 그룹으로 나누어지는 것을 알 수 있다. 예를 들어, 도 6(a)에는 1번부터 4번까지의 총 4개의 화소 그룹이 존재하며, 각 화소그룹별로 동일한 고유번호를 할당한다. 즉, 첫 번째 화소 그룹 내 화소들은 모두 동일한 '1'번을 할당받고, 두 번째 화소 그룹 내 화소들은 모두 고유번호 '2'번을 할당받는다.
이처럼 동일한 고유번호를 할당받은 각 화소 그룹의 크기가 기설정된 기준 손영역의 크기보다 작은지 여부를 판단한다(S234).
만약 각 화소 그룹의 크기가 기준 손영역의 크기보다 작다고 판단(S235)하는 경우, 해당하는 화소 그룹을 제거한다(S236). 하지만 영상 내 적어도 하나의 화소 그룹이 존재함에 따라, 존재하는 화소 그룹마다 기 설정된 손영역의 크기와 비교하는 과정을 반복하여 수행한다.
이에 따라, 영상 내 존재하는 화소 그룹의 크기가 기설정된 손영역의 크기 보다 같거나 큰 경우, 영상 내 손영역을 검출한다(S237).
도 7은 영상 내 손영역을 검출하는 과정을 나타낸 도면이다.
도 7(a)은 원본영상을 HSV 컬러모델로 변환하여 생성된 이진영상이다. 이러한 이진영상에 대하여 상술한 과정 S231 내지 S237을 수행함에 따라 도 7(b)에 도시된 바와 같이, 피부영역 중에서도 얼굴영역이 아닌 터치 입력이 가능한 손영역이 검출되는 것을 알 수 있다.
또한 HSV 컬러모델로 변환된 영상 내 노이즈를 모폴로지(morphology) 알고리즘에 기초하여 제거한다(S240). 이러한 모폴로지 알고리즘은 상기 영상의 배경영역을 확장하고 상기 피부영역을 축소하거나, 상기 영상의 배경영역을 축소하고 상기 피부영역을 확장하거나, 상기 영상의 미세 노이즈를 제거하거나, 상기 영상의 상기 피부영역 내 빈 화소를 채우는 과정 중 적어도 하나의 과정을 수행할 수 있다.
도 8은 모폴로지 알고리즘 중 침식연산과정을 이용한 노이즈 제거과정을 나타낸 도면이다.
예를 들어, 도 8(a)은 이진신호 '1'로 표현되는 피부영역과 '0'으로 표현되는 배경영역을 포함하는 이진영상에 대하여, 도 8(b)에 도시된 바와 같이, 이진신호 '1'로 표현되는 상기 피부영역을 원래의 영상크기보다 축소되고, '0'으로 표현되는 상기 배경영역을 원래의 영상크기보다 확장시킨 것을 알 수 있다. 이러한 과정을 침식연산과정이라 하며, 상기 침식연산과정을 통해 상기 피부영역과 배경영역 사이에 노이즈가 존재하는 경우에 이를 제거할 수 있고, 전체 영상 내 존재하는 미세한 물체를 용이하게 제거할 수 있다. 또한, 영상 내부에 돌출된 부분을 감소시키거나 증가시킴으로써, 서로 닿은 물체를 분리할 수도 있다.
도 9는 모폴로지 알고리즘 중 팽창연산과정을 이용한 노이즈 제거과정을 나타낸 도면이다.
도 9(a)에 도시된 바와 같이, '1'로 표현되는 피부영역과 '0'으로 표현되는 배경영역을 포함하는 이진영상에 대하여, 도 9(b)에 도시된 바와 같이, 이진신호 '1'로 표현되는 상기 피부영역이 원래의 영상크기보다 확대되고, 이진신호 '0'으로 표현되는 상기 배경영역이 원래의 영상크기보다 확장되는 것을 알 수 있다. 이러한 과정을 팽창연산과정이라 하며, 상기 팽창연산과정을 통해, 피부영역 내부의 돌출부는 감소시키고, 외부의 돌출부는 증가시킨다. 이에 따라, 피부영역 내부에 발생한 구멍과 같은 공간을 채우거나 짧게 끊어진 영역을 연결할 수 있다.
이후, 검출된 손영역으로부터 무게중심점을 검출한다(S250). 상기 무게중심점을 검출하기 위해, 모멘트 이론을 이용할 수 있다. 먼저, 손영역은 원과 비슷한 모양을 갖는 손바닥영역과 작고 긴 사각형 모양을 갖는 손가락영역으로 나누어지며, 하기의 수학식 2를 통해 2차원 공간에서 영상 I(x,y)에 대한 모멘트값을 연산할 수 있다.
[수학식 2]
Figure 112012032557324-pat00002
이때, 상기 p.q는 외곽선 내부의 식별번호를 나타내며, mpq는 p.q 위치에서 외곽선에 대한 총 모멘트값을 나타낸다.
이와 같이 연산된 영상 I(x,y)의 모멘트값 m00에 대하여 하기의 수학식 3을 통해 각 화소들간의 합으로 연산할 수 있다.
[수학식 3]
Figure 112012032557324-pat00003
또한, 하기의 수학식 4를 이용하여 손영역에 대한 1차 모멘트값을 연산할 수 있다.
[수학식 4]
Figure 112012032557324-pat00004
이와 같이, 연산된 손영역의 1차 모멘트값을 하기의 수학식 5에 대입하면, 손영역의 무게중심점을 연산할 수 있다.
[수학식 5]
Figure 112012032557324-pat00005
즉, x축에 해당하는 모멘트값(m10)과 y축에 해당하는 모멘트값(m01)을 각각 2차원 공간의 총 모멘트 값(m00)으로 나눔으로써, 2차원 공간에서 외곽선정보를 이용하여 손영역의 무게중심값에 해당하는 위치좌표(x,y)를 연산할 수 있다.
도 10은 손영역 내 검출된 무게중심점을 나타낸 도면이다.
도 10에 도시된 바와 같이, 레이블링된 손영역(a)으로부터 상기 손영역 내 무게중심점이 검출된 영상(b)을 획득할 수 있게 된다.
앞서 무게중심점을 검출한 영상에 대하여, 상기 손영역의 무게중심점을 기준으로 하여 상기 무게중심점으로부터 적어도 하나의 동심원을 형성하고, 상기 적어도 하나의 동심원과 교차하는 적어도 하나의 특징점을 검출한다(S260).
도 11은 손영역 내 무게중심점을 기준으로 동심원이 형성된 도면이다.
도 11에 도시된 바와 같이, 과정 S250을 통해 손영역 내 무게중심점을 검출한 영상에서 상기 무게중심점을 중심으로 하는 동심원을 형성한다. 이때, 상기 동심원의 지름은 손영역 중 손바닥의 크기보다 큰 것이 바람직하며, 또한 상기 동심원은 손영역 중 손가락이 끝나는 부분까지 형성되도록 연속하여 형성한다. 이에 따라, 상기 동심원을 통해 손영역 중 손가락이 끝나는 지점을 확인할 수 있는데, 이때 형성된 동심원과 상기 손가락의 마디가 교차하는 지점을 특징점으로 검출할 수 있다.
이와 같이, 손영역의 특징점을 검출하는데 있어서, 영상 내 손이 빠르게 움직이거나, 영상 내 존재하는 노이즈로 인하여 손영역의 특징점을 검출하기 어려운 경우에는 칼만필터를 이용하여 손영역 내 추출된 특징점의 위치를 추적할 수 있다. 이때 사용되는 칼만필터는 시간변화, 비정상여부, 다중 채널 시스템을 포함하는 모든 선형시스템에 적용할 수 있는 순환필터로서, 인공위성 항법 자료의 실시간 처리에 주로 활용되고, 탐사자료의 필터링에도 사용된다.
이후, 상기 손영역 내 무게중심점과 각각 검출된 특징점간에 거리를 연산하고, 그 연산결과에 기초하여 사용자의 터치여부를 판단한다(S270).
도 12는 손영역 내 특징점 추출에 대한 일련의과정을 나타낸 도면이다.
결국 도 12(a)에 도시된 바와 같이, 사용자의 신체 일부가 포함되는 24bit RGB 원본영상을 도12(b)와 같이, HSV 컬러모델로 변환하고, 도 12(c)에 도시된 바와 같이, 상기 영상 중 피부영역으로 표시되는 영역에 대하여 레이블링 과정을 수행한 후, 손영역을 검출한다. 이후, 도 12(d)에 도시된 바와 같이, 상기 손영역 내 특징점을 검출하고, 도 12(e)와 같이, 동심원 형성을 통해 검출된 손영역 내 무게중심점과, 손영역의 끝단에 위치하는 특징점간 거리를 연산하여 도 12(f)에 도시된 바와 같이, 최종적인 손영역 내 무게중심점으로부터 특징점까지를 거리를 파악할 수 있게 된다.
또한, 손영역의 무게중심점으로부터 각각의 특징점까지의 거리연산을 통해 손가락별 터치 동작의 수행여부를 확인할 수 있다.
도 13은 사용자의 각 손가락별 터치동작의 감지를 나타낸 도면이다.
도 13(a)는 검지손가락의 터치동작을 도 13(b)는 중지손가락의 터치동작을 도 13(c)는 약지손가락의 터치동작을 도 13(d)는 새끼손가락의 터치동작을 각각 나타낸다.
또한, 이러한 영상분석을 이용한 멀티 터치 입력 방법은 컴퓨터로 실행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체에 저장될 수 있다. 이때, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는 ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
본 발명의 영상분석을 이용한 멀티 터치 입력 방법 및 시스템은 조도가 다양하게 변화하는 환경에서 촬영된 영상으로부터 조도의 변화여부와 상관없이 사용자의 손동작에 따른 터치여부를 정확하게 인식할 수 있는 효과가 있다.
또한 본 발명의 영상분석을 이용한 멀티 터치 입력 방법 및 시스템은 별도의 기계장치를 사용하지 않고도 비전 카메라를 통해 획득한 영상에 대한 분석을 통해 사용자의 손동작을 인식함에 따라, 시스템의 제조비용을 감소시킬 수 있는 효과가 있다.
더불어, 본 발명의 영상분석을 이용한 멀티 터치 입력 방법 및 시스템은 영상분석을 통해 사용자의 손동작에 따른 터치여부를 인식함에 따라, 터치여부 검출에 따른 소요시간을 감소시켜, 실시간으로 사용자의 터치 여부를 확인할 수 있는 효과가 있다.
이와 더불어, 본 발명의 영상분석을 이용한 멀티 터치 입력 방법 및 시스템은 사용자의 손동작에 대한 오차보정을 수행함에 따라, 보다 정확한 손동작을 확인할 수 있어, 사용자 만족도를 향상시킬 수 있는 효과가 있다.
상기에서는 본 발명의 바람직한 실시 예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 본 발명의 기술 사상 범위 내에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 첨부된 특허청구범위에 속하는 것은 당연하다.
110: 영상획득부 120: 피부영역검출부
130: 손영역검출부 140: 노이즈필터링부
150: 무게중심검출부 160: 특징점검출부
170: 터치여부판단부

Claims (13)

  1. 영상획득부가 특정 영역을 터치하고자 하는 사용자의 신체 일부를 포함하는 영상을 획득하는 영상획득단계;
    피부영역검출부가 상기 영상으로부터 상기 사용자의 신체 일부와 배경영역을 구분하도록 상기 영상 내 피부영역을 검출하는 피부영역검출단계;
    손영역검출부가 상기 피부영역 내 각 화소에 대하여 레이블링(labeling)을 수행하여 손영역을 검출하는 손영역검출단계;
    노이즈필터링부가 상기 영상 내 노이즈를 모폴로지(morphology) 알고리즘에 기초하여 제거하는 노이즈필터링단계;
    무게중심검출부가 상기 손영역 내 무게중심점을 검출하는 무게중심검출단계;
    특징점검출부가 상기 손영역의 무게중심점으로부터 적어도 하나의 동심원을 형성하고, 상기 손영역 내 손가락 마디와 상기 적어도 하나의 동심원과 교차하는 적어도 하나의 특징점을 검출하는 특징점검출단계; 및
    터치여부판단부가 상기 손영역의 무게중심점과 상기 특징점간에 거리를 연산하고, 그 연산결과에 기초하여 사용자의 터치여부를 판단하는 터치여부판단단계;
    를 포함하는 영상분석을 이용한 멀티 터치 입력 방법.
  2. 제1항에 있어서,
    상기 영상획득단계는
    상기 영상획득부가 상기 사용자의 신체 일부를 포함하는 영상으로부터 획득한 RGB정보를 HSV(Hue Saturation Value) 컬러모델로 변환하는 것을 특징으로 하는 영상분석을 이용한 멀티 터치 입력 방법.
  3. 제1항에 있어서,
    상기 손영역검출단계는
    상기 손영역검출부가 상기 영상 내 화소 중 인접하는 화소에 대하여 동일한 이진신호를 포함하는지 여부를 검출하는 화소검출과정;
    상기 손영역검출부가 동일한 이진신호를 포함하는 각 화소에 대하여 고유번호를 할당하는 레이블링과정;
    상기 손영역검출부가 고유번호가 할당되고, 인접하여 배치된 각 화소 그룹 영역의 크기가 기준 손영역의 크기보다 작은지 여부를 판단하는 손영역판단과정; 및
    상기 손영역검출부가 상기 화소 그룹 영역의 크기가 기준 손영역의 크기보다 작은 경우 상기 화소 그룹을 제거하여 상기 영상 내 손영역을 검출하는 손영역검출과정;
    을 포함하는 것을 특징으로 하는 영상분석을 이용한 멀티 터치 입력 방법.
  4. 제1항에 있어서,
    상기 노이즈필터링단계는
    상기 노이즈필터링부가 상기 영상의 배경영역을 확장하고, 상기 피부영역을 축소하는 침식연산과정;
    상기 영상의 배경영역을 축소하고, 상기 피부영역을 확장하는 팽창연산과정;
    상기 영상의 미세 노이즈를 제거하는 열림연산과정; 및
    상기 영상의 상기 피부영역 내 빈 화소를 채우는 닫힘연산과정;
    중 적어도 하나의 과정을 수행하는 것을 특징으로 하는 영상분석을 이용한 멀티 터치 입력 방법.
  5. 제1항에 있어서,
    상기 특징점검출단계는
    상기 특징점검출부가 상기 손영역의 추출된 특징점의 위치를 칼만필터(Kalman filter)를 이용하여 추적하는 특징점추적과정;
    을 더 포함하는 것을 특징으로 하는 영상분석을 이용한 멀티 터치 입력 방법.
  6. 제1항에 있어서,
    상기 터치여부판단단계는
    상기 터치여부판단부가 상기 손영역의 무게중심점으로부터 적어도 하나의 특징점까지의 거리를 각각 연산하는 거리연산과정; 및
    상기 터치여부판단부가 거리연산결과가 기설정된 기준거리보다 짧은 경우, 해당 특징점을 터치하였다고 판단하는 터치여부판단과정;
    을 포함하는 것을 특징으로 하는 영상분석을 이용한 멀티 터치 입력 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 따른 방법을 컴퓨터로 실행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체.
  8. 특정 영역을 터치하고자 하는 사용자의 신체 일부를 포함하는 영상을 획득하는 영상획득부;
    상기 영상으로부터 상기 사용자의 신체 일부와 배경영역을 구분하도록 상기 영상 내 피부영역을 검출하는 피부영역검출부;
    상기 피부영역으로부터 각 화소별 레이블링(labeling)을 통해 손영역을 검출하는 손영역검출부;
    상기 영상 내 노이즈를 모폴로지(morphology) 알고리즘에 기초하여 제거하는 노이즈필터링부;
    상기 손영역 내 무게중심점을 검출하는 무게중심검출부;
    상기 손영역의 무게중심점으로부터 적어도 하나의 동심원을 형성하고, 상기 손영역 내 손가락 마디와 상기 적어도 하나의 동심원과 교차하는 적어도 하나의 특징점을 검출하는 특징점검출부; 및
    상기 손영역의 무게중심점과 상기 특징점간에 거리를 연산하고, 그 연산결과에 기초하여 사용자의 터치여부를 판단하는 터치여부판단부;
    를 포함하는 영상분석을 이용한 멀티 터치 입력 시스템.
  9. 제8항에 있어서,
    상기 영상획득부는
    상기 사용자의 신체 일부를 포함하는 영상을 입력받는 영상입력모듈; 및
    상기 영상으로부터 RGB정보를 획득하고, 상기 RGB정보를 HSV(Hue Saturation Value) 컬러모델로 변환하는 영상정보변환모듈;
    을 포함하는 것을 특징으로 하는 영상분석을 이용한 멀티 터치 입력 시스템.
  10. 제8항에 있어서,
    상기 손영역검출부는
    상기 영상 내 화소 중 인접하는 화소에 대하여 동일한 이진신호를 갖는 영역을 검출하는 이진신호검출모듈;
    동일한 이진신호를 포함하는 각 화소에 대하여 고유번호를 할당하는 레이블링모듈;
    상기 고유번호가 할당된 각 화소 그룹 영역의 크기가 기준 손영역의 크기보다 작은지 여부를 판단하는 손영역판단모듈; 및
    상기 화소 그룹 영역의 크기가 기준 손영역의 크기보다 작다고 판단하는 경우, 상기 화소 그룹을 제거하여 상기 영상 내 손영역을 검출하는 검출모듈;
    을 포함하는 것을 특징으로 하는 영상분석을 이용한 멀티 터치 입력 시스템.
  11. 제8항에 있어서,
    상기 노이즈필터링부는
    상기 영상의 배경영역을 확장하고, 상기 피부영역을 축소하는 침식연산모듈;
    상기 영상의 배경영역을 축소하고, 상기 피부영역을 확장하는 팽창연산모듈;
    상기 영상의 미세 노이즈를 제거하는 열림연산모듈; 및
    상기 영상의 상기 피부영역 내 빈 화소를 채우는 닫힘연산모듈;
    을 포함하는 것을 특징으로 하는 영상분석을 이용한 멀티 터치 입력 시스템.
  12. 제8항에 있어서,
    상기 특징점검출부는
    상기 손영역의 특징점의 위치를 추적하는 칼만필터(Kalman filter)를 포함하는 것을 특징으로 하는 영상분석을 이용한 멀티 터치 입력 시스템.
  13. 제8항에 있어서,
    상기 터치여부판단부는
    상기 손영역의 무게중심점으로부터 적어도 하나의 특징점까지의 거리를 각각 연산하는 거리연산모듈; 및
    거리연산결과가 기설정된 기준거리보다 짧은 경우, 해당 특징점을 터치하였다고 판단하는 터치판단모듈;
    을 포함하는 것을 특징으로 하는 영상분석을 이용한 멀티 터치 입력 시스템.
KR1020120042526A 2012-04-24 2012-04-24 영상분석을 이용한 멀티 터치 입력 방법 및 시스템 KR101281461B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120042526A KR101281461B1 (ko) 2012-04-24 2012-04-24 영상분석을 이용한 멀티 터치 입력 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120042526A KR101281461B1 (ko) 2012-04-24 2012-04-24 영상분석을 이용한 멀티 터치 입력 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR101281461B1 true KR101281461B1 (ko) 2013-07-03

Family

ID=48996411

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120042526A KR101281461B1 (ko) 2012-04-24 2012-04-24 영상분석을 이용한 멀티 터치 입력 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR101281461B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101483741B1 (ko) 2014-02-10 2015-01-27 전남대학교산학협력단 슬라이스 패턴 영상을 이용한 터치 인식 방법 및 그 시스템
KR101794148B1 (ko) * 2014-03-26 2017-11-06 인텔 코포레이션 효율적인 자유 공간 손가락 인식
KR101841503B1 (ko) 2015-12-09 2018-03-28 동아대학교 산학협력단 계층적 불변 모멘트를 이용한 외곽선 영상기반 asl 숫자인식 방법
KR101864533B1 (ko) * 2017-03-21 2018-06-04 고려대학교 세종산학협력단 오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치
JP2021184232A (ja) * 2020-05-21 2021-12-02 株式会社トゥービーソフトTobesoft Co., Ltd. ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置およびその動作方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110080871A (ko) * 2010-01-07 2011-07-13 성균관대학교산학협력단 후면부 손가락 움직임 및 제스처 인식을 이용한 휴대형 정보 단말기 및 콘텐츠 제어 방법
KR20110132076A (ko) * 2010-06-01 2011-12-07 금오공과대학교 산학협력단 비접촉식 스크린 제어 시스템 및 그 시스템에서의 비접촉식 스크린 제어 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110080871A (ko) * 2010-01-07 2011-07-13 성균관대학교산학협력단 후면부 손가락 움직임 및 제스처 인식을 이용한 휴대형 정보 단말기 및 콘텐츠 제어 방법
KR20110132076A (ko) * 2010-06-01 2011-12-07 금오공과대학교 산학협력단 비접촉식 스크린 제어 시스템 및 그 시스템에서의 비접촉식 스크린 제어 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101483741B1 (ko) 2014-02-10 2015-01-27 전남대학교산학협력단 슬라이스 패턴 영상을 이용한 터치 인식 방법 및 그 시스템
KR101794148B1 (ko) * 2014-03-26 2017-11-06 인텔 코포레이션 효율적인 자유 공간 손가락 인식
KR101841503B1 (ko) 2015-12-09 2018-03-28 동아대학교 산학협력단 계층적 불변 모멘트를 이용한 외곽선 영상기반 asl 숫자인식 방법
KR101864533B1 (ko) * 2017-03-21 2018-06-04 고려대학교 세종산학협력단 오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치
JP2021184232A (ja) * 2020-05-21 2021-12-02 株式会社トゥービーソフトTobesoft Co., Ltd. ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置およびその動作方法
JP6994206B2 (ja) 2020-05-21 2022-01-14 株式会社トゥービーソフト ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置およびその動作方法

Similar Documents

Publication Publication Date Title
JP6079832B2 (ja) ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法
JP5709227B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11294470B2 (en) Human-to-computer natural three-dimensional hand gesture based navigation method
US8768006B2 (en) Hand gesture recognition
EP2980755B1 (en) Method for partitioning area, and inspection device
KR101281461B1 (ko) 영상분석을 이용한 멀티 터치 입력 방법 및 시스템
CN106778456B (zh) 一种手写输入的优化方法及装置
JP6066093B2 (ja) 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム
JP6326847B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
TW201322058A (zh) 手勢辨識系統及方法
TWI571772B (zh) 虛擬滑鼠驅動裝置及虛擬滑鼠模擬方法
JP6562752B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
KR20160063163A (ko) 터치 제스쳐 인식 방법 및 장치
JP6651388B2 (ja) ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム
KR102052449B1 (ko) 가상 마우스 시스템 및 그 제어 방법
Hartanto et al. Real time hand gesture movements tracking and recognizing system
JP6501806B2 (ja) 情報処理装置、操作検出方法、及びコンピュータプログラム
KR101614798B1 (ko) 컬러 이미지 분석을 이용한 비접촉 멀티 터치 인식 방법 및 시스템
KR101167784B1 (ko) 단말기의 후면부 손가락 움직임에 따른 포인터 인식 방법 및 제어 명령어 인식 방법
Rupanagudi et al. A novel and secure methodology for keyless ignition and controlling an automobile using air gestures
CN106339089A (zh) 一种人机交互动作识别系统及方法
TWI507919B (zh) 追蹤與記錄指尖軌跡的影像處理方法
KR101386655B1 (ko) 3d 공간 터치 시스템 및 방법
US20230125410A1 (en) Information processing apparatus, image capturing system, method, and non-transitory computer-readable storage medium
KR101130063B1 (ko) 차세대 통합 디스플레이 장치용 손동작 인식 기반의 콘텐츠 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160615

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170421

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180614

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190530

Year of fee payment: 7

R401 Registration of restoration