KR20100048747A - 안면 추적을 이용한 모바일 유저 인터페이스 장치 - Google Patents

안면 추적을 이용한 모바일 유저 인터페이스 장치 Download PDF

Info

Publication number
KR20100048747A
KR20100048747A KR1020080108033A KR20080108033A KR20100048747A KR 20100048747 A KR20100048747 A KR 20100048747A KR 1020080108033 A KR1020080108033 A KR 1020080108033A KR 20080108033 A KR20080108033 A KR 20080108033A KR 20100048747 A KR20100048747 A KR 20100048747A
Authority
KR
South Korea
Prior art keywords
user
face
unit
distance
reference position
Prior art date
Application number
KR1020080108033A
Other languages
English (en)
Inventor
황성재
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020080108033A priority Critical patent/KR20100048747A/ko
Publication of KR20100048747A publication Critical patent/KR20100048747A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

본 발명은 안면 추적을 이용한 모바일 유저 인터페이스 장치에 관한 것으로서, 더욱 상세하게는 제한된 공간에서 사용자 안면 추적을 이용하여 다양한 위치 및 거리에서 제공되는 정보를 직관적이면서 효율적으로 표현할 수 있는 안면 추적을 이용한 모바일 유저 인터페이스 장치에 관한 것이다.
본 발명인 안면 추적을 이용한 모바일 유저 인터페이스 장치는,
모바일 유저 인터페이스 장치에 있어서,
사용자의 영상을 획득하는 카메라모듈부와;
상기 카메라모듈부를 통해 획득된 영상을 참조하여 사용자의 안면을 인식하며 인식된 안면의 거리 및 기준 포지션을 설정하여 거리 및 기준 포지션을 참조하여 움직이는 위치 및 거리에 따른 안면 정보를 오브젝트로 변환시키는 사용자위치인식부와;
상기 사용자위치인식부를 통해 변환된 오브젝트 정보를 저장하고 있는 오브젝트데이터저장부와;
상기 인식된 사용자의 위치 및 거리에 따른 오브젝트를 표시하는 디스플레이부;를 포함하여 구성되는 것을 특징으로 한다.
본 발명을 통해 이미지 센싱을 통한 안면 추적을 이용하여 사용자의 위치 및 모바일 디바이스와 사용자간의 거리를 파악하고 위치 및 거리에 따른 오브젝트를 변환하여 보다 많은 정보를 직관적이고 효율적으로 표시할 수 있는 안면 추적을 이 용한 모바일 유저 인터페이스 장치를 제공하게 되어 모바일 단말기의 디스플레이 화면에 표시되는 이미지를 사용자들에게 실제 실세계의 오브젝트와 같이 입체적으로 제공할 수 있게 된다.
3차원, 모바일 인터페이스, 오브젝트, 스크롤.

Description

안면 추적을 이용한 모바일 유저 인터페이스 장치{user interface mobile device using face interaction.}
본 발명은 안면 추적을 이용한 모바일 유저 인터페이스 장치에 관한 것으로서, 더욱 상세하게는 제한된 공간에서 사용자 안면 추적을 이용하여 다양한 위치 및 거리에서 제공되는 정보를 직관적이면서 효율적으로 표현할 수 있는 안면 추적을 이용한 모바일 유저 인터페이스 장치에 관한 것이다.
일반적으로 사용자의 편리성과 직관성을 위하여 그래픽 유저 인터페이스(GUI)가 사용되고 있으며, 상기 그래픽 유저 인터페이스는 마우스와 같은 포인팅 디바이스를 이용하여 오브젝트를 직관적으로 명령할 수 있어 대부분의 컴퓨터 운영 체제에서 사용되는 방식이다.
그러나, 종래의 UI는 평면적이고 정적인 형태로 많은 양의 정보를 효율적으로 시각화하는데 한계를 가지고 있어 이를 해결하기 위하여 2차원의 UI를 3차원으로 시각화하는 기술들을 개시하고 있었다.
상기 최근 3차원 영상처리기술이 교육, 훈련, 의료, 영화, 컴퓨터 게임에 이르기까지 여러 분야에 활용되고 있다.
2차원 영상에 비해서 3차원 영상의 장점은 현장감(presence feeling), 현실감(real feeling), 자연감(natural feeling)을 느낄 수 있는 장점때문에 많이 활용되어지고 있으며 현재 이와 같은 3차원 영상 디스플레이 구현에 많은 연구가 이루어지고 있다.
3차원 영상 디스플레이 장치의 구성에는 입력기술, 처리기술, 전송기술, 표시기술, 소프트웨어 기술 등 다양한 기술이 요구되며, 특히 디스플레이 기술, 디지털 영상 처리 기술, 컴퓨터 그래픽 기술, 인간의 시각 시스템에 관한 연구가 필수적이다.
그러나, 상기와 같은 전반적인 산업분야에 제시하고 있지만 모바일 환경에서 직관적이고 효율적으로 사용하기 위한 기술은 개시하고 있지 않아 모바일 환경에서도 이를 활용하기 위한 기술을 요구하고 있는 실정이다.
즉, 종래의 GUI가 평면의 공간에 여러 오브젝트별로 많은 정보를 담고 있어 화면의 크기가 작은 모바일 디바이스에서 사용되기에는 무리가 있으며, 3차원의 정보를 사용자의 학습을 통해 직관적이고 편리하게 사용할 수 있는 조작의 어려움을 가지고 있었다.
또한, 기존 사용자 움직임을 트래킹(Tracking) 하던 디바이스에서 모바일 디바이스 움직임으로써 사용자를 인식할 수 있는 기술을 요구하고 있다.
따라서 본 발명은 상기와 같은 종래 기술의 문제점을 감안하여 제안된 것으로서, 본 발명의 목적은 이미지 센싱을 통한 안면 추적을 이용하여 사용자의 위치 및 모바일 디바이스와 사용자간의 거리를 파악하고 위치 및 거리에 따른 오브젝트를 변환하여 보다 많은 정보를 직관적이고 효율적으로 표시할 수 있는 안면 추적을 이용한 모바일 유저 인터페이스 장치를 제공하는데 있다.
본 발명이 해결하고자 하는 과제를 달성하기 위하여,
본 발명의 일실시예에 따른 안면 추적을 이용한 모바일 유저 인터페이스 장치는,
모바일 유저 인터페이스 장치에 있어서,
사용자의 영상을 획득하는 카메라모듈부와;
상기 카메라모듈부를 통해 획득된 영상을 참조하여 사용자의 안면을 인식하며 인식된 안면의 거리 및 기준 포지션을 설정하여 거리 및 기준 포지션을 참조하여 움직이는 위치 및 거리에 따른 안면 정보를 오브젝트로 변환시키는 사용자위치인식부와;
상기 사용자위치인식부를 통해 변환된 오브젝트 정보를 저장하고 있는 오브젝트데이터저장부와;
상기 인식된 사용자의 위치 및 거리에 따른 오브젝트를 표시하는 디스플레이부;를 포함하여 구성되는 것을 특징으로 한다.
이상의 구성 및 작용을 지니는 본 발명에 따른 안면 추적을 이용한 모바일 유저 인터페이스 장치는,
이미지 센싱을 통한 안면 추적을 이용하여 사용자의 위치 및 모바일 디바이스와 사용자간의 거리를 파악하고 위치 및 거리에 따른 오브젝트를 변환하여 보다 많은 정보를 직관적이고 효율적으로 표시할 수 있는 안면 추적을 이용한 모바일 유저 인터페이스 장치를 제공하게 되어 모바일 단말기의 디스플레이 화면에 표시되는 이미지를 사용자들에게 실제 실세계의 오브젝트와 같이 입체적으로 제공할 수 있게 된다.
상기 과제를 달성하기 위한 본 발명의 일실시예에 따른 안면 추적을 이용한 모바일 유저 인터페이스 장치는,
모바일 유저 인터페이스 장치에 있어서,
사용자의 영상을 획득하는 카메라모듈부와;
상기 카메라모듈부를 통해 획득된 영상을 참조하여 사용자의 안면을 인식하며 인식된 안면의 거리 및 기준 포지션을 설정하여 거리 및 기준 포지션을 참조하 여 움직이는 위치 및 거리에 따른 안면 정보를 오브젝트로 변환시키는 사용자위치인식부와;
상기 사용자위치인식부를 통해 변환된 오브젝트 정보를 저장하고 있는 오브젝트데이터저장부와;
상기 인식된 사용자의 위치 및 거리에 따른 오브젝트를 표시하는 디스플레이부;를 포함하여 구성되는 것을 특징으로 한다.
또한, 본 발명의 다른 일실시예에 따른 안면 추적을 이용한 모바일 유저 인터페이스 장치는,
사용자위치인식부의 동작을 온오프하여 오프시에는 사용자의 위치 및 거리를 인식하지 않도록 하기 위한 기능온오프스위치부;를 더 포함하여 구성되는 것을 특징으로 한다.
이때, 상기 사용자위치인식부는,
사용자의 안면 이동을 실시간으로 추적하는 안면추적부와,
상기 안면추적부를 통해 추적된 사용자의 안면과 디스플레이부간의 거리를 계산하는 안면거리계산부와,
상기 안면추적부를 통해 추적된 사용자의 안면 기준 포지션을 설정하는 기준포지션설정부와,
상기 기준포지션설정부에 의해 설정된 기준 포지션에서 사용자의 안면 움직임이 발생하면 안면추적부의 신호에 따라 사용자의 안면과 디스플레이부간의 거리 및 기준포지션설정부에 의해 설정된 안면 기준 포지션의 위치가 어디에 존재하는지 를 판단하는 사용자위치거리판단부와,
상기 사용자위치거리판단부에 의해 처리된 사용자의 위치 및 거리에 따른 안면 정보를 오브젝트로 변환시키는 위치오브젝트변환부를 포함하여 구성되는 것을 특징으로 한다.
이때, 상기 기능온오프스위치부는,
기능이 온될 경우에 사용자의 위치에 해당하는 오브젝트와 매칭되는 정보를 출력하는 것을 특징으로 한다.
이때, 상기 기능온오프스위치부는,
기능이 온될 경우에 사용자의 위치에 해당하는 오브젝트와 매칭되는 정보를 출력하되, 거리에 따라 매칭되는 정보를 출력하는 것을 특징으로 한다.
이하, 본 발명에 의한 안면 추적을 이용한 모바일 유저 인터페이스 장치는의 실시예를 통해 상세히 설명하도록 한다.
도 1은 본 발명의 일실시예에 따른 안면 추적을 이용한 모바일 유저 인터페이스 장치의 블록도이다.
도 1에 도시한 바와 같이, 본 발명인 안면 추적을 이용한 모바일 유저 인터페이스 장치는,
모바일 유저 인터페이스 장치에 있어서,
사용자의 영상을 획득하는 카메라모듈부(100)와;
상기 카메라모듈부를 통해 획득된 영상을 참조하여 사용자의 안면을 인식하며 인식된 안면의 거리 및 기준 포지션을 설정하여 거리 및 기준 포지션을 참조하 여 움직이는 위치 및 거리에 따른 안면 정보를 오브젝트로 변환시키는 사용자위치인식부(200)와;
상기 사용자위치인식부를 통해 변환된 오브젝트 정보를 저장하고 있는 오브젝트데이터저장부(300)와;
상기 인식된 사용자의 위치 및 거리에 따른 오브젝트를 표시하는 디스플레이부(400);를 포함하여 구성되는 것을 특징으로 한다.
즉, 본 발명인 안면 추적을 이용한 모바일 유저 인터페이스 장치는 이루고자 하는 목적을 달성하기 위하여 상기와 같이 카메라모듈부, 사용자위치인식부, 오브젝트데이터저장부, 디스플레이부를 포함하여 구성되게 된다.
상기 카메라모듈부를 통해 사용자의 영상을 획득하게 되면 사용자위치인식부를 통해 획득된 영상을 참조하여 사용자의 안면을 인식하며 인식된 안면의 거리 및 기준 포지션을 설정하여 거리 및 기준 포지션을 참조하여 움직이는 위치에 따른 안면 정보를 오브젝트로 변환시키게 되며, 상기 변환된 위치에 따른 오브젝트 정보를 오브젝트데이터저장부에 저장시키며, 상기 디스플레이부를 통해 표시하게 되는 것이다.
이때, 모바일의 중앙제어부(미도시)의 제어에 따라 상기 오브젝트데이터저장부에 저장된 오브젝트 정보에 해당하는 데이터 정보를 디스플레이하게 되는 것이다.
이에 대한 구체적인 설명은 하기에서 다시 설명하도록 한다.
한편, 본 발명의 부가적인 양상에 따라 사용자위치인식부의 동작을 온오프하 여 오프시에는 사용자의 위치 및 거리를 인식하지 않도록 하기 위한 기능온오프스위치부;를 더 포함하여 구성되는 것을 특징으로 한다.
즉, 모바일 단말기의 평상시 기능과 사용자인식에 따른 정보 디스플레이 기능을 판단할 수 있도록 상기 기능온오프스위치부(미도시)를 더 포함하여 구성하게 되는 것이다.
동작 원리를 간단히 설명하자면, 상기 기능온오프스위치부를 누르게 되면 이를 중앙제어부에서 인식하여 사용자위치인식부를 통해 사용자의 위치 및 거리를 인식하여 기준포지션에서 추적된 방향의 영상을 출력하게 되는 것이다.
종래의 사용자만 트래킹하던 디바이스는 사용자가 움직여도 배경은 움직이지 않지만 본 발명은 디바이스 자체를 움직이며 사용자를 인식하는 디바이스를 구성하여 디바이스 입장에서 사용자가 디바이스를 움직이면 배경까지 같이 움직이게 되는 것이다.
도 4를 참조하여 설명하자면, 모바일 단말기의 메뉴 중 지하철 노선도를 사용자가 보고 있다가 스크롤을 통해 위치를 이동시키거나 확대축소 버튼을 통해 확대 혹은 축소를 하게 되는 종래 기술의 불편함을 개선하여 상기 기능온오프스위치부를 누르게 되면 사용자인식부의 동작에 의해 사용자의 현재 위치를 기준 포지션으로 설정하고 디스플레이부와 사용자간의 거리를 계산하고 있다가 사용자가 우측으로 이동하거나 모바일 단말기를 좌측으로 이동시킬 경우에 해당 지하철 노선도의 우측 노선 정보를 출력시키게 되는 것이다.
또한, 기능온오프스위치부를 누른 사용자의 거리가 디스플레이부와 더욱 가 깝게 이동하였으며 이를 인식하여 지하철 노선도를 확대하게 되는 것이다.
이는 모바일 단말기의 특성상 디스플레이되는 영역의 한계를 가지고 있기 때문에 이를 극복하기 위하여 종래에는 스크롤바를 구성하여 스크롤바를 움직임으로써 확인할 수 밖에 없었다.
그러나, 상기한 위치인식을 통해 스크롤바를 움직일 필요없이 사용자의 위치 및 거리에 따라 상하좌우, 확대 및 축소를 자유자재로 실행할 수 있는 효과를 제공하는 것이다.
한편, 상기 기능온오프스위치부는,
기능이 온될 경우에 사용자의 위치에 해당하는 오브젝트와 매칭되는 정보를 출력하는 것을 특징으로 하는데, 모바일 단말기를 좌측으로 이동시킬 경우에 해당하는 오브젝트와 매칭되는 지하철 노선도의 우측 노선 정보를 출력하게 되는 것이다.
또한, 다른 일실시예에 따른 상기 기능온오프스위치부는,
기능이 온될 경우에 사용자의 위치에 해당하는 오브젝트와 매칭되는 정보를 출력하되, 거리에 따라 매칭되는 정보를 출력하는 것을 특징으로 하는데, 이는 디스플레이부와 사용자간의 거리가 기준포지션 설정시 거리보다 가까울 경우에 지하철 노선도를 축소시켜주고, 거리보다 멀 경우에 지하철 노선도를 확대시켜주는 장점을 제공하는데 이는 종래의 스크롤바가 동작될 경우에 출력되는 기술과 동일하지만 사용자의 위치 인식에 따른 상하좌우이동 혹은 확대 및 축소를 수행하는 장점을 통해 스크롤바 조작의 불편함을 해결할 수 있게 되는 것이다.
도 2는 본 발명의 일실시예에 따른 안면 추적을 이용한 모바일 유저 인터페이스 장치의 사용자위치인식부 블록도이다.
도 2에 도시한 바와 같이, 본 발명의 사용자위치인식부(200)는,
사용자의 안면 이동을 실시간으로 추적하는 안면추적부(210)와,
상기 안면추적부를 통해 추적된 사용자의 안면과 디스플레이부간의 거리를 계산하는 안면거리계산부(220)와,
상기 안면추적부를 통해 추적된 사용자의 안면 기준 포지션을 설정하는 기준포지션설정부(230)와,
상기 기준포지션설정부에 의해 설정된 기준 포지션에서 사용자의 안면 움직임이 발생하면 안면추적부의 신호에 따라 사용자의 안면과 디스플레이부간의 거리 및 기준포지션설정부에 의해 설정된 안면 기준 포지션의 위치가 어디에 존재하는지를 판단하는 사용자위치거리판단부(240)와,
상기 사용자위치거리판단부에 의해 처리된 사용자의 위치 및 거리에 따른 안면 정보를 오브젝트로 변환시키는 위치오브젝트변환부(250)를 포함하여 구성되는 것을 특징으로 한다.
상기 안면추적부(210)는 카메라모듈부를 통해 획득되는 사용자 안면 이동을 실시간으로 추적하고, 안면거리계산부는 안면추적부를 통해 추적된 사용자의 안면과 디스플레이부간의 거리를 계산하며, 상기 기준포지션설정부는 안면추적부를 통해 추적된 사용자의 안면 기준 포지션을 설정하는 기능을 담당하게 된다.
이때, 상기 사용자위치거리판단부는 기준포지션설정부에 의해 설정된 기준 포지션에서 사용자의 안면 움직임이 발생하면 안면추적부의 신호에 따라 사용자의 안면과 디스플레이부간의 거리 및 기준포지션설정부에 의해 설정된 안면 기준 포지션의 위치가 어디에 존재하는지를 판단하는 기능을 담당한다.
즉, 사용자가 도 3에 도시한 바와 같이 정면, 좌면, 우면, 상면, 하면 등 안면 기준 포지션을 참조하여 안면의 위치를 계산하게 되는 것이다.
상기 사용자위치거리판단부에 의해 처리된 사용자의 위치에 따른 안면 정보를 위치오브젝트변환부를 통해 오브젝트로 변환시키게 되며, 상기 변환된 오브젝트들을 오브젝트데이터저장부에 전송하여 저장하게 되는 것이다.
상기와 같은 구성 및 동작 원리를 통해 이미지 센싱을 통한 안면 추적을 이용하여 사용자의 위치 및 모바일 디바이스와 사용자간의 거리를 파악하고 위치 및 거리에 따른 오브젝트를 변환하여 보다 많은 정보를 직관적이고 효율적으로 표시할 수 있는 안면 추적을 이용한 모바일 유저 인터페이스 장치를 제공하게 되어 모바일 단말기의 디스플레이 화면에 표시되는 이미지를 사용자들에게 입체적으로 제공할 수 있게 된다.
이상에서와 같은 내용의 본 발명이 속하는 기술분야의 당업자는 본 발명의 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시된 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구 범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되 는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 발명인 안면 추적을 이용한 모바일 유저 인터페이스 장치는,
이미지 센싱을 통한 안면 추적을 이용하여 사용자의 위치 및 모바일 디바이스와 사용자간의 거리를 파악하고 위치 및 거리에 따른 오브젝트를 변환하여 보다 많은 정보를 직관적이고 효율적으로 표시할 수 있는 안면 추적을 이용한 모바일 유저 인터페이스 장치를 제공하게 되어 모바일 단말기의 디스플레이 화면에 표시되는 이미지를 사용자들에게 실제 실세계의 오브젝트와 같이 입체적으로 제공할 수 있게되어 모바일 응용 분야에 널리 유용하게 활용될 것이다.
특히 모바일 기기를 한손만을 이용하여 사용해야 하는 제한된 상황에서 매우 편리하게 사용될 수 있을 것이다.
도 1은 본 발명의 일실시예에 따른 안면 추적을 이용한 모바일 유저 인터페이스 장치의 블록도이다.
도 2는 본 발명의 일실시예에 따른 안면 추적을 이용한 모바일 유저 인터페이스 장치의 사용자위치인식부 블록도이다.
도 3은 본 발명의 일실시예에 따른 안면 추적을 이용한 모바일 유저 인터페이스 장치의 사용자의 위치 변화에 따른 3차원 디스플레이 예를 나타낸 예시도이다.
도 4는 본 발명의 일실시예에 따른 안면 추적을 이용한 모바일 유저 인터페이스 장치의 사용자의 위치 변화에 따라 출력되는 디스플레이 예를 나타낸 예시도이다.
* 도면의 주요 부분에 대한 부호의 설명 *
100 : 카메라모듈부
200 : 사용자위치인식부
210 : 안면추적부
220 : 안면거리계산부
230 : 기준포지션설정부
240 : 사용자위치거리판단부
250 : 위치오브젝트변환부
300 : 오브젝트데이터저장부
400 : 디스플레이부

Claims (5)

  1. 모바일 유저 인터페이스 장치에 있어서,
    사용자의 영상을 획득하는 카메라모듈부와;
    상기 카메라모듈부를 통해 획득된 영상을 참조하여 사용자의 안면을 인식하며 인식된 안면의 거리 및 기준 포지션을 설정하여 거리 및 기준 포지션을 참조하여 움직이는 위치 및 거리에 따른 안면 정보를 오브젝트로 변환시키는 사용자위치인식부와;
    상기 사용자위치인식부를 통해 변환된 오브젝트 정보를 저장하고 있는 오브젝트데이터저장부와;
    상기 인식된 사용자의 위치 및 거리에 따른 오브젝트를 표시하는 디스플레이부;를 포함하여 구성되는 것을 특징으로 하는 안면 추적을 이용한 모바일 유저 인터페이스 장치.
  2. 제 1항에 있어서,
    사용자위치인식부의 동작을 온오프하여 오프시에는 사용자의 위치 및 거리를 인식하지 않도록 하기 위한 기능온오프스위치부;를 더 포함하여 구성되는 것을 특징으로 하는 안면 추적을 이용한 모바일 유저 인터페이스 장치.
  3. 제 1항 또는 제 2항에 있어서,
    상기 사용자위치인식부는,
    사용자의 안면 이동을 실시간으로 추적하는 안면추적부와,
    상기 안면추적부를 통해 추적된 사용자의 안면과 디스플레이부간의 거리를 계산하는 안면거리계산부와,
    상기 안면추적부를 통해 추적된 사용자의 안면 기준 포지션을 설정하는 기준포지션설정부와,
    상기 기준포지션설정부에 의해 설정된 기준 포지션에서 사용자의 안면 움직임이 발생하면 안면추적부의 신호에 따라 사용자의 안면과 디스플레이부간의 거리 및 기준포지션설정부에 의해 설정된 안면 기준 포지션의 위치가 어디에 존재하는지를 판단하는 사용자위치거리판단부와,
    상기 사용자위치거리판단부에 의해 처리된 사용자의 위치 및 거리에 따른 안면 정보를 오브젝트로 변환시키는 위치오브젝트변환부를 포함하여 구성되는 것을 특징으로 하는 안면 추적을 이용한 모바일 유저 인터페이스 장치.
  4. 제 2항에 있어서,
    상기 기능온오프스위치부는,
    기능이 온될 경우에 사용자의 위치에 해당하는 오브젝트와 매칭되는 정보를 출력하는 것을 특징으로 하는 안면 추적을 이용한 모바일 유저 인터페이스 장치.
  5. 제 2항에 있어서,
    상기 기능온오프스위치부는,
    기능이 온될 경우에 사용자의 위치에 해당하는 오브젝트와 매칭되는 정보를 출력하되, 거리에 따라 매칭되는 정보를 출력하는 것을 특징으로 하는 안면 추적을 이용한 모바일 유저 인터페이스 장치.
KR1020080108033A 2008-10-31 2008-10-31 안면 추적을 이용한 모바일 유저 인터페이스 장치 KR20100048747A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080108033A KR20100048747A (ko) 2008-10-31 2008-10-31 안면 추적을 이용한 모바일 유저 인터페이스 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080108033A KR20100048747A (ko) 2008-10-31 2008-10-31 안면 추적을 이용한 모바일 유저 인터페이스 장치

Publications (1)

Publication Number Publication Date
KR20100048747A true KR20100048747A (ko) 2010-05-11

Family

ID=42275469

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080108033A KR20100048747A (ko) 2008-10-31 2008-10-31 안면 추적을 이용한 모바일 유저 인터페이스 장치

Country Status (1)

Country Link
KR (1) KR20100048747A (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101148508B1 (ko) * 2010-07-16 2012-05-25 한국과학기술원 모바일 기기 디스플레이의 표시 장치 및 그 방법, 이를 이용하는 모바일 기기
KR101274362B1 (ko) * 2010-10-29 2013-06-13 삼성에스디에스 주식회사 디스플레이 장치 및 그의 컨텐츠 재생 방법
WO2014031357A1 (en) * 2012-08-22 2014-02-27 Intel Corporation Adaptive visual output based on change in distance of a mobile device to a user
WO2014150111A1 (en) * 2013-03-15 2014-09-25 Intel Corporation User interface responsive to operator position and gestures
US9213432B2 (en) 2013-01-29 2015-12-15 Samsung Display Co., Ltd. Mobile device and method for operating the same
US9769467B2 (en) 2012-12-18 2017-09-19 Samsung Electronics Co., Ltd. 3D display device for displaying 3D image using at least one of gaze direction of user or gravity direction

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138637A (ja) * 1995-11-13 1997-05-27 Mitsubishi Heavy Ind Ltd 模擬視界装置
JP2000259856A (ja) * 1999-03-09 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 3次元コンピュータグラフィックス表示方法及び装置
KR100325365B1 (ko) * 1999-02-23 2002-03-04 김재희 응시위치 추적시스템
JP2003030686A (ja) * 2001-07-19 2003-01-31 Konami Co Ltd ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム
KR20060027180A (ko) * 2004-09-22 2006-03-27 주식회사 엔씨소프트 휴대 단말기의 3차원 공간에서의 움직임을 영상 정보에반영하는 방법 및 휴대 단말기
KR20060068508A (ko) * 2004-12-16 2006-06-21 한국전자통신연구원 다중 입체 영상 혼합 제시용 시각 인터페이스 장치
KR20070004466A (ko) * 2006-11-03 2007-01-09 희 한 소형 정보단말기의 디스플레이를 움직여 가상화면 및마우스 커서를 이동 시키는 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138637A (ja) * 1995-11-13 1997-05-27 Mitsubishi Heavy Ind Ltd 模擬視界装置
KR100325365B1 (ko) * 1999-02-23 2002-03-04 김재희 응시위치 추적시스템
JP2000259856A (ja) * 1999-03-09 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 3次元コンピュータグラフィックス表示方法及び装置
JP2003030686A (ja) * 2001-07-19 2003-01-31 Konami Co Ltd ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム
KR20060027180A (ko) * 2004-09-22 2006-03-27 주식회사 엔씨소프트 휴대 단말기의 3차원 공간에서의 움직임을 영상 정보에반영하는 방법 및 휴대 단말기
KR20060068508A (ko) * 2004-12-16 2006-06-21 한국전자통신연구원 다중 입체 영상 혼합 제시용 시각 인터페이스 장치
KR20070004466A (ko) * 2006-11-03 2007-01-09 희 한 소형 정보단말기의 디스플레이를 움직여 가상화면 및마우스 커서를 이동 시키는 방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101148508B1 (ko) * 2010-07-16 2012-05-25 한국과학기술원 모바일 기기 디스플레이의 표시 장치 및 그 방법, 이를 이용하는 모바일 기기
KR101274362B1 (ko) * 2010-10-29 2013-06-13 삼성에스디에스 주식회사 디스플레이 장치 및 그의 컨텐츠 재생 방법
WO2014031357A1 (en) * 2012-08-22 2014-02-27 Intel Corporation Adaptive visual output based on change in distance of a mobile device to a user
US9690334B2 (en) 2012-08-22 2017-06-27 Intel Corporation Adaptive visual output based on change in distance of a mobile device to a user
US9769467B2 (en) 2012-12-18 2017-09-19 Samsung Electronics Co., Ltd. 3D display device for displaying 3D image using at least one of gaze direction of user or gravity direction
US9213432B2 (en) 2013-01-29 2015-12-15 Samsung Display Co., Ltd. Mobile device and method for operating the same
WO2014150111A1 (en) * 2013-03-15 2014-09-25 Intel Corporation User interface responsive to operator position and gestures
US10152135B2 (en) 2013-03-15 2018-12-11 Intel Corporation User interface responsive to operator position and gestures

Similar Documents

Publication Publication Date Title
US20220382379A1 (en) Touch Free User Interface
CN107077169B (zh) 扩增现实中的空间交互
US10511778B2 (en) Method and apparatus for push interaction
US9619105B1 (en) Systems and methods for gesture based interaction with viewpoint dependent user interfaces
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
US8866781B2 (en) Contactless gesture-based control method and apparatus
TWI540461B (zh) 手勢輸入的方法及系統
JP6259545B2 (ja) 3dシーンでジェスチャーを入力するシステム及び方法
EP2790089A1 (en) Portable device and method for providing non-contact interface
JP5846662B2 (ja) 3次元で表示されるオブジェクトのユーザの選択ジェスチャに応答する方法およびシステム
TW201237677A (en) Natural gesture based user interface methods and systems
KR20100048747A (ko) 안면 추적을 이용한 모바일 유저 인터페이스 장치
JPWO2015030264A1 (ja) クリック動作検出装置,方法およびプログラム
JP2005063225A (ja) 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
US20130187890A1 (en) User interface apparatus and method for 3d space-touch using multiple imaging sensors
KR101564089B1 (ko) 손동작 인식을 이용한 프리젠테이션 실행시스템
JP2018005663A (ja) 情報処理装置、表示システム、プログラム
CN203070205U (zh) 一种基于手势识别的输入设备
JP2018005660A (ja) 情報処理装置、プログラム、位置情報作成方法、情報処理システム
KR101558094B1 (ko) 직관적인 핸드 모션에 기반한 멀티-모달 시스템 및 그 제어 방법
KR20150017832A (ko) 3d 객체 제어 방법 및 그 장치
Schlattmann et al. Efficient bimanual symmetric 3d manipulation for bare-handed interaction
Xie et al. Natural Bare-Hand Interaction for Remote Operating Large Touch Screen.
JP2021131764A (ja) 情報処理装置、情報処理方法、プログラム、および情報処理システム
CN116991233A (zh) Ar设备的界面交互方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E601 Decision to refuse application