KR101657168B1 - 사용자 위치 기반의 디스플레이 방법 및 장치 - Google Patents

사용자 위치 기반의 디스플레이 방법 및 장치 Download PDF

Info

Publication number
KR101657168B1
KR101657168B1 KR1020090117758A KR20090117758A KR101657168B1 KR 101657168 B1 KR101657168 B1 KR 101657168B1 KR 1020090117758 A KR1020090117758 A KR 1020090117758A KR 20090117758 A KR20090117758 A KR 20090117758A KR 101657168 B1 KR101657168 B1 KR 101657168B1
Authority
KR
South Korea
Prior art keywords
user
area
display device
screen
display
Prior art date
Application number
KR1020090117758A
Other languages
English (en)
Other versions
KR20110061187A (ko
Inventor
류희섭
박승권
장종혁
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090117758A priority Critical patent/KR101657168B1/ko
Priority to US12/783,835 priority patent/US9507424B2/en
Priority to EP10190697A priority patent/EP2336868A1/en
Publication of KR20110061187A publication Critical patent/KR20110061187A/ko
Application granted granted Critical
Publication of KR101657168B1 publication Critical patent/KR101657168B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Abstract

사용자 위치 기반의 디스플레이 방법 및 장치가 개시된다. 본 디스플레이 방법은, 사용자의 위치를 판단하는 단계, 화면을 구성하여 디스플레이하는 단계, 사용자 정보를 추출하는 단계 및 디스플레이된 화면을 변경하는 단계를 포함한다. 이에 의해, 디스플레이 장치와 사용자 간의 자연스러운 인터랙션이 가능하게 하고, 사용자에게 보다 효과적으로 컨텐츠를 제공할 수 있게 된다.
터치 영역, 제스처 영역, 추종 영역

Description

사용자 위치 기반의 디스플레이 방법 및 장치{Display method and apparatus based on user's potion}
본 발명은 사용자 위치 기반의 디스플레이 방법 및 장치에 관한 것으로서, 보다 상세하게는, 사용자의 위치에 따라 화면을 구성하고, 사용자의 위치에 따라 사용자의 입력방식을 다르게 하기 위한 디스플레이 방법 및 장치에 관한 것이다.
근자에 이르러 TV의 대형화 추세가 계속되면서, 사용자는 보다 큰 화면을 통해 영상을 시청하는 것이 가능하게 되었다. 이와 같은 TV의 대형화는, 평판 디스플레이 장치의 대표 주자인 TFT LCD(Thin Film Transistor Liquid Crystal Display)와 PDP(Plasma Display Panel)의 발전으로 인해 더욱 가속화되었다고 해도 과언이 아닐 것이다.
이와 같이 대형화된 TV는 다양한 콘텐츠와 역동적인 동영상 서비스를 제공하기 위한 광고 목적 등으로도 사용되어, 평면적이고 단편적인 콘텐츠를 제공하는 일반 광고에 비해, 사용자에게 보다 효과적인 어필이 가능하도록 하고 있다. 이러한 목적의 디스플레이 장치를 DID(Digital Information Display)라고 하며, 이러한 형태의 대형 디스플레이 장치를 LFD(Large Format Display)라고 한다.
그러나, 대형 디스플레이 장치를 이용하여 광고 목적등으로 사용하는 경우에도, 일률적인 방법으로 화면을 구성하여 디스플레이함에 그치고 있으며, 대형 디스플레이 장치 주변에 존재하는 사용자들의 환경을 고려한 화면을 구성하여 제공하고 있지는 않은 실정이다.
이에 따라, 사용자의 관심 또는 호기심을 적극적으로 유도하고, 사용자와의 인터랙션을 통해 보다 효과적으로 컨텐츠를 제공할 수 있도록 하기 위한 방안의 모색이 요청된다.
본 발명은 상기와 같은 문제를 해결하기 위해 안출된 것으로서, 본 발명의 목적은, 사용자의 위치에 따라 화면을 구성하고, 사용자의 위치에 따라 사용자의 입력방식을 다르게 하여, 사용자와의 자연스러운 인터랙션을 가능하게 하는 디스플레이 방법 및 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 디스플레이 장치에서의 디스플레이 방법은, 상기 디스플레이 장치를 기준으로 한 사용자의 위치를 판단하는 단계; 상기 사용자의 위치를 기초로, 화면을 구성하여 디스플레이하는 단계; 상기 사용자의 위치를 기초로, 선별적으로 사용자 정보를 추출하는 단계; 및 상기 추출된 사용자 정보를 기초로, 디스플레이된 화면을 변경하는 단계;를 포함한다.
여기서, 상기 사용자의 위치는, 상기 디스플레이 장치로부터 상기 사용자까지의 거리이고, 상기 디스플레이 단계는, 사용자까지의 거리가 제1 거리 미만인 경 우, 사용자로부터 터치되어 동작되는 컨텐츠로 화면을 구성하여 디스플레이할 수 있다.
또한, 상기 사용자의 위치는, 상기 디스플레이 장치로부터 상기 사용자까지의 거리이고, 상기 추출단계는, 사용자까지의 거리가 제1 거리 미만인 경우, 사용자로부터 상기 디스플레이 장치가 터치된 위치의 좌표 정보를 상기 사용자 정보로서 선별하여 추출할 수 있다.
그리고, 상기 디스플레이단계는, 아이템을 선택하기 위한 메뉴 화면을 구성하여 디스플레이하고, 상기 변경단계는, 사용자로부터 터치된 위치의 좌표 정보에 대응되는 아이템과 관련된 화면으로 변경할 수 있다.
또한, 상기 사용자의 위치는, 상기 디스플레이 장치로부터 상기 사용자까지의 거리이고, 상기 추출단계는, 사용자까지의 거리가 제1 거리 이상이고 제2 거리 미만인 경우, 사용자의 모션에 관한 정보를 상기 사용자 정보로서 선별하여 추출할 수 있다.
그리고, 상기 사용자의 모션은, 상기 사용자의 얼굴 모션 및 상기 사용자의 손 모션 중 적어도 하나를 포함할 수 있다.
또한, 상기 변경단계는, 상기 사용자의 얼굴 또는 상기 사용자의 손이, 상기 화면의 특정 부분을 지시하는 경우, 상기 화면의 특정 부분이 상기 화면의 다른 부분보다 부각되도록 상기 화면을 변경할 수 있다.
그리고, 상기 사용자의 위치는, 상기 디스플레이 장치의 화면을 기준으로 하여 사용자가 존재하는 방항이고, 상기 디스플레이 단계는, 상기 사용자가 존재하는 방향을 향하여 디스플레이되는 효과를 가지도록 상기 화면을 구성하여 디스플레이할 수 있다.
또한, 상기 사용자의 위치는, 상기 디스플레이 장치로부터 상기 사용자까지의 거리이고, 상기 추출단계는, 사용자까지의 거리가 제2 거리 이상이고 제3 거리 미만인 경우, 사용자의 이동방향에 관한 정보를 상기 사용자 정보로서 선별하여 추출할 수 있다.
그리고, 상기 변경단계는, 상기 사용자가 특정 방향으로 이동하는 경우, 상기 특정 방향을 향하여 디스플레이되는 효과를 가지도록 상기 화면을 변경할 수 있다.
또한, 상기 사용자의 위치는, 상기 디스플레이 장치로부터 상기 사용자까지의 거리이고, 상기 디스플레이 단계는, 상기 사용자까지의 거리가 제1 거리 이상이고 제3 거리 미만인 경우, 광고 화면을 구성하여 디스플레이할 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 디스플레이 장치의 디스플레이 방법은, 상기 디스플레이 장치의 주변 영역을 복수의 영역으로 구분하는 단계; 상기 복수의 영역별로, 상기 디스플레이 장치에 대한 명령방법을 설정하는 단계; 상기 복수의 영역 중 사용자가 존재하는 영역을 판단하는 단계; 및 상기 사용자가 존재하는 영역에 대해 설정된 명령방법에 따르지 않는 명령이 입력되면 무시하고, 상기 설정된 명령방법에 따른 명령이 입력되면 상기 입력된 명령에 따라 화면을 디스플레이하는 단계;를 포함한다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 디스플레이 장치는, 상기 디스플레이 장치를 기준으로 한 사용자의 위치를 판단하는 위치 인식부; 및 상기 사용자의 위치를 기초로 화면이 구성되어 디스플레이되도록 하고, 상기 사용자의 위치를 기초로 선별적으로 사용자 정보가 추출되도록 하며, 상기 추출된 사용자 정보를 기초로 상기 디스플레이된 화면이 변경되도록 하는 제어부;를 포함한다.
여기서, 상기 사용자의 위치는, 상기 디스플레이 장치로부터 상기 사용자까지의 거리이고, 상기 제어부는, 사용자까지의 거리가 제1 거리 미만인 경우, 사용자로부터 터치되어 동작되는 컨텐츠로서 화면이 구성되어 디스플레이되도록 할 수 있다.
또한, 상기 사용자의 위치는, 상기 디스플레이 장치로부터 상기 사용자까지의 거리이고, 상기 제어부는, 사용자까지의 거리가 제1 거리 미만인 경우, 사용자로부터 상기 디스플레이 장치가 터치된 위치의 좌표 정보가 상기 사용자 정보로서 선별되어 추출되도록 할 수 있다.
그리고, 상기 제어부는, 아이템을 선택하기 위한 메뉴 화면이 구성되어 디스플레이되도록 하고, 사용자로부터 터치된 위치의 좌표 정보에 대응되는 아이템과 관련된 화면으로 변경되도록 할 수 있다.
또한, 상기 사용자의 위치는, 상기 디스플레이 장치로부터 상기 사용자까지의 거리이고, 상기 제어부는, 사용자까지의 거리가 제1 거리 이상이고 제2 거리 미만인 경우, 사용자의 모션에 관한 정보가 상기 사용자 정보로서 선별되어 추출되도록 할 수 있다.
그리고, 상기 사용자의 모션은, 상기 사용자의 얼굴 모션 및 상기 사용자의 손 모션 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어부는, 상기 사용자의 얼굴 또는 상기 사용자의 손이, 상기 화면의 특정 부분을 지시하는 경우, 상기 화면의 특정 부분이 상기 화면의 다른 부분보다 부각되도록 상기 화면이 변경되도록 할 수 있다.
그리고, 상기 사용자의 위치는, 상기 디스플레이 장치의 화면을 기준으로 하여 사용자가 존재하는 방항이고, 상기 제어부는, 상기 사용자가 존재하는 방향을 향하여 디스플레이되는 효과를 가지도록 상기 화면이 구성되어 디스플레이되도록 할 수 있다.
또한, 상기 사용자의 위치는, 상기 디스플레이 장치로부터 상기 사용자까지의 거리이고, 상기 제어부는, 사용자까지의 거리가 제2 거리 이상이고 제3 거리 미만인 경우, 사용자의 이동방향에 관한 정보가 상기 사용자 정보로서 선별되어 추출되도록 할 수 있다.
그리고, 상기 제어부는, 상기 사용자가 특정 방향으로 이동하는 경우, 상기 특정 방향을 향하여 디스플레이되는 효과를 가지며 상기 화면이 변경되도록 할 수 있다.
또한, 상기 사용자의 위치는, 상기 디스플레이 장치로부터 상기 사용자까지의 거리이고, 상기 제어부는, 상기 사용자까지의 거리가 제1 거리 이상이고 제3 거리 미만인 경우, 광고 화면이 구성되어 디스플레이되도록 할 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 디스플레이 장치는, 사용자가 존재하는 영역을 판단하는 위치 인식부; 및 상기 디스플레이 장치의 주변 영역을 복수의 영역으로 구분하고, 상기 복수의 영역별로 상기 디스플레이 장치에 대한 명령방법을 설정하며, 상기 사용자가 존재하는 영역에 대해 설정된 명령방법에 따르지 않는 명령이 입력되면 무시하고, 상기 설정된 명령방법에 따른 명령이 입력되면 상기 입력된 명령에 따라 화면이 디스플레이되도록 하는 제어부;를 포함한다.
이에 의해, 디스플레이 장치와 사용자 간의 자연스러운 인터랙션이 가능하게 하고 사용자에게 특화된 컨텐츠를 제공하여, 사용자로 하여금 보다 컨텐츠에 대한 관심과 흥미를 유발시킬 수 있게 된다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 특히, 도 1 및 도 4를 참조하여 디스플레이 장치의 기본구성 및 동작원리에 대해 설명하기로 하고, 도 5 내지 도 8을 참조하여 사용자의 위치별 동작내용에 대해 설명하기로 하며, 도 9를 참조하여 화면구성을 위한 동작흐름에 대해 설명하기로 한다.
< 디스플레이 장치의 기본구성 및 동작원리 >
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치(100)를 도시한 도면이다. 본 실시예에 따른 디스플레이 장치(100)는, 디스플레이 장치(100)에 대한 사용자의 위치별로 화면을 구성하여 사용자에게 제공하며, 디스플레이 장치(100)에 대한 조작들 중 사용자의 위치에 대응되는 조작만에 대해서만 반응하여 동작한다.
디스플레이 장치(100)는 센싱부(110), 위치 인식부(120), 컨텐츠 가공부(130), 컨텐츠 출력부(140), 디스플레이(150), 제어부(160) 및 저장부(170)로 구성된다.
센싱부(110)는 디스플레이 장치(100) 전면의 영상 및 디스플레이 장치(100)의 화면에 대한 사용자의 터치입력 등을 감지한다. 센싱부(110)는 감지된 영상 또는 감지된 터치에 대한 정보를 위치 인식부(120)로 전달한다.
위치 인식부(120)는 센싱부(110)로부터 감지된 영상 또는 감지된 터치에 관한 정보를 수신하여, 감지된 영상 또는 감지된 터치로부터 사용자에 대한 정보(이하, '사용자 정보'로 총칭)를 추출한다.
사용자 정보는, 디스플레이 장치(100)를 기준으로 한 사용자의 위치, 사용자가 디스플레이 장치(100)를 터치한 좌표, 디스플레이 장치(100) 전면에서의 사용자의 모션, 디스플레이 장치(100) 전면에서의 사용자의 이동방향 등을 포함하는 사용자에 관한 모든 정보를 총칭하는 개념이다.
특히, 위치 인식부(120)는 감지된 영상으로부터 디스플레이 장치(100)를 기준으로 한 사용자의 위치 또는 영역을 사용자 정보로서 추출하고, 사용자의 위치 또는 영역을 기초로 나머지 사용자 정보들 중 일부 또는 전부를 선별적으로 추출한다.
예를 들어, 위치 인식부(120)는 감지된 영상으로부터 사용자가 제1 영역에 있다는 사용자 정보를 추출한 경우, 이를 기초로 제1 영역에 대응되는 사용자의 이동방향에 대한 정보만을 추출할 수 있게 된다.
이와 같이, 사용자의 위치 또는 영역에 따라 사용자 정보를 선별적으로 추출하는 이유는, 디스플레이 장치(100)의 본래 목적을 고려할 때, 사용자의 위치 또는 영역에 따라 불필요한 사용자 정보가 있을 수 있고, 반드시 필요한 사용자 정보가 있을 수 있기 때문이다.
예를 들어, 디스플레이 장치(100)의 목적이 단지 물품 광고를 위한 화면을 디스플레이 하기 위한 것이라면, 사용자의 터치 입력등은 디스플레이 장치(100)에게 불필요한 사용자 정보가 되기 때문이다.
다만, 본 발명의 일 실시예에 따른 디스플레이 장치(100)는 사용자의 위치 또는 영역에 따라 서로 다른 목적으로 동작하기 때문에, 사용자에 대한 포괄적인 정보를 수신한 후, 사용자의 위치 또는 영역에 따라 사용자 정보를 선별적으로 추출하게 되는 것이다.
위치 인식부(120)는 사용자의 위치 또는 영역에 대한 정보와 선별적으로 추출된 사용자 정보를 컨텐츠 가공부(130)로 전달한다. 우선, 위치 인식부(120)는 센싱부(110)에서 감지한 사용자의 위치 또는 영역에 대한 정보를 컨텐츠 가공부(130)로 전달하고, 이후, 사용자의 위치 또는 영역에 따라 선별적으로 추출된 사용자 정보를 컨텐츠 가공부(130)로 전달하게 된다.
컨텐츠 가공부(130)는 위치 인식부(120)로부터 수신된 사용자의 위치 또는 영역에 대한 정보를 기초로 컨텐츠를 가공하여 화면이 구성되도록 한다. 예를 들어, 컨텐츠 가공부(130)는, 사용자가 디스플레이 장치(100)로부터 가까운 거리에 존재한다고 판단되는 경우 물품 구매를 위한 화면이 구성되도록 하고, 사용자가 디 스플레이 장치(100)로부터 먼 거리에 존재한다고 판단되는 경우 물품 광고를 위한 화면이 구성되도록 할 수 있다.
컨텐츠 가공부(130)는 구성된 화면을 컨텐츠 출력부(140)로 전달하고, 컨텐츠 출력부(140)는 컨텐츠 가공부(130)로부터 전달되는 영상 신호에 대응되는 화면이 디스플레이(150)를 통해 출력되어 사용자에게 제공되도록 한다.
제어부(160)는 디스플레이 장치(100)에 대한 전반의 동작을 제어한다. 특히, 제어부(160)는 센싱부(110)를 제어하여, 디스플레이 장치(100) 전면의 영상 및 디스플레이 장치(100)의 화면에 대한 사용자의 터치입력 등이 감지되도록 하고, 감지된 영상 또는 감지된 터치에 대한 정보가 위치 인식부(120)로 전달되도록 한다.
또한, 제어부(160)는 위치 인식부(120)를 제어하여, 디스플레이 장치(100)를 기준으로 한 사용자의 위치 또는 영역이 사용자 정보로서 추출되고, 사용자의 위치 또는 영역을 기초로 나머지 사용자 정보들 중 일부 또는 전부가 선별적으로 추출되도록 한다.
뿐만 아니라, 제어부(160)는 컨텐츠 가공부(130) 및 컨텐츠 출력부(140)를 제어하여, 사용자의 위치에 대응되는 화면이 구성되어 출력되거나 선별적으로 추출된 사용자에 대한 정보를 기초로 화면이 변경되어 출력되도록 한다.
저장부(170)는 디스플레이 장치(100)의 전반을 동작시키기 위한 프로그램이 저장되는 저장매체로서, 메모리, HDD(Hard Disk Drive) 등으로 구현가능하다.
이하에서는, 디스플레이 장치(100)에 대한 구체적 동작 설명을 위해 도 2를 참조하기로 한다.
도 2는 디스플레이 장치(100)의 구체적 구성을 도시한 도면이다. 도 2에서는 설명의 편의를 위해, 컨텐츠 출력부(140), 디스플레이(150), 제어부(160) 및 저장부(170)에 대해서는 도시하지 않았다.
센싱부(110)는 이미지 센싱부(111) 및 터치 센싱부(113)로 구성된다.
이미지 센싱부(111)는 디스플레이 장치(100)의 상단부 등에 위치하여 디스플레이 장치(100)의 전면을 촬영하고, 촬영된 영상에 대한 영상신호를 위치 인식부(120)로 전달한다.
터치 센싱부(113)는 디스플레이 장치(100)의 전면 등에 위치하여 사용자의 터치조작을 입력받아, 입력된 터치에 대응되는 터치신호를 위치 인식부(120)로 전달한다.
위치 인식부(120)는 제1 신호 처리부(121), 제2 신호 처리부(123) 및 제3 신호 처리부(125)로 구성된다.
제1 신호 처리부(121)는 이미지 센싱부(110)로부터 수신된 영상신호에서 사용자 정보 중 사용자의 위치 및 영역에 대한 정보를 추출하여 분석한다. 특히, 제1 신호 처리부(121)는 이미지 센싱부(110)로터 수신된 영상신호에서, 디스플레이 장치(100)를 기준으로 한 사용자의 위치 좌표를 계산하고, 계산된 위치 좌표를 컨텐츠 가공부(130)로 전달한다.
제2 신호 처리부(123)는 이미지 센싱부(110)로부터 수신된 영상신호에서 사용자 정보 중 사용자의 모션에 대한 정보를 추출하여 분석한다. 특히, 제2 신호 처리부(123)는 이미지 센싱부(110)로부터 수신된 영상신호에서, 디스플레이 장 치(100) 전면에서의 사용자의 얼굴, 손에 대한 위치 좌표를 계산하고, 계산된 위치 좌표를 컨텐츠 가공부(130)로 전달한다.
제3 신호 처리부(125)는 터치 센싱부(110)로부터 수신된 터치신호에서 사용자의 정보 중 터치와 관련된 정보를 추출하여 분석한다. 특히, 제3 신호 처리부(125)는 터치 센싱부(110)로부터 수신된 터치신호에서, 디스플레이 장치(100)의 화면에서의 사용자가 터치한 부분의 터치 좌표를 계산하고, 계산된 터치 좌표를 컨텐츠 가공부(130)로 전달한다.
컨텐츠 가공부(130)는 영역 및 명령 결정부(131)와 표시영상 처리부(133)로 구성된다.
영역 및 명령 결정부(131)는, 제1 신호 처리부(121), 제2 신호 처리부(123) 및 제3 신호 처리부(125)로부터, ①디스플레이 장치(100)를 기준으로 한 사용자의 위치 좌표, ②디스플레이 장치(100) 전면에서의 사용자의 얼굴, 손에 대한 위치 좌표 및 ③디스플레이 장치(100)의 화면에서의 사용자가 터치한 부분의 터치 좌표를 입력받고, 이를 기초로 사용자의 위치 또는 영역, 그리고, 사용자의 명령을 결정한다.
특히, 영역 및 명령 결정부(131)는 제1 신호 처리부(121)로부터 수신된 사용자의 위치 좌표를 기초로, 디스플레이 장치(100)를 기준으로 한 사용자의 위치 또는 영역을 결정한다. 또한, 영역 및 명령 결정부(131)는 제2 신호 처리부(123)로부터 수신된 사용자의 얼굴, 손에 대한 위치 좌표를 기초로, 디스플레이 장치(100)에 대한 사용자의 조작명령을 결정한다. 뿐만 아니라, 영역 및 명령 결정부(131)는 제 3 신호 처리부(125)로부터 수신된 터치 좌표를 기초로, 터치 좌표에 대응되는 사용자 명령을 결정한다.
이에 대한 설명을 위해 도 3 및 도 4를 참조하기로 한다.
도 3은 사용자가 존재하는 영역에 대한 설명을 위해 제공되는 도면이다. 특히, 도 3은 디스플레이 장치(100)를 위에서 내려다본 모습을 도시하였다.
도시된 바와 같이, 디스플레이 장치(100)의 주변, 특히, 디스플레이 장치(100)의 전면은, 터치 영역, 제스처 영역 및 추종 영역으로 구분된다.
터치 영역은, 사용자의 터치 조작에 반응하기 위한 영역이다. 예를 들어, 사용자가 터치 영역에 존재하는 경우, 디스플레이 장치(100)는 터치 영역에 대응되는 화면을 구성하여 디스플레이하고, 사용자가 디스플레이 장치(100)를 터치한 좌표를 사용자 정보로서 선별적으로 추출하며, 터치한 좌표에 대응되는 화면으로 변경하여 디스플레이하게 된다.
사용자가 터치 영역에 존재하는 경우, 사용자의 디스플레이 장치(100)에 대한 관심도가 높은 상태라고 볼 수 있을 것이다. 따라서, 디스플레이 장치(100)는, 사용자가 이미 디스플레이 장치(100)에 대한 관심을 가지고 있다는 추정을 기초로, 물품 구매를 위한 메뉴 화면을 구성하여 사용자에게 제공할 수 있을 것이다.
또한, 제스처 영역은, 사용자의 제스처에 반응하기 위한 영역이다. 예를 들어, 사용자가 제스처 영역에 존재하는 경우, 디스플레이 장치(100)는 제스처 영역에 대응되는 화면을 구성하여 디스플레이하고, 사용자의 모션에 대한 정보를 사용자 정보로서 선별적으로 추출하며, 사용자의 모션에 대응되는 화면으로 변경하여 디스플레이하게 된다.
사용자가 제스처 영역에 존재하는 경우, 사용자의 디스플레이 장치(100)에 대한 일정 레벨의 관심도가 존재하거나 사용자의 관심도를 높일 수 있는 상태라고 볼 수 있을 것이다. 따라서, 디스플레이 장치(100)는, 광고 화면을 구성하여 디스플레이하되, 사용자의 관심도를 더욱 높이기 위해, 사용자의 모션에 따라 광고 화면이 변경되도록 하여 사용자에게 제공할 수 있을 것이다.
그리고, 추종 영역은, 사용자의 이동에 반응하기 위한 영역이다. 예를 들어, 사용자가 추종 영역에 존재하는 경우, 디스플레이 장치(100)는 추종 영역에 대응되는 화면을 구성하여 디스플레이하고, 사용자의 이동방향 또는 위치에 대한 정보를 사용자 정보로서 선별적으로 추출하며, 사용자의 이동방향 또는 위치에 대응되는 화면으로 변경하여 디스플레이하게 된다.
사용자가 추종 영역에 존재하는 경우, 사용자의 디스플레이 장치(100)에 대한 관심도가 낮거나 전혀 없는 상태라고 볼 수 있을 것이다. 따라서, 디스플레이 장치(100)는, 광고 화면을 구성하여 디스플레이하되, 사용자의 관심을 유도하기 위해, 사용자의 이동방향으로 광고 화면이 추종되도록 변경하여 사용자에게 제공할 수 있을 것이다.
한편, 도 4는 디스플레이 장치(100)의 전면 모습을 도시한 도면이다.
도시된 바와 같이, 디스플레이 장치(100)의 상단에는 이미지 센싱부(111)가 마련되어, 디스플레이 장치(100) 전면에 대한 영상을 촬영하게 된다.
또한, 디스플레이(150)는 터치 스크린 방식으로 동작하기 때문에, 디스플레 이(150)의 내부에는 터치 감지를 위한 하는 터치 센싱부(113)가 마련되게 된다.
전술한 바와 같이, 디스플레이 장치(100)는 사용자의 영역에 따라 화면을 구성하여 디스플레이한다. 따라서, 사용자가 존재하는 영역이 터치 영역일 경우, 화면에 표시된 아이템(200)은 물품 선택을 위한 아이템이 되고, 사용자가 존재하는 영역이 제스처 영역 또는 추종 영역일 경우, 화면에 표시된 아이템(200)은 물품 광고를 위한 아이템이 된다.
또한, 사용자가 존재하는 영역이 터치 영역일 경우, 화면에 표시된 아이템(200)은 사용자의 터치 조작에 의해 변경되거나 선택되게 되고, 사용자가 존재하는 영역이 제스처 영역 또는 추종 영역일 경우, 화면에 표시된 아이템(200)은 사용자의 모션 또는 이동방향에 따라 변경될 수 있게 된다.
다시 도 2에 대해 설명하면, 이와 같이, 영역 및 명령 결정부(131)는 사용자의 위치 또는 영역에 따른 화면이 구성되고, 사용자의 위치, 이동방향, 터치 또는 모션을 기초로 사용자의 조작명령을 결정한다.
영역 및 명령 결정부(131)는 사용자의 위치 또는 영역에 관한 정보, 그리고, 사용자의 조작명령에 관한 정보를 표시영상 처리부(133)로 전달하고, 표시영상 처리부(133)는 사용자의 위치 또는 영역을 기초로 화면을 구성하며, 위치 또는 영역에 따라 선별적으로 추출된 사용자 정보를 기초로 화면이 변경되어 구성되도록 한다.
표시영상 처리부(133)는 구성된 화면 또는 변경 구성된 화면을 컨텐츠 출력부(140)로 전달한다.
이에 의해, 디스플레이 장치와 사용자 간의 자연스러운 인터랙션이 가능하게 하고, 사용자에게 보다 효과적으로 컨텐츠를 제공할 수 있게 된다.
< 사용자의 위치별 동작내용 >
이하에서는, 사용자의 위치 또는 영역에 기초한 구체적인 동작에 대해 도 5 내지 도 8을 참조하여 설명하기로 한다.
도 5는 터치 영역에서의 동작을 설명하기 위한 도면이다.
도시된 바와 같이, 사용자가 터치 영역에 존재하는 경우, 디스플레이 장치(100)는 터치 영역 내에서 사용자가 상측에 존재하는지, 하측에 존재하는지, 좌측에 존재하는지, 우측에 존재하는지 여부를 따지지 않고 동일한 메뉴 화면을 구성하여 디스플레이하게 된다. 이는, 사용자가 디스플레이 장치(100)로부터 상당히 근접한 거리에 있기 때문에, 사용자의 위치별로 메뉴 화면을 구성하는 것이 의미가 없을 수 있기 때문이다.
한편, 디스플레이 장치(100)에서 제공되는 메뉴 화면은, 사용자의 터치 조작을 입력받기에 적절한 메뉴 화면이다. 따라서, 디스플레이 장치(100)는 메뉴 화면을 구성하는 아이템들의 크기가 너무 작거나 사용자의 손이 뻗기 힘든 구석 부분등에 마련되도록 하지 않고, 사용자의 우측 손 또는 좌측 손을 가볍게 들었을 때에 터치할 수 있는 부분들에 아이템들이 마련되도록 할 수 있다.
또한, 사용자가 터치 영역에 존재하기 때문에, 디스플레이 장치(100)는 사용자의 터치 조작을 사용자 명령으로서 선별적으로 추출하고, 선별적으로 추출된 터 치 조작에 따라 동작하게 된다. 따라서, 도시된 바와 같이, 사용자가 아이템(200)을 터치할 경우, 터치된 아이템(200)은 사용자의 터치조작에 따라 변경되게 된다.
도 6은 제스처 영역에서의 동작을 설명하기 위한 도면이다.
도시된 바와 같이, 사용자가 제스처 영역에 존재하는 경우, 디스플레이 장치(100)는 제스처 영역 내에서 사용자가 상측에 존재하는지, 하측에 존재하는지, 좌측에 존재하는지, 우측에 존재하는지 여부를 따지지 않고 동일한 광고 화면을 구성하여 디스플레이하게 된다. 이는, 사용자가 디스플레이 장치(100)로부터 어느정도 근접한 거리에 있기 때문에, 사용자의 위치별로 광고 화면을 구성하는 것이 의미가 없을 수 있기 때문이다.
한편, 디스플레이 장치(100)에서 제공되는 광고 화면은, 사용자의 모션에 따라 반응하기에 적절한 광고 화면이다. 따라서, 이러한 광고 화면은, 별도의 설명이 부가되지 않더라도, 사용자로 하여금 모션을 이용한 조작충동이 유발될 수 있도록 하는 컨텐츠를 포함하는 것이 적절할 것이다.
또한, 사용자가 제스처 영역에 존재하기 때문에, 디스플레이 장치(100)는 사용자의 모션을 사용자 명령으로서 선별적으로 추출하고, 선별적으로 추출된 모션에 따라 동작하게 된다. 즉, 사용자가 디스플레이 장치(100)의 앞에 서 있을 경우, 디스플레이 장치(100)는 사용자의 머리, 눈, 손 등의 신체 각 부분에 대한 위치를 파악하고, 신체 각 부분의 위치가 변경되는 경우, 이를 사용자 명령으로 추출하게 되는 것이다.
사용자의 머리와 손에 점선 사각형(610, 630)이 부가된 것과 같이, 도시된 예에서는 디스플레이 장치(100)가 사용자의 머리와 손의 위치를 파악한 것으로 상정하였다.
따라서, 디스플레이 장치(100)는 손의 위치가 우에서 좌로 변경되는 사용자 모션을 사용자 명령으로서 추출하고, 추출된 사용자 명령에 따라 다면체 형태의 아이템(200)을 우에서 좌로 회전시키는 등 사용자 명령에 대응되는 화면으로 변경시킨다.
도 7a 내지 도 7d는 모션에 따른 화면 변경 내용을 부연설명하기 위한 도면이다. 도 7a 내지 도 7d에 따르면, 사용자의 얼굴 또는 손이 화면의 특정 부분을 지시하는 경우, 디스플레이 장치(100)는 이러한 특정 부분이 화면의 다른 부분보다 부각되어 표시되거나 화면의 다른 부분을 대체하여 표시되록 한다.
도 7a는 사용자가 손을 디스플레이 장치(100) 쪽으로 뻗었을 경우의 변경된 화면을 도시한 도면이다. 사용자가 손을 디스플레이 장치(100) 쪽으로 뻗은 경우, 디스플레이 장치(100)는 사용자에게 제공된 화면의 크기가 너무 큰 것으로 추정하고, 화면에 포함된 아이템(200)을 축소시켜 사용자에게 제공하게 된다.
도 7b는 사용자가 손을 몸쪽으로 당겼을 경우의 변경된 화면을 도시한 도면이다. 사용자가 손을 몸족으로 당겼을 경우, 디스플레이 장치(100)는 사용자에게 제공된 화면의 크기가 너무 작은 것으로 추정하고, 화면에 포함된 아이템(200)을 확대시켜 사용자에게 제공하게 된다.
도 7c는 사용자가 머리를 숙인 경우의 변경된 화면을 도시한 도면이다. 사용 자가 머리를 숙이는 경우, 디스플레이 장치(100)는, 사용자가 사용자에게 제공된 화면에 포함된 아이템(200)의 하단을 보고 싶어하는 것으로 추정하고, 화면에 포함된 아이템(200)을 회전시켜 아이템(200)의 하단이 디스플레이되도록 한다.
물론, 사용자의 머리에 점선 사각형(610)이 부가된 것과 같이, 디스플레이 장치(100)가 사용자의 머리의 위치를 파악하고 있어야 할 것이다.
도 7d는 사용자가 디스플레이 장치(100)를 등진 경우의 변경된 화면을 도시한 도면이다. 사용자가 디스플레이 장치(100)를 등진 경우, 디스플레이 장치(100)는, 사용자의 주의를 환기시키기 위해 화면 자체 또는 화면에 포함된 아이템(200)이 하이라이트되도록 하게 된다.
도 8은 추종 영역에서의 동작을 설명하기 위한 도면이다.
사용자가 추종 영역에 존재하는 경우, 디스플레이 장치(100)는 추종 영역 내에서 사용자가 존재하는 위치에 따라 서로 다른 광고 화면을 구성하여 디스플레이하게 된다. 이는, 사용자가 디스플레이 장치(100)로부터 멀리 떨어져 있고 사용자가 디스플레이 장치(100)에서 디스플레이되는 광고 화면에 대해 인식하고 있지 못할 수 있기 때문에, 사용자의 주의를 환기시켜 광고 화면에 대한 시청을 유도하기 위함이다.
즉, 사용자가 디스플레이 장치(100)의 좌측에 존재한 경우, 도시된 바와 같이, 디스플레이 장치(100)는 사용자가 존재하는 좌측 방향을 향하여 디스플레이되는 효과를 가지도록 화면을 구성하여 디스플레이하게 된다.
또한, 사용자가 추종 영역에 존재하기 때문에, 디스플레이 장치(100)는 사용 자의 이동방향을 사용자 명령으로서 선별적으로 추출하고, 선별적으로 추출된 이동방향에 따라 동작하게 된다.
즉, 사용자가 디스플레이 장치(100)의 좌측에서 중앙으로 이동하는 경우, 도시된 바와 같이, 디스플레이 장치(100)는 사용자가 이동하는 중앙 방향을 향하여 디스플레이되는 효과를 가지도록 화면을 변경하여 디스플레이하게 된다. 또한, 사용자가 디스플레이 장치(100)의 중앙에서 우측으로 이동하는 경우, 도시된 바와 같이, 디스플레이 장치(100)는 사용자가 이동하는 우측 방향을 향하여 디스플레이되는 효과를 가지도록 화면을 변경하여 디스플레이하게 된다.
이에 의해, 디스플레이 장치와 사용자 간의 자연스러운 인터랙션이 가능하게 하고, 사용자에게 보다 효과적으로 컨텐츠를 제공할 수 있게 된다.
< 화면구성을 위한 동작흐름 >
이하에서는 도 9를 참조하여, 사용자 정보에 기초한 화면구성을 위한 동작흐름에 대해 설명하기로 한다. 도 9는 본 발명의 일 실시예에 따른 디스플레이 방법을 설명하기 위한 흐름도이다.
우선, 디스플레이 장치(100)는 영상을 수집하고(S905), 수집된 영상으로부터 사용자의 위치 좌표를 산출한다(S910).
산출된 위치 좌표로부터 사용자가 터치 영역에 존재한다고 판단된 경우(S915-Y), 디스플레이 장치(100)는 터치를 위한 화면을 구성하여 디스플레이한다(S920).
사용자의 터치가 입력되면(S925-Y), 터치가 입력된 부분의 위치 좌표를 산출하고(S930), 터치가 입력된 부분의 위치 좌표에 대응되는 화면으로 전환한다(S935).
이후, 디스플레이 장치(100)는 사용자가 터치 영역을 벗어났는지 여부를 판단하고(S940), 사용자가 터치 영역을 벗어난 경우(S940-Y), 사용자가 제스처 영역에 존재하는지(S945) 또는 사용자가 추종 영역에 존재하는지(S970) 여부를 판단하게 된다.
한편, 산출된 위치 좌표로부터 사용자가 제스처 영역에 존재한다고 판단된 경우(S945-Y), 디스플레이 장치(100)는 제스처를 위한 화면을 구성하여 디스플레이한다(S950).
또한, 디스플레이 장치(100)는 사용자의 모션에 대한 좌표를 산출하고(S955), 사용자의 손, 머리 등의 모션에 대한 좌표에 대응되는 화면으로 전환한다(S960).
이후, 디스플레이 장치(100)는 사용자가 제스처 영역을 벗어났는지 여부를 판단하고(S965), 사용자가 터치 영역을 벗어난 경우(S965-Y), 사용자가 추종 영역에 존재하는지(S970) 여부를 판단하게 된다.
한편, 산출된 위치 좌표로부터 사용자가 추종 영역에 존재한다고 판단된 경우(S970-Y), 디스플레이 장치(100)는 사용자의 이동방향에 따른 위치 좌표에 대응되는 화면을 구성하여 디스플레이한다(S975).
이후, 디스플레이 장치(100)는 사용자가 추종 영역을 벗어났는지 여부를 판 단하고(S980), 사용자가 터치 영역을 벗어난 경우(S980-Y), 사용자가 터치 영역에 존재하는지(S915) 여부를 판단하게 된다.
이에 의해, 디스플레이 장치와 사용자 간의 자연스러운 인터랙션이 가능하게 하고, 사용자에게 보다 효과적으로 컨텐츠를 제공할 수 있게 된다.
< 기타 실시예 >
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
특히, 이상에서 설명한 화면 구성이나 화면 변경과 관련된 내용은 설명의 편의를 위한 예시적 사항에 불과하다. 따라서, 이상에서 설명된 화면과 다른 화면으로 구성되거나 다른 화면으로 변경되는 경우에도 본 발명의 적용대상이 됨은 물론이다.
또한, 이상에서는 세 개의 영역으로 구분되어 구분된 영역에 따라 동작하는 것으로 설명하였으나, 이 역시 예시적 사항에 불과하다. 따라서, 셋 이상의 영역으로 구분되고 각 영역에 따라 전술한 내용들과 다른 방법으로 동작하는 경우에도 본 발명이 적용될 수 있을 것이다.
그리고, 이상에서는, 메뉴 화면 또는 광고 화면이 구성되어 디스플레이된다 고 설명한 바 있으나, 이 역시 예시적 사항에 불과하며, 화면을 구성하는 컨텐츠 등은 이와 다르게 구현될 수 있음은 물론이다.
또한, 이상에서는, 각 영역에 따라 서로 다른 사용자 정보가 추출되는 것으로 상정하였으나, 이 역시 예시적 사항이며, 서로 다른 영역에 동일한 사용자 정보가 추출되도록 구현할 수도 있을 것이다. 예를 들어, 터치 영역에서는 터치된 위치좌표와 함께 사용자의 모션 및 이동방향에 대한 정보가 추출될 수 있고, 제스처 영역에서는 사용자의 모션 뿐만 아니라 사용자의 이동방향에 대한 정보가 추출될 수 있다.
그리고, 이상에서는, 각 영역을 구분하는 잣대로서 디스플레이 장치로부터의 거리를 언급하였으나, 이와 다른 방법으로 각 영역을 구분하는 경우에도 본 발명의 적용대상이라고 볼 것이다.
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치를 도시한 도면,
도 2는 디스플레이 장치의 구체적 구성을 도시한 도면,
도 3은 사용자가 존재하는 영역에 대한 설명을 위해 제공되는 도면,
도 4는 디스플레이 장치의 전면 모습을 도시한 도면,
도 5는 터치 영역에서의 동작을 설명하기 위한 도면,
도 6은 제스처 영역에서의 동작을 설명하기 위한 도면,
도 7a 내지 도 7d는 모션에 따른 화면 변경 내용을 부연설명하기 위한 도면,
도 8은 추종 영역에서의 동작을 설명하기 위한 도면, 그리고,
도 9는 본 발명의 일 실시예에 따른 디스플레이 방법을 설명하기 위한 흐름도이다.

Claims (24)

  1. 디스플레이 장치에 있어서,
    컨텐츠를 디스플레이하는 디스플레이부;
    상기 디스플레이 장치와 사용자 사이의 거리를 검출하는 위치 인식부; 및
    상기 위치 인식부를 통해 검출된 상기 디스플레이 장치와 상기 사용자 사이의 거리를 바탕으로, 상기 사용자가 위치하는 영역을 판단하고, 상기 사용자가 제1 영역에 위치하면, 상기 사용자를 추종하여 광고 컨텐츠를 디스플레이하도록 상기 디스플레이부를 제어하며, 상기 사용자가 상기 제1 영역보다 상기 디스플레이 장치와 가까운 제2 영역에 위치하면, 상기 사용자의 모션에 따라 광고 컨텐츠를 디스플레이하도록 상기 디스플레이부를 제어하며, 상기 사용자가 상기 제1 영역 및 상기 제2 영역보다 상기 디스플레이 장치와 가까운 제3 영역에 위치하면, 상기 광고 컨텐츠에 해당하는 제품의 구매 화면을 디스플레이하도록 상기 디스플레이부를 제어하는 제어부;를 포함하는 디스플레이 장치.
  2. 제 1항에 있어서,
    상기 제어부는,
    상기 사용자가 제1 영역에 위치하면, 상기 사용자의 이동 방향에 대한 정보를 추출하고, 상기 추출된 이동 방향에 대한 정보를 바탕으로 상기 광고 컨텐츠의 디스플레이 방향을 변경하여 디스플레이하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  3. 제 1항에 있어서,
    상기 제어부는,
    상기 사용자가 제2 영역에 위치하면, 상기 광고 컨텐츠를 디스플레이하는 화면은 상기 사용자의 모션에 대응되게 변경되어 디스플레이되도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  4. 제 3항에 있어서,
    상기 사용자의 모션은,
    상기 사용자의 얼굴 모션 및 상기 사용자의 손 모션 중 적어도 하나를 포함하는 것을 특징으로 하는 디스플레이 장치.
  5. 제 4항에 있어서,
    상기 제어부는,
    상기 사용자의 얼굴 또는 상기 사용자의 손이, 상기 광고 컨텐츠를 디스플레이하는 화면의 특정 부분을 지시하는 경우, 상기 화면의 특정 부분이 상기 화면의 다른 부분보다 부각되게 디스플레이되도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  6. 제 1항에 있어서,
    상기 사용자가 제3 영역에 위치하면, 상기 광고 컨텐츠는 사용자로부터 터치되어 동작되는 적어도 하나의 컨텐츠로 구성되는 것을 특징으로 하는 디스플레이 장치.
  7. 제 6항에 있어서,
    상기 제어부는,
    상기 사용자로부터 상기 디스플레이 장치가 터치된 위치의 좌표 정보를 바탕으로 상기 적어도 하나의 컨텐츠 중 터치된 컨텐츠에 관련된 화면으로 변경하여 디스플레이하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  8. 제 1항에 있어서,
    상기 제어부는,
    상기 사용자가 위치하는 영역에 따라 상기 디스플레이 장치에 대한 명령방법을 설정하며, 상기 사용자가 위치하는 영역에 대해 설정된 명령방법에 따르지 않는 명령이 입력되면 무시하고, 상기 설정된 명령방법에 따른 명령이 입력되면 상기 입력된 명령에 따라 상기 광고 컨텐츠 또는 상기 광고 컨텐츠에 해당하는 제품의 구매 화면을 디스플레이하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 디스플레이 장치.
  9. 디스플레이 장치의 디스플레이 방법에 있어서,
    위치 인식부를 통해, 상기 디스플레이 장치와 사용자 사이의 거리를 검출하는 단계;
    제어부를 통해, 상기 검출된 상기 디스플레이 장치와 상기 사용자 사이의 거리를 바탕으로, 상기 사용자가 위치하는 영역을 판단하는 단계; 및
    상기 사용자가 제1 영역에 위치하면, 상기 사용자를 추종하여 광고 컨텐츠를 디스플레이부에 디스플레이하고, 상기 사용자가 상기 제1 영역보다 상기 디스플레이 장치와 가까운 제2 영역에 위치하면, 상기 사용자의 모션에 따라 광고 컨텐츠를 상기 디스플레이부에 디스플레이하며, 상기 사용자가 상기 제1 영역 및 상기 제2 영역보다 상기 디스플레이 장치와 가까운 제3 영역에 위치하면, 상기 광고 컨텐츠에 해당하는 제품의 구매 화면을 상기 디스플레이부에 디스플레이하는 단계;를 포함하는 디스플레이 방법.
  10. 제 9항에 있어서,
    상기 디스플레이하는 단계는,
    상기 사용자가 제1 영역에 위치하면, 상기 제어부를 통해, 상기 사용자의 이동 방향에 대한 정보를 추출하고, 상기 추출된 이동 방향에 대한 정보를 바탕으로 상기 광고 컨텐츠의 디스플레이 방향을 변경하여 디스플레이하는 것을 특징으로 하는 디스플레이 방법.
  11. 제 9항에 있어서,
    상기 디스플레이하는 단계는,
    상기 사용자가 제2 영역에 위치하면, 상기 광고 컨텐츠를 디스플레이하는 화면은 상기 사용자의 모션에 대응되게 변경하여 디스플레이하는 것을 특징으로 하는 디스플레이 방법.
  12. 제 11항에 있어서,
    상기 사용자의 모션은,
    상기 사용자의 얼굴 모션 및 상기 사용자의 손 모션 중 적어도 하나를 포함하는 것을 특징으로 하는 디스플레이 방법.
  13. 제 12항에 있어서,
    상기 디스플레이하는 단계는,
    상기 사용자의 얼굴 또는 상기 사용자의 손이, 상기 광고 컨텐츠를 디스플레이하는 화면의 특정 부분을 지시하는 경우, 상기 화면의 특정 부분이 상기 화면의 다른 부분보다 부각되게 디스플레이하는 것을 특징으로 하는 디스플레이 방법.
  14. 제 9항에 있어서,
    상기 사용자가 제3 영역에 위치하면, 상기 광고 컨텐츠는 사용자로부터 터치되어 동작되는 적어도 하나의 컨텐츠로 구성되는 것을 특징으로 하는 디스플레이 방법.
  15. 제 14항에 있어서,
    상기 디스플레이하는 단계는,
    상기 사용자로부터 상기 터치된 위치의 좌표 정보를 바탕으로 상기 적어도 하나의 컨텐츠 중 터치된 컨텐츠에 관련된 화면으로 변경하여 디스플레이하는 것을 특징으로 하는 디스플레이 방법.
  16. 제 9항에 있어서,
    상기 사용자가 위치하는 영역에 따라 상기 디스플레이 장치에 대한 명령방법을 설정하는 단계;를 더 포함하고,
    상기 디스플레이하는 단계는,
    상기 사용자가 위치하는 영역에 대해 설정된 명령방법을 따르지 않는 명령이 입력되면 무시하고, 상기 설정된 명령방법에 따른 명령이 입력되면 상기 입력된 명령에 따라 상기 광고 컨텐츠 또는 상기 광고 컨텐츠에 해당하는 제품의 구매 화면을 디스플레이하는 것을 특징으로 하는 디스플레이 방법.
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
KR1020090117758A 2009-12-01 2009-12-01 사용자 위치 기반의 디스플레이 방법 및 장치 KR101657168B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020090117758A KR101657168B1 (ko) 2009-12-01 2009-12-01 사용자 위치 기반의 디스플레이 방법 및 장치
US12/783,835 US9507424B2 (en) 2009-12-01 2010-05-20 User location-based display method and apparatus
EP10190697A EP2336868A1 (en) 2009-12-01 2010-11-10 User location-based display method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090117758A KR101657168B1 (ko) 2009-12-01 2009-12-01 사용자 위치 기반의 디스플레이 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20110061187A KR20110061187A (ko) 2011-06-09
KR101657168B1 true KR101657168B1 (ko) 2016-09-19

Family

ID=43884155

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090117758A KR101657168B1 (ko) 2009-12-01 2009-12-01 사용자 위치 기반의 디스플레이 방법 및 장치

Country Status (3)

Country Link
US (1) US9507424B2 (ko)
EP (1) EP2336868A1 (ko)
KR (1) KR101657168B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020111380A1 (ko) * 2018-11-30 2020-06-04 (주)이지위드 키네틱 아트 장치의 제작 시스템 및 방법과 이에 의해 제작되는 키네틱 아트 장치
KR20200065460A (ko) * 2018-11-30 2020-06-09 (주)이지위드 키네틱 아트 장치의 제작 시스템 및 방법

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120209669A1 (en) * 2011-02-11 2012-08-16 Carl Zealer Configurable advertising and content rendering
JP2012212340A (ja) * 2011-03-31 2012-11-01 Sony Corp 情報処理装置、画像表示装置、および情報処理方法
US9239624B2 (en) * 2012-04-13 2016-01-19 Nokia Technologies Oy Free hand gesture control of automotive user interface
US11042244B2 (en) * 2012-04-24 2021-06-22 Sony Corporation Terminal device and touch input method
US8965170B1 (en) 2012-09-04 2015-02-24 Google Inc. Automatic transition of content based on facial recognition
US9684372B2 (en) * 2012-11-07 2017-06-20 Samsung Electronics Co., Ltd. System and method for human computer interaction
US9159116B2 (en) 2013-02-13 2015-10-13 Google Inc. Adaptive screen interfaces based on viewing distance
KR101799294B1 (ko) 2013-05-10 2017-11-20 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
KR20140133357A (ko) 2013-05-10 2014-11-19 삼성전자주식회사 디스플레이 장치 및 그 ui 화면 제공 방법
KR20140138424A (ko) 2013-05-23 2014-12-04 삼성전자주식회사 제스쳐를 이용한 사용자 인터페이스 방법 및 장치
AP00651S1 (en) * 2013-08-30 2014-12-16 Samsung Electronics Co Ltd Graphical user interfaces for display screens or portions thereof
JP2015127897A (ja) * 2013-12-27 2015-07-09 ソニー株式会社 表示制御装置、表示制御システム、表示制御方法、およびプログラム
USD763305S1 (en) * 2014-01-08 2016-08-09 Mitsubishi Electric Corporation Display screen with remote controller animated graphical user interface
KR102163850B1 (ko) * 2014-01-29 2020-10-12 삼성전자 주식회사 디스플레이장치 및 그 제어방법
US9971490B2 (en) 2014-02-26 2018-05-15 Microsoft Technology Licensing, Llc Device control
USD752629S1 (en) * 2014-04-26 2016-03-29 Inbay Technologies Inc. Display screen with graphical user interface
USD774539S1 (en) 2014-04-28 2016-12-20 Inbay Technologies Inc. Display screen with graphical user interface
US10955987B2 (en) * 2016-10-04 2021-03-23 Facebook, Inc. Three-dimensional user interface
KR102399084B1 (ko) * 2017-12-29 2022-05-18 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR102616850B1 (ko) * 2018-03-05 2023-12-26 삼성전자주식회사 전자 장치, 전자 장치와 결합 가능한 외부 디바이스 및 이의 디스플레이 방법
WO2022114334A1 (ko) * 2020-11-27 2022-06-02 한국전자기술연구원 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7134080B2 (en) * 2002-08-23 2006-11-07 International Business Machines Corporation Method and system for a user-following interface
US7225414B1 (en) * 2002-09-10 2007-05-29 Videomining Corporation Method and system for virtual touch entertainment
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
US8564532B2 (en) 2005-12-06 2013-10-22 Naturalpoint, Inc. System and methods for using a movable object to control a computer
US8432365B2 (en) 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020111380A1 (ko) * 2018-11-30 2020-06-04 (주)이지위드 키네틱 아트 장치의 제작 시스템 및 방법과 이에 의해 제작되는 키네틱 아트 장치
KR20200065460A (ko) * 2018-11-30 2020-06-09 (주)이지위드 키네틱 아트 장치의 제작 시스템 및 방법
KR102130769B1 (ko) 2018-11-30 2020-07-06 (주)이지위드 키네틱 아트 장치의 제작 시스템 및 방법

Also Published As

Publication number Publication date
US20110131502A1 (en) 2011-06-02
EP2336868A1 (en) 2011-06-22
US9507424B2 (en) 2016-11-29
KR20110061187A (ko) 2011-06-09

Similar Documents

Publication Publication Date Title
KR101657168B1 (ko) 사용자 위치 기반의 디스플레이 방법 및 장치
US11880626B2 (en) Multi-device pairing and combined display
US9075522B2 (en) Multi-screen bookmark hold gesture
US8751970B2 (en) Multi-screen synchronous slide gesture
US10318146B2 (en) Control area for a touch screen
CA2788106C (en) Multi-screen pinch and expand gestures
US8473870B2 (en) Multi-screen hold and drag gesture
US8707174B2 (en) Multi-screen hold and page-flip gesture
US20180292907A1 (en) Gesture control system and method for smart home
US20150160849A1 (en) Bezel Gesture Techniques
US20110209101A1 (en) Multi-screen pinch-to-pocket gesture
US20110209058A1 (en) Multi-screen hold and tap gesture
US20110209089A1 (en) Multi-screen object-hold and page-change gesture
CN103853355A (zh) 电子设备操作方法及其操控设备
CN101699387A (zh) 非触摸式交互系统及方法
JP2014519772A (ja) 文字入力インターフェース提供方法及び装置
KR20140025494A (ko) 에지 제스처 기법
KR20170057823A (ko) 에지 스크린을 통한 터치 입력 방법 및 전자 장치
US20130127731A1 (en) Remote controller, and system and method using the same
EP3511806A1 (en) Method and apparatus for displaying a picture on a portable device
US11231785B2 (en) Display device and user interface displaying method thereof
US20130239032A1 (en) Motion based screen control method in a mobile terminal and mobile terminal for the same
CN106233244A (zh) 用于提供用户界面的方法以及用于执行所述方法的柔性装置
TWI544446B (zh) Electronic books and computer programs
KR20160098842A (ko) 디스플레이 장치 및 디스플레이 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant