KR102179958B1 - LFD(large format display) 장치 및 그 제어 방법 - Google Patents

LFD(large format display) 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR102179958B1
KR102179958B1 KR1020150124506A KR20150124506A KR102179958B1 KR 102179958 B1 KR102179958 B1 KR 102179958B1 KR 1020150124506 A KR1020150124506 A KR 1020150124506A KR 20150124506 A KR20150124506 A KR 20150124506A KR 102179958 B1 KR102179958 B1 KR 102179958B1
Authority
KR
South Korea
Prior art keywords
display
user
height information
content element
processor
Prior art date
Application number
KR1020150124506A
Other languages
English (en)
Other versions
KR20170027631A (ko
Inventor
서주희
김혜선
정문식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150124506A priority Critical patent/KR102179958B1/ko
Priority to US15/018,275 priority patent/US10025419B2/en
Priority to PCT/KR2016/002705 priority patent/WO2017039100A1/en
Priority to EP16842066.9A priority patent/EP3314374A4/en
Publication of KR20170027631A publication Critical patent/KR20170027631A/ko
Application granted granted Critical
Publication of KR102179958B1 publication Critical patent/KR102179958B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

LFD(large format display) 장치가 개시된다. 본 LFD 장치는 적어도 하나의 컨텐츠 요소를 포함하는 컨텐츠를 디스플레이하는 디스플레이, 사용자를 인식하는 감지부 및 감지부를 통해 인식된 사용자의 신장 정보를 획득하고, 획득된 신장 정보에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경하도록 디스플레이를 제어하는 프로세서를 포함한다. 이에 따라, LFD 장치를 이용하는 사용자의 편의성이 증대될 수 있다.

Description

LFD(large format display) 장치 및 그 제어 방법 { LARGE FORMAT DISPLAY APPARATUS AND CONTROL METHOD THEREOF }
본 발명은 LFD 장치 및 그 제어 방법에 대한 것으로, 더욱 상세하게는 대형 디스플레이를 이용하여 다양한 정보 및 사용자 인터랙션을 제공하는 LFD 장치 및 그 제어 방법에 대한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있으며, 각종 정보 제공 기능이 구비된 전자 장치들이 사용되고 있다. 더 나아가, 종래에는 실내에서만 이용되던 전자 제품들이 길거리 등에도 설치되어 이용되고 있다.
그 중, LFD(large format display) 장치는 홍보 및 정보전달을 목적으로 설치하고 운용하는 상업용 대형 디스플레이로서, LFD 장치는 하나의 패널로 구성된 스탠드 얼론(stand alone)과 여러 장의 패널을 연결한 비디오 월(video wall)로 구분된다. 그리고, LFD 장치는 기업 로비에 브랜드 및 기업홍보를 위해 설치되거나 매장의 인테리어, 메뉴 보드 등 다양한 용도로 사용되고 있다. 최근에는, LFD 장치의 사용이 증가함에 따라 다양한 문제점이 발생하고 있다.
도 1은 종래 기술의 문제점을 설명하기 위한 도면이다.
LFD 장치는 TV, Mobile과는 달리 한눈에 모든 화면을 확인하기 어렵다. 따라서, 도 1에서와 같이 키가 작은 어린이는 LFD 장치에 디스플레이되고 있는 컨텐츠를 모두 확인하기가 어려운 문제가 있었다.
또한, 사용자의 신체 조건 등에 따라 가장 편안한 시선을 제공하는 영역 및 터치 가능 영역이 달라질 수 있다. 따라서, 사용자가 어른인지 어린이인지에 따라 사용 편의성이 달라질 수 있었다.
이러한 종래의 문제점은 LFD 장치에서 디스플레이되는 컨텐츠가 고정된 방식으로 제공됨에 따른 것으로, 컨텐츠가 디스플레이되는 방식을 변경해줄 필요성이 대두되었다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 LFD 장치를 이용하는 사용자에 따라 LFD 장치에서 디스플레이되는 컨텐츠에 포함된 컨텐츠 요소의 디스플레이 위치를 변경하여 디스플레이하는 LFD 장치 및 그 제어 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 LFD(large format display) 장치는 적어도 하나의 컨텐츠 요소를 포함하는 컨텐츠를 디스플레이하는 디스플레이, 사용자를 인식하는 감지부 및 상기 감지부를 통해 인식된 사용자의 신장 정보를 획득하고, 상기 획득된 신장 정보에 기초하여 상기 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경하도록 상기 디스플레이를 제어하는 프로세서를 포함한다.
또한, 상기 감지부는 카메라를 포함하며, 상기 프로세서는 상기 카메라에 의해 촬영된 사용자 이미지에 기초하여 상기 사용자의 신장 정보를 획득할 수 있다.
그리고, 상기 프로세서는 상기 획득된 신장 정보에 기초하여 상기 디스플레이의 화면을 사용자 시야에 따라 복수의 디스플레이 영역으로 구분할 수 있다.
또한, 상기 컨텐츠는 제1 컨텐츠 요소 및 제2 컨텐츠 요소를 포함하고, 상기 프로세서는 상기 제1 및 제2 컨텐츠 요소의 우선 순위에 기초하여 상기 제1 및 제2 컨텐츠 요소를 상기 복수의 디스플레이 영역 중 대응되는 디스플레이 영역에 디스플레이할 수 있다.
그리고, 상기 프로세서는 상기 획득된 신장 정보에 기초한 사용자의 터치 조작 용이성에 따라 상기 디스플레이의 화면을 복수의 디스플레이 영역으로 구분할 수 있다.
또한, 상기 프로세서는 상기 획득된 신장 정보에 기초한 상기 사용자의 터치 조작 용이성에 따라 상기 사용자의 터치 조작이 필요한 컨텐츠 요소가 상기 복수의 디스플레이 영역 중 적어도 하나에 디스플레이되도록 제어할 수 있다.
그리고, 상기 프로세서는 상기 컨텐츠의 타입에 기초하여 상기 적어도 하나의 컨텐츠 요소의 우선 순위를 결정하고, 상기 획득된 신장 정보 및 상기 우선 순위에 기초하여 상기 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
또한, 상기 프로세서는 상기 획득된 신장 정보에 기초하여 상기 적어도 하나의 컨텐츠 요소의 내용 및 디스플레이 형태 중 적어도 하나를 변경하여 디스플레이할 수 있다.
그리고, 상기 프로세서는 상기 획득된 신장 정보로부터 사용자의 나이를 추정하고, 상기 추정된 나이에 기초하여 상기 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
또한, 상기 프로세서는 상기 감지부를 통해 복수의 사용자가 인식되면, 상기 복수의 사용자 중 상기 LFD 장치에 가장 근접한 사용자의 신장 정보 및 상기 복수의 사용자의 평균 신장 정보 중 적어도 하나에 기초하여 상기 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
한편, 본 발명의 일 실시 예에 따르면, LFD(large format display) 장치의 제어 방법은 적어도 하나의 컨텐츠 요소를 포함하는 컨텐츠를 디스플레이하는 단계, 사용자를 인식하는 단계, 상기 인식된 사용자의 신장 정보를 획득하는 단계 및 상기 획득된 신장 정보에 기초하여 상기 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경하는 단계를 포함한다.
또한, 상기 획득하는 단계는 카메라에 의해 촬영된 사용자 이미지에 기초하여 상기 사용자의 신장 정보를 획득할 수 있다.
그리고, 상기 획득된 신장 정보에 기초하여 디스플레이의 화면을 사용자 시야에 따라 복수의 디스플레이 영역으로 구분하는 단계를 더 포함할 수 있다.
또한, 상기 컨텐츠는 제1 컨텐츠 요소 및 제2 컨텐츠 요소를 포함하고, 상기 변경하는 단계는 상기 제1 및 제2 컨텐츠 요소의 우선 순위에 기초하여 상기 제1 및 제2 컨텐츠 요소를 상기 복수의 디스플레이 영역 중 대응되는 디스플레이 영역에 디스플레이할 수 있다.
그리고, 상기 획득된 신장 정보에 기초한 사용자의 터치 조작 용이성에 따라 상기 디스플레이의 화면을 복수의 디스플레이 영역으로 구분하는 단계를 더 포함할 수 있다.
또한, 상기 변경하는 단계는 상기 획득된 신장 정보에 기초한 상기 사용자의 터치 조작 용이성에 따라 상기 사용자의 터치 조작이 필요한 컨텐츠 요소를 상기 복수의 디스플레이 영역 중 적어도 하나에 디스플레이할 수 있다.
그리고, 상기 컨텐츠의 타입에 기초하여 상기 적어도 하나의 컨텐츠 요소의 우선 순위를 결정하는 단계를 더 포함하고, 상기 변경하는 단계는 상기 획득된 신장 정보 및 상기 우선 순위에 기초하여 상기 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
또한, 상기 변경하는 단계는 상기 획득된 신장 정보에 기초하여 상기 적어도 하나의 컨텐츠 요소의 내용 및 표현 중 적어도 하나를 변경하여 디스플레이할 수 있다.
그리고, 상기 변경하는 단계는 상기 획득된 신장 정보로부터 사용자의 나이를 추정하고, 상기 추정된 나이에 기초하여 상기 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
또한, 상기 변경하는 단계는 복수의 사용자가 인식되면, 상기 복수의 사용자 중 상기 LFD 장치에 가장 근접한 사용자의 신장 정보 및 상기 복수의 사용자의 평균 신장 정보 중 적어도 하나에 기초하여 상기 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, LFD 장치는 사용자에 따라 컨텐츠에 포함된 컨텐츠 요소를 재구성하여 디스플레이하여 사용자의 시야가 확보되고 사용자의 조작 용이성이 향상되어 사용자의 편의성이 향상된다.
도 1은 종래 기술의 문제점을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 LFD(large format display) 장치의 구성을 나타내는 블럭도이다.
도 3은 본 발명의 일 실시 예에 따른 LFD 장치가 사용하는 소프트웨어 구조의 블럭도이다.
도 4는 본 발명의 일 실시 예에 따른 사용자의 신장 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 신장 정보에 기초하여 컨텐츠 요소를 디스플레이하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 터치 기능의 활성화 여부를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 컨텐츠의 타입에 기초하여 컨텐츠 요소의 우선 순위를 결정하는 것을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 컨텐츠 요소를 변경하여 디스플레이하는 것을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 사용자의 신장 정보로부터 추가 정보를 획득하여 컨텐츠 요소를 디스플레이하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시 예에 따른 복수의 사용자가 인식된 경우의 동작을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시 예에 따른 LFD 장치의 제어 방법을 설명하기 위한 흐름도이다.
이하에서, 첨부된 도면을 이용하여 본 발명에 대하여 구체적으로 설명한다.
도 2는 본 발명의 일 실시 예에 따른 LFD(large format display) 장치(100)의 구성을 나타내는 블럭도이다.
도 2a에 따르면, LFD 장치(100)는 디스플레이(110), 감지부(120) 및 프로세서(130)를 포함한다.
한편, 도 2a는 LFD 장치(100)가 디스플레이 기능, 감지 기능 및 제어 기능 등과 같이 다양한 기능을 구비한 장치인 경우를 예로 들어, 각종 구성 요소들을 종합적으로 도시한 것이다. 따라서, 실시 예에 따라서는, 도 2a에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성 요소가 더 추가될 수도 있다.
디스플레이(110)는 프로세서(130)의 제어에 의해 컨텐츠를 디스플레이할 수 있다. 예를 들어, 디스플레이(110)는 동영상, 사진 및 방송 영상 등을 디스플레이할 수 있다. 다만, 이에 한정되는 것은 아니며, 디스플레이(110)는 뉴스, 광고 등을 디스플레이할 수도 있다.
디스플레이(110)는 프로세서(130)의 제어에 의해 적어도 하나의 컨텐츠 요소를 포함하는 컨텐츠를 디스플레이할 수 있다. 여기서, 컨텐츠 요소는 컨텐츠를 좀더 세부적으로 구분한 요소일 수 있다. 예를 들어, 컨텐츠가 영화인 경우, 컨텐츠 요소는 영화에 포함된 영상 및 자막일 수 있다. 그리고, 컨텐츠가 광고인 경우, 컨텐츠 요소는 광고에 포함된 이미지 및 광고 문구일 수 있다. 이상에서는, 컨텐트가 하나인 것처럼 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 디스플레이(110)는 복수의 컨텐츠를 디스플레이할 수 있고, 복수의 컨텐츠를 각각 복수의 컨텐츠 요소를 포함할 수도 있다.
그리고, 디스플레이(110)는 LCD(Liquid Crystal Display Panel), OLED(Organic Light Emitting Diodes) 등으로 구현될 수 있으나, 이에 한정되는 것은 아니다. 또한, 디스플레이(110)는 경우에 따라 플렉서블 디스플레이, 투명 디스플레이 등으로 구현되는 것도 가능하다.
감지부(120)는 LFD 장치(100)의 전방에 위치한 사용자를 인식할 수 있다. 여기서, 감지부(120)는 주로 카메라나 적외선 센서 등으로 구성될 수 있다. 카메라는 정지 영상 또는 동영상을 촬상하기 위한 구성이다. 특히, 카메라는 LFD 장치(100)의 전방에 위치한 사용자를 촬영하는데 이용될 수 있다.
또한, 감지부(120)가 적외선 센서로 구성된 경우, 감지부(120)는 복수의 적외선 센서를 포함할 수 있다. 복수의 적외선 센서는 LFD 장치(100)의 가장자리에 일렬로 배치될 수 있다. 복수의 적외선 센서는 반사파의 유무에 따라 LFD 장치(100)의 전방에 위치한 사용자의 대략적인 신장 정보를 판단할 수 있다.
이상에서는 감지부(120)가 카메라 또는 적외선 센서로 구성되는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 감지부(120)는 초음파 센서, 뎁스 맵 등으로 구성될 수 있으며, 이에 대한 구체적인 내용은 후술한다.
프로세서(130)는 감지부(120)를 통해 인식된 사용자의 신장 정보를 획득하고, 획득된 신장 정보에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경하도록 디스플레이(110)를 제어할 수 있다. 예를 들어, 프로세서(130)는 사용자의 신장 정보에 기초하여 사용자의 시야를 판단할 수 있고, 판단된 사용자의 시야에 기초하여 중요한 컨텐츠 요소를 사용자의 시야에 대응되는 위치에 디스플레이할 수 있다. 다만, 이에 한정되는 것은 아니며, 프로세서(130)는 사용자의 조작 용이성에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경하여 디스플레이할 수도 있다.
특히, 감지부(120)는 카메라를 포함하며, 프로세서(130)는 카메라에 의해 촬영된 사용자 이미지에 기초하여 사용자의 신장 정보를 획득할 수도 있다. 다만, 이에 한정되는 것은 아니며, 감지부(120)는 적외선 센서 등을 포함할 수도 있다.
한편, 프로세서(130)는 획득된 신장 정보에 기초하여 디스플레이(110)의 화면을 사용자 시야에 따라 복수의 디스플레이 영역으로 구분할 수 있다.
여기서, 컨텐츠는 제1 컨텐츠 요소 및 제2 컨텐츠 요소를 포함하고, 프로세서(130)는 제1 및 제2 컨텐츠 요소의 우선 순위에 기초하여 제1 및 제2 컨텐츠 요소를 복수의 디스플레이 영역 중 대응되는 디스플레이 영역에 디스플레이할 수 있다.
한편, 프로세서(130)는 획득된 신장 정보에 기초한 사용자의 터치 조작 용이성에 따라 디스플레이(110)의 화면을 복수의 디스플레이 영역으로 구분할 수 있다.
여기서, 프로세서(130)는 획득된 신장 정보에 기초한 사용자의 터치 조작 용이성에 따라 사용자의 터치 조작이 필요한 컨텐츠 요소를 복수의 디스플레이 영역 중 적어도 하나에 디스플레이할 수 있다.
그리고, 프로세서(130)는 컨텐츠의 타입에 기초하여 적어도 하나의 컨텐츠 요소의 우선 순위를 결정하고, 획득된 신장 정보 및 우선 순위에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
또한, 프로세서(130)는 획득된 신장 정보에 기초하여 적어도 하나의 컨텐츠 요소의 내용 및 디스플레이 형태 중 적어도 하나를 변경하여 디스플레이할 수 있다.
그리고, 프로세서(130)는 획득된 신장 정보로부터 사용자의 나이를 추정하고, 추정된 나이에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
또한, 프로세서(130)는 감지부(120)를 통해 복수의 사용자가 인식되면, 복수의 사용자 중 LFD 장치(100)에 가장 근접한 사용자의 신장 정보 및 복수의 사용자의 평균 신장 정보 중 적어도 하나에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
도 2b는 LFD 장치(100)의 세부 구성의 일 예를 나타내는 블럭도이다. 도 2b에 따르면, LFD 장치(100)는 디스플레이(110), 감지부(120), 프로세서(130), 스토리지(140), 통신부(150), 사용자 인터페이스부(155), 오디오 처리부(160), 비디오 처리부(170), 스피커(180), 버튼(181), 마이크(182)를 포함한다. 도 2b에 도시된 구성요소들 중 도 2a에 도시된 구성요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
프로세서(130)는 스토리지(140)에 저장된 각종 프로그램을 이용하여 LFD 장치(100)의 동작을 전반적으로 제어한다.
구체적으로, 프로세서(130)는 RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n), 버스(136)를 포함한다.
RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n) 등은 버스(136)를 통해 서로 연결될 수 있다.
제1 내지 n 인터페이스(135-1 내지 135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
메인 CPU(133)는 스토리지(140)에 액세스하여, 스토리지(140)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 스토리지(140)에 저장된 각종 프로그램 등을 이용하여 다양한 동작을 수행한다.
ROM(132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(133)는 ROM(132)에 저장된 명령어에 따라 스토리지(140)에 저장된 O/S를 RAM(131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(133)는 스토리지(140)에 저장된 각종 어플리케이션 프로그램을 RAM(131)에 복사하고, RAM(131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부(134)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부(미도시)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 디스플레이(110)의 디스플레이 영역 내에 표시된다.
한편, 상술한 프로세서(130)의 동작은 스토리지(140)에 저장된 프로그램에 의해 이루어질 수 있다.
스토리지(140)는 LFD 장치(100)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 각종 컨텐츠 및 컨텐츠 요소 정보, 각종 제어 정보 등과 같이 다양한 데이터를 저장한다.
이 경우 프로세서(130)는 스토리지(140)에 저장된 정보에 기초하여 적어도 하나의 컨텐츠 요소를 포함하는 컨텐츠를 디스플레이할 수 있다.
통신부(150)는 다양한 유형의 통신방식에 따라 외부기기와 통신을 수행할 수 있다.
통신부(150)는 와이파이칩(151), 블루투스 칩(152), 무선 통신 칩(153) 등 다양한 통신칩을 포함한다. 와이파이 칩(151) 및 블루투스 칩(152)은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 무선 통신 칩(153)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.
한편, 통신부(150)는 전자 장치와 단방향 통신 또는 양방향 통신을 수행할 수 있다. 단방향 통신을 수행하는 경우, 통신부(150)는 전자 장치로부터 신호를 수신할 수 있다. 양방향 통신을 수행하는 경우, 통신부(150)는 전자 장치로부터 신호를 수신할 수도 있고, 전자 장치로 신호를 송신할 수도 있다.
사용자 인터페이스부(155)는 다양한 사용자 인터랙션(interaction)을 수신한다. 여기서, 사용자 인터페이스부(155)는 LFD 장치(100)의 구현 예에 따라 다양한 형태로 구현 가능하다. LFD 장치(100)가 디지털 TV로 구현되는 경우 사용자 인터페이스부(155)는 원격 제어 장치로부터 리모콘 신호를 수신하는 리모콘 수신부, 사용자 모션을 감지하는 카메라, 사용자 음성을 수신하는 마이크 등으로 구현 가능하다. 또한, LFD 장치(100)가 터치 기반의 전자 장치로 구현되는 경우 사용자 인터페이스부(155)는 터치패드와 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수도 있다. 이 경우, 사용자 인터페이스부(155)는 상술한 디스플레이(110)로 사용될 수 있게 된다.
오디오 처리부(160)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(160)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.
비디오 처리부(170)는 비디오 데이터에 대한 처리를 수행하는 구성요소이다. 비디오 처리부(170)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
스피커(180)는 오디오 처리부(160)에서 처리된 각종 오디오 데이터 뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소이다.
버튼(181)은 LFD 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.
마이크(183)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다.
이하에서는 본 발명의 이해를 돕기 위한 기본 구성과 다양한 실시 예에 대하여 설명한다.
도 3은 본 발명의 일 실시 예에 따른 LFD 장치(100)가 사용하는 소프트웨어 구조의 블럭도이다.
도 3의 소프트웨어는 스토리지(140)에 저장될 수도 있으나 반드시 이에 한정되는 것은 아니며 LFD 장치(100) 내에 사용되는 다양한 유형의 저장 수단에 저장될 수도 있다. 도 3에 따르면, LFD 장치(100)에는 OS(181), 커널(182), 미들웨어(183), 어플리케이션(184) 등을 포함하는 소프트웨어가 저장될 수 있다.
운영체제(Operating System: OS, 181)는 하드웨어의 전반적인 동작을 제어하고 관리하는 기능을 수행한다. 즉, OS(181)는 하드웨어 관리와 메모리, 보안 등의 기본적인 기능을 담당하는 계층이다.
커널(182)은 감지되는 각종 신호들을 미들웨어(183)로 전달하는 통로 역할을 한다.
미들웨어(183)는 LFD 장치(100)의 동작을 제어하는 각종 소프트웨어 모듈을 포함한다. 도 3에 따르면, 미들웨어(183)는 UI 프레임워크(183-1), 윈도우 매니저(183-2), 디스플레이 영역 분할 모듈(183-3), 보안 모듈(183-4), 시스템 매니저(183-5), 연결 매니저(183-6), X11 모듈(183-7), APP 매니저(183-8), 멀티미디어 프레임워크(183-9)를 포함한다.
UI 프레임워크(183-1)는 각종 UI를 제공하기 위한 모듈이다. UI 프레임워크(183-1)는 각종 오브젝트를 구성하는 이미지 합성기(Image Compositor module), 오브젝트가 표시될 좌표를 산출하는 좌표 합성기, 구성된 오브젝트를 산출된 좌표에 렌더링하는 렌더링 모듈, 2D 또는 3D 형태의 UI를 구성하기 위한 툴(tool)을 제공하는 2D/3D UI 툴킷 등을 포함할 수 있다.
윈도우 매니저(183-2)는 원격 제어 장치로부터 전송되는 제어 신호나 디스플레이(110)에 대한 사용자 터치 입력, LFD 장치(100)에 구비된 버튼 조작 등과 같은 다양한 입력 이벤트를 감지할 수 있다. 윈도우 매니저(183-2)는 이러한 이벤트가 감지되면 UI 프레임워크(183-1)로 이벤트 신호를 전달하여, 이벤트에 대응되는 동작을 수행하도록 한다. 구체적으로는, 사용자가 디스플레이(110)의 일 영역을 터치하는 이벤트가 발생하였다면, UI 프레임워크(183-1)로 그 사실을 통지한다. UI 프레임워크(183-1)는 사용자의 터치 영역에 기초하여 컨텐츠 요소의 디스플레이 위치를 변경하여 디스플레이할 수 있다.
디스플레이 영역 분할 모듈(183-3)은 상술한 바와 같이 사용자의 신장 정보에 기초하여 디스플레이(110)의 화면을 사용자의 시야 및 사용자의 조작 용이성 중 적어도 하나에 따라 복수의 영역으로 구분할 수 있다.
보안 모듈(183-4)은 하드웨어, 소프트웨어, application 및 사용자 에 대한 인증(Certification), 요청 허용(Permission), 보안 저장(Secure Storage) 등을 지원하는 모듈이다. 보안 모듈(183-4)은 획득된 사용자의 정보(예, 신장 정보)에 기초하여 application에서 필요한 인증 정보를 입력하는 컨텐츠 요소의 디스플레이 특성을 변경할 수 있다. 예를 들어, 사용자의 이름이나 주문번호, 비밀번호 등을 입력하기 위한 application의 입력창은 사용자의 신장에 따라 위치가 다르게 디스플레이될 수 있다. 또한, 디스플레이의 특성을 활용해 밝기 및 View의 방향, 색상 등을 변경하여 보안 기능을 활용할 수도 있다.
시스템 매니저(183-5)는 LFD 장치(100) 내의 각 구성요소들의 상태를 모니터링하고, 그 모니터링 결과를 타 모듈들에게 제공한다. 가령, 배터리 잔량이 부족하거나, 에러가 발생하는 경우, 통신 연결 상태가 끊어지는 경우 등이 발생하면 시스템 매니저(183-5)는 그 모니터링 결과를 UI 프레임워크(183-1)로 제공하여 알림 메시지나 알림 음을 출력할 수 있다.
연결 매니저(183-6)는 유선 또는 무선 네트워크 연결을 지원하기 위한 모듈이다. 연결 매니저(183-6)는 DNET 모듈, UPnP 모듈 등과 같은 다양한 세부 모듈들을 포함할 수 있다.
X11 모듈(183-7)은 LFD 장치(100)에 구비된 각종 하드웨어들로부터 각종 이벤트 신호를 수신하는 모듈이다. 여기서 이벤트란, 사용자 조작이 감지되는 이벤트, 시스템 알람이 발생하는 이벤트, 특정 프로그램이 실행 또는 종료되는 이벤트 등과 같이 다양하게 설정될 수 있다.
APP 매니저(183-8)는 스토리지(140)에 설치(install)된 각종 어플리케이션의 실행 상태를 관리하는 모듈이다. APP 매니저(183-8)는 X11 모듈(183-7)로부터 어플리케이션 실행 명령이 입력된 이벤트가 감지되면, 해당 이벤트에 대응되는 어플리케이션을 호출하여 실행시킨다. 즉, APP 매니저(183-8)는 적어도 하나의 오브젝트가 선택된 이벤트가 감지되면, 그 오브젝트에 대응되는 어플리케이션을 호출하여 실행시키는 동작을 수행한다.
멀티미디어 프레임워크(183-9)는 LFD 장치(100)에 저장되어 있거나, 외부 소스로부터 제공되는 멀티미디어 컨텐츠를 재생하기 위한 모듈이다. 멀티미디어 프레임워크(183-9)는 플레이어 모듈, 캠코더 모듈, 사운드 처리 모듈 등을 포함할 수 있다. 이에 따라, 각종 멀티미디어 컨텐츠를 재생하여 화면 및 음향을 생성하여 재생하는 동작을 수행할 수 있다.
도 3에 표시된 소프트웨어 구조는 일 예에 불과하므로, 반드시 이에 한정되어야 하는 것은 아니다. 따라서, 필요에 따라 일부가 생략 또는 변형되거나, 추가될 수도 있음은 물론이다. 가령, 스토리지(140)에는 각종 센서들에서 센싱된 신호들을 분석하기 위한 센싱 모듈이나, 메신저 프로그램, SMS(Short Message Service) & MMS(Multimedia Message Service) 프로그램, 이메일 프로그램 등과 같은 메시징 모듈, 전화 정보 수집기(Call Info Aggregator) 프로그램 모듈, VoIP 모듈, 웹 브라우저 모듈 등과 같이 다양한 프로그램들이 추가로 마련될 수도 있다.
도 4는 본 발명의 일 실시 예에 따른 사용자의 신장 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 4a에 따르면, 감지부(120)는 카메라를 포함하며, 프로세서(130)는 카메라에 의해 촬영된 사용자 이미지에 기초하여 사용자의 신장 정보를 획득할 수 있다. 예를 들어, 프로세서(130)는 카메라에 의해 촬영된 이미지 내에서 사용자가 머리부터 발끝까지 모두 촬영된 경우에는 촬영된 이미지 내의 차지하는 영역의 길이에 따라 사용자의 신장 정보를 예측할 수 있다. 또는, 프로세서(130)는 카메라에 의해 촬영된 이미지 내에서 사용자의 일부만이 촬영된 경우에는 촬영된 이미지 내의 차지하는 영역 및 안면의 크기에 기초하여 사용자의 신장 정보를 예측할 수도 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(130)는 사용자의 안면을 인식하고, 촬영된 이미지 내에서 사용자의 안면의 위치에 기초하여 사용자의 신장 정보를 예측할 수도 있다. 예를 들어, 프로세서(130)는 사용자의 안면을 인식하여, 인식된 안면의 크기에 기초하여 사용자와 LFD 장치(100)의 거리를 판단하고, 판단된 거리에 기초하여 촬영된 이미지 내에서 사용자의 안면의 위치에 따라 사용자의 신장 정보를 예측할 수도 있다.
프로세서(130)는 촬영된 이미지로부터 사용자의 미간 길이 또는 실루엣을 추출하여 사용자의 신장 정보를 획득할 수도 있다. 또한, 프로세서(130)는 규격화된 바닥 패턴을 투사하여 피사체의 크기를 추출하여 사용자의 신장 정보를 획득할 수도 있다.
한편, LFD 장치(100)에서 카메라의 위치에 따라 프로세서(130)는 촬영된 이미지를 적절히 보정하여 사용자의 신장 정보를 획득할 수 있다. 예를 들어, LFD 장치(100)에서 카메라가 상단에 위치하여 사용자의 신장보다 높은 위치에서 촬영하는 경우, 프로세서(130)는 촬영 각도를 고려하여 사용자의 신장 정보를 획득할 수도 있다.
상술한 사용자의 안면 크기에 따른 사용자와 LFD 장치(100)의 거리, 판단된 거리에 기초하여 촬영된 이미지 내에서 사용자의 안면의 위치에 따른 사용자의 신장 정보에 대한 통계적인 정보는 스토리지(140)에 저장되어 있을 수 있다. 스토리지(140)에는 상술한 정보 외에도 사용자의 신장 정보를 예측할 수 있는 다양한 정보가 저장되어 있을 수 있다.
도 4b에 따르면, 감지부(120)는 복수의 적외선 센서를 포함하며, 프로세서(130)는 복수의 적외선 센서에 의해 감지된 반사파의 유무에 기초하여 사용자의 신장 정보를 획득할 수 있다. 예를 들어, LFD 장치(100)는 가장자리에 복수의 적외선 센서를 구비할 수 있고, 프로세서(130)는 적외선 센서가 반사파를 감지하는 경우 사용자가 있는 것으로 감지할 수 있다.
도 4b에 따르면, 상단의 적외선 센서 2개는 반사파를 감지하지 못하고, 나머지 적외선 센서는 반사파를 감지할 수 있다. 그에 따라, 프로세서(130)는 사용자의 신장이 상단으로부터 3번째 높이에 위치한 적외선 센서보다 크고 상단으로부터 2번째 높이에 위치한 적외선 센서보다 작다고 판단할 수 있다. 좀더 정확한 예측이 필요하다면, 더 많은 적외선 센서를 이용할 수도 있다.
이상에서는 카메라 및 적외선 센서에 대하여만 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 키넥트, 뎁스 카메라 및 초음파 센서 등이 이용될 수 있다. 키넥트를 이용하는 경우, 사용자의 관절점에 기초하여 상체 및 하체의 길이를 감지할 수 있고, 그에 따라 사용자의 신장 정보를 획득할 수 있다. 뎁스 카메라를 이용하는 경우, 사용자의 디스패리티 맵을 생성하고 표준 바디 모델과 비교하여 사용자의 신장 정보를 획득할 수 있다. 초음파 센서를 이용하는 경우, 사용자를 스캔할 수 있고 스캔된 정보에 기초하여 사용자의 신장 정보를 획득할 수 있다.
그리고, 사용자가 지니고 있는 전자 장치와 통신을 수행하여 사용자의 정보를 획득할 수도 있다. 이 경우, LFD 장치(100)는 WiFi, NFC 등을 이용하여 사용자가 소지한 전자 장치와 통신을 수행할 수 있다.
또한, 상술한 비접촉 센서 외에도 접촉 센서로 사용자의 신장 정보를 획득할 수도 있다. 그 밖에도 다양한 센서를 이용하여 사용자의 신장 정보를 획득할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 신장 정보에 기초하여 컨텐츠 요소를 디스플레이하는 방법을 설명하기 위한 도면이다.
도 5a에 따르면, 프로세서(130)는 획득된 신장 정보에 기초하여 디스플레이의 화면을 사용자 시야에 따라 복수의 디스플레이 영역으로 구분할 수 있다. 예를 들어, 프로세서(130)는 프라임 영역(510), 서브 프라임 영역(520) 및 블라인드 영역(530)을 동일한 크기의 영역으로 구분할 수 있다. 그리고, 사용자를 인식하고 사용자의 신장 정보를 획득한 후, 프로세서(130)는 도 5a의 하단 도면과 같이 프라임 영역(510)을 설정하여 사용자의 시야를 확보해줄 수 있다. 그리고, 프로세서(130)는 프라임 영역(510)의 아래쪽에 서브 프라임 영역(520)을 설정할 수 있다. 여기서, 프라임 영역(510)은 사용자가 가장 편안하게 디스플레이(110)를 볼 수 있는 영역이며, 서브 프라임 영역(520)은 프라임 영역(510)만큼 편안하게 볼 수는 없지만 그래도 사용자가 약간의 자세 변경으로 시야 확보가 되는 영역일 수 있다. 그리고, 블라인드 영역(530)은 사용자가 거의 볼 수 없거나 보지 않는 영역일 수 있으며, 프로세서(130)는 블라인드 영역(530)에 아무것도 디스플레이하지 않을 수 있다.
여기서, 컨텐츠는 제1 컨텐츠 요소 및 제2 컨텐츠 요소를 포함하고, 프로세서(130)는 제1 및 제2 컨텐츠 요소의 우선 순위에 기초하여 제1 및 제2 컨텐츠 요소를 복수의 디스플레이 영역 중 대응되는 디스플레이 영역에 디스플레이할 수 있다. 예를 들어, 제1 컨텐츠 요소가 제2 컨텐츠 요소보다 높은 우선 순위를 갖는 경우, 프로세서(130)는 제1 컨텐츠 요소를 프라임 영역(510)에 디스플레이하고, 제2 컨텐츠 요소를 서브 프라임 영역(520)에 디스플레이할 수 있다.
우선 순위는 컨텐츠의 제작 시에 미리 결정되어 있을 수도 있으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 컨텐츠의 타입에 기초하여 적어도 하나의 컨텐츠 요소의 우선 순위를 결정할 수도 있다. 이에 대한 구체적인 설명은 후술한다.
도 5a에서는 디스플레이 화면을 복수의 디스플레이 영역으로 구분한 후 컨텐츠 요소를 배치하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 도 5b의 상단 도면과 같이 디스플레이(110)는 광고 문구(540), 여백(550) 및 광고 모델 사진(560)의 복수의 컨텐츠 요소를 디스플레이한 상태에서 컨텐츠 요소의 위치를 변경할 수도 있다.
사용자를 인식하고 사용자의 신장 정보를 획득한 후, 프로세서(130)는 도 5b의 하단 도면과 같이 광고 모델 사진(560)을 사용자가 가장 편하게 볼 수 있는 위치에 디스플레이할 수 있다. 그리고, 프로세서(130)는 광고 문구(540)를 디스플레이(110)의 하단에 디스플레이하고, 광고 모델 사진(560) 및 광고 문구(540) 사이에 여백을 두어 복잡하게 보이는 것을 피하도록 디스플레이할 수 있다. 그에 따라, 상단 도면의 여백(550)이 하단 도면에서는 두 개의 여백(550-1, 550-2)으로 나눠질 수 있다.
도 6은 본 발명의 일 실시 예에 따른 터치 기능의 활성화 여부를 설명하기 위한 도면이다.
도 6a에 따르면, 프로세서(130)는 획득된 신장 정보에 기초한 사용자의 터치 조작 용이성에 따라 디스플레이(110)의 화면을 복수의 디스플레이 영역으로 구분할 수 있다. 예를 들어, 프로세서(130)는 제1 디스플레이 영역(610) 및 제2 디스플레이 영역(620)을 동일한 크기의 영역으로 구분할 수 있다. 그리고, 사용자를 인식하고 사용자의 신장 정보를 획득한 후, 프로세서(130)는 도 6a의 하단 도면과 같이 제1 디스플레이 영역(610)을 설정하여 사용자의 터치 조작 용이성을 확보해줄 수 있다. 그리고, 프로세서(130)는 나머지 영역을 제2 디스플레이 영역(620)으로 설정할 수 있다.
프로세서(130)는 제2 디스플레이 영역(620)의 터치 입력이 있더라도 그에 대응되는 동작을 수행하지 않는 것으로 구성될 수 있다. 다만, 이에 한정되는 것은 아니며, 터치 패널의 종류에 따라 특정 영역의 전원 자체를 공급하지 않는 구성도 가능하다.
도 6b에 따르면, 프로세서(130)는 획득된 신장 정보에 기초한 사용자의 터치 조작 용이성에 따라 사용자의 터치 조작이 필요한 컨텐츠 요소를 복수의 디스플레이 영역 중 적어도 하나에 디스플레이할 수 있다. 예를 들어, 도 6b의 상단 도면에는 사용자의 터치 조작이 필요한 컨텐츠 요소(630)가 디스플레이되어 있다. 그리고, 사용자를 인식하고 사용자의 신장 정보를 획득한 후, 프로세서(130)는 도 6b의 하단 도면과 같이 사용자의 터치 조작이 필요한 컨텐츠 요소(630)를 좀더 하단으로 이동하여 디스플레이할 수 있다.
도 6b에서는 사용자의 터치 조작이 필요한 컨텐츠 요소(630)가 다른 컨텐츠 요소에 오버랩되어 디스플레이되는 것으로 도시되어 있으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 사용자의 터치 조작이 필요한 컨텐츠 요소(630)를 이동하여 디스플레이하면서 사용자의 터치 조작이 필요하지 않은 컨텐츠 요소를 다른 영역으로 이동하여 디스플레이할 수도 있다.
한편, 도 5에서 구분된 영역은 도 6에서 구분된 영역과 별개의 영역으로 서로 중첩될 수도 있다. 예를 들어, 도 5의 프라임 영역(510)의 일부는 도 6의 제1 디스플레이 영역(610)과 중첩될 수 있다. 또한, 프로세서(130)는 사용자의 시야 및 사용자의 터치 조작 용이성을 모두 고려하여 디스플레이 영역을 구분할 수도 있다. 예를 들어, 프로세서(130)는 사용자의 터치 입력이 있거나 기설정된 거리 이내로 접근하는 경우, 터치 입력 지점 또는 터치 입력이 가능한 지점을 기초로 하여 프라임 영역(510)을 설정하거나 변경할 수도 있다. 프라임 영역(510)이 이미 설정되어 있는 경우, 프로세서(130)는 사용자의 터치 입력 등에 기초하여 프라임 영역(510)을 축소하여 사용자에게 프라이버시를 보장해줄 수도 있다. 프로세서(130)는 사용자에게 프라이버시를 보장해주기 위해 밝기 및 View 설정 등을 변경할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 컨텐츠의 타입에 기초하여 컨텐츠 요소의 우선 순위를 결정하는 것을 설명하기 위한 도면이다.
도 7에 따르면, 프로세서(130)는 컨텐츠의 타입에 기초하여 적어도 하나의 컨텐츠 요소의 우선 순위를 결정하고, 획득된 신장 정보 및 우선 순위에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다. 예를 들어, 프로세서(130)는 컨텐츠의 타입이 뉴스 속보인 경우, 뉴스의 제목(710)을 가장 중요한 요소로 판단하고, 다음으로 뉴스 이미지(730), 그 다음으로 뉴스 내용(720)을 중요한 요소로 판단할 수 있다.
그리고, 프로세서(130)는 어린이가 감지된 경우, 뉴스의 제목(710)을 어린이의 시야에 대응되는 위치에 디스플레이하고, 뉴스 이미지(730)를 그 아래 디스플레이할 수 있다. 한편, 프로세서(130)는 어린이가 감지된 점을 고려하여 뉴스 내용(720)을 삭제할 수도 있으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 뉴스 내용(720)을 뉴스 제목(710) 위쪽으로 이동시켜 디스플레이할 수도 있다.
도 7에서는 뉴스에 대하여만 설명하였으나, 프로세서(130)는 얼마든지 다른 컨텐츠 타입에 기초하여 우선 순위를 결정할 수도 있다. 또한, 컨텐츠 타입에 기초하여 우선 순위를 결정하는 것으로 설명하였으나, 프로세서(130)는 컨텐츠 타입 및 획득된 신장 정보에 기초하여 우선 순위를 결정할 수도 있다. 예를 들어, 프로세서(130)는 어린이가 감지된 경우, 뉴스 이미지(730)를 가장 중요한 요소로 판단할 수도 있다.
도 8은 본 발명의 일 실시 예에 따른 컨텐츠 요소를 변경하여 디스플레이하는 것을 설명하기 위한 도면이다.
도 8에 따르면, 프로세서(130)는 획득된 신장 정보에 기초하여 적어도 하나의 컨텐츠 요소의 내용 및 표현 중 적어도 하나를 변경하고, 변경된 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다. 예를 들어, 성인 남자의 옷 광고가 디스플레이되고 있는 상태에서 어린이가 인식되면, 프로세서(130)는 컨텐츠 요소의 내용을 어린이와 관계된 장난감 자동차, 인형, 바나나로 변경할 수 있다. 그리고, 프로세서(130)는 컨텐츠 요소의 표현을 사진에서 그림 및 글자로 변경할 수도 있다.
상술한 바와 같이, 프로세서(130)는 변경된 컨텐츠 요소를 대응되는 영역에 디스플레이할 수 있다.
또한, 프로세서(130)는 획득된 신장 정보로부터 사용자의 얼굴 및 나이 중 적어도 하나를 추정하고, 추정된 정보 중 적어도 하나에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수도 있다.
도 8에서는 컨텐츠 요소가 모두 변경되는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 지도 정보가 디스플레이되고 있는 상태에서 어린이가 인식되면, 프로세서(130)는 지도 정보를 디스플레이하면서 어린이에게 "문구점은 좌회전하면 돼."와 같은 문구를 오버랩하여 디스플레이할 수도 있다.
도 9는 본 발명의 일 실시 예에 따른 사용자의 신장 정보로부터 추가 정보를 획득하여 컨텐츠 요소를 디스플레이하는 방법을 설명하기 위한 도면이다.
도 9에 따르면, 프로세서(130)는 획득된 신장 정보로부터 사용자와 LFD 장치(100)와의 거리 정보를 추정하고, 추정된 거리 정보에 따라 컨텐츠 요소의 타입 및 디스플레이 위치 중 적어도 하나를 변경하여 디스플레이할 수 있다. 예를 들어, 도 9의 상단 도면에 의하면, 프로세서(130)는 사용자와 LFD 장치(100)와의 거리가 멀다고 판단하거나 사용자가 감지되지 않는 경우, 이미지로 구성된 컨텐츠 요소 만을 디스플레이할 수 있다. 그리고, 도 9의 하단 도면과 같이, 프로세서(130)는 사용자와 LFD 장치(100)의 거리가 가까워지는 경우, 이미지 뿐만 아니라 텍스트로 구성된 컨텐츠 요소를 추가로 디스플레이할 수 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(130)는 사용자와 LFD 장치(100)와의 거리가 멀다고 판단하거나 사용자가 감지되지 않는 경우 이미지 뿐만 아니라 텍스트를 디스플레이하고, 사용자와 LFD 장치(100)의 거리가 가까워지는 경우 이미지를 축소하여 디스플레이하고 일부 텍스트를 확대하여 디스플레이할 수도 있다.
프로세서(130)는 거리 정보에 따라 컨텐츠 요소의 타입 및 디스플레이 위치 중 적어도 하나를 점차적으로 변경하여 디스플레이할 수 있다. 예를 들어, 프로세서(130)는 사용자를 실시간으로 감지하면서 사용자가 한 걸음씩 다가올 때마다 점차적으로 이미지를 축소하고 텍스트를 확대할 수 있다. 다만, 이에 한정되는 것은 아니며, 프로세서(130)는 사용자가 기설정된 거리 이내로 진입하는 경우에 컨텐츠 요소의 타입 및 디스플레이 위치 중 적어도 하나를 순간적으로 변경할 수도 있다.
또한, 프로세서(130)는 사용자의 움직임의 방향 및 속도에 따라 다르게 디스플레이할 수 있다. 예를 들어, 프로세서(130)는 사용자가 LFD 장치(100)로 다가가는 경우에 이미지를 축소하고 텍스트를 확대하고, 사용자가 LFD 장치(100)에서 멀어지는 경우에 이미지를 확대하고 텍스트를 축소할 수 있다. 또한, 프로세서(130)는 사용자가 빠르게 움직이는 경우, 좀더 빠르게 확대 또는 축소할 수도 있다.도 9에서는 신장 정보로부터 거리를 추정하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 신장 정보로부터 사용자와 LFD 장치(100)의 거리 뿐만 아니라, 키, 시야각, 성별, 연령대, 걷는 속도, 움직임 방향 등을 추정하여 컨텐츠 요소를 변경하여 디스플레이할 수도 있다.
또한, 프로세서(130)는 컨텐츠 요소의 타입으로 텍스트, 이미지 뿐만 아니라 동영상, 사운드 등을 변경하여 디스플레이할 수도 있다.
그리고, 프로세서(130)는 컨텐츠 요소의 타입 및 디스플레이 위치 뿐만 아니라 확대, 축소, 해상도, 밝기, 색상, 움직임 방향, 속도 및 View 설정 등을 변경하여 디스플레이할 수도 있다.
도 10은 본 발명의 일 실시 예에 따른 복수의 사용자가 인식된 경우의 동작을 설명하기 위한 도면이다.
도 10에 따르면, 프로세서(130)는 감지부(120)를 통해 복수의 사용자가 인식되면, 복수의 사용자 중 LFD 장치(100)에 가장 근접한 사용자의 신장 정보 및 복수의 사용자의 평균 신장 정보 중 적어도 하나에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다. 예를 들어, 프로세서(130)는 가장 근접한 성인 1(1010)의 신장 정보에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다. 또는, 프로세서(130)는 성인 1(1010), 어린이(1020) 및 성인 2(1020)의 평균 신장 정보에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(130)는 기설정된 거리 내에 있는 복수의 사용자의 평균 신장 정보에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
또는, 프로세서(130)는 컨텐츠의 타입에 기초하여 일부 사용자를 제외할 수도 있다. 예를 들어, LFD 장치(100)가 성인 옷 광고만을 디스플레이하는 경우, 프로세서(130)는 어린이의 신장 정보는 무시하고 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수도 있다.
한편, 프로세서(130)는 복수의 사용자 각각에게 동일한 컨텐츠 요소를 제공할 수도 있다. 이는 컨텐츠에 포함된 컨텐츠 요소의 개수가 작고, 사용자가 기설정된 수 이하인 경우에만 가능할 수 있다. 예를 들어, 사용자가 30명이면, 프로세서(130)는 가장 근접한 사용자의 신장 정보 또는 복수의 사용자의 평균 신장 정보 중 하나에 기초하여 적어도 하나의 컨텐츠 요소를 디스플레이할 수 있고, 복수의 사용자 모두에게 동일한 컨텐츠 요소를 제공하지 않을 수 있다.
이상에서는 획득된 신장 정보에 기초하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 획득된 신장 정보로부터 팔 길이를 추정하고, 추정된 정보 중 적어도 하나에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수도 있다. 또한, 프로세서(130)는 사용자의 나이에 따라 컨텐츠에 포함된 용어를 변경하여 디스플레이할 수도 있다.
도 11은 본 발명의 일 실시 예에 따른 LFD 장치의 제어 방법을 설명하기 위한 흐름도이다.
먼저, 적어도 하나의 컨텐츠 요소를 포함하는 컨텐츠를 디스플레이한다(S1110). 그리고, 사용자를 인식한다(S1120). 그리고, 인식된 사용자의 신장 정보를 획득한다(S1130). 그리고, 획득된 신장 정보에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경한다(S1140).
또한, 획득하는 단계(S1130)는 카메라에 의해 촬영된 사용자 이미지에 기초하여 사용자의 신장 정보를 획득할 수 있다.
한편, 획득된 신장 정보에 기초하여 디스플레이의 화면을 사용자 시야에 따라 복수의 디스플레이 영역으로 구분하는 단계를 더 포함할 수 있다.
여기서, 컨텐츠는 제1 컨텐츠 요소 및 제2 컨텐츠 요소를 포함하고, 변경하는 단계(S1140)는 제1 및 제2 컨텐츠 요소의 우선 순위에 기초하여 제1 및 제2 컨텐츠 요소를 복수의 디스플레이 영역 중 대응되는 디스플레이 영역에 디스플레이할 수 있다.
한편, 획득된 신장 정보에 기초한 사용자의 터치 조작 용이성에 따라 상기 디스플레이의 화면을 복수의 디스플레이 영역으로 구분하는 단계를 더 포함할 수 있다.
여기서, 변경하는 단계(S1140)는 획득된 신장 정보에 기초한 사용자의 터치 조작 용이성에 따라 사용자의 터치 조작이 필요한 컨텐츠 요소를 복수의 디스플레이 영역 중 적어도 하나에 디스플레이할 수 있다.
그리고, 컨텐츠의 타입에 기초하여 적어도 하나의 컨텐츠 요소의 우선 순위를 결정하는 단계를 더 포함하고, 변경하는 단계(S1140)는 획득된 신장 정보 및 우선 순위에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
또한, 변경하는 단계(S1140)는 획득된 신장 정보에 기초하여 적어도 하나의 컨텐츠 요소의 내용 및 표현 중 적어도 하나를 변경하여 디스플레이할 수 있다.
그리고, 변경하는 단계(S1140)는 획득된 신장 정보로부터 사용자의 나이를 추정하고, 추정된 나이에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
또한, 변경하는 단계(S1140)는 복수의 사용자가 인식되면, 복수의 사용자 중 LFD 장치에 가장 근접한 사용자의 신장 정보 및 복수의 사용자의 평균 신장 정보 중 적어도 하나에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, LFD 장치는 사용자에 따라 컨텐츠에 포함된 컨텐츠 요소를 재구성하여 디스플레이하여 사용자의 시야가 확보되고 사용자의 터치 조작 용이성이 향상되어 사용자의 편의성이 향상된다.
한편, 이상에서는 LFD 장치(100)가 터치 패널을 구비하여 터치 입력을 수신하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, LFD 장치(100)는 디스플레이(110)에 대한 직접적인 터치 없이 공간 터치를 감지하여, 그에 대응되는 동작을 수행할 수도 있다.
한편, 이상에서 프로세서(130)는 사용자의 신장 정보를 획득하여, 획득한 신장 정보에 기초하여 디스플레이(110)의 화면을 복수의 디스플레이 영역 또는 터치 영역으로 구분하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 상술한 바와 같이 디스플레이 영역을 구분한 후, 컨텐츠 요소가 디스플레이되어 있는 상태에서 사용자의 터치 입력이 있으면, 프로세서(130)는 사용자의 터치 입력에 기초하여 복수의 디스플레이 영역 또는 터치 영역을 재설정할 수도 있다.
그리고, 프로세서(130)는 LFD 장치(100)에서 인식된 사용자 정보를 저장해둘 수 있다. 예를 들어, 프로세서(130)는 LFD 장치(100)를 이용한 사용자의 신장 정보, 터치 지점 등을 저장해두고, 이후 사용자가 다시 인식되면 저장된 정보에 기초하여 컨텐츠 요소의 위치를 변경하여 디스플레이할 수 있다.
한편, 이상에서는 하나의 대형 디스플레이를 이용하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, LFD 장치(100)는 디스플레이 월과 같이 복수의 디스플레이가 연결된 형태로 구형될 수도 있다. 또한, 복수의 디스플레이가 연결된 형태로 LFD 장치(100)가 구현되는 경우, 복수의 디스플레이가 직사각형 형태를 이루도록 배열될 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 복수의 디스플레이는 계단형 또는 피라미드형의 형태를 이루도록 배열될 수도 있다.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 LFD 장치의 제어 방법은 컴퓨터에서 실행 가능한 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.
일 예로, 적어도 하나의 컨텐츠 요소를 포함하는 컨텐츠를 디스플레이하는 단계, 사용자를 인식하는 단계, 인식된 사용자의 신장 정보를 획득하는 단계 및 획득된 신장 정보에 기초하여 적어도 하나의 컨텐츠 요소의 디스플레이 위치를 변경하는 단계를 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : LFD 장치 110 : 디스플레이
120 : 감지부 130 : 프로세서
140 : 스토리지 150 : 통신부
155 : 사용자 인터페이스부 160 : 오디오 처리부
170 : 비디오 처리부 180 : 스피커
181 : 버튼 182 : 마이크

Claims (20)

  1. LFD(large format display) 장치에 있어서,
    디스플레이;
    감지부; 및
    터치 조작이 필요한 제1 컨텐츠 요소 및 상기 터치 조작이 필요하지 않은 제2 컨텐츠 요소를 포함하는 컨텐츠를 디스플레이하도록 상기 디스플레이를 제어하며,
    상기 감지부를 통해 인식된 사용자의 신장 정보를 획득하고,
    상기 획득된 신장 정보에 기초하여 상기 제1 컨텐츠 요소의 디스플레이 위치를 변경하고, 상기 제1 컨텐츠 요소의 변경된 위치에 기초하여 상기 제2 컨텐츠 요소의 디스플레이 위치를 변경하도록 상기 디스플레이를 제어하는 프로세서;를 포함하며,
    상기 프로세서는,
    상기 감지부를 통해 복수의 사용자가 인식되면 상기 컨텐츠의 타입에 기초하여 상기 복수의 사용자 중 일부를 제외한 나머지 사용자를 식별하고,
    상기 나머지 사용자 중 상기 LFD 장치에 가장 근접한 사용자의 신장 정보 또는 상기 나머지 사용자의 평균 신장 정보 중 적어도 하나에 기초하여 상기 제1 컨텐츠 요소의 디스플레이 위치를 변경하는 LFD 장치.
  2. 제1항에 있어서,
    상기 감지부는 카메라를 포함하며,
    상기 프로세서는,
    상기 카메라에 의해 촬영된 사용자 이미지에 기초하여 상기 사용자의 신장 정보를 획득하는 것을 특징으로 하는 LFD 장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 획득된 신장 정보에 기초하여 상기 디스플레이의 화면을 사용자 시야에 따라 복수의 디스플레이 영역으로 구분하는 것을 특징으로 하는 LFD 장치.
  4. 삭제
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 획득된 신장 정보에 기초하여 상기 디스플레이의 화면을 복수의 디스플레이 영역으로 구분하는 것을 특징으로 하는 LFD 장치.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 획득된 신장 정보에 기초하여 상기 제1 컨텐츠 요소가 상기 복수의 디스플레이 영역 중 적어도 하나에 디스플레이되도록 제어하는 것을 특징으로 하는 LFD 장치.
  7. 삭제
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 획득된 신장 정보에 기초하여 상기 제1 컨텐츠 요소의 내용 및 디스플레이 형태 중 적어도 하나를 변경하여 디스플레이하도록 제어하는 것을 특징으로 하는 LFD 장치.
  9. 제8항에 있어서,
    상기 프로세서는,
    상기 획득된 신장 정보로부터 사용자의 나이를 추정하고, 상기 추정된 나이에 기초하여 상기 제1 컨텐츠 요소의 디스플레이 위치를 변경하는 것을 특징으로 하는 LFD 장치.
  10. 삭제
  11. LFD(large format display) 장치의 제어 방법에 있어서,
    터치 조작이 필요한 제1 컨텐츠 요소 및 상기 터치 조작이 필요하지 않은 제2 컨텐츠 요소를 포함하는 컨텐츠를 디스플레이하는 단계;
    사용자를 인식하는 단계;
    상기 인식된 사용자의 신장 정보를 획득하는 단계; 및
    상기 획득된 신장 정보에 기초하여 상기 제1 컨텐츠 요소의 디스플레이 위치를 변경하고, 상기 제1 컨텐츠 요소의 변경된 위치에 기초하여 상기 제2 컨텐츠 요소의 디스플레이 위치를 변경하는 단계;를 포함하며,
    상기 변경하는 단계는,
    복수의 사용자가 인식되면 상기 컨텐츠의 타입에 기초하여 상기 복수의 사용자 중 일부를 제외한 나머지 사용자를 식별하고,
    상기 나머지 사용자 중 상기 LFD 장치에 가장 근접한 사용자의 신장 정보 또는 상기 나머지 사용자의 평균 신장 정보 중 적어도 하나에 기초하여 상기 제1 컨텐츠 요소의 디스플레이 위치를 변경하는 제어 방법.
  12. 제11항에 있어서,
    상기 획득하는 단계는,
    카메라에 의해 촬영된 사용자 이미지에 기초하여 상기 사용자의 신장 정보를 획득하는 것을 특징으로 하는 제어 방법.
  13. 제11항에 있어서,
    상기 획득된 신장 정보에 기초하여 디스플레이의 화면을 사용자 시야에 따라 복수의 디스플레이 영역으로 구분하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
  14. 삭제
  15. 제11항에 있어서,
    상기 획득된 신장 정보에 기초하여 상기 디스플레이의 화면을 복수의 디스플레이 영역으로 구분하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
  16. 제15항에 있어서,
    상기 변경하는 단계는,
    상기 획득된 신장 정보에 기초하여 상기 제1 컨텐츠 요소를 상기 복수의 디스플레이 영역 중 적어도 하나에 디스플레이하는 것을 특징으로 하는 제어 방법.
  17. 삭제
  18. 제11항에 있어서,
    상기 변경하는 단계는,
    상기 획득된 신장 정보에 기초하여 상기 제1 컨텐츠 요소의 내용 및 표현 중 적어도 하나를 변경하여 디스플레이하는 것을 특징으로 하는 제어 방법.
  19. 제11항에 있어서,
    상기 변경하는 단계는,
    상기 획득된 신장 정보로부터 사용자의 나이를 추정하고, 상기 추정된 나이에 기초하여 상기 제1 컨텐츠 요소의 디스플레이 위치를 변경하는 것을 특징으로 하는 제어 방법.
  20. 삭제
KR1020150124506A 2015-09-02 2015-09-02 LFD(large format display) 장치 및 그 제어 방법 KR102179958B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020150124506A KR102179958B1 (ko) 2015-09-02 2015-09-02 LFD(large format display) 장치 및 그 제어 방법
US15/018,275 US10025419B2 (en) 2015-09-02 2016-02-08 Large format display apparatus and control method thereof
PCT/KR2016/002705 WO2017039100A1 (en) 2015-09-02 2016-03-17 Large format display apparatus and control method thereof
EP16842066.9A EP3314374A4 (en) 2015-09-02 2016-03-17 Large format display apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150124506A KR102179958B1 (ko) 2015-09-02 2015-09-02 LFD(large format display) 장치 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20170027631A KR20170027631A (ko) 2017-03-10
KR102179958B1 true KR102179958B1 (ko) 2020-11-17

Family

ID=58104009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150124506A KR102179958B1 (ko) 2015-09-02 2015-09-02 LFD(large format display) 장치 및 그 제어 방법

Country Status (4)

Country Link
US (1) US10025419B2 (ko)
EP (1) EP3314374A4 (ko)
KR (1) KR102179958B1 (ko)
WO (1) WO2017039100A1 (ko)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9684948B2 (en) * 2014-07-01 2017-06-20 Echostar Uk Holdings Limited Systems and methods for facilitating enhanced display characteristics based on viewer state
JP2017037159A (ja) * 2015-08-10 2017-02-16 キヤノン株式会社 画像表示装置、画像表示方法、及びプログラム
US11463618B2 (en) * 2017-06-20 2022-10-04 Nec Corporation Apparatus for providing information and method of providing information, and non-transitory storage medium
US11237699B2 (en) * 2017-08-18 2022-02-01 Microsoft Technology Licensing, Llc Proximal menu generation
US11301124B2 (en) 2017-08-18 2022-04-12 Microsoft Technology Licensing, Llc User interface modification using preview panel
US10417991B2 (en) 2017-08-18 2019-09-17 Microsoft Technology Licensing, Llc Multi-display device user interface modification
WO2019079526A1 (en) * 2017-10-17 2019-04-25 Gnommme Llc IMAGE SELECTION BASED ON THE CONTEXT
JP6882215B2 (ja) * 2018-02-21 2021-06-02 ヤフー株式会社 表示プログラム、表示方法および端末装置
US10372402B1 (en) 2018-03-27 2019-08-06 Panoscape Holdings, LLC Multi-panel, multi-communication video wall and system and method for seamlessly isolating one of more panels for individual user interaction
US10809958B2 (en) 2018-04-16 2020-10-20 Microsoft Technology Licensing, Llc Setting up multiple displays via user input
US10755486B2 (en) * 2018-04-19 2020-08-25 Disney Enterprises, Inc. Occlusion using pre-generated 3D models for augmented reality
GB2576213A (en) * 2018-08-10 2020-02-12 Sony Corp A method for mapping an object to a location in virtual space
JP7272764B2 (ja) * 2018-08-28 2023-05-12 清水建設株式会社 情報提供システム
US11886766B2 (en) 2018-08-28 2024-01-30 Panoscape Holdings, LLC Multi-panel, multi-communication video wall and system and method for seamlessly isolating one or more panels for individual user interaction
KR102695688B1 (ko) * 2018-12-06 2024-08-19 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11435972B2 (en) * 2019-10-08 2022-09-06 Compal Electronics, Inc. Immersive multimedia system, immersive interactive method and movable interactive unit
CN112880289B (zh) * 2019-11-29 2024-01-02 青岛海高设计制造有限公司 用于冰箱的控制方法及装置、冰箱
WO2021103051A1 (zh) * 2019-11-29 2021-06-03 京东方科技集团股份有限公司 一种显示装置及其驱动方法
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11314406B2 (en) * 2020-04-29 2022-04-26 Lenovo (Singapore) Pte. Ltd. Adjustment of display parameters based on user height and/or user input
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
CN117950544A (zh) * 2024-02-02 2024-04-30 广东保伦电子股份有限公司 一种自适应用户身高的屏幕大小调节方法及显示屏

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060158425A1 (en) * 2005-01-15 2006-07-20 International Business Machines Corporation Screen calibration for display devices

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09282534A (ja) 1996-04-12 1997-10-31 Omron Corp 取引処理装置
JP2001117684A (ja) 1999-10-20 2001-04-27 Fujitsu General Ltd タッチパネル装置
EP1596271A1 (en) 2004-05-11 2005-11-16 Hitachi Europe S.r.l. Method for displaying information and information display system
US7730418B2 (en) 2005-05-04 2010-06-01 Workman Nydegger Size to content windows for computer graphics
JP4412737B2 (ja) 2007-09-06 2010-02-10 シャープ株式会社 情報表示装置
JP4907483B2 (ja) 2007-09-28 2012-03-28 パナソニック株式会社 映像表示装置
JP2010066915A (ja) 2008-09-09 2010-03-25 Nec Personal Products Co Ltd 情報処理装置およびタッチパッドの領域変更方法
KR101626159B1 (ko) 2009-11-25 2016-05-31 엘지전자 주식회사 사용자 적응형 디스플레이 장치 및 디스플레이 방법
KR20110069563A (ko) 2009-12-17 2011-06-23 엘지전자 주식회사 영상표시장치 및 그 동작 방법
KR20110090158A (ko) 2010-02-03 2011-08-10 조수호 사용자의 위치 혹은 근접도에 연동되는 인터랙티브 디지털 사이니지 시스템 및 컨텐츠 표시 방법
US8856682B2 (en) 2010-05-11 2014-10-07 AI Squared Displaying a user interface in a dedicated display area
US8909200B2 (en) 2011-02-28 2014-12-09 Cisco Technology, Inc. Using face tracking for handling phone events
US20130159565A1 (en) 2011-12-14 2013-06-20 Motorola Mobility, Inc. Method and apparatus for data transfer of touch screen events between devices
US8810513B2 (en) * 2012-02-02 2014-08-19 Kodak Alaris Inc. Method for controlling interactive display system
JP6244627B2 (ja) 2013-01-09 2017-12-13 セイコーエプソン株式会社 画像表示装置、プロジェクター、および画像表示装置の制御方法
US9159116B2 (en) 2013-02-13 2015-10-13 Google Inc. Adaptive screen interfaces based on viewing distance
US9232183B2 (en) * 2013-04-19 2016-01-05 At&T Intellectual Property I, Lp System and method for providing separate communication zones in a large format videoconference
KR102220825B1 (ko) * 2013-09-05 2021-03-02 삼성전자주식회사 전자 장치와 전자 장치의 콘텐트 표시방법
US20150085060A1 (en) 2013-09-20 2015-03-26 Microsoft Corporation User experience for conferencing with a touch screen display

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060158425A1 (en) * 2005-01-15 2006-07-20 International Business Machines Corporation Screen calibration for display devices

Also Published As

Publication number Publication date
EP3314374A1 (en) 2018-05-02
WO2017039100A1 (en) 2017-03-09
KR20170027631A (ko) 2017-03-10
US10025419B2 (en) 2018-07-17
US20170060319A1 (en) 2017-03-02
EP3314374A4 (en) 2018-06-27

Similar Documents

Publication Publication Date Title
KR102179958B1 (ko) LFD(large format display) 장치 및 그 제어 방법
US10671115B2 (en) User terminal device and displaying method thereof
US12047706B2 (en) Display apparatus and control methods thereof
KR102024187B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US20140333671A1 (en) Display apparatus and control method thereof
KR101768974B1 (ko) 디스플레이 장치 및 그제어 방법
US10452777B2 (en) Display apparatus and character correcting method thereof
KR20170029978A (ko) 이동단말기 및 그 제어방법
KR102413074B1 (ko) 사용자 단말, 전자 장치 및 이들의 제어 방법
US20160139797A1 (en) Display apparatus and contol method thereof
US20190012129A1 (en) Display apparatus and method for controlling display apparatus
US10289270B2 (en) Display apparatus and method for displaying highlight thereof
US20150019976A1 (en) Portable terminal and method for providing information using the same
EP3119096A1 (en) Image display apparatus and method of operating the same
US20140195980A1 (en) Display apparatus and method for providing user interface thereof
US20140333421A1 (en) Remote control device, display apparatus, and method for controlling the remote control device and the display apparatus thereof
KR102005406B1 (ko) 디스플레이 장치 및 그 제어 방법
WO2015014138A1 (zh) 一种显示框显示的方法、装置和设备
KR102136223B1 (ko) LFD(large format display) 장치 및 그 제어 방법
US20150026571A1 (en) Display apparatus and method for providing a user interface

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant