KR102415552B1 - 디스플레이 장치 - Google Patents

디스플레이 장치 Download PDF

Info

Publication number
KR102415552B1
KR102415552B1 KR1020200039030A KR20200039030A KR102415552B1 KR 102415552 B1 KR102415552 B1 KR 102415552B1 KR 1020200039030 A KR1020200039030 A KR 1020200039030A KR 20200039030 A KR20200039030 A KR 20200039030A KR 102415552 B1 KR102415552 B1 KR 102415552B1
Authority
KR
South Korea
Prior art keywords
display
user
processor
gaze direction
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200039030A
Other languages
English (en)
Other versions
KR20210121772A (ko
Inventor
이동희
김용철
이명엽
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020200039030A priority Critical patent/KR102415552B1/ko
Publication of KR20210121772A publication Critical patent/KR20210121772A/ko
Application granted granted Critical
Publication of KR102415552B1 publication Critical patent/KR102415552B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Neurosurgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 개시의 실시 예에 따른 디스플레이 장치는 디스플레이 장치를 지지하는 스탠드 베이스, 디스플레이 및 상기 디스플레이의 외곽을 커버하는 백커를 포함하는 헤드 및 상기 헤드와 상기 스탠드 베이스를 이어주는 샤프트를 포함하고, 상기 헤드는 센싱 데이터를 획득하는 하나 이상의 센서 및 상기 획득된 센싱 데이터에 기초하여, 사용자의 상태 정보를 획득하고, 획득된 사용자의 상태 정보에 기초하여, 상기 디스플레이의 하나 이상의 출력 팩터들 및 상기 디스플레이의 배치 상태 중 하나 이상을 조절할 수 있다.

Description

디스플레이 장치{DISPLAY DEVICE}
본 개시는 디스플레이 장치에 관한 것으로, 보다 상세하게는, 사용자에게 적절한 시청 환경을 제공할 수 있는 디스플레이 장치에 관한 것이다.
단말기의 기능은 다양화되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이에 이미지나 비디오를 출력하는 기능이 있다.
일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다.
이와 같은, 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.
TV와 같은 단말기는 보통, 그 위치가 고정되어 있고, 사용자가 수동으로, 디스플레이의 위치나, 회전 각도를 조절하기 때문에, 불편한 점이 있다.
또한, 기존의 단말기는 사용자의 시청 상황과 무관하게, 지정된 휘도 및 오디오 볼륨으로 일률적으로, 컨텐트 영상을 재생하고 있다.
본 개시는 사용자의 상태에 맞는 최적의 시청 환경을 제공할 수 있는 디스플레이 장치의 제공을 목적으로 한다.
본 개시의 실시 예에 따른 디스플레이 장치는 디스플레이 장치를 지지하는 스탠드 베이스, 디스플레이 및 상기 디스플레이의 외곽을 커버하는 백커를 포함하는 헤드 및 상기 헤드와 상기 스탠드 베이스를 이어주는 샤프트를 포함하고, 상기 헤드는 센싱 데이터를 획득하는 하나 이상의 센서 및 상기 획득된 센싱 데이터에 기초하여, 사용자의 상태 정보를 획득하고, 획득된 사용자의 상태 정보에 기초하여, 상기 디스플레이의 하나 이상의 출력 팩터들 및 상기 디스플레이의 배치 상태 중 하나 이상을 조절할 수 있다.
상기 프로세서는 상기 센싱 데이터에 기초하여, 상기 디스플레이와 상기 사용자 간의 거리를 측정하고, 측정된 거리에 따라 상기 디스플레이의 휘도 및 오디오 볼륨을 조절할 수 있다.
상기 프로세서는 상기 거리가 기준 거리 이내인 경우, 상기 디스플레이의 휘도를 증가시키고, 상기 오디오 볼륨을 지정된 값으로 출력하고, 상기 거리가 상기 기준 거리 이상인 경우, 상기 디스플레이의 휘도를 감소시키고, 상기 오디오 볼륨을 증가시킬 수 있다.
상기 샤프트는 상기 헤드의 회전을 제어하는 틸팅 모터를 더 포함하고, 상기 프로세서는 상기 센싱 데이터에 기초하여, 상기 사용자의 시선 방향을 획득하고, 획득된 시선 방향에 맞게 상기 디스플레이의 회전 각도를 조절하도록 상기 틸팅 모터를 제어할 수 있다.
상기 프로세서는 상기 디스플레이의 회전 각도를 조절하면서, 상기 디스플레이 상에 표시 중인 컨텐트 영상을 상기 시선 방향에 맞게 축소시킬 수 있다.
상기 샤프트는 상기 디스플레이를 승강시키는 승강 모터를 더 구비하고, 상기 프로세서는 상기 센싱 데이터에 기초하여, 상기 사용자의 시선 방향을 획득하고, 획득된 시선 방향에 맞게 상기 디스플레이의 높이를 조절하도록 상기 승강 모터를 제어할 수 있다.
상기 프로세서는 상기 센싱 데이터에 기초하여, 상기 사용자의 시선 방향을 획득하고, 획득된 시선 방향이 상기 디스플레이를 향하지 않는 경우, 상기 디스플레이의 화면을 오프시키고, 오디오 출력을 증가시킬 수 있다.
상기 센싱 데이터는 모션 센서를 통해 획득된 모션 데이터이고, 상기 프로세서는 상기 모션 데이터에 포함된 발광된 빛의 세기 및 수광된 빛의 세기에 기초하여, 상기 거리를 측정할 수 있다.
상기 센싱 데이터는 카메라를 통해 획득된 영상 데이터이고, 상기 프로세서는 영상 데이터를 이용하여, 사용자 얼굴 영상을 추출하고, 추출된 얼굴 영상으로부터 눈 영상을 추출하고, 추출된 눈 영상에 기초하여, 상기 시선 방향을 획득할 수 있다.
상기 프로세서는 획득된 사용자의 상태 정보에 기초하여, 상기 디스플레이의 하나 이상의 출력 팩터들 및 상기 디스플레이의 배치 상태를 동시에 조절할 수 있다.
본 개시의 다양한 실시 예에 따르면, 사용자의 시청 상황에 맞게 최적의 시청 환경이 제공될 수 있다.
이에 따라, 사용자의 컨텐트 시청의 몰입도가 향상될 수 있다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치의 구성을 설명하는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 3은 본 개시의 일 실시 예에 따른 디스플레이 장치의 동작 방법을 설명하는 도면이다.
도 4 및 도 5는 본 개시의 실시 예에 따라 사용자 상태 정보에 기초하여, 디플레이 장치의 출력 팩터를 조절하는 예를 설명하는 도면이다.
도 6a 및 도 6b는 본 개시의 실시 예에 따른 사용자와 디스플레이 간의 거리에 따라 디스플레이 장치의 출력 팩터를 조절하는 예를 설명하는 도면이다.
도 7 내지 도 8c는 본 개시의 실시 예에 따른 사용자의 상태 정보에 기초하여, 디스플레이의 배치 상태를 조절하는 예를 설명하는 흐름도이다.
도 9는 본 개시의 실시 예에 따라, 사용자가 디스플레이를 바라보지 않는 경우, 디스플레이 장치의 출력 팩터를 조절하는 예를 설명하는 도면이다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치의 구성을 설명하는 도면이다.
디스플레이 장치(100)는 TV, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 데스크탑 컴퓨터, 디지털 사이니지 등으로 구현될 수 있다.
도 1의 실시 예에 따른 디스플레이 장치(100)는 사용자에 의해 이동될 수 있는 기기일 수 있다. 이를 위해, 후술할 디스플레이 장치(100)의 스탠드 베이스(105)에는 이동에 용이하도록 바퀴가 구비될 수도 있다.
도 1을 참조하면, 본 개시의 실시 예에 다른 디스플레이 장치(100)는 헤드(101), 샤프트(103), 스탠드 베이스(105) 및 거치대(107)를 포함할 수 있다.
헤드(101)는 스탠드 베이스(105)의 상측으로 이격될 수 있다.
헤드(101)는 디스플레이(151) 및 디스플레이(151)의 외곽을 감싸는 백 커버(151a)를 구비할 수 있다.
샤프트(103)는 헤드(101) 및 스탠드 베이스(105)를 이어줄 수 있다. 샤프트(103)는 수직하게 연장될 수 있다. 샤프트(103)의 하단은 스탠드 베이스(105)의 가장자리부에 연결될 수 있다. 좀 더 상세히, 샤프트(103)의 하단은 스탠드 베이스(105)의 둘레부에 회전 가능하게 연결될 수 있다. 따라서, 헤드(101) 및 샤프트(103)는 스탠드 베이스(105)에 대해 수직축(axis)을 중심으로 회전할 수 있다.
샤프트(103)의 상부는 헤드(101)의 둘레부에 연결될 수 있다. 샤프트(103)의 상부는 수평 방향으로 헤드(101)의 둘레부를 마주볼 수 있다.
좀 더 상세히, 샤프트(103)의 상부에는 수평하게 돌출된 연결핀이 형성될 수 있고, 상기 연결핀은 헤드(101)의 둘레부에 연결될 수 있다. 헤드(101)는 상기 연결핀에 대응되는 수평축(axis)을 중심으로 틸팅될 수 있다.
스탠드 베이스(105)는 디스플레이 장치(100)를 지지하는 역할을 할 수 있다.
거치대(107)는 사용자의 스마트폰, 컵 등 사용자의 소지품을 거치할 수 있는 파트일 수 있다.
거치대(107)는 샤프트(103)의 일 지점에 연결될 수 있다. 거치대(107)는 수평하게 배치될 수 있다.
스탠드 베이스(105)부터 거치대(107)까지의 높이는, 스탠드 베이스(105)부터 헤드(101)까지의 높이보다 낮을 수 있다.
거치대(107)는 샤프트(103)에 대해 헤드(101)의 반대편에 위치할 수 있다. 좀 더 상세히, 헤드(101)는 샤프트(103)의 일측에 연결될 수 있고, 거치대(107)는 샤프트(107)의 타측에 연결될 수 있다. 따라서, 사용자는 헤드(101)에 방해받지 않고 거치대(107)에 소지품을 용이하게 거치할 수 있다.
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 구성 요소들을 설명하기 위한 블록도이다.
특히, 도 2의 구성 요소들은 도 1의 헤드(101)에 구비될 수 있다.
도 2를 참조하면, 디스플레이 장치(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180)를 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 단말기나 외부 서버와 같은 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
입력부(120)는 영상 신호 입력을 위한 카메라(Camera, 121), 오디오 신호를 수신하기 위한 마이크로폰(Microphone, 122), 사용자로부터 정보를 입력 받기 위한 사용자 입력부(User Input Unit, 123)를 포함할 수 있다.
입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어 명령으로 처리될 수 있다.
입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 디스플레이 장치(100)는 하나 또는 복수의 카메라(121)들을 구비할 수 있다.
카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(Display Unit, 151)에 표시되거나 메모리(170)에 저장될 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 디스플레이 장치(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 적용될 수 있다.
사용자 입력부(123)는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 프로세서(180)는 입력된 정보에 대응되도록 디스플레이 장치(100)의 동작을 제어할 수 있다.
사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예컨대, 단말기(100)의 전/후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 디스플레이 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), 디스플레이 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 디스플레이 장치(100) 내부 정보, 디스플레이 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
출력부(150)는 디스플레이부(Display Unit, 151), 음향 출력부(Sound Output Unit, 152), 햅틱 모듈(Haptic Module, 153), 광 출력부(Optical Output Unit, 154) 중 적어도 하나를 포함할 수 있다.
디스플레이부(151)는 디스플레이 장치(100)에서 처리되는 정보를 표시(출력)한다. 예컨대, 디스플레이부(151)는 디스플레이 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 디스플레이 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다.
음향 출력부(152)는 리시버(receiver), 스피커(speaker), 버저(buzzer) 중 적어도 하나 이상을 포함할 수 있다.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다.
광출력부(154)는 디스플레이 장치(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 디스플레이 장치(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
메모리(170)는 디스플레이 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, 디스플레이 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 디스플레이 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 디스플레이 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, 외부 서버에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 디스플레이 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, 외부 서버 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 디스플레이 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, 디스플레이 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 3은 본 개시의 일 실시 예에 따른 디스플레이 장치의 동작 방법을 설명하는 도면이다.
디스플레이 장치(100)의 프로세서(180)는 센싱부(140) 또는 카메라(121)를 통해 센싱 데이터를 획득한다(S301).
일 실시 예에서, 센싱 데이터는 센싱부(140)에 구비된 모션 센서를 통해 획득된 모션 데이터일 수 있다. 모션 데이터는 오브젝트의 움직임을 나타내는 데이터일 수 있다.
모션 센서는 적외선 센서를 포함할 수 있다. 적외선 센서는 일정 주파수의 빛을 출력하는 발광부 및 발광된 빛이 오브젝트에 반사되어 돌아오는 빛을 수신하는 수광부를 포함할 수 있다.
프로세서(180)는 적외선 센서가 출력한 빛의 세기 및 수신한 빛의 세기에 기초하여, 오브젝트의 움직임을 획득하거나, 오브젝트까지의 거리를 측정할 수 있다.
여기서 모션 데이터는 적외선 센서가 측정한 빛의 세기 데이터 및 적외선 센서가 수신한 빛의 세기 데이터를 포함할 수 있다.
센싱 데이터는 카메라(121)를 통해 획득된 영상 데이터일 수 있다. 카메라(121)는 디스플레이(151)의 전면에 구비되어, 전면의 영상을 촬영할 수 있다.
디스플레이(151)의 전면에는 하나 이상의 카메라가 구비될 수 있다.
디스플레이 장치(100)의 프로세서(180)는 획득된 센싱 데이터에 기초하여, 사용자의 상태 정보를 획득한다(S303).
사용자의 상태 정보는 디스플레이(151)와 사용자 간 거리, 사용자의 시선 방향, 사용자의 자세 중 하나 이상을 포함할 수 있다.
프로세서(180)는 모션 데이터를 이용하여, 디스플레이(151)와 사용자 간 거리를 측정할 수 있다. 즉, 프로세서(180)는 모션 센서에서 출력된 빛의 세기와 사용자를 통해 반사되어 수신된 빛의 세기를 비교하여, 사용자와 디스플레이(151) 간 거리를 측정할 수 있다.
모션 센서에서 출력된 빛의 세기와 수신된 빛의 세기 간의 차이가 클수록, 사용자와 디스플레이(151) 간 거리는 커질 수 있다.
반대로, 모션 센서에서 출력된 빛의 세기와 수신된 빛의 세기 간의 차이가 작을수록, 사용자와 디스플레이(151) 간 거리는 작아질 수 있다.
프로세서(180)는 카메라(121)를 통해 촬영된 영상 데이터에 기초하여, 사용자의 시선 방향을 측정할 수 있다.
프로세서(180)는 카메라(121)가 획득한 영상 데이터로부터 사용자의 얼굴 영상을 추출할 수 있다. 그 후, 프로세서(180)는 사용자 얼굴 영상으로부터 눈 영상을 추출할 수 있다.
프로세서(180)는 추출된 눈 영상으로부터, 사용자의 시선의 움직임을 파악할 수 있다.
프로세서(180)는 추출된 눈 영상에 포함된 좌안 영상의 좌 동공 또는 우 동공이 향하는 시선 방향을 획득할 수 있다.
프로세서(180)는 모션 데이터에 기초하여, 사용자의 자세를 추정할 수 있다. 사용자의 자세는 일어나 있는 자세, 앉아 있는 자세, 누워있는 자세 중 어느 하나일 수 있다.
프로세서(180)는 영상 데이터를 이용하여, 사용자의 자세를 추정할 수도 있다. 프로세서(180)는 딥 러닝 알고리즘 또는 머신 러닝 알고리즘을 통해 학습된 자세 추정 모델을 통해 사용자의 자세를 추정할 수도 있다.
자세 추정 모델은 외부 서버 또는 디스플레이 장치(100)의 러닝 프로세서(130)에 의해 지도 학습된 모델일 수 있다.
자세 추정 모델은 학습용 영상 데이터 및 레이블링 데이터를 이용하여, 사용자의 자세를 추론하는 모델일 수 있다. 추론 결과에 따라 자세 추정 모델을 위한 파라미터들이 결정될 수 있다.
자세 추정 모델은 카메라(121)를 통해 획득된 영상 데이터로부터, 사용자의 자세를 추론할 수 있다.
디스플레이 장치(100)의 프로세서(180)는 획득된 사용자의 상태 정보에 기초하여, 디스플레이(151)의 배치 상태 및 디스플레이 장치(100)의 출력 팩터 중 하나 이상을 조절한다(S305).
디스플레이(151)의 배치 상태는 디스플레이(151)의 회전 각도, 디스플레이(151)의 높이 중 어느 하나 이상을 포함할 수 있다.
디스플레이(151)를 포함하는 헤드(101)는 수평축을 기준으로 소정의 각도만큼 틸팅될 수 있다. 이를 위해, 헤드(101)와 샤프트(103)를 연결하는 연결핀은 헤드(101)를 수평축으로 기준으로 틸팅하기 위한 틸팅 모터가 구비될 수 있다.
디스플레이(151)는 수직축을 기준으로 샤프트(103)를 따라 상하로 이동될 수 있다. 이를 위해, 샤프트(103)는 헤드(101)를 상하로 이동시키기 위한 홈을 구비하고, 홈은 헤드(101)를 상하로 이동하기 위한 승강 모터를 구비할 수 있다.
디스플레이 장치(100)의 출력 팩터는 음향 출력부(152)가 출력하는 오디오의 볼륨, 디스플레이(151)의 휘도 중 어느 하나일 수 있다.
프로세서(180)는 사용자의 상태 정보에 기초하여, 디스플레이(151)의 배치 상태를 조절할 수 있다.
프로세서(180)는 사용자의 상태 정보에 기초하여, 디스플레이 장치(100)의 출력 팩터를 조절할 수 있다.
프로세서(180)는 사용자의 상태 정보에 기초하여, 디스플레이(151)의 배치 상태 및 디스플레이 장치(100)의 출력 팩터를 동시에 조절할 수 있다.
도 4 및 도 5는 본 개시의 실시 예에 따라 사용자 상태 정보에 기초하여, 디플레이 장치의 출력 팩터를 조절하는 예를 설명하는 도면이다.
도 4를 참조하면, 디스플레이 장치(100)의 프로세서(180)는 모션 센서를 통해 사용자에 대한 모션 데이터를 획득한다(S401).
디스플레이 장치(100)의 프로세서(180)는 획득된 모션 데이터에 기초하여, 디스플레이(151)와 사용자 간 거리를 측정한다(S403).
프로세서(180)는 모션 데이터에 포함된 발광된 빛의 세기 및 수광된 빛의 세기 간의 차이에 기초하여, 디스플레이(151)와 사용자 간 거리를 측정할 수 있다.
디스플레이 장치(100)의 프로세서(180)는 측정된 거리에 기초하여, 디스플레이(151)의 휘도 및 오디오 볼륨을 조절한다(S405).
프로세서(180)는 측정된 거리가 클수록, 디스플레이(151)의 휘도를 감소시키고, 오디오 볼륨을 증가시킬 수 있다.
프로세서(180)는 측정된 거리가 작아질수록, 디스플레이(151)의 휘도를 증가시키고, 오디오 볼륨을 감소시킬 수 있다.
도 5는 도 4의 단계 S405를 보다 구체적으로 설명한 도면이다.
도 5를 참조하면, 디스플레이 장치(100)의 프로세서(180)는 디스플레이(151)와 사용자 간 거리가 기준 거리 이내인지를 판단한다(S501).
디스플레이 장치(100)의 프로세서(180)는 디스플레이(151)와 사용자 간 거리가 기준 거리 이내인 경우, 디스플레이(151)의 휘도를 증가시키고, 오디오 볼륨을 지정된 값으로 출력한다(S503).
디스플레이(151)와 사용자 간 거리가 가까운 경우, 휘도를 증가시키는 이유는 사용자가 디스플레이(151)를 통해 시청 중인 컨텐트에 더 집중할 수 있도록 하기 위함이다.
디스플레이 장치(100)의 프로세서(180)는 디스플레이(151)와 사용자 간 거리가 기준 거리 이상인 경우, 디스플레이(151)의 휘도를 감소시키고, 오디오 볼륨을 증가시킨다(S505).
이는, 사용자가 디스플레이(151)로부터 멀어짐에 따라, 시각적인 요소보다는 청각적인 요소를 강조하여, 컨텐트의 시청을 유도하기 위함이다.
도 6a 및 도 6b는 본 개시의 실시 예에 따른 사용자와 디스플레이 간의 거리에 따라 디스플레이 장치의 출력 팩터를 조절하는 예를 설명하는 도면이다.
도 6a 및 도 6b를 참조하면, 사용자(600)는 디스플레이(151)를 통해 재생 중인 영상(610)을 시청하고 있다.
디스플레이 장치(100)는 헤드(101) 또는 디스플레이(151)에 구비된 모션 센서(미도시)를 이용하여, 사용자(600)의 모션 데이터를 획득할 수 있다.
도 6a를 참조하면, 디스플레이 장치(100)는 획득된 모션 데이터에 기초하여, 사용자(600)와 디스플레이(151) 간의 제1 거리(d1)를 측정할 수 있다.
디스플레이 장치(100)는 측정된 제1 거리(d1)가 기준 거리 이내인 경우, 디스플레이(151)의 휘도를 100 니트(nit)에서 150 니트(nit)로 증가시키고, 오디오 볼륨을 지정된 크기인 10으로 조절할 수 있다.
디스플레이 장치(100)는 도 6b에 도시된 바와 같이, 사용자(600)와 디스플레이(151) 간 거리가 제2 거리(d2)이고, 제2 거리(d2)가 기준 거리 이상인 경우, 디스플레이(151)의 휘도를 100 니트에서 50 니트로 감소시키고, 오디오 볼륨을 10에서 20으로 증가시킬 수 있다.
즉, 사용자(600)와 디스플레이(151) 간 거리가 멀어짐에 따라 청각적 요소를 고려하여, 오디오 볼륨을 증가시키고, 전력 절감을 위해 디스플레이(151)의 휘도를 감소시킬 수 있다.
이와 같이, 본 개시의 실시 예에 따르면, 디스플레이(151)와 사용자(600) 간 거리에 따라 최적의 시청 환경이 제공될 수 있다.
도 7 내지 도 8c는 본 개시의 실시 예에 따른 사용자의 상태 정보에 기초하여, 디스플레이의 배치 상태를 조절하는 예를 설명하는 흐름도이다.
먼저, 도 7을 설명한다.
도 7은 사용자의 시선 방향에 기초하여, 디스플레이(151)의 배치 상태를 조절하는 예를 설명하는 흐름도이다.
도 7을 참조하면, 디스플레이 장치(100)의 프로세서(180)는 카메라(121)를 통해 영상 데이터를 획득한다(S701).
카메라(121)는 디스플레이(151)의 전면에 위치한 사용자를 촬영할 수 있다.
디스플레이 장치(100)의 프로세서(180)는 획득된 영상 데이터에 기초하여, 사용자의 얼굴을 인식한다(S703).
프로세서(180)는 영상 데이터로부터, 사용자의 얼굴을 추출할 수 있다. 프로세서(180)는 공지된 특징점 분석 알고리즘을 통해 사용자의 얼굴을 인식할 수 있다.
디스플레이 장치(100)의 프로세서(180)는 인식된 사용자 얼굴을 이용하여, 사용자의 시선 방향을 추정한다(S707).
프로세서(180)는 사용자의 얼굴 영상에 포함된 눈 영상을 추출할 수 있다. 눈 영상은 좌측 눈 영상 및 우측 눈 영상을 포함할 수 있다.
프로세서(180)는 좌측 눈 영상에 포함된 좌측 동공의 중심이 향하는 제1 방향 및 우측 눈 영상에 포함된 우측 동공의 중심이 향하는 제2 방향 중 하나 이상을 추출할 수 있다.
프로세서(180)는 제1 방향 또는 제2 방향 중 어느 하나를 사용자의 시선 방향으로 추정할 수 있다.
또 다른 예로, 프로세서(180)는 제1 방향의 연장선 및 제2 방향의 연장선이 만나는 지점을 사용자의 시선 방향으로 추정할 수 있다.
디스플레이 장치(100)의 프로세서(180)는 추정된 사용자의 시선 방향에 맞도록 디스플레이(151)의 회전 각도 및 디스플레이(151)의 높이 중 하나 이상을 조절한다(S709).
프로세서(180)는 사용자의 시선 방향에 일치되도록, 디스플레이(151)를 수평 방향으로 소정 각도만큼 틸팅할 수 있다. 이를 위해, 프로세서(180)는 헤드(101)와 샤프트(103)를 연결하는 연결핀에 구비된 틸팅 모터에 틸팅 신호를 전송하여, 틸팅 모터를 제어할 수 있다.
또 다른 예로, 프로세서(180)는 사용자의 시선 방향에 일치되도록, 디스플레이(151)의 높이를 조절할 수 있다.
프로세서(180)는 샤프트(103)에 구비된 승강 모터에 승강 신호를 전송하여, 사용자의 시선 방향에 맞도록 디스플레이(151)의 높이를 조절할 수 있다.
도 8a 내지 도 8c는 본 개시의 실시 예에 따라 사용자의 시선 방향에 맞도록 디스플레이의 회전 각도 또는 높이를 조절하는 예를 설명하는 도면이다.
도 8a를 참조하면, 디스플레이(151)는 컨텐트 영상(800)을 재생하고 있다.
디스플레이 장치(100)는 카메라(121)를 통해 사용자 영상을 획득하고, 사용자 영상으로부터, 사용자(A)의 시선 방향(L1)을 추정할 수 있다.
디스플레이 장치(100)는 추정된 사용자(A)의 시선 방향(L1)에 맞게 디스플레이(151)의 회전 각도를 조절하도록 틸팅 모터를 제어할 수 있다. 즉, 디스플레이 장치(100)는 디스플레이(151)의 시선 방향(L1)에 맞게 수평축(x1)을 기준으로, 헤드(101)를 일정 각도만큼 회전시키도록 틸팅 모터를 제어할 수 있다.
사용자(A)는 수동으로, 디스플레이(151)를 회전시키지 않고도, 자신의 시선 방향에 맞도록 컨텐트 영상(800)을 시청할 수 있다. 이에 따라, 사용자는 최적의 시청 환경에서 컨텐트 영상(800)을 시청할 수 있다.
다음으로, 도 8b를 설명한다.
도 8b는 사용자의 시선 방향(L1)에 맞게 디스플레이(151)의 배치 상태를 변경시키면서, 컨텐트 영상을 축소시키는 예를 설명하는 도면이다.
디스플레이 장치(100)는 카메라(121)를 통해 촬영된 사용자 영상으로부터, 사용자(A)의 시선 방향(L1)을 추출할 수 있다.
디스플레이 장치(100)는 추출된 사용자(A)의 시선 방향(L1)에 맞게 디스플레이(151)의 회전 각도를 조절하도록 틸팅 모터를 제어할 수 있다. 동시에, 디스플레이 장치(100)는 디스플레이(151) 상에 표시된 컨텐트 영상(800)을 축소시켜, 축소된 영상(810)을 표시할 수 있다.
즉, 디스플레이 장치(100)는 사용자(A)의 시선 방향(L1)에 맞게 디스플레이(151)의 회전 각도를 조절하면서, 축소된 컨텐트 영상(810)을 표시할 수 있다.
축소된 컨텐트 영상(810)의 중심은 사용자(A)의 시선 방향(L1)의 연장선과 만날 수 있다.
이와 같이, 본 개시의 실시 예에 따르면, 사용자의 시선 방향에 맞게 디스플레이(151)의 회전 각도 및 컨텐트 영상의 크기가 조절될 수 있어, 사용자에게 최적의 시청 환경이 제공될 수 있다.
도 8c는 사용자(A)의 시선 방향에 따라 디스플레이(151)의 높이를 조절하는 실시 예이다.
디스플레이 장치(100)는 카메라(121)를 통해 획득된 영상 데이터에 기반하여, 사용자(A)의 시선 방향(L2)를 추정할 수 있다.
디스플레이 장치(100)는 추정된 사용자(A)의 시선 방향(L2)에 기초하여, 디스플레이(151)의 높이를 하강시킬 수 있다. 이를 위해, 디스플레이 장치(100)는 샤프트(103)에 구비된 승강 모터(미도시)를 제어할 수 있다.
디스플레이 장치(100)는 사용자(A)의 시선 방향이 제1 방향(L1)에서 제2 방향(L2)으로 변경된 경우, 디스플레이(151)를 제1 높이에서 제2 높이로, 낮추도록 승강 모터를 제어할 수 있다. 제2 높이는 사용자(A)의 시선 방향(L2)을 연장한 연장선이, 디스플레이(151)의 중심선이 만나는 지점에 대응되는 위치일 수 있다.
사용자는 컨텐트 영상(830)을 시청하다, 운동을 위해 눕는 자세를 취한 경우, 디스플레이(151)의 높이가 자동으로 하강되어, 컨텐트 영상(830)을 자연스럽게 시청할 수 있다.
한편, 도 8a 내지 도 8c의 실시 예에서는 도 4 및 도 5의 실시 예가 함께 적용될 수 있다.
즉, 디스플레이 장치(100)는 사용자(A)와 디스플레이(151) 간의 거리, 사용자의 시선 방향(L1)에 기초하여, 디스플레이(151)의 휘도, 오디오 볼륨, 디스플레이(151)의 회전 각도, 높이 및 컨텐트 영상의 크기를 동시에 조절할 수도 있다.
이에 따라, 사용자(A)의 시청 상황에 맞는 최적의 시청 환경을 통해 컨텐트 영상이 제공될 수 있다.
도 9는 본 개시의 실시 예에 따라, 사용자가 디스플레이를 바라보지 않는 경우, 디스플레이 장치의 출력 팩터를 조절하는 예를 설명하는 도면이다.
도 9를 참조하면, 디스플레이 장치(100)는 카메라(121)를 통해 사용자 영상을 획득할 수 있다.
디스플레이 장치(100)는 획득된 사용자 영상에 기반하여, 사용자 얼굴 영상이 추출되지 않은 경우, 사용자(A)가 디스플레이(151)를 바라보고 있지 않은 것으로 판단할 수 있다.
디스플레이 장치(100)는 사용자(A)의 시선 방향이 디스플레이(151)를 향하지 않는 경우, 디스플레이(151)의 화면을 오프시킬 수 있다.
즉, 디스플레이 장치(100)는 사용자(A)의 시선 방향이 디스플레이(151)를 향하지 않는 경우, 컨텐트 영상의 표시를 중지하고, 디스플레이(151)의 화면을 오프시킬 수 있다.
동시에, 디스플레이 장치(100)는 오디오 출력을 기 설정된 크기로, 증가시키도록, 음향 출력부(152)를 제어할 수 있다.
또 다른 실시 예에서, 디스플레이 장치(100)는 사용자(A)의 시선 방향이 디스플레이(151)를 향하지 않는 경우, 컨텐트 영상의 상황을 나타내는 상황 설명을 음성으로 출력할 수도 있다.
이와 같이, 본 개시의 실시 예에 따르면, 사용자가 디스플레이를 보고 있지 않은 경우, 디스플레이(151)의 화면이 오프됨에 따라, 전력이 절약될 수 있고, 오디오 출력이 증가됨에 따라, 사용자가 컨텐트에 더 집중하게 된다.
본 개시의 일 실시 예에 따른 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다.
상기와 같이 설명된 디스플레이 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (10)

  1. 디스플레이 장치에 있어서,
    음향 출력부;
    상기 디스플레이 장치를 지지하는 스탠드 베이스;
    컨텐트 영상을 표시하는 디스플레이 및 상기 디스플레이의 외곽을 커버하는 백커버를 포함하는 헤드; 및
    상기 헤드와 상기 스탠드 베이스를 이어주고, 상기 헤드의 회전을 제어하는 틸팅 모터를 포함하는 샤프트를 포함하고,
    상기 헤드는
    센싱 데이터를 획득하는 하나 이상의 센서 및
    상기 획득된 센싱 데이터에 기초하여, 사용자의 상태 정보를 획득하고, 획득된 사용자의 상태 정보에 기초하여, 상기 디스플레이의 하나 이상의 출력 팩터들 및 상기 디스플레이의 배치 상태 중 하나 이상을 조절하는 프로세서를 더 포함하고,
    상기 프로세서는
    상기 센싱 데이터에 기초하여, 상기 사용자의 시선 방향을 획득하고, 획득된 시선 방향이 상기 디스플레이를 향하지 않는 경우, 상기 디스플레이의 화면을 오프시키고, 오디오 출력을 기 설정된 크기로, 증가시키고,
    상기 획득된 시선 방향이 상기 디스플레이를 향하는 경우, 획득된 시선 방향에 맞게 상기 디스플레이의 회전 각도를 조절하도록 상기 틸팅 모터를 제어하고,
    상기 프로세서는
    상기 디스플레이의 회전 각도를 조절하면서, 상기 디스플레이 상에 표시 중인 상기 컨텐트 영상을 상기 시선 방향에 맞게 축소시키고,
    축소된 컨텐트 영상의 중심은 상기 사용자의 시선 방향의 연장선과 만나는
    디스플레이 장치.
  2. 제1항에 있어서,
    상기 프로세서는
    상기 센싱 데이터에 기초하여, 상기 디스플레이와 상기 사용자 간의 거리를 측정하고, 측정된 거리에 따라 상기 디스플레이의 휘도 및 오디오 볼륨을 조절하는
    디스플레이 장치.
  3. 제2항에 있어서,
    상기 프로세서는
    상기 거리가 기준 거리 이내인 경우, 상기 디스플레이의 휘도를 증가시키고, 상기 오디오 볼륨을 지정된 값으로 출력하고,
    상기 거리가 상기 기준 거리 이상인 경우, 상기 디스플레이의 휘도를 감소시키고, 상기 오디오 볼륨을 증가시키는
    디스플레이 장치.
  4. 삭제
  5. 삭제
  6. 제1항에 있어서,
    상기 샤프트는
    상기 디스플레이를 승강시키는 승강 모터를 더 구비하고,
    상기 프로세서는
    상기 센싱 데이터에 기초하여, 상기 사용자의 시선 방향을 획득하고, 획득된 시선 방향에 맞게 상기 디스플레이의 높이를 조절하도록 상기 승강 모터를 제어하는
    디스플레이 장치.
  7. 삭제
  8. 제2항에 있어서,
    상기 센싱 데이터는 모션 센서를 통해 획득된 모션 데이터이고,
    상기 프로세서는
    상기 모션 데이터에 포함된 발광된 빛의 세기 및 수광된 빛의 세기에 기초하여, 상기 거리를 측정하는
    디스플레이 장치.
  9. 제1항에 있어서,
    상기 센싱 데이터는 카메라를 통해 획득된 영상 데이터이고,
    상기 프로세서는
    영상 데이터를 이용하여, 사용자 얼굴 영상을 추출하고, 추출된 얼굴 영상으로부터 눈 영상을 추출하고, 추출된 눈 영상에 기초하여, 상기 시선 방향을 획득하는
    디스플레이 장치.
  10. 제1항에 있어서,
    상기 프로세서는
    획득된 사용자의 상태 정보에 기초하여, 상기 디스플레이의 하나 이상의 출력 팩터들 및 상기 디스플레이의 배치 상태를 동시에 조절하는
    디스플레이 장치.
KR1020200039030A 2020-03-31 2020-03-31 디스플레이 장치 Active KR102415552B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200039030A KR102415552B1 (ko) 2020-03-31 2020-03-31 디스플레이 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200039030A KR102415552B1 (ko) 2020-03-31 2020-03-31 디스플레이 장치

Publications (2)

Publication Number Publication Date
KR20210121772A KR20210121772A (ko) 2021-10-08
KR102415552B1 true KR102415552B1 (ko) 2022-07-04

Family

ID=78115866

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200039030A Active KR102415552B1 (ko) 2020-03-31 2020-03-31 디스플레이 장치

Country Status (1)

Country Link
KR (1) KR102415552B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12443268B2 (en) 2022-09-15 2025-10-14 Samsung Electronics Co., Ltd. Electronic apparatus for providing screen in posture optimized for user and control method thereof

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240087680A (ko) * 2021-10-22 2024-06-19 엘지전자 주식회사 디스플레이 디바이스
KR102443852B1 (ko) * 2022-04-25 2022-09-16 (주) 아하 인공지능(ai)을 기반으로하는 유니버설 디자인을 적용한 전자 칠판
CN119768754A (zh) * 2022-08-26 2025-04-04 Lg电子株式会社 显示装置及其控制方法
CN119768753A (zh) * 2022-08-26 2025-04-04 Lg电子株式会社 显示装置及其控制方法
WO2024043382A1 (ko) 2022-08-26 2024-02-29 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
CN116538648A (zh) * 2023-04-27 2023-08-04 青岛海尔空调器有限总公司 一种空调的控制方法
CN116753602A (zh) * 2023-05-19 2023-09-15 青岛海尔空调器有限总公司 一种空调器的控制方法
CN117742388B (zh) * 2024-02-07 2024-04-30 广东海洋大学 一种基于阅读家具的智能控制方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090025022A1 (en) * 2007-07-19 2009-01-22 International Business Machines Corporation System and method of adjusting viewing angle for display
JP2011139144A (ja) * 2009-12-25 2011-07-14 Sharp Corp 映像表示装置、検知状態提示方法、プログラムおよび記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931596B2 (en) * 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
KR20120074484A (ko) * 2010-12-28 2012-07-06 엘지전자 주식회사 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법
KR20150041972A (ko) * 2013-10-10 2015-04-20 삼성전자주식회사 디스플레이 장치 및 이의 절전 처리 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090025022A1 (en) * 2007-07-19 2009-01-22 International Business Machines Corporation System and method of adjusting viewing angle for display
JP2011139144A (ja) * 2009-12-25 2011-07-14 Sharp Corp 映像表示装置、検知状態提示方法、プログラムおよび記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12443268B2 (en) 2022-09-15 2025-10-14 Samsung Electronics Co., Ltd. Electronic apparatus for providing screen in posture optimized for user and control method thereof

Also Published As

Publication number Publication date
KR20210121772A (ko) 2021-10-08

Similar Documents

Publication Publication Date Title
KR102415552B1 (ko) 디스플레이 장치
CN108231073B (zh) 语音控制装置、系统及控制方法
KR101906827B1 (ko) 연속 사진 촬영 장치 및 방법
JP6143975B1 (ja) 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法
US9106821B1 (en) Cues for capturing images
CN107835364A (zh) 一种拍照辅助方法及移动终端
CN110300274B (zh) 视频文件的录制方法、装置及存储介质
WO2015143875A1 (zh) 内容呈现方法,内容呈现方式的推送方法和智能终端
KR102473285B1 (ko) 디스플레이 장치
CN110290426B (zh) 展示资源的方法、装置、设备及存储介质
WO2020020134A1 (zh) 拍摄方法及移动终端
CN108848313A (zh) 一种多人拍照方法、终端和存储介质
CN110933468A (zh) 播放方法、装置、电子设备及介质
CN113420177B (zh) 音频数据处理方法、装置、计算机设备及存储介质
CN109819167B (zh) 一种图像处理方法、装置和移动终端
CN113709353B (zh) 图像采集方法和设备
CN108848309A (zh) 一种相机程序启动方法及移动终端
CN111415421B (zh) 虚拟物体控制方法、装置、存储介质及增强现实设备
CN110675473A (zh) 生成gif动态图的方法、装置、电子设备及介质
KR102316881B1 (ko) 디스플레이 장치
CN109788144B (zh) 一种拍摄方法及终端设备
CN108307108B (zh) 一种拍照控制方法及移动终端
KR102864965B1 (ko) 디스플레이 장치
US20230291233A1 (en) Wireless charging cradle for terminal and display device comprising same
CN115113961A (zh) 用户界面的显示方法、装置、设备及介质

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20200331

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210129

Patent event code: PE09021S01D

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210702

Patent event code: PE09021S01D

PG1501 Laying open of application
E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20220106

Patent event code: PE09021S02D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20220520

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20220628

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20220629

End annual number: 3

Start annual number: 1

PG1601 Publication of registration