KR20180043627A - 디스플레이 장치 및 디스플레이 장치를 제어하는 방법 - Google Patents

디스플레이 장치 및 디스플레이 장치를 제어하는 방법 Download PDF

Info

Publication number
KR20180043627A
KR20180043627A KR1020160136577A KR20160136577A KR20180043627A KR 20180043627 A KR20180043627 A KR 20180043627A KR 1020160136577 A KR1020160136577 A KR 1020160136577A KR 20160136577 A KR20160136577 A KR 20160136577A KR 20180043627 A KR20180043627 A KR 20180043627A
Authority
KR
South Korea
Prior art keywords
user
recognition result
display device
determined
utterance
Prior art date
Application number
KR1020160136577A
Other languages
English (en)
Inventor
진장호
유영준
임호건
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160136577A priority Critical patent/KR20180043627A/ko
Priority to US15/724,781 priority patent/US10416956B2/en
Priority to EP17194879.7A priority patent/EP3312830B1/en
Priority to CN201710982672.0A priority patent/CN107967915A/zh
Publication of KR20180043627A publication Critical patent/KR20180043627A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

프로세서, 프로세서에 연결된 메모리 및 디스플레이부를 포함하는 디스플레이 장치가 개시된다. 개시된 프로세서는, 사용자의 발화를 수신하고, 수신된 사용자의 발화에 대응되는 텍스트를 중간 인식 결과로 결정하고, 결정된 중간 인식 결과와 메모리에 저장된 이전의 중간 인식 결과를 비교한 결과에 기초하여 명령어를 결정하고, 결정된 명령어에 따른 동작을 수행하도록 구성된다.

Description

디스플레이 장치 및 디스플레이 장치를 제어하는 방법{DISPLAY APPARATUS AND METHOD OF CONTROLLING DISPLAY APPARATUS}
개시된 실시예들은 디스플레이 장치 및 디스플레이 장치를 제어하는 방법에 관한 것으로서, 보다 상세하게는 사용자의 발화에 기초하여 제어되는 디스플레이 장치 및 사용자의 발화에 기초하여 디스플레이 장치를 제어하는 방법에 관한 것이다.
음성 인식 기술이 발달함에 따라, 디스플레이 장치를 제어하기 위해 사용자의 발화된 음성을 인식하는 기술이 널리 이용되고 있다.
디스플레이 장치는 사용자의 발화된 음성을 수신한 뒤, 발화된 음성을 텍스트로 변환할 수 있다. 디스플레이 장치는 사용자 발화를 입력 받는 중에도 발화된 음성을 실시간으로 텍스트로 변환할 수 있다. 이 때 디스플레이 장치는 실시간으로 변환되는 텍스트를 디스플레이함으로써 발화된 음성이 실시간으로 텍스트로 변환되고 있음을 사용자에게 알려줄 수 있다.
디스플레이 장치에서 음성 인식 기능이 시작되는 것과 종료되는 것은 사용자의 입력을 통한 것일 수 있다. 예를 들어, 사용자는 리모컨 등과 같은 제어 장치를 통해 디스플레이 장치에 별도의 입력을 제공하여 음성 인식 기능을 시작할 수 있다. 사용자 발화가 종료된 후에는 사용자가 제어 장치를 통해 음성 인식 기능을 종료한 후에 사용자 발화에 따른 기능을 실행시킬 수 있게 된다.
한편, 사용자가 디스플레이 장치의 화면상의 커서 이동, 채널 재핑(zapping), 볼륨 변경등과 같은 기능을 사용자 발화를 통해 반복하여 실행시키고자 하는 경우가 있다. 이 경우에, 사용자는 제어 장치 등을 통해 음성 인식 기능을 시작하고 종료하기 위한 동작을 반복하여 수행해야 한다는 불편이 있었다.
개시된 실시예들은 사용자의 발화된 음성에 기초하여 디스플레이 장치의 동작을 제어할 때에 있어서, 사용자의 발화가 종료되기 전이라도 실시간으로 동작을 수행할 수 있도록 하는 디스플레이 장치 및 디스플레이 장치의 제어 방법을 제공한다.
개시된 실시예들은 사용자가 발화된 음성에 기초하여 디스플레이 장치가 반복적인 동작을 수행하는 경우, 음성 인식 기능을 시작하거나 종료하기 위한 반복적인 입력 없이도 사용자의 발화만을 통해 손쉽게 디스플레이 장치를 제어할 수 있도록 하는 디스플레이 장치 및 디스플레이 장치의 제어 방법을 제공한다.
일 실시예에 따른 디스플레이 장치는 프로세서, 프로세서에 연결된 메모리 및 디스플레이부를 포함할 수 있다. 프로세서는, 사용자의 발화를 수신하고, 수신된 사용자의 발화에 대응되는 텍스트를 중간 인식 결과로 결정하고, 결정된 중간 인식 결과와 메모리에 저장된 이전의 중간 인식 결과를 비교한 결과에 기초하여 명령어를 결정하고, 결정된 명령어에 따른 동작을 수행하도록 구성될 수 있다.
일 실시예에 따른 사용자의 발화를 통하여 디스플레이 장치를 제어하기 위한 방법은 사용자의 발화를 수신하는 단계; 수신된 사용자의 발화에 대응되는 텍스트를 중간 인식 결과로 결정하는 단계; 결정된 중간 인식 결과와 미리 저장된 이전의 중간 인식 결과를 비교한 결과에 기초하여 명령어를 결정하는 단계; 및 결정된 명령어에 따른 동작을 수행하는 단계를 포함할 수 있다.
개시된 실시예들에 의하면 사용자가 발화된 음성에 기초하여 디스플레이 장치의 동작을 제어할 때에 있어서, 디스플레이 장치가 사용자의 발화가 종료되기 전이라도 사용자의 의도에 따른 동작을 실시간으로 수행할 수 있다.
개시된 실시예들에 의하면 사용자가 발화된 음성에 기초하여 디스플레이 장치가 반복적인 동작을 수행하는 경우, 음성 인식 기능을 시작하거나 종료하기 위한 반복적인 입력 없이도 사용자의 발화만을 통해 손쉽게 디스플레이 장치를 제어할 수 있다.
도 1은 일 실시예에 따른 디스플레이 장치(100)의 블록도이다.
도 2는 일 실시예에 따른 디스플레이 장치(100) 및 일 실시예에 따른 디스플레이 장치(100)와 무선으로 연결되는 제어 장치(200)의 블록도이다.
도 3은 일 실시예에 따른 디스플레이 장치를 제어하기 위한 방법의 흐름도이다.
도 4는 일 실시예에 따른 디스플레이 장치(100)가 사용자의 발화에 대응되는 동작을 수행하는 것을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 디스플레이 장치(100)가 사용자의 발화에 대응되는 동작을 수행하는 것을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 디스플레이 장치(100)가 중간 인식 결과에 기초한 동작을 수행하는 것을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 디스플레이 장치(100)에서 음성 인식 기능을 수행하는 방법의 흐름도이다.
도 8은 일 실시예에 따른 디스플레이 장치(100)가 중간 인식 결과를 처리하는 방법의 흐름도이다.
도 9은 일 실시예에 따른 디스플레이 장치(100)의 세부적인 구성도이다.
도 10은 일 실시예에 따른 디스플레이 장치(100)의 블록도이다.
도 11은 일 실시예에 따른 제어 장치의 구성을 나타내는 블록도이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 실시예에 따른 전자 장치를 구성하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.
명세서 전체에서 '디스플레이'는 영상 데이터를 시각적으로 출력하는 기능을 수행하는 구성요소를 의미할 수 있다. 또한, 구현 예에 따라 디스플레이에 포함된 디스플레이 패널과 터치 패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이는 액정 디스플레이(LCD, liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(OLED, organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display), 플라스마 디스플레이 패널(PDP, Plasma Display Panel), 양자점 발광 다이오드(QLED, Quantum dot LED) 중에서 적어도 하나를 포함할 수 있다.
'디스플레이 장치'는 전술한 디스플레이를 포함하는 출력 장치의 하나로 영상 데이터를 시각적으로 나타낼 수 있는 장치이다. 디스플레이 장치는 데스크탑, 노트북, 태블릿 PC, 카메라, 휴대폰, 저장 매체 및 기타 전자 기기에 연결되어 무선 또는 유선으로 영상 데이터를 수신할 수 있다. 구현 예에 따라 디스플레이 장치는 아날로그 방송 신호 또는 디지털 방송 신호를 수신할 수 있다. 디스플레이 장치는 평면(flat) 디스플레이 장치뿐만 아니라, 곡률을 가지는 화면인 곡면(curved) 디스플레이 장치 또는 곡률을 조정가능한 가변형(flexible) 디스플레이 장치로 구현될 수 있다. 또한, 디스플레이 장치는 PC 용 모니터 및 TV 모니터 등을 포함할 수 있으며, 상업용 디스플레이(LFD, large format display)를 포함할 수도 있다. 또한, 디스플레이 장치의 구현 형태에 따라 디스플레이 장치는 디스플레이를 2개 이상 포함할 수도 있다.
디스플레이 장치의 디스플레이에서 실제 컨텐츠가 출력되는 부분은 스크린 또는 화면으로 불리울 수 있다.
또한, 명세서 전체에서 '사용자'는 디스플레이 장치의 기능 또는 동작을 제어하는 사람을 의미하며, 관리자 또는 설치 기사를 포함할 수 있다.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 일 실시예에 따른 디스플레이 장치(100)의 블록도이다.
도 1에 도시된 디스플레이 장치(100)는 사용자의 발화된 음성을 수신하고 사용자의 발화에 대응되는 동작을 수행할 수 있는 장치이다.
디스플레이 장치(100)는, 예를 들어, 스마트 TV, 스마트폰, 네트워크 사운드바, HMD(Head Mound Display), HUD(Head Up Display), 웨어러블 디바이스, 태블릿 PC, PC, 랩톱, GPS(global positioning system) 장치, 디지털방송용 단말기, 네비게이션, 키오스크, 디지털 카메라 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으며, 이에 제한되지 않는다. 또한, 디스플레이 장치(100)는, 통신 기능 및 데이터 프로세싱 기능을 구비한 VR(Virtual Reality) 영상을 제공하는 VR기기, AR(Augmented Reality) 영상을 제공하는 AR기기, 시계, 안경, 헤어 밴드 및 반지일 수 있다.
디스플레이 장치(100)는 실시간으로 수신되는 사용자의 발화에 대응되는 텍스트를 디스플레이할 수 있다. 이에 따라, 디스플레이 장치(100)는 발화된 음성이 실시간으로 텍스트로 변환되고 있음을 사용자에게 알려줄 수 있다.
예를 들어, 디스플레이 장치(100)는 최종 결과가 획득되기 전에도 중간 인식 결과를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 최종 결과가 획득되기 전에도 중간 인식 결과에 따른 명령어에 대응되는 텍스트를 디스플레이할 수 있다.
최종 결과란 사용자의 발화가 시작될 때부터 종료될 때까지 디스플레이 장치(100)가 획득하는 사용자의 발화에 대응되는 텍스트 전체를 의미한다. 디스플레이 장치(100)는 사용자의 발화가 종료되면, 최종 결과를 디스플레이할 수 있다.
중간 인식 결과란, 발화가 시작될 때부터 최종 결과가 획득되기 전의 임의의 시점까지 디스플레이 장치(100)가 획득하는 사용자의 발화에 대응되는 텍스트를 의미한다. 중간 인식 결과는 디스플레이 장치(100)가 사용자의 발화된 음성을 인식하기 위한 기능을 시작하는 시점으로부터 임의의 시점까지 수신된 사용자 발화에 대응될 수 있다.
예를 들어, 사용자가 "무한 도전 찾아줘" 라고 발화하는 경우, 최종 결과는 "무한 도전 찾아줘" 일 수 있다. 또한, 중간 인식 결과는 "무한" 및 "무한 도전"을 포함할 수 있다.
예를 들어, 디스플레이 장치(100)는 사용자의 "무한 도전 찾아줘" 라는 발화에 대응되는 최종 결과가 획득되기 전에, "무한” 및 "무한 도전"이라는 중간 인식 결과가 획득되면, "무한" 및 "무한 도전"이라는 텍스트를 디스플레이할 수 있다.
도 1을 참조하면, 디스플레이 장치(100)는 메모리(10), 프로세서(20) 및 디스플레이부(30)를 포함한다.
일 실시예에 따른 메모리(10)는 디스플레이 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(10)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(10)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(20)에 의해 실행될 수 있다.
예를 들어, 디스플레이 장치(100)에서 사용자의 발화에 기초하여 명령어를 결정하기 위한 프로그램은 메모리(10)에 저장될 수도 있고, 외부의 장치(도시되지 않음)에 별도로 저장될 수 있다.
일 실시예에 따른 메모리(10)는 이전의 중간 인식 결과를 저장할 수 있다.
이전의 중간 인식 결과는 디스플레이 장치(100)가 사용자의 발화된 음성을 인식하기 위한 기능을 시작하는 시점으로부터 수신된 사용자 발화에 대응될 수 있다. 구체적으로, 이전의 중간 인식 결과는 프로세서(20)가 사용자의 발화된 음성을 인식하기 위한 기능을 시작하는 입력을 수신하는 시점으로부터 수신된 사용자 발화에 대응될 수 있다.
또한, 메모리(10)에 저장된 중간 인식 결과는 프로세서(20)가 사용자의 발화된 음성을 인식하기 위한 기능을 시작하는 입력을 수신한 시점으로부터 사용자 의도가 인식될 때까지 수신된 사용자 발화에 대응될 수 있다.
일 실시예에 따른 프로세서(20)는 메모리(10)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다. 프로세서(20)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 또한, 프로세서(20)는 복수의 프로세서를 포함할 수 있다.
프로세서(20)는 사용자의 발화를 수신할 수 있다. 사용자의 발화는 디스플레이 장치(100)에 포함된 오디오 입력부(도시되지 않음)로부터 직접 수신될 수도 있고, 통신부(도시되지 않음)를 통해 음성 데이터 형태로 수신될 수도 있다. 이하에서는 '사용자 발화'라는 용어를 사용자의 발화된 음성의 음성 데이터의 의미로 사용한다.
프로세서(20)는 수신된 사용자의 발화에 대응되는 텍스트를 중간 인식 결과로 결정할 수 있다.
프로세서(20)는 중간 인식 결과를 디스플레이부(30)에 디스플레이하도록 제어할 수 있다. 예를 들어, 프로세서(20)는 사용자의 발화 속도에 대응되도록 중간 인식 결과를 디스플레이부(30)에 디스플레이하여 사용자로 하여금 사용자의 발화가 실시간으로 인식되고 있다는 인상을 줄 수 있다.
프로세서(20)는 결정된 중간 인식 결과와 메모리에 저장된 이전의 중간 인식 결과를 비교한 결과에 기초하여 명령어를 결정할 수 있다.
구체적으로, 프로세서(20)는 결정된 중간 인식 결과와 이전의 중간 인식 결과를 비교하여 결정된 중간 인식 결과에 새로운 텍스트가 포함되는지를 결정할 수 있다. 프로세서(20)는 결정된 중간 인식 결과에 새로운 텍스트가 포함되는 것으로 결정하는 경우, 새로운 텍스트에 대응되는 명령어를 결정할 수 있다.
예를 들어, 결정된 중간 인식 결과가 "채널 올려 올려"이고, 이전의 중간 인식 결과가 "채널 올려"인 경우, 프로세서(20)는 결정된 중간 인식 결과에 새로운 텍스트인 "올려"가 포함되는 것으로 결정할 수 있다. 이에 따라 프로세서(20)는 새로운 텍스트인 "올려"에 대응되는 명령어를 결정할 수 있다.
또한, 프로세서(20)는 새로운 텍스트에 대응되는 사용자의 의도가 존재하는지 여부를 결정할 수 있다.
프로세서(20)가 새로운 텍스트에 대응되는 사용자의 의도가 존재한다고 결정한 경우, 새로운 텍스트에 대응되는 사용자의 의도에 기초하여 명령어를 결정할 수 있다. 새로운 텍스트에 대응되는 사용자의 의도는 이전의 중간 인식 결과에 대응되는 사용자 의도와 동일한 것일 수 있다.
예를 들어, 새로운 텍스트가 "올려"인 경우, 새로운 텍스트에 대응되는 사용자 의도는 이전의 중간 인식 결과인 "채널 올려"에 대응되는 사용자 의도와 동일한 것일 수 있다.
프로세서(20)는 결정된 명령어에 따른 동작을 수행할 수 있다. 예를 들어, 결정된 명령어는, 이전의 중간 인식 결과에 대응되는 명령어를 반복하는 것일 수 있다.
프로세서(20)는 사용자의 의도가 존재한다고 결정한 경우, 결정된 중간 인식 결과를 메모리에 저장할 수 있다.
프로세서(20)는 사용자의 발화가 종료되었는지 여부를 결정할 수 있다. 프로세서(20)는 사용자의 발화가 종료되었다고 결정되면 결정된 중간 인식 결과를 최종 결과로 결정할 수 있고, 최종 결과에 대응되는 동작을 수행할 수 있다.
프로세서(20)는 사용자의 발화가 종료되었다고 결정되면 음성 인식 기능을 종료할 수 있다. 구체적으로, 프로세서(20)는 사용자의 발화가 종료되었다고 결정되면 사용자 발화를 수신하는 것을 종료할 수 있다.
예를 들어, 프로세서(20)는 제어 장치(도시되지 않음)로부터의 입력에 기초하여 사용자의 발화가 종료되었음을 결정할 수 있다. 사용자는 제어 장치를 통해 사용자의 발화의 시작을 위한 입력 및 사용자의 발화의 종료를 위한 입력을 제공할 수 있다. 제어 장치는 예를 들어 리모컨을 포함할 수 있다.
디스플레이부(30)는 프로세서(20)의 제어에 의해 결정된 명령어에 대응되는 유저 인터페이스를 디스플레이할 수 있다. 구체적으로, 결정된 명령어에 대응되는 유저 인터페이스는 중간 인식 결과 및 결정된 명령어에 대응되는 텍스트 중 적어도 하나를 포함할 수 있다.
예를 들어, 디스플레이부(30)는 프로세서(20)의 제어에 의해 중간 인식 결과를 디스플레이할 수 있다. 또한, 디스플레이부(30)는 프로세서(20)의 제어에 의해 결정된 중간 인식 결과와 미리 저장된 이전의 중간 인식 결과를 비교한 결과에 기초하여 결정된 명령어에 대응되는 텍스트를 디스플레이할 수 있다.
예를 들어, 결정된 명령어는, 디스플레이부(30)에 디스플레이되는 커서의 위치를 조정하는 것, 디스플레이 장치(100)에 포함된 음향 출력부(도시되지 않음)의 음량을 조정하는 것 및 디스플레이 장치(100)에서 수신하는 채널을 전환하는 것 중 어느 하나를 포함할 수 있다. 또한, 결정된 명령어는 컨텐츠를 실행 또는 검색하는 것을 포함할 수 있다.
도 2는 일 실시예에 따른 디스플레이 장치(100) 및 일 실시예에 따른 디스플레이 장치(100)와 무선으로 연결되는 제어 장치(200)의 블록도이다.
도 2를 참조하면, 디스플레이 장치(100)는 메모리(10), 프로세서(20), 디스플레이부(30), 사용자 입력부(40) 및 통신부(50)를 포함한다. 메모리(10), 프로세서(20) 및 디스플레이부(30)에 대한 설명 중 도 1에서의 설명과 중복되는 설명은 생략하도록 한다.
도 2에 도시된 사용자 입력부(40)는 사용자의 발화를 수신하기 위하여 오디오 입력부(도시되지 않음)를 포함할 수 있다. 오디오 입력부는 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 변환한다. 예를 들어, 오디오 입력부는 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 오디오 입력부는 프레임 단위의 음성 데이터를 프로세서(20)로 전달할 수 있다.
일 실시예에 따른 프로세서(20)는 사용자 입력부(40)로부터 수신된 프레임 단위의 음성 데이터를 이용하여 음성 데이터를 텍스트로 변환할 수 있다. 또한, 프로세서(20)는 변환된 텍스트에 기초하여 명령어를 결정할 수 있다.
일 실시예에 따르면, 프로세서(20)는 사용자 입력부(40)로부터 수신된 프레임 단위의 음성 데이터를 외부 장치(도시되지 않음)로 송신할 수 있다. 외부 장치에서 프레임 단위의 음성 데이터를 이용하여 음성 데이터를 텍스트로 변환할 수 있다. 또한, 외부 장치에서 변환된 텍스트에 기초하여 명령어를 결정할 수 있다. 이 때, 프로세서(20)는 외부 장치에서 변환된 텍스트 및 외부 장치에서 결정된 명령어를 수신할 수 있다.
예를 들어, 외부 장치는 디스플레이 장치(100)와 유 무선으로 연결된 서버를 포함할 수 있다.
통신부(50)는 프로세서(20)의 제어에 의해 외부 장치 또는 제어 장치(200)와 데이터 및 신호를 송수신할 수 있다.
도 2에 도시된 제어 장치(200)는 디스플레이 장치(100)의 기능을 제어하기 위한 장치이다. 제어 장치(200)는 예를 들어, 리모컨이 될 수 있지만 이에 제한되지 않고, 스마트폰, 태블릿 등 디스플레이 장치(100)의 기능을 제어할 수 있는 전자 기기를 포함한다.
도 2를 참조하면 제어 장치(200)는 사용자 입력부(201) 및 통신부(203)를 포함할 수 있다.
일 실시예에 따른 사용자 입력부(201)는 사용자 입력을 수신할 수 있다.
제어 장치(200)는 사용자 입력부(201)를 통해 수신된 사용자 입력에 기초하여 디스플레이 장치(100)의 기능을 제어할 수 있다.
일 실시예에 따른 사용자 입력은 사용자의 발화의 시작을 위한 입력 및 사용자의 발화의 종료를 위한 입력을 포함할 수 있다. 예를 들어, 사용자의 발화의 시작을 위한 입력은 제어 장치(200)의 음성 인식 모드를 실행하는 것일 수 있다. 또한, 사용자의 발화의 종료를 위한 입력은 제어 장치(200)의 음성 인식 모드를 해제하는 것일 수 있다.
또한, 사용자 입력은 디스플레이 장치(100)를 제어하기 위한 사용자의 발화를 포함할 수 있다.
예를 들어, 사용자 입력부(201)는 구비된 키(버튼을 포함), 터치 패드(touchpad), 사용자의 음성의 수신이 가능한 마이크(도시되지 아니함), 및 제어 장치(200)의 모션 인식이 가능한 센서(도시되지 아니함) 중 적어도 하나를 포함할 수 있다.
일 실시예에 따른 통신부(203)는 디스플레이 장치(100)와 신호를 송수신할 수 있다.
통신부(203)는 예를 들어, 적외선(infrared) 또는 블루투스(bluetooth)를 포함하는 근거리 통신을 이용하여 디스플레이 장치(100)와 신호를 송수신할 수 있다.
도 3은 일 실시예에 따른 디스플레이 장치를 제어하기 위한 방법의 흐름도이다.
단계 S110에서 디스플레이 장치(100)는 사용자의 발화를 수신할 수 있다 (S110).
단계 S120에서 디스플레이 장치(100)는 수신된 사용자의 발화에 대응되는 텍스트를 중간 인식 결과로 결정할 수 있다(S120).
단계 S130에서 디스플레이 장치(100)는 결정된 중간 인식 결과와 미리 저장된 이전의 중간 인식 결과를 비교한 결과에 기초하여 명령어를 결정할 수 있다(S130).
단계 S140에서 디스플레이 장치(100)는 결정된 명령어에 따른 동작을 수행할 수 있다(S140).
도 4는 일 실시예에 따른 디스플레이 장치(100)가 사용자의 발화에 대응되는 동작을 수행하는 것을 설명하기 위한 도면이다.
도 4는 사용자가 디스플레이 장치(100)에 포함된 음향 출력부의 음량을 1 만큼 크게 조정하고자 할 때를 도시한 것이다.
디스플레이 장치(100)는 제어 장치(200)를 통해 사용자의 발화의 시작을 위한 입력을 수신할 수 있다. 예를 들어, 사용자의 발화의 시작을 위한 입력은 디스플레이 장치(100) 및 제어 장치(200)중 적어도 하나의 음성 인식 모드를 실행하는 것일 수 있다.
디스플레이 장치(100) 및 제어 장치(200)중 적어도 하나의 음성 인식 모드가 시작되면, 도 4에 도시된 바와 같이, 디스플레이 장치(100)는 유저 인터페이스(411)를 화면에 디스플레이할 수 있다.
유저 인터페이스(411)는 사용자와 상호 작용을 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘 등)들을 포함할 수 있다. 구체적으로, 유저 인터페이스(411)는 디스플레이 장치(100)가 사용자 발화가 인식되고 있음을 알리기 위한 유저 인터페이스(411)를 포함할 수 있다.
예를 들어, 디스플레이 장치(100)가 사용자의 발화가 시작됨을 인식한 경우, 디스플레이 장치(100)는 "Hi nice to see you" 라는 텍스트를 포함하는 유저 인터페이스(411)를 디스플레이 할 수 있다.
디스플레이 장치(100) 및 제어 장치(200) 중 적어도 하나의 음성 인식 모드가 시작되면, 디스플레이 장치(100)에 포함된 사용자 입력부(도 2의 40 참조) 및 제어 장치(200)의 사용자 입력부(도 2의 201 참조) 중 적어도 하나에서 사용자의 발화된 음성을 수신할 수 있다.
예를 들어, 도 4에 도시된 바와 같이 디스플레이 장치(100)는 "볼륨 올려"에 대응되는 사용자의 발화를 수신할 수 있다.
디스플레이 장치(100)는 수신된 사용자의 발화에 대응되는 텍스트(401)를 중간 인식 결과로 결정할 수 있다.
디스플레이 장치(100)는 결정된 중간 인식 결과와 미리 저장된 이전의 중간 인식 결과를 비교한 결과에 기초하여 명령어를 결정할 수 있다. 만약, 미리 저장된 이전의 중간 인식 결과가 없는 경우에는 디스플레이 장치(100)는 결정된 중간 인식 결과에 대응되는 텍스트(401)에 기초하여 명령어를 결정할 수 있다.
디스플레이 장치(100)는 결정된 명령어에 따른 동작을 수행할 수 있다. 예를 들어, 결정된 명령어는 디스플레이 장치(100)에 포함된 음향 출력부의 음량을 1 만큼 크게 조정하는 것일 수 있다.
디스플레이 장치(100)는 텍스트(401) 및 결정된 명령어에 대응되는 텍스트(413) 중 적어도 하나를 디스플레이할 수 있다.
디스플레이 장치(100)가 결정된 명령어에 따른 동작을 수행한 후, 디스플레이 장치(100)는 제어 장치(200)를 통해 사용자의 발화의 종료를 위한 입력을 수신할 수 있다. 예를 들어, 사용자의 발화의 종료를 위한 입력은 디스플레이 장치(100) 및 제어 장치(200)중 적어도 하나의 음성 인식 모드를 종료하는 것일 수 있다.
디스플레이 장치(100)가 사용자의 발화의 종료를 위한 입력을 수신하면 디스플레이 장치(100)는 유저 인터페이스(411)를 디스플레이하지 않을 수 있다.
도 5는 일 실시예에 따른 디스플레이 장치(100)가 사용자의 발화에 대응되는 동작을 수행하는 것을 설명하기 위한 도면이다.
도 5는 사용자가 디스플레이 장치(100)에 포함된 음향 출력부의 음량을 1 만큼 크게 조정하는 동작을 반복하는 경우를 도시한 것이다.
예를 들어, 디스플레이 장치(100)는 "볼륨 올려"에 대응되는 사용자의 발화를 수신할 수 있다.
디스플레이 장치(100)는 수신된 사용자의 발화에 대응되는 제1 텍스트(501)를 중간 인식 결과로 결정할 수 있다. 또한, 디스플레이 장치(100)는 중간 인식 결과에 기초하여, 디스플레이 장치(100)에 포함된 음향 출력부의 음량을 1 만큼 크게 조정하는 것으로 명령어를 결정할 수 있다.
도 5를 참조하면, 디스플레이 장치(100)는 제1 텍스트(501) 및 결정된 명령어에 대응되는 텍스트(511) 중 적어도 하나를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 결정된 명령어에 따라 디스플레이 장치(100)에 포함된 음향 출력부의 음량을 1 만큼 크게 조정할 수 있다.
디스플레이 장치(100)는 결정된 중간 인식 결과인 제1 텍스트(501)를 내부 또는 외부 장치의 메모리(도시되지 않음)에 저장할 수 있다.
그 후, 디스플레이 장치(100)는 "올려"에 대응되는 사용자의 발화를 추가적으로 수신할 수 있다.
디스플레이 장치(100)는 수신된 사용자의 발화에 대응되는 제2 텍스트(503)를 중간 인식 결과로 결정할 수 있다. 예를 들어, 디스플레이 장치(100)는 "볼륨 올려 올려"를 중간 인식 결과로 결정할 수 있다.
디스플레이 장치(100)는 결정된 중간 인식 결과와 미리 저장된 중간 인식 결과를 비교하여, 결정된 중간 인식 결과에 새로운 텍스트(505)가 포함되는지를 결정할 수 있다.
예를 들어, 미리 저장된 중간 인식 결과는 제1 텍스트(501)인 "볼륨 올려"일 수 있다. 결정된 중간 인식 결과는 제2 텍스트(503)인 “볼륨 올려 올려"일 수 있다. 이 경우, 디스플레이 장치(100)는 결정된 중간 인식 결과가 새로운 텍스트(505)인 "올려"를 포함하는 것으로 결정할 수 있다.
새로운 텍스트(505)가 "올려"인 경우, 디스플레이 장치(100)는 새로운 텍스트(505)에 대응되는 명령어를 이전의 중간 인식 결과(501)인 "볼륨 올려"에 기초하여 결정할 수 있다.
디스플레이 장치(100)는 제2 텍스트(503) 및 결정된 명령어에 대응되는 텍스트(513) 중 적어도 하나를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 새로운 텍스트(505)에 대응되는 명령어에 따라 디스플레이 장치(100)에 포함된 음향 출력부의 음량을 1 만큼 크게 추가적으로 조정할 수 있다.
디스플레이 장치(100)는 "올려"에 대응되는 사용자의 발화를 반복하여 수신할 수 있다. 이 경우, 디스플레이 장치(100)는 결정된 중간 인식 결과와 미리 저장된 중간 인식 결과를 비교한 결과에 기초하여 명령어를 결정하는 것을 반복할 수 있다. 또한, 디스플레이 장치(100)는 사용자의 발화가 종료될 때까지 결정된 중간 인식 결과와 미리 저장된 중간 인식 결과를 비교한 결과에 기초하여 명령어를 결정하는 것을 반복할 수 있다.
도 5에 도시된 일 실시예에 따른 디스플레이 장치(100)에 의하면, 사용자가 제어 장치를 통해 반복적으로 사용자 발화의 시작 및 종료를 위한 입력을 제공해야 하는 불편함을 겪지 않아도 된다. 또한, 도 5에 도시된 디스플레이 장치(100)는 반복적인 기능을 수행할 때에 있어서, 사용자 발화의 시작을 알리는 유저 인터페이스를 반복적으로 생성하고 소멸시킬 필요가 없게 된다. 이에 따라 디스플레이 장치(100)는 명령어에 대응되는 유저 인터페이스만을 디스플레이하면 되기 때문에 디스플레이 장치(100)에서의 처리 과정이 간소화될 수 있다.
도 6은 일 실시예에 따른 디스플레이 장치(100)가 중간 인식 결과에 기초한 동작을 수행하는 것을 설명하기 위한 도면이다.
도 6은 사용자가 디스플레이 장치(100)에서 복수개의 명령어에 대응되는 사용자 발화를 수신하는 경우를 도시한 것이다.
구체적으로, 사용자 발화의 최종 결과가 "부산 날씨를 알려주고 맛집을 찾아줘" 인 경우, 사용자 발화는 복수의 명령어에 대응될 수 있다.
먼저, 디스플레이 장치(100)는 "부산 날씨를 알려주고"에 대응되는 사용자 발화를 수신할 수 있다. 디스플레이 장치(100)는 수신된 사용자의 발화에 대응되는 제1 텍스트(601)를 중간 인식 결과로 결정할 수 있다.
도 6을 참조하면, 디스플레이 장치(100)는 제1 텍스트(601) 및 제1 텍스트(601)에 기초하여 결정된 명령어에 대응되는 유저 인터페이스(611) 중 적어도 하나를 디스플레이할 수 있다. 유저 인터페이스(611)는 날씨 정보 어플리케이션 등을 통해 제공되는"부산 날씨"정보를 포함할 수 있다.
디스플레이 장치(100)는 결정된 중간 인식 결과인 제1 텍스트(601)를 내부 또는 외부 장치의 메모리(도시되지 않음)에 저장할 수 있다.
디스플레이 장치(100)는 "맛집을 찾아줘"에 대응되는 사용자 발화를 추가적으로 수신할 수 있다. 디스플레이 장치(100)는 수신된 사용자의 발화에 대응되는 제2 텍스트(603)를 중간 인식 결과로 결정할 수 있다.
디스플레이 장치(100)는 결정된 중간 인식 결과와 미리 저장된 중간 인식 결과를 비교하여 결정된 중간 인식 결과에 새로운 텍스트(605)가 포함되는 지를 결정할 수 있다. 예를 들어, 미리 저장된 중간 인식 결과는 제1 텍스트(601)인 "부산 날씨를 알려주고"일 수 있다. 결정된 중간 인식 결과는 제2 텍스트(603)인 "부산 날씨를 알려주고 맛집을 찾아줘"일 수 있다. 이 경우, 디스플레이 장치(100)는 결정된 중간 인식 결과가 새로운 텍스트(605)인 “맛집을 찾아줘"를 포함하는 것으로 결정할 수 있다.
디스플레이 장치(100)는 결정된 중간 인식 결과는 사용자 의도에 기초하여 새로운 텍스트(605)에 대응되는 명령어를 결정할 수 있다. 또한, 디스플레이 장치(100)는 사용자 의도를 이전의 중간 인식 결과에 기초하여 결정할 수 있다. 새로운 텍스트(605)가 "맛집을 찾아줘"인 경우, 새로운 텍스트(605)에 대응되는 명령어는 이전의 중간 인식 결과인 제1 텍스트(601)에 포함된 "부산"의 맛집을 찾는 것일 수 있다.
도 6을 참조하면, 디스플레이 장치(100)는 제2 텍스트(603) 및 결정된 명령어에 대응되는 유저 인터페이스(613) 중 적어도 하나를 디스플레이할 수 있다. 유저 인터페이스(613)는 검색 엔진 등을 통해 제공되는"부산 맛집"정보를 포함할 수 있다. 또한, 디스플레이 장치(100)는 유저 인터페이스(611) 및 유저 인터페이스(613)를 함께 디스플레이할 수도 있다.
일 실시예에 따르면 디스플레이 장치(100)는 사용자 발화가 복수의 명령어에 대응되는 경우 최종 결과가 획득되기 전이라도 사용자의 발화에 따라 실시간으로 복수의 명령어에 따른 복수의 동작을 수행할 수 있다.
도 7은 일 실시예에 따른 디스플레이 장치(100)에서 음성 인식 기능을 수행하는 방법의 흐름도이다.
단계 S210에서 디스플레이 장치(100)는 음성 인식 기능을 시작할 수 있다. 예를 들어, 디스플레이 장치(100)는 사용자 발화를 시작하기 위한 입력을 수신할 수 있다(S210).
단계 S220에서 디스플레이 장치(100)는 음성 프레임 입력이 존재하는지 여부를 판단할 수 있다(S220).
단계 S220에서 디스플레이 장치(100)가 음성 프레임 입력이 존재하는 것으로 판단한 경우, 단계 S230에서 디스플레이 장치(100)는 음성 인식 기능을 수행할 수 있다(S230). 여기서, 음성 인식 기능을 수행하는 것은 수신된 사용자의 발화에 대응되는 텍스트를 중간 인식 결과로 결정하는 것을 포함할 수 있다.
단계 S220에서 디스플레이 장치(100)가 음성 프레임 입력이 존재하지 않는 것으로 판단한 경우, 단계 S260에서 디스플레이 장치(100)는 최종 결과를 요청할 수 있다(S260).
단계 S240에서 디스플레이 장치(100)는 중간 인식 결과가 존재하는지 여부를 판단할 수 있다(S240).
단계 S240에서 디스플레이 장치(100)가 중간 인식 결과가 존재하는 것으로 판단한 경우, 단계 S250에서 디스플레이 장치(100)는 중간 인식 결과를 처리할 수 있다(S250). 여기서, 중간 인식 결과를 처리하는 것은 중간 인식 결과에 대응되는 명령어를 결정하는 것 및 명령어에 대응되는 동작을 수행하는 것을 포함할 수 있다.
단계 S240에서 디스플레이 장치(100)가 중간 인식 결과가 존재하지 않는 것으로 판단한 경우, 디스플레이 장치(100)는 단계 S220로 돌아가 음성 프레임 입력이 존재하는지 여부를 판단할 수 있다.
단계 S270에서 디스플레이 장치(100)는 최종 결과가 존재하는지 여부를 판단할 수 있다(S270).
단계 S270에서 디스플레이 장치(100)가 최종 결과가 존재하는 것으로 판단한 경우, 디스플레이 단계 S280에서 디스플레이 장치(100)는 최종 결과를 처리할 수 있다(S280).
단계 S270에서 디스플레이 장치(100)가 최종 결과가 존재하지 않는 것으로 판단한 경우, 디스플레이 장치(100)는 단계 S260으로 돌아가 최종 결과를 요청할 수 있다.
단계 S290에서 디스플레이 장치(100)는 음성 인식 기능을 종료할 수 있다(S290).
도 8은 일 실시예에 따른 디스플레이 장치(100)가 중간 인식 결과를 처리하는 방법의 흐름도이다.
일 실시예에 따른 디스플레이 장치(100)가 중간 인식 결과를 처리하는 과정은 도 7에 도시된 단계 S250에 포함될 수 있다.
단계 S310에서 디스플레이 장치(100)는 중간 인식 결과를 처리하는 것을 시작할 수 있다(S310).
단계 S320에서 디스플레이 장치(100)는 새로운 중간 인식 결과를 표시 할 수 있다(S320). 여기서 새로운 중간 인식 결과는, 디스플레이 장치(100)가 사용자가 발화를 시작할 때부터 중간 인식 결과를 처리하는 시점까지 수신된 사용자의 발화 입력에 기초한 것일 수 있다.
예를 들어, 디스플레이 장치(100)가 "오른쪽 아래 아래"라는 사용자 발화를 수신한 경우, 디스플레이 장치(100)는 화면에 "오른쪽 아래 아래"라는 중간 인식 결과를 디스플레이할 수 있다.
단계 S330에서 디스플레이 장치(100)는 새로운 중간 인식 결과에 새로운 텍스트가 포함되는지 여부를 결정할 수 있다(S330).
예를 들어, 미리 저장된 이전의 중간 인식 결과가 "오른쪽 아래"이고, 새로운 중간 인식 결과가 “오른쪽 아래 아래"인 경우, 새로운 중간 인식 결과는 새로운 텍스트인 "아래"를 더 포함하는 것이다.
단계 S330에서 디스플레이 장치(100)가 새로운 중간 인식 결과가 새로운 텍스트를 포함하는 것으로 결정하면, 단계 S350에서 디스플레이 장치(100)는 새로운 텍스트에 대응되는 사용자의 의도가 존재하는지 결정할 수 있다(S350).
일 실시예에 따르면, 디스플레이 장치(100)는 새로운 텍스트가 미리 저장된 명령어 리스트에 포함되어 있는지 여부를 판단할 수 있다. 예를 들어, 디스플레이 장치(100)는 "아래" 라는 새로운 텍스트가, 명령어 리스트에 포함되어 있는 경우, 사용자의 의도가 존재한다고 결정할 수 있다. 디스플레이 장치(100)는 미리 저장된 중간 인식 결과에 기초하여 새로운 텍스트에 대한 사용자 의도를 파악할 수 있다.
단계 S330에서 디스플레이 장치(100)가 새로운 중간 인식 결과가 새로운 텍스트를 포함하지 않는 것으로 결정하면, 단계 S390에서 디스플레이 장치(100)는 중간 인식 결과 처리를 종료할 수 있다(S390).
단계 S350에서 디스플레이 장치(100)가 새로운 텍스트에 대응되는 사용자의 의도가 존재하는 것으로 결정하면, 단계 S360에서 디스플레이 장치(100)는 사용자의 의도에 기초하여 명령어를 결정할 수 있다 (S360).
예를 들어, 디스플레이 장치(100)가 “아래” 라는 새로운 텍스트에 대응되는 사용자 의도가 존재하는 것으로 결정하면, 사용자 의도에 기초하여 명령어를 커서를 아래로 이동시키는 것으로 결정할 수 있다.
단계 S350에서 디스플레이 장치(100)가 사용자의 의도가 존재하지 않는 것으로 결정하면, 단계 S390에서 디스플레이 장치(100)는 중간 인식 결과 처리를 종료할 수 있다.
단계 S370에서 디스플레이 장치(100)는 명령어에 대응되는 동작을 수행할 수 있다(S370). 예를 들어, 디스플레이 장치(100)는 커서를 아래로 이동시키는 동작을 수행할 수 있다.
단계 S380에서 디스플레이 장치(100)는 미리 저장된 중간 인식 결과를 새로운 중간 인식 결과로 대체할 수 있다(S380). 예를 들어, 디스플레이 장치(100)는 미리 저장된 이전의 중간 인식 결과인 "오른쪽 아래"대신, 새로운 중간 인식 결과인 "오른쪽 아래 아래"를 저장할 수 있다. 이에 따르면, 이후에 디스플레이 장치(100)가 추가적으로 사용자 발화를 수신하여 새로운 중간 인식 결과를 처리할 때에 있어서, 미리 저장된 이전의 중간 인식 결과는 "오른쪽 아래 아래"가 될 수 있다.
단계 S390에서 디스플레이 장치(100)는 중간 인식 결과 처리를 종료할 수 있다.
도 9은 일 실시예에 따른 디스플레이 장치(100)의 세부적인 구성도이다.
도 9을 참조하면, 디스플레이 장치(100)는 비디오 처리부(110), 디스플레이(115), 오디오 처리부(120), 오디오 출력부(125), 전원부(130), 튜너부(140), 통신부(150), 감지부(160), 입/출력부(170), 프로세서(180), 저장부(190)를 포함한다.
비디오 처리부(110)는, 디스플레이 장치(100)가 수신한 비디오 데이터에 대한 처리를 수행한다. 비디오 처리부(110)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
디스플레이(115)는 프로세서(180)의 제어에 의해 튜너부(140)를 통해 수신된 방송 신호에 포함된 비디오를 화면에 표시한다 또한, 디스플레이(115)는 프로세서(180)의 제어에 의해 통신부(150) 또는 입/출력부(170)를 통해 입력되는 컨텐츠(예를 들어, 동영상)를 표시할 수 있다. 디스플레이(115)는 프로세서(180)의 제어에 의해 저장부(190)에 저장된 영상을 출력할 수 있다. 또한, 디스플레이(115)는 음성 인식에 대응되는 음성 인식 태스크를 수행하기 위한 음성 UI(User Interface: 예를 들어, 음성 명령어 가이드를 포함하는) 또는 모션 인식에 대응되는 모션 인식 태스크를 수행하기 위한 모션 UI(예를 들어, 음성 명령어 가이드를 포함하는) 또는 모션 인식에 대응되는 모션 인식 태스크를 수행하기 위한 모션 UI(예를 들어, 모션 인식을 위한 사용자 모션 가이드를 포함)를 표시할 수 있다.
도 9에 도시된 디스플레이(115)는 도 1의 디스플레이부(30)를 포함할 수 있다.
오디오 처리부(120)는 오디오 데이터에 대한 처리를 수행한다. 오디오 처리부(120)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 한편, 오디오 처리부(120)는 복수의 컨텐츠에 대응되는 오디오를 처리하기 위해 복수의 오디오 처리 모듈을 구비할 수 있다.
오디오 출력부(125)는 프로세서(180)의 제어에 의해 튜너부(140)를 통해 수신된 방송 신호에 포함된 오디오를 출력한다. 오디오 출력부(125)는 프로세서(180)의 제어에 의해 통신부(150) 또는 입/출력부(170)를 통해 입력되는 오디오(예를 들어, 음성, 사운드)를 출력할 수 있다. 또한, 오디오 출력부(125)는 프로세서(180)의 제어에 의해 저장부(190)에 저장된 오디오를 출력할 수 있다. 오디오 출력부(125)는 스피커(126), 헤드폰 출력 단자(127) 또는 S/PDIF(Sony/Philips Digital Interface: 출력 단자(128) 중 적어도 하나를 포함할 수 있다. 오디오 출력부(125)는 스피커(126), 헤드폰 출력 단자(127) 및 S/PDIF 출력 단자(128)의 조합을 포함할 수 있다.
전원부(130)는 프로세서(180)의 제어에 의해 디스플레이 장치(100) 내부의 구성 요소들(110 내지 190)로 외부의 전원 소스에서부터 입력되는 전원을 공급한다. 또한, 전원부(130)는 프로세서(180)의 제어에 의해 디스플레이 장치(100) 내부에 위치하는 하나 또는 둘 이상의 배터리(도시되지 아니함)에서부터 출력되는 전원을 내부의 구성 요소들(110 내지 190)에게 공급할 수 있다.
튜너부(140)은 유선 또는 무선으로 수신되는 방송 신호를 증폭(amplification), 혼합(mixing), 공진(resonance)등을 통하여 많은 전파 성분 중에서 디스플레이 장치(100)에서 수신하고자 하는 채널의 주파수만을 튜닝(tuning)시켜 선택할 수 있다. 방송 신호는 오디오(audio), 비디오(video) 및 부가 정보(예를 들어, EPG(Electronic Program Guide))를 포함한다.
튜너부(140)은 사용자 입력(예를 들어, 제어 장치(200)로부터 수신되는 제어 신호, 예컨대, 채널 번호 입력, 채널의 업다운(up-down) 입력 및 EPG 화면에서 채널 입력)에 따라 채널 번호(예를 들어, 케이블 방송 506번)에 대응되는 주파수 대역에서 방송 신호를 수신할 수 있다.
튜너부(140)은 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 소스로부터 방송 신호를 수신할 수 있다. 튜너부(140)은 아날로그 방송 또는 디지털 방송 등과 같은 소스로부터 방송 신호를 수신할 수 도 있다. 튜너부(140)를 통해 수신된 방송 신호는 디코딩(decoding, 예를 들어, 오디오 디코딩, 비디오 디코딩 또는 부가 정보 디코딩)되어 오디오, 비디오 및/또는 부가 정보로 분리된다. 분리된 오디오, 비디오 및/또는 부가 정보는 프로세서(180)의 제어에 의해 저장부(190)에 저장될 수 있다.
디스플레이 장치(100)의 튜너부(140)은 하나이거나 복수일 수 있다. 일 실시예에 따라서 튜너부(140)가 복수개로 이루어지는 경우, 디스플레이부(115)에 제공되는 멀티윈도우 화면을 이루는 복수개의 윈도우에 복수개의 방송 신호를 출력할 수 있을 것이다.
튜너부(140)은 디스플레이 장치(100)와 일체형(all-in-one)으로 구현되거나 또는 디스플레이 장치(100)와 전기적으로 연결되는 튜너부를 가지는 별개의 장치(예를 들어, 셋탑박스(set-top box, 도시되지 아니함), 입/출력부(170)에 연결되는 튜너부(도시되지 아니함))로 구현될 수 있다.
통신부(150)는 프로세서(180)의 제어에 의해 디스플레이 장치(100)를 외부 장치(예를 들어, 오디오 장치 등)와 연결할 수 있다. 제어부는 통신부(150)를 통해 연결된 외부 장치로 컨텐츠를 송/수신, 외부 장치에서부터 어플리케이션(application)을 다운로드 하거나 또는 웹 브라우징을 할 수 있다. 통신부(150)는 디스플레이 장치(100)의 성능 및 구조에 대응하여 무선 랜(151), 블루투스(152), 및 유선 이더넷(Ethernet, 153) 중 하나를 포함할 수 있다. 또한, 통신부(150)는 무선랜(151), 블루투스(152), 및 유선 이더넷(Ethernet, 153)의 조합을 포함할 수 있다. 통신부(150)는 프로세서(180)의 제어에 의해 제어 장치(200)의 제어 신호를 수신할 수 있다. 제어 신호는 블루투스 타입, RF 신호 타입 또는 와이파이 타입으로 구현될 수 있다.
통신부(150)는 블루투스 외에 다른 근거리 통신(예를 들어, NFC(near field communication, 도시되지 아니함), BLE(bluetooth low energy, 도시되지 아니함)를 더 포함할 수 있다.
통신부(150)는 도 2의 디스플레이 장치(100)의 통신부(50)를 포함할 수 있다.
감지부(160)는 사용자의 음성, 사용자의 영상 또는 사용자의 인터랙션을 감지한다.
마이크(161)는 사용자의 발화(utterance)된 음성을 수신한다. 마이크(161)는 수신된 음성을 전기 신호로 변환하여 프로세서(180)로 출력할 수 있다. 사용자 음성은 예를 들어, 디스플레이 장치(100)의 메뉴 또는 기능에 대응되는 음성을 포함할 수 있다. 마이크(161)의 인식 범위는 마이크(161)에서부터 사용자 위치까지 4 m 이내를 권장하며, 마이크(161)의 인식 범위는 사용자 목소리의 크기와 주변 환경(예를 들어, 스피커 소리, 주변 소음)에 대응하여 달라질 수 있다.
마이크(161)는 디스플레이 장치(100)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 마이크(161)는 통신부(150) 또는 입/출력부(170)를 통해 디스플레이 장치(100)와 전기적으로 연결될 수 있다.
감지부(160)는 도 2의 디스플레이 장치(100)의 사용자 입력부(40)를 포함할 수 있다.
카메라부(162)는 카메라 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 영상(예를 들어, 연속되는 프레임)을 수신한다. 예를 들어, 카메라부(162)의 인식 범위는 카메라부(162)에서부터 사용자까지 0.1 ~ 5 m 이내 거리가 될 수 있다. 사용자 모션은 예를 들어, 사용자의 얼굴, 표정, 손, 주먹, 손가락과 같은 사용자의 신체 일부분 또는 사용자 일부분의 모션 등을 포함할 수 있다. 카메라부(162)는 프로세서(180)의 제어에 따라 수신된 영상을 전기 신호로 변환하여 프로세서(180)로 출력할 수 있다. 프로세서(180)는 수신된 모션의 인식 결과를 이용하여 디스플레이 장치(100)에 표시되는 메뉴를 선택하거나 모션 인식 결과에 대응되는 제어를 할 수 있다. 예를 들어, 프로세서(180)는 볼륨 조정 및 커서의 이동 등을 제어할 수 있다.
카메라부(162)는 렌즈(도시되지 아니함) 및 이미지 센서(도시되지 아니함)로 구성될 수 있다. 카메라부(162)는 복수의 렌즈와 이미지 프로세싱을 이용하여 광학 줌(optical zoom) 또는 디지털 줌(digital zoom)을 지원할 수 있다. 카메라부(162)의 인식 범위는 카메라의 각도 및 주변 환경 조건에 따라 다양하게 설정될 수 있다. 카메라부(162)가 복수개의 카메라로 구성되는 경우, 복수의 카메라를 이용하여 3차원 정지 이미지 또는 3차원 모션을 수신할 수 있다.
카메라부(162)는 디스플레이 장치(100)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 카메라부(152)를 포함하는 별도의 장치(도시되지 아니함)는 통신부(150) 또는 입/출력부(170)를 통해 디스플레이 장치(100)와 전기적으로 연결될 수 있다.
디스플레이 장치(100)의 성능 및 구조에 따라 카메라부(162)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
광 수신부(163)는 외부의 제어 장치(200)에서부터 수신되는 광 신호(제어 신호를 포함)를 디스플레이(115)의 베젤의 광창(도시되지 아니함) 등을 통해 수신한다. 광 수신부(163)는 제어 장치(200)로부터 사용자 입력(예를 들어, 터치, 눌림, 터치 제스처, 음성, 또는 모션)에 대응되는 광 신호를 수신할 수 있다. 수신된 광 신호로부터 프로세서(180)의 제어에 의해 제어 신호가 추출될 수 있다.
디스플레이 장치(100)의 성능 및 구조에 따라 광 수신부(163)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
입/출력부(170)는 프로세서(180)의 제어에 의해 디스플레이 장치(100)의 외부에서부터 비디오(예를 들어, 동영상 등), 오디오(예를 들어, 음성, 음악 등) 및 부가 정보(예를 들어, EPG 등) 등을 수신한다. 입/출력부(170)는 HDMI 포트(High-Definition Multimedia Interface port, 171), 컴포넌트 잭(component jack, 172), PC 포트(PC port, 173), 및 USB 포트(USB port, 174) 중 적어도 하나를 포함할 수 있다. 또한, 입/출력부(170)는 구현 예에 따라 D-sub 포트, DVI(Digital Visual Interface) 포트 및 DP 포트 중 적어도 하나를 더 포함할 수 있다.
입/출력부(170)의 구성 및 동작은 본 발명의 실시예에 따라 다양하게 구현될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
프로세서(180)는 디스플레이 장치(100)의 전반적인 동작 및 디스플레이 장치(100)의 내부 구성요소들(110 내지 190)사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 프로세서(180)는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 프로세서(180)는 저장부(190)에 저장된 OS(Operation System) 및 다양한 어플리케이션을 실행할 수 있다.
프로세서(180)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서(180)는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다.
도 9의 프로세서(180)는 도 1 및 도 2의 프로세서(20)의 기능을 모두 포함할 수 있다.
저장부(190)는 프로세서(180)의 제어에 의해 디스플레이 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 저장부(190)는 비디오 처리부(110), 디스플레이부(115), 오디오 처리부(120), 오디오 출력부(125), 전원부(130), 통신부(150), 감지부(160), 입/출력부(170), 사용자 입력부(175)의 구동에 대응되는 입력/출력되는 신호 또는 데이터를 저장할 수 있다.
저장부(190)는 디스플레이 장치(100) 및 프로세서(180)의 제어를 위한 제어 프로그램, 디스플레이 화면을 구성하기 위한 프리젠테이션 모듈, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션을 저장할 수 있다. 구체적으로, 저장부(190)는 어플리케이션에서 사용되는 JavaScript 파일과 XML파일 등의 리소스를 저장할 수 있다.
저장부(190)는 프리젠테이션 모듈을 포함할 수 있다. 프리젠테이션 모듈은 디스플레이 화면을 구성하기 위한 모듈이다. 프리젠테이션 모듈은 멀티미디어 컨텐츠를 재생하여 출력하기 위한 멀티미디어 모듈, UI 및 그래픽 처리를 수행하는 UI 렌더링 모듈을 포함한다. 멀티미디어 모듈은 플레이어 모듈, 캠코더 모듈, 사운드 처리 모듈 등을 포함할 수 있다. 이에 따라, 각종 멀티미디어 컨텐츠를 재생하여 화면 및 음향을 생성하여 재생하는 동작을 수행한다. UI 렌더링 모듈은 이미지를 조합하는 이미지 합성기(Image Compositor module), 이미지를 디스플레이할 화면상의 좌표를 조합하여 생성하는 좌표 조합 모듈, 하드웨어로부터 각종 이벤트를 수신하는 X11 모듈, 2D 또는 3D 형태의 UI를 구성하기 위한 툴(tool)을 제공하는 2D/3D UI 툴킷 등을 포함할 수 있다.
또한, 저장부(190)는 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지, 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다. 또한, 저장부(190)는 디스플레이 장치(100)의 전원이 온 되었을 때 실행되는 운영 체제를 저장할 수 있다. 또한, 저장부(190)는 디스플레이 장치(100)의 상주 프로그램(Daemon)을 저장할 수 있다. 또한, 저장부(190)에는 디스플레이 장치(100)에서 실행되는 어플리케이션의 DRM을 복호화하기 위한 DRM 복호화 모듈이 저장될 수 있다.
일 실시예에서 저장부 라는 용어는 저장부(190), 디스플레이 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM), 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 디스플레이 장치(100)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM) 또는 디스플레이 장치(100)에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함한다. 또한, 저장부(190)는 비휘발성 메모리, 휘발성 메모리, 플래쉬 메모리(FLASH Memory), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
저장부(190)는 도시되지 아니한 볼륨 제어 모듈, 통신 제어 모듈, 음성 인식 모듈, 모션 인식 모듈, 광 수신 모듈, 디스플레이 제어 모듈, 오디오 제어 모듈, 외부 입력 제어 모듈, 전원 제어 모듈, 무선(예를 들어, 블루투스)으로 연결되는 외부 장치의 전원 제어 모듈, 음성 데이터베이스(DB), 또는 모션 데이터베이스(DB)를 포함할 수 있다. 저장부(190)의 도시되지 아니한 모듈들 및 데이터 베이스는 디스플레이 장치(100)에서 볼륨 제어 기능, 통신 제어 기능, 음성 인식 기능, 모션 인식 기능, 광 수신 제어 기능, 오디오 제어 기능, 외부 입력 제어 기능, 전원 제어 기능, 커서의 디스플레이를 제어하는 디스플레이 제어 기능을 수행하기 위하여 소프트웨어 형태로 구현될 수 있다. 프로세서(180)는 저장부(190)에 저장된 이들 소프트웨어를 이용하여 각각의 기능을 수행할 수 있다.
또한, 도 9에 도시된 저장부(190)는 도 1의 메모리(10)를 포함할 수 있다
디스플레이 장치(100)는 튜너부를 가지는 별도의 외부 장치(예를 들어, 셋탑 박스, 도시되지 아니함)와 전기적으로 연결될 수 있다. 예를 들어, 디스플레이 장치(100)는 아날로그 TV, 디지털 TV, 3D-TV, 스마트 TV, LED TV, OLED TV, 플라즈마 TV, 모니터 등으로 구현될 수 있으나, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
디스플레이 장치(100)는 디스플레이 장치(100)의 내부 또는 외부 상태를 검출하는 센서(예를 들어, 조도 센서, 온도 센서 등, 도시되지 아니함)를 더 포함할 수 있다.
도 9의 디스플레이 장치(100)에 도시된 구성 요소들(예를 들어, 110 내지 190)은 디스플레이 장치(100)의 성능에 따라 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 위치(예를 들어, 110 내지 190)는 디스플레이 장치(100)의 성능 또는 구조에 따라 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 10은 일 실시예에 따른 디스플레이 장치(100)의 블록도이다.
예를 들어, 도 10에 도시된 바와 같이, 일 실시예에 따른 디스플레이 장치(100)는, 사용자 입력부(1100), 출력부(1200), 제어부(1300), 및 통신부(1500) 이외에 센싱부(1400), A/V 입력부(1600), 및 메모리(1700)를 더 포함할 수도 있다.
사용자 입력부(1100)는, 사용자가 디스플레이 장치(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
사용자 입력부(1100)는, 사용자부터 패스워드를 입력받을 수 있다. 사용자 입력부(1100)는 또한, 사용자로부터 입력받을 패스워드의 종류에 대한 입력을 수신할 수 있다.
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.
디스플레이부(1210)는 디스플레이 장치(100)에서 처리되는 정보를 표시 출력한다.
한편, 디스플레이부(1210)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(1210)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(1210)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디스플레이 장치(100)의 구현 형태에 따라 디스플레이 장치(100)는 디스플레이부(1210)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(1210)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
도 10의 디스플레이부(1210)는 도 1에서 설명한 디스플레이부(30)를 포함할 수 있다.
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 디스플레이 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1220)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(1230)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1230)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
제어부(1300)는, 통상적으로 디스플레이 장치(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다.
도 10의 제어부(1300)는 도 1에서 설명한 프로세서(20)를 포함할 수 있다
센싱부(1400)는, 디스플레이 장치(100)의 상태 또는 디스플레이 장치(100) 주변의 상태를 감지하고, 감지된 정보를 제어부(1300)로 전달할 수 있다.
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부(1500)는, 디스플레이 장치(100)와 외부 디바이스(도시되지 않음) 또는 디스플레이 장치(100)와 서버(도시되지 않음) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(151)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 디스플레이 장치(100)가 방송 수신부(1530)를 포함하지 않을 수도 있다.
또한, 통신부(1500)는, 사용자의 생체 정보를 이용하여 힌트를 제공하기 위하여 필요한 데이터를, 사용자의 외부 디바이스(도시되지 않음) 또는 서버(도시되지 않음)와 송수신할 수 있다.
도 10의 통신부(1500)는 도 2의 디스플레이 장치(100)의 통신부(50)를 포함할 수 있다.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)는 화상 통화모드 또는 촬영 모드에서 촬상 소자를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 촬상 소자를 통해 캡쳐된 영상은 제어부(1300) 또는 별도의 영상 처리부(미도시)를 통해 처리될 수 있다.
카메라(1610)에서 처리된 화상 프레임은 메모리(1700)에 저장되거나 통신부(1500)를 통하여 외부로 전송될 수 있다. 카메라(1610)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
A/V(Audio/Video) 입력부(1600)는 도 2의 디스플레이장치(100)의 사용자 입력부(40)를 포함할 수 있다.
메모리(1700)는, 제어부(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 디스플레이 장치(100)로 입력되거나 디스플레이 장치(100)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다.
도 10의 메모리(1700)는 도 1의 메모리(10)를 포함할 수 있다.
UI 모듈(1710)은, 애플리케이션 별로 디스플레이 장치(100)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(1300)로 전달할 수 있다. 일 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다. 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(1730)은 디스플레이 장치(100)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 디스플레이 장치(100)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
도 11은 일 실시예에 따른 제어 장치의 구성을 나타내는 블록도이다.
도 11을 참조하면, 제어 장치(200)는 무선 통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270) 및 제어부(280)를 포함할 수 있다.
무선 통신부(220)는 전술하여 설명한 실시예들에 따른 디스플레이 장치와 신호를 송수신할 수 있다. 무선 통신부(220)는 RF 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비할 수 있다. 또한, 제어 장치(200)는 IR 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 무선 통신부(220)는 디스플레이 장치(100)와 블루투스 타입의 신호를 송수신할 수 있는 블루투스 모듈(225)을 구비할 수 있다.
무선 통신부(220)는 도 2의 제어 장치(200)의 통신부(203)를 포함할 수 있다.
본 실시예에서, 제어 장치(200)는 디스플레이(100)로 제어 장치(200)의 움직임 등에 관한 정보가 담긴 신호를 RF 모듈(221)을 통하여 전송한다.
또한, 제어 장치(200)는 디스플레이 장치(100)가 전송한 신호를 RF 모듈(221)을 통하여 수신할 수 있다. 또한, 제어 장치(200)는 필요에 따라 IR 모듈(223)을 통하여 디스플레이 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 제어 장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드 키 버튼을 구비할 경우, 사용자는 하드 키 버튼의 푸쉬 동작을 통하여 제어 장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트 키를 터치하여 제어 장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다.
사용자 입력부(230)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있다. 또한, 사용자 입력부(230)는 사용자의 음성의 수신이 가능한 마이크를 포함할 수 있다.
사용자 입력부(230)는 도 2의 제어 장치(200)의 사용자 입력부(201)를 포함할 수 있다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있다. 자이로 센서(241)는 제어 장치(200)의 움직임에 관한 정보를 센싱할 수 있다. 일예로, 자이로 센서(241)는 제어 장치(200)의 동작에 관한 정보를 x, y, z 축을 기준으로 센싱할 수 있다. 가속도 센서(243)는 제어 장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 거리 측정 센서를 더 구비할 수 있으며, 이에 의해, 디스플레이 장치(100)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(230)의 조작에 대응하거나 디스플레이 장치(100)에서 수신한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(230)의 조작 여부 또는 디스플레이 장치(100)의 제어 여부를 인지할 수 있다.
일 예로, 출력부(250)는 사용자 입력부(230)가 조작되거나 무선 통신부(220)를 통하여 디스플레이장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다.
전원공급부(260)는 제어 장치(200)로 전원을 공급한다. 전원공급부(260)는 제어 장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다. 전원공급부(260)는 제어 장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 제어 장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다.
제어부(280)는 제어 장치(200)의 제어에 관련된 제반 사항을 제어한다. 제어부(280)는 사용자 입력부(230)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 제어 장치(200)의 움직임에 대응하는 신호를 무선 통신부(220)를 통하여 디스플레이 장치(100)로 전송할 수 있다.
좌표값 산출부(미도시)는 감지된 제어 장치(200)의 동작에 대응하는 신호로부터 손떨림이나 오차를 수정하여 디스플레이 장치(100)의 디스플레이부(115)에 표시할 커서의 좌표값(x,y)을 산출할 수 있다.
일 실시예에 따른 제어 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
전술한 명세서에서, 본 개시 및 장점들은 특정 실시예를 참조하여 설명되었다. 하지만 이 기술 분야에서 통상의 지식을 가진 사람은 다양한 변경과 변화를, 아래 청구항에 개시된 바와 같은 본 개시의 범위를 벗어나지 않고, 용이하게 달성할 수 있다. 따라서 본 상세한 설명과 도면은 제한적 의미가 아니라, 본 개시의 설명적 예시들로 간주되어야 한다. 이러한 가능한 모든 수정은 본 개시의 범위 내에 포함되도록 의도된다.

Claims (20)

  1. 프로세서;
    상기 프로세서에 연결된 메모리; 및
    디스플레이부를 포함하고,
    상기 프로세서는,
    사용자의 발화를 수신하고,
    상기 수신된 사용자의 발화에 대응되는 텍스트를 중간 인식 결과로 결정하고,
    상기 결정된 중간 인식 결과와 상기 메모리에 저장된 이전의 중간 인식 결과를 비교한 결과에 기초하여 명령어를 결정하고,
    상기 결정된 명령어에 따른 동작을 수행하도록 구성되는, 디스플레이 장치.
  2. 제1 항에 있어서, 상기 프로세서는
    상기 결정된 중간 인식 결과와 상기 이전의 중간 인식 결과를 비교하여 상기 결정된 중간 인식 결과에 새로운 텍스트가 포함되는지를 결정하고,
    상기 결정된 중간 인식 결과에 상기 새로운 텍스트가 포함되는 것으로 결정하는 경우, 상기 새로운 텍스트에 대응되는 명령어를 결정하는, 디스플레이 장치.
  3. 제2 항에 있어서, 상기 프로세서는
    상기 새로운 텍스트에 대응되는 상기 사용자의 의도가 존재하는지 여부를 결정하고,
    상기 사용자의 의도가 존재한다고 결정한 경우, 상기 사용자의 의도에 기초하여 명령어를 결정하는, 디스플레이 장치.
  4. 제3 항에 있어서,
    상기 새로운 텍스트에 대응되는 상기 사용자의 의도는 상기 이전의 중간 인식 결과에 대응되는 사용자 의도와 동일한 것인, 디스플레이 장치.
  5. 제3 항에 있어서, 상기 프로세서는
    상기 사용자의 의도가 존재한다고 결정한 경우, 상기 결정된 중간 인식 결과를 상기 메모리에 저장하는, 디스플레이 장치.
  6. 제1 항에 있어서, 상기 프로세서는
    상기 결정된 명령어에 대응되는 유저 인터페이스를 상기 디스플레이에 디스플레이하도록 구성되고,
    상기 결정된 명령어에 대응되는 유저 인터페이스는, 상기 중간 인식 결과 및 상기 결정된 명령어에 대응되는 텍스트 중 적어도 하나를 포함하는, 디스플레이 장치.
  7. 제1 항에 있어서, 상기 프로세서는
    상기 사용자의 발화가 종료되었는지 여부를 결정하고,
    상기 사용자의 발화가 종료되었다고 결정되면 상기 결정된 중간 인식 결과를 최종 결과로 결정하고,
    상기 최종 결과에 대응되는 동작을 수행하는, 디스플레이 장치.
  8. 제1 항에 있어서, 상기 프로세서는
    상기 사용자의 발화가 종료되었는지 여부를 결정하고,
    상기 사용자의 발화가 종료되었다고 결정되면 상기 사용자 발화를 수신하는 것을 종료하는, 디스플레이 장치.
  9. 제1 항에 있어서, 상기 결정된 명령어는,
    상기 디스플레이부에 디스플레이되는 커서의 위치를 조정하는 것, 상기 디스플레이 장치에 포함된 음향 출력부의 음량을 조정하는 것 및 상기 디스플레이 장치에서 수신하는 채널을 전환하는 것 중 어느 하나를 포함하는, 디스플레이 장치.
  10. 제1 항에 있어서,
    상기 메모리에 저장된 이전의 중간 인식 결과는, 상기 프로세서가 상기 사용자의 발화를 인식하기 위한 기능을 시작하는 입력을 수신한 시점으로부터 사용자 의도가 인식될 때까지 수신된 상기 사용자 발화에 대응되는, 디스플레이 장치.
  11. 사용자의 발화를 통하여 디스플레이 장치를 제어하기 위한 방법에 있어서,
    상기 사용자의 발화를 수신하는 단계;
    상기 수신된 사용자의 발화에 대응되는 텍스트를 중간 인식 결과로 결정하는 단계;
    상기 결정된 중간 인식 결과와 미리 저장된 이전의 중간 인식 결과를 비교한 결과에 기초하여 명령어를 결정하는 단계; 및
    상기 결정된 명령어에 따른 동작을 수행하는 단계를 포함하는, 디스플레이 장치를 제어하는 방법.
  12. 제11 항에 있어서, 상기 명령어를 결정하는 단계는
    상기 결정된 중간 인식 결과와 상기 이전의 중간 인식 결과를 비교하여 상기 결정된 중간 인식 결과에 새로운 텍스트가 포함되는지를 결정하는 단계; 및
    상기 결정된 중간 인식 결과에 상기 새로운 텍스트가 포함되는 것으로 결정하는 경우, 상기 새로운 텍스트에 대응되는 명령어를 결정하는 단계를 포함하는, 디스플레이 장치를 제어하는 방법.
  13. 제12 항에 있어서, 상기 새로운 텍스트에 대응되는 명령어를 결정하는 단계는
    상기 새로운 텍스트에 대응되는 상기 사용자의 의도가 존재하는지 여부를 결정하는 단계; 및
    상기 사용자의 의도가 존재한다고 결정한 경우에는 상기 사용자의 의도에 기초하여 명령어를 결정하는 단계를 포함하는, 디스플레이 장치를 제어하는 방법.
  14. 제13 항에 있어서,
    상기 새로운 텍스트에 대응되는 상기 사용자의 의도는 상기 이전의 중간 인식 결과에 대응되는 사용자 의도와 동일한 것인, 디스플레이 장치를 제어하는 방법.
  15. 제13 항에 있어서,
    상기 사용자의 의도가 존재한다고 결정한 경우, 상기 결정된 중간 인식 결과를 메모리에 저장하는 단계를 더 포함하는, 디스플레이 장치를 제어하는 방법.
  16. 제11 항에 있어서,
    상기 결정된 명령어에 대응되는 유저 인터페이스를 디스플레이하는 단계를 더 포함하고,
    상기 결정된 명령어에 대응되는 유저 인터페이스는, 상기 중간 인식 결과 및 상기 결정된 명령어에 대응되는 텍스트 중 적어도 하나를 포함하는, 디스플레이 장치를 제어하는 방법.
  17. 제11 항에 있어서,
    상기 사용자의 발화가 종료되었는지 여부를 결정하는 단계;
    상기 사용자의 발화가 종료되었다고 결정되면, 상기 결정된 중간 인식 결과를 최종 결과로 결정하는 단계; 및
    상기 최종 결과에 대응되는 동작을 수행하는, 디스플레이 장치를 제어하는 방법.
  18. 제11 항에 있어서,
    상기 사용자의 발화가 종료되었는지 여부를 결정하는 단계; 및
    상기 사용자의 발화가 종료되었다고 결정되면 상기 사용자 발화를 수신하는 것을 종료하는 단계를 더 포함하는, 디스플레이 장치를 제어하는 방법.
  19. 제11 항에 있어서, 상기 결정된 명령어는,
    디스플레이부에 디스플레이되는 커서의 위치를 조정하는 것, 상기 디스플레이 장치에 포함된 음향 출력부의 음량을 조정하는 것 및 상기 디스플레이 장치에서 수신하는 채널을 전환하는 것 중 어느 하나를 포함하는, 디스플레이 장치를 제어하는 방법.
  20. 제11 항에 기재된 방법을 실행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 저장 매체.
KR1020160136577A 2016-10-20 2016-10-20 디스플레이 장치 및 디스플레이 장치를 제어하는 방법 KR20180043627A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020160136577A KR20180043627A (ko) 2016-10-20 2016-10-20 디스플레이 장치 및 디스플레이 장치를 제어하는 방법
US15/724,781 US10416956B2 (en) 2016-10-20 2017-10-04 Display apparatus and method of controlling the same
EP17194879.7A EP3312830B1 (en) 2016-10-20 2017-10-05 Display apparatus and method of controlling the same
CN201710982672.0A CN107967915A (zh) 2016-10-20 2017-10-19 显示装置及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160136577A KR20180043627A (ko) 2016-10-20 2016-10-20 디스플레이 장치 및 디스플레이 장치를 제어하는 방법

Publications (1)

Publication Number Publication Date
KR20180043627A true KR20180043627A (ko) 2018-04-30

Family

ID=60080592

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160136577A KR20180043627A (ko) 2016-10-20 2016-10-20 디스플레이 장치 및 디스플레이 장치를 제어하는 방법

Country Status (4)

Country Link
US (1) US10416956B2 (ko)
EP (1) EP3312830B1 (ko)
KR (1) KR20180043627A (ko)
CN (1) CN107967915A (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348475B2 (en) * 2016-12-09 2022-05-31 The Boeing Company System and method for interactive cognitive task assistance
CN112289318A (zh) * 2020-12-30 2021-01-29 成都启英泰伦科技有限公司 一种语音遥控方法及装置
CN113053392B (zh) * 2021-03-26 2024-04-05 京东科技控股股份有限公司 语音识别方法、语音识别装置、电子设备及介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6622119B1 (en) * 1999-10-30 2003-09-16 International Business Machines Corporation Adaptive command predictor and method for a natural language dialog system
US6499016B1 (en) * 2000-02-28 2002-12-24 Flashpoint Technology, Inc. Automatically storing and presenting digital images using a speech-based command language
JP2001296881A (ja) * 2000-04-14 2001-10-26 Sony Corp 情報処理装置および方法、並びに記録媒体
US7349845B2 (en) * 2003-09-03 2008-03-25 International Business Machines Corporation Method and apparatus for dynamic modification of command weights in a natural language understanding system
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US9734839B1 (en) * 2012-06-20 2017-08-15 Amazon Technologies, Inc. Routing natural language commands to the appropriate applications
KR101330671B1 (ko) * 2012-09-28 2013-11-15 삼성전자주식회사 전자장치, 서버 및 그 제어방법
US10121493B2 (en) 2013-05-07 2018-11-06 Veveo, Inc. Method of and system for real time feedback in an incremental speech input interface
KR20140139922A (ko) 2013-05-28 2014-12-08 삼성전자주식회사 음성 인식 장치 및 이의 음성 인식 방법
US9966065B2 (en) * 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
KR101566254B1 (ko) 2014-09-22 2015-11-05 엠앤서비스 주식회사 경로 안내를 위한 음성인식 지원 장치 및 방법, 그리고 시스템
KR102301880B1 (ko) 2014-10-14 2021-09-14 삼성전자 주식회사 전자 장치 및 이의 음성 대화 방법
KR20160084724A (ko) 2015-01-06 2016-07-14 한국전자통신연구원 연속어 음성인식에서 실시간 역추적 방법 및 이를 이용한 음성인식 장치
US10083688B2 (en) * 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10269341B2 (en) * 2015-10-19 2019-04-23 Google Llc Speech endpointing

Also Published As

Publication number Publication date
EP3312830B1 (en) 2024-02-14
EP3312830A1 (en) 2018-04-25
EP3312830C0 (en) 2024-02-14
CN107967915A (zh) 2018-04-27
US10416956B2 (en) 2019-09-17
US20180113674A1 (en) 2018-04-26

Similar Documents

Publication Publication Date Title
US10379698B2 (en) Image display device and method of operating the same
US20160231885A1 (en) Image display apparatus and method
US11435974B2 (en) Display device, mobile device, screen mirroring method of display device, and screen mirroring method of mobile device
US11500509B2 (en) Image display apparatus and image display method
US11301108B2 (en) Image display apparatus and method for displaying item list and cursor
CN107636749B (zh) 图像显示设备及其操作方法
CN105763921B (zh) 图像显示设备和方法
KR20170059242A (ko) 영상 표시 장치 및 그 동작방법
EP3119096A1 (en) Image display apparatus and method of operating the same
KR20180098056A (ko) 영상 표시 장치 및 그 동작 방법
US10416956B2 (en) Display apparatus and method of controlling the same
KR102428375B1 (ko) 영상 표시 장치 및 그 동작방법
US11240466B2 (en) Display device, mobile device, video calling method performed by the display device, and video calling method performed by the mobile device
KR20160098842A (ko) 디스플레이 장치 및 디스플레이 방법
KR101960507B1 (ko) 디스플레이 장치 및 디스플레이 방법
EP3226568A1 (en) Display device and display method
KR20170072652A (ko) 디스플레이 장치 및 디스플레이 방법

Legal Events

Date Code Title Description
A201 Request for examination