KR20140102905A - Method for controlling contents displyed on touch screen and display apparatus therefor - Google Patents

Method for controlling contents displyed on touch screen and display apparatus therefor

Info

Publication number
KR20140102905A
KR20140102905A KR1020130016407A KR20130016407A KR20140102905A KR 20140102905 A KR20140102905 A KR 20140102905A KR 1020130016407 A KR1020130016407 A KR 1020130016407A KR 20130016407 A KR20130016407 A KR 20130016407A KR 20140102905 A KR20140102905 A KR 20140102905A
Authority
KR
South Korea
Prior art keywords
screen
focusing area
input
user
event
Prior art date
Application number
KR1020130016407A
Other languages
Korean (ko)
Inventor
정문식
최성도
이반 코르야코브스키
아린 점파수트
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130016407A priority Critical patent/KR20140102905A/en
Publication of KR20140102905A publication Critical patent/KR20140102905A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

A method of controlling content displayed on a screen by a display device comprises a process of receiving a voice to select selected content among content from a user through a microphone when the content is displayed on the screen; a process of determining a coordinate of the selected content on the screen; and a process of determining and focusing an area including at least a portion of the selected content as a focusing area.

Description

스크린을 통해 표시되는 컨텐츠를 제어하는 방법 및 이를 위한 디스플레이 장치{METHOD FOR CONTROLLING CONTENTS DISPLYED ON TOUCH SCREEN AND DISPLAY APPARATUS THEREFOR}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of controlling content displayed on a screen,

본 발명은 스크린을 통해 표시되는 컨텐츠를 제어하는 방법 및 이를 위한 디스플레이 장치에 관한 것으로서, 특히 발명의 목적은 컨텐츠의 선택 또는 컨텐츠 내에서의 선택 영역의 확대 또는 축소를 용이하게 함으로써 사용자로 하여금 컨텐츠를 용이하게 제어할 수 있도록 하는, 스크린을 통해 표시되는 컨텐츠를 제어하는 방법 및 이를 위한 디스플레이 장치에 관한 것이다.The present invention relates to a method of controlling content displayed on a screen and a display device therefor, and in particular, it is an object of the present invention to provide a method and apparatus for controlling content displayed on a screen by facilitating selection of content or enlargement or reduction of a selected area in the content. And more particularly to a method of controlling contents displayed on a screen and a display device therefor.

최근 디스플레이 장치 보급률의 급속한 증가로 디스플레이 장치는 현대인의 생활 필수품으로 자리매김하게 되었다. 이와 같은 디스플레이 장치는 고유의 음성 통화 서비스뿐만 아니라 각종 데이터 전송 서비스와 다양한 부가 서비스도 제공할 수 있게 되어 기능상 멀티미디어 통신기기로 변모하고 있다. 특히나 최근에는 사용자가 직접 표시되고 있는 화면을 보면서 특정 컨텐츠를 선택할 수 있는 터치스크린 등의 스크린 기반의 모바일 단말기가 사용자들에게 선호되고 있다.Recently, the rapid increase of the display device penetration rate has made the display device become a living necessity of modern people. Such a display device is capable of providing various data transmission services and various additional services as well as a unique voice communication service, and is becoming a functional multimedia communication device. In particular, recently, a screen-based mobile terminal such as a touch screen capable of selecting a specific content while viewing a screen directly displayed by a user has been preferred by users.

사용자는, 예를 들어 터치스크린의 표면을, 손가락을 이용하여 압압함으로써 상기 터치스크린을 통해 표시되는 다수의 컨텐츠들(예를 들어, 아이콘들) 중 어느 하나를 선택하거나 또는 하나의 컨텐츠 중에서도 특정 부분을 선택할 수 있다. 그러나 손가락을 이용한 터치입력으로는 컨텐츠를 선택하거나 또는 컨텐츠에서의 선택 영역의 확대 또는 축소가 용이하지 않다. 또한 사용자가 핀치(pinch) 등의 손가락을 이용한 스크린를 제어하고자 하는 경우, 사용자는 손가락을 컨텐츠의 위치에 접촉시킨 후 확대 또는 축소를 위한 동작을 수행해야 한다. 그러나 스크린의 화면 사이즈 및 컨텐츠의 사이즈가 작으면 사용자가 손가락을 이용하여 상기 컨텐츠를 선택하는데 어려움이 따른다.The user may select one of a plurality of contents (e.g., icons) displayed on the touch screen by pressing the surface of the touch screen using, for example, a finger, or select one of a plurality of contents Can be selected. However, it is not easy to select a content or enlarge or reduce a selection area in the content with touch input using a finger. Also, when a user wishes to control a screen using a finger such as a pinch, the user has to perform an operation for enlarging or reducing the finger after touching the position of the content. However, if the screen size of the screen and the size of the contents are small, it is difficult for the user to select the contents using his / her finger.

따라서 본 발명의 목적은 다수의 컨텐츠들 중 적어도 하나를 선택하거나 또는 선택된 컨텐츠의 적어도 일부를 포함하는 영역의 확대 또는 축소를 용이하게 함으로써 사용자로 하여금 컨텐츠를 용이하게 제어할 수 있도록 하는, 스크린을 통해 표시되는 컨텐츠를 제어하는 방법 및 이를 위한 디스플레이 장치를 제공함에 있다.It is therefore an object of the present invention to provide a method and apparatus for enabling a user to easily control content by selecting at least one of a plurality of contents or facilitating enlargement or reduction of an area including at least a part of the selected contents A method of controlling contents to be displayed, and a display device therefor.

본 발명의 일 실시예에 따른 디스플레이 장치가 스크린을 통해 표시되는 컨텐츠를 제어하는 방법은, 스크린에 컨텐츠들이 표시되면, 마이크를 통하여 사용자로부터 상기 컨텐츠들 중 선택 컨텐츠를 선택하기 위한 음성을 입력받는 과정과, 상기 스크린 상에서의 상기 선택 컨텐츠의 좌표를 결정하는 과정과, 상기 선택 컨텐츠의 적어도 일부가 포함된 영역을 포커싱 영역으로 결정하여 포커싱하는 과정을 포함한다.A method of controlling content displayed on a screen by a display device according to an embodiment of the present invention includes the steps of receiving a voice for selecting a selected content from a user through a microphone Determining a coordinate of the selected content on the screen, and determining an area including at least a part of the selected content as a focusing area and focusing the selected content.

본 발명의 일 실시예에 따른 스크린을 통해 표시되는 컨텐츠를 제어하는 디스플레이 장치는, 스크린과, 상기 스크린에 컨텐츠들이 표시되면, 사용자로부터 상기 컨텐츠들 중 선택 컨텐츠를 선택하기 위한 음성을 입력받는 마이크와, 상기 스크린 상에서의 상기 선택 컨텐츠의 좌표를 결정하고, 상기 선택 컨텐츠의 적어도 일부가 포함된 영역을 포커싱 영역으로 결정하고, 상기 포커싱 영역을 포커싱하도록 상기 스크린을 제어하는 제어부를 포함한다.A display device for controlling contents displayed through a screen according to an embodiment of the present invention includes a screen and a microphone for receiving a voice for selecting a selected one of the contents from the user when the contents are displayed on the screen, And a control unit for determining coordinates of the selected content on the screen, determining an area including at least a part of the selected content as a focusing area, and controlling the screen to focus the focusing area.

본 발명에 따르면, 다수의 컨텐츠들 중 적어도 하나를 선택하거나 또는 선택된 컨텐츠의 적어도 일부를 포함하는 영역의 확대 또는 축소를 용이하게 함으로써 사용자로 하여금 컨텐츠를 용이하게 제어할 수 있도록 하는, 스크린을 통해 표시되는 컨텐츠를 제어하는 방법 및 이를 위한 디스플레이 장치를 제공한다.According to the present invention, there is provided a method of displaying on a screen, which allows a user to easily control content by selecting at least one of a plurality of contents or facilitating enlargement or reduction of an area including at least a part of the selected contents. And a display device for the same.

도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성을 나타낸 블록도,
도 2는 도 1에 도시된 디스플레이 장치가 스크린을 통해 표시되는 컨텐츠를 제어하는 방법을 나타낸 순서도,
도 3a 및 도 3b는 도 1에 도시된 디스플레이 장치에 의하여 선택 텍스트가 포커싱되는 일 예를 도시한 도면,
도 4는 도 1에 도시된 디스플레이 장치가 음성 신호에 대응하는 컨텐츠를 포커싱하는 다른 예를 나타낸 도면,
도 5a 및 도 5b는 도 1에 도시된 디스플레이 장치가 음성 신호에 대응하는 컨텐츠를 포커싱하는 또 다른 예를 나타낸 도면, 그리고
도 6은 도 1에 도시된 디스플레이 장치의 센서 모듈을 통해 입력되는 근접 센싱 입력에 따라 스크린에 표시되는 포커싱 영역을 확장하는 일 예를 나타낸 도면이다.
1 is a block diagram showing a configuration of a display device according to an embodiment of the present invention;
FIG. 2 is a flowchart showing a method of controlling contents displayed on a screen by the display device shown in FIG. 1;
FIGS. 3A and 3B are diagrams illustrating an example in which selected text is focused by the display device shown in FIG. 1;
FIG. 4 is a diagram illustrating another example in which the display device shown in FIG. 1 focuses content corresponding to a voice signal;
5A and 5B are diagrams illustrating another example in which the display device shown in FIG. 1 focuses content corresponding to a voice signal, and FIG.
6 is a diagram illustrating an example of expanding a focusing area displayed on a screen according to a proximity sensing input input through a sensor module of the display device shown in FIG.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention. And will be apparent to those of ordinary skill in the art.

도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성을 나타낸 블록도이다.1 is a block diagram showing a configuration of a display device according to an embodiment of the present invention.

본 실시예에서 디스플레이 장치(100)는 디스플레이 화면을 구비하는 장치를 가리키는 것으로서, 예를 들어 텔레비전, 이동통신 단말기, 태블릿, 노트북, 데스크 톱 등의 PC(Personal Computer) 등이 디스플레이 장치(100)에 포함될 수 있다.In this embodiment, the display device 100 refers to a device having a display screen. For example, a PC (Personal Computer) such as a television, a mobile communication terminal, a tablet, a notebook, .

도 1을 참조하면, 디스플레이 장치(100)는 제어부(110), 마이크(162)를 포함하는 입/출력 모듈(160), 저장부(175), 스크린(190)을 포함하며, 실시예에 따라 이동통신 모듈(120), 서브 통신 모듈(130), 멀티미디어 모듈(140), GPS 모듈(153), 센서 모듈(170), 전원 공급부(180) 및 스크린 컨트롤러(195)를 더 포함할 수 있다.1, the display device 100 includes a control unit 110, an input / output module 160 including a microphone 162, a storage unit 175, and a screen 190, The mobile communication module 120, the sub communication module 130, the multimedia module 140, the GPS module 153, the sensor module 170, the power supply unit 180, and the screen controller 195.

제어부(110)는 CPU(111), 디스플레이 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 디스플레이 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 디스플레이 장치(100)에서 수행되는 작업을 위한 기억 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.The control unit 110 stores a ROM 112 storing a control program for controlling the display device 100 and a signal or data input from the outside of the display device 100, (RAM) 113 that is used as a storage area for operations performed in the RAM 100 (e.g., RAM). The CPU 111 may include a single core, a dual core, a triple core, or a quad core. The CPU 111, the ROM 112, and the RAM 113 may be interconnected via an internal bus.

제어부(110)는 이동통신 모듈(120), 서브 통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(153), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 스크린(190) 및 스크린 컨트롤러(195) 중 적어도 하나를 제어할 수 있다.The control unit 110 includes a mobile communication module 120, a sub communication module 130, a multimedia module 140, a camera module 150, a GPS module 153, an input / output module 160, a sensor module 170, The storage unit 175, the power supply unit 180, the screen 190, and the screen controller 195, as shown in FIG.

본 실시예에 따른 제어부(110)는 스크린(190) 또는 스크린 컨트롤러(195)를 제어함으로써 상기 스크린(190)을 통해 표시되고 있는 각종 컨텐츠들 또는 상기 컨텐츠들의 표시를 제어할 수 있다.The control unit 110 according to the present embodiment can control the display of various contents displayed on the screen 190 or the contents by controlling the screen 190 or the screen controller 195. [

입/출력 모듈(160)은 마이크(162)를 포함하며, 복수의 버튼(161), 스피커(163) 진동 모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 더 포함할 수 있다.The input / output module 160 includes a microphone 162 and may further include at least one of a plurality of buttons 161, a speaker 163, a vibration motor 164, a connector 165 and a keypad 166 have.

복수의 버튼(161)은 디스플레이 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼 및 검색 버튼 중 적어도 하나를 포함할 수 있다.The plurality of buttons 161 may be formed on the front, side, or rear surface of the housing of the display device 100 and may include at least one of a power / lock button, a volume button, a menu button, a home button, .

본 실시예에 따른 버튼(161)은 마이크(162)를 구동시키기 위한 버튼(미도시)를 포함할 수 있으며, 카메라 모듈(150)을 구동하기 위한 버튼(미도시)을 더 포함할 수 있다. 또한 버튼(161)은 포커싱 영역에 대한 이벤트로서의 사용자 입력을 수신하기 위한 버튼을 포함할 수도 있다.The button 161 according to the present embodiment may include a button (not shown) for driving the microphone 162 and may further include a button (not shown) for driving the camera module 150. The button 161 may also include a button for receiving user input as an event for the focusing area.

마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력받고, 상기 음성 또는 사운드를 전기적인 신호로 변환한다. 본 실시예에 따른 마이크(162)는 스크린(190)을 통해 표시되는 컨텐츠들 중 포커싱 영역을 선택하기 위한 사용자의 음성 또는 사운드를 입력받아서 상기 음성 또는 사운드에 대응하는 음성 신호를 생성할 수 있다.The microphone 162 receives a voice or a sound under the control of the controller 110 and converts the voice or sound into an electrical signal. The microphone 162 according to the present embodiment may receive a voice or sound of a user for selecting a focusing area among the contents displayed through the screen 190 to generate a voice signal corresponding to the voice or sound.

예를 들어, 스크린(190)에 컨텐츠들로서 아래 표 1과 같은 텍스트들이 표시되고 있다고 가정한다.For example, assume that the texts shown in Table 1 below are displayed as contents on the screen 190. [


The Korea Meteorological Administration said on Friday that autumn leaves at Mount Seorak in Gangwon Province will begin to change on October second, which is five days later than usual.
Leaves are expected to start turning red at Mount Odae and Mount Chiak early next month, while the colors change on Mount Bukhan, Mount Songni and Mount Jiri around mid-October.

The Korea Meteorological Administration said on Friday that autumn leaves at Mount Seorak in Gangwon Province will begin to change on October, which is five days later than usual.
Mount Odae and Mount Chiak early next month, while the colors change on Mount Bukhan, Mount Songni and Mount Jiri around mid-October.

상기 컨텐츠들 중에서 특정 텍스트, 예를 들어 단어 또는 문장에 해당하는 음성 또는 사운드가 마이크(162)를 통해 사용자로부터 입력된다. 즉 디스플레이 장치(100)는, 사용자로부터 특정 단어 또는 문자에 해당하는 음성 또는 사운드를 마이크(162)를 통하여 입력받는다.A voice or sound corresponding to a specific text, for example, a word or a sentence, is input from the user through the microphone 162. That is, the display device 100 receives a voice or sound corresponding to a specific word or character from the user through the microphone 162.

이하에서는, 스크린(190)에 표시되는 컨텐츠들 중 선택된 적어도 하나의 특정 컨텐츠를 '선택 컨텐츠'라 하기로 한다. 바람직하게, 스크린(190)에 표시되는 컨텐츠들 중 마이크(162)를 통해 사용자로부터 입력되는 음성 또는 사운드에 대응하여 선택된 텍스트를 '선택 텍스트'라 하기로 한다.Hereinafter, at least one specific content selected from the content displayed on the screen 190 will be referred to as 'selected content'. Preferably, the selected text corresponding to the voice or sound input from the user through the microphone 162 among the contents displayed on the screen 190 is referred to as 'selected text'.

예를 들어, 사용자로부터 "Gangwon"에 해당하는 음성을 수신함에 따라 마이크(162)가 "Gangwon"에 해당하는 음성 신호를 생성하였다고 가정한다. 제어부(110)는 상기 음성 신호에 대응하는 선택 텍스트 "Gangwon"이 스크린(190) 상에 표시되고 있는 위치, 예를 들어 선택 텍스트의 좌표를 결정할 수 있다. 상기와 같이 제어부(110)는 상기 스크린(190)에 표시되고 있는 컨텐츠들 상에서의 상기 선택 텍스트의 위치를 결정할 수 있다.For example, it is assumed that the microphone 162 generates a voice signal corresponding to "Gangwon " upon receiving a voice corresponding to" Gangwon " from the user. The control unit 110 can determine the position of the selected text "Gangwon" corresponding to the voice signal being displayed on the screen 190, e.g., the coordinates of the selected text. As described above, the control unit 110 can determine the position of the selected text on the contents displayed on the screen 190. [

상기와 같이 선택 텍스트의 좌표가 추출되면, 제어부(110)는 상기 선택 텍스트를 포커싱하도록 스크린(190) 또는 스크린 컨트롤러(195)을 제어한다. 본 실시예에서 '포커싱'이라 함은, 상기 선택 텍스트와 같은 특정 컨텐츠를 타 컨텐츠와 구별되게 표시하는 것을 의미한다. 예를 들어, 제어부(110)는 스크린(190)을 제어하여 선택 텍스트의 폰트 사이즈를 조절하거나, 선택 텍스트의 폰트 색깔을 변경하거나, 선택 텍스트만 굵게 표시하거나, 선택 텍스트에만 밑줄을 그어 표시하거나, 선택 텍스트를 네모 박스 안에 들어가도록 하거나 또는 선택 텍스트의 배경색만을 변경함으로써 선택 텍스트를 포커싱할 수 있다. 또한 실시예에 따라 제어부(110)는 상기 선택 텍스트에 대응하는 타 컨텐츠를 표시하도록 스크린(190) 또는 스크린 컨트롤러(195)를 제어할 수도 있다.When the coordinates of the selected text are extracted as described above, the control unit 110 controls the screen 190 or the screen controller 195 to focus the selected text. In the present embodiment, 'focusing' refers to displaying specific contents such as the selected text separately from other contents. For example, the control unit 110 may control the screen 190 to adjust the font size of the selected text, change the font color of the selected text, display only the selected text in bold, underline only the selected text, The selected text can be focused by placing the selected text in a square box or by changing only the background color of the selected text. In addition, the controller 110 may control the screen 190 or the screen controller 195 to display other contents corresponding to the selected text.

상기의 표 1에 도시된 예에서 제어부(110)는 선택 텍스트인 "Gangwon"을 굵게 처리하고, 밑줄을 긋고, "Gangwon"의 배경색만을 다르게 처리함으로써 선택 텍스트인 "Gangwon"을 포커싱하였다.In the example shown in Table 1, the control unit 110 focused the selected text "Gangwon" by bolding the selection text "Gangwon ", underlining it, and processing the background color of" Gangwon &

스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예를 들어, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 디스플레이 장치(100) 외부로 출력할 수 있다. 스피커(163)는 디스플레이 장치(100)가 수행하는 기능에 대응되는 사운드(예를 들어, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 디스플레이 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다. The speaker 163 may receive a variety of signals (for example, a radio signal, a broadcast signal, a broadcast signal, a broadcast signal, and a broadcast signal) of the mobile communication module 120, the sub communication module 130, the multimedia module 140, A digital audio file, a digital moving picture file, a picture photographing, or the like) to the outside of the display apparatus 100. The speaker 163 may output sound corresponding to the function performed by the display apparatus 100 (for example, a button operation sound corresponding to a telephone call or a ring back tone). The speaker 163 may be formed at one or a plurality of positions at appropriate positions or positions of the housing of the display apparatus 100.

진동 모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 디스플레이 장치(100)가 진동 모드이고, 다른 장치(미도시)로부터 상기 디스플레이 장치(100)로 음성통화가 수신되는 경우, 진동 모터(164)가 동작한다. 이러한 진동 모터(164)는 디스플레이 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동 모터(164)는 스크린(190)의 특정 지점을 터치하는 사용자의 터치 동작 및 스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다. 실시예에 따라 진동 모터(164)는 사용자에 의해 선택 텍스트가 선택되어 포커싱 영역이 결정되면 진동을 발생시킬 수도 있다.The vibration motor 164 can convert an electrical signal into a mechanical vibration under the control of the control unit 110. [ For example, when the display device 100 is in the vibration mode and a voice call is received from the other device (not shown) to the display device 100, the vibration motor 164 operates. The vibrating motor 164 may be formed in the housing of the display device 100 in one or more. The vibration motor 164 may operate in response to a user's touching operation touching a specific point on the screen 190 and a continuous movement of the touching on the screen 190. [ According to the embodiment, the vibration motor 164 may generate vibration when the selected text is selected by the user and the focusing area is determined.

커넥터(165)는 디스플레이 장치(100)와 외부 장치(미도시) 또는 전원 소스(미도시)를 연결하기 위한 인터페이스로 이용될 수 있다. 디스플레이 장치(100)는 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 디스플레이 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(미도시)로 전송하거나 또는 외부 장치(미도시)로부터 데이터를 수신할 수 있다. 또한 디스플레이 장치(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원 소스(미도시)로부터 전원을 입력받거나, 상기 전원 소스를 이용하여 배터리(미도시)를 충전할 수 있다.The connector 165 may be used as an interface for connecting the display device 100 to an external device (not shown) or a power source (not shown). The display device 100 transmits data stored in the storage unit 175 of the display device 100 to an external device (not shown) through a cable connected to the connector 165 under the control of the controller 110, And receive data from a device (not shown). The display device 100 may receive power from a power source (not shown) through a wired cable connected to the connector 165, or may charge the battery (not shown) using the power source.

키패드(166)는 디스플레이 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 디스플레이 장치(100)에 형성되는 물리적인 키패드(미도시) 또는 스크린(190)에 표시되는 가상의 키패드(미도시)를 포함한다. 디스플레이 장치(100)에 형성되는 물리적인 키패드(미도시)는 디스플레이 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.The keypad 166 may receive a key input from a user for control of the display device 100. The keypad 166 includes a physical keypad (not shown) formed on the display device 100 or a virtual keypad (not shown) displayed on the screen 190. A physical keypad (not shown) formed on the display device 100 may be excluded depending on the performance or structure of the display device 100.

실시예에 따라 키패드(166)는 사용자로부터 선택 텍스트를 입력받을 수 있다. 표 1을 예로 들어 설명하면, 사용자는 "Gangwon"이라는 선택 텍스트를 상기 키패드(166)를 통해 입력할 수 있다. 또한 다른 실시예에 따라 키패드(166)는 선택 텍스트를 선택하기 위한 사용자 입력, 즉 문자 입력을 수신할 수도 있다. 예를 들어, 사용자가 키패드(166)를 이용하여 G를 입력하면, 텍스트 중 G가 포함된 텍스트들이 타 텍스트들과 구별되게 표시될 수 있다. 사용자는 상기 G를 포함하는 텍스트들 중 어느 하나를 선택함으로써 선택 텍스트를 입력할 수 있다.According to an embodiment, the keypad 166 may receive a selection text from a user. Taking Table 1 as an example, the user may enter a selection text "Gangwon" through the keypad 166. Also according to another embodiment, the keypad 166 may receive user input, i.e., character input, for selecting the selected text. For example, when the user inputs G using the keypad 166, texts including G among the texts may be displayed to be distinguished from other texts. The user can input the selected text by selecting any one of the texts including the G. [

또한 다른 실시예에 따라 상기 G를 포함하는 텍스트들과 같이, 디스플레이 장치(100)에 표시된 컨텐츠에 특정 문자 또는 단어가 여러 개 포함되어 있는 경우를 가정할 수 있다. 이하에서는, 상기의 표 1을 참조하여 설명하기로 한다. 사용자로부터 키패드(166)를 통해 G가 입력되면, 본 실시예에 따른 디스플레이 장치(100)는 먼저 표 1에 표시된 텍스트들 중 순서대로 Meteorological, Gangwon, begin, change, turning, change, Songni를 타 텍스트들과 다르게 표시할 수 있다. 또한 디스플레이 장치(100)는, 상기 G가 포함된 텍스트들 중 어느 하나를 선택하기 위한 사용자 입력을 재차 입력받음으로써 선택 텍스트를 입력받을 수 있다. 예를 들어, 사용자는 Songni를 선택 텍스트로서 선택할 수 있으며, 그에 따른 사용자 입력을 디스플레이 장치(100)에 입력할 수 있다. 선택 텍스트를 선택하기 위한 사용자 입력은, 음성 입력, 문자 입력, 터치 입력, 근접 센싱 입력, 카메라 모듈(150)을 통해 입력되는 사용자의 제스처, 호버링(Hoverging) 입력 등이 될 수 있다.Also, according to another embodiment, it may be assumed that the content displayed on the display device 100 includes a plurality of specific characters or words, such as the text including the G. The following description will be made with reference to Table 1 above. When G is input through the keypad 166 by the user, the display device 100 according to this embodiment is first Meteorolo as of the text as shown in Table 1 sequence g ical, Gan g won, be g in, chan g e, Turnin g , chan g e, and Son g ni can be displayed differently from other texts. Also, the display device 100 can receive the selected text by receiving a user input for selecting any one of the texts including the G. For example, the user can select Son g ni as the selected text, and input user input to the display device 100 accordingly. The user input for selecting the selected text may be a voice input, a character input, a touch input, a proximity sensing input, a user's gesture inputted through the camera module 150, a hovering input, and the like.

이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰(미도시)이 삽입되어 디스플레이 장치(100)에 연결될 수 있다.An earphone (not shown) may be inserted into the earphone connecting jack 167 to be connected to the display device 100.

카메라 모듈(150)은 제어부(110)의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1카메라(151) 및 제2카메라(152) 중 적어도 하나를 포함할 수 있다. 제1카메라(151) 또는 제2카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예를 들어 플래시(미도시))를 포함할 수 있다. 제1카메라(151)는 디스플레이 장치(100) 전면에 배치되고, 제2카메라(152)는 디스플레이 장치(100)의 후면에 배치될 수 있다. 다른 실시예에 따라 제1카메라(151)와 제2카메라(152)는 인접(예를 들어, 제1카메라(151)와 제2카메라(152)의 간격이 8cm 이하인)하게 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.The camera module 150 may include at least one of a first camera 151 and a second camera 152 for capturing still images or moving images under the control of the controller 110. [ The first camera 151 or the second camera 152 may include an auxiliary light source (for example, a flash (not shown)) which provides a light amount required for photographing. The first camera 151 may be disposed on the front surface of the display device 100 and the second camera 152 may be disposed on the rear surface of the display device 100. According to another embodiment, the first camera 151 and the second camera 152 are disposed adjacent to each other (for example, the distance between the first camera 151 and the second camera 152 is 8 cm or less) You can shoot an image or a 3D movie.

실시예에 따라 카메라 모듈(150)은 사용자로부터 제스처 입력을 수신할 수 있다. 제스처 입력은, 적어도 하나의 명령어(Command)와 대응하는 사용자의 제스처를 가리킨다. 카메라 모듈(150)은 제1카메라(151) 또는 제2카메라(152)로부터 특정 명령어에 대응하는 제스처 입력을 사용자로부터 입력받을 수 있다. 또한 저장부(175)는 명령어들 각각에 대응하는 제스처 입력을 미리 저장할 수 있다. 예를 들어, 저장부(175)에 제스처 입력으로서 사용자가 활짝 편 오른손을 좌우로 흔드는 동작이 저장되고 있고, 상기 제스처 입력은 명령어인 줌 인과 대응된다고 가정한다. 포커싱 영역에 결정된 상태에서, 예를 들어 제2카메라(152)를 통해 사용자로부터 활짝 편 오른손을 좌우로 흔드는 동작이 촬영되었다면, 제어부(110)는 스크린(190) 또는 스크린 컨트롤러(195)를 제어하여 상기 포커싱 영역을 줌 인할 수 있다.According to an embodiment, camera module 150 may receive gesture input from a user. The gesture input indicates a gesture of the user corresponding to at least one command. The camera module 150 can receive a gesture input corresponding to a specific command from the first camera 151 or the second camera 152 from the user. The storage unit 175 may also store gesture input corresponding to each of the instructions in advance. For example, assume that a user has stored an operation of swinging a right-handed right-handed left-handed person as a gesture input in the storage unit 175, and the gesture input corresponds to a zoom-in command as an instruction. The controller 110 controls the screen 190 or the screen controller 195 to move the right hand to the left or right in a state in which the right and left hands are shaken from the user through the second camera 152, The focusing area can be zoomed in.

저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 디스플레이 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.The storage unit 175 is connected to the mobile communication module 120, the sub communication module 130, the multimedia module 140, the camera module 150, the GPS module 155, the input / And may store signals or data input / output corresponding to operations of the sensor module 160, the sensor module 170, and the screen 190. [ The storage unit 175 may store control programs and applications for controlling the display device 100 or the control unit 110. [

'저장부'라는 용어는 저장부(175), 제어부(110) 내의 롬(112), 램(113) 또는 디스플레이 장치(100)에 장착되는 메모리 카드(미도시)(예, SD 카드, 메모리 스틱)을 포함한다. 저장부(175)는 비휘발성 메모리, 휘발성 메모리, 하드디스크 드라이브(HDD) 및 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다.The term 'storage unit' refers to a storage unit 175, a ROM 112 in the control unit 110, a RAM 113 or a memory card (not shown) mounted on the display device 100 ). The storage unit 175 may include at least one of a nonvolatile memory, a volatile memory, a hard disk drive (HDD), and a solid state drive (SSD).

본 실시예에 따른 저장부(175)에는 마이크(162)를 통해 생성되는 음성 신호들이 저장될 수 있다. 또한 상기 음성 신호들 각각에 대응하는 동작 또는 명령어(command)들이 저장될 수 있다.In the storage unit 175 according to the present embodiment, voice signals generated through the microphone 162 may be stored. Also, operations or commands corresponding to each of the voice signals may be stored.

사용자가 마이크(162)를 통해 선택 텍스트에 대응하는 음성을 입력하면, 상기 마이크(162)는 상기 음성을 이용하여 음성 신호를 생성한다. 그에 따라 상기 음성 신호에 대응하는 선택 텍스트가 포커싱될 수 있다. 또한 마이크(162)는 컨텐츠 상에서 포커싱된 부분, 즉 포커싱 영역에 대한 이벤트를 사용자로부터 음성 또는 사운드로서 입력받을 수 있다.When the user inputs a voice corresponding to the selected text through the microphone 162, the microphone 162 generates the voice signal using the voice. Whereby the selected text corresponding to the speech signal can be focused. In addition, the microphone 162 can receive a focused part, i.e., an event for focusing area, as a voice or a sound from a user.

예를 들어, 마이크(162)를 통해 "Zoom in"이라는 음성이 사용자로부터 입력되었다면, 마이크(162)는 "Zoom in"에 해당하는 음성 신호를 생성한다. 제어부(110)는 상기 "Zoom in"이라는 음성 신호에 대응하는 동작을 수행하도록 디스플레이 장치(100)를 제어할 수 있다. 또한 저장부(170)에는 음성 신호 "Zoom in"에 대응하는 명령어가 미리 설정되어 저장되어 있을 수 있다. 예를 들어 "Zoom in"이라는 음성 신호에 대응하는 동작이 포커싱 영역을 확대하는 것이라고 가정하면, 제어부(110)는 스크린(190)을 제어하여 포커싱 영역을 확대 표시할 수 있다.For example, if a voice "Zoom in" is input from the user through the microphone 162, the microphone 162 generates a voice signal corresponding to "Zoom in". The control unit 110 may control the display device 100 to perform an operation corresponding to the voice signal "Zoom in ". In addition, a command corresponding to the voice signal "Zoom in" may be stored in the storage unit 170 in advance. For example, if it is assumed that the operation corresponding to the voice signal of "Zoom in " is to enlarge the focusing area, the control unit 110 may control the screen 190 to enlarge and display the focusing area.

실시예에 따라 저장부(175)에는 포커싱 영역에 대한 이벤트, 즉 포커싱 영역을 줌 인, 줌 아웃하거나 포커싱 영역을 상하 또는 좌우로 이동시키거나 또는 상기 포커싱 영역을 확장하기 위한 각종 사용자 입력에 대응하는 명령어 또는 동작이 저장될 수 있다.According to an embodiment, the storage unit 175 may store events corresponding to various user inputs for zooming in, zooming out or focusing the focusing area, moving the focusing area vertically or horizontally, or expanding the focusing area, A command or an action may be stored.

스크린(190)은 사용자에게 다양한 서비스(예를 들어, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 인터페이스를 제공할 수 있다. 스크린(190)은, 예를 들어 터치스크린으로 구현되어 사용자 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 스크린 컨트롤러(195)로 전송할 수 있다. 상기 터치스크린으로 구현되는 경우, 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예를 들어, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한 스크린(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 스크린 컨트롤러(195)로 전송할 수 있다. The screen 190 may provide a user interface corresponding to various services (e.g., call, data transfer, broadcast, picture taking) to the user. The screen 190 may be implemented as a touch screen, for example, and may transmit an analog signal corresponding to at least one touch input to the user interface to the screen controller 195. When implemented with the touch screen, the screen 190 may receive at least one touch via a user's body (e.g., a finger including a thumb) or a touchable input means (e.g., a stylus pen) have. Also, the screen 190 can receive a continuous movement of one touch among at least one touch. The screen 190 may transmit an analog signal corresponding to the continuous movement of the input touch to the screen controller 195.

본 발명에서 터치는 스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예, 스크린(190))과 사용자의 신체 또는 터치 가능한 입력 수단과 검출 가능한 간격이 1mm 이상)을 포함할 수 있다. 스크린(190)에서 검출 가능한 간격은 디스플레이 장치(100)의 성능 또는 구조에 따라 변경될 수 있다.In the present invention, the touch is not limited to the contact between the screen 190 and the user's body or touchable input means, but may be a contactless (e.g., screen 190) Or more). The interval that can be detected on the screen 190 may be changed according to the performance or structure of the display apparatus 100. [

스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식의 터치 스크린으로 구현되어 사용자 입력을 직접 수신할 수 있다.The screen 190 may be implemented as a resistive, capacitive, infrared or acoustic wave touch screen to receive user input directly, for example.

본 실시예에 따른 스크린(190)은 제어부(110)의 제어에 따라 컨텐츠 중에서도 포커싱 영역을 포커싱되지 않은 컨텐츠들, 즉 비 포커싱 영역과 구별되도록 표시할 수 있다. 또한 포커싱 영역에 대한 이벤트가 발생되면 스크린(190)은 해당 이벤트에 따라 포커싱 영역을 줌 인, 줌 아웃하거나, 또는 상기 포커싱 영역이 상하 또는 좌우로 움직이도록 표시하거나 또는 상기 포커싱 영역에 대응하는 명령어 또는 동작을 실행하여 표시할 수 있다.According to the control of the controller 110, the screen 190 according to the present embodiment may display the focusing area in the content to be distinguished from the unfocused contents, i.e., the non-focusing area. In addition, when an event for the focusing area is generated, the screen 190 zooms in and out of the focusing area according to the event, or displays the focusing area to move up or down or left or right, or a command corresponding to the focusing area The operation can be performed and displayed.

이동통신 모듈(120)은 제어부(110)의 제어하에 적어도 하나의 안테나(미도시)를 이용하여 디스플레이 장치(100)가 외부 장치와 연결되도록 한다. 이때 디스플레이 장치(100)와 외부 장치는 이동 통신을 통해 연결될 수 있다. 이동통신 모듈(120)은 디스플레이 장치(100)에 입력되는 전화번호를 가지는 휴대폰, 스마트폰, 태블릿 PC 또는 다른 장치와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신할 수 있다. The mobile communication module 120 allows the display device 100 to be connected to an external device using at least one antenna (not shown) under the control of the controller 110. At this time, the display device 100 and the external device can be connected through mobile communication. The mobile communication module 120 is a wireless communication module for communicating with a mobile phone, a smartphone, a tablet PC or other device having a phone number input to the display device 100 for a voice call, a video call, a text message (SMS) Signal can be transmitted / received.

서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함할 수 있으며, 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수도 있다.The sub communication module 130 may include at least one of a wireless LAN module 131 and a local area communication module 132. For example, the wireless LAN module 131 may include only the wireless LAN module 131 or only the local communication module 132, and may include both the wireless LAN module 131 and the local communication module 132.

무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(미도시)가 설치된 장소에서 인터넷에 연결될 수 있다. 즉 무선랜 모듈(131)은 디스플레이 장치(100)의 무선 인터넷 연결을 지원한다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다.The wireless LAN module 131 can be connected to the Internet at a place where an access point (AP) (not shown) is installed under the control of the controller 110. [ That is, the wireless LAN module 131 supports the wireless Internet connection of the display device 100. The wireless LAN module 131 supports the IEEE 802.11x standard of the Institute of Electrical and Electronics Engineers (IEEE).

근거리통신 모듈(132)은 제어부(110)의 제어에 따라 디스플레이 장치(100)와 화상형성장치(미도시) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.The short-range communication module 132 can perform short-range wireless communication between the display device 100 and the image forming apparatus (not shown) under the control of the controller 110. [ The short-distance communication method may include bluetooth, infrared data association (IrDA), WiFi-Direct communication, and Near Field Communication (NFC).

멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다.The multimedia module 140 may include a broadcasting communication module 141, an audio reproducing module 142, or a moving picture reproducing module 143.

방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(미도시)를 통해 방송국에서부터 송출되는 방송 신호(예를 들어, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예를 들어 EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다.The broadcast communication module 141 receives a broadcast signal (for example, a TV broadcast signal, a radio broadcast signal or a data broadcast signal) and a broadcast signal transmitted from a broadcast station through a broadcast communication antenna (not shown) under the control of the controller 110 (E. G., An Electric Program Guide (EPS) or an Electric Service Guide (ESG)).

오디오 재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다.The audio playback module 142 may play back a digital audio file (e.g., a file having a file extension of mp3, wma, ogg, or wav) stored or received under the control of the controller 110. [

동영상 재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예를 들어, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상 재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.The moving picture playback module 143 can play back digital moving picture files (for example, files having file extensions mpeg, mpg, mp4, avi, mov, or mkv) stored or received under the control of the controller 110 . The moving picture reproducing module 143 can reproduce the digital audio file.

도 1에서는 방송통신 모듈(141), 오디오 재생 모듈(142), 동영상 재생 모듈(143)을 모두 포함하는 멀티미디어 모듈(140)을 도시하고 있으나, 다른 실시예에 따라 멀티미디어 모듈(140)은 오디오 재생 모듈(142) 및 동영상 재생 모듈(143)만을 포함하여 구현될 수도 있다. 또한 멀티미디어 모듈(140)의 오디오 재생 모듈(142) 또는 동영상 재생 모듈(143)은 제어부(110)에 포함되는 형태로 구현될 수 있다.1 illustrates a multimedia module 140 including a broadcasting communication module 141, an audio reproducing module 142 and a moving picture reproducing module 143. According to another embodiment of the present invention, Module 142 and the moving picture reproducing module 143. [ The audio reproducing module 142 or the moving picture reproducing module 143 of the multimedia module 140 may be embodied in the controller 110.

본 실시예에 따른 멀티미디어 모듈(140)의 방송통신 모듈(141)은 마이크(162)에 의하여 생성된 음성 신호에 따라 방송 신호를 재생, 재생정지, 빨리감기, 되감기, 특정 부분 반복재생하거나 방송신호의 볼륨을 증가 또는 감소시킬 수 있으며, 방송채널을 변경할 수 있다. 예를 들어, 마이크(162)를 통해 "play"에 해당하는 음성이 사용자로부터 입력되었다면 방송통신 모듈(141)은 방송 신호를 재생하고, 마이크(162)를 통해 "rewind"에 해당하는 음성이 입력되었다면 방송통신 모듈(141)은 방송 신호를 되감아 다시 재생할 수 있다.The broadcast communication module 141 of the multimedia module 140 according to the present embodiment can reproduce, stop, fast forward, rewind, or repeat a specific part of a broadcast signal according to a voice signal generated by the microphone 162, The volume of the broadcast channel can be increased or decreased, and the broadcast channel can be changed. For example, if a voice corresponding to "play" is inputted from the user through the microphone 162, the broadcasting communication module 141 reproduces the broadcasting signal, and a voice corresponding to "rewind " The broadcast communication module 141 can rewind the broadcast signal and reproduce it again.

마찬가지로 오디오 재생 모듈(142)은 마이크(162)에 의하여 생성된 음성 신호에 따라 디지털 오디오 파일를 재생, 재생정지, 빨리감기, 되감기, 특정 부분 반복재생하거나 디지털 오디오 파일의 볼륨을 증가 또는 감소시킬 수 있다.Similarly, the audio playback module 142 can play back, stop playback, fast forward, rewind, repeat a certain portion of a digital audio file, or increase or decrease the volume of a digital audio file according to the audio signal generated by the microphone 162 .

동영상 재생 모듈(143)도 마이크(162)에 의하여 생성된 음성 신호에 따라 디지털 동영상 파일를 재생, 재생정지, 빨리감기, 되감기, 특정 부분 반복재생하거나 디지털 동영상 파일의 볼륨을 증가 또는 감소시킬 수 있다.The moving picture reproducing module 143 can also reproduce, stop, fast forward, rewind, or repeat a specific part of a digital moving picture file or increase or decrease the volume of a digital moving picture file according to a voice signal generated by the microphone 162.

GPS 모듈(153)은 지구 궤도상에 있는 복수의 GPS 위성(미도시)에서부터 전파를 수신하고, GPS 위성에서부터 디스플레이 장치(100)까지 전파 도달 시간(Time of Arrival)을 이용하여 디스플레이 장치(100)의 위치를 산출할 수 있다.The GPS module 153 receives radio waves from a plurality of GPS satellites (not shown) on the earth orbit and transmits the waves to the display device 100 using the time of arrival from the GPS satellites to the display device 100. [ Can be calculated.

센서 모듈(170)은 디스플레이 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서 모듈(170)은 사용자의 디스플레이 장치(100)에 대한 접근 여부를 검출하는 근접 센서, 디스플레이 장치(100) 주변의 빛의 양을 검출하는 조도 센서, 디스플레이 장치(100)의 동작(예를 들어, 디스플레이 장치(100)의 회전, 디스플레이 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 모션 센서, 지구 자기장을 이용해 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 측정하는 고도계(Altimeter) 중 적어도 하나를 포함할 수 있다. 적어도 하나의 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서 모듈(170)의 센서는 디스플레이 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.The sensor module 170 includes at least one sensor for detecting the state of the display device 100. [ For example, the sensor module 170 may include a proximity sensor that detects whether the user accesses the display device 100, an illuminance sensor that detects the amount of light around the display device 100, an operation of the display device 100 (For example, rotation of the display device 100, acceleration or vibration applied to the display device 100), a geomagnetic sensor for detecting a point of the compass using a geomagnetic field, a magnetic sensor for detecting the direction of action of gravity, a gravity sensor for detecting the direction of action of gravity, and an altimeter for measuring the altitude by measuring the pressure of the atmosphere. At least one of the sensors may detect the state, generate a signal corresponding to the detection, and transmit the signal to the control unit 110. The sensor of the sensor module 170 may be added or deleted depending on the performance of the display device 100. [

본 실시예에 따른 센서 모듈(170)은 근접 센서를 포함할 수 있다. 근접 센서는 스크린(190)과 근접한 일정 범위를 통해 감지되는 사용자의 움직임(예를 들어, 사용자 손가락의 움직임)을 감지하는 센서이다. 예를 들어, 스크린(190)이 정전 용량 방식으로 구현되었다면, 근접 센서로 구현된 센서 모듈(170)은 상기 스크린(190)의 일정 범위(예를 들어, 스크린(190)으로부터 10cm 높이 이내)에서 발생하는 정전용량의 변화를 감지함으로써 사용자의 움직임을 검출할 수 있다.The sensor module 170 according to the present embodiment may include a proximity sensor. The proximity sensor is a sensor that detects movement of the user (e.g., movement of the user's finger) detected through a certain range close to the screen 190. For example, if the screen 190 is implemented in a capacitive manner, the sensor module 170 implemented with the proximity sensor may be positioned within a certain range of the screen 190 (e.g., within 10 cm of the screen 190) The movement of the user can be detected by detecting the change in the capacitance that is generated.

본 실시예에 따른 근접 센서는 선택 컨텐츠를 선택하거나 또는 포커싱 영역을 확장하기 위한 사용자 입력, 예를 들어 사용자 손가락의 움직임을 감지할 수 있다. 근접 센서를 통해 상기와 같은 사용자 입력이 입력되면, 제어부(110)는 스크린(190)을 제어하여 포커싱 영역을 포커싱하거나 또는 포커싱 영역을 확장할 수 있다.The proximity sensor according to the present embodiment can detect a user input, for example, the movement of a user's finger, for selecting a selected content or extending a focusing area. When the user input is input through the proximity sensor, the controller 110 controls the screen 190 to focus the focusing area or extend the focusing area.

근접 센서는 스크린(190)을 통해 표시되는 컨텐츠들 중 어느 하나를 선택하기 위한 사용자 입력을 수신할 수 있다. 사용자는 예를 들어, 스크린(190) 표면으로부터 3cm 떨어진 범위 이내까지의 정전용량을 변화시킴으로써 사용자 입력, 즉 근접 센싱 입력을 디스플레이 장치(100)에 입력시킬 수 있다. 상기와 같이 근접 센서는 포커싱 영역을 선택하기 위한 근접 센싱 입력을 감지할 수 있다. 제어부(110)는 상기 근접 센싱 입력이 감지된 위치에 대응하는, 스크린(190) 상에서의 특정 위치의 좌표를 결정할 수 있다. 또한 제어부(110)는 상기 근접 센싱 입력에 대응하는 스크린(190) 상에서의 특정 위치를 포커싱 영역으로 결정할 수 있다.The proximity sensor may receive a user input for selecting any of the displayed content via the screen 190. The user can input a user input, that is, a proximity sensing input, to the display device 100, for example, by varying the capacitance to within 3 cm from the surface of the screen 190. As described above, the proximity sensor can sense the proximity sensing input for selecting the focusing area. The controller 110 may determine the coordinates of a particular location on the screen 190 corresponding to the location where the proximity sensing input was sensed. In addition, the controller 110 may determine a specific position on the screen 190 corresponding to the proximity sensing input as a focusing area.

전원 공급부(180)는 제어부(110)의 제어에 따라 디스플레이 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리에 전원을 공급할 수 있다. 하나 또는 복수의 배터리는 디스플레이 장치(100)에 전원을 공급한다. 또한, 전원 공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원 소스에서부터 입력되는 전원을 디스플레이 장치(100)로 공급할 수 있다. 또한 전원 공급부(180)는 무선 충전 기술을 통해 외부의 전원 소스로부터 무선으로 입력되는 전원을 디스플레이 장치(100)로 공급할 수도 있다.The power supply unit 180 may supply power to one or a plurality of batteries disposed in the housing of the display device 100 under the control of the controller 110. One or a plurality of batteries supply power to the display apparatus 100. In addition, the power supply unit 180 can supply the display device 100 with power input from an external power source through a wired cable connected to the connector 165. Also, the power supply unit 180 may supply the display device 100 with power that is wirelessly input from an external power source through wireless charging technology.

스크린 컨트롤러(195)는 스크린(190)을 제어한다. 스크린(190)이 예를 들어 터치스크린으로 구현된 경우, 스크린 컨트롤러(195)는 상기 터치스크린을 통해 수신된 아날로그 신호, 예를 들어 터치 입력를 디지털 신호(예를 들어, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 입력에 응답하여 스크린(190)에 표시된 단축 아이콘(미도시)이 선택되게 하거나 또는 단축 아이콘(미도시)에 대응하는 프로그램 또는 동작을 실행할 수 있다. 또한 스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.The screen controller 195 controls the screen 190. When the screen 190 is implemented as a touch screen, for example, the screen controller 195 converts the analog signal received through the touch screen, e.g., the touch input, into a digital signal (e.g., X and Y coordinates) And transmits it to the control unit 110. The control unit 110 can control the screen 190 using the digital signal received from the screen controller 195. For example, the control unit 110 may cause a shortcut icon (not shown) displayed on the screen 190 to be selected or a program or an action corresponding to a shortcut icon (not shown) in response to a touch input. Also, the screen controller 195 may be included in the control unit 110. [

본 실시예에 따른 스크린 컨트롤러(195)는, 포커싱 영역에 대한 이벤트로써 터치 입력이 스크린(190)을 통해 입력되면 상기 터치 입력이 입력된 지점의 스크린(190) 상의 좌표(예를 들어, X좌표와 Y좌표)를 추출하여 제어부(110)로 전달할 수 있다.The screen controller 195 according to the present embodiment is an event for the focusing area and when a touch input is inputted through the screen 190, the coordinates on the screen 190 at the point where the touch input is inputted And the Y coordinate) to the control unit 110.

다른 실시예에 따라 스크린 컨트롤러(195)는 센서 모듈(170)에 의해 감지된 근접 센싱 입력에 대응하는 스크린(190) 상에서의 좌표를 추출할 수도 있다. 예를 들어, 센서 모듈(170)을 통하여 스크린(190)과 근접한 일정 범위 내의 한 지점(제1지점)을 선택하기 위한 근접 센싱 입력이 감지되었다고 가정한다. 또한 설명의 편이를 위하여 근접 센싱이 정전 용량 방식으로 구현되었다고 가정한다. 센싱 모듈(170)은 스크린(190)의 일정 범위 내에서 발생하는 정전용량의 변화를 감지하고, 제어부(110)는 정전용량이 변화한 지점(제1지점)에 대응하는 스크린(190) 상의 지점(제2지점)의 좌표를 추출하도록 스크린 컨트롤러(195)를 제어할 수 있다. 예를 들어, 제2지점은, 상기 제1지점으로부터 가장 가까운 거리에 위치한 스크린(190) 상의 한 점일 수 있다.The screen controller 195 may extract coordinates on the screen 190 corresponding to the proximity sensing input sensed by the sensor module 170 according to another embodiment. For example, it is assumed that a proximity sensing input for selecting a point (first point) within a certain range close to the screen 190 through the sensor module 170 is detected. It is also assumed that proximity sensing is implemented in a capacitive manner for ease of explanation. The sensing module 170 senses a change in the electrostatic capacity occurring within a certain range of the screen 190 and the control unit 110 controls the operation of the sensing unit 170 on a point 190 on the screen 190 corresponding to a point (The second point) of the screen. For example, the second point may be a point on the screen 190 that is the closest distance from the first point.

실시예에 따라 디스플레이 장치(100)는 서브통신 모듈(130), 커넥터(165) 및 이어폰 연결잭(167)과 같은 외부 장치 연결부를 이용하여 외부 장치(미도시)와 연결될 수 있다.The display device 100 may be connected to an external device (not shown) using an external device connection unit such as a sub communication module 130, a connector 165, and an earphone connection jack 167. [

"외부 장치"는 디스플레이 장치(100)에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들/도크(Cradle/Dock), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 내비게이션 장치 등 다양한 장치들을 포함할 수 있다. 또한 "외부 장치"는 근거리 통신에 의하여 무선으로 디스플레이 장치(100)에 연결될 수 있는 블루투스 통신 장치, NFC(Near Field Communication) 장치와 같은 근거리 통신 장치 및 WiFi Direct 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 또한 외부 장치는 다른 장치, 휴대폰, 스마트폰, 태블릿PC, 데스크탑 PC 및 서버를 포함할 수 있다.An external speaker, a universal serial bus (USB) memory, a charger, a cradle / dock, a DMB antenna, and the like, which are detachably attached to the display device 100 and can be connected by wire, , Mobile payment related devices, health care devices (blood glucose meters, etc.), game devices, car navigation devices, and the like. The term "external device" includes a Bluetooth communication device, a short distance communication device such as a NFC (Near Field Communication) device and a WiFi direct communication device, a wireless access point (AP, Access Point). The external device may also include other devices, mobile phones, smart phones, tablet PCs, desktop PCs and servers.

도 2는 도 1에 도시된 디스플레이 장치가 스크린을 통해 표시되는 컨텐츠를 제어하는 방법을 나타낸 순서도이다.2 is a flowchart illustrating a method of controlling contents displayed on a screen by the display device shown in FIG.

도 2를 참조하면, 먼저 디스플레이 장치(100)는 스크린(190)에 적어도 하나의 컨텐츠를 표시한다(S202). 이때 스크린(190)에 표시되는 컨텐츠들은 적어도 하나의 텍스트를 포함하는 것으로 가정한다.Referring to FIG. 2, the display apparatus 100 displays at least one content on the screen 190 (S202). It is assumed that the contents displayed on the screen 190 include at least one text.

스크린(190)에 컨텐츠가 표시되면, 마이크(162)는 사용자로부터 선택 컨텐츠, 예를 들어 선택 텍스트를 선택하기 위한 음성을 입력받고, 상기 음성을 전기적 신호로 변환함으로써 음성 신호를 생성한다(S204). 이때 사용자로부터 입력되는 음성은 스크린(190)에 표시되고 있는 컨텐츠들 중 적어도 하나의 텍스트, 즉 단어 또는 문장일 수 있다.When the content is displayed on the screen 190, the microphone 162 receives a voice for selecting the selected content, for example, a selected text from the user, and converts the voice into an electrical signal to generate a voice signal (S204) . At this time, the voice input from the user may be at least one of the contents displayed on the screen 190, that is, words or sentences.

음성 신호가 생성되면, 제어부(110)는 상기 음성 신호에 대응하는 선택 텍스트의 좌표를 결정한다(S206). 선택 텍스트의 좌표가 결정되면, 제어부(110)는 스크린(190) 또는 스크린 컨트롤러(195)를 제어하여 상기 선택 텍스트를 포커싱한다(S208). When the voice signal is generated, the control unit 110 determines the coordinates of the selected text corresponding to the voice signal (S206). When the coordinates of the selected text are determined, the control unit 110 controls the screen 190 or the screen controller 195 to focus the selected text (S208).

단계 S208에서의 포커싱은 스크린(190)을 통해 표시되고 있는 컨텐츠들, 예를 들어 다수의 텍스트들 중에서도 선택 텍스트가 선택되었음을 표시하기 위하여 상기 선택 텍스트를 타 텍스트들과 구별되도록 표시함을 의미한다. 상기와 같이, 스크린(190) 상에서 표시되고 있는 텍스트들 중 타 텍스트와 구별되도록 표시된 영역을 "포커싱 영역"이라 한다.Focusing at step S208 means displaying the selected text to distinguish it from other texts to indicate that the selected text is selected among the contents being displayed through the screen 190, for example, among a plurality of texts. As described above, an area indicated to be distinguished from other text among the texts displayed on the screen 190 is called a "focusing area ".

예를 들어, "Korea mobile traffic to increase ten fold…"라는 문장이 스크린(190)을 통해 표시되고 있고, 사용자로부터 마이크(162)를 통해 "mobile"에 해당하는 음성을 입력받았다고 가정한다. 제어부(110)는 "mobile"을 "Korea", "traffic", "to", "increase", "ten", "fold" 등과 구별되게 표시하도록 스크린(190) 또는 스크린 컨트롤러(195)를 제어한다. 그에 따라 스크린(190)은, 예를 들어 상기 "Korea mobile traffic to increase ten fold…"을 "Korea mobile traffic to increase ten fold…"으로 표시할 수 있다. 이때, " mobile "이 포커싱 영역이다.For example, it is assumed that the sentence "Korea mobile traffic to increase ten fold ..." is displayed on the screen 190 and that a voice corresponding to "mobile" is received from the user through the microphone 162. The control unit 110 controls the screen 190 or the screen controller 195 to display "mobile" differently from "Korea", "traffic", "to", "increase", "ten" . Accordingly, the screen 190 can display, for example, "Korea mobile traffic to increase ten fold ..." as "Korea mobile traffic to increase ten fold ...". At this time, " mobile " is the focusing area.

이후 제어부(110)는 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 판단한다(S210). 포커싱 영역에 대한 이벤트는, 예를 들어 포커싱 영역을 줌 인(Zoom-in)하기 위한 사용자 입력, 줌 아웃(Zoom-out)하기 위한 사용자 입력, 상기 포커싱 영역의 상하좌우에 위치한 컨텐츠를 상기 포커싱 영역과 함께 선택하기 위한 사용자 입력, 상기 포커싱 영역을 중심으로 스크린(190)에 표시되고 있는 컨텐츠들을 상하좌우로 이동시키기 위한 사용자 입력, 상기 포커싱 영역을 확장하기 위한 사용자 입력, 상기 포커싱 영역에 대응하는 명령어 또는 동작을 실행시키기 위한 사용자 입력 등을 포함할 수 있다.Thereafter, the controller 110 determines whether an event for the focusing area has occurred (S210). The event for the focusing area includes, for example, a user input for zooming in on the focusing area, a user input for zooming out, A user input for moving the contents displayed on the screen 190 in the vertical and horizontal directions, a user input for expanding the focusing area, a command corresponding to the focusing area, Or a user input for executing an operation.

단계 S210의 판단 결과, 포커싱 영역에 대한 이벤트가 발생한 경우(S210: 예), 디스플레이 장치(100)는 상기 이벤트에 따른 동작을 수행한다(S212).If it is determined in step S210 that an event has occurred for the focusing area (S210: YES), the display device 100 performs an operation according to the event (S212).

단계 S210의 판단 결과 포커싱 영역에 대한 이벤트가 발생하지 않은 경우(S210: 아니오), 디스플레이 장치(100)는 별도의 동작을 수행하지 않고 현재 상태를 유지할 수 있다.If it is determined in step S210 that no event has occurred for the focusing area (S210: NO), the display device 100 can maintain the current state without performing any other operation.

도 2에서는 디스플레이 장치(100)가 단계 S204에서 생성된 음성 신호를 이용하여 선택 컨텐츠를 결정함으로써 포커싱 영역을 결정하였으나, 다른 실시예에 따른 디스플레이 장치(100)는 마이크(162)를 통해 카메라 모듈(150)을 통해 입력되는 제스처 입력, 스크린(190)을 통해 사용자로부터 입력되는 터치 입력, 상기 스크린(190)으로부터 미리 저장된 범위(예를 들어, 스크린(190)으로부터 1cm 이격된 높이 이내) 내에서 센서 모듈(170)을 통해 감지되는 근접 센싱 입력 등을 이용하여 포커싱 영역을 결정할 수도 있다.2, the display device 100 determines the focusing area by determining the selected content using the audio signal generated in step S204. However, the display device 100 according to another embodiment may determine the focusing area through the camera module (E.g., within a height of 1 cm from the screen 190) from the screen 190, a gesture input input through the screen 190, a gesture input through the screen 190, a touch input from the user via the screen 190, The focusing area may be determined using a proximity sensing input sensed through the module 170. [

도 3a 및 도 3b는 도 1에 도시된 디스플레이 장치에 의하여 선택 텍스트가 포커싱되는 일 예를 도시한 도면이다.FIGS. 3A and 3B are diagrams illustrating an example in which selected text is focused by the display device shown in FIG. 1. FIG.

도 3a는 디스플레이 장치(100)가 사용자로부터 선택 텍스트를 선택하기 위한 음성을 입력받는 일 예를 나타낸 도면이다. 도 3a를 참조하면, 디스플레이 장치(100)의 마이크(162)는 디스플레이 장치(100)의 스크린(190)에 표시되는 컨텐츠들, 특히 텍스트들 중 어느 하나를 선택하기 위한 음성을 사용자(350)로부터 입력받는다. 도 3a 및 도 3b에서는 teacher를 선택하기 위한 음성이 사용자로부터 입력된 것으로 가정한다. 마이크(162)는, 사용자로부터 입력받은 음성을 이용하여 음성 신호, 즉 스크린(190)에 표시되고 있는 텍스트들 중 teacher에 대응하는 음성 신호를 생성한다. 제어부(110)는 상기 음성 신호를 이용하여 선택 텍스트의 좌표를 결정한다. 본 실시예에서 포커싱 영역은, 선택 텍스트를 적어도 일부 포함하는 특정 영역이다. 따라서 선택 텍스트의 좌표가 결정되면, 제어부(110)는 포커싱 영역 또한 결정할 수 있다.3A is a diagram illustrating an example in which a display device 100 receives a voice for selecting a selected text from a user. 3A, the microphone 162 of the display device 100 receives a voice from the user 350 to select any one of the contents displayed on the screen 190 of the display device 100, Receive input. In FIGS. 3A and 3B, it is assumed that a voice for selecting a teacher is input from a user. The microphone 162 generates a voice signal, that is, a voice signal corresponding to the teacher among the texts displayed on the screen 190, using the voice input from the user. The control unit 110 determines the coordinates of the selected text using the voice signal. In this embodiment, the focusing area is a specific area including at least a part of the selected text. Accordingly, when the coordinates of the selected text are determined, the control unit 110 can also determine the focusing area.

도 3b는 도 3a에서 입력된 음성에 대응하는 포커싱 영역을 포커싱하는 일 예를 나타낸 도면이다. 본 실시예에서 '포커싱'은, 선택 텍스트를 적어도 일부 포함하는 포커싱 영역이, 타 컨텐츠들과 구별되도록 표시하는 것을 의미한다. 도 3b에서, 제어부(110)는 선택 텍스트 teacher를 줌 인하고, 선택 텍스트 teacher가 네모 박스 안에 들어가도록 함으로써 포커싱 영역을 포커싱하고 있다.FIG. 3B is a diagram illustrating an example of focusing a focusing area corresponding to the input speech in FIG. 3A. In the present embodiment, 'focusing' indicates that the focusing area including at least a part of the selected text is distinguished from other contents. In FIG. 3B, the control unit 110 focuses the focusing area by zooming in on the selection text teacher and making the selection text teacher enter the square box.

도 4는 도 1에 도시된 디스플레이 장치가 음성 신호에 대응하는 컨텐츠를 포커싱하는 다른 예를 나타낸 도면이다.FIG. 4 is a view showing another example in which the display device shown in FIG. 1 focuses content corresponding to a voice signal.

도 4에서 스크린(190)은 사진 이미지(400)를 표시하고 있으며, 디스플레이 장치(100)의 저장부(175)에는 상기 사진 이미지(400)에 포함된 두 인물에 대한 각종 정보를 이미 저장 중인 것으로 가정한다. 예를 들어, 사진 이미지(이하, '원본 이미지'라 한다)에서 좌측 인물의 이름은 Paul(401)이고, 우측 인물의 이름은 John(402)인 것으로 저장부(175)에 미리 저장되었다고 가정한다. 즉 본 실시예에 따른 저장부(175), 특히나 주소록에는 전화번호에 대응하여 이름, 인물 이미지 등이 대응되어 저장될 수 있다. 실시예에 따라 디스플레이 장치(100)는, 예를 들어 주소록에 등록된 이름 중 어느 하나에 해당하는 음성이 사용자로부터 입력되면, 해당 이름과 대응되는 인물 이미지를 표시하거나 또는 해당 이름에 대응되는 전화번호를 이용하여 통화를 수행할 수 있다.4, the screen 190 displays a photographic image 400, and the storage unit 175 of the display device 100 is already storing various information about the two persons included in the photographic image 400 I suppose. For example, it is assumed that the name of the left person is Paul (401) and the name of the right person is John (402) in the photographic image (hereinafter referred to as 'original image') and stored in the storage unit 175 in advance . That is, the name, the portrait image, and the like may be stored corresponding to the telephone number in the storage unit 175 according to the present embodiment, particularly in the address book. According to the embodiment, when a voice corresponding to one of the names registered in the address book is inputted from the user, the display device 100 displays a portrait image corresponding to the name, or displays a phone number corresponding to the name Can be used to perform the call.

도 4에서 디스플레이 장치(100)는, 스크린(190)을 통해 표시되고 있는 원본 이미지(400)에 포함된 인물들 중 한 인물을 선택하기 위한 음성을 사용자로부터 입력받고, 선택된 인물을 포커싱하는 일 예를 나타내고 있다.4, the display apparatus 100 receives a voice for selecting one of the persons included in the original image 400 displayed through the screen 190 from the user, and focuses the selected person Respectively.

도 4에서 디스플레이 장치(100)의 마이크(162)는 사용자로부터 "Paul"이라는 음성을 입력받을 수 있다. Paul(401)은 사진 이미지(400)에 포함된 인물들 중에서도 좌측 인물에 해당한다. 제어부(110)는 원본 이미지(400) 중에서도 Paul(401)이 차지하고 있는 부분을 포커싱 영역으로 결정한다.In Fig. 4, the microphone 162 of the display device 100 can receive the voice "Paul" from the user. Paul 401 corresponds to the left figure among the characters included in the photographic image 400. The control unit 110 determines a portion occupied by the Paul 401 among the original image 400 as the focusing area.

본 실시예에서 제어부(110)는 사진 이미지(400)에서 Paul(401)을 제외한 나머지 영역을 블러처리함으로써, Paul(401)을 포커싱할 수 있다. 도 4에 도시된 바와 같이 제어부(110)는 원본 이미지(400)를, Paul(401)이 포커싱된 변환 이미지(410)으로 변환할 수 있다. 또한 스크린(190)은 상기 변환 이미지(410)를 표시할 수 있다.In this embodiment, the control unit 110 can focus the Paul 401 by blurring the remaining area of the photographic image 400 except for the Paul 401. 4, the control unit 110 may convert the original image 400 into a converted image 410 in which the Paul 401 is focused. The screen 190 may also display the transformed image 410.

상기와 같이, 본 실시예에 따른 디스플레이 장치(100)는 스크린(190)을 통해 표시될 수 있는 이미지 또는 멀티미디어에 포함된 특정 컨텐츠를 포커싱할 수도 있다. 본 실시예에서 디스플레이 장치(100)는 마이크(162)를 통해 특정 컨텐츠(예를 들어, Paul(401))를 선택받기 위한 음성을 사용자로부터 입력받아 음성 신호를 생성하고, 상기 음성 신호를 이용하여 선택된 특정 컨텐츠(Paul(401))를 포커싱하고 있다.As described above, the display device 100 according to the present embodiment may focus the specific content included in the image or multimedia that can be displayed through the screen 190. [ In the present embodiment, the display apparatus 100 receives a voice from the user to receive a specific content (for example, Paul 401) through the microphone 162, generates a voice signal, And focuses the selected specific content (Paul 401).

한편, 사용자의 음성을 수신하여 이미지 또는 멀티미디어에 포함된 특정 컨텐츠를 포커싱하고자 하는 경우에는, 상기 특정 컨텐츠에 대응하는 각종 정보, 예를 들어 음성 신호, 텍스트, 전화번호 등이 미리 저장되어 있어야 한다. 도 4에서는, 마이크(162)가 원본 이미지(400)에 포함된 Paul(401)을 선택하기 위한 음성을 사용자로부터 입력받고 있다. 마이크(162)가 상기 음성을 이용하여 음성 신호를 생성하면, 제어부(110)는 마이크(162)에 의해 생성된 음성 신호가 저장부(175)에 미리 저장된 음성 신호와 일치하는지(또는 미리 설정된 기준값 이상 유사한지) 여부를 판단한다. 일치하는 경우(또는 미리 설정된 기준값 이상 유사한 경우) 제어부(110)는 상기 음성 신호에 대응하는 특정 컨텐츠를 포커싱하도록 스크린(190) 또는 스크린 컨트롤러(195)를 제어할 수 있다.On the other hand, when receiving a user's voice and focusing on specific contents included in an image or multimedia, various information corresponding to the specific contents such as a voice signal, a text, a telephone number, and the like must be stored in advance. 4, the microphone 162 receives a voice for selecting the Paul 401 included in the original image 400 from the user. When the microphone 162 generates a voice signal using the voice, the control unit 110 determines whether the voice signal generated by the microphone 162 matches the voice signal stored in advance in the storage unit 175 Or more). The control unit 110 may control the screen 190 or the screen controller 195 to focus the specific content corresponding to the audio signal.

다른 실시예에 따라 상기 특정 컨텐츠를 선택하기 위한 명령어에 대응하는 음성이 사용자로부터 입력되는 경우에도, 디스플레이 장치(100)는 이미지 또는 멀티미디어에 포함된 특정 컨텐츠를 포커싱할 수 있다. 도 4의 원본 이미지(400)를 예로 들어 설명하면, 마이크(162)가 사용자로부터 "left"라는 음성을 입력받았다면 제어부(110)는 원본 이미지(600)에 포함된 두 인물 중 왼쪽에 위치하는 인물, 즉 Paul(401)을 포커싱하도록 스크린(190) 또는 스크린 컨트롤러(195)를 제어할 수 있다.According to another embodiment, even when a voice corresponding to an instruction for selecting the specific content is input from a user, the display apparatus 100 can focus specific content included in an image or multimedia. If the microphone 162 receives a voice of "left" from the user, the control unit 110 determines whether the original image 600 is located on the left side of the two persons included in the original image 600 The user can control the screen 190 or the screen controller 195 to focus the person, that is, the Paul 401.

도 5a 및 도 5b는 도 1에 도시된 디스플레이 장치가 음성 신호에 대응하는 컨텐츠를 포커싱하는 또 다른 예를 나타낸 도면이다.5A and 5B are diagrams showing another example in which the display device shown in FIG. 1 focuses content corresponding to a voice signal.

도 5a 및 도 5b에서는 음성 신호에 따라 스크린(190)에 표시되는 동영상 또는 정지 이미지를 나타내고 있다. 본 실시예에서 사용자(550)의 음성 "left"를 이용하여 생성된 음성 신호는 스크린(190)에 표시되고 있는 컨텐츠들의 중심을 우측으로 이동시키기 위한 명령어이고, 음성 "right"를 이용하여 생성된 음성 신호는 스크린(190)에 표시되고 있는 컨텐츠들의 중심을 좌측으로 이동시키기 위한 명령어인 것으로 가정한다.5A and 5B show moving images or still images displayed on the screen 190 according to a voice signal. In this embodiment, the voice signal generated using the voice "left" of the user 550 is a command for moving the center of the contents displayed on the screen 190 to the right, It is assumed that the voice signal is a command for shifting the center of contents displayed on the screen 190 to the left.

도 5a를 참조하면, 마이크(162)는 사용자(550)로부터 음성 "left"를 입력받아서 음성 신호를 생성한다. 제어부(110)는 상기 음성 신호에 따라 원본 이미지(500)의 중심을 우측으로 이동시킨다. 실시예에 따라 제어부(110)는 원본 이미지(500)를 우측 편향 이미지(501)로 변환할 수 있다. 또한 스크린(190)은 도 5a에 도시된 바와 같이, 우측 편향 이미지(501)를 표시한다. 그에 따라 디스플레이 장치(100)를 사용하는 사용자는, 사용자의 관점에서 원본 이미지(500)에 비하여 좌측으로 이동한 동영상 또는 이미지를 스크린(190)을 통해 볼 수 있게 된다.Referring to FIG. 5A, the microphone 162 receives a voice "left" from the user 550 and generates a voice signal. The control unit 110 moves the center of the original image 500 to the right according to the audio signal. According to an embodiment, the controller 110 may convert the original image 500 into a right deflected image 501. The screen 190 also displays the right deflection image 501, as shown in FIG. 5A. Accordingly, the user who uses the display device 100 can view the moving image or the image moved to the left in comparison with the original image 500 from the viewpoint of the user through the screen 190.

도 5b를 참조하면, 마이크(162)는 사용자로부터 음성 "right"를 입력받아서 음성 신호를 생성한다. 제어부(110)는 상기 음성 신호에 따라 원본 이미지(500)의 중심을 좌측으로 이동시킨다. 실시예에 따라 제어부(110)는 원본 이미지(500)를 좌측 편향 이미지(502)로 변환할 수 있다. 또한 스크린(190)은 도 5b에 도시된 바와 같이, 좌측 편향 이미지(502)를 표시한다. 그에 따라 디스플레이 장치(100)를 사용하는 사용자는, 사용자의 관점에서 원본 이미지(500)에 비하여 우측으로 이동한 동영상 또는 이미지를 스크린(190)을 통해 볼 수 있게 된다.Referring to FIG. 5B, the microphone 162 receives a voice "right" from a user and generates a voice signal. The control unit 110 moves the center of the original image 500 to the left according to the audio signal. According to an embodiment, the control unit 110 may convert the original image 500 into a left deflection image 502. The screen 190 also displays a left deflection image 502, as shown in FIG. 5B. Accordingly, the user using the display apparatus 100 can view the moving image or the image moved to the right side of the original image 500 from the viewpoint of the user through the screen 190. [

도 5a 및 도 5b에서는 마이크(162)를 통해 입력되는 사용자의 음성에 따라 원본 이미지(500)를 좌측 편향 이미지(502) 또는 우측 편향 이미지(501)로 변환하는 예에 대해서만 도시하였으나 다른 실시예에 따라 디스플레이 장치(100)의 제어부(110)는 원본 이미지(500)의 중심을 상측으로 이동시킨 상측 편향 이미지(미도시) 또는 하측으로 이동시킨 하측 편향 이미지(미도시)로 변환할 수도 있다.실시예에 따라 마이크(162)는 원본 이미지(500)의 중심을 대각선 방향(예를 들어, 30°, 45°, 60° 등)으로 이동시키기 위한 음성을 사용자(550)로부터 입력받을 수 있으며, 그에 따라 제어부(110)는 원본 이미지(500)의 중심을 상기 대각선 방향으로 이동시킨 변환 이미지(미도시)를 생성할 수도 있다. 예를 들어, 마이크(162)가 "angle 30"에 해당하는 음성을 사용자(550)로부터 입력받았다면 제어부(110)는 원본 이미지(500)를 30° 회전시킨 변환 이미지(미도시)로 변환할 수 있다.5A and 5B show only an example of converting the original image 500 into the left deflection image 502 or the right deflection image 501 according to the user's voice inputted through the microphone 162, The control unit 110 of the display device 100 may convert the center of the original image 500 into an upwardly deflected image (not shown) or a downwardly deflected image (not shown) The microphone 162 may receive a voice from the user 550 to move the center of the original image 500 in a diagonal direction (e.g., 30 degrees, 45 degrees, 60 degrees, etc.) The control unit 110 may generate a converted image (not shown) by moving the center of the original image 500 in the diagonal direction. For example, if the microphone 162 receives a voice corresponding to "angle 30" from the user 550, the control unit 110 converts the original image 500 into a converted image (not shown) rotated by 30 ° .

또한 제어부(110)는 카메라 모듈(150)을 통해 입력되는 눈동자의 움직임 궤적에 따라 원본 이미지(500)를 우측 편향 이미지(501) 또는 좌측 편향 이미지(502)로 변환할 수도 있다. 예를 들어, 카메라 모듈(150)을 통해 사용자의 눈동자 또는 사용자(550)의 안면이 우측에서 좌측으로 이동하는 움직임이 감지되었다면 제어부(110)는 원본 이미지(500)를 우측 편향 이미지(501)로 변환할 수 있다. 또한 카메라 모듈(150)을 통해 사용자(550)의 눈동자 또는 사용자(550)의 안면이 좌측에서 우측으로 이동하는 움직임이 감지되었다면 제어부(110)는 원본 이미지(500)를 좌측 편향 이미지(502)로 변환할 수 있다.The control unit 110 may convert the original image 500 into the right deflection image 501 or the left deflection image 502 according to the motion trajectory of the pupil input through the camera module 150. [ For example, if the movement of the user's eye or the face of the user 550 from right to left is detected through the camera module 150, the controller 110 controls the original image 500 to be the right deflection image 501 Can be converted. If the user's eye 550 or the face of the user 550 is detected to move from left to right through the camera module 150, the controller 110 controls the original image 500 to be a leftward deflection image 502 Can be converted.

실시예에 따라 마이크(162)는 원본 이미지(500)의 중심을 대각선 방향(예를 들어, 30°, 45°, 60° 등)으로 이동시키기 위한 음성을 사용자(550)로부터 입력받을 수 있으며, 그에 따라 제어부(110)는 원본 이미지(500)의 중심을 상기 대각선 방향으로 이동시킨 변환 이미지(미도시)를 생성할 수도 있다.The microphone 162 may receive a voice from the user 550 to move the center of the original image 500 in a diagonal direction (e.g., 30 degrees, 45 degrees, 60 degrees, etc.) Accordingly, the control unit 110 may generate a converted image (not shown) by moving the center of the original image 500 in the diagonal direction.

도 5a 및 도 5b에서는 저장부(175)에 이미 저장되어 있는 정지 이미지를 예로 들어 설명하였지만, 다른 실시예에 따라 카메라 모듈(150)을 통해 촬영중인 경우에도 마이크(162)를 통해 입력되는 사용자의 음성에 따라 촬영되고 있는 이미지의 중심을 상하좌우로 이동시킬 수 있다. 제어부(110)는 마이크(162)를 통해 입력되는 사용자의 음성에 따라 카메라 모듈(150)에 포함된 제1카메라(151) 또는 제2카메라(152)의 렌즈를 회전시키거나 또는 렌즈의 초점을 변경하도록 제1카메라(151) 또는 제2카메라(152)를 제어할 수도 있다. 예를 들어, 카메라 모듈(150)이 촬영 동작을 수행 중인 경우에 사용자(550)로부터 "front focus"에 해당하는 음성을 마이크(162)로 입력되었다고 가정한다. 제어부(110)는 카메라 모듈(150)에 포함된 렌즈의 초점을, 디스플레이 장치(100)에 더 가까운 객체로 이동시킬 수 있다. 예를 들어, 렌즈의 초점이 디스플레이 장치(100)로부터 10m 떨어진 지점에 있는 제1객체에 맞춰진 상태라고 한다. 사용자(550)로부터 마이크(162)를 통해 "front focus"라는 음성이 입력되면, 제어부(110)는 카메라 모듈(150)을 제어하여 렌즈의 초점을 디스플레이 장치(100)로부터 5m 떨어진 지점에 있는 제2객체로 변경할 수 있다.5A and 5B illustrate a still image already stored in the storage unit 175 as an example. However, according to another embodiment, even when shooting through the camera module 150, The center of the image being photographed according to the voice can be moved up, down, left, and right. The control unit 110 rotates the lens of the first camera 151 or the second camera 152 included in the camera module 150 according to the user's voice inputted through the microphone 162, The first camera 151 or the second camera 152 may be controlled. For example, it is assumed that a voice corresponding to "front focus" is input from the user 550 to the microphone 162 when the camera module 150 is performing a photographing operation. The control unit 110 may move the focus of the lens included in the camera module 150 to an object closer to the display device 100. [ For example, it is assumed that the focus of the lens is adjusted to the first object 10 meters away from the display device 100. [ The control unit 110 controls the camera module 150 so that the focal point of the lens is located at a distance of 5 meters from the display device 100 You can change it to 2 objects.

도 6은 도 1에 도시된 디스플레이 장치의 센서 모듈을 통해 입력되는 근접 센싱 입력에 따라 스크린에 표시되는 포커싱 영역을 확장하는 일 예를 나타낸 도면이다.6 is a diagram illustrating an example of expanding a focusing area displayed on a screen according to a proximity sensing input input through a sensor module of the display device shown in FIG.

도 6을 참조하면, 스크린(190)에는 컨텐츠로서 "… any people try exercises and games to reduce the stress and pass some time. But there ara some things that can't be solved with music."라는 문자가 표시되어 있다. 또한 상기의 문자들 중 사용자의 근접 센싱 입력에 따라 선택된 선택 텍스트들(포커싱 영역)을, 선택되지 않은 텍스트들(비포커싱 영역)과 구별하기 위한 제1선택자(601) 및 제2선택자(602)가 도시되어 있다. Referring to FIG. 6, the screen 190 displays the words "... any people try exercises and games to reduce the stress and pass some time." have. A first selector 601 and a second selector 602 for distinguishing selected texts (focusing areas) selected according to the user's proximity sensing input from the above characters from unselected texts (non-focusing areas) Are shown.

먼저 마이크(162)가 사용자로부터 음성 "games to"를 입력받아 스크린(190)에 표시되고 있는 텍스트들 중 "games to"가 포커싱 영역으로서 먼저 선택된 것으로 가정한다. 즉 제1선택자(601) 및 제2선택자(802)에 의해 먼저 선택된 선택 텍스트 "games to"(610)인 상태에서, 센서 모듈(170), 카메라 모듈(150) 또는 스크린(190)을 통해 사용자가 엄지 손가락 및 검지 손가락의 사이를 근접시켰다가 벌리는 근접 센싱 입력이 입력된다. 상기 근접 센싱 입력에 따라 제2선택자(802)가 이동하여 선택 텍스트가 "games to reduce the stress and pass some time"(620)으로 증가한다. 상기와 같이 본 발명에 따른 디스플레이 장치(100)는 근접 센싱 입력에 따라 컨텐츠의 선택 범위, 즉 포커싱 영역을 확장시키거나 축소시킬 수 있다.First, it is assumed that the microphone 162 receives the speech "games to" from the user and selects "games to" of the text displayed on the screen 190 as the focusing area first. The camera module 150 or the screen 190 in the state of the selected text "games to" 610 selected first by the first selector 601 and the second selector 802, A proximity sensing input which is made close to the gap between the thumb and the index finger is input. The second selector 802 moves according to the proximity sensing input and the selected text increases to "games to reduce the stress and pass some time" 620. As described above, the display device 100 according to the present invention can expand or reduce the selection range of the content, that is, the focusing area according to the proximity sensing input.

본 실시예에서 포커싱 영역으로서 먼저 선택되었던 "game to"는 카메라 모듈(150)을 통해 생성된 눈 이미지에 따른 것일 수 있다. 본 실시예에 따른 카메라 모듈(150)은 제1카메라(151) 또는 제2카메라(152)를 통해 스크린(190)의 적어도 한 지점을 응시하는 사용자(650)의 눈동자를 촬영하여 눈 이미지를 생성할 수 있다. 제어부(110)는 상기 눈 이미지를 이용하여 스크린(190) 상에서 상기 사용자(550)가 응시한 지점의 좌표를 결정함으로써 포커싱 영역을 결정할 수 있다.The "game to" first selected as the focusing area in the present embodiment may be based on the eye image generated through the camera module 150. [ The camera module 150 according to the present embodiment photographs the pupil of the user 650 gazing at at least one point of the screen 190 through the first camera 151 or the second camera 152 to generate an eye image can do. The control unit 110 can determine the focusing area by determining the coordinates of the point at which the user 550 looks on the screen 190 using the eye image.

또한 포커싱 영역은 사용자(650)가 스크린(190)의 적어도 한 지점을 직접 압압함으로써 발생하는 터치 입력에 의해 선택될 수 있다. 다른 실시예에 따라 포커싱 영역은 마이크(162)를 통해 사용자(650)로부터 "games to"에 해당하는 음성을 입력받음으로써 선택될 수 있다. 다른 실시예에 따라 포커싱 영역은 스크린(190) 표면으로부터 이격된 일정 범위 이내로부터 감지되는 근접 센싱 입력을 수신함으로써 선택될 수도 있다.The focusing area may also be selected by the touch input generated by the user 650 directly pressing at least one point on the screen 190. [ According to another embodiment, the focusing area may be selected by receiving a voice corresponding to "games to" from the user 650 via the microphone 162. [ According to another embodiment, the focusing area may be selected by receiving a proximity sensing input sensed from within a range of distances from the screen 190 surface.

이외에도 본 발명의 다양한 실시예 또는 변형예가 있을 수 있으며, 따라서 본 발명의 범위는 설명된 실시예에 의하여 정할 것이 아니고, 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.The scope of the present invention should not be limited by the embodiments described, but should be determined by equivalents of the claims and the appended claims.

100: 디스플레이 장치 110: 제어부
120: 이동통신 모듈 130: 서브통신 모듈
131: 무선랜 모듈 132: 근거리통신 모듈
140: 멀티미디어 모듈 141: 방송통신 모듈
142: 오디오 재생 모듈 143: 동영상 재생 모듈
150: 카메라 모듈 151: 제1카메라
152: 제2카메라 153: GPS 모듈
160: 입/출력 모듈 161: 버튼
162: 버튼 163: 마이크
164: 스피커 165: 커넥터
166: 키패드 167: 이어폰 연결잭
170: 센서 모듈 175: 저장부
180: 전원공급부 190: 스크린
195: 스크린 컨트롤러
100: display device 110:
120: mobile communication module 130: sub communication module
131: Wireless LAN module 132: Local area communication module
140: Multimedia module 141: Broadcast communication module
142: Audio Playback Module 143: Video Playback Module
150: camera module 151: first camera
152: second camera 153: GPS module
160: Input / output module 161: Button
162: Button 163: Microphone
164: speaker 165: connector
166: Keypad 167: Earphone connection jack
170: Sensor module 175:
180: Power supply unit 190: Screen
195: Screen controller

Claims (21)

디스플레이 장치가 스크린을 통해 표시되는 컨텐츠를 제어하는 방법에 있어서,
스크린에 컨텐츠들이 표시되면, 마이크를 통하여 사용자로부터 상기 컨텐츠들 중 선택 컨텐츠를 선택하기 위한 음성을 입력받는 과정과,
상기 스크린 상에서의 상기 선택 컨텐츠의 좌표를 결정하는 과정과,
상기 선택 컨텐츠의 적어도 일부가 포함된 영역을 포커싱 영역으로 결정하여 포커싱하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
A method of controlling content displayed on a screen by a display device,
Receiving a voice for selecting a selected one of the contents from a user through a microphone when the contents are displayed on a screen,
Determining coordinates of the selected content on the screen;
And focusing the area including at least a part of the selected content as a focusing area.
제1항에 있어서
상기 선택 컨텐츠의 적어도 일부가 포함된 영역을 포커싱 영역으로 결정하여 포커싱하는 과정은,
상기 선택 컨텐츠를, 상기 선택 컨텐츠 이외의 다른 컨텐츠들과 구별되도록 표시하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
The method of claim 1, wherein
Determining an area including at least a part of the selected content as a focusing area and focusing the selected area,
And displaying the selected content to be distinguished from other contents than the selected content.
제1항에 있어서,
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하는 과정과,
상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행하는 과정을 더 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
The method according to claim 1,
Determining whether an event has occurred for the focusing area,
And performing an operation corresponding to the event when the event is generated.
제3항에 있어서,
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하는 과정은,
상기 포커싱 영역을 줌 인 또는 줌 아웃시키기 위한 사용자 입력을 수신하였는지 여부를 판단하는 과정을 포함하고,
상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행하는 과정은,
상기 포커싱 영역을 줌 인 또는 줌 아웃하여 표시하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
The method of claim 3,
Wherein the step of determining whether an event has occurred for the focusing area includes:
Determining whether or not a user input for zooming in or zooming out the focusing area has been received,
And performing an operation corresponding to the event when the event occurs,
And zooming in or zooming out the focusing area to display the focused area.
제4항에 있어서,
상기 포커싱 영역을 줌 인 또는 줌 아웃시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
5. The method of claim 4,
The user input for zooming in or zooming out the focusing area may include:
Wherein the input is input from a user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
제3항에 있어서,
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하는 과정은,
상기 포커싱 영역을 중심으로 상기 스크린에 표시된 컨텐츠들을 상하 또는 좌우로 이동시키기 위한 사용자 입력을 수신하였는지 여부를 판단하는 과정을 포함하고,
상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행하는 과정은,
상기 포커싱 영역을 중심으로 상기 컨텐츠들을 상하 또는 좌우로 이동시켜 표시하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
The method of claim 3,
Wherein the step of determining whether an event has occurred for the focusing area includes:
Determining whether or not a user input for moving the contents displayed on the screen up / down or left / right is received, based on the focusing area,
And performing an operation corresponding to the event when the event occurs,
And moving the contents by moving the contents vertically or horizontally around the focusing area.
제6항에 있어서,
상기 포커싱 영역을 중심으로 상기 스크린에 표시된 컨텐츠들을 상하 또는 좌우로 이동시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
The method according to claim 6,
A user input for moving the contents displayed on the screen up and down or left and right with the focusing area as a center,
Wherein the input is input from a user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
제3항에 있어서,
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하는 과정은,
상기 포커싱 영역을 확장시키기 위한 사용자 입력을 수신하였는지 여부를 판단하는 과정을 포함하고,
상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행하는 과정은,
상기 선택 컨텐츠를 기준으로 상하 또는 좌우로 상기 포커싱 영역을 확장하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
The method of claim 3,
Wherein the step of determining whether an event has occurred for the focusing area includes:
Determining whether a user input for expanding the focusing area has been received,
And performing an operation corresponding to the event when the event occurs,
And expanding the focusing area in the vertical direction or the horizontal direction based on the selected content.
제8항에 있어서,
상기 포커싱 영역을 확장시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
9. The method of claim 8,
Wherein the user input for expanding the focusing area comprises:
Wherein the input is input from a user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
제3항에 있어서,
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하는 과정은,
상기 포커싱 영역에 대응하는 명령어를 실행하기 위한 사용자 입력을 수신하였는지 여부를 판단하는 과정을 포함하고,
상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행하는 과정은,
상기 포커싱 영역에 대응하는 명령어를 실행하여 표시하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
The method of claim 3,
Wherein the step of determining whether an event has occurred for the focusing area includes:
Determining whether or not a user input for executing a command corresponding to the focusing area has been received,
And performing an operation corresponding to the event when the event occurs,
And executing a command corresponding to the focusing area to display the command.
제10항에 있어서,
상기 포커싱 영역에 대응하는 명령어를 실행하기 위한 사용자 입력은,
상기 카메라 모듈, 상기 스크린 및 근접 센서 중 적어도 하나를 통하여 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.
11. The method of claim 10,
A user input for executing a command corresponding to the focusing area,
Wherein the input is input from a user through at least one of the camera module, the screen, and the proximity sensor.
스크린을 통해 표시되는 컨텐츠를 제어하는 디스플레이 장치에 있어서,
스크린과,
상기 스크린에 컨텐츠들이 표시되면, 사용자로부터 상기 컨텐츠들 중 선택 컨텐츠를 선택하기 위한 음성을 입력받는 마이크와,
상기 스크린 상에서의 상기 선택 컨텐츠의 좌표를 결정하고, 상기 선택 컨텐츠의 적어도 일부가 포함된 영역을 포커싱 영역으로 결정하고, 상기 포커싱 영역을 포커싱하도록 상기 스크린을 제어하는 제어부를 포함함을 특징으로 하는 디스플레이 장치.
A display device for controlling content displayed on a screen,
A screen,
A microphone for inputting a voice for selecting a selected one of the contents from a user when the contents are displayed on the screen,
And a control unit for determining coordinates of the selected content on the screen, determining an area including at least a part of the selected content as a focusing area, and controlling the screen to focus the focusing area Device.
제12항에 있어서, 상기 제어부는,
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하고, 상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행함을 특징으로 하는 디스플레이 장치.
13. The apparatus according to claim 12,
Wherein the controller determines whether or not an event has occurred for the focusing area, and performs an operation corresponding to the event when the event occurs.
제13항에 있어서,
상기 포커싱 영역에 대한 이벤트는,
상기 포커싱 영역을 줌 인 또는 줌 아웃시키기 위한 사용자 입력을 포함하고,
상기 제어부는,
상기 포커싱 영역을 줌 인 또는 줌 아웃시키기 위한 사용자 입력을 수신하면, 상기 포커싱 영역을 줌 인 또는 줌 아웃하여 표시하도록 상기 스크린을 제어함을 특징으로 하는 디스플레이 장치.
14. The method of claim 13,
The event for the focusing area may include:
And a user input for zooming in or out of the focusing area,
Wherein,
Wherein the control unit controls the screen to zoom in or zoom out the focusing area upon receiving a user input for zooming in or zooming out the focusing area.
제13항에 있어서,
상기 포커싱 영역을 줌 인 또는 줌 아웃시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 상기 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치.
14. The method of claim 13,
The user input for zooming in or zooming out the focusing area may include:
Wherein the input is input from the user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
제14항에 있어서,
상기 포커싱 영역에 대한 이벤트는,
상기 포커싱 영역을 상하 또는 좌우로 이동시키기 위한 사용자 입력을 포함하고,
상기 제어부는,
상기 포커싱 영역을 상하 또는 좌우로 이동시키기 위한 사용자 입력을 수신하면, 상기 포커싱 영역을 상하 또는 좌우로 이동시켜 표시하도록 상기 스크린을 제어함을 특징으로 하는 디스플레이 장치.
15. The method of claim 14,
The event for the focusing area may include:
And a user input for moving the focusing area up or down or left or right,
Wherein,
Wherein the control unit controls the screen to display the focusing area by moving the focusing area vertically or horizontally when receiving a user input for moving the focusing area vertically or horizontally.
제16항에 있어서,
상기 포커싱 영역을 상하 또는 좌우로 이동시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 상기 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치.
17. The method of claim 16,
The user input for moving the focusing area up or down or left or right may include:
Wherein the input is input from the user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
제13항에 있어서,
상기 포커싱 영역에 대한 이벤트는,
상기 포커싱 영역을 확장시키기 위한 사용자 입력을 포함하고,
상기 제어부는,
상기 선택 컨텐츠를 기준으로 상하 또는 좌우로 상기 포커싱 영역을 확장하여 표시하도록 상기 스크린을 제어함을 특징으로 하는 디스플레이 장치.
14. The method of claim 13,
The event for the focusing area may include:
A user input for expanding the focusing area,
Wherein,
Wherein the control unit controls the screen to display the focusing area by expanding the focusing area vertically or horizontally based on the selected content.
제18항에 있어서,
상기 포커싱 영역을 확장시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 상기 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치.
19. The method of claim 18,
Wherein the user input for expanding the focusing area comprises:
Wherein the input is input from the user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
제13항에 있어서,
상기 포커싱 영역에 대한 이벤트는,
상기 포커싱 영역에 대응하는 명령어를 실행하기 위한 사용자 입력을 포함하고,
상기 제어부는,
상기 포커싱 영역에 대응하는 명령어를 실행하기 위한 사용자 입력을 수신하면, 상기 포커싱 영역에 대응하는 명령어를 실행하여 표시하도록 상기 스크린을 제어함을 특징으로 하는 디스플레이 장치.
14. The method of claim 13,
The event for the focusing area may include:
A user input for executing a command corresponding to the focusing area,
Wherein,
And controls the screen to display and execute a command corresponding to the focusing area upon receiving a user input for executing a command corresponding to the focusing area.
제20항에 있어서,
상기 포커싱 영역에 대응하는 명령어를 실행하기 위한 사용자 입력은,
상기 카메라 모듈, 상기 스크린 및 근접 센서 중 적어도 하나를 통하여 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치.
21. The method of claim 20,
A user input for executing a command corresponding to the focusing area,
Wherein the at least one camera module is input from a user through at least one of the camera module, the screen, and the proximity sensor.
KR1020130016407A 2013-02-15 2013-02-15 Method for controlling contents displyed on touch screen and display apparatus therefor KR20140102905A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130016407A KR20140102905A (en) 2013-02-15 2013-02-15 Method for controlling contents displyed on touch screen and display apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130016407A KR20140102905A (en) 2013-02-15 2013-02-15 Method for controlling contents displyed on touch screen and display apparatus therefor

Publications (1)

Publication Number Publication Date
KR20140102905A true KR20140102905A (en) 2014-08-25

Family

ID=51747471

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130016407A KR20140102905A (en) 2013-02-15 2013-02-15 Method for controlling contents displyed on touch screen and display apparatus therefor

Country Status (1)

Country Link
KR (1) KR20140102905A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190043044A (en) 2017-10-17 2019-04-25 엘지이노텍 주식회사 Light source device
CN111935532A (en) * 2020-08-14 2020-11-13 腾讯科技(深圳)有限公司 Video interaction method and device, electronic equipment and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190043044A (en) 2017-10-17 2019-04-25 엘지이노텍 주식회사 Light source device
CN111935532A (en) * 2020-08-14 2020-11-13 腾讯科技(深圳)有限公司 Video interaction method and device, electronic equipment and storage medium
CN111935532B (en) * 2020-08-14 2024-03-01 腾讯科技(深圳)有限公司 Video interaction method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
KR102146244B1 (en) Methdo for controlling display of a plurality of objects according to input related to operation for mobile terminal and the mobile terminal therefor
US9582168B2 (en) Apparatus, method and computer readable recording medium for displaying thumbnail image of panoramic photo
US10187520B2 (en) Terminal device and content displaying method thereof, server and controlling method thereof
US10635295B2 (en) Device including plurality of touch screens and screen change method for the device
KR102223282B1 (en) Mobile terminal having smart measuring tape and object size measuring method thereof
EP2753065B1 (en) Method and apparatus for laying out image using image recognition
KR102198473B1 (en) Mobile terminal and method for controlling the same
US20150019627A1 (en) Method of sharing electronic document and devices for the same
KR20160045714A (en) Application execution method by display device and display device thereof
US10019219B2 (en) Display device for displaying multiple screens and method for controlling the same
KR20140111088A (en) Mobile apparatus providing preview by detecting rub gesture and control method thereof
US20140282204A1 (en) Key input method and apparatus using random number in virtual keyboard
KR20140025869A (en) Mobile apparatus coupled with external input device and control method thereof
KR20140073378A (en) Display apparatus and method for controlling thereof
KR20150072729A (en) Portable apparatus and method for sharing content thereof
KR102186815B1 (en) Method, apparatus and recovering medium for clipping of contents
US9261996B2 (en) Mobile terminal including touch screen supporting multi-touch input and method of controlling the same
US9666167B2 (en) Apparatus and method for displaying screen
KR101672215B1 (en) Mobile terminal and operation method thereof
KR20140110646A (en) User termial and method for displaying screen in the user terminal
US10146342B2 (en) Apparatus and method for controlling operation of an electronic device
KR20140102905A (en) Method for controlling contents displyed on touch screen and display apparatus therefor
EP4125274A1 (en) Method and apparatus for playing videos
KR20140131051A (en) electro device comprising pressure sensor and method for controlling thereof
KR102295170B1 (en) Display apparatus for operating multimedia content and operation method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment