KR20140102905A - Method for controlling contents displyed on touch screen and display apparatus therefor - Google Patents
Method for controlling contents displyed on touch screen and display apparatus thereforInfo
- Publication number
- KR20140102905A KR20140102905A KR1020130016407A KR20130016407A KR20140102905A KR 20140102905 A KR20140102905 A KR 20140102905A KR 1020130016407 A KR1020130016407 A KR 1020130016407A KR 20130016407 A KR20130016407 A KR 20130016407A KR 20140102905 A KR20140102905 A KR 20140102905A
- Authority
- KR
- South Korea
- Prior art keywords
- screen
- focusing area
- input
- user
- event
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Abstract
Description
본 발명은 스크린을 통해 표시되는 컨텐츠를 제어하는 방법 및 이를 위한 디스플레이 장치에 관한 것으로서, 특히 발명의 목적은 컨텐츠의 선택 또는 컨텐츠 내에서의 선택 영역의 확대 또는 축소를 용이하게 함으로써 사용자로 하여금 컨텐츠를 용이하게 제어할 수 있도록 하는, 스크린을 통해 표시되는 컨텐츠를 제어하는 방법 및 이를 위한 디스플레이 장치에 관한 것이다.The present invention relates to a method of controlling content displayed on a screen and a display device therefor, and in particular, it is an object of the present invention to provide a method and apparatus for controlling content displayed on a screen by facilitating selection of content or enlargement or reduction of a selected area in the content. And more particularly to a method of controlling contents displayed on a screen and a display device therefor.
최근 디스플레이 장치 보급률의 급속한 증가로 디스플레이 장치는 현대인의 생활 필수품으로 자리매김하게 되었다. 이와 같은 디스플레이 장치는 고유의 음성 통화 서비스뿐만 아니라 각종 데이터 전송 서비스와 다양한 부가 서비스도 제공할 수 있게 되어 기능상 멀티미디어 통신기기로 변모하고 있다. 특히나 최근에는 사용자가 직접 표시되고 있는 화면을 보면서 특정 컨텐츠를 선택할 수 있는 터치스크린 등의 스크린 기반의 모바일 단말기가 사용자들에게 선호되고 있다.Recently, the rapid increase of the display device penetration rate has made the display device become a living necessity of modern people. Such a display device is capable of providing various data transmission services and various additional services as well as a unique voice communication service, and is becoming a functional multimedia communication device. In particular, recently, a screen-based mobile terminal such as a touch screen capable of selecting a specific content while viewing a screen directly displayed by a user has been preferred by users.
사용자는, 예를 들어 터치스크린의 표면을, 손가락을 이용하여 압압함으로써 상기 터치스크린을 통해 표시되는 다수의 컨텐츠들(예를 들어, 아이콘들) 중 어느 하나를 선택하거나 또는 하나의 컨텐츠 중에서도 특정 부분을 선택할 수 있다. 그러나 손가락을 이용한 터치입력으로는 컨텐츠를 선택하거나 또는 컨텐츠에서의 선택 영역의 확대 또는 축소가 용이하지 않다. 또한 사용자가 핀치(pinch) 등의 손가락을 이용한 스크린를 제어하고자 하는 경우, 사용자는 손가락을 컨텐츠의 위치에 접촉시킨 후 확대 또는 축소를 위한 동작을 수행해야 한다. 그러나 스크린의 화면 사이즈 및 컨텐츠의 사이즈가 작으면 사용자가 손가락을 이용하여 상기 컨텐츠를 선택하는데 어려움이 따른다.The user may select one of a plurality of contents (e.g., icons) displayed on the touch screen by pressing the surface of the touch screen using, for example, a finger, or select one of a plurality of contents Can be selected. However, it is not easy to select a content or enlarge or reduce a selection area in the content with touch input using a finger. Also, when a user wishes to control a screen using a finger such as a pinch, the user has to perform an operation for enlarging or reducing the finger after touching the position of the content. However, if the screen size of the screen and the size of the contents are small, it is difficult for the user to select the contents using his / her finger.
따라서 본 발명의 목적은 다수의 컨텐츠들 중 적어도 하나를 선택하거나 또는 선택된 컨텐츠의 적어도 일부를 포함하는 영역의 확대 또는 축소를 용이하게 함으로써 사용자로 하여금 컨텐츠를 용이하게 제어할 수 있도록 하는, 스크린을 통해 표시되는 컨텐츠를 제어하는 방법 및 이를 위한 디스플레이 장치를 제공함에 있다.It is therefore an object of the present invention to provide a method and apparatus for enabling a user to easily control content by selecting at least one of a plurality of contents or facilitating enlargement or reduction of an area including at least a part of the selected contents A method of controlling contents to be displayed, and a display device therefor.
본 발명의 일 실시예에 따른 디스플레이 장치가 스크린을 통해 표시되는 컨텐츠를 제어하는 방법은, 스크린에 컨텐츠들이 표시되면, 마이크를 통하여 사용자로부터 상기 컨텐츠들 중 선택 컨텐츠를 선택하기 위한 음성을 입력받는 과정과, 상기 스크린 상에서의 상기 선택 컨텐츠의 좌표를 결정하는 과정과, 상기 선택 컨텐츠의 적어도 일부가 포함된 영역을 포커싱 영역으로 결정하여 포커싱하는 과정을 포함한다.A method of controlling content displayed on a screen by a display device according to an embodiment of the present invention includes the steps of receiving a voice for selecting a selected content from a user through a microphone Determining a coordinate of the selected content on the screen, and determining an area including at least a part of the selected content as a focusing area and focusing the selected content.
본 발명의 일 실시예에 따른 스크린을 통해 표시되는 컨텐츠를 제어하는 디스플레이 장치는, 스크린과, 상기 스크린에 컨텐츠들이 표시되면, 사용자로부터 상기 컨텐츠들 중 선택 컨텐츠를 선택하기 위한 음성을 입력받는 마이크와, 상기 스크린 상에서의 상기 선택 컨텐츠의 좌표를 결정하고, 상기 선택 컨텐츠의 적어도 일부가 포함된 영역을 포커싱 영역으로 결정하고, 상기 포커싱 영역을 포커싱하도록 상기 스크린을 제어하는 제어부를 포함한다.A display device for controlling contents displayed through a screen according to an embodiment of the present invention includes a screen and a microphone for receiving a voice for selecting a selected one of the contents from the user when the contents are displayed on the screen, And a control unit for determining coordinates of the selected content on the screen, determining an area including at least a part of the selected content as a focusing area, and controlling the screen to focus the focusing area.
본 발명에 따르면, 다수의 컨텐츠들 중 적어도 하나를 선택하거나 또는 선택된 컨텐츠의 적어도 일부를 포함하는 영역의 확대 또는 축소를 용이하게 함으로써 사용자로 하여금 컨텐츠를 용이하게 제어할 수 있도록 하는, 스크린을 통해 표시되는 컨텐츠를 제어하는 방법 및 이를 위한 디스플레이 장치를 제공한다.According to the present invention, there is provided a method of displaying on a screen, which allows a user to easily control content by selecting at least one of a plurality of contents or facilitating enlargement or reduction of an area including at least a part of the selected contents. And a display device for the same.
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성을 나타낸 블록도,
도 2는 도 1에 도시된 디스플레이 장치가 스크린을 통해 표시되는 컨텐츠를 제어하는 방법을 나타낸 순서도,
도 3a 및 도 3b는 도 1에 도시된 디스플레이 장치에 의하여 선택 텍스트가 포커싱되는 일 예를 도시한 도면,
도 4는 도 1에 도시된 디스플레이 장치가 음성 신호에 대응하는 컨텐츠를 포커싱하는 다른 예를 나타낸 도면,
도 5a 및 도 5b는 도 1에 도시된 디스플레이 장치가 음성 신호에 대응하는 컨텐츠를 포커싱하는 또 다른 예를 나타낸 도면, 그리고
도 6은 도 1에 도시된 디스플레이 장치의 센서 모듈을 통해 입력되는 근접 센싱 입력에 따라 스크린에 표시되는 포커싱 영역을 확장하는 일 예를 나타낸 도면이다.1 is a block diagram showing a configuration of a display device according to an embodiment of the present invention;
FIG. 2 is a flowchart showing a method of controlling contents displayed on a screen by the display device shown in FIG. 1;
FIGS. 3A and 3B are diagrams illustrating an example in which selected text is focused by the display device shown in FIG. 1;
FIG. 4 is a diagram illustrating another example in which the display device shown in FIG. 1 focuses content corresponding to a voice signal;
5A and 5B are diagrams illustrating another example in which the display device shown in FIG. 1 focuses content corresponding to a voice signal, and FIG.
6 is a diagram illustrating an example of expanding a focusing area displayed on a screen according to a proximity sensing input input through a sensor module of the display device shown in FIG.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention. And will be apparent to those of ordinary skill in the art.
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성을 나타낸 블록도이다.1 is a block diagram showing a configuration of a display device according to an embodiment of the present invention.
본 실시예에서 디스플레이 장치(100)는 디스플레이 화면을 구비하는 장치를 가리키는 것으로서, 예를 들어 텔레비전, 이동통신 단말기, 태블릿, 노트북, 데스크 톱 등의 PC(Personal Computer) 등이 디스플레이 장치(100)에 포함될 수 있다.In this embodiment, the
도 1을 참조하면, 디스플레이 장치(100)는 제어부(110), 마이크(162)를 포함하는 입/출력 모듈(160), 저장부(175), 스크린(190)을 포함하며, 실시예에 따라 이동통신 모듈(120), 서브 통신 모듈(130), 멀티미디어 모듈(140), GPS 모듈(153), 센서 모듈(170), 전원 공급부(180) 및 스크린 컨트롤러(195)를 더 포함할 수 있다.1, the
제어부(110)는 CPU(111), 디스플레이 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 디스플레이 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 디스플레이 장치(100)에서 수행되는 작업을 위한 기억 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.The
제어부(110)는 이동통신 모듈(120), 서브 통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(153), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 스크린(190) 및 스크린 컨트롤러(195) 중 적어도 하나를 제어할 수 있다.The
본 실시예에 따른 제어부(110)는 스크린(190) 또는 스크린 컨트롤러(195)를 제어함으로써 상기 스크린(190)을 통해 표시되고 있는 각종 컨텐츠들 또는 상기 컨텐츠들의 표시를 제어할 수 있다.The
입/출력 모듈(160)은 마이크(162)를 포함하며, 복수의 버튼(161), 스피커(163) 진동 모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 더 포함할 수 있다.The input /
복수의 버튼(161)은 디스플레이 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼 및 검색 버튼 중 적어도 하나를 포함할 수 있다.The plurality of
본 실시예에 따른 버튼(161)은 마이크(162)를 구동시키기 위한 버튼(미도시)를 포함할 수 있으며, 카메라 모듈(150)을 구동하기 위한 버튼(미도시)을 더 포함할 수 있다. 또한 버튼(161)은 포커싱 영역에 대한 이벤트로서의 사용자 입력을 수신하기 위한 버튼을 포함할 수도 있다.The
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력받고, 상기 음성 또는 사운드를 전기적인 신호로 변환한다. 본 실시예에 따른 마이크(162)는 스크린(190)을 통해 표시되는 컨텐츠들 중 포커싱 영역을 선택하기 위한 사용자의 음성 또는 사운드를 입력받아서 상기 음성 또는 사운드에 대응하는 음성 신호를 생성할 수 있다.The
예를 들어, 스크린(190)에 컨텐츠들로서 아래 표 1과 같은 텍스트들이 표시되고 있다고 가정한다.For example, assume that the texts shown in Table 1 below are displayed as contents on the
The Korea Meteorological Administration said on Friday that autumn leaves at Mount Seorak in Gangwon Province will begin to change on October second, which is five days later than usual.
Leaves are expected to start turning red at Mount Odae and Mount Chiak early next month, while the colors change on Mount Bukhan, Mount Songni and Mount Jiri around mid-October.
The Korea Meteorological Administration said on Friday that autumn leaves at Mount Seorak in Gangwon Province will begin to change on October, which is five days later than usual.
Mount Odae and Mount Chiak early next month, while the colors change on Mount Bukhan, Mount Songni and Mount Jiri around mid-October.
상기 컨텐츠들 중에서 특정 텍스트, 예를 들어 단어 또는 문장에 해당하는 음성 또는 사운드가 마이크(162)를 통해 사용자로부터 입력된다. 즉 디스플레이 장치(100)는, 사용자로부터 특정 단어 또는 문자에 해당하는 음성 또는 사운드를 마이크(162)를 통하여 입력받는다.A voice or sound corresponding to a specific text, for example, a word or a sentence, is input from the user through the
이하에서는, 스크린(190)에 표시되는 컨텐츠들 중 선택된 적어도 하나의 특정 컨텐츠를 '선택 컨텐츠'라 하기로 한다. 바람직하게, 스크린(190)에 표시되는 컨텐츠들 중 마이크(162)를 통해 사용자로부터 입력되는 음성 또는 사운드에 대응하여 선택된 텍스트를 '선택 텍스트'라 하기로 한다.Hereinafter, at least one specific content selected from the content displayed on the
예를 들어, 사용자로부터 "Gangwon"에 해당하는 음성을 수신함에 따라 마이크(162)가 "Gangwon"에 해당하는 음성 신호를 생성하였다고 가정한다. 제어부(110)는 상기 음성 신호에 대응하는 선택 텍스트 "Gangwon"이 스크린(190) 상에 표시되고 있는 위치, 예를 들어 선택 텍스트의 좌표를 결정할 수 있다. 상기와 같이 제어부(110)는 상기 스크린(190)에 표시되고 있는 컨텐츠들 상에서의 상기 선택 텍스트의 위치를 결정할 수 있다.For example, it is assumed that the
상기와 같이 선택 텍스트의 좌표가 추출되면, 제어부(110)는 상기 선택 텍스트를 포커싱하도록 스크린(190) 또는 스크린 컨트롤러(195)을 제어한다. 본 실시예에서 '포커싱'이라 함은, 상기 선택 텍스트와 같은 특정 컨텐츠를 타 컨텐츠와 구별되게 표시하는 것을 의미한다. 예를 들어, 제어부(110)는 스크린(190)을 제어하여 선택 텍스트의 폰트 사이즈를 조절하거나, 선택 텍스트의 폰트 색깔을 변경하거나, 선택 텍스트만 굵게 표시하거나, 선택 텍스트에만 밑줄을 그어 표시하거나, 선택 텍스트를 네모 박스 안에 들어가도록 하거나 또는 선택 텍스트의 배경색만을 변경함으로써 선택 텍스트를 포커싱할 수 있다. 또한 실시예에 따라 제어부(110)는 상기 선택 텍스트에 대응하는 타 컨텐츠를 표시하도록 스크린(190) 또는 스크린 컨트롤러(195)를 제어할 수도 있다.When the coordinates of the selected text are extracted as described above, the
상기의 표 1에 도시된 예에서 제어부(110)는 선택 텍스트인 "Gangwon"을 굵게 처리하고, 밑줄을 긋고, "Gangwon"의 배경색만을 다르게 처리함으로써 선택 텍스트인 "Gangwon"을 포커싱하였다.In the example shown in Table 1, the
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예를 들어, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 디스플레이 장치(100) 외부로 출력할 수 있다. 스피커(163)는 디스플레이 장치(100)가 수행하는 기능에 대응되는 사운드(예를 들어, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 디스플레이 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다. The
진동 모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 디스플레이 장치(100)가 진동 모드이고, 다른 장치(미도시)로부터 상기 디스플레이 장치(100)로 음성통화가 수신되는 경우, 진동 모터(164)가 동작한다. 이러한 진동 모터(164)는 디스플레이 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동 모터(164)는 스크린(190)의 특정 지점을 터치하는 사용자의 터치 동작 및 스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다. 실시예에 따라 진동 모터(164)는 사용자에 의해 선택 텍스트가 선택되어 포커싱 영역이 결정되면 진동을 발생시킬 수도 있다.The
커넥터(165)는 디스플레이 장치(100)와 외부 장치(미도시) 또는 전원 소스(미도시)를 연결하기 위한 인터페이스로 이용될 수 있다. 디스플레이 장치(100)는 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 디스플레이 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(미도시)로 전송하거나 또는 외부 장치(미도시)로부터 데이터를 수신할 수 있다. 또한 디스플레이 장치(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원 소스(미도시)로부터 전원을 입력받거나, 상기 전원 소스를 이용하여 배터리(미도시)를 충전할 수 있다.The
키패드(166)는 디스플레이 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 디스플레이 장치(100)에 형성되는 물리적인 키패드(미도시) 또는 스크린(190)에 표시되는 가상의 키패드(미도시)를 포함한다. 디스플레이 장치(100)에 형성되는 물리적인 키패드(미도시)는 디스플레이 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.The
실시예에 따라 키패드(166)는 사용자로부터 선택 텍스트를 입력받을 수 있다. 표 1을 예로 들어 설명하면, 사용자는 "Gangwon"이라는 선택 텍스트를 상기 키패드(166)를 통해 입력할 수 있다. 또한 다른 실시예에 따라 키패드(166)는 선택 텍스트를 선택하기 위한 사용자 입력, 즉 문자 입력을 수신할 수도 있다. 예를 들어, 사용자가 키패드(166)를 이용하여 G를 입력하면, 텍스트 중 G가 포함된 텍스트들이 타 텍스트들과 구별되게 표시될 수 있다. 사용자는 상기 G를 포함하는 텍스트들 중 어느 하나를 선택함으로써 선택 텍스트를 입력할 수 있다.According to an embodiment, the
또한 다른 실시예에 따라 상기 G를 포함하는 텍스트들과 같이, 디스플레이 장치(100)에 표시된 컨텐츠에 특정 문자 또는 단어가 여러 개 포함되어 있는 경우를 가정할 수 있다. 이하에서는, 상기의 표 1을 참조하여 설명하기로 한다. 사용자로부터 키패드(166)를 통해 G가 입력되면, 본 실시예에 따른 디스플레이 장치(100)는 먼저 표 1에 표시된 텍스트들 중 순서대로 Meteorological, Gangwon, begin, change, turning, change, Songni를 타 텍스트들과 다르게 표시할 수 있다. 또한 디스플레이 장치(100)는, 상기 G가 포함된 텍스트들 중 어느 하나를 선택하기 위한 사용자 입력을 재차 입력받음으로써 선택 텍스트를 입력받을 수 있다. 예를 들어, 사용자는 Songni를 선택 텍스트로서 선택할 수 있으며, 그에 따른 사용자 입력을 디스플레이 장치(100)에 입력할 수 있다. 선택 텍스트를 선택하기 위한 사용자 입력은, 음성 입력, 문자 입력, 터치 입력, 근접 센싱 입력, 카메라 모듈(150)을 통해 입력되는 사용자의 제스처, 호버링(Hoverging) 입력 등이 될 수 있다.Also, according to another embodiment, it may be assumed that the content displayed on the
이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰(미도시)이 삽입되어 디스플레이 장치(100)에 연결될 수 있다.An earphone (not shown) may be inserted into the
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1카메라(151) 및 제2카메라(152) 중 적어도 하나를 포함할 수 있다. 제1카메라(151) 또는 제2카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예를 들어 플래시(미도시))를 포함할 수 있다. 제1카메라(151)는 디스플레이 장치(100) 전면에 배치되고, 제2카메라(152)는 디스플레이 장치(100)의 후면에 배치될 수 있다. 다른 실시예에 따라 제1카메라(151)와 제2카메라(152)는 인접(예를 들어, 제1카메라(151)와 제2카메라(152)의 간격이 8cm 이하인)하게 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.The
실시예에 따라 카메라 모듈(150)은 사용자로부터 제스처 입력을 수신할 수 있다. 제스처 입력은, 적어도 하나의 명령어(Command)와 대응하는 사용자의 제스처를 가리킨다. 카메라 모듈(150)은 제1카메라(151) 또는 제2카메라(152)로부터 특정 명령어에 대응하는 제스처 입력을 사용자로부터 입력받을 수 있다. 또한 저장부(175)는 명령어들 각각에 대응하는 제스처 입력을 미리 저장할 수 있다. 예를 들어, 저장부(175)에 제스처 입력으로서 사용자가 활짝 편 오른손을 좌우로 흔드는 동작이 저장되고 있고, 상기 제스처 입력은 명령어인 줌 인과 대응된다고 가정한다. 포커싱 영역에 결정된 상태에서, 예를 들어 제2카메라(152)를 통해 사용자로부터 활짝 편 오른손을 좌우로 흔드는 동작이 촬영되었다면, 제어부(110)는 스크린(190) 또는 스크린 컨트롤러(195)를 제어하여 상기 포커싱 영역을 줌 인할 수 있다.According to an embodiment,
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 디스플레이 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.The
'저장부'라는 용어는 저장부(175), 제어부(110) 내의 롬(112), 램(113) 또는 디스플레이 장치(100)에 장착되는 메모리 카드(미도시)(예, SD 카드, 메모리 스틱)을 포함한다. 저장부(175)는 비휘발성 메모리, 휘발성 메모리, 하드디스크 드라이브(HDD) 및 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다.The term 'storage unit' refers to a
본 실시예에 따른 저장부(175)에는 마이크(162)를 통해 생성되는 음성 신호들이 저장될 수 있다. 또한 상기 음성 신호들 각각에 대응하는 동작 또는 명령어(command)들이 저장될 수 있다.In the
사용자가 마이크(162)를 통해 선택 텍스트에 대응하는 음성을 입력하면, 상기 마이크(162)는 상기 음성을 이용하여 음성 신호를 생성한다. 그에 따라 상기 음성 신호에 대응하는 선택 텍스트가 포커싱될 수 있다. 또한 마이크(162)는 컨텐츠 상에서 포커싱된 부분, 즉 포커싱 영역에 대한 이벤트를 사용자로부터 음성 또는 사운드로서 입력받을 수 있다.When the user inputs a voice corresponding to the selected text through the
예를 들어, 마이크(162)를 통해 "Zoom in"이라는 음성이 사용자로부터 입력되었다면, 마이크(162)는 "Zoom in"에 해당하는 음성 신호를 생성한다. 제어부(110)는 상기 "Zoom in"이라는 음성 신호에 대응하는 동작을 수행하도록 디스플레이 장치(100)를 제어할 수 있다. 또한 저장부(170)에는 음성 신호 "Zoom in"에 대응하는 명령어가 미리 설정되어 저장되어 있을 수 있다. 예를 들어 "Zoom in"이라는 음성 신호에 대응하는 동작이 포커싱 영역을 확대하는 것이라고 가정하면, 제어부(110)는 스크린(190)을 제어하여 포커싱 영역을 확대 표시할 수 있다.For example, if a voice "Zoom in" is input from the user through the
실시예에 따라 저장부(175)에는 포커싱 영역에 대한 이벤트, 즉 포커싱 영역을 줌 인, 줌 아웃하거나 포커싱 영역을 상하 또는 좌우로 이동시키거나 또는 상기 포커싱 영역을 확장하기 위한 각종 사용자 입력에 대응하는 명령어 또는 동작이 저장될 수 있다.According to an embodiment, the
스크린(190)은 사용자에게 다양한 서비스(예를 들어, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 인터페이스를 제공할 수 있다. 스크린(190)은, 예를 들어 터치스크린으로 구현되어 사용자 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 스크린 컨트롤러(195)로 전송할 수 있다. 상기 터치스크린으로 구현되는 경우, 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예를 들어, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한 스크린(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 스크린 컨트롤러(195)로 전송할 수 있다. The
본 발명에서 터치는 스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예, 스크린(190))과 사용자의 신체 또는 터치 가능한 입력 수단과 검출 가능한 간격이 1mm 이상)을 포함할 수 있다. 스크린(190)에서 검출 가능한 간격은 디스플레이 장치(100)의 성능 또는 구조에 따라 변경될 수 있다.In the present invention, the touch is not limited to the contact between the
스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식의 터치 스크린으로 구현되어 사용자 입력을 직접 수신할 수 있다.The
본 실시예에 따른 스크린(190)은 제어부(110)의 제어에 따라 컨텐츠 중에서도 포커싱 영역을 포커싱되지 않은 컨텐츠들, 즉 비 포커싱 영역과 구별되도록 표시할 수 있다. 또한 포커싱 영역에 대한 이벤트가 발생되면 스크린(190)은 해당 이벤트에 따라 포커싱 영역을 줌 인, 줌 아웃하거나, 또는 상기 포커싱 영역이 상하 또는 좌우로 움직이도록 표시하거나 또는 상기 포커싱 영역에 대응하는 명령어 또는 동작을 실행하여 표시할 수 있다.According to the control of the
이동통신 모듈(120)은 제어부(110)의 제어하에 적어도 하나의 안테나(미도시)를 이용하여 디스플레이 장치(100)가 외부 장치와 연결되도록 한다. 이때 디스플레이 장치(100)와 외부 장치는 이동 통신을 통해 연결될 수 있다. 이동통신 모듈(120)은 디스플레이 장치(100)에 입력되는 전화번호를 가지는 휴대폰, 스마트폰, 태블릿 PC 또는 다른 장치와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신할 수 있다. The
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함할 수 있으며, 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수도 있다.The
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(미도시)가 설치된 장소에서 인터넷에 연결될 수 있다. 즉 무선랜 모듈(131)은 디스플레이 장치(100)의 무선 인터넷 연결을 지원한다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다.The
근거리통신 모듈(132)은 제어부(110)의 제어에 따라 디스플레이 장치(100)와 화상형성장치(미도시) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.The short-
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다.The
방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(미도시)를 통해 방송국에서부터 송출되는 방송 신호(예를 들어, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예를 들어 EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다.The
오디오 재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다.The
동영상 재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예를 들어, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상 재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.The moving
도 1에서는 방송통신 모듈(141), 오디오 재생 모듈(142), 동영상 재생 모듈(143)을 모두 포함하는 멀티미디어 모듈(140)을 도시하고 있으나, 다른 실시예에 따라 멀티미디어 모듈(140)은 오디오 재생 모듈(142) 및 동영상 재생 모듈(143)만을 포함하여 구현될 수도 있다. 또한 멀티미디어 모듈(140)의 오디오 재생 모듈(142) 또는 동영상 재생 모듈(143)은 제어부(110)에 포함되는 형태로 구현될 수 있다.1 illustrates a
본 실시예에 따른 멀티미디어 모듈(140)의 방송통신 모듈(141)은 마이크(162)에 의하여 생성된 음성 신호에 따라 방송 신호를 재생, 재생정지, 빨리감기, 되감기, 특정 부분 반복재생하거나 방송신호의 볼륨을 증가 또는 감소시킬 수 있으며, 방송채널을 변경할 수 있다. 예를 들어, 마이크(162)를 통해 "play"에 해당하는 음성이 사용자로부터 입력되었다면 방송통신 모듈(141)은 방송 신호를 재생하고, 마이크(162)를 통해 "rewind"에 해당하는 음성이 입력되었다면 방송통신 모듈(141)은 방송 신호를 되감아 다시 재생할 수 있다.The
마찬가지로 오디오 재생 모듈(142)은 마이크(162)에 의하여 생성된 음성 신호에 따라 디지털 오디오 파일를 재생, 재생정지, 빨리감기, 되감기, 특정 부분 반복재생하거나 디지털 오디오 파일의 볼륨을 증가 또는 감소시킬 수 있다.Similarly, the
동영상 재생 모듈(143)도 마이크(162)에 의하여 생성된 음성 신호에 따라 디지털 동영상 파일를 재생, 재생정지, 빨리감기, 되감기, 특정 부분 반복재생하거나 디지털 동영상 파일의 볼륨을 증가 또는 감소시킬 수 있다.The moving
GPS 모듈(153)은 지구 궤도상에 있는 복수의 GPS 위성(미도시)에서부터 전파를 수신하고, GPS 위성에서부터 디스플레이 장치(100)까지 전파 도달 시간(Time of Arrival)을 이용하여 디스플레이 장치(100)의 위치를 산출할 수 있다.The
센서 모듈(170)은 디스플레이 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서 모듈(170)은 사용자의 디스플레이 장치(100)에 대한 접근 여부를 검출하는 근접 센서, 디스플레이 장치(100) 주변의 빛의 양을 검출하는 조도 센서, 디스플레이 장치(100)의 동작(예를 들어, 디스플레이 장치(100)의 회전, 디스플레이 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 모션 센서, 지구 자기장을 이용해 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 측정하는 고도계(Altimeter) 중 적어도 하나를 포함할 수 있다. 적어도 하나의 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서 모듈(170)의 센서는 디스플레이 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.The
본 실시예에 따른 센서 모듈(170)은 근접 센서를 포함할 수 있다. 근접 센서는 스크린(190)과 근접한 일정 범위를 통해 감지되는 사용자의 움직임(예를 들어, 사용자 손가락의 움직임)을 감지하는 센서이다. 예를 들어, 스크린(190)이 정전 용량 방식으로 구현되었다면, 근접 센서로 구현된 센서 모듈(170)은 상기 스크린(190)의 일정 범위(예를 들어, 스크린(190)으로부터 10cm 높이 이내)에서 발생하는 정전용량의 변화를 감지함으로써 사용자의 움직임을 검출할 수 있다.The
본 실시예에 따른 근접 센서는 선택 컨텐츠를 선택하거나 또는 포커싱 영역을 확장하기 위한 사용자 입력, 예를 들어 사용자 손가락의 움직임을 감지할 수 있다. 근접 센서를 통해 상기와 같은 사용자 입력이 입력되면, 제어부(110)는 스크린(190)을 제어하여 포커싱 영역을 포커싱하거나 또는 포커싱 영역을 확장할 수 있다.The proximity sensor according to the present embodiment can detect a user input, for example, the movement of a user's finger, for selecting a selected content or extending a focusing area. When the user input is input through the proximity sensor, the
근접 센서는 스크린(190)을 통해 표시되는 컨텐츠들 중 어느 하나를 선택하기 위한 사용자 입력을 수신할 수 있다. 사용자는 예를 들어, 스크린(190) 표면으로부터 3cm 떨어진 범위 이내까지의 정전용량을 변화시킴으로써 사용자 입력, 즉 근접 센싱 입력을 디스플레이 장치(100)에 입력시킬 수 있다. 상기와 같이 근접 센서는 포커싱 영역을 선택하기 위한 근접 센싱 입력을 감지할 수 있다. 제어부(110)는 상기 근접 센싱 입력이 감지된 위치에 대응하는, 스크린(190) 상에서의 특정 위치의 좌표를 결정할 수 있다. 또한 제어부(110)는 상기 근접 센싱 입력에 대응하는 스크린(190) 상에서의 특정 위치를 포커싱 영역으로 결정할 수 있다.The proximity sensor may receive a user input for selecting any of the displayed content via the
전원 공급부(180)는 제어부(110)의 제어에 따라 디스플레이 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리에 전원을 공급할 수 있다. 하나 또는 복수의 배터리는 디스플레이 장치(100)에 전원을 공급한다. 또한, 전원 공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원 소스에서부터 입력되는 전원을 디스플레이 장치(100)로 공급할 수 있다. 또한 전원 공급부(180)는 무선 충전 기술을 통해 외부의 전원 소스로부터 무선으로 입력되는 전원을 디스플레이 장치(100)로 공급할 수도 있다.The
스크린 컨트롤러(195)는 스크린(190)을 제어한다. 스크린(190)이 예를 들어 터치스크린으로 구현된 경우, 스크린 컨트롤러(195)는 상기 터치스크린을 통해 수신된 아날로그 신호, 예를 들어 터치 입력를 디지털 신호(예를 들어, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 입력에 응답하여 스크린(190)에 표시된 단축 아이콘(미도시)이 선택되게 하거나 또는 단축 아이콘(미도시)에 대응하는 프로그램 또는 동작을 실행할 수 있다. 또한 스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.The
본 실시예에 따른 스크린 컨트롤러(195)는, 포커싱 영역에 대한 이벤트로써 터치 입력이 스크린(190)을 통해 입력되면 상기 터치 입력이 입력된 지점의 스크린(190) 상의 좌표(예를 들어, X좌표와 Y좌표)를 추출하여 제어부(110)로 전달할 수 있다.The
다른 실시예에 따라 스크린 컨트롤러(195)는 센서 모듈(170)에 의해 감지된 근접 센싱 입력에 대응하는 스크린(190) 상에서의 좌표를 추출할 수도 있다. 예를 들어, 센서 모듈(170)을 통하여 스크린(190)과 근접한 일정 범위 내의 한 지점(제1지점)을 선택하기 위한 근접 센싱 입력이 감지되었다고 가정한다. 또한 설명의 편이를 위하여 근접 센싱이 정전 용량 방식으로 구현되었다고 가정한다. 센싱 모듈(170)은 스크린(190)의 일정 범위 내에서 발생하는 정전용량의 변화를 감지하고, 제어부(110)는 정전용량이 변화한 지점(제1지점)에 대응하는 스크린(190) 상의 지점(제2지점)의 좌표를 추출하도록 스크린 컨트롤러(195)를 제어할 수 있다. 예를 들어, 제2지점은, 상기 제1지점으로부터 가장 가까운 거리에 위치한 스크린(190) 상의 한 점일 수 있다.The
실시예에 따라 디스플레이 장치(100)는 서브통신 모듈(130), 커넥터(165) 및 이어폰 연결잭(167)과 같은 외부 장치 연결부를 이용하여 외부 장치(미도시)와 연결될 수 있다.The
"외부 장치"는 디스플레이 장치(100)에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들/도크(Cradle/Dock), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 내비게이션 장치 등 다양한 장치들을 포함할 수 있다. 또한 "외부 장치"는 근거리 통신에 의하여 무선으로 디스플레이 장치(100)에 연결될 수 있는 블루투스 통신 장치, NFC(Near Field Communication) 장치와 같은 근거리 통신 장치 및 WiFi Direct 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 또한 외부 장치는 다른 장치, 휴대폰, 스마트폰, 태블릿PC, 데스크탑 PC 및 서버를 포함할 수 있다.An external speaker, a universal serial bus (USB) memory, a charger, a cradle / dock, a DMB antenna, and the like, which are detachably attached to the
도 2는 도 1에 도시된 디스플레이 장치가 스크린을 통해 표시되는 컨텐츠를 제어하는 방법을 나타낸 순서도이다.2 is a flowchart illustrating a method of controlling contents displayed on a screen by the display device shown in FIG.
도 2를 참조하면, 먼저 디스플레이 장치(100)는 스크린(190)에 적어도 하나의 컨텐츠를 표시한다(S202). 이때 스크린(190)에 표시되는 컨텐츠들은 적어도 하나의 텍스트를 포함하는 것으로 가정한다.Referring to FIG. 2, the
스크린(190)에 컨텐츠가 표시되면, 마이크(162)는 사용자로부터 선택 컨텐츠, 예를 들어 선택 텍스트를 선택하기 위한 음성을 입력받고, 상기 음성을 전기적 신호로 변환함으로써 음성 신호를 생성한다(S204). 이때 사용자로부터 입력되는 음성은 스크린(190)에 표시되고 있는 컨텐츠들 중 적어도 하나의 텍스트, 즉 단어 또는 문장일 수 있다.When the content is displayed on the
음성 신호가 생성되면, 제어부(110)는 상기 음성 신호에 대응하는 선택 텍스트의 좌표를 결정한다(S206). 선택 텍스트의 좌표가 결정되면, 제어부(110)는 스크린(190) 또는 스크린 컨트롤러(195)를 제어하여 상기 선택 텍스트를 포커싱한다(S208). When the voice signal is generated, the
단계 S208에서의 포커싱은 스크린(190)을 통해 표시되고 있는 컨텐츠들, 예를 들어 다수의 텍스트들 중에서도 선택 텍스트가 선택되었음을 표시하기 위하여 상기 선택 텍스트를 타 텍스트들과 구별되도록 표시함을 의미한다. 상기와 같이, 스크린(190) 상에서 표시되고 있는 텍스트들 중 타 텍스트와 구별되도록 표시된 영역을 "포커싱 영역"이라 한다.Focusing at step S208 means displaying the selected text to distinguish it from other texts to indicate that the selected text is selected among the contents being displayed through the
예를 들어, "Korea mobile traffic to increase ten fold…"라는 문장이 스크린(190)을 통해 표시되고 있고, 사용자로부터 마이크(162)를 통해 "mobile"에 해당하는 음성을 입력받았다고 가정한다. 제어부(110)는 "mobile"을 "Korea", "traffic", "to", "increase", "ten", "fold" 등과 구별되게 표시하도록 스크린(190) 또는 스크린 컨트롤러(195)를 제어한다. 그에 따라 스크린(190)은, 예를 들어 상기 "Korea mobile traffic to increase ten fold…"을 "Korea mobile traffic to increase ten fold…"으로 표시할 수 있다. 이때, " mobile "이 포커싱 영역이다.For example, it is assumed that the sentence "Korea mobile traffic to increase ten fold ..." is displayed on the
이후 제어부(110)는 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 판단한다(S210). 포커싱 영역에 대한 이벤트는, 예를 들어 포커싱 영역을 줌 인(Zoom-in)하기 위한 사용자 입력, 줌 아웃(Zoom-out)하기 위한 사용자 입력, 상기 포커싱 영역의 상하좌우에 위치한 컨텐츠를 상기 포커싱 영역과 함께 선택하기 위한 사용자 입력, 상기 포커싱 영역을 중심으로 스크린(190)에 표시되고 있는 컨텐츠들을 상하좌우로 이동시키기 위한 사용자 입력, 상기 포커싱 영역을 확장하기 위한 사용자 입력, 상기 포커싱 영역에 대응하는 명령어 또는 동작을 실행시키기 위한 사용자 입력 등을 포함할 수 있다.Thereafter, the
단계 S210의 판단 결과, 포커싱 영역에 대한 이벤트가 발생한 경우(S210: 예), 디스플레이 장치(100)는 상기 이벤트에 따른 동작을 수행한다(S212).If it is determined in step S210 that an event has occurred for the focusing area (S210: YES), the
단계 S210의 판단 결과 포커싱 영역에 대한 이벤트가 발생하지 않은 경우(S210: 아니오), 디스플레이 장치(100)는 별도의 동작을 수행하지 않고 현재 상태를 유지할 수 있다.If it is determined in step S210 that no event has occurred for the focusing area (S210: NO), the
도 2에서는 디스플레이 장치(100)가 단계 S204에서 생성된 음성 신호를 이용하여 선택 컨텐츠를 결정함으로써 포커싱 영역을 결정하였으나, 다른 실시예에 따른 디스플레이 장치(100)는 마이크(162)를 통해 카메라 모듈(150)을 통해 입력되는 제스처 입력, 스크린(190)을 통해 사용자로부터 입력되는 터치 입력, 상기 스크린(190)으로부터 미리 저장된 범위(예를 들어, 스크린(190)으로부터 1cm 이격된 높이 이내) 내에서 센서 모듈(170)을 통해 감지되는 근접 센싱 입력 등을 이용하여 포커싱 영역을 결정할 수도 있다.2, the
도 3a 및 도 3b는 도 1에 도시된 디스플레이 장치에 의하여 선택 텍스트가 포커싱되는 일 예를 도시한 도면이다.FIGS. 3A and 3B are diagrams illustrating an example in which selected text is focused by the display device shown in FIG. 1. FIG.
도 3a는 디스플레이 장치(100)가 사용자로부터 선택 텍스트를 선택하기 위한 음성을 입력받는 일 예를 나타낸 도면이다. 도 3a를 참조하면, 디스플레이 장치(100)의 마이크(162)는 디스플레이 장치(100)의 스크린(190)에 표시되는 컨텐츠들, 특히 텍스트들 중 어느 하나를 선택하기 위한 음성을 사용자(350)로부터 입력받는다. 도 3a 및 도 3b에서는 teacher를 선택하기 위한 음성이 사용자로부터 입력된 것으로 가정한다. 마이크(162)는, 사용자로부터 입력받은 음성을 이용하여 음성 신호, 즉 스크린(190)에 표시되고 있는 텍스트들 중 teacher에 대응하는 음성 신호를 생성한다. 제어부(110)는 상기 음성 신호를 이용하여 선택 텍스트의 좌표를 결정한다. 본 실시예에서 포커싱 영역은, 선택 텍스트를 적어도 일부 포함하는 특정 영역이다. 따라서 선택 텍스트의 좌표가 결정되면, 제어부(110)는 포커싱 영역 또한 결정할 수 있다.3A is a diagram illustrating an example in which a
도 3b는 도 3a에서 입력된 음성에 대응하는 포커싱 영역을 포커싱하는 일 예를 나타낸 도면이다. 본 실시예에서 '포커싱'은, 선택 텍스트를 적어도 일부 포함하는 포커싱 영역이, 타 컨텐츠들과 구별되도록 표시하는 것을 의미한다. 도 3b에서, 제어부(110)는 선택 텍스트 teacher를 줌 인하고, 선택 텍스트 teacher가 네모 박스 안에 들어가도록 함으로써 포커싱 영역을 포커싱하고 있다.FIG. 3B is a diagram illustrating an example of focusing a focusing area corresponding to the input speech in FIG. 3A. In the present embodiment, 'focusing' indicates that the focusing area including at least a part of the selected text is distinguished from other contents. In FIG. 3B, the
도 4는 도 1에 도시된 디스플레이 장치가 음성 신호에 대응하는 컨텐츠를 포커싱하는 다른 예를 나타낸 도면이다.FIG. 4 is a view showing another example in which the display device shown in FIG. 1 focuses content corresponding to a voice signal.
도 4에서 스크린(190)은 사진 이미지(400)를 표시하고 있으며, 디스플레이 장치(100)의 저장부(175)에는 상기 사진 이미지(400)에 포함된 두 인물에 대한 각종 정보를 이미 저장 중인 것으로 가정한다. 예를 들어, 사진 이미지(이하, '원본 이미지'라 한다)에서 좌측 인물의 이름은 Paul(401)이고, 우측 인물의 이름은 John(402)인 것으로 저장부(175)에 미리 저장되었다고 가정한다. 즉 본 실시예에 따른 저장부(175), 특히나 주소록에는 전화번호에 대응하여 이름, 인물 이미지 등이 대응되어 저장될 수 있다. 실시예에 따라 디스플레이 장치(100)는, 예를 들어 주소록에 등록된 이름 중 어느 하나에 해당하는 음성이 사용자로부터 입력되면, 해당 이름과 대응되는 인물 이미지를 표시하거나 또는 해당 이름에 대응되는 전화번호를 이용하여 통화를 수행할 수 있다.4, the
도 4에서 디스플레이 장치(100)는, 스크린(190)을 통해 표시되고 있는 원본 이미지(400)에 포함된 인물들 중 한 인물을 선택하기 위한 음성을 사용자로부터 입력받고, 선택된 인물을 포커싱하는 일 예를 나타내고 있다.4, the
도 4에서 디스플레이 장치(100)의 마이크(162)는 사용자로부터 "Paul"이라는 음성을 입력받을 수 있다. Paul(401)은 사진 이미지(400)에 포함된 인물들 중에서도 좌측 인물에 해당한다. 제어부(110)는 원본 이미지(400) 중에서도 Paul(401)이 차지하고 있는 부분을 포커싱 영역으로 결정한다.In Fig. 4, the
본 실시예에서 제어부(110)는 사진 이미지(400)에서 Paul(401)을 제외한 나머지 영역을 블러처리함으로써, Paul(401)을 포커싱할 수 있다. 도 4에 도시된 바와 같이 제어부(110)는 원본 이미지(400)를, Paul(401)이 포커싱된 변환 이미지(410)으로 변환할 수 있다. 또한 스크린(190)은 상기 변환 이미지(410)를 표시할 수 있다.In this embodiment, the
상기와 같이, 본 실시예에 따른 디스플레이 장치(100)는 스크린(190)을 통해 표시될 수 있는 이미지 또는 멀티미디어에 포함된 특정 컨텐츠를 포커싱할 수도 있다. 본 실시예에서 디스플레이 장치(100)는 마이크(162)를 통해 특정 컨텐츠(예를 들어, Paul(401))를 선택받기 위한 음성을 사용자로부터 입력받아 음성 신호를 생성하고, 상기 음성 신호를 이용하여 선택된 특정 컨텐츠(Paul(401))를 포커싱하고 있다.As described above, the
한편, 사용자의 음성을 수신하여 이미지 또는 멀티미디어에 포함된 특정 컨텐츠를 포커싱하고자 하는 경우에는, 상기 특정 컨텐츠에 대응하는 각종 정보, 예를 들어 음성 신호, 텍스트, 전화번호 등이 미리 저장되어 있어야 한다. 도 4에서는, 마이크(162)가 원본 이미지(400)에 포함된 Paul(401)을 선택하기 위한 음성을 사용자로부터 입력받고 있다. 마이크(162)가 상기 음성을 이용하여 음성 신호를 생성하면, 제어부(110)는 마이크(162)에 의해 생성된 음성 신호가 저장부(175)에 미리 저장된 음성 신호와 일치하는지(또는 미리 설정된 기준값 이상 유사한지) 여부를 판단한다. 일치하는 경우(또는 미리 설정된 기준값 이상 유사한 경우) 제어부(110)는 상기 음성 신호에 대응하는 특정 컨텐츠를 포커싱하도록 스크린(190) 또는 스크린 컨트롤러(195)를 제어할 수 있다.On the other hand, when receiving a user's voice and focusing on specific contents included in an image or multimedia, various information corresponding to the specific contents such as a voice signal, a text, a telephone number, and the like must be stored in advance. 4, the
다른 실시예에 따라 상기 특정 컨텐츠를 선택하기 위한 명령어에 대응하는 음성이 사용자로부터 입력되는 경우에도, 디스플레이 장치(100)는 이미지 또는 멀티미디어에 포함된 특정 컨텐츠를 포커싱할 수 있다. 도 4의 원본 이미지(400)를 예로 들어 설명하면, 마이크(162)가 사용자로부터 "left"라는 음성을 입력받았다면 제어부(110)는 원본 이미지(600)에 포함된 두 인물 중 왼쪽에 위치하는 인물, 즉 Paul(401)을 포커싱하도록 스크린(190) 또는 스크린 컨트롤러(195)를 제어할 수 있다.According to another embodiment, even when a voice corresponding to an instruction for selecting the specific content is input from a user, the
도 5a 및 도 5b는 도 1에 도시된 디스플레이 장치가 음성 신호에 대응하는 컨텐츠를 포커싱하는 또 다른 예를 나타낸 도면이다.5A and 5B are diagrams showing another example in which the display device shown in FIG. 1 focuses content corresponding to a voice signal.
도 5a 및 도 5b에서는 음성 신호에 따라 스크린(190)에 표시되는 동영상 또는 정지 이미지를 나타내고 있다. 본 실시예에서 사용자(550)의 음성 "left"를 이용하여 생성된 음성 신호는 스크린(190)에 표시되고 있는 컨텐츠들의 중심을 우측으로 이동시키기 위한 명령어이고, 음성 "right"를 이용하여 생성된 음성 신호는 스크린(190)에 표시되고 있는 컨텐츠들의 중심을 좌측으로 이동시키기 위한 명령어인 것으로 가정한다.5A and 5B show moving images or still images displayed on the
도 5a를 참조하면, 마이크(162)는 사용자(550)로부터 음성 "left"를 입력받아서 음성 신호를 생성한다. 제어부(110)는 상기 음성 신호에 따라 원본 이미지(500)의 중심을 우측으로 이동시킨다. 실시예에 따라 제어부(110)는 원본 이미지(500)를 우측 편향 이미지(501)로 변환할 수 있다. 또한 스크린(190)은 도 5a에 도시된 바와 같이, 우측 편향 이미지(501)를 표시한다. 그에 따라 디스플레이 장치(100)를 사용하는 사용자는, 사용자의 관점에서 원본 이미지(500)에 비하여 좌측으로 이동한 동영상 또는 이미지를 스크린(190)을 통해 볼 수 있게 된다.Referring to FIG. 5A, the
도 5b를 참조하면, 마이크(162)는 사용자로부터 음성 "right"를 입력받아서 음성 신호를 생성한다. 제어부(110)는 상기 음성 신호에 따라 원본 이미지(500)의 중심을 좌측으로 이동시킨다. 실시예에 따라 제어부(110)는 원본 이미지(500)를 좌측 편향 이미지(502)로 변환할 수 있다. 또한 스크린(190)은 도 5b에 도시된 바와 같이, 좌측 편향 이미지(502)를 표시한다. 그에 따라 디스플레이 장치(100)를 사용하는 사용자는, 사용자의 관점에서 원본 이미지(500)에 비하여 우측으로 이동한 동영상 또는 이미지를 스크린(190)을 통해 볼 수 있게 된다.Referring to FIG. 5B, the
도 5a 및 도 5b에서는 마이크(162)를 통해 입력되는 사용자의 음성에 따라 원본 이미지(500)를 좌측 편향 이미지(502) 또는 우측 편향 이미지(501)로 변환하는 예에 대해서만 도시하였으나 다른 실시예에 따라 디스플레이 장치(100)의 제어부(110)는 원본 이미지(500)의 중심을 상측으로 이동시킨 상측 편향 이미지(미도시) 또는 하측으로 이동시킨 하측 편향 이미지(미도시)로 변환할 수도 있다.실시예에 따라 마이크(162)는 원본 이미지(500)의 중심을 대각선 방향(예를 들어, 30°, 45°, 60° 등)으로 이동시키기 위한 음성을 사용자(550)로부터 입력받을 수 있으며, 그에 따라 제어부(110)는 원본 이미지(500)의 중심을 상기 대각선 방향으로 이동시킨 변환 이미지(미도시)를 생성할 수도 있다. 예를 들어, 마이크(162)가 "angle 30"에 해당하는 음성을 사용자(550)로부터 입력받았다면 제어부(110)는 원본 이미지(500)를 30° 회전시킨 변환 이미지(미도시)로 변환할 수 있다.5A and 5B show only an example of converting the
또한 제어부(110)는 카메라 모듈(150)을 통해 입력되는 눈동자의 움직임 궤적에 따라 원본 이미지(500)를 우측 편향 이미지(501) 또는 좌측 편향 이미지(502)로 변환할 수도 있다. 예를 들어, 카메라 모듈(150)을 통해 사용자의 눈동자 또는 사용자(550)의 안면이 우측에서 좌측으로 이동하는 움직임이 감지되었다면 제어부(110)는 원본 이미지(500)를 우측 편향 이미지(501)로 변환할 수 있다. 또한 카메라 모듈(150)을 통해 사용자(550)의 눈동자 또는 사용자(550)의 안면이 좌측에서 우측으로 이동하는 움직임이 감지되었다면 제어부(110)는 원본 이미지(500)를 좌측 편향 이미지(502)로 변환할 수 있다.The
실시예에 따라 마이크(162)는 원본 이미지(500)의 중심을 대각선 방향(예를 들어, 30°, 45°, 60° 등)으로 이동시키기 위한 음성을 사용자(550)로부터 입력받을 수 있으며, 그에 따라 제어부(110)는 원본 이미지(500)의 중심을 상기 대각선 방향으로 이동시킨 변환 이미지(미도시)를 생성할 수도 있다.The
도 5a 및 도 5b에서는 저장부(175)에 이미 저장되어 있는 정지 이미지를 예로 들어 설명하였지만, 다른 실시예에 따라 카메라 모듈(150)을 통해 촬영중인 경우에도 마이크(162)를 통해 입력되는 사용자의 음성에 따라 촬영되고 있는 이미지의 중심을 상하좌우로 이동시킬 수 있다. 제어부(110)는 마이크(162)를 통해 입력되는 사용자의 음성에 따라 카메라 모듈(150)에 포함된 제1카메라(151) 또는 제2카메라(152)의 렌즈를 회전시키거나 또는 렌즈의 초점을 변경하도록 제1카메라(151) 또는 제2카메라(152)를 제어할 수도 있다. 예를 들어, 카메라 모듈(150)이 촬영 동작을 수행 중인 경우에 사용자(550)로부터 "front focus"에 해당하는 음성을 마이크(162)로 입력되었다고 가정한다. 제어부(110)는 카메라 모듈(150)에 포함된 렌즈의 초점을, 디스플레이 장치(100)에 더 가까운 객체로 이동시킬 수 있다. 예를 들어, 렌즈의 초점이 디스플레이 장치(100)로부터 10m 떨어진 지점에 있는 제1객체에 맞춰진 상태라고 한다. 사용자(550)로부터 마이크(162)를 통해 "front focus"라는 음성이 입력되면, 제어부(110)는 카메라 모듈(150)을 제어하여 렌즈의 초점을 디스플레이 장치(100)로부터 5m 떨어진 지점에 있는 제2객체로 변경할 수 있다.5A and 5B illustrate a still image already stored in the
도 6은 도 1에 도시된 디스플레이 장치의 센서 모듈을 통해 입력되는 근접 센싱 입력에 따라 스크린에 표시되는 포커싱 영역을 확장하는 일 예를 나타낸 도면이다.6 is a diagram illustrating an example of expanding a focusing area displayed on a screen according to a proximity sensing input input through a sensor module of the display device shown in FIG.
도 6을 참조하면, 스크린(190)에는 컨텐츠로서 "… any people try exercises and games to reduce the stress and pass some time. But there ara some things that can't be solved with music."라는 문자가 표시되어 있다. 또한 상기의 문자들 중 사용자의 근접 센싱 입력에 따라 선택된 선택 텍스트들(포커싱 영역)을, 선택되지 않은 텍스트들(비포커싱 영역)과 구별하기 위한 제1선택자(601) 및 제2선택자(602)가 도시되어 있다. Referring to FIG. 6, the
먼저 마이크(162)가 사용자로부터 음성 "games to"를 입력받아 스크린(190)에 표시되고 있는 텍스트들 중 "games to"가 포커싱 영역으로서 먼저 선택된 것으로 가정한다. 즉 제1선택자(601) 및 제2선택자(802)에 의해 먼저 선택된 선택 텍스트 "games to"(610)인 상태에서, 센서 모듈(170), 카메라 모듈(150) 또는 스크린(190)을 통해 사용자가 엄지 손가락 및 검지 손가락의 사이를 근접시켰다가 벌리는 근접 센싱 입력이 입력된다. 상기 근접 센싱 입력에 따라 제2선택자(802)가 이동하여 선택 텍스트가 "games to reduce the stress and pass some time"(620)으로 증가한다. 상기와 같이 본 발명에 따른 디스플레이 장치(100)는 근접 센싱 입력에 따라 컨텐츠의 선택 범위, 즉 포커싱 영역을 확장시키거나 축소시킬 수 있다.First, it is assumed that the
본 실시예에서 포커싱 영역으로서 먼저 선택되었던 "game to"는 카메라 모듈(150)을 통해 생성된 눈 이미지에 따른 것일 수 있다. 본 실시예에 따른 카메라 모듈(150)은 제1카메라(151) 또는 제2카메라(152)를 통해 스크린(190)의 적어도 한 지점을 응시하는 사용자(650)의 눈동자를 촬영하여 눈 이미지를 생성할 수 있다. 제어부(110)는 상기 눈 이미지를 이용하여 스크린(190) 상에서 상기 사용자(550)가 응시한 지점의 좌표를 결정함으로써 포커싱 영역을 결정할 수 있다.The "game to" first selected as the focusing area in the present embodiment may be based on the eye image generated through the
또한 포커싱 영역은 사용자(650)가 스크린(190)의 적어도 한 지점을 직접 압압함으로써 발생하는 터치 입력에 의해 선택될 수 있다. 다른 실시예에 따라 포커싱 영역은 마이크(162)를 통해 사용자(650)로부터 "games to"에 해당하는 음성을 입력받음으로써 선택될 수 있다. 다른 실시예에 따라 포커싱 영역은 스크린(190) 표면으로부터 이격된 일정 범위 이내로부터 감지되는 근접 센싱 입력을 수신함으로써 선택될 수도 있다.The focusing area may also be selected by the touch input generated by the
이외에도 본 발명의 다양한 실시예 또는 변형예가 있을 수 있으며, 따라서 본 발명의 범위는 설명된 실시예에 의하여 정할 것이 아니고, 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.The scope of the present invention should not be limited by the embodiments described, but should be determined by equivalents of the claims and the appended claims.
100: 디스플레이 장치 110: 제어부
120: 이동통신 모듈 130: 서브통신 모듈
131: 무선랜 모듈 132: 근거리통신 모듈
140: 멀티미디어 모듈 141: 방송통신 모듈
142: 오디오 재생 모듈 143: 동영상 재생 모듈
150: 카메라 모듈 151: 제1카메라
152: 제2카메라 153: GPS 모듈
160: 입/출력 모듈 161: 버튼
162: 버튼 163: 마이크
164: 스피커 165: 커넥터
166: 키패드 167: 이어폰 연결잭
170: 센서 모듈 175: 저장부
180: 전원공급부 190: 스크린
195: 스크린 컨트롤러100: display device 110:
120: mobile communication module 130: sub communication module
131: Wireless LAN module 132: Local area communication module
140: Multimedia module 141: Broadcast communication module
142: Audio Playback Module 143: Video Playback Module
150: camera module 151: first camera
152: second camera 153: GPS module
160: Input / output module 161: Button
162: Button 163: Microphone
164: speaker 165: connector
166: Keypad 167: Earphone connection jack
170: Sensor module 175:
180: Power supply unit 190: Screen
195: Screen controller
Claims (21)
스크린에 컨텐츠들이 표시되면, 마이크를 통하여 사용자로부터 상기 컨텐츠들 중 선택 컨텐츠를 선택하기 위한 음성을 입력받는 과정과,
상기 스크린 상에서의 상기 선택 컨텐츠의 좌표를 결정하는 과정과,
상기 선택 컨텐츠의 적어도 일부가 포함된 영역을 포커싱 영역으로 결정하여 포커싱하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.A method of controlling content displayed on a screen by a display device,
Receiving a voice for selecting a selected one of the contents from a user through a microphone when the contents are displayed on a screen,
Determining coordinates of the selected content on the screen;
And focusing the area including at least a part of the selected content as a focusing area.
상기 선택 컨텐츠의 적어도 일부가 포함된 영역을 포커싱 영역으로 결정하여 포커싱하는 과정은,
상기 선택 컨텐츠를, 상기 선택 컨텐츠 이외의 다른 컨텐츠들과 구별되도록 표시하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.The method of claim 1, wherein
Determining an area including at least a part of the selected content as a focusing area and focusing the selected area,
And displaying the selected content to be distinguished from other contents than the selected content.
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하는 과정과,
상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행하는 과정을 더 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.The method according to claim 1,
Determining whether an event has occurred for the focusing area,
And performing an operation corresponding to the event when the event is generated.
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하는 과정은,
상기 포커싱 영역을 줌 인 또는 줌 아웃시키기 위한 사용자 입력을 수신하였는지 여부를 판단하는 과정을 포함하고,
상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행하는 과정은,
상기 포커싱 영역을 줌 인 또는 줌 아웃하여 표시하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.The method of claim 3,
Wherein the step of determining whether an event has occurred for the focusing area includes:
Determining whether or not a user input for zooming in or zooming out the focusing area has been received,
And performing an operation corresponding to the event when the event occurs,
And zooming in or zooming out the focusing area to display the focused area.
상기 포커싱 영역을 줌 인 또는 줌 아웃시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.5. The method of claim 4,
The user input for zooming in or zooming out the focusing area may include:
Wherein the input is input from a user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하는 과정은,
상기 포커싱 영역을 중심으로 상기 스크린에 표시된 컨텐츠들을 상하 또는 좌우로 이동시키기 위한 사용자 입력을 수신하였는지 여부를 판단하는 과정을 포함하고,
상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행하는 과정은,
상기 포커싱 영역을 중심으로 상기 컨텐츠들을 상하 또는 좌우로 이동시켜 표시하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.The method of claim 3,
Wherein the step of determining whether an event has occurred for the focusing area includes:
Determining whether or not a user input for moving the contents displayed on the screen up / down or left / right is received, based on the focusing area,
And performing an operation corresponding to the event when the event occurs,
And moving the contents by moving the contents vertically or horizontally around the focusing area.
상기 포커싱 영역을 중심으로 상기 스크린에 표시된 컨텐츠들을 상하 또는 좌우로 이동시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.The method according to claim 6,
A user input for moving the contents displayed on the screen up and down or left and right with the focusing area as a center,
Wherein the input is input from a user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하는 과정은,
상기 포커싱 영역을 확장시키기 위한 사용자 입력을 수신하였는지 여부를 판단하는 과정을 포함하고,
상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행하는 과정은,
상기 선택 컨텐츠를 기준으로 상하 또는 좌우로 상기 포커싱 영역을 확장하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.The method of claim 3,
Wherein the step of determining whether an event has occurred for the focusing area includes:
Determining whether a user input for expanding the focusing area has been received,
And performing an operation corresponding to the event when the event occurs,
And expanding the focusing area in the vertical direction or the horizontal direction based on the selected content.
상기 포커싱 영역을 확장시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.9. The method of claim 8,
Wherein the user input for expanding the focusing area comprises:
Wherein the input is input from a user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하는 과정은,
상기 포커싱 영역에 대응하는 명령어를 실행하기 위한 사용자 입력을 수신하였는지 여부를 판단하는 과정을 포함하고,
상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행하는 과정은,
상기 포커싱 영역에 대응하는 명령어를 실행하여 표시하는 과정을 포함함을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.The method of claim 3,
Wherein the step of determining whether an event has occurred for the focusing area includes:
Determining whether or not a user input for executing a command corresponding to the focusing area has been received,
And performing an operation corresponding to the event when the event occurs,
And executing a command corresponding to the focusing area to display the command.
상기 포커싱 영역에 대응하는 명령어를 실행하기 위한 사용자 입력은,
상기 카메라 모듈, 상기 스크린 및 근접 센서 중 적어도 하나를 통하여 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치의 컨텐츠 제어 방법.11. The method of claim 10,
A user input for executing a command corresponding to the focusing area,
Wherein the input is input from a user through at least one of the camera module, the screen, and the proximity sensor.
스크린과,
상기 스크린에 컨텐츠들이 표시되면, 사용자로부터 상기 컨텐츠들 중 선택 컨텐츠를 선택하기 위한 음성을 입력받는 마이크와,
상기 스크린 상에서의 상기 선택 컨텐츠의 좌표를 결정하고, 상기 선택 컨텐츠의 적어도 일부가 포함된 영역을 포커싱 영역으로 결정하고, 상기 포커싱 영역을 포커싱하도록 상기 스크린을 제어하는 제어부를 포함함을 특징으로 하는 디스플레이 장치.A display device for controlling content displayed on a screen,
A screen,
A microphone for inputting a voice for selecting a selected one of the contents from a user when the contents are displayed on the screen,
And a control unit for determining coordinates of the selected content on the screen, determining an area including at least a part of the selected content as a focusing area, and controlling the screen to focus the focusing area Device.
상기 포커싱 영역에 대한 이벤트가 발생하였는지 여부를 결정하고, 상기 이벤트가 발생한 경우 상기 이벤트에 대응하는 동작을 수행함을 특징으로 하는 디스플레이 장치.13. The apparatus according to claim 12,
Wherein the controller determines whether or not an event has occurred for the focusing area, and performs an operation corresponding to the event when the event occurs.
상기 포커싱 영역에 대한 이벤트는,
상기 포커싱 영역을 줌 인 또는 줌 아웃시키기 위한 사용자 입력을 포함하고,
상기 제어부는,
상기 포커싱 영역을 줌 인 또는 줌 아웃시키기 위한 사용자 입력을 수신하면, 상기 포커싱 영역을 줌 인 또는 줌 아웃하여 표시하도록 상기 스크린을 제어함을 특징으로 하는 디스플레이 장치.14. The method of claim 13,
The event for the focusing area may include:
And a user input for zooming in or out of the focusing area,
Wherein,
Wherein the control unit controls the screen to zoom in or zoom out the focusing area upon receiving a user input for zooming in or zooming out the focusing area.
상기 포커싱 영역을 줌 인 또는 줌 아웃시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 상기 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치.14. The method of claim 13,
The user input for zooming in or zooming out the focusing area may include:
Wherein the input is input from the user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
상기 포커싱 영역에 대한 이벤트는,
상기 포커싱 영역을 상하 또는 좌우로 이동시키기 위한 사용자 입력을 포함하고,
상기 제어부는,
상기 포커싱 영역을 상하 또는 좌우로 이동시키기 위한 사용자 입력을 수신하면, 상기 포커싱 영역을 상하 또는 좌우로 이동시켜 표시하도록 상기 스크린을 제어함을 특징으로 하는 디스플레이 장치.15. The method of claim 14,
The event for the focusing area may include:
And a user input for moving the focusing area up or down or left or right,
Wherein,
Wherein the control unit controls the screen to display the focusing area by moving the focusing area vertically or horizontally when receiving a user input for moving the focusing area vertically or horizontally.
상기 포커싱 영역을 상하 또는 좌우로 이동시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 상기 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치.17. The method of claim 16,
The user input for moving the focusing area up or down or left or right may include:
Wherein the input is input from the user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
상기 포커싱 영역에 대한 이벤트는,
상기 포커싱 영역을 확장시키기 위한 사용자 입력을 포함하고,
상기 제어부는,
상기 선택 컨텐츠를 기준으로 상하 또는 좌우로 상기 포커싱 영역을 확장하여 표시하도록 상기 스크린을 제어함을 특징으로 하는 디스플레이 장치.14. The method of claim 13,
The event for the focusing area may include:
A user input for expanding the focusing area,
Wherein,
Wherein the control unit controls the screen to display the focusing area by expanding the focusing area vertically or horizontally based on the selected content.
상기 포커싱 영역을 확장시키기 위한 사용자 입력은,
상기 스크린, 상기 마이크, 카메라 모듈 및 근접 센서 중 적어도 하나를 통하여 상기 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치.19. The method of claim 18,
Wherein the user input for expanding the focusing area comprises:
Wherein the input is input from the user through at least one of the screen, the microphone, the camera module, and the proximity sensor.
상기 포커싱 영역에 대한 이벤트는,
상기 포커싱 영역에 대응하는 명령어를 실행하기 위한 사용자 입력을 포함하고,
상기 제어부는,
상기 포커싱 영역에 대응하는 명령어를 실행하기 위한 사용자 입력을 수신하면, 상기 포커싱 영역에 대응하는 명령어를 실행하여 표시하도록 상기 스크린을 제어함을 특징으로 하는 디스플레이 장치.14. The method of claim 13,
The event for the focusing area may include:
A user input for executing a command corresponding to the focusing area,
Wherein,
And controls the screen to display and execute a command corresponding to the focusing area upon receiving a user input for executing a command corresponding to the focusing area.
상기 포커싱 영역에 대응하는 명령어를 실행하기 위한 사용자 입력은,
상기 카메라 모듈, 상기 스크린 및 근접 센서 중 적어도 하나를 통하여 사용자로부터 입력됨을 특징으로 하는 디스플레이 장치.21. The method of claim 20,
A user input for executing a command corresponding to the focusing area,
Wherein the at least one camera module is input from a user through at least one of the camera module, the screen, and the proximity sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130016407A KR20140102905A (en) | 2013-02-15 | 2013-02-15 | Method for controlling contents displyed on touch screen and display apparatus therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130016407A KR20140102905A (en) | 2013-02-15 | 2013-02-15 | Method for controlling contents displyed on touch screen and display apparatus therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140102905A true KR20140102905A (en) | 2014-08-25 |
Family
ID=51747471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130016407A KR20140102905A (en) | 2013-02-15 | 2013-02-15 | Method for controlling contents displyed on touch screen and display apparatus therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20140102905A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190043044A (en) | 2017-10-17 | 2019-04-25 | 엘지이노텍 주식회사 | Light source device |
CN111935532A (en) * | 2020-08-14 | 2020-11-13 | 腾讯科技(深圳)有限公司 | Video interaction method and device, electronic equipment and storage medium |
-
2013
- 2013-02-15 KR KR1020130016407A patent/KR20140102905A/en active Search and Examination
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190043044A (en) | 2017-10-17 | 2019-04-25 | 엘지이노텍 주식회사 | Light source device |
CN111935532A (en) * | 2020-08-14 | 2020-11-13 | 腾讯科技(深圳)有限公司 | Video interaction method and device, electronic equipment and storage medium |
CN111935532B (en) * | 2020-08-14 | 2024-03-01 | 腾讯科技(深圳)有限公司 | Video interaction method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102146244B1 (en) | Methdo for controlling display of a plurality of objects according to input related to operation for mobile terminal and the mobile terminal therefor | |
US9582168B2 (en) | Apparatus, method and computer readable recording medium for displaying thumbnail image of panoramic photo | |
US10187520B2 (en) | Terminal device and content displaying method thereof, server and controlling method thereof | |
US10635295B2 (en) | Device including plurality of touch screens and screen change method for the device | |
KR102223282B1 (en) | Mobile terminal having smart measuring tape and object size measuring method thereof | |
EP2753065B1 (en) | Method and apparatus for laying out image using image recognition | |
KR102198473B1 (en) | Mobile terminal and method for controlling the same | |
US20150019627A1 (en) | Method of sharing electronic document and devices for the same | |
KR20160045714A (en) | Application execution method by display device and display device thereof | |
US10019219B2 (en) | Display device for displaying multiple screens and method for controlling the same | |
KR20140111088A (en) | Mobile apparatus providing preview by detecting rub gesture and control method thereof | |
US20140282204A1 (en) | Key input method and apparatus using random number in virtual keyboard | |
KR20140025869A (en) | Mobile apparatus coupled with external input device and control method thereof | |
KR20140073378A (en) | Display apparatus and method for controlling thereof | |
KR20150072729A (en) | Portable apparatus and method for sharing content thereof | |
KR102186815B1 (en) | Method, apparatus and recovering medium for clipping of contents | |
US9261996B2 (en) | Mobile terminal including touch screen supporting multi-touch input and method of controlling the same | |
US9666167B2 (en) | Apparatus and method for displaying screen | |
KR101672215B1 (en) | Mobile terminal and operation method thereof | |
KR20140110646A (en) | User termial and method for displaying screen in the user terminal | |
US10146342B2 (en) | Apparatus and method for controlling operation of an electronic device | |
KR20140102905A (en) | Method for controlling contents displyed on touch screen and display apparatus therefor | |
EP4125274A1 (en) | Method and apparatus for playing videos | |
KR20140131051A (en) | electro device comprising pressure sensor and method for controlling thereof | |
KR102295170B1 (en) | Display apparatus for operating multimedia content and operation method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment |