KR102295170B1 - Display apparatus for operating multimedia content and operation method thereof - Google Patents

Display apparatus for operating multimedia content and operation method thereof Download PDF

Info

Publication number
KR102295170B1
KR102295170B1 KR1020170163351A KR20170163351A KR102295170B1 KR 102295170 B1 KR102295170 B1 KR 102295170B1 KR 1020170163351 A KR1020170163351 A KR 1020170163351A KR 20170163351 A KR20170163351 A KR 20170163351A KR 102295170 B1 KR102295170 B1 KR 102295170B1
Authority
KR
South Korea
Prior art keywords
gesture
multimedia content
moving
pinch
output
Prior art date
Application number
KR1020170163351A
Other languages
Korean (ko)
Other versions
KR20190064072A (en
Inventor
장유진
최보영
조현임
서재원
맹덕영
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020170163351A priority Critical patent/KR102295170B1/en
Publication of KR20190064072A publication Critical patent/KR20190064072A/en
Application granted granted Critical
Publication of KR102295170B1 publication Critical patent/KR102295170B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks

Abstract

사용자가 용이하게 멀티미디어 컨텐츠를 조작할 수 있도록 하는 사용자 인터페이스(User Interface; UI)를 통한 멀티미디어 컨텐츠 조작 방법 및 그 장치가 제공 된다. 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 조작 방법은, 상기 터치스크린을 통해 핀치-인 제스처(Pinch-in Gesture) 또는 핀치-아웃 제스처(Pinch-out Gesture)를 검출하는 단계와, 상기 복수의 터치 입력 좌표에 대한 이동 제스처(Moving Gesture)를 검출하는 단계 및 상기 이동 방향 및 상기 거리에 따라 상기 멀티미디어 컨텐츠의 출력을 조작하는 단계를 포함한다.A method and apparatus for manipulating multimedia content through a user interface (UI) that allow a user to easily manipulate multimedia content are provided. A multimedia content manipulation method according to an embodiment of the present invention includes detecting a pinch-in gesture or a pinch-out gesture through the touch screen, and the plurality of touches. detecting a moving gesture with respect to input coordinates and manipulating the output of the multimedia content according to the moving direction and the distance.

Description

멀티미디어 컨텐츠를 조작하는 디스플레이 장치 및 그 조작 방법{DISPLAY APPARATUS FOR OPERATING MULTIMEDIA CONTENT AND OPERATION METHOD THEREOF}A display device for manipulating multimedia content and a method for manipulating the same

본 발명은 멀티미디어 컨텐츠를 조작하는 디스플레이 장치 및 그 조작 방법에 관한 것이다. 보다 자세하게는, 멀티미디어 컨텐츠를 사용자에게 제공하는 디스플레이 장치가 사용자의 입력에 따라 멀티미디어 컨텐츠를 조작하는 방법에 관한 것이다.The present invention relates to a display device for manipulating multimedia content and a method for manipulating the same. More particularly, it relates to a method of manipulating multimedia content according to a user's input by a display device that provides multimedia content to a user.

스마트폰이나 태블릿 PC 등 휴대형 단말이 널리 보급됨에 따라 터치스크린을 구비하는 디스플레이 장치가 널리 보급되고 있다. 터치스크린은 디스플레이 패널과 함께 터치 패널을 구비함으로써 화면을 출력함과 동시에 사용자의 신체 등이 접촉하는 것을 감지할 수 있는 입/출력 장치이다.As portable terminals such as smartphones and tablet PCs are widely used, display devices having a touch screen have been widely used. A touch screen is an input/output device capable of detecting a touch of a user's body or the like while outputting a screen by including a touch panel together with a display panel.

본 발명이 해결하고자 하는 기술적 과제는, 사용자가 용이하게 멀티미디어 컨텐츠를 조작할 수 있도록 하는 사용자 인터페이스(User Interface; UI)를 제공하는 것이다.The technical problem to be solved by the present invention is to provide a user interface (UI) that allows a user to easily manipulate multimedia content.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 조작 방법은, 상기 멀티미디어 컨텐츠를 출력하는 단계와, 상기 터치스크린을 통해 검출된 복수의 터치 입력 좌표들로부터 핀치-인 제스처(Pinch-in Gesture) 또는 핀치-아웃 제스처(Pinch-out Gesture)를 검출하는 단계와, 상기 핀치-인 제스처(Pinch-in Gesture) 또는 상기 핀치-아웃 제스처(Pinch-out Gesture)에 대한 응답으로, 상기 터치스크린에 제1 객체를 표시하는 단계와, 상기 복수의 터치 입력 좌표에 대한 이동 제스처(Moving Gesture)를 검출하는 단계와, 상기 이동 제스처의 이동 방향 및 거리에 따라 상기 제1 객체가 표시되는 위치를 이동하는 단계 및 상기 이동 방향 및 상기 거리에 따라 상기 멀티미디어 컨텐츠의 출력을 조작하는 단계를 포함할 수 있다.In order to solve the above technical problem, a multimedia content manipulation method according to an embodiment of the present invention includes the steps of outputting the multimedia content, and a pinch-in gesture ( detecting a pinch-in gesture or a pinch-out gesture, and in response to the pinch-in gesture or the pinch-out gesture, Displaying a first object on the touch screen, detecting a moving gesture with respect to the plurality of touch input coordinates, and displaying the first object according to the moving direction and distance of the moving gesture It may include moving the location and manipulating the output of the multimedia content according to the moving direction and the distance.

또한, 다른 실시 예에 따르면, 상기 멀티미디어 컨텐츠는 지도 정보를 포함하고, 상기 출력을 조작하는 단계는 상기 지도 정보가 출력되는 축척을 변경하는 것을 특징으로 할 수 있다.Also, according to another embodiment, the multimedia content may include map information, and the manipulating the output may include changing a scale at which the map information is output.

또한, 또 다른 실시 예에 따르면, 상기 멀티미디어 컨텐츠는 이미지 또는 동영상을 포함하고, 상기 출력을 조작하는 단계는 상기 이미지 또는 동영상을 출력하기 위해 설정되는 출력 옵션을 변경하는 것을 특징으로 할 수 있다.Also, according to another embodiment, the multimedia content may include an image or a moving picture, and the step of manipulating the output may include changing an output option set to output the image or moving picture.

또한, 또 다른 실시 예에 따르면, 상기 멀티미디어 컨텐츠는 텍스트를 포함하고, 상기 출력을 조작하는 단계는 상기 텍스트의 폰트 사이즈(font size)를 변경하는 것을 특징으로 할 수 있다.Also, according to another embodiment, the multimedia content may include text, and the step of manipulating the output may include changing a font size of the text.

또한, 또 다른 실시 예에 따르면, 상기 멀티미디어 컨텐츠를 출력하는 단계는 동영상 또는 음향을 재생하는 단계를 포함하고, 상기 출력을 조작하는 단계는 상기 동영상 또는 상기 음향의 재생 위치를 변경하는 것을 특징으로 할 수 있다.In addition, according to another embodiment, the step of outputting the multimedia content includes the step of playing a video or sound, and the step of manipulating the output is characterized in that the playback position of the video or the sound is changed. can

또한, 또 다른 실시 예에 따르면, 상기 제1 객체를 표시하는 단계는 상기 제1 객체가 이동되는 범위 내에 표시되는 탐색 바(bar) 및 상기 탐색 바의 일측에 위치하는 조작값을 포함하는 제2 객체를 더 표시하는 것을 특징으로 할 수 있다.In addition, according to another embodiment, the displaying of the first object includes a search bar displayed within a moving range of the first object and a second operation value located at one side of the search bar. It may be characterized in that the object is further displayed.

또한, 또 다른 실시 예에 따르면, 상기 이동 제스처를 검출하는 단계는, 상기 복수의 터치 입력 좌표들 각각이 이동한 거리와 방향을 나타내는 벡터들로부터 이동 제스처 벡터를 산출하는 단계와, 상기 이동 제스처의 벡터로부터 제1 객체에 대한 이동 방향 성분과 법선 방향 성분을 분리하는 단계와, 상기 법선 방향 성분의 크기에 대한 상기 이동 방향 성분의 비가 임계값 이상인 경우, 상기 이동하는 단계 및 상기 조작하는 단계를 실행하는 단계를 포함할 수 있다.According to another embodiment, the detecting of the movement gesture may include calculating a movement gesture vector from vectors indicating the distance and direction moved by each of the plurality of touch input coordinates; Separating the movement direction component and the normal direction component for the first object from the vector, and when the ratio of the movement direction component to the size of the normal direction component is equal to or greater than a threshold value, the moving and the manipulating are executed may include the step of

또한, 또 다른 실시 예에 따르면, 상기 멀티미디어 컨텐츠 조작 방법은, 상기 이동 제스처가 검출된 경우, 상기 터치 입력 좌표들 사이의 거리를 산출하는 단계 및 상기 산출된 거리에 기초하여 조작량을 결정하는 단계를 더 포함하고, 상기 조작하는 단계는 상기 결정된 조작량에 기초하여 상기 멀티미디어 컨텐츠의 출력을 조작하는 것을 특징으로 할 수 있다.In addition, according to another embodiment, the method for manipulating multimedia content includes, when the movement gesture is detected, calculating a distance between the touch input coordinates and determining a manipulation amount based on the calculated distance. Further comprising, the manipulating step may be characterized in that the manipulation of the output of the multimedia content based on the determined manipulation amount.

상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 디스플레이 장치는, 프로세서와, 상기 프로세서에 의해 실행되는 복수의 오퍼레이션들을 저장하는 메모리 및 화면을 출력하고 터치 입력을 감지하는 터치 스크린을 포함하되, 상기 복수의 오퍼레이션들은 멀티미디어 컨텐츠를 출력하는 오퍼레이션과, 상기 터치스크린을 통해 검출된 복수의 터치 입력 좌표들로부터 핀치-인 제스처(Pinch-in Gesture) 또는 핀치-아웃 제스처(Pinch-out Gesture)를 검출하는 오퍼레이션과, 상기 핀치-인 제스처(Pinch-in Gesture) 또는 상기 핀치-아웃 제스처(Pinch-out Gesture)에 대한 응답으로, 상기 화면에 제1 객체를 표시하는 오퍼레이션과, 상기 복수의 터치 입력 좌표에 대한 이동 제스처(Moving Gesture)를 검출하는 오퍼레이션과, 상기 이동 제스처의 이동 방향 및 거리에 따라 상기 제1 객체가 표시되는 위치를 이동하는 오퍼레이션 및 상기 이동 방향 및 상기 거리에 따라 상기 멀티미디어 컨텐츠의 출력을 조작하는 오퍼레이션을 포함할 수 있다.In order to solve the above technical problem, a display device according to an embodiment of the present invention includes a processor, a memory for storing a plurality of operations executed by the processor, and a touch screen for outputting a screen and detecting a touch input However, the plurality of operations include an operation of outputting multimedia content and a pinch-in gesture or a pinch-out gesture from a plurality of touch input coordinates detected through the touch screen. an operation of detecting , and an operation of displaying a first object on the screen in response to the pinch-in gesture or the pinch-out gesture; An operation of detecting a moving gesture with respect to input coordinates, an operation of moving a position where the first object is displayed according to the moving direction and distance of the moving gesture, and the multimedia content according to the moving direction and the distance It can include operations that manipulate the output of .

또한, 다른 실시 예에 따른 디스플레이 장치는, 카메라를 더 포함하고, 상기 멀티미디어 컨텐츠는 상기 카메라를 통해 획득되는 미리보기 영상 신호이며, 상기 출력을 조작하는 오퍼레이션은, 상기 카메라를 제어하는 오퍼레이션을 포함할 수 있다.In addition, the display apparatus according to another embodiment may further include a camera, wherein the multimedia content is a preview image signal obtained through the camera, and the operation of manipulating the output may include an operation of controlling the camera. can

상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 비일시적(non-transitory) 컴퓨터 판독 가능한 매체에 기록된 컴퓨터 프로그램은, 상기 컴퓨터 프로그램의 명령어들이 서버의 프로세서에 의해 실행되는 경우에, 화면을 포함하는 멀티미디어 컨텐츠를 출력하는 단계와, 복수의 터치 입력 좌표들로부터 핀치-인 제스처(Pinch-in Gesture) 또는 핀치-아웃 제스처(Pinch-out Gesture)를 검출하는 단계와, 상기 핀치-인 제스처(Pinch-in Gesture) 또는 상기 핀치-아웃 제스처(Pinch-out Gesture)에 대한 응답으로, 상기 화면에 제1 객체를 표시하는 단계와, 상기 복수의 터치 입력 좌표에 대한 이동 제스처(Moving Gesture)를 검출하는 단계와, 상기 이동 제스처의 이동 방향 및 거리에 따라 상기 제1 객체가 표시되는 위치를 이동하는 단계 및 상기 이동 방향 및 상기 거리에 따라 상기 멀티미디어 컨텐츠의 출력을 조작하는 단계를 포함하는 동작이 수행되는 것을 특징으로 할 수 있다.A computer program recorded in a non-transitory computer-readable medium according to an embodiment of the present invention for solving the technical problem, when the instructions of the computer program are executed by a processor of a server, Outputting multimedia content including a screen, detecting a pinch-in gesture or a pinch-out gesture from a plurality of touch input coordinates, the pinch-in In response to a gesture (Pinch-in Gesture) or the pinch-out gesture (Pinch-out Gesture), displaying a first object on the screen, and a moving gesture with respect to the plurality of touch input coordinates (Moving Gesture) An operation comprising the steps of: detecting, moving a position where the first object is displayed according to the moving direction and distance of the moving gesture, and manipulating the output of the multimedia content according to the moving direction and the distance This may be characterized in that it is performed.

도 1은 일 실시 예에 따른 디스플레이 장치의 구조를 도시한 도면이다.
도 2는 핀치-인 제스처(Pinch-in Gesture) 및 핀치-아웃(Pinch-out Gesture)를 설명하기 위한 예시를 도시한 도면이다.
도 3은 일 실시 예에 따라 디스플레이 장치가 멀티미디어 컨텐츠를 조작하는 프로세스를 도시한 도면이다.
도 4는 일 실시 예에 따라 표시되는 제1 객체 및 제2 객체를 도시한 도면이다.
도 5는 일 실시 예에 따른 이동 제스처(Moving Gesture)를 설명하기 위한 개념을 도시한 도면이다.
도 6은 일 실시 예에 따라 지도 정보의 출력을 조작하는 예시를 도시한 도면이다.
도 7은 일 실시 예에 따라 이미지의 출력을 조작하는 예시를 도시한 도면이다.
도 8은 일 실시 예에 따라 텍스트의 폰트(font)를 조작하는 예시를 도시한 도면이다.
도 9는 일 실시 예에 따라 이동 제스처를 검출하는 프로세스를 도시한 도면이다.
도 10은 일 실시 예에 따라 터치 입력이 이동 제스처인지 여부를 판단하는 방법을 설명하기 위한 개념을 도시한 도면이다.
도 11은 일 실시 예에 따라 디스플레이 장치가 조작량에 따라 멀티미디어 컨텐츠의 출력을 조작하는 프로세스를 도시한 도면이다.
도 12는 일 실시 예에 따라 디스플레이 장치가 조작량에 따라 제1 객체가 표시되는 위치를 이동하는 예시를 설명하기 위한 도면이다.
1 is a diagram illustrating a structure of a display device according to an exemplary embodiment.
2 is a diagram illustrating an example for explaining a pinch-in gesture and a pinch-out gesture.
3 is a diagram illustrating a process in which a display apparatus manipulates multimedia content according to an embodiment.
4 is a diagram illustrating a first object and a second object displayed according to an exemplary embodiment.
5 is a diagram illustrating a concept for explaining a moving gesture according to an embodiment.
6 is a diagram illustrating an example of manipulating the output of map information according to an embodiment.
7 is a diagram illustrating an example of manipulating an output of an image according to an embodiment.
8 is a diagram illustrating an example of manipulating a font of text according to an embodiment.
9 is a diagram illustrating a process for detecting a movement gesture according to an embodiment.
10 is a diagram illustrating a concept for explaining a method of determining whether a touch input is a movement gesture, according to an embodiment.
11 is a diagram illustrating a process in which a display apparatus manipulates an output of multimedia content according to a manipulation amount, according to an exemplary embodiment.
12 is a diagram for describing an example in which a display device moves a position where a first object is displayed according to a manipulation amount, according to an exemplary embodiment.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments published below, but may be implemented in various different forms, only these embodiments make the publication of the present invention complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular. The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase.

본 명세서에서, "터치 또는 "터치 입력"이라 함은 직접 접촉하는 경우뿐만 아니라, 디스플레이 장치가 디스플레이 장치에 근접(예를 들어, 2 cm 이내)한 사용자의 신체를 감지하는 경우를 포함할 수 있다.In this specification, the term "touch or touch input" may include not only a case of direct contact, but also a case where the display device detects the body of a user who is close to the display device (eg, within 2 cm). .

이하, 도면들을 참조하여 본 발명의 몇몇 실시예들을 설명한다.Hereinafter, some embodiments of the present invention will be described with reference to the drawings.

도 1은 일 실시 예에 따른 디스플레이 장치의 구조를 도시한 도면이다. 도 1 은 일 실시 예에 따른 디스플레이 장치일 뿐이며, 본 발명에 따른 디스플레이 장치는 도 1에 도시된 구성요소보다 적은 구성요소를 포함하거나, 보다 많은 구성요소를 포함할 수 있다.1 is a diagram illustrating a structure of a display device according to an exemplary embodiment. 1 is only a display device according to an exemplary embodiment, and the display device according to the present invention may include fewer or more components than those illustrated in FIG. 1 .

디스플레이 장치(100)는 이동통신 모듈(120), 서브통신 모듈(130) 및 커넥터(165)를 이용하여 외부장치(도시되지 않음)와 연결될 수 있다. 외부장치는 다른 장치(도시되지 않음), 휴대폰(도시되지 않음), 스마트폰(도시되지 않음), 태블릿PC(도시되지 않음) 및 서버(도시되지 않음) 중 적어도 하나를 포함할 수 있다.The display device 100 may be connected to an external device (not shown) using the mobile communication module 120 , the sub communication module 130 , and the connector 165 . The external device may include at least one of another device (not shown), a mobile phone (not shown), a smart phone (not shown), a tablet PC (not shown), and a server (not shown).

도 1을 참조하면, 디스플레이 장치(100)는 터치스크린(190) 및 터치 스크린 컨트롤러(195)를 포함한다. 또한, 디스플레이 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원공급부(180)를 포함할 수 있다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함할 수 있다. 카메라 모듈(150)은 제 1 카메라(151) 및 제 2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 1 , the display apparatus 100 includes a touch screen 190 and a touch screen controller 195 . In addition, the display device 100 includes a control unit 110 , a mobile communication module 120 , a sub communication module 130 , a multimedia module 140 , a camera module 150 , a GPS module 155 , an input/output module ( 160 ), a sensor module 170 , a storage unit 175 , and a power supply unit 180 . The sub communication module 130 includes at least one of a wireless LAN module 131 and a short-range communication module 132, and the multimedia module 140 includes a broadcast communication module 141, an audio playback module 142, and a video playback module. It may include at least one of (143). The camera module 150 includes at least one of a first camera 151 and a second camera 152 , and the input/output module 160 includes a button 161 , a microphone 162 , a speaker 163 , and vibration. It may include at least one of a motor 164 , a connector 165 , and a keypad 166 .

제어부(110)는 CPU(111), 디스플레이 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(112) 및 디스플레이 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 디스플레이 장치(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 메모리인 램(113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어 등 복수의 프로세서를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(BUS)를 통해 상호 연결될 수 있다.The control unit 110 stores signals or data input from the outside of the CPU 111 , the ROM 112 in which a control program for controlling the display apparatus 100 is stored, and the display apparatus 100 , or the display apparatus 100 . It may include a RAM 113 that is a memory used as a storage area for a work performed in the . The CPU 111 may include a plurality of processors such as single core, dual core, triple core, or quad core. The CPU 111 , the ROM 112 , and the RAM 113 may be interconnected through an internal bus BUS.

제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 터치스크린(190) 및 터치스크린 컨트롤러(195)를 제어할 수 있다.The control unit 110 includes a mobile communication module 120 , a sub communication module 130 , a multimedia module 140 , a camera module 150 , a GPS module 155 , an input/output module 160 , a sensor module 170 , and storage. The unit 175 , the power supply unit 180 , the touch screen 190 , and the touch screen controller 195 can be controlled.

이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나(하나 또는 복수)의 안테나(도시되지 않음)를 이용하여 이동 통신을 통해 디스플레이 장치(100)가 외부 장치와 연결되도록 할 수 있다. 이동통신 모듈(120)은 디스플레이 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 않음), 스마트폰(도시되지 않음), 태블릿 PC(도시되지 않음) 또는 다른 장치(도시되지 않음)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS) 전송을 하기 위한 무선 신호를 송/수신할 수 있다.The mobile communication module 120 may allow the display device 100 to be connected to an external device through mobile communication using at least one (one or a plurality of) antennas (not shown) under the control of the controller 110 . . The mobile communication module 120 communicates with a mobile phone (not shown), a smart phone (not shown), a tablet PC (not shown) or another device (not shown) having a phone number input to the display device 100 and It can transmit/receive a wireless signal for transmitting a voice call, a video call, a text message (SMS) or a multimedia message (MMS).

서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수 있다.The sub communication module 130 may include at least one of a wireless LAN module 131 and a short-range communication module 132 . For example, only the wireless LAN module 131 may be included, only the short-range communication module 132 may be included, or both the wireless LAN module 131 and the short-range communication module 132 may be included.

무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 AP(access point)(도시되지 않음)가 설치된 장소에서 인터넷에 연결할 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격 IEEE802.11x를 지원할 수 있다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 디스플레이 장치(100)와 화상형성장치(도시되지 않음) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(Bluetooth), 적외선 통신(IrDA, infrared data association), 지그비(Zig-bee) 방식 등 이 포함될 수 있다.The wireless LAN module 131 may connect to the Internet at a location where a wireless access point (AP) (not shown) is installed under the control of the controller 110 . The wireless LAN module 131 may support the IEEE802.11x wireless LAN standard of the American Institute of Electrical and Electronics Engineers (IEEE). The short-range communication module 132 may perform wireless short-distance communication between the display apparatus 100 and an image forming apparatus (not shown) under the control of the controller 110 . The short-distance communication method may include Bluetooth, infrared data association (IrDA), Zig-bee, and the like.

디스플레이 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다.The display apparatus 100 may include at least one of a mobile communication module 120 , a wireless LAN module 131 , and a short-range communication module 132 according to performance.

멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 않음)를 통해 방송국에서부터 송출되는 방송 신호(예를 들어, TV 방송 신호, 라디오 방송 신호 또는 데이터방송 신호) 및 방송 부가 정보(예를 들어, EPG(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오 재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일을 재생할 수 있다. 동영상 재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.The multimedia module 140 may include a broadcast communication module 141 , an audio playback module 142 , or a video playback module 143 . The broadcast communication module 141 includes a broadcast signal (eg, a TV broadcast signal, a radio broadcast signal, or a data broadcast signal) transmitted from a broadcast station through a broadcast communication antenna (not shown) under the control of the controller 110 and broadcast Additional information (eg, an electric program guide (EPG) or an electric service guide (ESG)) may be received. The audio reproduction module 142 may reproduce a stored or received digital audio file under the control of the controller 110 . The video playback module 143 may play a stored or received digital video file under the control of the controller 110 . The video reproduction module 143 may reproduce a digital audio file.

멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(100)에 포함될 수 있다.The multimedia module 140 may include an audio playback module 142 and a video playback module 143 excluding the broadcast communication module 141 . In addition, the audio reproduction module 142 or the video reproduction module 143 of the multimedia module 140 may be included in the controller 100 .

카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제 1 카메라(151) 및 제 2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 제 1 카메라(151) 또는 제 2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(도시되지 않음)을 포함할 수 있다. 제 1 카메라(151)는 상기 디스플레이 장치(100) 전면에 배치되고, 제 2 카메라(152)는 상기 디스플레이 장치(100)의 후면에 배치될 수 있다. 또는, 제 1 카메라(151)와 제 2 카메라(152)는 인접하게(예를 들어, 간격이 1 cm보다 크고, 8 cm 보다 작게) 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.The camera module 150 may include at least one of a first camera 151 and a second camera 152 for capturing still images or moving images under the control of the controller 110 . Also, the first camera 151 or the second camera 152 may include an auxiliary light source (not shown) that provides an amount of light required for photographing. The first camera 151 may be disposed on the front side of the display device 100 , and the second camera 152 may be disposed on the back side of the display device 100 . Alternatively, the first camera 151 and the second camera 152 may be disposed adjacent to each other (eg, with an interval greater than 1 cm and less than 8 cm) to capture a 3D still image or a 3D video.

GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS 위성(도시되지 않음)에서부터 전파를 수신하고, GPS 위성(도시되지 않음)에서부터 디스플레이장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 디스플레이 장치(100)의 위치를 산출할 수 있다.The GPS module 155 receives radio waves from a plurality of GPS satellites (not shown) on Earth's orbit, and uses a time of arrival from the GPS satellites (not shown) to the display device 100 . Thus, the position of the display apparatus 100 may be calculated.

입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함할 수 있다.The input/output module 160 may include at least one of a plurality of buttons 161 , a microphone 162 , a speaker 163 , a vibration motor 164 , a connector 165 , and a keypad 166 .

버튼(161)은 상기 디스플레이 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 않음), 볼륨버튼(도시되지 않음) 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.The button 161 may be formed on the front, side, or rear of the housing of the display device 100 , and includes a power/lock button (not shown), a volume button (not shown), a menu button, a home button, and a return button. It may include at least one of a back button and a search button 161 .

마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성할 수 있다.The microphone 162 may generate an electrical signal by receiving a voice or sound under the control of the controller 110 .

스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호에 대응되는 사운드를 디스플레이 장치(100) 외부로 출력할 수 있다. 스피커(163)는 디스플레이 장치(100)가 수행하는 기능에 대응되는 사운드를 출력할 수 있다. 스피커(163)는 상기 디스플레이 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.The speaker 163 displays sounds corresponding to various signals of the mobile communication module 120 , the sub communication module 130 , the multimedia module 140 , or the camera module 150 according to the control of the controller 110 , to the display apparatus 100 . ) can be output externally. The speaker 163 may output a sound corresponding to a function performed by the display apparatus 100 . One or a plurality of speakers 163 may be formed at an appropriate location or locations of the housing of the display device 100 .

진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 디스플레이 장치(100)는 다른 장치(도시되지 않음)로부터 음성통화가 수신되는 경우, 진동 모터(164)가 동작할 수 있다. 진동 모터(164)는 터치스크린(190) 상에 접촉하는 사용자의 터치 동작 및 터치스크린(190) 상에서의 터치 입력의 연속적인 움직임에 응답하여 동작할 수 있다.The vibration motor 164 may convert an electrical signal into mechanical vibration under the control of the controller 110 . For example, the display device 100 in the vibration mode may operate the vibration motor 164 when a voice call is received from another device (not shown). The vibration motor 164 may operate in response to a user's touch operation making contact on the touch screen 190 and a continuous movement of a touch input on the touch screen 190 .

커넥터(165)는 디스플레이 장치(100)와 외부장치(도시되지 않음) 또는 전원소스(도시되지 않음)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 디스플레이 장치(100)의 저장부(175)에 저장된 데이터를 외부장치(도시되지 않음)로 전송하거나 외부장치(도시되지 않음)에서부터 데이터를 수신할 수 있다. 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 않음)에서부터 전원이 입력되거나 배터리(도시되지 않음)를 충전할 수 있다.The connector 165 may be used as an interface for connecting the display device 100 and an external device (not shown) or a power source (not shown). Data stored in the storage unit 175 of the display apparatus 100 is transmitted to an external device (not shown) or an external device (not shown) through a wired cable connected to the connector 165 under the control of the controller 110 . data can be received from Power may be input from a power source (not shown) through a wired cable connected to the connector 165 or a battery (not shown) may be charged.

키패드(166)는 디스플레이 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 디스플레이 장치(100)에 형성되는 물리적인 키패드(도시되지 않음) 또는 터치스크린(190)에 표시되는 가상의 키패드(도시되지 않음)를 포함한다. 디스플레이 장치(100)에 형성되는 물리적인 캐피드(도시되지 않음)는 디스플레이 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.The keypad 166 may receive a key input from a user to control the display apparatus 100 . The keypad 166 includes a physical keypad (not shown) formed on the display device 100 or a virtual keypad (not shown) displayed on the touch screen 190 . A physical cap (not shown) formed in the display apparatus 100 may be excluded depending on the performance or structure of the display apparatus 100 .

센서 모듈(170)은 디스플레이 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 디스플레이 장치(100)에 대한 접근여부를 검출하는 근접센서, 디스플레이 장치(100) 주변의 빛의 양을 검출하는 조도센서(도시되지 않음) 또는 디스플레이 장치(100)의 동작(예를 들어, 디스플레이 장치(100)의 회전, 디스플레이 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 모션센서(도시되지 않음)를 포함할 수 있다. 센서모듈(170)의 센서는 디스플레이 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.The sensor module 170 includes at least one sensor that detects the state of the display apparatus 100 . For example, the sensor module 170 may include a proximity sensor for detecting whether the user approaches the display device 100 , an illuminance sensor (not shown) for detecting the amount of light around the display device 100 , or a display device. It may include a motion sensor (not shown) that detects the operation (eg, rotation of the display apparatus 100 , acceleration or vibration applied to the display apparatus 100 ). The sensor of the sensor module 170 may be added or deleted according to the performance of the display apparatus 100 .

저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 디스플레이 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.The storage unit 175 includes a mobile communication module 120 , a sub communication module 130 , a multimedia module 140 , a camera module 150 , a GPS module 155 , and an input/output module according to the control of the controller 110 . It is possible to store signals or data input/output corresponding to the operations of 160 , the sensor module 170 , and the touch screen 190 . The storage unit 175 may store control programs and applications for controlling the display apparatus 100 or the controller 110 .

"저장부"라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 디스플레이 장치(100)에 장착되는 메모리 카드(도시되지 않음)를 포함할 수 있다. 저장부는 비휘발성메모리, 휘발성메모리, 하드디스크드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.The term “storage unit” may include a storage unit 175 , a ROM 112 in the control unit 110 , a RAM 113 , or a memory card (not shown) mounted in the display apparatus 100 . The storage unit may include a non-volatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).

전원공급부(180)는 제어부(110)의 제어에 따라 디스플레이 장치(100)의 하우징에 배치되는 적어도 하나의 배터리(도시되지 않음)에 전원을 공급할 수 있다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 않음)로부터 입력되는 전원을 디스플레이 장치(100)의 각 부로 공급할 수 있다.The power supply unit 180 may supply power to at least one battery (not shown) disposed in the housing of the display apparatus 100 under the control of the control unit 110 . Also, the power supply unit 180 may supply power input from an external power source (not shown) to each unit of the display apparatus 100 through a wired cable connected to the connector 165 .

터치스크린(190)은 사용자에게 다양한 서비스에 대응되는 사용자 인터페이스를 출력할 수 있다. 터치스크린(190)은 사용자 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다. 터치스크린(190)은 사용자의 신체(예를 들어, 손가락) 또는 터치 가능한 입력 수단(예를 들어, 스타일러스 펜)을 통해 적어도 하나의 터치 입력을 수신할 수 있다. 또한, 터치스크린(190)은 적어도 하나의 터치 입력의 연속적인 움직임을 수신할 수 있다. 터치스크린(190)은 터치 입력의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다.The touch screen 190 may output a user interface corresponding to various services to the user. The touch screen 190 may transmit an analog signal corresponding to at least one touch input to the user interface to the touch screen controller 195 . The touch screen 190 may receive at least one touch input through a user's body (eg, a finger) or a touchable input means (eg, a stylus pen). Also, the touch screen 190 may receive continuous movement of at least one touch input. The touch screen 190 may transmit an analog signal corresponding to the continuous movement of the touch input to the touch screen controller 195 .

본 발명에서 터치 입력이라 함은 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉을 통한 입력에 한정되지 않고, 비접촉 입력(예를 들어, 터치스크린(190)과 신체 간의 간격이 1mm 이하)을 포함할 수 있다. 터치스크린(190)에서 검출가능한 간격은 디스플레이 장치(100)의 성능 또는 구조에 따라 변경될 수 있다.In the present invention, the touch input is not limited to input through contact between the touch screen 190 and the user's body or a touchable input means, and a non-contact input (eg, the distance between the touch screen 190 and the body) is not limited. 1 mm or less). The detectable interval on the touch screen 190 may be changed according to the performance or structure of the display apparatus 100 .

터치스크린(190)은, 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(ultrasound wave)방식으로 구현될 수 있다.The touch screen 190 may be implemented by, for example, a resistive method, a capacitive method, an infrared method, or an ultrasonic wave method.

터치스크린 컨트롤러(195)는 터치스크린(190)으로부터 수신된 아날로그 신호를 디지털 신호(예를 들어, X 좌표 및 Y 좌표)로 변환하여 제어부(110)로 전송할 수 잇다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 입력에 응답하여 터치스크린(190)에 표시된 애플리케이션 실행 아이콘(도시되지 않음)을 선택하거나 또는 애플리케이션을 실행할 수 있다. 터치스크린 컨트롤러(195)는 터치스크린(190) 또는 제어부(110)에 포함될 수 있다.The touch screen controller 195 may convert an analog signal received from the touch screen 190 into a digital signal (eg, X coordinate and Y coordinate) and transmit it to the controller 110 . The controller 110 may control the touch screen 190 using a digital signal received from the touch screen controller 195 . For example, the controller 110 may select an application execution icon (not shown) displayed on the touch screen 190 in response to a touch input or may execute an application. The touch screen controller 195 may be included in the touch screen 190 or the controller 110 .

도 2는 핀치-인 제스처(Pinch-in Gesture) 및 핀치-아웃(Pinch-out Gesture)를 설명하기 위한 예시를 도시한 도면이다. 특히, 도 2의 (a)는 핀치-인 체스터를 설명하기 위한 도면이다. 디스플레이 장치(100)는 터치스크린(190) 상에 터치 입력이 검출된 복수의 위치들(211, 212)에 대한 터치 입력 좌표들을 획득할 수 있다. 여기서, 복수의 위치들(211, 212)에 대한 터치 입력이 유지된 상태에서, 터치 입력이 감지되는 위치들의 터치 입력 좌표들이 서로 반대 방향(221, 222)으로 이동될 수 있다. 여기서, 반대 방향이라는 것은 서로 정확히 정반대 방향을 향하는 것 만을 의미하는 것이 아니라, 터치 입력 좌표가 서로 멀어지는 방향으로 이동하는 것을 포함한다. 터치 입력이 감지되는 위치들의 터치 입력 좌표들이 서로 반대 방향(221, 222)으로 이동한 경우, 디스플레이 장치(100)는 핀치-인 제스처가 입력된 것으로 판단할 수 있다.2 is a diagram illustrating an example for explaining a pinch-in gesture and a pinch-out gesture. In particular, FIG. 2A is a diagram for explaining a pinch-in chester. The display apparatus 100 may obtain touch input coordinates for a plurality of locations 211 and 212 where a touch input is detected on the touch screen 190 . Here, in a state where the touch input to the plurality of locations 211 and 212 is maintained, the touch input coordinates of the locations where the touch input is sensed may be moved in opposite directions 221 and 222 to each other. Here, the opposite direction does not mean that the direction is exactly opposite to each other, but includes movement of the touch input coordinates in a direction away from each other. When the touch input coordinates of positions where the touch input is sensed move in opposite directions 221 and 222 , the display apparatus 100 may determine that a pinch-in gesture is input.

또한, 도 2의 (b)는 핀치-아웃 제스처를 설명하기 위한 도면이다. 판치-인 제스처와는 반대로, 터치스크린(190) 상에 터치 입력이 검출된 복수의 위치들(213, 214)의 터치 입력 좌표가 마주 보는 방향(223, 224)으로 이동하는 경우, 디스플레이 장치(100)는 핀치-아웃 제스처가 입력된 것으로 판단할 수 있다. 여기서, 마주 보는 방향이라 함은 서로 정확하게 마주하는 방향만을 의미하는 것이 아니라, 터치 입력 좌표들이 서로 가까워지는 방향으로 이동하는 것을 포함한다.Also, FIG. 2B is a diagram for explaining a pinch-out gesture. Contrary to the panchi-in gesture, when the touch input coordinates of the plurality of locations 213 and 214 where the touch input is detected on the touch screen 190 move in the opposite directions 223 and 224, the display device ( 100) may determine that a pinch-out gesture is input. Here, the facing direction does not mean only the directions exactly facing each other, but includes moving in a direction in which the touch input coordinates become closer to each other.

도 3은 일 실시 예에 따라 디스플레이 장치(100)가 멀티미디어 컨텐츠를 조작하는 프로세스를 도시한 도면이다.3 is a diagram illustrating a process in which the display apparatus 100 manipulates multimedia content according to an exemplary embodiment.

먼저, 디스플레이 장치(100)는 멀티미디어 컨텐츠를 출력할 수 있다(S310). 본 명세서에서, 멀티미디어 컨텐츠는 이미지(정지 영상을 포함한다), 동영상, 음향, 텍스트 및 도표 중 하나 이상을 포함하는 정보를 의미한다.First, the display apparatus 100 may output multimedia content (S310). In this specification, multimedia content means information including at least one of an image (including a still image), a moving picture, a sound, text, and a diagram.

이후, 디스플레이 장치(100)는 터치스크린(190)을 통해 검출되는 터치 입력을 모니터링할 수 있다(S320). 터치 입력을 모니터링한 결과로, 디스플레이 장치(100)는 검출된 터치 입력이 핀치-인 제스처 또는 핀치-아웃 제스처인지 여부를 판단할 수 있다(S330). 검출된 터치 입력이 핀치-인 제스처 또는 핀치-아웃 제스처가 아닌 경우, 디스플레이 장치(100)는 다시 단계 S320을 수행함으로써 계속해서 터치 입력을 모니터링할 수 있다.Thereafter, the display apparatus 100 may monitor a touch input detected through the touch screen 190 ( S320 ). As a result of monitoring the touch input, the display apparatus 100 may determine whether the detected touch input is a pinch-in gesture or a pinch-out gesture ( S330 ). When the detected touch input is not a pinch-in gesture or a pinch-out gesture, the display apparatus 100 may continuously monitor the touch input by performing step S320 again.

검출된 터치 입력이 핀치-인 제스처 또는 핀치-아웃 제스처인 경우, 디스플레이 장치(100)는 제1 객체를 표시할 수 있다(S340). 여기서, 제1 객체는 디스플레이 장치(100)의 터치스크린(190) 상에 표시되는 사용자 인터페이스(UI) 객체일 수 있다. 예를 들어, 제1 객체는 그래픽 유저 인터페이스(Graphic User Interface; GUI)를 구성하는 아이콘, 도형 또는 이미지일 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 단계 S340이 수행되기 전에 S340에서 터치스크린(190) 상에 표시된 화면에 오버랩(overlap)하여 제1 객체를 표시할 수 있다.When the detected touch input is a pinch-in gesture or a pinch-out gesture, the display apparatus 100 may display the first object (S340). Here, the first object may be a user interface (UI) object displayed on the touch screen 190 of the display apparatus 100 . For example, the first object may be an icon, a figure, or an image constituting a graphical user interface (GUI). According to an embodiment, the display apparatus 100 may display the first object by overlapping the screen displayed on the touch screen 190 in S340 before step S340 is performed.

또한, 다른 일 실시 예에 따르면, 디스플레이 장치(100)는 제2 객체를 더 표시할 수 있다. 여기서, 제2 객체는 제1 객체가 이동할 수 있는 영역 내에 표시될 수 있다. 제1 객체는 제2 객체가 표시된 영역을 따라 이동할 수 있다.Also, according to another exemplary embodiment, the display apparatus 100 may further display the second object. Here, the second object may be displayed in an area in which the first object can move. The first object may move along the area in which the second object is displayed.

여기서, 도 4를 참조하면, 일 실시 예에 따라 디스플레이 장치(100)의 터치스크린(190) 상에 표시된 제1 객체(420) 및 탐색 바(bar)(430)를 포함하는 제2 객체가 도시되어 있다. 다만, 도 2에 도시된 제1 객체(320) 및 제2 객체의 형태는 일 실시 예를 설명하기 위한 것일 뿐, 본 발명이 이에 한정되지 아니한다.Here, referring to FIG. 4 , a second object including a first object 420 and a search bar 430 displayed on the touch screen 190 of the display apparatus 100 is illustrated according to an exemplary embodiment. has been However, the shapes of the first object 320 and the second object shown in FIG. 2 are only for describing an embodiment, and the present invention is not limited thereto.

복수의 위치들(411, 412)에 감지된 터치 입력이 피치-인 제스처 또는 피치-아웃 제스처인 것으로 판단되는 경우, 디스플레이 장치(100)는 제1 객체(420) 및 제2 객체를 디스플레이할 수 있다. 제1 객체(420)가 표시되는 위치는 탐색 바(430)가 표시된 영역을 따라 미리 정해진 방향(440)으로 이동될 수 있다. 여기서, 미리 정해진 방향(440)은 터치스크린(190)에 대해 세로 방향으로 도시되어 있으나, 이에 한정되지 아니한다.When it is determined that the touch input sensed at the plurality of positions 411 and 412 is a pitch-in gesture or a pitch-out gesture, the display apparatus 100 may display the first object 420 and the second object. have. The position where the first object 420 is displayed may be moved in a predetermined direction 440 along the area where the search bar 430 is displayed. Here, the predetermined direction 440 is illustrated in a vertical direction with respect to the touch screen 190 , but is not limited thereto.

또한, 다른 일 실시 예에 따르면, 제2 객체는 탐색 바(430)의 일측의 영역(435)에 표시되는 조작값을 더 포함할 수 있다. 조작값은 멀티미디어 컨텐츠가 조작되는 값을 의미한다. 예를 들어, 멀티미디어 컨텐츠가 지도인 경우, 조작값은 지도 정보를 출력할 축척을 포함할 수 있다. 다른 예를 들면, 멀티미디어 컨텐츠가 이미지 또는 동영상인 경우, 조작값은 이미지 또는 동영상을 출력할 배율(scale)을 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 조작값은 명암, 색채, 및 출력 모드(예를 들어, 영화 모드, 뉴스 모드, 스포트(sport) 모드, 흑백 모드 등) 등 출력되는 컨텐츠에 대해 조작이 가능한 어떤 값으로도 변경될 수 있다.Also, according to another exemplary embodiment, the second object may further include a manipulation value displayed in the area 435 of one side of the search bar 430 . The manipulation value means a value at which multimedia content is manipulated. For example, when the multimedia content is a map, the manipulation value may include a scale for outputting map information. For another example, when the multimedia content is an image or a video, the manipulation value may include a scale for outputting the image or video. However, it is not limited thereto, and the manipulated value is any value that can be manipulated for the output content, such as contrast, color, and output mode (eg, movie mode, news mode, sport mode, black and white mode, etc.) can also be changed to

일 실시 예에 따르면, 터치스크린(190)에 접촉되어 있던 물체가 떨어짐으로써 터치 입력이 종료된 경우, 디스플레이 장치(100)는 즉시 또는 미리 정해진 시간이 경과한 이후에 표시된 제1 객체 및 제2 객체를 제거할 수 있다.According to an embodiment, when the touch input is terminated because the object that has been in contact with the touch screen 190 falls, the display apparatus 100 displays the first object and the second object immediately or after a predetermined time has elapsed. can be removed.

다시 도 3을 참조하면, 디스플레이 장치(100)는 제1 객체가 표시된 상태에서 터치 입력이 검출되는 경우, 터치 입력이 이동 제스처(Moving Gesture)인지 여부를 모니터링할 수 있다(S350).Referring back to FIG. 3 , when a touch input is detected while the first object is displayed, the display apparatus 100 may monitor whether the touch input is a moving gesture ( S350 ).

이하에서는, 도 5를 참조하여 이동 제스처의 개념을 설명한다.Hereinafter, the concept of a movement gesture will be described with reference to FIG. 5 .

일 실시 예에 따르면, 디스플레이 장치(100)는 핀치-인 또는 핀치-아웃 제스처를 구성한 터치 입력이 감지되는 복수의 위치(411, 412) 각각의 터치 입력 좌표들을 모니터링할 수 있다. 모니터링의 결과로, 디스플레이 장치(100)는 각각의 터치 입력 좌표들의 이동 거리 및 이동 방향(511, 512)을 나타내는 벡터들을 산출할 수 있다.According to an embodiment, the display apparatus 100 may monitor touch input coordinates of each of a plurality of locations 411 and 412 at which a touch input constituting a pinch-in or pinch-out gesture is sensed. As a result of the monitoring, the display apparatus 100 may calculate vectors indicating the movement distances and movement directions 511 and 512 of the respective touch input coordinates.

일 실시 예에 따르면, 디스플레이 장치(100)는 벡터들의 방향이 서로 미리 정해진 범위 이내인 경우, 즉, 유사한 방향을 가지는 경우 터치 입력이 이동 제스처인 것으로 판단할 수 있다.According to an embodiment, the display apparatus 100 may determine that the touch input is a movement gesture when the directions of the vectors are within a predetermined range, ie, have similar directions.

다른 실시 예에 따르면, 디스플레이 장치(100)는 입력 좌표들의 이동 거리가 임계값 이상이고 입력 좌표들 사이의 거리의 변화량이 임계값 이하인 경우, 터치 입력이 이동 제스처인 것으로 판단할 수도 있다.According to another embodiment, the display apparatus 100 may determine that the touch input is a movement gesture when the movement distance of the input coordinates is greater than or equal to a threshold value and the change amount of the distance between the input coordinates is less than or equal to the threshold value.

이동 제스처가 입력되었다고 판단된 경우(S360), 디스플레이 장치(100)는 이동 제스처의 이동 방향 및 거리에 따라 제1 객체가 표시되는 이동할 수 있다(S370). 또한, 디스플레이 장치(100)는 이동 제스처의 이동 방향 및 거리에 따라 단계 S310에서 출력된 멀티미디어 컨텐츠의 출력을 조작할 수 있다(S380). 단계 S380에서 수행되는 동작은 멀티미디어 컨텐츠의 종류에 따라 변경될 수 있다. 예를 들어, 단계 S310에서 사진 촬영을 위한 애플리케이션이 실행되어 카메라 모듈(150)을 통해 획득되는 미리보기 영상이 출력되고 있는 경우에, 단계 S380에서 디스플레이 장치(100)는 카메라 모듈(150) 내지 카메라를 제어함으로써 미리보기 영상이 줌-인(zoom-in) 되거나 줌-아웃(zoom-out) 되도록 할 수 있다. 실시 예에 따라서, 이미지 또는 동영상이 출력되고 있는 상태에서 디스플레이 장치(100)는 단계 S380에서 이미지 또는 동영상이 줌-인 또는 줌-아웃 되도록 할 수 있다. 다만, 이에 한정되는 것은 아니며, 실시 예에 따라 단계 S380에서 출력되는 이미지 또는 동영상의 명암, 색채, 출력 모드(예를 들어, 영화 모드, 뉴스 모드, 스포트(sport) 모드, 흑백 모드 등) 등 출력되는 이미지 또는 동영상에 대해 조작 가능한 출력 옵션이 조작될 수 있다. 다른 예를 들면, 단계 S310에서 동영상 또는 음향을 재생하는 경우, 디스플레이 장치(100)는 동영상 또는 음향이 재생되는 재생 위치가 앞 또는 뒤로 변경되도록 할 수 있다. 또 다른 예를 들면, 단계 S310에서 출력되는 멀티미디어 컨텐츠는 브라우저를 통해 출력되는 웹 페이지일 수도 있다. 이 경우, 단계 S380에서는 브라우징되었던 웹 페이지의 이력에 따라 이전에 표시되었던 페이지 또는 이후에 표시되었던 페이지로 출력되는 웹 페이지가 변경될 수도 있다.When it is determined that a movement gesture is input (S360), the display apparatus 100 may move in which the first object is displayed according to the movement direction and distance of the movement gesture (S370). Also, the display apparatus 100 may manipulate the output of the multimedia content output in step S310 according to the moving direction and distance of the moving gesture (S380). The operation performed in step S380 may be changed according to the type of multimedia content. For example, when an application for taking a photo is executed in step S310 and a preview image obtained through the camera module 150 is output, in step S380 the display device 100 displays the camera module 150 to the camera. By controlling , the preview image can be zoomed in or zoomed out. According to an embodiment, in a state in which an image or a moving picture is being output, the display apparatus 100 may zoom-in or zoom-out the image or moving picture in operation S380. However, the present invention is not limited thereto, and the contrast, color, output mode (eg, movie mode, news mode, sport mode, black and white mode, etc.) of the image or video output in step S380 is output according to an embodiment. An operable output option may be manipulated for an image or a moving picture to be manipulated. For another example, when a moving picture or sound is reproduced in step S310 , the display apparatus 100 may change the reproduction position at which the moving image or sound is reproduced forward or backward. As another example, the multimedia content output in step S310 may be a web page output through a browser. In this case, in step S380, a web page output as a previously displayed page or a later displayed page may be changed according to the history of the browsed web page.

도 6은 일 실시 예에 따라 멀티미디어 컨텐츠가 지도 정보를 포함하는 경우, 지도 정보의 출력을 조작하는 예시를 도시한 도면이다.6 is a diagram illustrating an example of manipulating an output of map information when multimedia content includes map information, according to an embodiment.

도 6을 참조하면, 지도 정보가 표시된 화면(601)이 출력된 상태에서, 핀치-인 제스처 또는 핀치-아웃 제스처가 입력된 경우, 제1 객체(420-1) 및 탐색 바(430)와 조작값 표시 영역(435-1)을 포함하는 제2 객체가 화면(601) 상에 오버랩되어 표시될 수 있다. 화면(601)에 지도 정보가 표시되어 있는 경우, 조작값 표시 영역(435-1) 내에는 축척을 나타내는 값들이 표시될 수 있다. 화면(601)에 어떤 정보가 표시되어 있는지 여부는, 디스플레이 장치(100)가 실행중인 애플리케이션이 무엇인지에 따라 판단되거나, 스크린 캡쳐된 이미지에 대한 영상 인식을 수행함으로써 표시된 화면이 의미하는 바가 무엇인지 판단되는 등 다양한 방법으로 구현될 수 있다.Referring to FIG. 6 , when a pinch-in gesture or a pinch-out gesture is input while the screen 601 on which map information is displayed is output, manipulation with the first object 420-1 and the navigation bar 430 is performed. The second object including the value display area 435 - 1 may be overlapped and displayed on the screen 601 . When map information is displayed on the screen 601 , values indicating a scale may be displayed in the manipulation value display area 435 - 1 . Whether any information is displayed on the screen 601 is determined depending on what application the display device 100 is running, or what the displayed screen means by performing image recognition on a screen-captured image It may be implemented in various ways, such as determined.

여기서, 핀치-인 제스처 또는 핀치-아웃 제스처를 구성한 터치 입력이 유지된 상태에서, 터치 입력의 위치들(411-1, 412-1)이 다른 위치(411-2, 412-2)로 이동할 수 있다. 여기서, 제1 객체는 탐색 바(430) 상의 위치(420-1)로부터 터치 입력이 이동한 방향과 거리에 상응하는 위치(420-2)로 이동될 수 있다.Here, while the touch input constituting the pinch-in gesture or the pinch-out gesture is maintained, the positions 411-1 and 412-1 of the touch input may move to other positions 411-2 and 412-2. have. Here, the first object may be moved from a position 420-1 on the search bar 430 to a position 420-2 corresponding to the direction and distance in which the touch input is moved.

또한, 터치 입력이 이동한 방향과 거리에 상응하여, 디스플레이 장치(100)는 축척이 변경된 지도 정보를 포함하는 화면(602)을 디스플레이할 수 있다.Also, in response to the direction and distance in which the touch input moves, the display apparatus 100 may display the screen 602 including the scaled map information.

도 7은 일 실시 예에 따라 이미지의 출력을 조작하는 예시를 도시한 도면이다.7 is a diagram illustrating an example of manipulating an output of an image according to an embodiment.

도 7을 참조하면, 이미지(710-1)가 표시된 화면(701)이 출력된 상태에서, 핀치-인 제스처 또는 핀치-아웃 제스처가 입력된 경우, 제1 객체(420-3) 및 탐색 바(430)와 조작값 표시 영역(435-2)을 포함하는 제2 객체가 화면(701) 상에 오버랩되어 표시될 수 있다. 화면(701)에 이미지가 표시되어 있는 경우, 조작값 표시 영역(435-2) 내에는 이미지를 출력하는 배율을 나타내는 값들이 표시될 수 있다.Referring to FIG. 7 , when a pinch-in gesture or a pinch-out gesture is input while the screen 701 on which the image 710-1 is displayed is output, the first object 420-3 and the navigation bar ( The second object including the 430 and the manipulation value display area 435 - 2 may be overlapped and displayed on the screen 701 . When an image is displayed on the screen 701 , values indicating a magnification for outputting an image may be displayed in the manipulation value display area 435 - 2 .

여기서, 핀치-인 제스처 또는 핀치-아웃 제스처를 구성한 터치 입력이 유지된 상태에서, 터치 입력의 위치들(411-3, 412-3)이 다른 위치(411-4, 412-4)로 이동할 수 있다. 여기서, 제1 객체는 탐색 바(430) 상의 위치(420-3)로부터 터치 입력이 이동한 방향과 거리에 상응하는 위치(420-4)로 이동될 수 있다.Here, while the touch input constituting the pinch-in gesture or pinch-out gesture is maintained, the positions 411-3 and 412-3 of the touch input may move to other positions 411-4 and 412-4. have. Here, the first object may be moved from a position 420 - 3 on the search bar 430 to a position 420 - 4 corresponding to the direction and distance in which the touch input is moved.

또한, 터치 입력이 이동한 방향과 거리에 상응하여, 디스플레이 장치(100)는 배율이 변경된 이미지(710-2)를 포함하는 화면(702)을 디스플레이할 수 있다.Also, the display apparatus 100 may display the screen 702 including the image 710 - 2 of which the magnification is changed according to the direction and distance in which the touch input is moved.

본 명세서에서, 이미지에 관한 실시 예는 동상상의 경우에도 동일하게 적용될 수 있다.In this specification, the embodiment related to the image may be equally applied to the case of the statue image.

도 8은 일 실시 예에 따라 텍스트의 폰트(font)를 조작하는 예시를 도시한 도면이다.8 is a diagram illustrating an example of manipulating a font of text according to an embodiment.

도 8을 참조하면, 텍스트가 표시된 화면(801)이 출력된 상태에서, 핀치-인 제스처 또는 핀치-아웃 제스처가 입력된 경우, 제1 객체(420-5) 및 탐색 바(430)와 조작값 표시 영역(435-3)을 포함하는 제2 객체가 화면(801) 상에 오버랩되어 표시될 수 있다. 화면(701)에 텍스트가 표시되어 있는 경우, 조작값 표시 영역(435-3) 내에는 텍스트의 폰트 사이트(font size)를 나타내는 값들이 표시될 수 있다.Referring to FIG. 8 , when a pinch-in gesture or a pinch-out gesture is input while the screen 801 on which text is displayed is output, the first object 420-5, the navigation bar 430, and the manipulation value The second object including the display area 435 - 3 may overlap and be displayed on the screen 801 . When text is displayed on the screen 701 , values indicating a font size of the text may be displayed in the operation value display area 435 - 3 .

여기서, 핀치-인 제스처 또는 핀치-아웃 제스처를 구성한 터치 입력이 유지된 상태에서, 터치 입력의 위치들(411-5, 412-5)이 다른 위치(411-6, 412-6)로 이동할 수 있다. 여기서, 제1 객체는 탐색 바(430) 상의 위치(420-5)로부터 터치 입력이 이동한 방향과 거리에 상응하는 위치(420-6)로 이동될 수 있다.Here, while the touch input constituting the pinch-in gesture or the pinch-out gesture is maintained, the positions 411-5 and 412-5 of the touch input may move to other positions 411-6 and 412-6. have. Here, the first object may be moved from a position 420 - 5 on the search bar 430 to a position 420 - 6 corresponding to the direction and distance in which the touch input is moved.

또한, 터치 입력이 이동한 방향과 거리에 상응하여, 디스플레이 장치(100)는 폰트 사이트가 변경된 텍스트를 포함하는 화면(802)을 디스플레이할 수 있다.Also, in response to the direction and distance in which the touch input is moved, the display apparatus 100 may display the screen 802 including the text whose font site is changed.

다시 도 3을 참조하면, 단계 S360에서 터치 입력이 무빙 제스처가 아닌 것으로 판단한 경우 또는 단계 S370 및 단계 S380을 수행한 이후, 디스플레이 장치(100)로부터 접촉되어 있던 대상이 떨어짐에 따라 제스처가 종료되었는지 여부를 판단할 수 있다(S390). 제스처가 종료되지 않은 경우 단계 S350을 다시 수행할 수 있다. 제스처가 종료된 경우, 디스플레이 장치(100)는 표시된 제1 객체가 화면 상에 표시되지 않도록 할 수 있다.Referring back to FIG. 3 , when it is determined in step S360 that the touch input is not a moving gesture or after steps S370 and S380 are performed, the gesture is terminated as the object in contact with the display device 100 is separated can be determined (S390). If the gesture is not terminated, step S350 may be performed again. When the gesture is finished, the display apparatus 100 may prevent the displayed first object from being displayed on the screen.

도 9는 일 실시 예에 따라 이동 제스처를 검출하는 프로세스를 도시한 도면이다.9 is a diagram illustrating a process for detecting a movement gesture according to an embodiment.

먼저, 디스플레이 장치(100)는 이동 제스처의 벡터를 산출할 수 있다(S910). 일 실시 예에 따르면, 디스플레이 장치(100)는 이동 제스처의 벡터를 산출하기 위해, 터치 입력 좌표들이 각각 이동한 방향과 거리를 나타내는 벡터를 각각 산출하고, 각 벡터들을 합산함으로써 이동 제스처의 벡터를 산출할 수 있다. 또는, 다른 실시 예에 따르면, 디스플레이 장치(100)는 이동 제스처의 벡터를 산출하기 위해 각 터치 입력 좌표들의 평균값을 산출하고, 이동 후의 터치 입력 좌표들의 평균값과 이동 전의 터치 입력 좌표들의 평균값의 차에 기초하여 이동 제스처의 벡터를 산출할 수도 있다. 다만, 이에 한정되지 아니한다.First, the display apparatus 100 may calculate a vector of a movement gesture (S910). According to an embodiment, in order to calculate the vector of the movement gesture, the display apparatus 100 calculates vectors representing the direction and distance moved by the touch input coordinates, respectively, and calculates the vector of the movement gesture by summing the vectors. can do. Alternatively, according to another embodiment, the display apparatus 100 calculates an average value of each touch input coordinate in order to calculate a vector of a movement gesture, and returns the difference between the average value of the touch input coordinates after movement and the average value of the touch input coordinates before movement. It is also possible to calculate a vector of the movement gesture based on it. However, the present invention is not limited thereto.

이후, 디스플레이 장치(100)는 산출된 이동 제스처의 벡터를 제1 객체의 이동 방향에 대한 제1 이동 거리 및 법선 방향에 대한 제2 이동 거리를 산출할 수 있다(S920). 도 10을 참조하면, 제1 객체가 이동 가능한 방향이 상하 방향(440)인 경우, 디스플레이 장치는 상하 방향(440)과 그 법선 방향으로 벡터의 성분을 분리할 수 있다.Thereafter, the display apparatus 100 may calculate a first movement distance with respect to the movement direction of the first object and a second movement distance with respect to the normal direction from the calculated vector of the movement gesture ( S920 ). Referring to FIG. 10 , when the moving direction of the first object is the vertical direction 440 , the display device may separate the vector components in the vertical direction 440 and the normal direction thereof.

이후, 디스플레이 장치(100)는 제1 이동 거리와 제2 이동 거리의 비가 임계값 이상인지 여부를 판단할 수 있다(S930). 디스플레이 장치(100)는 제1 이동 거리와 제2 이동 거리의 비가 임계값 이상인 경우에만 제1 객체의 위치를 이동하고(S940), 컨텐츠의 출력을 조작할 수 있다(S950). 즉, 이동 제스처가 제1 객체가 이동하는 방향이 상하 방향인 경우, 좌우 방향으로 입력되는 이동 제스처에 대해서는 단계 S940 및 단계 S950을 실행하지 않을 수 있다.Thereafter, the display apparatus 100 may determine whether the ratio of the first movement distance to the second movement distance is equal to or greater than a threshold value (S930). The display apparatus 100 may move the position of the first object only when the ratio of the first movement distance to the second movement distance is equal to or greater than the threshold value (S940) and manipulate the output of the content (S950). That is, when the moving gesture is the vertical direction in which the first object moves, steps S940 and S950 may not be executed with respect to the moving gesture input in the left and right directions.

도 10을 참조하면, 이동 제스처의 벡터가 제1 벡터(510-1)인 경우, 제1 벡터(510-1)는 제1 객체의 이동 방향(440)과 같은 방향을 가지는 이동 방향 성분(1010-1)과 법선 방향 성분(1020-1)으로 분리될 수 있다. 제1 벡터(510-1)와 같이 이동 방향 성분(1010-1)이 큰 경우, 디스플레이 장치(100)는 단계 S940 및 단계 S950을 실행할 수 있다. 반대로, 제2 벡터(510-2)의 경우, 이동 방향 성분(1010-2)이 법선 방향 성분(1020-2)에 비해 상당히 적으므로, 디스플레이 장치(100)는 단계 S940 및 단계 S950을 실행하지 않을 수 있다.Referring to FIG. 10 , when the vector of the movement gesture is a first vector 510-1, the first vector 510-1 is a movement direction component 1010 having the same direction as the movement direction 440 of the first object. -1) and the normal direction component 1020-1. When the movement direction component 1010-1 is large like the first vector 510-1, the display apparatus 100 may execute steps S940 and S950. Conversely, in the case of the second vector 510 - 2 , since the movement direction component 1010 - 2 is significantly smaller than the normal direction component 1020 - 2 , the display apparatus 100 does not execute steps S940 and S950 . may not be

도 11은 일 실시 예에 따라 디스플레이 장치가 조작량에 따라 멀티미디어 컨텐츠의 출력을 조작하는 프로세스를 도시한 도면이다.11 is a diagram illustrating a process in which a display apparatus manipulates an output of multimedia content according to a manipulation amount, according to an exemplary embodiment.

먼저, 디스플레이 장치(100)는 제1 객체를 표시한 상태에서 무빙 제스처를 검출할 수 있다(S1110). 이후, 디스플레이 장치(100)는 무빙 제스처를 구성하는 터치 입력 좌표들 사이의 거리를 산출할 수 있다(S1120). 터치 입력 좌표들 사이의 거리에 기초하여, 디스플레이 장치(100)는 조작량을 결정할 수 있다(S1130). 여기서, 조작량은 멀티미디어 컨텐츠를 조작하는 정도를 의미한다. 또는 조작량은 이동 제스처의 이동 거리에 대한 가중치로 적용될 수 있다. First, the display apparatus 100 may detect a moving gesture while the first object is displayed ( S1110 ). Thereafter, the display apparatus 100 may calculate a distance between the touch input coordinates constituting the moving gesture ( S1120 ). Based on the distance between the touch input coordinates, the display apparatus 100 may determine a manipulation amount ( S1130 ). Here, the manipulation amount refers to the degree to which the multimedia content is manipulated. Alternatively, the manipulation amount may be applied as a weight for the moving distance of the moving gesture.

이후, 디스플레이 장치(100)는 조작량에 비례하여 컨텐츠의 출력을 조작할 수 있다(S1140). 예를 들어, 도 12를 참조하면, 디스플레이 장치(100)가 조작량에 따라 제1 객체가 표시되는 위치를 변경하는 예시가 도시되어 있다. 도 12의 (a)에 도시된 바와 같이, 이동 제스처를 구성하는 터치 입력 좌표(411-7, 412-7) 사이의 거리(1210-1)가 큰 경우, 터치 입력 좌표의 이동 거리(1200)에 비해 제1 객체의 이동 거리(1220-1)가 보다 클 수 있다. 반대로, 도 12의 (b)에 도시된 바와 같이, 이동 제스처를 구성하는 터치 입력 좌표(411-8, 412-8)가 동일한 이동 거리(1200)만큼 이동한 경우에도, 터치 입력 좌표(411-7, 412-7) 사이의 거리(1210-2)가 작은 경우에는 제1 객체(420-8)는 보다 작은 이동 거리(1220-2)만큼 이동할 수 있다. 이와 유사하게, 도 11의 단계 S1140에서, 디스플레이 장치(100)는 제1 객체의 이동 거리에 비례하여 멀티미디어 컨텐츠를 조작할 수 있다. 예를 들면, 이미지나 동영상을 출력하는 경우에, 이동 제스처를 구성하는 터치 입력 좌표들 사이의 거리가 클수록 이동 제스처에 따라 이미지나 동영상의 배율이 변경되는 변화량이 크게 적용될 수 있다. Thereafter, the display apparatus 100 may manipulate the output of the content in proportion to the amount of manipulation ( S1140 ). For example, referring to FIG. 12 , an example in which the display apparatus 100 changes a position at which a first object is displayed according to a manipulation amount is illustrated. As shown in (a) of FIG. 12 , when the distance 1210-1 between the touch input coordinates 411-7 and 412-7 constituting the movement gesture is large, the movement distance 1200 of the touch input coordinates is large. Compared to , the movement distance 1220-1 of the first object may be greater. Conversely, as shown in (b) of FIG. 12 , even when the touch input coordinates 411 - 8 and 412 - 8 constituting the movement gesture are moved by the same movement distance 1200 , the touch input coordinates 411 - 411 - When the distance 1210 - 2 between 7 and 412 - 7 is small, the first object 420 - 8 may move by a smaller movement distance 1220 - 2 . Similarly, in step S1140 of FIG. 11 , the display apparatus 100 may manipulate the multimedia content in proportion to the moving distance of the first object. For example, in the case of outputting an image or a video, the greater the distance between the touch input coordinates constituting the movement gesture is, the greater the amount of change in which the magnification of the image or video is changed according to the movement gesture may be applied.

지금까지 설명된 본 발명의 실시예에 따른 방법들은 컴퓨터가 읽을 수 있는 코드로 구현된 컴퓨터프로그램에 포함된 오퍼레이션들의 실행에 의하여 수행될 수 있다. 상기 컴퓨터프로그램은 인터넷 등의 네트워크를 통하여 제1 컴퓨팅 장치로부터 제2 컴퓨팅 장치에 전송되어 상기 제2 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 제2 컴퓨팅 장치에서 사용될 수 있다. 상기 제1 컴퓨팅 장치 및 상기 제2 컴퓨팅 장치는, 서버 장치, 클라우드 서비스를 위한 서버 풀에 속한 물리 서버, 데스크탑 피씨와 같은 고정식 컴퓨팅 장치를 모두 포함한다. 상술된 컴퓨팅 장치는 디스플레이 장치에 포함될 수 있다.The methods according to the embodiments of the present invention described so far may be performed by executing operations included in a computer program implemented as computer readable code. The computer program may be transmitted from the first computing device to the second computing device through a network such as the Internet and installed in the second computing device, thereby being used in the second computing device. The first computing device and the second computing device include all of a server device, a physical server belonging to a server pool for cloud services, and a stationary computing device such as a desktop PC. The above-described computing device may be included in the display device.

상기 컴퓨터프로그램은 DVD-ROM, 플래시 메모리 장치 등의 기록매체에 저장된 것일 수도 있다.The computer program may be stored in a recording medium such as a DVD-ROM or a flash memory device.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can realize that the present invention can be implemented in other specific forms without changing the technical spirit or essential features. can understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (11)

터치스크린을 구비한 디스플레이 장치가 멀티미디어 컨텐츠를 조작하는 방법에 있어서,
상기 멀티미디어 컨텐츠를 출력하는 단계;
상기 터치스크린을 통해 검출된 복수의 터치 입력의 좌표들로부터 핀치-인 제스처(Pinch-in Gesture) 또는 핀치-아웃 제스처(Pinch-out Gesture)를 검출하되, 상기 복수의 터치 입력은 상기 터치스크린에 출력된 상기 멀티미디어 컨텐츠에 대한 입력인, 단계;
상기 핀치-인 제스처(Pinch-in Gesture) 또는 상기 핀치-아웃 제스처(Pinch-out Gesture)에 대한 응답으로, 상기 터치스크린에 상기 멀티미디어 컨텐츠의 출력을 조작하기 위한 제1 객체를 표시하는 단계;
상기 복수의 터치 입력의 좌표에 대한 이동 제스처(Moving Gesture)를 검출하되, 상기 이동 제스처는 상기 복수의 터치 입력의 좌표들 각각이 이동한 거리가 제1 기준치 이상이되, 상기 복수의 터치 입력의 좌표들 사이의 거리의 변화량이 제2 기준치 이하일때 검출되는 제스처인, 단계;
상기 이동 제스처의 이동 방향 및 상기 이동 제스처의 이동 거리에 따라 상기 제1 객체가 표시되는 위치를 이동하는 단계; 및
상기 이동 방향 및 상기 이동 거리에 따라 상기 멀티미디어 컨텐츠의 출력을 조작하는 단계;를 포함하는
멀티미디어 컨텐츠 조작 방법.
A method for a display device having a touch screen to manipulate multimedia content, the method comprising:
outputting the multimedia content;
A pinch-in gesture or a pinch-out gesture is detected from coordinates of a plurality of touch inputs detected through the touch screen, wherein the plurality of touch inputs are applied to the touch screen. an input to the outputted multimedia content;
displaying a first object for manipulating the output of the multimedia content on the touch screen in response to the pinch-in gesture or the pinch-out gesture;
A moving gesture is detected with respect to the coordinates of the plurality of touch inputs, wherein a distance traveled by each of the coordinates of the plurality of touch inputs is equal to or greater than a first reference value, and the coordinates of the plurality of touch inputs a gesture detected when the amount of change in the distance between the two is less than or equal to a second reference value;
moving a position where the first object is displayed according to a moving direction of the moving gesture and a moving distance of the moving gesture; and
Manipulating the output of the multimedia content according to the moving direction and the moving distance;
How to manipulate multimedia content.
제1 항에 있어서,
상기 멀티미디어 컨텐츠는,
지도 정보를 포함하고,
상기 출력을 조작하는 단계는,
상기 지도 정보가 출력되는 축척을 변경하는 것을 특징으로 하는,
멀티미디어 컨텐츠 조작 방법.
According to claim 1,
The multimedia content is
contains map information;
Manipulating the output includes:
characterized in that the scale at which the map information is output is changed,
How to manipulate multimedia content.
제1 항에 있어서,
상기 멀티미디어 컨텐츠는,
이미지 또는 동영상을 포함하고,
상기 출력을 조작하는 단계는,
상기 이미지 또는 동영상을 출력하기 위해 설정되는 출력 옵션을 변경하는 것을 특징으로 하는,
멀티미디어 컨텐츠 조작 방법.
According to claim 1,
The multimedia content is
contains images or videos;
Manipulating the output includes:
Characterized in changing the output option set to output the image or video,
How to manipulate multimedia content.
제1 항에 있어서,
상기 멀티미디어 컨텐츠는,
텍스트를 포함하고,
상기 출력을 조작하는 단계는,
상기 텍스트의 폰트 사이즈(font size)를 변경하는 것을 특징으로 하는,
멀티미디어 컨텐츠 조작 방법.
According to claim 1,
The multimedia content is
contains text;
Manipulating the output includes:
Characterized in changing the font size of the text,
How to manipulate multimedia content.
제1 항에 있어서,
상기 멀티미디어 컨텐츠를 출력하는 단계는,
동영상 또는 음향을 재생하는 단계를 포함하고,
상기 출력을 조작하는 단계는,
상기 동영상 또는 상기 음향의 재생 위치를 변경하는 것을 특징으로 하는,
멀티미디어 컨텐츠 조작 방법.
According to claim 1,
The step of outputting the multimedia content comprises:
Playing a video or sound,
Manipulating the output includes:
characterized in that the playback position of the video or the sound is changed,
How to manipulate multimedia content.
제1 항에 있어서,
상기 제1 객체를 표시하는 단계는,
상기 제1 객체가 이동되는 범위 내에 표시되는 탐색 바(bar) 및 상기 탐색 바의 일측에 위치하는 조작값을 포함하는 제2 객체를 더 표시하는 것을 특징으로 하는,
멀티미디어 컨텐츠 조작 방법.
According to claim 1,
Displaying the first object comprises:
characterized in that it further displays a second object including a search bar displayed within a range in which the first object is moved and a manipulation value located at one side of the search bar,
How to manipulate multimedia content.
제1 항에 있어서,
상기 이동 제스처를 검출하는 단계는,
상기 복수의 터치 입력의 좌표들 각각이 이동한 거리와 방향을 나타내는 벡터들로부터 이동 제스처 벡터를 산출하는 단계;
상기 이동 제스처의 벡터로부터 제1 객체에 대한 이동 방향 성분과 법선 방향 성분을 분리하는 단계;
상기 법선 방향 성분의 크기에 대한 상기 이동 방향 성분의 비가 임계값 이상인 경우, 상기 이동하는 단계 및 상기 조작하는 단계를 실행하는 단계;를 포함하는,
멀티미디어 컨텐츠 조작 방법.
According to claim 1,
The step of detecting the movement gesture comprises:
calculating a movement gesture vector from vectors indicating a distance and a direction moved by each of the coordinates of the plurality of touch inputs;
separating a movement direction component and a normal direction component for the first object from the vector of the movement gesture;
When the ratio of the movement direction component to the size of the normal direction component is equal to or greater than a threshold value, executing the moving step and the manipulating step;
How to manipulate multimedia content.
제1 항에 있어서,
상기 멀티미디어 컨텐츠 조작 방법은,
상기 이동 제스처가 검출된 경우, 상기 터치 입력의 좌표들 사이의 거리를 산출하는 단계; 및
상기 산출된 거리에 기초하여 조작량을 결정하는 단계;를 더 포함하고,
상기 조작하는 단계는,
상기 결정된 조작량에 기초하여 상기 멀티미디어 컨텐츠의 출력을 조작하는 것을 특징으로 하는,
멀티미디어 컨텐츠 조작 방법.
According to claim 1,
The multimedia content manipulation method comprises:
calculating a distance between coordinates of the touch input when the movement gesture is detected; and
Determining an operation amount based on the calculated distance; further comprising,
The operation step is
characterized in that the output of the multimedia content is manipulated based on the determined amount of manipulation,
How to manipulate multimedia content.
터치스크린을 구비한 디스플레이 장치에 있어서,
프로세서;
상기 프로세서에 의해 실행되는 복수의 오퍼레이션들을 저장하는 메모리; 및
화면을 출력하고, 터치 입력을 감지하는 터치 스크린을 포함하되,
상기 복수의 오퍼레이션들은,
멀티미디어 컨텐츠를 출력하는 오퍼레이션;
상기 터치스크린을 통해 검출된 복수의 터치 입력의 좌표들로부터 핀치-인 제스처(Pinch-in Gesture) 또는 핀치-아웃 제스처(Pinch-out Gesture)를 검출하되, 상기 복수의 터치 입력은 상기 터치스크린에 출력된 상기 멀티미디어 컨텐츠에 대한 입력인, 오퍼레이션;
상기 핀치-인 제스처(Pinch-in Gesture) 또는 상기 핀치-아웃 제스처(Pinch-out Gesture)에 대한 응답으로, 상기 터치스크린에 상기 멀티미디어 컨텐츠의 출력을 조작하기 위한 제1 객체를 표시하는 오퍼레이션;
상기 복수의 터치 입력의 좌표에 대한 이동 제스처(Moving Gesture)를 검출하되, 상기 이동 제스처는 상기 복수의 터치 입력의 좌표들 각각이 이동한 거리가 제1 기준치 이상이되, 상기 복수의 터치 입력의 좌표들 사이의 거리의 변화량이 제2 기준치 이하일때 검출되는 제스처인, 오퍼레이션;
상기 이동 제스처의 이동 방향 및 상기 이동 제스처의 이동 거리에 따라 상기 제1 객체가 표시되는 위치를 이동하는 오퍼레이션; 및
상기 이동 방향 및 상기 이동 거리에 따라 상기 멀티미디어 컨텐츠의 출력을 조작하는 오퍼레이션;을 포함하는
디스플레이 장치.
In the display device having a touch screen,
processor;
a memory storing a plurality of operations executed by the processor; and
A touch screen that outputs a screen and senses a touch input,
The plurality of operations are
an operation for outputting multimedia content;
A pinch-in gesture or a pinch-out gesture is detected from coordinates of a plurality of touch inputs detected through the touch screen, wherein the plurality of touch inputs are applied to the touch screen. an operation that is an input to the outputted multimedia content;
displaying a first object for manipulating the output of the multimedia content on the touch screen in response to the pinch-in gesture or the pinch-out gesture;
A moving gesture is detected with respect to the coordinates of the plurality of touch inputs, wherein a distance traveled by each of the coordinates of the plurality of touch inputs is equal to or greater than a first reference value, and the coordinates of the plurality of touch inputs an operation, which is a gesture detected when an amount of change in a distance between the two is less than or equal to a second reference value;
an operation of moving a position where the first object is displayed according to a moving direction of the moving gesture and a moving distance of the moving gesture; and
including; an operation of manipulating the output of the multimedia content according to the moving direction and the moving distance
display device.
제9 항에 있어서,
상기 디스플레이 장치는,
카메라를 더 포함하고,
상기 멀티미디어 컨텐츠는,
상기 카메라를 통해 획득되는 미리보기 영상 신호이며,
상기 출력을 조작하는 오퍼레이션은, 상기 카메라를 제어하는 오퍼레이션을 포함하는,
디스플레이 장치.
10. The method of claim 9,
The display device is
further including a camera,
The multimedia content is
It is a preview image signal obtained through the camera,
The operation of manipulating the output includes an operation of controlling the camera,
display device.
비일시적(non-transitory) 컴퓨터 판독 가능한 매체에 기록된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램의 명령어들이 서버의 프로세서에 의해 실행되는 경우에,
멀티미디어 컨텐츠를 출력하는 단계;
터치스크린을 통해 검출된 복수의 터치 입력의 좌표들로부터 핀치-인 제스처(Pinch-in Gesture) 또는 핀치-아웃 제스처(Pinch-out Gesture)를 검출하되, 상기 복수의 터치 입력은 상기 터치스크린에 출력된 상기 멀티미디어 컨텐츠에 대한 입력인, 단계;
상기 핀치-인 제스처(Pinch-in Gesture) 또는 상기 핀치-아웃 제스처(Pinch-out Gesture)에 대한 응답으로, 상기 터치스크린에 상기 멀티미디어 컨텐츠의 출력을 조작하기 위한 제1 객체를 표시하는 단계;
상기 복수의 터치 입력의 좌표에 대한 이동 제스처(Moving Gesture)를 검출하되, 상기 이동 제스처는 상기 복수의 터치 입력의 좌표들 각각이 이동한 거리가 제1 기준치 이상이되, 상기 복수의 터치 입력의 좌표들 사이의 거리의 변화량이 제2 기준치 이하일때 검출되는 제스처인, 단계;
상기 이동 제스처의 이동 방향 및 상기 이동 제스처의 이동 거리에 따라 상기 제1 객체가 표시되는 위치를 이동하는 단계; 및
상기 이동 방향 및 상기 이동 거리에 따라 상기 멀티미디어 컨텐츠의 출력을 조작하는 단계;를 포함하는 동작이 수행되는 것을 특징으로 하는,
컴퓨터 프로그램.

A computer program recorded on a non-transitory computer readable medium, wherein the instructions of the computer program are executed by a processor of a server,
outputting multimedia content;
A pinch-in gesture or a pinch-out gesture is detected from coordinates of a plurality of touch inputs detected through a touch screen, wherein the plurality of touch inputs are output to the touch screen which is an input for the multimedia content;
displaying a first object for manipulating the output of the multimedia content on the touch screen in response to the pinch-in gesture or the pinch-out gesture;
A moving gesture is detected with respect to the coordinates of the plurality of touch inputs, wherein a distance traveled by each of the coordinates of the plurality of touch inputs is equal to or greater than a first reference value, and the coordinates of the plurality of touch inputs a gesture detected when the amount of change in the distance between them is less than or equal to a second reference value;
moving a position where the first object is displayed according to a moving direction of the moving gesture and a moving distance of the moving gesture; and
Manipulating the output of the multimedia content according to the moving direction and the moving distance;
computer program.

KR1020170163351A 2017-11-30 2017-11-30 Display apparatus for operating multimedia content and operation method thereof KR102295170B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170163351A KR102295170B1 (en) 2017-11-30 2017-11-30 Display apparatus for operating multimedia content and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170163351A KR102295170B1 (en) 2017-11-30 2017-11-30 Display apparatus for operating multimedia content and operation method thereof

Publications (2)

Publication Number Publication Date
KR20190064072A KR20190064072A (en) 2019-06-10
KR102295170B1 true KR102295170B1 (en) 2021-08-27

Family

ID=66848216

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170163351A KR102295170B1 (en) 2017-11-30 2017-11-30 Display apparatus for operating multimedia content and operation method thereof

Country Status (1)

Country Link
KR (1) KR102295170B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210123920A (en) * 2020-04-06 2021-10-14 삼성전자주식회사 Electronic device for providing editing function by air gesture, method for operating thereof and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078273A (en) 2010-10-05 2012-04-19 Casio Comput Co Ltd Information processing apparatus, method and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101092796B1 (en) * 2009-12-31 2011-12-12 성균관대학교산학협력단 A Mobile Telecommunication Terminal with Input Interface of Conversion Gesture and its Control Method
KR101976178B1 (en) * 2012-06-05 2019-05-08 엘지전자 주식회사 Mobile terminal and method for controlling of the same
KR20160099399A (en) * 2015-02-12 2016-08-22 엘지전자 주식회사 Watch type terminal
KR102452771B1 (en) * 2015-11-18 2022-10-11 한화테크윈 주식회사 The Method For Setting Desired Point And The Method For Setting Driving Route Of Vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078273A (en) 2010-10-05 2012-04-19 Casio Comput Co Ltd Information processing apparatus, method and program

Also Published As

Publication number Publication date
KR20190064072A (en) 2019-06-10

Similar Documents

Publication Publication Date Title
US11516381B2 (en) Display device and operating method thereof with adjustments related to an image display according to bending motion of the display device
KR102016975B1 (en) Display apparatus and method for controlling thereof
KR101923929B1 (en) Mobile communication terminal device for providing augmented reality service and method for changing to display for augmented reality service
CN103853381B (en) Display apparatus and method of controlling the same
KR102067620B1 (en) Apparatus, method and computer readable recording medium for displaying the thumbnail image of a panorama picture
KR102056128B1 (en) Portable apparatus and method for taking a photograph by using widget
KR102536945B1 (en) Image display apparatus and operating method for the same
CN107430433B (en) Display apparatus and method of operating the same
EP2753065B1 (en) Method and apparatus for laying out image using image recognition
KR102191972B1 (en) Display device and method of displaying screen on said display device
US9715339B2 (en) Display apparatus displaying user interface and method of providing the user interface
KR102102438B1 (en) Display apparatus and method for controlling thereof
KR20140042409A (en) Device for inputting additional object information and method for inputting additional object information
KR102072509B1 (en) Group recording method, machine-readable storage medium and electronic device
KR20140111088A (en) Mobile apparatus providing preview by detecting rub gesture and control method thereof
US20140337769A1 (en) Method and apparatus for using electronic device
KR102186815B1 (en) Method, apparatus and recovering medium for clipping of contents
KR20140110646A (en) User termial and method for displaying screen in the user terminal
KR102295170B1 (en) Display apparatus for operating multimedia content and operation method thereof
KR20140113032A (en) Method and apparatus for displaying screen in a portable terminal
KR20140102905A (en) Method for controlling contents displyed on touch screen and display apparatus therefor
KR20150026110A (en) A method for managing icons and a mobile terminal therefor
CN113507647B (en) Method, device, terminal and readable storage medium for controlling playing of multimedia data
KR20130123794A (en) Memo application
KR101955280B1 (en) Apparatus and Method for Providing Zoom Effect for Face in Image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant